[PDF] [PDF] Optimisation - Dspace 12 mar 2020 · 1 I





Previous PDF Next PDF



Exercices sur le cours “Optimisation et programmation dynamique” 1

Ecrire les conditions nécessaires d'opti- malité et calculer cette solution. 3. (difficile) Montrer que le probl`eme admet bien une solution. Exercice 3. On 



QUELQUES EXERCICES CORRIGÉS DOPTIMISATION EXERCICE

QUELQUES EXERCICES CORRIGÉS D'OPTIMISATION. EXERCICE I (Calcul différentiel). 1. Montrer que la fonction f : R2 ? R2 définie par f(x y) =.



MS41 Optimisation I

29 juil. 2014 Optimisation I. Recueil d'exercices corrigés et aide-mémoire. Gloria Faccanoni i http://faccanoni.univ-tln.fr/enseignements.html.



Optimisation I

Il est important de ne pas consulter le corrigé qui se trouve à la fin du texte sur des feuilles de couleur avant d'avoir terminé les exercices. 2° Évaluez vos 



Devoir Maison dOptimisation Numérique – Corrigé

Devoir Maison d'Optimisation Numérique. –. Corrigé. Exercice 1 (6 points). Soit C ? R2 l'ensemble donné par. C := {(x y) ? R2 : (x2 ? 1)2 + y2 ? 4}.



Table des matières 1 Calcul différentiel

QUELQUES EXERCICES CORRIGÉS D'OPTIMISATION. Yannick PRIVAT - yannick.privat@unistra.fr 2 Analyse des problèmes d'optimisation sans contrainte.



1 Les conditions de Kuhn-Tucker

Corrigés d'optimisation convexe et quadratique Exercices corrigés . ... C'est un probl`eme d'optimisation sous contrainte égalité. On utilise donc la.



MS52 Optimisation

6 oct. 2016 On a inclus dans ce texte nombreux exercices corrigés. ... et l'omniprésence des fonctions de plusieurs variables et de l'optimisation.



Corrigé optimisation 3M

Exercice 7.5. ? Figure d'étude et définition des inconnues. • x = distance de O à P. • base du rectangle = 2x. • hauteur du rect. = y. ? À optimiser.



Corrigé type de la série des exercices 1 Optimisation sans

Corrigé type de la série des exercices 1. Optimisation sans contraintes -LMD- S5. Solution de l'exercice 1. Soit f : R2 ?? R la fonction définie f(x y) =.



[PDF] Exercices sur le cours “Optimisation et programmation dynamique”

Montrer que le point (10) est le minimum du probl`eme Exercice 6 Soit A une matrice symétrique de format n × n 1 Montrer que m = min



[PDF] Optimisation I - Sofad

Voici quelques suggestions pour réussir ces exercices 1° Rédigez les solutions en prenant pour modèle les exemples présentés dans le texte Il est important de 



(PDF) Optimisation: Cours et exercices Version 2021 - ResearchGate

21 sept 2021 · PDF On Jul 9 2021 Sonia Radjef published Optimisation: Cours et exercices Version 2021 Find read and cite all the research you need 



[PDF] Optimisation - Dspace

12 mar 2020 · 1 I Optimisation sans contraintes 5 2 5 Quelques exemples corrigés Chaque chapitre est clôturé par un ensemble d'exercices



[PDF] Devoir Maison dOptimisation Numérique Corrigé

Corrigé essayez de le faire en deux heures max Vrai ou faux 1 (4 points) Exercice 2 (5 points) Considérer la fonctionnelle J(f) := ? 1



[PDF] Devoir Maison dOptimisation Numérique – Corrigé

Devoir Maison d'Optimisation Numérique – Corrigé Exercice 1 (6 points) Soit C ? R2 l'ensemble donné par C := {(x y) ? R2 : (x2 ? 1)2 + y2 ? 4} 1



(PDF) Exercices + Correction dOptimisation Linéaire - Academiaedu

Exercice 1 (Voir la solution 1) Un artisan menuisier fabrique des tables et des chaises à base du bois et d'un métal pour le compte d'un revendeur 



[PDF] Cours dOptimisation numérique

5 2 Exercices sur l'optimisation sans contraintes Cours de G Carlier (optimisation) : https://www ceremade dauphine fr/?carlier/progdyn pdf



[PDF] Éléments de Cours exercices et problèmes corrigés

ANALYSE VARIATIONNELLE ET OPTIMISATION Éléments de Cours exercices et problèmes corrigés D AZÉ J -B HIRIART-URRUTY 

:

Republique Algerienne Democratique et Populaire.

Ministere de l'Enseignement Superieur et de la Recherche

Scientique.

Universite des Sciences et de la Technologie d'Oran.

Mohamed Boudiaf.

Faculte des Mathematiques et Informatique

Departement des Mathematiques

Optimisation

Cours et exercices

Presente par:

Dr RADJEF Epouse DOUAR Sonia

2019

Table des matieres

Introduction Generale 1

I Optimisation sans contraintes 4

1 Concepts et Considerations Theoriques 5

1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.2 Vecteurs et matrices . . . . . . . . . . . . . . . . . . . . . . . 5

1.2.1 Matrices et vecteurs partitionnes . . . . . . . . . . . . 6

1.3 Discussion generale sur les solutions d'un systeme lineaire . . . 7

1.4 Proprietes des formes quadratiques . . . . . . . . . . . . . . . 8

1.4.1 Gradient d'une forme quadratique . . . . . . . . . . . . 9

1.4.2 Forme quadratique denie et semi-denie positive . . . 10

1.4.3 Critere de Sylvester pour les formes quadratiques denies

et semi-denies . . . . . . . . . . . . . . . . . . . . . . 11

1.4.4 Proprietes des matrices denies et semi-denies positives 12

1.5Elements d'analyse convexe . . . . . . . . . . . . . . . . . . . 13

1.5.1 Ensembles convexes . . . . . . . . . . . . . . . . . . . . 13

1.5.2 Fonctions convexes . . . . . . . . . . . . . . . . . . . . 15

1.6 Semi-continuite inferieure . . . . . . . . . . . . . . . . . . . . 17

1.7 Sur les polyedres et les polytopes . . . . . . . . . . . . . . . . 18

1.8 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

2 Optimisation non lineaire sans contraintes 22

2.1 Formulation mathematique d'un probleme d'optimisation . . . 22

2.2 Minima locaux et globaux . . . . . . . . . . . . . . . . . . . . 24

2.3 Theoremes generaux d'existence . . . . . . . . . . . . . . . . . 26

2.4 Caracterisation des solutions optimales . . . . . . . . . . . . . 28

1 2

2.4.1 Conditions necessaires d'optimalite . . . . . . . . . . . 28

2.4.2 Conditions susantes d'optimalite . . . . . . . . . . . 30

2.5Etude de quelques exemples . . . . . . . . . . . . . . . . . . . 31

2.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

3 Les methodes numeriques pour l'optimisation sans contraintes 37

3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

3.2 La methode du gradient . . . . . . . . . . . . . . . . . . . . . 38

3.2.1 Interpretation physique du gradient . . . . . . . . . . . 38

3.2.2 Selection des directions de descente . . . . . . . . . . . 39

3.2.3 Selection du pas . . . . . . . . . . . . . . . . . . . . . . 40

3.3 La methode de Newton . . . . . . . . . . . . . . . . . . . . . . 44

3.4 La methode du gradient conjugue . . . . . . . . . . . . . . . . 48

3.4.1 Cas lineaire . . . . . . . . . . . . . . . . . . . . . . . . 48

3.4.2 Cas non lineaire . . . . . . . . . . . . . . . . . . . . . . 51

3.5 La methode de relaxation . . . . . . . . . . . . . . . . . . . . 52

3.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

II Optimisation avec contraintes 56

4 Optimisation non lineaire avec contraintes 57

4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

4.2 Theoremes generaux d'existence . . . . . . . . . . . . . . . . . 59

4.3 Conditions d'optimalite . . . . . . . . . . . . . . . . . . . . . 61

4.3.1 Conditions necessaires d'optimalite dans le cas des contraintes

quelconques . . . . . . . . . . . . . . . . . . . . . . . . 61

4.3.2 Conditions d'optimalite pour le cas de contraintes lineaires

de type egalites . . . . . . . . . . . . . . . . . . . . . . 63

4.3.3 Conditions d'optimalite pour le cas de contraintes lineaires

de type inegalites . . . . . . . . . . . . . . . . . . . . . 72

4.3.4 Conditions d'optimalite pour le cas de contraintesegalites

non lineaires . . . . . . . . . . . . . . . . . . . . . . . . 79

4.3.5 Conditions d'optimalite pour le cas de contraintes inegalites

non lineaires . . . . . . . . . . . . . . . . . . . . . . . . 84

4.3.6 Optimisation des fonctions non lineaires sous des contraintes

generales non lineaires . . . . . . . . . . . . . . . . . . 88

4.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

3

5 Les methodes numeriques pour l'optimisation avec contraintes

99

5.1 Methode par elimination . . . . . . . . . . . . . . . . . . . . . 99

5.2 Methodes de penalisation . . . . . . . . . . . . . . . . . . . . . 102

5.2.1 Principe de la methode . . . . . . . . . . . . . . . . . . 102

5.2.2 La methode de penalisation dans le cas de contraintes

egalites . . . . . . . . . . . . . . . . . . . . . . . . . . . 103

5.2.3 La methode de penalisation dans le cas de contraintes

mixtes . . . . . . . . . . . . . . . . . . . . . . . . . . . 104

5.2.4 Algorithme de la methode de penalisation quadratique 104

5.2.5 Quelques exemples corriges . . . . . . . . . . . . . . . . 107

5.3 Methode du gradient projete . . . . . . . . . . . . . . . . . . . 108

5.4 Methode Lagrange-Newton pour des contraintes egalite . . . . 110

5.4.1 Cas d'un probleme quadratique avec des contraintes

anes egalites . . . . . . . . . . . . . . . . . . . . . . . 110

5.4.2 Cas d'un probleme non quadratique . . . . . . . . . . . 111

5.5 Methode de Newton projetee . . . . . . . . . . . . . . . . . . . 111

5.5.1 Cas de contraintes de typex0 . . . . . . . . . . . . 111

5.5.2 Cas de contraintes de bornes . . . . . . . . . . . . . . . 112

5.6 Methode d'Uzawa . . . . . . . . . . . . . . . . . . . . . . . . . 113

5.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

Bibliographie 118

Introduction Generale

Euler :"Rien ne se passe dans le monde qui ne soit la signication d'un certain maximum ou d'un certain minimum." L'optimisation (ou programmation mathematique) appara^t comme l'une des branches des mathematiques les plus adaptees au developpement d'outils pour l'ingenieur. L'optimisation c'est au moins trois choses : { l'art de formuler des problemes de decision gr^ace a des concepts et outils mathematiques precis; { une theorie mathematique; { une "cuisine" algorithmique. Une fois que le mathematicien a s^u ca- racteriser une solution, et d'abord se prononcer sur son existence voire son unicite, l'ingenieur voudrait pouvoir calculer cette solution. En 1949, Dantzig a propose le terme "programmation lineaire" pour l'etude des problemes theoriques et algorithmiques lies a l'optimisation de fonctions lineaires sous des contraintes lineaires. Kuhn et Tucker proposent, en 1951, le terme de "programmation non lineaire" pour l'etude des problemes d'optimisation non lineaire avec ou sans contraintes. La programmation dynamique est employee par R. Bellman en 1957 pour une methode generale d'optimisation des systemes dynamiques, c-a-d, evoluant au cours du temps. La programmation en nombres entiers est suggeree par Gomory en 1958 pour les problemes d'optimisation ou les variables sont astreintes a ne prendre que des valeurs entieres. Cependant, malgre l'apparente diversite des themes abordes en les annees

1945 et 1960, la prise de conscience progressive d'une anite profonde, tant

du point des structures que des methodes, entre les dierentes classes de problemes amene rapidement a les integrer au sein d'une nouvelle discipline plus vaste, la programmation mathematique, dont le terme appara^t ociel- lement en 1959 dans un symposium. 1 La programmation mathematique est aujourd'hui une branche particulierement active des mathematiques appliquees et il y-a, a cela, de nombreuses raisons. La premiere est peut-^etre le nombre, la variete et l'importance de ses appli- cations que ce soit dans les sciences de l'ingenieur ou dans d'autres domaines des mathematiques appliquees. Sans pretendre ^etre exhaustif, on peut citer : { En recherche operationnelle : optimisation des systemes technico-economiques, planications, problemes de transport, d'ordonnancement, de gestion des stocks, etc ... { En analyse numerique : approximation, regression, resolution des systemes lineaires et non lineaires, methodes numeriques liees a la mise en oeuvre des methodes d'elements nis, etc ... { En automatique : identication des systemes, commande optimale des systemes, ltrage, ordonnancement d'atelier, commande de robots, etc { En ingenierie : dimensionnement et optimisation des structures, concep- tion optimale des systemes techniques complexes tels que les systemes informatiques, reseaux d'ordinateurs, reseaux de transport, de telecommunication, etc... { En economie mathematique : resolution de grandes modeles macro- economiques, modeles d'entreprise, theorie de la decision et theorie des jeux. Mais l'importance de la programmation mathematique vient aussi du fait qu'elle fournit un cadre conceptuel adequat pour l'analyse et la resolution de nombreux problemes des mathematiques appliquees. Ce polycopie est destine particulierement aux etudiants de licence (L3) et de master en mathematiques. Il regroupe les deux volets de l'optimisation, a savoir optimisation sans contraintes et optimisation avec contraintes. C'est un support de cours riche d'exercices et d'exemples numeriques. Il est compose de 5 chapitres repartis en deux parties, l'une concerne l'optimisation sans contraintes et la seconde concerne l'optimisation avec contraintes. Dans le premier chapitre, on rap- pelle brievement quelques notions mathematiques utiles pour la suite du cours. Les chapitres 2 et 3 sont consacres a l'optimisation sans contraintes; dans le premier, on presentera les conditions d'optimalite, les conditions d'existence et d'unicite, dans le cas d'un probleme non lineaire sans contraintes. Puis, on developpera les algorithmes les plus utilises pour resoudre ce type de problemes. Quand aux quatrieme et cinquieme chapitres, ils sont consacres a la theorie et aux algorithmes de resolution d'un probleme non lineaire soumis 2 a des contraintes. Chaque chapitre est cl^oture par un ensemble d'exercices. Les divers exer- cices accompagnent le document an d'assimiler les notions plus theoriques vues en cours. Les solutions de certains de ces exercices feront l'objet d'un prochain polycopie. 3

Premiere partie

Optimisation sans contraintes

4

Chapitre 1

Concepts et Considerations

Theoriques

1.1 Introduction

Dans ce chapitre, on donne quelques rappels sur l'algebre lineaire et la programmation mathematique. On rappelle tout d'abord les proprietes essen- tielles des formes quadratiques, ainsi que la notion des ensembles et fonctions convexes.

1.2 Vecteurs et matrices

Denition 1.2.1.Soitn;m2N. Une matrice d'ordremna coecients dansRest un tableau a deux dimensions, ayantmlignes etncolonnes, represente sous la forme suivante :

A=A(I;J) = (aij;i2I;j2J) =0

B BB@a

11a12a1n

a

21a22a2n............

a m1am2amn1 C CCA ouI=f1;2;:::;mgetJ=f1;2;:::;ngrepresentent respectivement l'en- semble des indices des lignes et des colonnes deA. Pour des calculs pratiques, 5

1.2 Vecteurs et matrices 6

la matriceAse note aussi

A= (a1;a2;;aj;;an) =0

B

BBBBBB@A

1 A 2... A i... A m1 C

CCCCCCA;

ouaj=A(I;j) =0 B BB@a 1j a 2j... a mj1 C

CCAest un vecteur colonne de dimensionm;

A i=A(i;J) = (ai1;ai2;;ain) est un vecteur ligne de dimensionn. Chaque vecteur, notex=x(J) = (xj;j2J), sera ainsi considere comme un vecteur-colonne tandis que le vecteur-ligne sera notexT. La matrice trans- posee deAsera notee A

T=AT(J;I) = (aji;j2J;i2I):

Notons qu'un vecteur-colonne de dimensionnpeut ^etre considere comme une matrice d'ordre (n1), tandis qu'un vecteur ligne de dimensionnpeut ^etre considere comme une matrice d'ordre (1n). La matriceAest dite carree si on am=n; de plus, siA=AT, la matrice est dite symetrique.

La matrice identite d'ordrensera noteeIn.

1.2.1 Matrices et vecteurs partitionnes

On peut eectuer le produit d'une matriceAet d'un vecteurx, apres les avoir partitionnes judicieusement. On dit alors qu'on a eectue le produit par blocs. En eet, si l'on a

A= [A1jA2];x=x1x

2 alors on peut ecrire :

Ax= [A1jA2]x1x

2 =A1x1+A2x2:

1.3 Discussion generale sur les solutions d'un systeme lineaire 7

De m^eme pour

A=A11A12

A 21A22
;x=x1x 2 ;b=b1b 2 l'equationAx=bpeut alors s'ecrire :

A11x1+A12x2=b1;

A

21x1+A22x2=b2:

On peut partitionner une matrice d'une maniere arbitraire. Par exemple, si A=A(I;J) est une matrice d'ordre (mn) et queJBetJNsont deux sous-ensembles quelconques deJ, tels que jJBj=m; JB[JN=J; JB\JN=;; alors on peut partitionnerAde la facon suivante :

A= (a1;a2;;aj;;an) = [ABjAN];

avecAB=A(I;JB); AN=A(I;JN):

Six=x(J) =h

x Bx Ni ; x

B=x(JB); xN=x(JN);alors on peut ecrire

Ax=nX j=1a jxj=X j2JBa jxj+X j2JNa jxj =A(I;JB)x(JB) +A(I;JN)x(JN) =ABxB+ANxN:

1.3 Discussion generale sur les solutions d'un

systeme lineaire Soientmetndeux nombres entiers. Un systeme demequations lineaires aninconnuesx1;x2;;xns'ecrit comme suit : 8>>>< >>:a

11x1+a12x2++a1nxn=b1;

a

21x1+a22x2++a2nxn=b2;... +... +... +... =...

a m1x1+am2x2++amnxn=bm:(1.1)

1.4 Proprietes des formes quadratiques 8

ou les coecientsaijsont des reels. Les nombresb1;b2;;bmsont appeles les membres libres du systeme (1.1) ou les seconds membres. En posant

A= (aij;1im;1jn); x=0

B BB@x 1 x 2... x n1 C

CCA; b=0

B BB@b 1 b 2... b m1 C CCA; Le systeme (1.1) peut s'ecrire sous la forme matricielle suivante :

Ax=b:(1.2)

Tout vecteurxveriant les equations (1.1) s'appelle solution du systeme. Le systeme (1.1) est dit compatible s'il possede une ou plusieurs solutions. Dans le cas contraire, il est dit incompatible ou impossible. Lorsque le vecteurb est nul, le systeme (1.2) est dit homogene. Tout systeme homogene possede la solution trivialex= 0: Denition 1.3.1.Le systeme lineaire (1.2) est dit de rang complet en lignes sirang(A) =m;mn;et de rang complet en colonnes sirang(A) = n; mn: Lemme 1.3.1.Soitmnetrang(A) =m:Alors le systemeAx=badmet toujours des solutions, quelque soit le second membreb: a) une et une seule solution sim=n; b) une innite de solutions sim < n:

1.4 Proprietes des formes quadratiques

Denition 1.4.1.Une fonctionF:Rn!R, est dite forme quadratique denvariablesx1;x2;;xnsi elle s'ecrit sous la forme suivante :

F(x) =nX

i=1n X j=1a ijxixj=xTAx(1.3) ouxT= (x1;x2;;xn) est unn-vecteur ligne etA= (aij;1i;jn) est une matrice carree d'ordren:

1.4 Proprietes des formes quadratiques 9

Pouri6=j;le coecient du termexixjs'ecritaij+aji:En vertu de cela, la matriceApeut ^etre supposee symetrique. En eet, en denissant de nouveaux coecients d ij=dji;1i;jn: On obtient une nouvelle matriceDsymetrique telle que

D= (dij;1i;jn);avec dij=dji=aij+aji2

Il est clair qu'apres une redenition des coecients, la valeur de la forme quadratiqueF(x) reste inchangee pour tout pointx2Rn:

F(x) =xTAx=xTDx:

Pour cela, il est naturel de considerer que la matrice d'une forme quadratique est toujours symetrique.

1.4.1 Gradient d'une forme quadratique

quotesdbs_dbs13.pdfusesText_19
[PDF] cours doptimisation pour économistes

[PDF] cours optimisation sans contrainte

[PDF] resume cours optique geometrique

[PDF] cours de physique optique cours et exercices corrigés pdf

[PDF] examen corrigé optique ondulatoire

[PDF] résumé cours optique ondulatoire

[PDF] physique optique cours complet

[PDF] controle optique 1ere s

[PDF] orientation scolaire et professionnelle définition

[PDF] oxydoréduction cours bac pro

[PDF] programme daeu b physique

[PDF] programme daeu a

[PDF] cours physique daeu b pdf

[PDF] cours chimie daeu b

[PDF] la révolution et l'empire 4ème 2016