[PDF] Résumé dOptimisation 5.1.2 Méthode





Previous PDF Next PDF



Cours-Optimisation.pdf

Cours d'Optimisation Dans ce cours on supposera que le coût dépend ... méthode consiste `a établir un développement limité de J sous la forme suivante ...



Résumé du cours doptimisation.

13 sept. 2005 Résumé du cours d'optimisation. ... 5 Méthodes pour les problèmes avec contraintes. 27. 5.1 Méthode de gradient projeté à pas variable .



COURS OPTIMISATION Cours à lISFA en M1SAF Ionel Sorin

COURS OPTIMISATION. Cours à l'ISFA en M1SAF 3.2.1 Méthodes de gradient à pas optimal . ... 4.2 Optimisation sous contraintes d'inégalités .



Cours doptimisation ENSAI Rennes

11 déc. 2019 8 Optimisation avec contraintes mixtes d'égalité et d'inégalité 48 ... 9.2.2 Méthode de gradient `a pas variable . . . . . . . . . . . 53.



Résumé dOptimisation

5.1.2 Méthode de la plus profonde descente (méthode du gradient) . . . . . . . . . . 17 Ceci un résumé des principaux résultats du cours d'optimisation.



Cours dOptimisation numérique

4.1.3 Conditionnement pour la méthode de gradient `a pas optimal . de G. Carlier (optimisation) : https://www.ceremade.dauphine.fr/?carlier/progdyn.pdf.



Optimisation mathématique avec applications en imagerie

12 mai 2020 7.5.4 Perturbation des conditions d'optimalité III : méthodes ... J'ai utilisé des versions antérieures de ces notes dans les cours de ...



Chapitre 3 Méthode du simplexe

Afin de ne pas nuire à la lisibilité du texte nous avons convenu de ne pas changer de notation pour la matrice A et des vecteurs b et c en cours d'itération du 



Modèles et méthodes doptimisation I

UCLouvain - cours-2021-linma1702 - page 1/3 Optimisation non-linéaire : conditions d'optimalité convexité



Techniques doptimisation

La méthode d'extrapolation de Richardson appliquée aux fonctions A(h) et B(h) Le facteur d'échelle dépend du point x ? à adapter au cours des itérations.



[PDF] Cours-Optimisationpdf

L'optimisation consiste en la recherche du minimum (ou du maximum) d'une cer- taine quantité appelée coût ou objectif Dans ce cours on supposera que le 



[PDF] Techniques doptimisation

Méthodes à base de gradient ? Méthodes sans dérivées • Déterminisme : Les données du problème sont parfaitement connues ? Optimisation stochastique



[PDF] COURS OPTIMISATION Cours à lISFA en M1SAF Ionel Sorin

COURS OPTIMISATION Cours à l'ISFA en M1SAF Ionel Sorin CIUPERCA 1 3 2 1 Méthodes de gradient à pas optimal Voir cours en amphi



[PDF] Manuel de Cours Optimisation - univ-ustodz

Ce manuscrit traite les notions de base de l'optimisation et s'adresse essen- tiellement au étudiants de Master 1 spécialité Automatique et Informatique



[PDF] Résumé du cours doptimisation

13 sept 2005 · Résumé du cours d'optimisation 4 3 1 Méthode à pas variable Dans les problèmes d'optimisation les ensembles de contraintes sont 



[PDF] Cours doptimisation ENSAI Rennes

11 déc 2019 · 8 Optimisation avec contraintes mixtes d'égalité et d'inégalité 48 9 2 1 Méthode de gradient `a pas fixe 53



[PDF] Cours Optimisationpdf

Les méthodes de résolution sont la méthode du simplexe méthode duale du simplexe méthodes des potentiels méthode lexicographique et des méthodes récentes 



[PDF] optimisationpdf

Plan du cours • Introduction • Analyse de la fonction objectif • Conditions d'optimalité sans contrainte • Résolution d'équations • Optimisation sans 



[PDF] Cours doptimisation

Nous avons vu dans le chapitre 4 2 la méthode de substitution permettant d'optimiser une fonction de deux variables f(x y) sous une contrainte du type : y = g( 



[PDF] Introduction `a loptimisation

Chapitre 2 Méthodes de résolution des probl`emes d'optimisation non linéaire sans contrainte 2 1 Quelques définitions 2 1 1 Définitions

  • Quelles sont les méthodes d'optimisation ?

    Le principe d'optimisation est l'application du principe ALARA, énoncé par la CIPR 60 en 1990 : « maintenir le niveau des expositions individuelles et le nombre de personnes exposées aussi bas qu'il est raisonnablement possible compte tenu des considérations économiques et sociales ».
  • Quel est le principe de l'optimisation ?

    La fonction à optimiser s'écrit sous la forme z=ax+by+c, z = a x + b y + c , où x et y sont les variables et où z représente la quantité qu'on cherche à maximiser ou à minimiser.
  • Comment calculer l'optimisation ?

    Produit une liste contenant la valeur minimale de la fonction, le point minimum, le gradient au point minimum ainsi qu'une évaluation de la qualité de l'itération (de 1 à 5). Produit aussi sur demande la matrice hessienne au point minimum: hessian = T. ?l(?, ?) #on change le signe pour minimiser
Résumé dOptimisation

Resume d'Optimisation

MI5 Master Pro 1ere annee

Jean-Pol Guillement

Departement de Mathematiques

Nantes 2010/2011

2

Table des matieres

Introduction5

1 Rappels7

1.1 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.2 Formules de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.3 Condition d'ordre 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.3.1Equation d'Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.4 Conditions d'ordre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.4.1 Condition de Legendre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.4.2 Condition susante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.5 Extrema lies, multiplicateurs de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . 8

2 Programmation lineaire 9

2.1 Generalites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2.2 Probleme sous forme standard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2.3 Caracterisation des sommets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2.4 Methode du simplexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

3 Programmation en dimension 1 11

3.1 Generalites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

3.2 Methode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

3.3 Interpolation quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

3.4 Methode par decoupage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

4 Prise en compte de la convexite 13

4.1 Condition necessaire de minimum sur un convexe . . . . . . . . . . . . . . . . . . . . . 13

4.2 Caracterisation des fonctions convexes derivables . . . . . . . . . . . . . . . . . . . . . 13

4.3 Minimum des fonctions convexes sur un convexe . . . . . . . . . . . . . . . . . . . . . 13

4.4 Fonctions coercives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

4.5 Notation : probleme (P) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

4.6 Existence de minimum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

4.7 Fonctionnelles elliptiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

4.8 Caracterisation des fonctionnelles elliptiques . . . . . . . . . . . . . . . . . . . . . . . . 14

4.9 Minimum des fonctions elliptiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

4.10 Fonctionnelles quadratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

4.11 Resolution des systemes lineaires au sens des moindres carres . . . . . . . . . . . . . . 15

4.12 Projection sur un convexe ferme non vide . . . . . . . . . . . . . . . . . . . . . . . . . 15

5 Optimisation sans contrainte 17

5.1 Methodes de descente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

5.1.1 Methode de la relaxation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

5.1.2 Methode de la plus profonde descente (methode du gradient) . . . . . . . . . . 17

5.2 Methode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

5.3 Methode de la metrique variable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

5.4 Methode du gradient conjugue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

5.4.1 Cas des fonctionnelles quadratiques . . . . . . . . . . . . . . . . . . . . . . . . . 19

5.4.2 Cas des fonctionnelles non quadratiques . . . . . . . . . . . . . . . . . . . . . . 19

4TABLE DES MATIERES6 Optimisation avec contraintes 21

6.1 Relations de Kuhn-Tucker . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

6.1.1 Cas des contraintes non convexes . . . . . . . . . . . . . . . . . . . . . . . . . . 21

6.1.2 Cas des contraintes convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

6.2 Interpretation des relations de Kuhn-Tucker . . . . . . . . . . . . . . . . . . . . . . . . 22

6.3 Point-selles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

6.4 Lagrangien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

6.5 Point-selle du Lagrangien et solution du probleme (P) . . . . . . . . . . . . . . . . . . 23

6.6 Probleme dual du probleme (P) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

6.7 Methode d'Uzawa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

6.7.1 Demarche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

6.7.2 Calcul dek+1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

6.7.3 Calcul derGk. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

6.7.4 Condition susante de convergence de la methode d'Uzawa . . . . . . . . . . . 24

Bibliographie24

Introduction

Ceci un resume des principaux resultats du cours d'optimisation. Il est autorise aux contr^oles.

6Introduction

Chapitre 1

Rappels

1.1 Notations

Sifest une fonction reguliere deE=Rn!R, on note sa derivee enx0parf0x

0ouf0(x0)(2 L(E;R)),

sa derivee seconde enx0parf00x

0ouf00(x0)(2 B(E;R)), son gradient enx0parrfx0ourf(x0)(2E),

sa matrice hessienne parr2fx0. La matrice Hessienne peut ^etre vue comme une matrice symetrique nn, comme un operateur lineaire deEdansEou comme une forme bilineaire symetrique surE.

1.2 Formules de Taylor

([3, p.151-146]) Les formules de Taylor dierent selon l'ordre, l'ecriture du reste, l'utilisation des derivees ou du gradient et de la matrice Hessienne. En voici deux exemples :

Sifest deux fois derivable on a :

f(x0+h) =f(x0) +f0(x0)h+12 f"(x0)(h;h) +"(h)khk2:

Sifest de classeC2on a :

f(x0+h) =f(x0) +ht:rfx0+12 ht:r2fx0:h+Z 1 0 (1t)ht:r2f(x0+th):h dt

1.3 Condition d'ordre 1

1.3.1

Equation d'Euler

([3, p.146]) Soit un ouvert deEet soitf: !R:Sifadmet un extremum local enx2 et sifest derivable enxalors (equation d'Euler) f

0(x) = 0

1.4 Conditions d'ordre 2

1.4.1 Condition de Legendre

([3, p.152]) Soit un ouvert deEet soitf: !R. Sifadmet un minimum local enx2 et sifest deux fois derivable enxalors (condition de Legendre) f"(x) est une forme bilineaire symetrique positive.

8Rappels1.4.2 Condition susante

([3, p.152]) Soit un ouvert deEet soitf= !R. Sifest deux fois derivable sur , sif0(x) = 0 et sif"(x) est positive dans un voisinage dex2 , alorsfa un minimum local enx:

1.5 Extrema lies, multiplicateurs de Lagrange

([3, p.148]) Soit un ouvert deE, soitf: !R, soient'i: !R;i= 1;::;m:

On suppose que les'i2 C1(

Soitx2K=fx2

;'i(x) = 0;i= 1:::mgtel que les derivees'0i(x) soient lineairement independantes (dansL(E;R)) et tel quefsoit derivable enx. Alors sifadmet un extremum local relativement aKenx, il existe1;:::;muniques (multiplicateurs de Lagrange) tels que rf(x) +1r'1(x) +:::+mr'm(x) = 0

Chapitre 2

Programmation lineaire

Pas enseigne cette annee. (Voir [3], [5], [7], [9]).

2.1 Generalites

2.2 Probleme sous forme standard

2.3 Caracterisation des sommets

2.4 Methode du simplexe

10Programmation lineaire

Chapitre 3

Programmation en dimension 1

3.1 Generalites

3.2 Methode de Newton

3.3 Interpolation quadratique

3.4 Methode par decoupage

12 Programmation en dimension 1

Chapitre 4

Prise en compte de la convexite

4.1 Condition necessaire de minimum sur un convexe

([3, p.153])

SoitKun convexe dans

ouvert deE. Soitf: !R: Sifadmet un minimum relativement aKenx, et sifest derivable enxalors (Inequation d'Euler) f

0(x)(xx)08x2K

4.2 Caracterisation des fonctions convexes derivables

([3, p.154-155]))

SoitKun convexe dans

ouvert deE. Soitf: !Rderivable sur

1.fest convexe surKsi et seulement si

f(x)f(x0) +f0(x0)(xx0)8x;x02K

2.fest strictement convexe surKsi et seulement si

f(x)> f(x0) +f0(x0)(xx0)8x;x02K; x6=x0

3. On suppose quefest deux fois derivable dans

. Alorsfest convexe surKsi et seulement si f"(x)(yx;yx)0;8x;y2K

4. On suppose quefest deux fois derivable dans

. Si f"(x)(yx;yx)>0;8x;y2K;x6=y alorsfest strictement convexe surK.

4.3 Minimum des fonctions convexes sur un convexe

([3, p.156-175])

SoitKun convexe dans

ouvert deE, soitf: !Rconvexe surK.

1. Sifadmet un minimum local enx2K, relativement aK, ce minimum est un minimum global.

2. Sifest strictement convexe surK;fadmet au plus un minimum local relativement aK(qui

est aussi un minimum strict et global)

3. Sifest derivable enx2K, alorsfadmet un minimum par rapport aKenxsi et seulement

si (Inequation d'Euler) f

0(x)(xx)08x2K

ou, en terme de gradient (rfx;xx)0;8x2K:

14 Prise en compte de la convexite

4. SiKest un sous espace vectoriel l'inequation d'Euler est equivalente a

f

0(x)(x) = 0;8x2K:

ou, en terme de gradient rfx?K

5. SiKest ouvert, l'inequation d'Euler est equivalente a la condition d'Euler

f

0(x) = 0

4.4 Fonctions coercives

([3, p.175])

Une fonctionf:E!R, est dite coercivesi lim

kxk!1f(x) = +1

4.5 Notation : probleme(P)

Dans la suite, quand on parle du probleme (P), il s'agit de la recherche dextel que (P)(f(x) = infx2KEf(x) x 2K

4.6 Existence de minimum

([3, p. 175])

1. SiKest un ferme borne non vide deE, sifest continue alors le probleme (P) a au moins une

solution.

2. SiKest ferme non borne deE, sifest continue et coercive, alors le probleme (P) a au moins

une solution.

3. SiKest un convexe ferme non vide deE, sifest continue, coercive, strictement convexe sur

K, alors le probleme (P) a une solution et une seule.

4.7 Fonctionnelles elliptiques

([3, p. 183]) Une fonctionf:E!R, de classeC1est dite elliptiques'il existe >0 tel que (rfx rfy;xy)kxyk28x;y2E

4.8 Caracterisation des fonctionnelles elliptiques

Une fonctionf:E!R, deux fois derivable, est elliptique si et seulement si il existe >0 tel que (r2fx0x;x)kxk2;8x;x02E

4.9 Minimum des fonctions elliptiques

SoitKest un convexe ferme non vide deEetf:E!Relliptique.

1.fest strictement convexe, coercive, et verie

f(x)f(x0)(rfx0;xx0) +2 kxx0k28x;x02E

2. Le probleme (P) a une solution et une seule.

4.10 Fonctionnelles quadratiques 15

3.x2Kest solution de (P) si et seulement si

quotesdbs_dbs32.pdfusesText_38
[PDF] optimisation mathematiques pdf exercices

[PDF] cours optimisation master

[PDF] exercices corrigés de convexité et optimisation

[PDF] exercices corrigés doptimisation pdf

[PDF] cours doptimisation pour économistes

[PDF] cours optimisation sans contrainte

[PDF] resume cours optique geometrique

[PDF] cours de physique optique cours et exercices corrigés pdf

[PDF] examen corrigé optique ondulatoire

[PDF] résumé cours optique ondulatoire

[PDF] physique optique cours complet

[PDF] controle optique 1ere s

[PDF] orientation scolaire et professionnelle définition

[PDF] oxydoréduction cours bac pro

[PDF] programme daeu b physique