[PDF] 34 Optimisation sous contraintes - univ-amufr





Previous PDF Next PDF



QUELQUES EXERCICES CORRIGÉS DOPTIMISATION EXERCICE

EXERCICE III (optimisation sans contrainte). On considère la fonction f définie sur Corrigé de l'exercice. 1. Le problème s'écrit inf. X?R3. J(X) avec.



OPTIMISATION CONTRAINTE

Quels sont les extremums de cette fonctions ? Corrigé de l'exercice 1.1. On doit résoudre un problème d'extremum pour une fonction de deux variables soumise à 



Table des matières 1 Calcul différentiel

QUELQUES EXERCICES CORRIGÉS D'OPTIMISATION 2 Analyse des problèmes d'optimisation sans contrainte ... Soit A ? Mnm(R)



Optimisation Sans Contraintes

avec ou sans contraintes cependant on limite souvent l'optimisation à une Hiriart-Urruty



1 Les conditions de Kuhn-Tucker

Corrigés d'optimisation convexe et quadratique Exercices corrigés . ... Si on introduit des variables d'écart x dans les contraintes l'écriture des.



Optimisation sous contraintes

Un problème de recherche de minimum avec contraintes est donc celui pour une fonction définie sur la partie E = {x;g(x)=0} de Rn dépourvue de calcul 



Corrigé type de la série des exercices 1 Optimisation sans contraintes

Corrigé type de la série des exercices 1. Optimisation sans contraintes -LMD- S5. Solution de l'exercice 1. Soit f : R2 ?? R la fonction définie f(x y) =.



LICENCE 3 MATHEMATIQUES – INFORMATIQUE

Etudier les paragraphe 3.4 et 3.5 (optimisation avec contrainte). Exercice proposé (avec corrigé) : 139 (Uzawa). Le corrigé du deuxième devoir sera 



Partiel du 26 Mars 2015—Corrigé “Optimisation et programmation

26 mars 2015 Exercice 1. ... Montrer que la contrainte est qualifiée en tout point. ... avec la condition d'exclusion ?g(x y



ANALYSE RÉELLE OPTIMISATION LIBRE ET SOUS CONTRAINTE

doivent être préparés : écouter le corrigé d'un exercice en ont un) avec toutes leurs hypothèses et vérifiez que ces hypothèses sont satisfaites avant ...



OPTIMISATION SOUS CONTRAINTES - HEC Montréal

3 Optimisation sous contrainte à variables multiples La fonction à optimiser peut souvent dépendre de plusieurs facteurs Par exemple les profits réalisés peuvent dépendre du coût des ressources du nombre d'employés du prix de vente



34 Optimisation sous contraintes

La contrainte (1) est représentée par le disque de centre ( r r) et de rayon 2 La contrainte (2) délimite le demi-espae sous la droite d’équation 1+ t 2? t= r La ontrainte (3) désigne les points à droite de l’axe 1= r Les courbes de niveau f(x)=constante sont des cercles de centre ( u t)



345 Exercices (optimisation avec contraintes) - univ-amufr

3 4 5 Exercices (optimisation avec contraintes) Exercice 125 (Sur l'existence et l'unicité) Corrigé en page 268 Etudierl'existenceetl'unicitédessolutionsduproblème (3 48)avecles donnéessuivantes: E = IR ;f : IR ! IR est dén ie par f (x ) = x 2 et pour les quatre différents ensembles K suivants : (i) K = fjx j 1g ; (ii) K = fjx j = 1 g



34 Optimisation sous contraintes - univ-amufr

Ce problèmeest un problèmede minimisationaveccontrainte (ou sous contrainte")au sens oùl'oncherche u qui minimise f en astreignant u a être dans K Voyons quelques exemples de ces contraintes (dén ies par l 'ensemble K ) qu'onva expliciter à l'aide des p fonctionscontinues gi 2 C (E; IR) i = 1 :::p 1 Contraintes égalités



ANALYSE RÉELLE OPTIMISATION LIBRE ET SOUS CONTRAINTE

Le but de l’UE est d’optimiser une fonction de deux variables : optimisation libre ou sous contrainte Documents et bibliographie En L1 de Sciences-Économiques toutes les universités françaises traitent à peu près le même programme de mathématiques mais la répartition sur les deux années la présentation (plus ou moins théorique)



Analyse 2: Optimisation avec contrainte

Analyse 2: Optimisation avec contrainte Minimisation avec contraintes Condition du remierp rdreo Lagrangien et conditions KKT Joseph Salmon Conditions de Karush-Khunn-Tucker (KKT) Théorème : KKT Si x est un minimum local du problème (P) que f;h i;g j sont dérivables avec des gradients continus sous des conditions de quali cation sur x il



Optimisation Continue ISTIL 2ème année Corrigé de la feuille 4

la contrainte C = cste alors ?(ab?)J ? Vect ?(ab?)C 4 Résolution du système La condition d’optimalité signi?e que les vecteurs ?(ab?)J et ?(ab?)C sont colinéaires ou encore que leur produit vectoriel est nul On a ?(ab?)J= 1 2 bsin? 1 2 asin? 1 2 abcos?



ANALYSE RÉELLE OPTIMISATION LIBRE ET SOUS CONTRAINTE

exercices doivent être préparés : écouter le corrigé d’un exercice sans avoir préalablement essayédelerésoudrecelanesertàrien Vousn’enretirerezaucunpro?tpuisquevousn’en aurezpassaisileséventuellesdi?cultés –Des sujets d’annales sont proposés dans le polycopié d’exercices Vous pouvez aussi les re-



Éléments de correction pour le TD d’optimisation sous

TD d’optimisation sous contrainte(s) d’égalité Exercice 1 DanstouslescasétudiéslesfonctionsetcontraintessontclairementC1etleursdomainesdedé?nition sontdesouverts 1 Traitéencours 2 Leseulpointcritiquedelafonction(x;y;z) 7!x2+y2 estl’originequinevéri?epaslacontrainteet



OPTIMISATION CONTRAINTE

§ 1 —Optimisation contrainte à deux variables Exercice1 1 On considère la fonction f(x;y) = x2+y24xysoumise à la contrainte x2+y2 = 8 Quels sont les extremums de cette fonctions? Corrigédel’exercice1 1 On doit résoudre un problème d’extremum pour une fonction de deux variables soumise à une contrainte donnée sous forme d



3104 Optimisation avec contraintes d’egalit´ e´

3 10 4 Optimisation avec contraintes d’egalit´ e ´ Dans de nombreux proble`mes on de´sire identi?er le point x maximisant ou minimisant une fonction f non pas parmi tous les xappartenant au domaine de de´?nition de f mais seulement parmi ceux qui ve´ri?ent une ou plusieurs con traintes du type gk(x)=0 pour tout k ?{12 ?}



Searches related to exercices corrigés doptimisation avec contrainte pdf filetype:pdf

Les coe cients s’appellent les coe cients de Kuhn-Tucker Il y en a autant que de contraintes Le coe cient j est associ e a la contrainte g j(x) b j Les conditions de Kuhn-Tucker sont des conditions n ecessaires qui sont r ea-

Comment calculer la minimisation avec contrainte ?

  • Soit E = IRn, soit f 2 C (E; IR) , et soit K un sous ensemble de E . On s'intéresse à la recherche de u 2 K tel que : ( u 2 K f (u ) = inf K f (3.53) Ce problèmeest un problèmede minimisationaveccontrainte (ou?sous contrainte")au sens oùl'oncherche u qui minimise f en astreignant u a être dans K .

Comment calculer la courbe de contrainte?

  • x3+ y + z2sous les contraintes x +y+z = 0 et x +y z = 0. Corrigé de l’exercice 2.2. Posons ’(x;y;z) = x +y+z et (x;y;z) = x +y z. Première étape : les fonctions f, ’et sont C2sur un certain ouvert U ˆR3. Puisque f, ’et 1sont des polynômes, elles sont C sur U = R3. Deuxième étape : la courbe de contrainte est régulière.

Comment calculer la contrainte d'un point ?

  • Chercher le(s) point(s) où f atteint son maximum ou son minimum sous la contrainte g = 1 . 3. Soient A 2 Mn(IR) symétrique, B 2 Mn(IR) s.d.p. et b 2 IRn. Pour v 2 IRn, on pose f (v) = (1 =2) Av v b v et g(v) = Bv v.

Comment calculer la contrainte d’une fonction?

  • — Pour chacune des deux questions suivantes on donnera deux méthodes : d’abord en explicitant la contrainte, puis en utilisant le lagrangien. 1. Soient les fonctions f et g dé?nies par : f(x,y) = xy, g(x,y) = 1 x + 1 y .

3.4. OPTIMISATION SOUS CONTRAINTES CHAPITRE 3. OPTIMISATION

3.4 Optimisation sous contraintes

3.4.1 Définitions

SoitE= IRn, soitf?C(E,IR), et soitKun sous ensemble deE. On s"intéresse à la recherche de¯u?Ktel

que :?¯u?K f(¯u) = infKf(3.53)

Ce problème est un problèmede minimisation avec contrainte(ou "sous contrainte")au sens où l"on chercheuqui

minimisefen astreignantua être dansK. Voyons quelques exemples de ces contraintes (définies par l"ensemble

K), qu"on va expliciter à l"aide despfonctions continues,gi?C(E,IR)i= 1...p.

1.Contraintes égalités.On poseK={x?E,gi(x) = 0i= 1...p}. On verra plus loin que le problème de

minimisation defpeut alors être résolu grâce au théorème des multiplicateurs de Lagrange (voir théorème

3.35).

de minimisation defpeut alors être résolu grâce au théorème de Kuhn-Tucker (voir théorème 3.39).

-Programmation linéaire.Avec un tel ensemble de contraintesK, si de plusfest linéaire, c"est-à-dire

qu"ilexisteb?IRntelquef(x) =b·x, etlesfonctionsgisontaffines,c"est-à-direqu"ilexistebi?IRn etci?IRtels quegi(x) =bi·x+Ci, alors on dit qu"on a affaire ùn problème de "programmation

linéaire". Ces problèmes sont souvent résolus numériquement à l"aide de l"algorithme de Dantzig,

inventé vers 1950. -Programmation quadratique.Avec le même ensemble de contraintesK, si de plusfest quadratique, c"est-à-dire sifest de la formef(x) =1

2Ax·x-b·x, et les fonctionsgisont affines, alors on dit

qu"on a affaire ùn problème de "programmationquadratique".

3.Programmationconvexe.Dans le cas oùfest convexeetKest convexe,on dit qu"ona affaire ùn problème

de "programmationconvexe".

3.4.2 Existence - Unicité - Conditions d"optimalité simple

Théorème 3.29(Existence).SoitE= IRnetf?C(E,IR).

1. SiKest un sous-ensemble fermé borné deE, alors il existe¯x?Ktel quef(¯x) = infKf.

2. SiKest un sous-ensemble fermé deE, et sifest croissante à l"infini, c"est-à-dire quef(x)→+∞quand

|x| →+∞, alors?¯x?Ktel quef(¯x) = infKf

DÉMONSTRATION-

1. SiKest un sous-ensemble fermé borné deE, commefest continue, elle atteint ses bornes surK, d"où l"existence

de

¯x.

2. Sifest croissante à l"infini, alors il existeR >0tel que si?x?> Ralorsf(x)> f(0); doncinf

Kf= inf

K∩BRf, où

B

Rdésigne la boule de centre 0 et de rayonR. L"ensembleK∩BRest compact, car intersection d"un fermé et d"un

compact. Donc, par ce qui précède, il existe

¯x?Ktel quef(¯x) = inf

K∩BRf= inf

BRf.

Analyse numérique I, télé-enseignement, L3257Université d"Aix-Marseille, R. Herbin, 10 novembre 2015

3.4. OPTIMISATION SOUS CONTRAINTES CHAPITRE 3. OPTIMISATION

Théorème 3.30(Unicité).SoitE= IRnetf?C(E,IR). On suppose quefest strictement convexe et queKest

convexe. Alors il existe au plus un élément

¯xdeKtel quef(¯x) = infKf.

DÉMONSTRATION- Supposons que¯xet=xsoient deux solutions du problème (3.53), avec¯x?==x

Alorsf(1

2¯x+12=x)<12f(¯x) +12f(=x) = infKf. On aboutit donc à une contradiction.

Des théorèmes d"existence 3.29 et d"unicité 3.30 on déduit immédiatement le théorème d"existence et d"unicité

suivant :

Théorème 3.31(Existence et unicité).SoientE= IRn,f?C(E,IRn)une fonction strictement convexe etKun

sous ensemble convexe fermé deE. SiKest borné ou sifest croissante à l"infini, c"est-à-dire sif(x)?+∞

quand?x? →+∞, alors il existe un unique élément¯xdeKsolution du problème de minimisation(3.53), i.e. tel

quef(¯x) = infKf Remarque 3.32.On peut remplacerE= IRnparEespace de Hilbert de dimension infinie dans le dernier

théorème, mais on a besoin dans ce cas de l"hypothèse de convexité defpour assurer l"existence de la solution

(voir cours de maîtrise).

Proposition 3.33(Condition simple d"optimalité).SoientE= IRn,f?C(E,IR)et¯x?Ktel quef(¯x) = infKf.

On suppose quefest différentiable en¯x

1. Si

¯x?◦Kalors?f(¯x) = 0.

2. SiKest convexe, alors?f(¯x)·(x-¯x)≥0pour toutx?K.

on a déjà vu (voir preuve de la Proposition 3.8 page 209) que ceci implique?f(¯x) = 0.

2. Soitx?K. Comme¯xréalise le minimum defsurK, on a :f(¯x+t(x-¯x)) =f(tx+ (1-t)¯x)≥f(¯x)pour

toutt?]0,1], par convexité deK. On en déduit que f(¯x+t(x-¯x))-f(¯x) t≥0pour toutt?]0,1].

En passant à la limite lorsquettend vers 0 dans cette dernière inégalité, on obtient :?f(¯x)·(x-¯x)≥0.

3.4.3 Conditions d"optimalité dans le cas de contraintes égalité

Dans tout ce paragraphe, on considèrera les hypothèses et notations suivantes : f?C(IRn,IR), gi?C1(IRn,IR), i= 1...p;

K={u?IRn, gi(u) = 0?i= 1...p};

g= (g1,...,gp)t?C1(IRn,IRp)(3.54) Remarque 3.34(Quelques rappels de calcul différentiel). Commeg?C1(IRn,IRp), siu?IRn,alorsDg(u)?L(IRn,IRp), ce qui revient à dire, en confondant l"appli- cation linéaireDg(u)avec sa matrice, queDg(u)?Mp,n(IR). Par définition,Im(Dg(u)) ={Dg(u)z, z?

Analyse numérique I, télé-enseignement, L3258Université d"Aix-Marseille, R. Herbin, 10 novembre 2015

3.4. OPTIMISATION SOUS CONTRAINTES CHAPITRE 3. OPTIMISATION

Dg(u) =((((((∂g

1 ∂x1,···,∂g1∂xn ∂g p ment indépendants dansIRn.

Théorème 3.35(Multiplicateurs de Lagrange).Soit¯u?Ktel quef(¯u) = infKf. On suppose quefest différen-

tiable en¯uetdim(Im(Dg(¯u)) =p(ou rang(Dg(¯u)) =p), alors : il existe(λ1,...,λp)t?IRptelsque?f(¯u) +p? i=1λ i?gi(¯u) = 0. (Cette dernière égalité a lieu dansIRn)

DÉMONSTRATION- Pour plus de clarté, donnons d"abord une idée "géométrique" de la démonstration dans le casn= 2

etp= 1.Onadans cecasf?C1(IR2,IR)etK={(x,y)?IR2g(x,y) = 0}, eton chercheu?Ktelquef(u) = inf Kf.

Traçons dans le repère(x,y)la courbeg(x,y) = 0, ainsi que les courbes de niveau def. Si on se "promène" sur la courbe

g(x,y) = 0, en partant du pointP0vers la droite (voir figure 3.1), on rencontre les courbes de niveau successives defet

on se rend compte sur le dessin que la valeur minimale que prendfsur la courbeg(x,y) = 0est atteinte lorsque cette

courbe est tangente à la courbe de niveau def: sur le dessin, ceci correspond au pointP1où la courbeg(x,y) = 0est

tangente à la courbef(x,y) = 3. Une fois qu"on a passé ce point de tangence, on peut remarquer quefaugmente.

On utilise alors le fait que si?est une fonction continûment différentiable deIR2dansIR, le gradient de?est orthogonal à

toute courbe de niveau de?, c"est-à-dire toute courbe de la forme?(x,y) =c, oùc?IR. (En effet, soit(x(t),y(t)), t?

IRun paramétrage de la courbeg(x,y) =c, en dérivant par rapport àt, on obtient :?g(x(t),y(t))·(x?(t),y?(t))t= 0).

En appliquant ceci àfetg, on en déduit qu"au point de tangence entre une courbe de niveau defet la courbeg(x,y) = 0,

les gradients defetgsont colinéaires. Et donc si?g(u)?= 0, il existeλ?= 0tel que?f(u) =λ?g(u).

Passons maintenant à la démonstration rigoureuse du théorème dans laquelle on utilise le théorème des fonctions impli-

cites 5.

Par hypothèse,Dg(¯u)?L(IRn,IRp)etIm(Dg(¯u)) = IRp. Donc il existe un sous espace vectorielFdeIRnde

dimensionp, tel queDg(¯u)soit bijective deFdansIRp. En effet, soit(e1...ep)la base canonique deIRp, alors pour

touti? {1,...p}, il existeyi?IRntel queDg(¯x)yi=ei.SoitFle sous espace engendré par la famille{y1...yp}; on

remarque que cette famille est libre, car si?pi=1λiyi= 0, alors?pi=1λiei= 0, et doncλi= 0pour touti= 1,...p.

On a ainsi montré l"existence d"un sous espaceFde dimensionptelle queDg(¯x)soit bijective (car surjective) deFdans

IR p. Il existe un sous espace vectorielGdeIRn, tel queIRn=F?G. Pourv?Fetw?G; on pose¯g(w,v) =g(v+w)

et¯f(w,v) =f(v+w). On a donc¯f?C(G×F,IR)et¯g?C1(G×F,IR). De plus,D2¯g(w,v)?L(F,IRp), et pour

toutz?F, on aD2¯g(w,v)z=Dg(v+w)z.

Soit(¯v,¯w)?F×Gtel que¯u= ¯v+ ¯w. AlorsD2¯g( ¯w,¯v)z=Dg(¯u)zpour toutz?F.L"applicationD2¯g( ¯w,¯v)est une

bijection deFsurIRp, car, par définition deF,Dg(¯u)est bijective deFsurIRp.

On rappelle queK={u?IRn:g(u) = 0}et on définit

K={(w,v)?G×F,¯g(w,v) = 0}.Par définition de¯fet de¯g, on a?( ¯w,¯v)? K

K(3.55)

5.Théorème des fonctions implicitesSoientpetqdes entiers naturels, soith?C1(IRq×IRp,IRp), et soient(¯x,¯y)?IRq×IRpet

c?IRptels queh(¯x,¯y) =c. On suppose que la matrice de la différentielleD2h(¯x,¯y)(?Mp(IR))est inversible. Alors il existeε >0et

ν >0tels que pour toutx?B(¯x,ε), il existe un uniquey?B(¯y,ν)tel queh(x,y) =c.on peut ainsi définir une applicationφdeB(¯x,ε)

dansB(¯y,ν)parφ(x) =y. On aφ(¯x) = ¯y,φ?C1(IRp,IRp)etDφ(x) =-[D2h(x,φ(x))]-1·D1h(x,φ(x)).

Analyse numérique I, télé-enseignement, L3259Université d"Aix-Marseille, R. Herbin, 10 novembre 2015

3.4. OPTIMISATION SOUS CONTRAINTES CHAPITRE 3. OPTIMISATION

f(x) = 5f(x) = 4f(x) = 3f(x) = 2f(x) = 1g(x) = 0 xy FIGURE3.1: Interprétation géométrique des multiplicateurs de Lagrange

D"autre part, le théorème des fonctions implicites (voir note de bas de page 260) entraîne l"existence deε >0etν >0

tels que pour toutw?BG( ¯w,ε)il existe un uniquev?BF(¯v,ν)tel que¯g(w,v) = 0. On notev=φ(w)et on définit

ainsi une applicationφ?C1(BG( ¯w,ε),BF(¯v,ν)). et donc En posantψ(w) =¯f(w,φ(w)), on peut donc écrire

On a donc, grâce à la proposition 3.33,

Dψ( ¯w) = 0.(3.56)

Par définition deψ, de¯fet de¯g, on a : Dψ( ¯w) =D1¯f( ¯w,φ(( ¯w)) +D2¯f( ¯w,φ( ¯w))Dφ( ¯w). D"après le théorème des fonctions implicites, Dφ( ¯w) =-[D2¯g( ¯w,φ(( ¯w))]-1D1¯g( ¯w,φ(( ¯w)).

On déduit donc de (3.56) que

D

1¯f( ¯w,φ(( ¯w))w-[D2¯g( ¯w,φ(( ¯w))]-1D1¯g( ¯w,φ(( ¯w))w= 0,pour toutw?G.(3.57)

De plus, commeD2¯g( ¯w,φ(( ¯w))]-1D2¯g( ¯w,φ(( ¯w)) =Id, on a : D

2¯f( ¯w,φ(( ¯w))z-D2¯f( ¯w,φ(( ¯w))[D2¯g( ¯w,φ(( ¯w))]-1D2¯g( ¯w,φ(( ¯w))z= 0,?z?F.(3.58)

Soitx?IRn, et(z,w)?F×Gtel quex=z+w. En additionant (3.57) et (3.58), et en notant Λ =-D2¯f( ¯w,φ(( ¯w))[D2¯g( ¯w,φ(( ¯w))]-1, on obtient :

Df(¯u)x+ ΛDg(¯u)x= 0,

ce qui donne, en transposant :Df(¯u) +?pi=1λi?gi(¯u) = 0,avecΛ = (λ1,...,λp).

Analyse numérique I, télé-enseignement, L3260Université d"Aix-Marseille, R. Herbin, 10 novembre 2015

3.4. OPTIMISATION SOUS CONTRAINTES CHAPITRE 3. OPTIMISATION

Remarque 3.36(Utilisation pratique du théorème de Lagrange).Soitf?C1(IRn,IR),g= (g1,...,gp)tavec

g i?C(IRn,IR)pouri= 1,...,p.,et soitK={u?IRn, gi(u) = 0, i= 1,...,p}.

Le problème qu"on cherche à résoudre est le problème de minimisation(3.53)qu"on rappelle ici :

?¯u?K f(¯u) = infKf

D"après le théorème des multiplicateurs de Lagrange, si¯uest solution de(3.53)etIm(Dg(¯u)) = IRp, alors il

existe(λ1,...,λp)?IRptel que¯uest solution du problème ?∂f ∂xj(¯u) +p? i=1λ i∂gi∂xj= 0,j= 1,...n, g i(¯u) = 0, i= 1,...,p.(3.59)

Le système(3.59)est un système non linéaire de de(n+p)équationset à(n+p)inconnues(¯x,...,¯xn,λi...λp).

Ce système sera résolu par une méthode de résolution de système non linéaire (Newton par exemple).

Remarque 3.37.On vient de montrer que si¯xsolution de(3.53)etIm(Dg(¯x)) = IRp, alors¯xsolution de(3.59).

Par contre, si¯xest solution de(3.59), ceci n"entraîne pas que¯xest solution de(3.53).

Des exemples d"application du théorème des multiplicateurs de Lagrange sont donnés dans les exercices 118 page

263 et 119 page 263.

3.4.4 Contraintes inégalités

Soitf?C(IRn,IR)etgi?C1(IRn,IR)i= 1,...,p, on considère maintenant un ensembleKde la forme : ?¯x?K

Remarque 3.38.Soit¯xune solution de(3.53)et supposons quegi(¯x)<0,pour touti? {1,...,p}. Il existe

alorsε >0tel que six?B(¯x,ε)alorsgi(x)<0pour touti= 1,...,p. ifest différentiable en¯x, on a donc?f(¯x) = 0.

On donnemaintenant sans démonstrationle théorèmede Kuhn-Tückerqui donne une caractérisation de la solution

du problème (3.53). Théorème 3.39(Kuhn-Tucker).Soitf?C(IRn,IR), soitgi?C1(IRn,IR),pouri= 1,...,p, et soitK=

{1,...,p};|gi(¯x) = 0}. On suppose quefest différentiable en¯xet que la famille (deIRn){?gi(¯x),i?I(¯x)}

est libre. Alors il existe une famille(λi)i?I(¯x)?IR+telle que ?f(¯x) +? i?I(¯x)λ i?gi(¯x) = 0.

Remarque 3.40.1. Le théorème de Kuhn-Tucker s"applique pour des ensemblesde contrainte de type inéga-

lité. Siona unecontraitede typeégalité,onpeutévidemmentse ramenerà deuxcontraintesde typeinégalité

on remarque que la famille{?g1(¯x),?g2(¯x)}={?h(¯x),-?h(¯x)}n"est pas libre. On ne peut donc pas

appliquer le théorème de Kuhn-Tucker sous la forme donnée précédemment dans ce cas (mais on peut il

existe des versions du théorème de Kuhn-Tucker permettant de traiter ce cas, voir Bonans-Saguez).

Analyse numérique I, télé-enseignement, L3261Université d"Aix-Marseille, R. Herbin, 10 novembre 2015

3.4. OPTIMISATION SOUS CONTRAINTES CHAPITRE 3. OPTIMISATION

2. Dans la pratique, on a intérêt à écrire la conclusion du théorème de Kuhn-Tucker (i.e. l"existence de la

famille(λi)i?I(¯x)) sous la forme du système den+péquations et2pinéquations à résoudre suivant :

??f(¯x) +p? i=1λ i?gi(¯x) = 0, igi(¯x) = 0,?i= 1,...,p, g i≥0,?i= 1,...,p. i= 1...p i≥0g

3.4.5 Exercices

Exercice 117(Sur l"existence et l"unicité).Corrigé en page 265

Etudierl"existence et l"unicité des solutions du problème(3.53), avec les donnéessuivantes :E= IR, f: IR→IR

est définie parf(x) =x2, et pour les quatre différents ensemblesKsuivants : (iii)K={|x| ≥1}; (iv)K={|x|>1}.(3.60) Exercice 118(Aire maximale d"un rectangle à périmètre donné).

Corrigé en page 265

1. On cherche à maximiser l"aire d"un rectangle de périmètredonné égal à 2. Montrer que ce problème peut se

formulercommeunproblèmede minimisationdela forme(3.53), oùKest de la formeK={x?IR2;g(x) = 0}.

On donnerafetgde manière explicite.

2. Montrer que le problème de minimisation ainsi obtenu est équivalent au problème

?¯x= (¯x1,¯x2)t?˜K où

˜K=K∩[0,1]2,Ketfétant obtenus à la question 1. En déduire que le problème de minimisation de l"aire

admet au moins une solution.

3. CalculerDg(x)pourx?Ket en déduire que sixest solution de (3.61) alorsx= (1/2,1/2). En déduire que

le problème (3.61) admet une unique solution donnée par¯x= (1/2,1/2). Exercice 119(Fonctionnelle quadratique).Suggestions en page 241, corrigé en page 266

Soitfune fonction quadratique,i.e.f(x) =1

2Ax·x-b·x, oùA?Mn(IR)est une matrice symétrique

définie positive etb?IRn.On suppose que la contraintegest une fonction linéaire deIRndansIR, c"est-à-dire

g(x) =d·x-coùc?IRetd?IRn, et qued?= 0. On poseK={x?IRn, g(x) = 0}et on cherche à résoudre

le problème de minimisation (3.53).

1. Montrer que l"ensembleKest non vide, fermé et convexe.En déduire que le problème (3.53) admet une unique

solution.

2. Montrer que si¯xest solution de (3.53), alors il existeλ?IRtel quey= (¯x,λ)tsoit l"unique solution du

système :??A d dt0?? ?¯xλ?? =??bc?? (3.62)

Analyse numérique I, télé-enseignement, L3262Université d"Aix-Marseille, R. Herbin, 10 novembre 2015

3.4. OPTIMISATION SOUS CONTRAINTES CHAPITRE 3. OPTIMISATION

Exercice 120(Minimisation sans dérivabilité). SoientA?Mn(IR)une matrice s.d.p.,b?IRn,j: IRn→IRune fonction continue et convexe, à valeurs

positives ou nulles (mais non nécessairement dérivable, par exemplej(v) =?nj=1αi|vi|, avecαi≥0pour tout

i? {1,...,n}). SoitUune partie non vide, fermée convexe deIRn. Pourv?IRn, on poseJ(v) = (1/2)Av·v-

b·v+j(v).

1. Montrer qu"il existe un et un seulutel que :

2. Soitu?U, montrer queuest solution de (3.63) si et seulement si(Au-b)·(v-u) +j(v)-j(u)≥0,

pour toutv?U. Exercice 121(Utilisation du théorème de Lagrange).

1. Pour(x,y)?IR2, on pose :f(x,y) =-y,g(x,y) =x2+y2-1. Chercher le(s) point(s) oùfatteint son

maximum ou son minimum sous la contrainteg= 0.

2. Soita= (a1,...,an)?IRn,a?= 0. Pourx= (x1,...,xn)?IRn, on pose :f(x) =?ni=1|xi-ai|2,

g(x) =?ni=1|xi|2. Chercher le(s) point(s) oùfatteint son maximum ou son minimum sous la contrainte

g= 1.

3. SoientA?Mn(IR)symétrique,B?Mn(IR)s.d.p. etb?IRn. Pourv?IRn, on posef(v) = (1/2)Av·

v-b·vetg(v) =Bv·v. Peut-on appliquer le théorème de Lagrange et quelle condition donne-t-il surusi

f(u) = min{f(v), v?K}avecK={v?IRn;g(v) = 1}? Exercice 122(Contre exemple aux multiplicateurs de Lagrange). Soientfetg:IR2→IR, définies par :f(x,y) =y, etg(x,y) =y3-x2. On poseK={(x,y)?IR2;g(x,y) = 0}.

1. Calculer le minimum defsurKet le point(

x,y)où ce minimum est atteint.

2. Existe-t-ilλtel queDf(

x,y) =λDg(x,y)?

3. Pourquoi ne peut-on pas appliquer le théorème des multiplicateurs de Lagrange?

4. Que trouve-t-on lorsqu"on applique la méthode dite "de Lagrange" pour trouver(

x,y)? Exercice 123(Application simple du théorème de Kuhn-Tucker).Corrigé en page 266 Soitfla fonction définie deE= IR2dansIRparf(x) =x2+y2etK={(x,y)?IR2;x+y≥1}.

Justifier l"existence et l"unicité de la solution du problème (3.53) et appliquer le théorème de Kuhn-Tucker pour la

détermination de cette solution. Exercice 124(Exemple d"opérateur de projection).

Correction en page 267

1.SoitK=C+={x?IRn, x= (x1,...,xk)t, xi≥0,?i= 1,...,N}.

(a) Montrer queKest un convexe fermé non vide. (b) Montrer que pour touty?IRn, on a :(pK(y))i= max(yi,0).

1. Montrer queKest un convexe fermé non vide.

2. SoitpKl"opérateur de projection définie à la proposition 3.41 page267. Montrer que pour touty?IRn, on a :

(pK(y))i= max(αi,min(yi,βi)),?i= 1,...,n

Analyse numérique I, télé-enseignement, L3263Université d"Aix-Marseille, R. Herbin, 10 novembre 2015

3.5. ALGORITHMES D"OPTIMISATION SOUS CONTRAINTES CHAPITRE 3. OPTIMISATION

3.5 Algorithmes d"optimisation sous contraintes

3.5.1 Méthodes de gradient avec projection

On rappelle le résultat suivant de projection sur un convexefermé :

Proposition 3.41(Projection sur un convexe fermé).SoitEun espace de Hilbert, muni d"une norme?.?induite

par un produit scalaire(.,.), et soitKun convexe fermé non vide deE. Alors, toutx?E, il existe un unique

x

K. On a également :

x

0=pK(x)si et seulement si(x-x0,x0-y)≥0,?y?K.

Dans le cadre des algorithmes de minimisation avec contraintes que nous allons développer maintenant, nous

considèreronsE= IRn, f?C1(IRn,IR)une fonction convexe, etKfermé convexe non vide. On cherche à

calculer une solution approchée de¯x, solution du problème (3.53).

Algorithmedu gradientàpas fixe avecprojectionsurK(GPFK)Soitρ >0donné,onconsidèrel"algorithme

suivant :

Algorithme (GPFK)

Initialisation :x0?K

Itération :

x kconnuxk+1=pK(xk-ρ?f(xk)) oùpKest la projection surKdéfinie par la proposition 3.41.

Lemme 3.42.Soit(xk)kconstruite par l"algorithme (GPFK). On suppose quexk→xquandn+∞. Alorsxest

solution de(3.53).

DÉMONSTRATION- SoitpK: IRn→K?IRnla projection surKdéfinie par la proposition 3.41. AlorspKest

continue. Donc si x k→xquandn→+∞alorsx=pK(x-ρ?f(x))etx?K(carxk?KetKest fermé). La caractérisation depK(x-ρ?f(x))donnée dans la proposition 3.41 donne alors : (x-ρ?f(x)-x/x-y)≥0pour touty?K, et commeρ >0, ceci entraîne(?f(x)/x-y)pour touty?K.Orf

est convexe doncf(y)≥f(x) +?f(x)(y-x)pour touty?K, et doncf(y)≥f(x)pour touty?K, ce qui termine

la démonstration. Théorème 3.43(Convergence de l"algorithme GPFK). Soitf?C1(IRn,IR), etKconvexe fermé non vide. On suppose que :

1. il existeα >0tel que(?f(x)- ?f(y)|x-y)≥α|x-y|2, pour tout(x,y)?IRn×IRn,

alors :

1. il existe un unique élément¯x?Ksolution de(3.53),

2. si0< ρ <2α

M2, la suite(xk)définie par l"algorithme(GPFK)converge vers¯xlorsquen→+∞.

Analyse numérique I, télé-enseignement, L3267Université d"Aix-Marseille, R. Herbin, 10 novembre 2015

3.5. ALGORITHMES D"OPTIMISATION SOUS CONTRAINTES CHAPITRE 3. OPTIMISATION

DÉMONSTRATION-

1. La condition 1. donne quefest strictement convexe et quef(x)→+∞quand|x| →+∞. CommeKest convexe

fermé non vide, il existe donc un unique¯xsolution de (3.53).

2. On pose, pourx?IRn,h(x) =pK(x-ρ?f(x)). On a doncxk+1=h(xk).Pour montrer que la suite(xk)n?IN

converge, il suffit donc de montrer quehest strictement contractante dès que

0< ρ <2α

M2.(3.66)

Grâce au lemme 3.44 démontré plus loin, on sait quepKest contractante. Orhest définie par :

h(x) =pK(¯h(x))où¯h(x) =x-ρ?f(x).

On a déjà vu que

¯hest strictement contractante si la condition (3.66) est vérifiée (voir théorème 3.20 page 221), et plus

précisément :

On en déduit que :

L"applicationhest donc strictement contractante dès que0<2α M2. La suite(xk)n?INconverge donc bien versx= ¯x

Lemme 3.44(Propriété de contraction de la projection orthogonale).SoitEun espace de Hilbert,? · ?la norme

et(·,·)le produit scalaire,Kun convexe fermé non vide deEetpKla projection orthogonale surKdéfinie par

DÉMONSTRATION- CommeEest un espace de Hilbert,

?pK(x)-pK(y)?2= (pK(x)-pK(y)|pK(x)-pK(y)). On a donc?pK(x)-pK(y)?2= (pK(x)-x+x-y+y-pK(y)|pK(x)-pK(y)) = (pK(x)-x|pK(x)-pK(y))E+ (x-y|pK(x)-pK(y))+ (y-pK(y)|pK(x)-pK(y)). Or(pK(x)-x|pK(x)-pK(y))≥0et(y-pK(y)|pK(x)-pK(y)), d"où : et donc, grâce à l"inégalité de Cauchy-Schwarz, Algorithme du gradient à pas optimal avec projection surK(GPOK) L"algorithme du gradient à pas optimal avec projection surKs"écrit :

Initialisationx0?K

Itérationxkconnu

w k=-?f(xk);calculerαkoptimal dans la directionwk x k+1=pK(xk+αkw(k))

La démonstration de convergencede cet algorithme se déduitde celle de l"algorithme à pas fixe.

Remarque 3.45.On pourrait aussi utiliser un algorithme de type Quasi-Newton avec projection surK. Les algorithmes de projection sont simples à décrire, mais ils soulèvent deux questions :

1. Comment calcule-t-onpK?

2. Que faire siKn"est pas convexe?

Analyse numérique I, télé-enseignement, L3268Université d"Aix-Marseille, R. Herbin, 10 novembre 2015

3.5. ALGORITHMES D"OPTIMISATION SOUS CONTRAINTES CHAPITRE 3. OPTIMISATION

On peut donner une réponse à la première question dans les cassimples :

1er cas On suppose ici queK=C+={x?IRn, x= (x1,...,xk)txi≥0?i}.

Siy?IRny= (y+1...yn)t,on peut montrer (exercice 3.4.5 page 264) que (pK(y))i=y+ i= max(yi,0),?i? {1,...,n} K=? i=1,n[αi,βi], alors (pK(y))i= max(αi,min(yi,βi)),?i= 1,...,n

Dansle cas d"unconvexeKplus"compliqué",oudansle cas oùKn"estpas convexe,onpeututiliser desméthodes

de dualité introduites dans le paragraphe suivant.

3.5.2 Méthodes de dualité

Supposons que les hypothèses suivantes sont vérifiées : ?f?C1(IRn,IR), g i?C1(IRn,IR),

On définit un problème "primal" comme étant le problème de minimisation d"origine, c"est-à-dire

?¯x?K, On définit le "lagrangien" comme étant la fonctionLdéfinie deIRn×IRpdansIRpar :

L(x,λ) =f(x) +λ·g(x) =f(x) +p?

i=1λ igi(x),(3.69) avecg(x) = (g1(x),...,gp(x))tetλ= (λ1(x),...,λp(x))t.

On noteC+l"ensemble défini par

C +={λ?IRp, λ= (λ1,...,λp)t,λi≥0pour touti= 1,...,p}.

Remarque 3.46.Le théorème de Kuhn-Tucker entraîne que si¯xest solution du problème primal(3.68)alors il

existeλ?C+tel queD1L(¯x,λ) = 0(c"est-à-direDf(¯x) +λ·Dg(¯x) = 0) etλ·g(¯x) = 0.

On définit alors l"applicationMdeIRpdansIRpar : M(λ) = infx?IRnL(x,λ),pour toutλ?IRp.(3.70)

On peut donc remarquer queM(λ)réalise le minimum (enx) du problème sans contrainte, qui s"écrit, pour

λ?IRpfixé :

?x?IRn

Analyse numérique I, télé-enseignement, L3269Université d"Aix-Marseille, R. Herbin, 10 novembre 2015

3.5. ALGORITHMES D"OPTIMISATION SOUS CONTRAINTES CHAPITRE 3. OPTIMISATION

Lemme 3.47.L"applicationMdeIRpdansIRdéfinie par(3.70)est concave (ou encore l"application -Mest

convexe), c"est-à-dire que pour tousλ,μ?IRpet pour toutt?]0,1[on aM(tλ+ (1-t)μ)≥tM(λ) + (1-

t)M(u)

DÉMONSTRATION- Soitλ,μ?IRpett?]0,1[; on veut montrer queM(tλ+ (1-t)μ)≥tM(λ) + (1-t)M(μ).

Soitx?IRn,alors :

L(x,tλ+ (1-t)μ) =f(x) + (tλ+ (1-t)μ)g(x) =tf(x) + (1-t)f(x) + (tλ+ (1-t)μ)g(x).

On a doncL(x,tλ+ (1-t)μ) =tL(x,λ) + (1-t)L(x,μ).Par définition deM, on en déduit que pour toutx?IRn,

L(x,tλ+ (1-t)μ)≥tM(λ) + (1-t)M(μ)

Or, toujours par définition deM,

M(tλ+ (1-t)μ) = inf

x?IRnL(x,tλ+ (1-t)μ)≥tM(λ) + (1-t)M(μ). On considère maintenant le problème d"optimisation dit "dual" suivant : ?μ?C+,

M(μ)≥M(λ)?λ?C+.(3.72)

Définition 3.48.SoitL: IRn×IRp→IRet(x,μ)?IRn×C+. On dit que(x,μ)est un point selledeLsur

IR n×C+si

Proposition 3.49.Sous les hypothèses(3.67), soitLdéfinie parL(x,λ) =f(x) +λg(x)et(x,μ)?IRn×C+

un point selle deLsurIRn×C+. alors

1.¯xest solution du problème(3.68),

2.μest solution de(3.72),

3.¯xest solution du problème(3.71)avecλ=μ.

On admettra cette proposition.

Réciproquement, on peut montrer que (sous des hypothèses convenables surfetg), siμest solution de (3.72), et

si¯xsolution de (3.71) avecλ=μ, alors(¯x,μ)est un point selle deL, et donc¯xest solution de (3.68).

De ces résultats découlel"idéede basedes méthodesdedualité : onchercheμsolutionde(3.72). Onobtientensuite

une solution¯xdu problème (3.68), en cherchant¯xcomme solution du problème (3.71) avecλ=μ(qui est un

problème de minimisation sans contraintes). La recherche de la solutionμdu problème dual (3.72) peut se faire

par exemple par l"algorithme très classique d"Uzawa, que nous décrivons maintenant.

Algorithme d"UzawaL"algorithme d"Uzawa consiste à utiliser l"algorithme du gradient à pas fixe avec pro-

jection (qu"on a appelé "GPFK", voir page 267) pour résoudrede manière itérative le problème dual (3.72). On

cherche doncμ?C+tel queM(μ)≥M(λ)pour toutλ?C+. On se donneρ >0,et on notepC+la projection

sur le convexeC+(voir proposition 3.41 page 267). L"algorithme (GPFK) pourla recherche deμs"écrit donc :

Initialisation :μ0?C+

Itération :μk+1=pC+(μk+ρ?M(μk))

Pour définir complètement l"algorithme d"Uzawa, il reste à préciser les points suivants :

Analyse numérique I, télé-enseignement, L3270Université d"Aix-Marseille, R. Herbin, 10 novembre 2015

3.5. ALGORITHMES D"OPTIMISATION SOUS CONTRAINTES CHAPITRE 3. OPTIMISATION

1. Calcul de?M(μk),

2. calcul depC+(λ)pourλdansIRn.

On peut également s"intéresser aux propriétés de convergencede l"algorithme.

La réponse au point 2 est simple (voir exercice 3.4.5 page 264) : pourλ?IRn, on calculepC+(λ) =γavec

γ= (γ1,...,γp)ten posantγi= max(0,λi)pouri= 1,...,p, oùλ= (λ1,...,λp)t. La réponse au point 1. est une conséquence de la proposition suivante (qu"on admettra ici) :

Proposition 3.50.Sous les hypothèses(3.67), on suppose que pour toutλ?IRn, le problème(3.71)admet une

solution unique, notéexλet on suppose que l"application définie deIRpdansIRnparλ?→xλest différentiable.

AlorsM(λ) =L(xλ,λ),Mest différentiable enλpour toutλ, et?M(λ) =g(xλ).

En conséquence, pour calculer?M(λ), on est ramené à chercherxλsolution du problème de minimisation sans

contrainte (3.71). On peut dont maintenant donner le détailde l"itération générale de l"algorithme d"Uzawa :

Itération de l"algorithme d"Uzawa.Soitμk?C+connu;

1. On cherchexk?IRnsolution de?xk?IRn,

2. On calcule?M(μk) =g(xk)

3. μk+1=μk+ρ?M(μk) =μk+ρg(xk) = ((μk+1)1,...,(μk+1)p)t

4.μk+1=pC+(

μk+1), c"est-à-direμk+1= ((μk+1)1,...,(μk+1)p)tavec(μk+1)i= max(0,(μk+1)i)pour touti= 1,...,p. On a alors le résultat suivant de convergence de l"algorithme :

Proposition 3.51(Convergencede l"algorithme d"Uzawa).Sous les hypothèses(3.67), on suppose de plus que :

1. il existeα >0tel que(?f(x)- ?f(y))·(x-y)≥α|x-y|2pour tout(x,y)?(IRn)2,

Alors si0< ρ <2α

Mf2, la suite((xk,μk))k?IRn×C+donnée par l"algorithme d"Uzawa vérifie :

1.xk→¯xquandn→+∞,où¯xest la solution du problème(3.68),

2.(μk)n?INest bornée.

Remarque 3.52(Sur l"algorithme d"Uzawa).

1. L"algorithmeest très efficacesi les contraintessont affines: (i.e. sigi(x) =αi·x+βipourtouti= 1,...,p,

avecαi?IRnetβi?IR).

2. Pour avoir l"hypothèse 3 du théorème, il suffit que les fonctionsgisoient convexes. (On a dans ce cas

existence et unicité de la solutionxλdu problème(3.71)et existence et unicité de la solution¯xdu problème

(3.68).)

3.5.3 Exercices

Exercice 125(Méthode de pénalisation).

Soitfune fonction continue et strictement convexe deIRndansIR, satisfaisant de plus : lim |x|→+∞f(x) = +∞. SoitKun sous ensemble non vide, convexe (c"est-à-dire tel que?(x,y)?K2, tx+ (1-t)y?K,?t?]0,1[),

et fermé deIRn. Soitψune fonction continue deIRndans[0,+∞[telle queψ(x) = 0si et seulement six?K.

Pourn?IN, on définit la fonctionfkparfk(x) =f(x) +nψ(x).

Analyse numérique I, télé-enseignement, L3271Université d"Aix-Marseille, R. Herbin, 10 novembre 2015

3.5. ALGORITHMES D"OPTIMISATION SOUS CONTRAINTES CHAPITRE 3. OPTIMISATION

1. Montrer qu"il existe au moins un élément¯xk?IRntel quefk(¯xk) = infx?IRnfk(x),et qu"il existe un

unique élément¯xK?Ktel quef(¯xK) = infx?Kf(x).

2. Montrer que pour toutn?IN,

3. En déduire qu"il existe une sous-suite(¯xnk)k?INety?Ktels que¯xnk→ylorsquek→+∞.

4. Montrer quey= ¯xK. En déduire que toute la suite(¯xk)n?INconvergevers¯xK.

5. Déduire de ces questions un algorithme (dit "de pénalisation") de résolution du problème de minimisation

suivant : ?Trouver¯xK?K; en donnant un exemple de fonctionψ. Exercice 126(Méthode de relaxation avec Newton problèmes sous contrainte).quotesdbs_dbs21.pdfusesText_27
[PDF] exercices corrigés de béton précontraint pdf

[PDF] exercices corrigés de bioénergétique pdf

[PDF] exercices corrigés de chimie organique descriptive pdf

[PDF] exercices corrigés de chimie organique s3

[PDF] exercices corrigés de consolidation des comptes pdf

[PDF] exercices corriges de demographie pdf

[PDF] exercices corrigés de didactique des mathématiques

[PDF] exercices corrigés de dihybridisme

[PDF] exercices corrigés de distribution pdf

[PDF] exercices corrigés de fiscalité pdf

[PDF] exercices corrigés de géochimie isotopique pdf

[PDF] exercices corrigés de géotechnique pdf

[PDF] exercices corrigés de gestion de portefeuille

[PDF] exercices corrigés de l'économie générale bac

[PDF] exercices corrigés de la gestion d approvisionnement pdf