[PDF] [PDF] quelques exercices corrigés doptimisation - opsuniv-batna2dz





Previous PDF Next PDF



QUELQUES EXERCICES CORRIGÉS DOPTIMISATION EXERCICE

Comme on a vu qu'elle en possède au moins un on conclut à l'existence et l'unicité. EXERCICE V (optimisation quadratique



Optimisation Examen du mercredi 5 mai 2021 Corrigé

Déterminer toutes les solutions de (P) à l'aide des conditions KKT. Solution de l'exercice 1. 1. Etude f sur R2 : f est quadratique sur R2 avec pour matrice A 



Corrige Examen 2016-17

Exercice 1. (sur environ 12 points). Rappel sur les fonctionnelles quadratiques : On rappelle qu'une fonction g : Rn → R est une fonctionnelle quadratique s 



TD doptimisation ENSAE 1A

16 janv. 2018 On a l'inclusion inverse par symétrie. Exercice 4.15. Exercice 4.16 ... forme quadratique q associée à la contrainte peut s'écrire q(X) = tXAX ...



Optimisation non linéaire : correction des TD

17 janv. 2008 ... quadratique de l'exercice prédécent. Donc : ∂f. ∂a. (a) = aT Q + bT. 3. Page 5. La condition du premier ordre nous donne : aT Q + bT =0 =⇒ a ...



Optimisation

19 oct. 2015 Remarquons que si f est quadratique on retrouve la méthode de Gauss Seidel. 3.3.5 Exercices. Exercice 104 (Mise en oeuvre de GPF



LICENCE 3 MATHEMATIQUES – INFORMATIQUE

Corrigé de l'exercice 119 page 234 (Jacobi et optimisation). 1. La méthode de Exercice 132 (Fonctionnelle quadratique). Suggestions en page 242 corrigé ...



Exercices Corrigés - Analyse numérique et optimisation Une

29 août 2012 chacun des probl`emes d'optimisation suivants. 1. Optimisation quadratique `a contraintes linéaires (Exemple 9.1.6) inf x∈ KerB. {. J(x) = 1. 2.



Exercices Corrigés - Analyse numérique et optimisation Une

27 janv. 2011 chacun des probl`emes d'optimisation suivants. 1. Optimisation quadratique `a contraintes linéaires (Exemple 9.1.6) inf x∈ KerB. {. J(x) = 1. 2.



[PDF] 2 Optimisation sans contraintes

quadratique équivalent. • Lagrangien : • Condition d'ordre 1. • Solution ... On corrige la direction de déplacement pour prendre en compte la non-linéarité des ...



QUELQUES EXERCICES CORRIGÉS DOPTIMISATION EXERCICE

QUELQUES EXERCICES CORRIGÉS D'OPTIMISATION Corrigé de l'exercice ... EXERCICE IV (optimisation quadratique moindres carres). Soit N ? N?.



Thème 3 AM: Optimisation quadratique

Exercice 3.2: Quelle est la valeur minimale du produit de deux nombres si leur différence est égale à 12 ? Page 2. 24 THÈME 3. Analyses Mathématiques. 2EC– JtJ 



Notes doptimisation différentiable

Corrigé exercice 25 minx f(x)(P) avec f(x) = Ax ? b2 o`u A ? Rmn et b ? Rm. 1. f est une fonction quadratique dont le gradient et la Hessienne sont donnés 



Table des matières 1 Calcul différentiel

QUELQUES EXERCICES CORRIGÉS D'OPTIMISATION Les lignes de niveau d'une fonction quadratique de R2 sont des coniques (par définition) des ellipses ici ...



feuilles de travaux dirigés

Exercice 5 (encadrement des formes quadratiques). les conditions nécessaires pour résoudre des problèmes d'optimisation sous contraintes d'inégalité ...



LICENCE 3 MATHEMATIQUES – INFORMATIQUE

Exercices proposés (avec corrigés) : 117 (exemple) 118 (algorithme du gradient à pas optimal) et 119 (Jacobi et optimisation). Semaine 3 :.



Corrige Examen 2016-17

Optimisation algorithmique (MML1E31) (M1 Maths



Optimisation non linéaire : correction des TD

17 janv. 2008 Exercice 1 : étude des fonctions quadratiques. Les fonctions quadratiques sont très souvent rencontrées dans les problèmes d'optimisation ...



1 Les conditions de Kuhn-Tucker

Corrigés d'optimisation convexe et quadratique Exercices corrigés . ... Si on consid`ere un programme d'optimisation convexe noté :.



RO04/TI07 - Optimisation non-linéaire

Exemples. Exercices. Documents. ? section précédente chapitre ? section suivante ?. 14. I.2 Formes quadratiques. Définition d'une forme quadratique .



[PDF] quelques exercices corrigés doptimisation - opsuniv-batna2dz

QUELQUES EXERCICES CORRIGÉS D'OPTIMISATION EXERCICE I (Calcul différentiel) 1 Montrer que la fonction f : R2 ? R2 définie par f(x y) =



[PDF] Corrige Examen 2016-17

Exercice 1 (sur environ 12 points) Rappel sur les fonctionnelles quadratiques : On rappelle qu'une fonction g : Rn ? R est une fonctionnelle quadratique 



[PDF] Thème 3 AM: Optimisation quadratique - JavMathch

Exercice 3 1: La somme de deux nombres entiers est 36 Déterminer ces deux nombres sachant que la somme de leur carré est minimale Exercice 3 2: Quelle est la 



[PDF] 1 Les conditions de Kuhn-Tucker

Corrigés d'optimisation convexe et quadratique 1 Les conditions de Exercices corrigés Si on consid`ere un programme d'optimisation convexe noté :



[PDF] Optimisation Examen du mercredi 5 mai 2021 Corrigé

Déterminer toutes les solutions de (P) à l'aide des conditions KKT Solution de l'exercice 1 1 Etude f sur R2 : f est quadratique sur R2 avec pour matrice A 



(PDF) Optimisation: Cours et exercices Version 2021 - ResearchGate

21 sept 2021 · est toujours sym´etrique 1 4 1 Gradient d'une forme quadratique D´e?nition 1 4 2 Soit F 



[PDF] RO04/TI07 - Optimisation non-linéaire

Exercices Documents chapitre ? section suivante ? 6 I 1 Motivations Formulation générale des problèmes d'optimisation non linéaire



[PDF] Solution de lexamen final - Optimisation sans contraintes

Optimisation sans contraintes Exercice 1 (6 points): quadratique f est strictement convexe et coercive elle admet alors un unique



[PDF] Optimisation non linéaire : correction des TD - Emmanuel Rachelson

17 jan 2008 · Exercice 1 : étude des fonctions quadratiques Les fonctions quadratiques sont très souvent rencontrées dans les problèmes d'optimisation 



[PDF] Optimisation - Dspace

12 mar 2020 · 5 4 1 Cas d'un probl`eme quadratique avec des contraintes affines égalités Chaque chapitre est clôturé par un ensemble d'exercices

:
[PDF] quelques exercices corrigés doptimisation - opsuniv-batna2dz QUELQUES EXERCICES CORRIGÉS D"OPTIMISATIONEXERCICE I(Calcul différentiel)

1. Montrer que la fonctionf:R2!R2définie par

f(x,y) =( y2x six6=0 ysix=0 admet des dérivées partielles au point(0,0), mais n"est pas continue en(0,0).

2. SoitE, unR-espace vectoriel muni d"un produit scalaireh,i. Montrer la continuité,

puis la différentiabilité et calculer la différentielle de l"application " produit scalaire »

F:E2!Rdéfinie parF(x,y) =hx,yipour tous(x,y)2E2.

3. SoitA2 Mn,m(R), avec(n,m)2N2.

(a) Montrer que l"applicationJ:Rm!Rdéfinie parJ(X) =kAXk2, où la notationkk désigne la norme euclidienne deRn, est différentiable et calculer sa différentielle. (b) Soitf2 C1(R). Montrer que l"applicationG:Rm!Rdéfinie parG(X) =f(J(X)) est différentiable et calculer sa différentielle.

Corrigé de l"exercice

1. On a pour toutt2R,f(t,0)f(0,0) =02t

=0, ce qui montre que limt!0f(t,0)f(0,0)t =0,

2. L"applicationFétant bilinéaire, sa continuité surE2est équivalente à sa continuité en(0,0). De

plus, d"après l"inégalité de Cauchy-Schwarz,jF(x,y)j kxk kykpour tous(x,y)2E2, où kxk=phx,xi. Étudions la différentiabilité deF. Fixons(x,y)2E2et(h,k)2E2. On a :

F(x+h,y+k) =F(x,y) +F(x,k) +F(h,y) +F(h,k),

donc siL(h,k) =F(x,k) +F(h,y), on a kF(x+h,y+k)F(x,y)L(h,k)k=kF(h,k)k khk kkk=o(N(h,k)), en prenant par exempleN(h,k) =maxfkhk,kkkg. De plus,Lest linéaire et continue car jL(h,k)j kxk kkk+khk kyk N(x,y)N(h,k)!

N(h,k)!00,

en vertu de l"inégalité de Cauchy-Schwarz. On en déduit simultanément queFest différentiable,

et quedF(x,y)(h,k) =L(h,k) =hx,ki+hy,hi.

3. (a) L"applicationX2Rn7! kXk2estC¥donc différentiable surRn, car polynômiale. L"ap-

plicationX7!AXest linéaire, donc différentiable. Par conséquent, l"applicationJest dif- férentiable en tant que composée de fonctions qui le sont. De plus, pour toutX2Rm, on a

J(X) =hAX,AXi=hA>AX,Xi,

avecA>A2 Sm(R). On en déduit que la différentielle deJenXest l"application linéaire d

XJ:h2Rm7!2A>Ah.

(b) Utilisons le théorème de composition des différentielles. On obtient d

XG(h) =dJ(X)fdXJ(h) =2f0(J(X))A>Ah.

pour touth2Rm.

EXERCICE II(Calcul différentiel)

On considère la fonctionf:R2!Rdéfinie parf(x,y) =( x3+y3x

2+y2si(x,y)6= (0,0)

0 sinon.

La fonctionfest-elle continue surR2? de classeC1surR2?

Corrigé de l"exercice

La fonctionfestC¥surR2nf(0,0)gen tant que produit, quotient ne s"annulant pas etc. de fonctions qui le sont. Reste à étudier la régularité en(0,0). On a

8(x,y)2R2nf(0,0)g,jf(x,y)j jxj3x

2+jyj3y

2=jxj+jyj !(x,y)!(0,0)0.

en(0,0). En effet, soitt6=0 et(x,y)6= (0,0). On a f(tx,ty)f(0,0)t =t3(x3+y3)t

3(x2+y2)!(x,y)!(0,0)x

3+y3x 2+y2.

Or, sifétait différentiable en(0,0), cette limite coïnciserait avecd(0,0)f(x,y)et serait en particulier

linéaire par rapport à(x,y)ce qui n"est pas le cas.

EXERCICE III(optimisation sans contrainte)

On considère la fonctionfdéfinie surR2par

f(x,y) =x4+y42(xy)2.

1. Montrer qu"il existe(a,b)2R2+(et les déterminer) tels que

f(x,y)ak(x,y)k2+b pour tous(x,y)2R2, où la notationk kdésigne la norme euclidienne deR2.

En déduire que le problème

inf(x,y)2R2f(x,y)(P) possède au moins une solution.

2. La fonctionfest-elle convexe surR2?

3. Déterminer les points critiques def, et préciser leur nature (minimum local, maximum

local, point-selle, ...). Résoudre alors le problème(P).

Corrigé de l"exercice

1.fest polynômiale donc de classeC¥(R2). En utilisant le fait quexy 12

(x2+y2), on écrit f(x,y)x4+y42x22y2+4xyx4+y24x24y2, pour tout(x,y)2R2. En utilisant le fait que pour tout(X,#)2R2,X4+#42#X20, il vient f(x,y)(2#4)x2+ (2#4)y22#4.

Choisissons par exemple#=3, on en déduit

f(x,y)2(x2+y2)162!k(x,y)k!+¥+¥,

ce qui prouve quefest coercive surR2qui est fermé et de dimension finie. D"après le théorème

du cours, le problème(P)admet au moins une solution.

2. Pour étudier la convexité def(qui est de classeC2surR2), calculons sa matrice hessienne en

tout point(x,y)deR2. On a Hessf(x,y) =43x21 1

1 3y21

Rappelons quefest convexe surR2si, et seulement si sa matrice hessienne est semi-définie positive en tout point. Or, on vérifie aisément que les valeurs propres de Hessf(0,0)sont 0 et

2. Par conséquent,fn"est pas convexe.

3. Les points critiques defsont donnés par les solutions derf(x,y) = (0,0), autrement dit, les

points critiques sont solutions du système : x3(xy) =0 y

3+ (xy) =0,x3+y3=0

y

3+ (xy) =0,y=x

x 32x=0
On en déduit quefadmet trois points critiques :O(0,0),A(p2,p2)etB(p2, p2).

fétant de classeC2, on va utiliser la caractérisation des points critiques à l"aide de la hessienne

calculée à la question précédente. - Point A: Hessf(A) =20 4 4 20 donc la trace de Hessf(A)vaut 40 et son déterminant 384. On en déduit que Hessf(A)possède deux valeurs propres strictement positives donc queA est unminimiseur localpourf. - Point B: Hessf(B) =Hessf(A), donc la même conclusion que pour le pointAs"impose. - Point O: Hessf(O) =4 4 44
, donc la trace de Hessf(O)vaut8 et son déterminant est nul. Il vient que ses valeurs propres sont 0 et8. On ne peut donc rien conclure dans ce cas à l"aide de la matrice hessienne. En revanche, on peut donner un argument à la main : soit x2Rtel quejxj<2. On af(x,x) =2x48x2=2x2(4x4). Or,jxj<2 donc 4x2>0 et on en déduit quef(x,x)<0. De même, soitx2R. On af(x,x) =2x40. Puisque

les inégalités précédentes sont obtenues pour desxarbitrairement petits, on en déduit que le

point(0,0)est unpoint-sellepourf.

En conclusion, puisque le problème(P)possède une solution, la caractérisation des points cri-

tiques defnous assure que inf (x,y)2R2f(x,y) =f(A) =f(B) =8. EXERCICE IV(optimisation quadratique, moindres carres) SoitN2N. On considère un nuage de pointsf(ti,xi)g1iN, et on cherche à mettre en oeuvre unerégression parabolique, autrement dit, on recherche la parabolePd"équationy=at2+bt+c,

oùa,betcsont trois réels à déterminer, telle que la somme sur tous les indicesivariant de 1 à

Ndu carré de la distance du point(ti,xi)au point de même abscisse surPsoit minimale.

1. Écrire ce problème comme un problème de minimisation quadratique, c"est-à-dire un

problème de la forme inf

X2RnJ(X)avecJ(X) =12

hAX,Xi hb,Xi, (Q) avecA2 Sn(R),b2Rn. On devra donc explicitern,Aetb.

On utilisera la notationSk=åNi=1tki.

2. Discuter de l"existence des solutions d"un tel problème.

3. On suppose que la matriceAest définie positive. Démontrer que(Q)possède une

unique solution.

Corrigé de l"exercice

1. Le problème s"écrit

inf

X2R3J(X)avecX=0

@a b c1 A etJ(X) =Nå i=1(xiat2ibtic)2.

ÉcrivonsJ(X) =kMXkk2avecM=0

B @t 21t11
t

2NtN11

C

Aetk=0

B @x 1... x N1 C

A. D"après le cours sur la

méthode des moindres carrés, on a

J(X) =12

hAX,Xi hb,Xi avecn=3,A=M>M2 S3(R)etb=M>k2R3. On calculeA=0 @S 4S3S2 S 3S2S1 S 2S1N1 A

2. Ce problème est équivalent au problème de minimiser la distance euclidienne dekau sous es-

pace vectoriel (de dimension finie) Im(M). C"est donc un problème de projection orthogonale, et il admet une solution.

3. Dans ce cas, on sait que HessJ(X) =Aqui est définie positive. Par conséquent,Jest strictement

convexe, etJpossède au plus un minimum dansRN. Comme on a vu qu"elle en possède au moins un, on conclut à l"existence et l"unicité. EXERCICE V(optimisation quadratique, moindres carrés) On considère la fonctionfdéfinie sur l"intervalle[1,1]parf(x) =x3. L"espaceC0([1,1])des fonctions continues sur[1,1]est muni du produit scalaire défini parhh,gi=R1

1h(x)g(x)dx

et on notek kla norme associée, définie parkhk=phh,hi, pour tous(h,g)2(C0([1,1])2.

On souhaite déterminer le polynômePde degré inférieur ou égal à 1 qui approche le mieuxf

au sens des moindres carrés, c"est-à-dire qui minimisekfPk2parmi tous les polynômes de degré inférieur ou égal à 1 (sous réserve qu"il existe et soit unique).

1. Mettre ce problème sous la forme d"un problème de moindres carrés de dimension finie.

Quelle est cette dimension?

2. Étudier l"existence/l"unicité des solutions de ce problème.

3. Résoudre ce problème.

Corrigé de l"exercice

1. Le problème d"optimisation sous-jacent s"écrit

inf (a,b)2R3J(a,b), avecJ(a,b) =Z 1

1(x3axb)2dx.

On calcule alors

J(a,b) =Z

1

1(x6+a2x2+b22ax42bx3+2abx)dx=12

hAX,Xi h˜b,Xi+c, avecX= (a,b)>,A=4/3 0 0 4

˜b=4/5

0 etc=27 . On s"est ainsi ramené à un problème d"optimisation de dimension 2.

2. Le problème d"optimisation précédent est un problème d"optimisation quadratique donc la ma-

trice hessienne associée est définie positive (cela se retrouve d"ailleurs en utilisant le formalisme

des problèmes de moindres carrés menant à l"équation normale). On en déduit que la fonctionJ

est coercive surR2qui est fermé et de dimension finie donc ce problème possède une solution unique.

3. L"équation normale s"écritAX=˜bqui se résout directement. On obtient :X=3/5

0 EXERCICE VI(convexité, optimisation quadratique)

Soita2R. On définitfa:(x,y)7!x2+y2+axy2x2y.

1. Pour quelles valeurs dea, la fonctionfaest-elle convexe? Et strictement convexe?

2. Discuter en fonction des valeurs du paramètreade l"existence de solutions au problème

d"optimisation infffa(x,y),(x,y)2R2g.

3. Lorsquea2]2,2[, résoudre le problème précédent.

Corrigé de l"exercice

1. La fonctionfaestC¥surR2car polynômiale. Pour étudier la convexité def, calculons sa hes-

sienne : pour tous(x,y)2R2, hessf(x,y) =2a a2 . Cette matrice ne dépend pas dexet y. Etant symétrique réelle, elle est diagonalisable et on notel1etl2ses valeurs propres. On a tr(hessfa(x,y)) =l1+l2=4>0, doncfan"est jamais concave. De plus, det(hessfa(x,y)) = l si, et seulement sia2]2,2[et n"est ni convexe, ni concave sinon.

2. Souvenons-nous du cours sur l"optimisation de fonctions quadratiques :

- sia2]2,2[, hessfaest constante et appartient àS++n(R). Par conséquent,faest strictement convexe et coercive (cf. cours) surR2qui est fermé et de dimension finie. Par conséquent, le problème inf

R2faa une unique solution.

- sia2Rn[2,2], la matrice hessfaa une valeur propre strictement négativem, et il existe une direction ~e2R2(vecteur propre associé àm) dans laquellef(t~e)! ¥quandt!+¥. Par conséquent, le problème inf

R2fan"a pas de solution.

- Casa2 f2,2g. Dans ce cas, la matrice hessfaest semi-définie positive, mais pas définie positive. D"après le cours, le problème inf

R2faa une solution si, et seulement si(2,2)>2

Im(hessfa). Or, puisquea=2,

hessfah1 h 2 =2h1+ah2 ah 1+2h2 =h12 a +h2a 2 )Imhessfa=vect2 a Par conséquent, sia=2,(2,2)>2Im(hessfa)et le problème infR2faa une infinité de solutions. Sia=2,(2,2)>/2Im(hessfa)et le problème infR2fan"a pas de solution.

3. Déterminons les points critiques defa:

rfa(x,y) =0,2x+ay2

2y+ax2

=0,x y =22+a 1 1 D"après l"étude précédente, dans le cas considéré, le problème inf

R2faa une unique solution qui

est donc donnée parx=y=22+aet l"infimum vaut alors42+a EXERCICE VII(Optimisation sans contrainte, quotient de Rayleigh) SoitA2 S+n(R). On considère la fonctionf:Rnnf0Rng !Rdéfinie par f(x) =hAx,xikxk2, oùh,iest le produit scalaire euclidien deRnetk kla norme induite.

1. Montrer quefestC¥sur son ensemble de définition.

2. Montrer que les problèmes d"optimisation

inf x2Rnnf0Rngf(x)et sup x2Rnnf0Rngf(x) possèdent une solution.

3. Déterminer l"ensemble des points critiques de la fonctionf.

4. Résoudre les deux problèmes ci-dessus.

5. Démontrer que la matrice hessienne defen un point critiquex2Rnnf0Rngest

Hessf(x) =2kxk2(Af(x)In),

où I ndésigne la matrice identité de taillen.

6. En déduire que tous les points critiques qui ne sont pas solution d"un des problèmes

ci-dessus sont des points-selles.

Corrigé de l"exercice

1.festC¥surRnnf0Rngen tant que quotient de fonctions polynômiales dont le dénominateur ne

s"annule qu"en 0 Rn.

2. Remarquons que, pour toutx2Rn,f(x) =hAxkxk,xkxkiet que l"applicationx2Rnnf0Rng 7!

xkxkest une surjection deRnnf0Rngdans la sphère unitéSn1=fy2Rnj kyk=1g. Il s"ensuit que inf x2Rnnf0Rngf(x) =inf y2Sn1hAy,yiet sup x2Rnnf0Rngf(x) =sup y2Sn1hAy,yi. La fonctiony7! hAy,yiest continue surSn1qui est compact. Ces problèmes ont donc une solution.

3. Pourx6=0Rn, on a :

rf(x) =0()2Axkxk22hAx,xixkxk4=0()Axf(x)x=0.

Or, d"après le théorème spectral, la matriceAest diagonalisable dans une base orthonormée de

vecteurs propres. On notes(A) =fl1,...,lngson spectre, avecl1 ln. Si l"équation Ax=f(x)xpossède une solution, alors nécessairementxest un vecteur propre deA. Récipro- quement, sixest un vecteur propre associé àl2s(A), alorsf(x) =let doncAxf(x)x=0. On en déduit que l"ensemble des points critiques defest l"ensemble des vecteurs propresx2 R nnf0RngdeA.

4. Puisque les deux problèmes ont une solution, on cherche les minimiseurs (resp. maximiseurs)

parmi les points critique. Sixlest un vecteur propre deAassocié à la valeur proprel, on vérifie

quef(xl) =l. Par conséquent, les minimiseurs defsont les vecteurs propres deRnnf0Rng associés àl1et les maximiseurs defsont les vecteurs propres deRnnf0Rngassociés àln. De plus, min x2Rnnf0Rngf(x) =l1et max x2Rnnf0Rngf(x) =ln.

5.Question difficile.PuisquefestC2surRnnf0Rng, on va écrire un développement limité defà

l"ordre deux, et on identifiera la hessienne à l"aide du terme d"ordre 2. Soitv2Rnett2R. On a : f(x+tv) =hAx,xi+2thAx,vi+t2hAv,vikxk2

1+2tkxk2hx,vi+t2kxk2kvk2

hAx,xi+2thAx,vi+t2hAv,vikxk2 =f(x) +2thAx,vikxk2f(x)hx,vi +t2 +o(t2) en utilisant que

11+u=1u+u2+o(u2). On retrouve l"expression de la différentielle defet on

en déduit que hHessf(x)v,vi=2 Or, en un point critiquexl(vecteur propre associé à la valeur proprel), on af(xl) =let par conséquent, hHessf(xl)v,vi=2 f(xl)kxlk2kvk2+hAv,vi d"où l"expression de la hessienne annoncée.

6. Choisissonsxlde norme 1. Choisissonsv=xl0un autre vecteur propre deAde norme 1, associé

à la valeur proprel0. Alors,

hHessf(xl)v,vi=2l0l. Siln"est pasla pluspetiteou la plus grandevaleur propredeA, ilsuffit alorsde choisirl0valeur

propre strictement inférieure puis supérieure àl, et on montre que l"expression ci-dessus peut

être strictement négative ou positive selon le choix dev. On en déduit quexlest un point-selle.

EXERCICE VIII(extrema liés)

Déterminer les points les plus proches et les plus éloignés de l"origine (s"ils existent) de la

courbe d"équationx6+y6=1. On illustrera la réponse à l"aide d"un dessin.

Corrigé de l"exercice

On noteH=f(x,y)2R2jh(x,y) =0gavech(x,y) =x6+y61. Les points deHles plus proches et éloignés de l"origine sont respectivement solutions des problèmes inf (x,y)2HJ(x,y)et sup (x,y)2HJ(x,y), avecJ(x,y) =d((x,y),(0,0))2=x2+y2

L"ensembleHest compact (en effet, il est fermé en tant qu"image réciproque du ferméf1gpar la fonction

continue(x,y)7!x6+y6, borné car pour tout(x,y)2H,jxj 1 etjyj 1 et inclus dansR2de

dimension finie) etJest continue surR2car polynômiale. Par conséquent, les deux problèmes ci-dessus

admettent une solution.

Caractérisons-la en écrivant les conditions d"optimalité. On a :rh(x,y) =0,(x,y) = (0,0)/2H, donc

les contraintes sont qualifiées en tout point. Soit(x,y), une solution de l"un ou l"autre des problèmes

ci-dessus. D"après le théorème des extrema liés, il existel2Rtel querJ(x,y) =lrh(x,y), soit

8< :2x=6lx5

2y=6ly5

x

6+y6=1,8

:x(13lx4) =0 y(13ly4) =0 x

6+y6=1,8

:(x,y) = (0,1),l=13 ou(x,y) = (1,0),l=13 ou(x,y) = (21/6,21/6)'(0.89,0.89),l=22/33 Or,J(0,1) =J(1,0) =1 etJ((21/6,21/6)) =2.21/3'1.59. Par conséquent, le problème infHJ a pour solutions(0,1)et(1,0)et l"infimum vaut 1, tandis que le problème supHJa pour solutions

(21/6,21/6)et l"infimum vaut 2.21/3.EXERCICE IX(problèmes d"optimisation avec contraintes, théorème de Kuhn-Tucker)

Une entreprise fabrique deux modèles de petites voitures, les modèlesXetY. Le modèleX, lequotesdbs_dbs33.pdfusesText_39
[PDF] optimisation convexe exercices corrigés

[PDF] fonction strictement convexe

[PDF] optimisation quadratique sous contrainte linéaire

[PDF] optimisation convexe pdf

[PDF] fonction convexe plusieurs variables

[PDF] modélisation et simulation d'un moteur ? courant continu matlab

[PDF] modélisation mcc

[PDF] simulation mcc simulink

[PDF] asservissement et regulation de vitesse d'un moteur a courant continu

[PDF] modélisation d'un moteur ? courant continu

[PDF] equation differentielle moteur courant continu

[PDF] schéma bloc moteur ? courant continu

[PDF] commande pid d'un moteur ? courant continu pdf

[PDF] modélisation machine asynchrone simulink

[PDF] onduleur triphasé matlab