QUELQUES EXERCICES CORRIGÉS DOPTIMISATION EXERCICE
Comme on a vu qu'elle en possède au moins un on conclut à l'existence et l'unicité. EXERCICE V (optimisation quadratique
Optimisation Examen du mercredi 5 mai 2021 Corrigé
Déterminer toutes les solutions de (P) à l'aide des conditions KKT. Solution de l'exercice 1. 1. Etude f sur R2 : f est quadratique sur R2 avec pour matrice A
Corrige Examen 2016-17
Exercice 1. (sur environ 12 points). Rappel sur les fonctionnelles quadratiques : On rappelle qu'une fonction g : Rn → R est une fonctionnelle quadratique s
TD doptimisation ENSAE 1A
16 janv. 2018 On a l'inclusion inverse par symétrie. Exercice 4.15. Exercice 4.16 ... forme quadratique q associée à la contrainte peut s'écrire q(X) = tXAX ...
Optimisation non linéaire : correction des TD
17 janv. 2008 ... quadratique de l'exercice prédécent. Donc : ∂f. ∂a. (a) = aT Q + bT. 3. Page 5. La condition du premier ordre nous donne : aT Q + bT =0 =⇒ a ...
Optimisation
19 oct. 2015 Remarquons que si f est quadratique on retrouve la méthode de Gauss Seidel. 3.3.5 Exercices. Exercice 104 (Mise en oeuvre de GPF
LICENCE 3 MATHEMATIQUES – INFORMATIQUE
Corrigé de l'exercice 119 page 234 (Jacobi et optimisation). 1. La méthode de Exercice 132 (Fonctionnelle quadratique). Suggestions en page 242 corrigé ...
Exercices Corrigés - Analyse numérique et optimisation Une
29 août 2012 chacun des probl`emes d'optimisation suivants. 1. Optimisation quadratique `a contraintes linéaires (Exemple 9.1.6) inf x∈ KerB. {. J(x) = 1. 2.
Exercices Corrigés - Analyse numérique et optimisation Une
27 janv. 2011 chacun des probl`emes d'optimisation suivants. 1. Optimisation quadratique `a contraintes linéaires (Exemple 9.1.6) inf x∈ KerB. {. J(x) = 1. 2.
[PDF] 2 Optimisation sans contraintes
quadratique équivalent. • Lagrangien : • Condition d'ordre 1. • Solution ... On corrige la direction de déplacement pour prendre en compte la non-linéarité des ...
QUELQUES EXERCICES CORRIGÉS DOPTIMISATION EXERCICE
QUELQUES EXERCICES CORRIGÉS D'OPTIMISATION Corrigé de l'exercice ... EXERCICE IV (optimisation quadratique moindres carres). Soit N ? N?.
Thème 3 AM: Optimisation quadratique
Exercice 3.2: Quelle est la valeur minimale du produit de deux nombres si leur différence est égale à 12 ? Page 2. 24 THÈME 3. Analyses Mathématiques. 2EC– JtJ
Notes doptimisation différentiable
Corrigé exercice 25 minx f(x)(P) avec f(x) = Ax ? b2 o`u A ? Rmn et b ? Rm. 1. f est une fonction quadratique dont le gradient et la Hessienne sont donnés
Table des matières 1 Calcul différentiel
QUELQUES EXERCICES CORRIGÉS D'OPTIMISATION Les lignes de niveau d'une fonction quadratique de R2 sont des coniques (par définition) des ellipses ici ...
feuilles de travaux dirigés
Exercice 5 (encadrement des formes quadratiques). les conditions nécessaires pour résoudre des problèmes d'optimisation sous contraintes d'inégalité ...
LICENCE 3 MATHEMATIQUES – INFORMATIQUE
Exercices proposés (avec corrigés) : 117 (exemple) 118 (algorithme du gradient à pas optimal) et 119 (Jacobi et optimisation). Semaine 3 :.
Corrige Examen 2016-17
Optimisation algorithmique (MML1E31) (M1 Maths
Optimisation non linéaire : correction des TD
17 janv. 2008 Exercice 1 : étude des fonctions quadratiques. Les fonctions quadratiques sont très souvent rencontrées dans les problèmes d'optimisation ...
1 Les conditions de Kuhn-Tucker
Corrigés d'optimisation convexe et quadratique Exercices corrigés . ... Si on consid`ere un programme d'optimisation convexe noté :.
RO04/TI07 - Optimisation non-linéaire
Exemples. Exercices. Documents. ? section précédente chapitre ? section suivante ?. 14. I.2 Formes quadratiques. Définition d'une forme quadratique .
[PDF] quelques exercices corrigés doptimisation - opsuniv-batna2dz
QUELQUES EXERCICES CORRIGÉS D'OPTIMISATION EXERCICE I (Calcul différentiel) 1 Montrer que la fonction f : R2 ? R2 définie par f(x y) =
[PDF] Corrige Examen 2016-17
Exercice 1 (sur environ 12 points) Rappel sur les fonctionnelles quadratiques : On rappelle qu'une fonction g : Rn ? R est une fonctionnelle quadratique
[PDF] Thème 3 AM: Optimisation quadratique - JavMathch
Exercice 3 1: La somme de deux nombres entiers est 36 Déterminer ces deux nombres sachant que la somme de leur carré est minimale Exercice 3 2: Quelle est la
[PDF] 1 Les conditions de Kuhn-Tucker
Corrigés d'optimisation convexe et quadratique 1 Les conditions de Exercices corrigés Si on consid`ere un programme d'optimisation convexe noté :
[PDF] Optimisation Examen du mercredi 5 mai 2021 Corrigé
Déterminer toutes les solutions de (P) à l'aide des conditions KKT Solution de l'exercice 1 1 Etude f sur R2 : f est quadratique sur R2 avec pour matrice A
(PDF) Optimisation: Cours et exercices Version 2021 - ResearchGate
21 sept 2021 · est toujours sym´etrique 1 4 1 Gradient d'une forme quadratique D´e?nition 1 4 2 Soit F
[PDF] RO04/TI07 - Optimisation non-linéaire
Exercices Documents chapitre ? section suivante ? 6 I 1 Motivations Formulation générale des problèmes d'optimisation non linéaire
[PDF] Solution de lexamen final - Optimisation sans contraintes
Optimisation sans contraintes Exercice 1 (6 points): quadratique f est strictement convexe et coercive elle admet alors un unique
[PDF] Optimisation non linéaire : correction des TD - Emmanuel Rachelson
17 jan 2008 · Exercice 1 : étude des fonctions quadratiques Les fonctions quadratiques sont très souvent rencontrées dans les problèmes d'optimisation
[PDF] Optimisation - Dspace
12 mar 2020 · 5 4 1 Cas d'un probl`eme quadratique avec des contraintes affines égalités Chaque chapitre est clôturé par un ensemble d'exercices
![RO04/TI07 - Optimisation non-linéaire RO04/TI07 - Optimisation non-linéaire](https://pdfprof.com/Listes/18/9643-18Compiegne.pdf.pdf.jpg)
RO04/TI07 - Optimisation non-linéaireStéphane Mottelet, Mohamed ElbagdouriUniversité de Technologie de Compiègne
Faculté des Sciences Semlalia MarrakechAutomne 20005SommaireConceptsNotionsExemplesExercicesDocuments2IISommaireI Motivations et notions fondamentales5I.1 Motivations. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .6I.2 Formes quadratiques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .14I.3 Rappels de calcul différentiel. . . . . . . . . . . . . . . . . . . . . . . . . . . . .20I.4 Notions sur la convexité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .26I.5 Résultats d"existence et d"unicité. . . . . . . . . . . . . . . . . . . . . . . . . . .34I.6 Conditions nécessaires d"optimalité (sans contrainte). . . . . . . . . . . . . . . .38Exemples du chapitre I. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .41Exercices du chapitre I. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .49II Les méthodes de gradient54II.1 Les méthodes de descente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .55II.2 Les méthodes de gradient. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .58Exemples du chapitre II. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .63III La méthode du gradient conjugué66III.1 Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .67III.2 La méthode du gradient conjugué. . . . . . . . . . . . . . . . . . . . . . . . . . .73
SommaireConceptsNotionsExemplesExercicesDocumentsJJ3IIIII.3 Interprétation de la méthode du gradient conjugué. . . . . . . . . . . . . . . . .78IV Méthodes de recherche linéaire83IV.1 introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .84IV.2 Caractérisation de l"intervalle de sécurité. . . . . . . . . . . . . . . . . . . . . . .87V Méthodes de Quasi-Newton97V.1 Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .98V.2 Les méthodes de quasi-Newton. . . . . . . . . . . . . . . . . . . . . . . . . . . .104V.3 Méthodes spécifiques pour les problèmes de moindres carrés. . . . . . . . . . .117VI Conditions d"optimalité en optimisation avec contraintes121VI.1 Les conditions de Lagrange. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .122VI.2 Les conditions de Kuhn et Tucker. . . . . . . . . . . . . . . . . . . . . . . . . . .134VI.3 Exemples de problèmes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .142VI.4 Conditions suffisantes d"optimalité. . . . . . . . . . . . . . . . . . . . . . . . . .149VII Méthodes primales155VII.1 Contraintes d"égalité linéaires. . . . . . . . . . . . . . . . . . . . . . . . . . . . .156VII.2 Contraintes d"inégalité linéaires. . . . . . . . . . . . . . . . . . . . . . . . . . . .165VII.3 Méthodes de pénalisation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .169VII.4 Méthodes par résolution des équations de Kuhn et Tucker. . . . . . . . . . . . .177Exemples du chapitre VII. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .183VIII Méthodes utilisant la notion de dualité185VIII.1 Elements sur la dualité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .186VIII.2 Methodes duales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .193
SommaireConceptsNotionsExemplesExercicesDocumentsJJ4A Documents197A.1 Documents du chapitre I. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .198A.2 Documents du chapitre II. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .207A.3 Documents du chapitre III. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .210A.4 Documents du chapitre V. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .216
SommaireConceptsNotionsExemplesExercicesDocumentssuivantI5Chapitre IMotivations et notions fondamentalesI.1 Motivations. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .6I.2 Formes quadratiques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .14I.3 Rappels de calcul différentiel. . . . . . . . . . . . . . . . . . . . . . . . . . . . .20I.4 Notions sur la convexité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .26I.5 Résultats d"existence et d"unicité. . . . . . . . . . . . . . . . . . . . . . . . . . .34I.6 Conditions nécessaires d"optimalité (sans contrainte). . . . . . . . . . . . . . . .38Exemples du chapitre I. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .41Exercices du chapitre I. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .49
SommaireConceptsNotionsExemplesExercicesDocumentschapitreNsection suivanteI6I.1 MotivationsFormulation générale des problèmes d"optimisation non linéaire. . . . . .7Un exemple en régression non-linéaire. . . . . . . . . . . . . . . . . . . .9Un exemple en mécanique. . . . . . . . . . . . . . . . . . . . . . . . . . .11
SommaireConceptsNotionsExemplesExercicesDocumentssectionNsuivantI7IIFormulation générale des problèmes d"optimisation non linéaire
La forme générale d"un problème d"optimisation est la suivante : (PC)8 >>>>>>>:min x2Rnf(x);(I.1.1)sous les contraintesg(x)0;(I.1.2)h(x) = 0;(I.1.3)où les fonctionsf,gethsont typiquement non-linéaires (c"est l"objet de cette deuxième partie du
cours). L"équation (VI.1.2) désigne ce que nous apelleront descontraintes d"inégalitéet l"équation
(VI.1.3) descontraintes d"égalité.L"objet de ce cours est la présentation de techniques permettant de résoudre le problème(PC),
ainsi que des problèmes où soit un seul des deux types de contraintes est présent, soit des problèmes
n"y a pas de contraintes du tout. Nous noterons ces types de problèmes ainsi :(PC)problème général, avec contraintes d"inégalité et d"égalité,
(PCE)problème avec contraintes d"égalité, (PCI)problème avec contraintes d"inégalité, (P)problème sans contraintes.Il va de soi que la plupart des problèmes réels ou industriels ne sont pas initialement sous une des
formes proposées. C"est pourquoi un des premiers travaux consiste en général à mettre le problème
générale des problèmes d"optimisation non linéaireinitial sous une forme standard. Par exemple, un problème donné sous la forme max x2Rng(x); se mettra sous la forme standard(P)en posantf(x) =g(x)! Cependant, la mise sous formestandard nécéssite en général un peu plus de travail, comme nous allons le voir dans les exemples qui
suivent.SommaireConceptsNotionsExemplesExercicesDocumentsJprécédentsectionNsuivantI9IIUn exemple en régression non-linéaire020406080100
-1.0-0.6-0.20.20.61.0 O O O OOOO O OO O O O O O O OOOO O OOO O O O OOO OOO OOOO OOOOOOOO
OOOOOOOOOOOOOOO
O OO O OO O OO OO OO OO OOOO OOO O OOO OOOOO O OOOOOOOOOn considère un problème d"identification des paramètresa;b;cetcd"un signal du type f(t) =aexp(bt)cos(ct+d);à partir d"échantillons[ti;yi]i=1:::mdu signalf(t)(ces échantillons sont représentés par les ronds sur
la figure ci-dessus). SommaireConceptsNotionsExemplesExercicesDocumentsJprécédentsectionNsuivantIJJ10Un exemple en régression non-linéaireOn propose de faire cette identification en minimisant la fonctionJ(a;b;c;d) =12m
X i=1(yif(ti))2; 12m X i=1(yiaexp(bti)cos(cti+d))2:Le choix d"élever au carré la distance entreyietf(ti)est bien sûr arbitraire : on aurait pu prendre
la valeur absolue, mais le carré permet d"obtenir une fonctionJdifférentiable (ceci sera bien sûr
clarifié dans la suite). Si nous n"ajoutons pas de conditions sur les paramètresa;b;c;dle problème
posé est donc du type(P), avecx= [a;b;c;d]>2R4. Ce problème est communément appelé un problème de moindres carrés (non linéaire).SommaireConceptsNotionsExemplesExercicesDocumentsJprécédentsectionN11IIUn exemple en mécaniqueu(x)
v(x)On considère une corde horizontale de longueur1tendue à ses deux extrémités, avec une tension
. La déviation éventuelle de la corde par rapport à sa position d"équilibre est désignée paru(x),
pourx2[0;1]. Les extrémités étant fixées, on aura toujoursu(0) =u(1) = 0. On négligera le
poids propre de la corde par rapport à la tension, cela permet d"affirmer qu"en l"absence d"action
extérieure, la corde est au repos et on a doncu(x) = 0;8x2[0;1]. Supposons maintenant que la corde est écartée de sa position d"origine. Alors on peut montrer que l"énergie potentielle associée à cette déformation (supposée petite) estE(u) =12Z
1 0 dudx 2dx:(I.1.4)En l"absence d"obstacle, la position de reposu(x) = 0minimise cette énergie. Il peut alors être
intéressant d"étudier un problème où un obstacle empèche la corde de prendre la position triviale
u(x) = 0. Intuitivement, on voit bien que la corde va toucher l"obsctale en certains points, mais pas
forcément en tous les points de l"intervalle[0;1](cela va dépendre de la forme de l"obstacle) SommaireConceptsNotionsExemplesExercicesDocumentsJprécédentsectionNJJ12IIUn exemple enmécaniqueSupposons par exemple que cet obstacle peut être représenté par une fonctionv(x)0. Alors la
présence de l"obstacle se traduit par la conditionu(x)v(x);x2]0;1[:(I.1.5)Si on veut connaître la déformationu(x)de la corde lorsque l"obstacle est présent, on peut donc
penser qu"il est raisonnable de considérer le problème 8>>< >:min u12Z 1 0 dudx 2 dx; u(0) =u(1) = 0;u(x)v(x); x2]0;1[:(I.1.6)Il s"agit, techniquement parlant, d"un problème de calcul des variations, et donc l"inconnue est
une fonction (la fonctionu(x)). Il parait donc pour l"instant impossible de le mettre sous formestandard. Cependant, on peut essayer de résoudre un problème approché, en utilisant la méthode des
éléments finis :
Approximation avec la méthode des éléments finisPuisque l"on est en dimension 1 d"espace, la méthode est très simple à mettre en oeuvre. D"une
part, on discrétise l"intervalle[0;1]: on considère les abscisses x k=kN; k= 0:::N:On considère le vecteurU= [U1;:::;UN1]>, ainsi que la fonctionuN(x)définie par :uN(xk) =Uk,uN(0) =uN(1) = 0, de plusuNest continue et affine par morceaux.
SommaireConceptsNotionsExemplesExercicesDocumentsJprécédentsectionNJJ13Un exemple en mécaniqueOn peut alors montrer queE(uN) =12U>AU;
oùAest la matrice (définie positive) A=N20 BBBBB@21 0
1 21 1 21 01 21 CCCCCA:
On peut donc proposer la version approchée du problème (I.1.6) : minU12U>AU;v(xk)Uk0;k= 1:::N1:(I.1.7)Il s"agit donc d"un problème se mettant assurément sous la forme(PCI). De plus la fonction
f(U) =12U>AUest assez particulière : il s"agit d"une forme quadratique (nous y reviendrons plus tard). La fonctiongpermettant d"exprimer les contraintes d"inégalité, définie par g(U) =0 B @v(x1)U1... v(xN1)UN1)1 C A; est de pluslinéaire. Nous aborderons des méthodes tenant compte de ces particularités.SommaireConceptsNotionsExemplesExercicesDocumentsJsection précédentechapitreNsection suivanteI14I.2 Formes quadratiquesDéfinition d"une forme quadratique. . . . . . . . . . . . . . . . . . . . . .15Propriétés des formes quadratiques définies positives. . . . . . . . . . . .17
SommaireConceptsNotionsExemplesExercicesDocumentssectionNsuivantI15IIDéfinition d"une forme quadratiqueCours:exemple en mécaniqueL"exempleprécédentnousdonneuneidée,àpartird"unproblèmeparticulier,delaformequepeut
prendre la fonctionf. Une telle fonction s"appelle une forme quadratique. Nous allons maintenantétudier leurs propriétés.Définition I.2.1SoitAune matrice symétriquennetb2Rn. On appelle forme quadratique la
fonctionf:Rn!Rdéfinie par f(x) =12x>Axb>x:Lorsque la matriceApossède certaines propriétés, la fonctionfpeut prendre un nom particulier. La
propriété à laquelle nous allons nous intéresser est la positivité :Définition I.2.2SoitAune matrice symétriquennetb2Rn. On dit queAest semi-définie
positive et on noteA0, quand x >Ax0;8x2Rn: On dit queAest définie positive et on noteA >0, quand x >Ax >0;8x2Rn; x6= 0: d"une formequadratiqueCette définition peut être reliée aux valeurs propres de la matriceA:Propriété I.2.3SoitAune matrice symétriquenn. On notefigi=1:::nses valeurs propres
(réelles). On a les équivalences suivantes :A0()i0; i= 1:::n;
A >0()i>0; i= 1:::n:
Lorsque la matriceAest définie positive (resp. semi-définie positive), on dira quef(x)est uneforme quadratique définie positive (resp. semi-définie positive). Dans le cas oùAest définie positive
la fonctionfpossède un certain nombre de propriétés. Nous nous intéressons dans un premier temps
aux surfacesf(x) =coùc2R.SommaireConceptsNotionsExemplesExercicesDocumentsJprécédentsectionN17IIPropriétés des formes quadratiques définies positivesExemples:Exemple I.1Propriété I.2.4SoitAune matrice symétriquenn, définie positive etb2Rn. Considérons la
forme quadratique f(x) =12x>Axb>x: On considère la famille de surfaces définie par c=fx2Rn; f(c) =cg; pourc2R, et on définit le vecteur^xsolution deA^x=b:
Alors cest définie de la façon suivante :-Sic < f(^x)alors c=;.-Sic=f(^x)alors c=f^xg.-Sic > f(^x)alors cest un ellipsoïde centré en^x. SommaireConceptsNotionsExemplesExercicesDocumentsJprécédentsectionNJJ18IIPropriétés des formes quadratiques définiespositivesDémonstration :La matriceAétant diagonalisable, il existe une matriceP(la matrice des vecteurs
propres) orthogonale telle que P >AP=D; oùD=diag(1;:::;n)aveci>0. On fait le changement de variabley=x^x: cela donne f(^x+y) =f(^x) + (A^xb)>y+12y>Ay; et puisqueA^x= 0, on a f(x) =f(^x) +12(x^x)>A(x^x): On fait maintenant le changement de variable(x^x) =Pz, ce qui donne f(x) =f(^x) +12z>P>APz; =f(^x) +12z>Dz; =f(^x) +12n X i=1 iz2i:La surface
cest donc définie par c=( z2Rn;12n X i=1 iz2i=cf(^x)) Sicf(^x)<0il est clair qu"il n"y a pas de solution à l"équation 12n X i=1 iz2i=cf(^x); SommaireConceptsNotionsExemplesExercicesDocumentsJprécédentsectionNJJ19Propriétés des formes quadratiques définiespositivespuisque le second membre est toujours positif! Sic=f(^x)la seule solution estz= 0, c"est à dire
x= ^x. Sic > f(^x)l"équation définit bien un ellipsoïde, puisque lesisont positifs.Nous avons en fait démontré un résultat très intéressant qui caractérise la valeur minimale prise
parf(x)quandxparcourtRn:Théoreme I.2.5SoitAune matrice symétriquenndéfinie positive etb2Rn, et soitfla forme
quadratique associée, définie par f(x) =12x>Axb>x: Soit^xle vecteur (unique) vérifiantA^x=b, alors^xréalise le minimum def, c"est à dire f(^x)f(x);8x2Rn: Ce résultat est une conséquence directe de la propriétéI.2.4.SommaireConceptsNotionsExemplesExercicesDocumentsJsection précédentechapitreNsection suivanteI20I.3 Rappels de calcul différentielDéfinition de la différentiabilité. . . . . . . . . . . . . . . . . . . . . . . . .21Calcul de la dérivée première. . . . . . . . . . . . . . . . . . . . . . . . .23Dérivée seconde. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .25
SommaireConceptsNotionsExemplesExercicesDocumentssectionNsuivantI21IIDéfinition de la différentiabilité
DansRnon notexle vecteur colonne
x=0 B @x 1... x n1 C A; et la notationk:kdésignera, sauf indication du contraire, la norme euclidienne kxk= nX k=1x 2k! 12Avant de donner la définition de la différentiabilité, il est important de rappeller celle de laconti-
nuité:Définition I.3.1Soitf:Rn!Rm, on dit quefest continue au pointa2Rnsi pour tout réel >0il existe >0tel que kxak< ) kf(x)f(a)k< :Voici maintenant la définition de la différentiabilité :Définition I.3.2Soitf:Rn!Rmreprésentée dans la base canonique deRmpar le vecteur
f(x) =0 B @f 1(x) f m(x)1 CA;(I.3.8)
SommaireConceptsNotionsExemplesExercicesDocumentssectionNsuivantIJJ22Définition de ladifférentiabilitécontinue ena2Rn. On dit quefest différentiable enas"il existe une application linéaire, notée
f0(a), telle que pour touth2Rnon ait
f(a+h) =f(a) +f0(a)h+khk(h);(I.3.9)où(:)est une fonction continue en 0 vérifiantlimh!0(h) = 0. On appellef0(a)dérivée defau
pointa. lorsque l"on représentef0(a)par sa matrice dans les bases canoniques deRnetRm, comme le montre plus bas la propositionI.3.4.SommaireConceptsNotionsExemplesExercicesDocumentsJprécédentsectionNsuivantI23IICalcul de la dérivée premièreExemples:Exemple I.3Exemple I.2Exercices:Exercice I.2Exercice I.1On peut d"ores et déja donner un résultat "pratique" permettant de calculer directement la dérivée
à partir du développement (I.3.9) :Proposition I.3.3Soitf:Rn!Rmdifférentiable ena, alors limt!0f(a+th)f(a)t=f0(a)h:DémonstrationLa quantitéf0(a)hest appellée communémentdérivée directionnelledefau pointadans la
directionh. La proposition suivante fait le lien entre la matrice def0(a)et les dérivées partielles de
fau pointa: SommaireConceptsNotionsExemplesExercicesDocumentsJprécédentsectionNsuivantIJJ24Calcul de la dérivéepremièreProposition I.3.4Soitf:Rn!Rmdifférentiable ena, alors on peut représenterf0(a)par sa
matrice dans les bases canoniques deRnet deRmet on a[f0(a)]ij=@fi@xj(a)DémonstrationOn appelle souventf0(a)la matricejacobiennedefau pointa. Lorsquem= 1on adopte une
notation et un nom particuliers : legradientest le vecteur notérf(a)et défini par f0(a) =rf(a)>;
et on a f(a+h) =f(a) +rf(a)>h+khk(h):SommaireConceptsNotionsExemplesExercicesDocumentsJprécédentsectionN25Dérivée secondeExemples:Exemple I.4Exercices:Exercice I.4Exercice I.3On se place maintenant dans le casm= 1, soitf:Rn!R.Définition I.3.5L"applicationf:Rn!Rest dite deux fois différentiable s"il existe une matrice
symétriquer2f(a)telle que f(a+h) =f(a) +rf(a)>h+h>r2f(a)h+khk2(h): On appeller2f(a)matrice hessienne defau pointa. Comme l"énonce le théorème suivant (nondémontré), cette matrice s"obtient à partir des dérivées secondes def:Théoreme I.3.6Soitf:Rn!Rune fonction deux fois différentiable en un pointa. Si on note
g(x) =rf(x)alors la matrice hessienne est définie parr2f(a) =g0(a), soit [r2f(a)]ij=@2f@xi@xj:SommaireConceptsNotionsExemplesExercicesDocumentsJsection précédentechapitreNsection suivanteI26I.4 Notions sur la convexitéDéfinition de la convexité. . . . . . . . . . . . . . . . . . . . . . . . . . . .27Fonctions convexes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .29Caractérisation de la convexité en termes du hessien. . . . . . . . . . . .31Caractérisation de la convexité en termes du gradient. . . . . . . . . . . .33
SommaireConceptsNotionsExemplesExercicesDocumentssectionNsuivantI27IIDéfinition de la convexitéExemples:Exemple I.5La convexité est à la base une propriété géométrique, assez intuitive d"ailleurs, qui permet de
caractériser certains objets. On voit assez bien ce qu"est un objet convexe dans un espace à deux
ou trois dimensions. Nous allons maintenant montrer comment cette propriété peut aussi s"appliquer
aux fonctions deRndansR.objet convexeobjet non convexe x yx yDéfinition I.4.1UnensembleKRnestditconvexesipourtoutcouple(x;y)2K2et82[0;1] SommaireConceptsNotionsExemplesExercicesDocumentssectionNsuivantIJJ28Définition de la convexitéon a x+ (1)y2K:Cette définition peut s"interpréter en disant que le segment reliantxetydoit être dansK. Elle se
généralise de la façon suivante : on dira qu"un vecteuryest une combinaison convexe des points
fx1;:::;xpgsi on a y=pX i=1 ixi; aveci0etPp i=1i= 1. On peut citer quelques cas particuliers :Rntout entier est un ensemble convexe, de même qu"un singletonfag.Propriété I.4.2Soit une famillefKigi=1:::pd"ensembles convexes etS=Tp i=1Ki. AlorsSest convexe.SommaireConceptsNotionsExemplesExercicesDocumentsJprécédentsectionNsuivantI29IIFonctions convexesfonction convexefonction non-convexe
xyxyDéfinition I.4.3On dit qu"une fonctionf:K!R, définie sur un ensemble convexeK, est convexe si elle vérifie8(x;y)2K2;82[0;1]; f(x+ (1)y)f(x) + (1)f(y):
On dira quefest strictementconvexe si
8(x;y)2K2; x6=y;82]0;1[; f(x+ (1)y)< f(x) + (1)f(y):
convexesLorsquen= 1cette définition s"interprète bien géométriquement : le graphe de la fonction est
toujours en dessous du segment reliant les points(x;f(x))et(y;f(y)).Corollaire I.4.4On définit pour(x;y)2K2, oùKest un ensemble convexe, la fonction':
[0;1]!Rpar '(t) =f(tx+ (1t)y):Alors on a l"équivalence
'(t)convexe sur[0;1];8(x;y)2K2,fconvexe surK:DémonstrationSommaireConceptsNotionsExemplesExercicesDocumentsJprécédentsectionNsuivantI31IICaractérisation de la convexité en termes du hessienExemples:Exemple I.6Dans le cas oùf:KR!Ron a le résultat suivant :Propriété I.4.5Sif:R!Rest 2 fois continûment dérivable surKconvexe alorsfest convexe
si et seulement sif00(x)0,8x2Ket strictement convexe si et seulement sif00(x)>0,8x2K (sauf éventuellement en des points isolés).Ce résultat se généralise pourn >1: le résultat suivant fait le lien entre le hessien et la propriété de
convexité :Théoreme I.4.6Soitf:KRn!Rune fonction deux fois différentiable, alorsfest convexe
si et seulement sir2f(x)0;8x2K, et strictement convexe si et seulement sir2f(x)>0;8x2K.DémonstrationLe corrolaire suivant est immédiat :Propriété I.4.7Soitfune forme quadratique définie par
f(x) =12x>Axb>x; alorsfest convexe si et seulement siA0, et strictement convexe si et seulement siA >0. de la convexité en termes du hessienCela provient du fait quer2f(x) =A(voir l"exempleI.4).SommaireConceptsNotionsExemplesExercicesDocumentsJprécédentsectionN33Caractérisation de la convexité en termes du gradient
Dans le cas où la fonctionfn"est supposée qu"une fois différentiable, on a le résultat suivant :Théoreme I.4.8Soitf:KRn!Rune fonction une fois différentiable, alorsfest convexe si
et seulement si f(y)f(x) +rf(x)>(yx);8(x;y)2K2: La fonctionfest strictement convexe si et seulement si f(y)> f(x) +rf(x)>(yx);8(x;y)2K2; x6=y: On voit bien l"interprétation géométrique de ce dernier resultat quandn= 1: le graphe d"une fonction convexefse trouve toujours au-dessus de la tangente en un point donné.SommaireConceptsNotionsExemplesExercicesDocumentsJsection précédentechapitreNsection suivanteI34I.5 Résultats d"existence et d"unicitéThéoremes généraux d"existence. . . . . . . . . . . . . . . . . . . . . . .35Unicité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .37
SommaireConceptsNotionsExemplesExercicesDocumentssectionNsuivantI35IIThéoremes généraux d"existence
Considérons notre problème d"optimisationI.1.1introduit au début du cours, que l"on écrira pour
l"occasion un peu différemment, en mettant les contraintes sous la formex2KRn: minx2Kf(x):(I.5.10)Nous allons donner deux résultats très généraux d"existence d"une solution au problème (I.5.10).
Auparavant nous avons besoin de la définition d"un ensemble compact :Définition I.5.1Un ensembleKRnest dit compact si, de toute suitefxkg, oùxk2K;8k, on
peut extraire une sous-suite convergente.Nous donnons le théorème suivant sans démonstration :Théoreme I.5.2Un ensembleKRnest compact si et seulement si il est fermé et borné.
DansR, les intervalles fermés du type[a;b](ou des reunions de tels intervalles) sont compacts. La notion de fermeture signifie qu"une suitefxkg, oùxk2K;8k, doit converger vers une limite x2K. Pour illustrer sur un exemple qu"un intervalle ouvert dansRne peut pas être compact, on peut considérer l"exemple suivant. SoitK=]0;1]et la suitexk= 1=k, on a bienxk2Kmaislimk!1= 062K.Voici maintenant deux résultats d"existence, dont les démonstrations peuvent ètre consultées dans
les documents. généraux d"existenceThéoreme I.5.3Sif:K2Rn!Rest continue et si de plusKest un ensemble compact, alors le problème (I.5.10) admet une solution optimale^x2K, qui vérifie donc f(^x)f(x);8x2K:Le second résultat est moins général car il considère le cas particulierK=Rn:Théoreme I.5.4Soitf:Rn!Rune fonction continue surRn. Si
lim kxk!1f(x) =1; alors (I.5.10) admet une solution optimale^x.DémonstrationL"unicité résulte en général de propriétés de convexité (defet deK).Théoreme I.5.5Soitf:K2Rn!Rstrictement convexe surKconvexe. Le minimum def
surK, s"il existe, est unique.Démonstration :Soit donc^x2Ktel quef(^x)f(x),8x2K. Supposons qu"il existe^y6= ^x
tel quef(^y)f(x),8x2K. Formons pour2]0;1[le vecteur u=^y+ (1)^x: D"après la stricte convexité defet puisque nécessairementf(^y) =f(^x)on a f(u)< f(^y) + (1)f(^x) =f(^x); ce qui contredit le fait que^xsoit un minimum. On a donc^x= ^y.SommaireConceptsNotionsExemplesExercicesDocumentsJsection précédentechapitreNsection suivanteI38I.6 Conditions nécessaires d"optimalité (sans contrainte)Conditions nécessaires. . . . . . . . . . . . . . . . . . . . . . . . . . . . .39Conditions nécessaires et suffisantes. . . . . . . . . . . . . . . . . . . . .40
SommaireConceptsNotionsExemplesExercicesDocumentssectionNsuivantI39Conditions nécessaires On va maintenant regarder de plus près le cas oùK=Rn, c"est à dire le problème sanscontraintes(P). Dans le cas oùfest différentiable, on a le résultat suivant :Théoreme I.6.1Soitf:Rn!Rdifférentiable et^xvérifiant
f(^x)f(x);8x2Rn; alors on a nécessairement rf(^x) = 0:DémonstrationSommaireConceptsNotionsExemplesExercicesDocumentsJprécédentsectionN40Conditions nécessaires et suffisantes
La condition de gradient nul devient suffisante dans le cas oùfest convexe :Théoreme I.6.2Soitf:Rn!Rconvexe et différentiable. Si^xvérifie
rf(^x) = 0;alors on af(^x)f(x);8x2Rn.DémonstrationLorsque la fonction n"est pas convexe, on ne peut donner qu"une condition nécessaire et suffi-
sante d"optimalité locale. On désignera par minimum local (que l"on oppose au minimum global) un
vecteur vérifiant les conditions suivantes :Définition I.6.3On appelleraxminimum local def, s"il existe >0tel que
f(x)f(x);8x;kxxk :Dans le cas oùfest deux fois différentiable on peut alors donner le résultat suivant :Théoreme I.6.4Soitf:Rn!Rdeux fois différentiable. Si
rf(x) = 0; r2f(x)>0; alorsxest un minimum local def.DémonstrationSommaireConceptsNotionsExemplesExercicesDocumentsJsection précédentechapitreNsection suivanteI41Exemples du chapitre II.1 Courbes de niveau d"une forme quadratique dansR2. . . . . . .42I.2 Gradient d"une fonction quadratique. . . . . . . . . . . . . . . . .44I.3 Dérivée d"une fonction affine. . . . . . . . . . . . . . . . . . . . .45I.4 Matrice hessienne d"une fonction quadratique. . . . . . . . . . .46I.5 Combinaison convexe de points dans le plan. . . . . . . . . . . .47I.6 Convexité d"une fonction quadratique. . . . . . . . . . . . . . . .48
SommaireConceptsNotionsExemplesExercicesDocumentssectionNsuivantI42IIExemple I.1Courbes de niveau d"une forme quadratique dansR2
On considère la fonctionf(x) =12x>Axb>xoùAest une matrice symétrique22définie positive. On notePla matrice des vecteurs propres et1> 2>0les deux valeurs propres. Notons^xla solution du système linéaireA^x=b. On a montré que les courbes iso-valeurs sont définies par
l"équation12(1z21+2z22) =cf(^x); où on a effectué le changement de variablez=P(x^x). Si on acf(^x), l"équation ci-dessus définit une ellipse dans le repère(z1;z2), dont l"équation "canonique" est donnée par z1a2+z2b2= 1;
avec a=s2(xf(^x))1; b=s2(xf(^x))2: On sait que l"on peut décrire cette ellipse par la courbe paramétriquez(t),t2[0;2]avec z(t) =acost bsint donc l"équation paramétrique de la courbex(t)dans le repère original est x(t) = ^x+Pacost bsint SommaireConceptsNotionsExemplesExercicesDocumentssectionNsuivantIJJ43Exemple I.1Courbes de
niveau d"une forme quadratique dansR2Lancer la simulation-4.31-2.48-0.651.173.004.836.658.4810.31 -0.161.903.976.038.1010.16 +Retour au grainSommaireConceptsNotionsExemplesExercicesDocumentsJprécédentsectionNsuivantI44Exemple I.2Gradient d"une fonction quadratique
On considère la fonctionf(x) =12x>Axb>xoùAest une matrice carrée symétriquenn. On a f(x+th) =12x>Ax+12t2h>Ah+tx>Ah+b>(x+th); =f(x) +t(x>Ab>)h+12t2h>Ah; on a donc f(x+th)f(x)t= (Axb)>h+12th>Ah: Puisquelimt!012th>Ah= 0, on a doncrf(x) =Axb.Retour au grainSommaireConceptsNotionsExemplesExercicesDocumentsJprécédentsectionNsuivantI45Exemple I.3Dérivée d"une fonction affine
On considère la fonctionf(x) =Cx+doùCest une matricemn. On af(x+h) = Cx+Ch+d=f(x)+Ch. Doncf0(x) =C;8x2Rn. On notera qu"icifest différentiable pour toutx2Rn, ce qui n"est pas forcément le cas quandfest quelconque.Retour au grainSommaireConceptsNotionsExemplesExercicesDocumentsJprécédentsectionNsuivantI46Exemple I.4Matrice hessienne d"une fonction quadratique
nn. L"exemple précédent nous a donnérf(x) =Axb. Puisque la matrice hessienne est la dérivée du gradient on a doncr2f(x) =A.Retour au grainSommaireConceptsNotionsExemplesExercicesDocumentsJprécédentsectionNsuivantI47Exemple I.5Combinaison convexe de points dans le planLancer la simulation-1.87-1.10-0.340.431.191.96
-1.13-0.59-0.050.491.031.57 OO O OO O OO O OOOConsidérons un ensemble de points du planfx1;:::;xpg. La simulation qui est proposée ici permet
de générer aléatoirement un très grand nombre de points de la forme y k=pX i=1 ixi;en tirant aléatoirement les coefficientsfigi=1:::psuivant une loi uniforme sur[0;1], renormalisés en
les divisant par leur somme, de façon à ce que l"on ait toujoursPp i=1i= 1. Le polygone "limite"contenant tous les points générés s"appelle l"enveloppe convexedes pointsfx1;:::;xpg.Retour au grain
quotesdbs_dbs33.pdfusesText_39[PDF] fonction strictement convexe
[PDF] optimisation quadratique sous contrainte linéaire
[PDF] optimisation convexe pdf
[PDF] fonction convexe plusieurs variables
[PDF] modélisation et simulation d'un moteur ? courant continu matlab
[PDF] modélisation mcc
[PDF] simulation mcc simulink
[PDF] asservissement et regulation de vitesse d'un moteur a courant continu
[PDF] modélisation d'un moteur ? courant continu
[PDF] equation differentielle moteur courant continu
[PDF] schéma bloc moteur ? courant continu
[PDF] commande pid d'un moteur ? courant continu pdf
[PDF] modélisation machine asynchrone simulink
[PDF] onduleur triphasé matlab