une fonctionnelle quadratique s'il existe une matrice carrée symétrique A problème d'optimisation inf t∈R f(x + td) admet une unique solution donnée par
Previous PDF | Next PDF |
[PDF] Optimisation
1 2 Exercices corrigés 4 3 1 Minimisation d'une fonction quadratique convexe sous des contraintes linéaires 5 1 Optimisation sous contraintes d'inégalité
[PDF] Corrige Examen 2016-17
une fonctionnelle quadratique s'il existe une matrice carrée symétrique A problème d'optimisation inf t∈R f(x + td) admet une unique solution donnée par
[PDF] LICENCE 3 MATHEMATIQUES – INFORMATIQUE
proposé d'étudier une partie du cours, de faire des exercices (corrigés) et, Etudier les paragraphes 3 1 et 3 2 (optimisation sans contrainte) et 3 4 ( optimisation avec contrainte) Théorème 3 16 (Minimisation d'une fonction quadratique)
[PDF] feuilles de travaux dirigés - Ceremade - Université Paris Dauphine
Exercice 5 (encadrement des formes quadratiques) Une forme quadratique q sur R N est ce que l'on résume dans le problème d'optimisation suivant : max
[PDF] Table des matières 1 Calcul différentiel
QUELQUES EXERCICES CORRIGÉS D'OPTIMISATION Yannick Les lignes de niveau d'une fonction quadratique de R2 sont des coniques (par définition)
[PDF] Éléments de Cours, exercices et problèmes corrigés - Institut de
problèmes corrigés D AZÉ 2 1 Le problème de l'optimisation avec contrainte N° 28 Minimisation du quotient de deux fonctions quadratiques 147
[PDF] EXERCICES DU COURS DOPTIMISATION - ENS Rennes
(x4 + x2 − 1) Exercice 3: Montrer que la convergence de la méthode de Newton est quadratique : ∃c > 0, xk+1 − x∗
[PDF] MS41 Optimisation I - Gloria FACCANONI
29 juil 2014 · Optimisation I Recueil d'exercices corrigés et aide-mémoire Gloria Faccanoni i http://faccanoni univ-tln fr/enseignements html Année 2014 –
[PDF] 1 Les conditions de Kuhn-Tucker
Corrigés d'optimisation convexe et quadratique 1 Les conditions Exercices corrigés Si on consid`ere un programme d'optimisation convexe noté :
[PDF] Optimisation sans contrainte - PédagoTech de Toulouse INP
Exercice 8 8 On consid`ere la fonction quadratique définie sur Rn par f(x) = 1 2 xT Ax − xT b, o`u A est carrée et symétrique montrez que ∇f(x) = Ax − b
[PDF] fonction strictement convexe
[PDF] optimisation quadratique sous contrainte linéaire
[PDF] matrice hessienne convexité
[PDF] optimisation convexe pdf
[PDF] fonction convexe plusieurs variables
[PDF] modélisation et simulation d'un moteur ? courant continu matlab
[PDF] modélisation mcc
[PDF] simulation mcc simulink
[PDF] asservissement et regulation de vitesse d'un moteur a courant continu
[PDF] modélisation d'un moteur ? courant continu
[PDF] equation differentielle moteur courant continu
[PDF] schéma bloc moteur ? courant continu
[PDF] commande pid d'un moteur ? courant continu pdf
[PDF] modélisation machine asynchrone simulink
Optimisation, algorithmique (MML1E31)(M1 Maths, 2016-2017)
Examen du mercredi 4 janvier 2017
Corrigé
Les documents suivants sont autorisés :
P olycopiésdis tribuésen cours et notes de cours manuscrites corr espondantes, Sujets de TP i mpriméset notes manuscrites corr espondantes. La consultation de tout autre document (livres, etc.) et l"utilisation de tout appareil élec- tronique sont interdites.Exercice 1.(sur environ 12 points)
Rappel sur les fonctionnelles quadratiques :On rappelle qu"une fonctiong:Rn!Rest une fonctionnelle quadratique s"il existe une matrice carrée symétriqueA2 Mn(R), un vecteur b2Rnet une constantec2Rtels que8x2Rn; g(x) =12
hAx;xi hb;xi+c (et alors la matriceA, le vecteurbet la constantecsont uniques). Fonctionnelle des moindres carrés :Soientn;p2Ndeux entiers non nuls. SoientA2 M p;n(R)une matrice rectangulaire,b2Rpun vecteur. On définit la fonctionf:Rn!Rpar f(x) =12 kAxbk2: Attention on utilisera la même notation pour la norme et le produit scalaire dansRnet dansRp, mais les vecteurs ne sont a priori pas de la même taille! 1. Montrer quefestunefonctionnellequadratiqueetpréciserlamatricecarréeA02 Mn(R), le vecteurb02Rnet la constantec02Rassociés àf. 2. Donner l"e xpressiondu gradient rf(x)et de la matrice hessienner2f(x)defen toutpointx2Rn(on pourra se référer à un résultat du cours plutôt que de faire les calculs).
3.Montrer que fest convexe.
4. Montrer que fest fortement convexe si et seulement siker(A) =f0g. 5. Soit x2Rntelquerf(x)6= 0.Rappelerladéfinitiond"unedirectiondedescented2Rn au pointxet montrer qued2Rnest une direction de descente si et seulement si hAxb;Adi<0 (en particulierAd6= 0). 16.Soit x2Rntel querf(x)6= 0etdune direction de descente au pointx. Montrer que le
problème d"optimisation inft2Rf(x+td) admet une unique solution donnée par t ?=hrf(x);dikAdk2:(1) Algorithme de gradient conjugué pour les moindres carrés :On suppose désormais que ker(A) =f0g. On rappelle ci-dessous le pseudo-code de l"algorithme du gradient conjugué afin de minimiser une fonctionnelle quadratique g(x) =12 hA0x;xi hb0;xi+c0lorsqueA0est symétrique définie positive (ce qui revient à résoudre le système linéaireA0x=
b0). On rappelle que, par convention, pour cet algorithme ce sont les vecteurs opposésd(k)qui
sont des directions de descente.Algorithme 1 :Algorithme du gradient conjuguéDonnées :Un point initialx(0)2Rn, un seuil de tolérance" >0
Résultat :Un pointx2Rnproche dex?
Initialiserx:
x x(0); k 0;Première itération :
1.Calculer d(0)=rg(x)(d(0)=rg(x(k)))
2. Calculer le pas de desc enteoptimal t(0)dans la direction de descented(0) 3.Mettre à jour x:
x x(1)=x(0)t(0)d(0); (attention c"est bien un signe) k k+ 1; tant quekrf(x)k2> "2faire1.Calculer d(k)=rg(x(k)) +krg(x(k))k2krg(x(k1))k2d(k1). 2. Calculer le pas de descente optimal t(k)dans la direction de descented(k) 3.Mettre à j ourx:
x x(k+1)=x(k)t(k)d(k); (attention c"est bien un signe) k k+ 1; fin7.En utilisant l"équation ( 1), donner l"expression des pas de descentet(0)ett(k),k>1, pour la fonctionf(x) =12 kAxbk2en fonction derf(x(0)),Aetd(0)pourt(0)etrf(x(k)), Aetd(k)pourt(k)(en faisant attention à la convention sur les directions de descentes). 28.Ecrire une fonction scilab
function x = grad_conj_moindres_carres(A, b, x0, eps) qui applique l"algorithme du gradient conjugué à la fonctionnellef(x) =12 kAxbk2en partant du pointx0et avec une tolérance"pour le critère d"arrêt. On pourra introduire une fonction intermédiaire qui calcule le gradient def(non obligatoire).Solution de l"exercice 1.
1. f(x) =12 kAxbk2 12 hAxb;Axbi 12 hAx;Axi hb;Axi+12 hb;bi 12 hATAx;xi hATb;xi+12 kbk2:Doncfest quadratique avec
A0=ATA; b0=ATb; c=12
kbk2: 2. D"après les e xpressiondu gradient et de la matrice hessienne des fonctionnelles quadra- tiques, rf(x) =A0xb0=AT(AxB) et r2f(x) =A0=ATA:
3.Pour tout h2Rn,
hr2f(x)h;hi=hATAh;hi=kAhk2>0:
Donc la matrice hessienne defest positive en tout pointx2Rn,fest donc convexe. On peut également justifier quefest convexe car c"est la composée de l"application affine x7!Axbet de la fonction convexey7! kyk2. 4. Supposons que fsoit fortement convexe. Alors il existem >0tel que8h2Rn;hr2f(x)h;hi>mkhk2:
Orhr2f(x)h;hi=kAhk2. D"où,kAhk2>mkhk2pour touth2Rn, en particulier, h6= 0impliqueAh6= 0, doncker(A) =f0g. Supposons queker(A) =f0g. AlorsA0=ATAest une matrice réelle symétrique définie positive. Elle admet une valeur propre minimale >0et on a hATAh;hi>khk2; doncfest fortement convexe pourm=. 35.d2Rnest unedirection de descenteau pointxsihrf(x);di<0. Ainsidest une
direction de descente ssi hAT(Axb);di<0 soit ssi hAxb;Adi<0: 6. La fonction ':t7!f(x+td)est un trinôme du second degré pour la variablet. En effet, on a '(t) =f(x+td) =f(x) +thAT(Axb)|{z} =rf(x);di+t22 kAdk2: Cette fonction est minimale au pointttel que'0(t) = 0, soit hrf(x);di+tkAdk2= 0 d"où l"expression det?. 7.On en appli quantl"équation (
1 ) avecd=d(0)=rf(x(0)), t (0)=kd(0)k2kAd(0)k2: t (k)=hrf(x(x));d(k)ikAd(k)k2: 8. function x = grad_conj_moindres_carres(A, b, x0, eps) x = x0 k = 0 gfx = A" *(A*x-b) sqngfx = gfx" *gfx d = gfx;Ad = A
*d; t = sqngfx/(Ad" *Ad) x = x - t *d sqngfxold = sqngfx gfx = A" *(A*x - b) sqngfx = gfx" *gfx k = k+1 while(sqngfx>eps^2 & k < 1000) d = gfx + sqngfx/sqngfxold *dAd = A
*d; t = gfx" *d/(Ad"*Ad) x = x - t *d sqngfxold = sqngfx gfx = A *x - b sqngfx = gfx" *gfx k = k+1 4 disp([k,sqngfx]); end endfunctionExercice 2.(sur environ 9 points)
Soitn>2un entier. On notee1;e2;:::;enles vecteurs de la base canonique deRn. On notekxk=phx;xila norme euclidienne usuelle deRnet kxk1= maxi2f1;:::;ngjxij: Dans la suite de l"exercice,f:Rn!Rdésigne une fonction deux fois différentiable sur R net fortement convexe telle que8x;h2Rn; mkhk26hr2f(x)h;hi6Mkhk2
avec0< m6M. On notex?le point oùfatteint son minimum global etp?=f(x?)la valeur minimale def. Le but de l"exercice est d"étudier la convergence d"un algorithme de descente qui prend pour direction de descente à l"étapekle vecteur d (k)=@f@x i(x(k))ei oùiest le plus petit indice pour lequel@f@x i(x(k))=krf(x(k))k1: Plus précisément, on considère l"Algorithme 2ci-dessous. Algorithme 2 :Algorithme de descente selon la dérivée partielle maximaleDonnées :Un point initialx(0)2Rn, un seuil de tolérance" >0