[PDF] [PDF] Optimisation convexe - Institut de Mathématiques de Bordeaux





Previous PDF Next PDF



Convex Optimization

This book is about convex optimization a special class of mathematical optimiza- tion problems



Optimisation convexe

convexe et des algorithmes plus spécifiquement des algorithmes proximaux de l'optimisation de fonctions convexes différentiables la seconde de l' ...



Eléments danalyse et doptimisation convexe.

Dans ce chapitre nous présentons quelques propriétés remarquables des fonctions convexes. Elle permettront de construire des algorithmes de minimisation dans 



Optimisation et analyse convexe

OPTIMISATION. ET. ANALYSE CONVEXE. Exercices et problèmes corrigés avec rappels de cours. Jean-Baptiste Hiriart-Urruty. Collection dirigée par Daniel Guin.



Convex Optimization

4 sept. 2009 Boyd & Vandenberghe Convex Optimization



Convex Optimization – Boyd and Vandenberghe

surprisingly many problems can be solved via convex optimization. Introduction. 1–8 convex and y is a random variable with log-concave pdf then.



Optimisation des fonctions convexes

Optimisation des fonctions convexes D7 : Une fonction réelle f définie sur C convexe est dite convexe si pour tout (a



Convex Optimization Basics

Is this convex? What is the criterion function? The inequality and equality constraints? Feasible set? Is the solution unique when: • n 



COURS OPTIMISATION Cours en Master M1 SITN Ionel Sorin

La fonction f est convexe (donc toute combinaison linéaire avec des coefficients stric- tement positifs de fonctions convexes est convexe). 2. Si au moins l'une 



Non-Parametric Discrete Registration with Convex Optimisation

sition of similarity and regularisation term into two convex optimisation steps. This approach enables non-parametric registration with billions.



[PDF] Optimisation convexe - Institut de Mathématiques de Bordeaux

Ce document est un support pour le cours d'optimisation Il n'a donc pas vocation `a être complet mais vient en appui aux séances de cours



[PDF] Eléments danalyse et doptimisation convexe

19 fév 2020 · 4 1 Méthodes optimales en optimisation convexe différentiable 45 4 1 1 Cas convexe différentiable



[PDF] Cours en Master M1 SITN

2 2 1 Fonctions convexes strictement convexes fortement convexes 11 4 2 3 Applications de la théorie du point selle à l'optimisation



[PDF] Optimisation convexe : géométrie modélisation et applications

19 nov 2009 · 1 Géométrie et analyse convexe 2 Optimisation : idées exemples convexité 3 Optimisation de la production électrique en France



[PDF] Optimisation convexe non-lisse - ENS Lyon

In our opinion convex optimization is a natural next topic after advanced linear algebra and linear programming (Stephen Boyd and Lieven Vandenberghe) 



[PDF] Optimisation linéaire & convexité

I 1 Introduction à la programmation linéaire 1 I 1 1 Un problème d'optimisation linéaire en dimension 2 II 2 4 Fonctions convexes



[PDF] Convexité en optimisation convexité forte

On dit que f est strictement convexe si l'inégalité ci-dessus est stricte pour x = y t ?]01[ Rappelons que toute fonction convexe possède une régularité 



[PDF] Cours Apprentissage - ENS Math/Info Optimisation Convexe

16 oct 2015 · pdf pour la r`egle dite d'Armijo – Analyse théorique – Hypoth`eses pour résultat théorique simple : f deux fois dérivable convexe LI f (x)



[PDF] OPTIMISATION ET ANALYSE CONVEXE - Numilog

Pour les fonctions convexes différentiables on pourra consulter [12] Cha- pitre IV Section 4 par exemple * Exercice I 1 Soit f : Rn ?? R continûment 



[PDF] compléments danalyse : convexité et optimisation - ENS Rennes

1 1 1 Généralités 1 1 2 Convexité dans les espaces de Hilbert 5 1 3 Convexité et convergence faible 12 2 Fonctions convexes

  • Comment montrer qu'un problème est convexe ?

    Théorème 2.1 Un fonction f est convexe si et seulement si, pour tout (x, y) ? (dom(f))2 et ? ? 0 tels que y + ?(y ? x) ? dom(f), f satisfait : f(y + ?(y ? x)) ? f(y) + ?(f(y) ? f(x)).19 fév. 2020
  • Comment la convexité permet d'optimiser certains marchés économiques ?

    C'est un concept utile dans le cadre du trading sur obligations car la comparaison des durées des obligations peut permettre aux investisseurs d'anticiper le degré de variation du cours d'une obligation suite à un changement de taux d'intérêt.
  • Comment montrer qu'une fonction est fortement convexe ?

    Une fonction f : K ?? R est dite fortement convexe ou uniformément convexe ou ?-convexe ou ?-elliptique s'il existe ? > 0 tel que, pour tous (x, y) ? K2, t ? [0,1], f(tx + (1 ? t)y) ? tf(x) + (1 ? t)f(y) ? ? 2 t(1 ? t)x ? y2.
  • La fonction f est convexe sur I si sa dérivée f ' est croissante sur I, soit f ''(x) ? 0 pour tout x de I. La fonction f est concave sur I si sa dérivée f ' est décroissante sur I, soit f ''(x) ? 0 pour tout x de I. Soit la fonction f définie sur R par f (x) = 1 3 x3 ?9x2 + 4.
[PDF] Optimisation convexe - Institut de Mathématiques de Bordeaux

Optimisation convexe

Ch. Dossal

Janvier 2017

Introduction

Ce document est un support pour le cours d'optimisation. Il n'a donc pas vocation a ^etre complet mais vient en appui aux seances de cours. L'objet de ce cours est de presenter des outils theoriques d'optimisation con- vexe ainsi que des algorithmes developpes ces dernieres annees pour resoudre des problemes lies plus particulierement au traitement des images et des statistiques. Comme ce cours traite a la fois de la theorie de l'optimisation convexe et des algorithmes plus speciquement des algorithmes proximaux de spliting, il ne pourra pas ^etre exhaustif. Certains choix sont faits et certaines notions ne sont donc pas approfondies et certains algorithmes ne sont pas traites. L'objectif de ce cours aura ete rempli s'il permet aux personnes qui le suivent d'avoir les outils pour appronfondir seules les notions abordees et d'^etre capable de mettre en oeuvre d'autres algorithmes de la grande famille des algorithmes proximaux qui forme aujourd'hui un vaste continent. L'optimisation continue, c'est a dire resoudre un probleme de la forme min x2EF(x) ouFest une fonction a valeur dansR[f+1get ouEest un ensemble inni, par exemple un espace de Hilbert, un espace euclidien, ou un sous ensemble de tels espaces, intervient dans de nombreux domaines des mathematiques (transport, traitement d'images, statistiques ...). Dans ce cours nous nous focaliserons sur le cas particulier ouFest une fonction convexe et ouE est un ensemble convexe. Non pas que les autres situations ne sont pas interessantes ou utiles mais que c'est dans ce cadre plus simple ou il est possible de developper le plus facilement des resultats et des algorithmes ef- caces. Nous verrons qu'en pratique, certains algorithmes d'analyse convexe peuvent s'appliquer a des fonctionsFnon convexes mais que le resultat de ces algorithmes ne fournit que rarement un optimum global au probleme. Ce cours se divise en deux grandes parties, la premiere est consacree a l'optimisation de fonctions convexes dierentiables, la seconde de l'optimisation des fonctions convexes non dierentiables, dites non lisses. Avant de traiter ces deux grandes parties nous presentons quelques exemples de problemes qui nous interesserons ainsi que les premieres denitions qui permettront de poser un cadre theorique clair dans lequel nous pourrons ensuite travailler. 1

Le plan de ce document est donc le suivant.

Dans une premiere partie nous presentons des exemples, les premieres denitions et le cadre theorique que nous allons etudier. Dans une seconde partie, nous commencons par donner les denitions et les proprietes essen- tielles speciques au cas des fonctions dierentiables dont nous auront besoin. Nous introduirons par exemple la notion de dualite qui est une notion essen- tielle en optimisation convexe. Nous traiterons en premier lieu des problemes sans contraintes, puis des problemes avec contraintes et plus speciquement des conditions d'optimalite (Lagrange conditions KKT). Dans un second temps nousevoquerons les algorithmes d'optimisation dierentiables, en commencant par les methodes de gradient et en passant par les methodes d'ordre superieure. Nousevoquerons aussi les methodes de lissage, ou smooth- ing, qui permettent d'approcher des problemes non lisses par des problemes dierentiables. Dans une troisieme partie nous traiterons de l'optimisation non dierentiable. Nous introduirons les outils speciques a l'optimisation non lisse comme le sous dierentiel, et l'operateur proximal ainsi que des proprietes elementaires de ces derniers. Nous etudierons ensuite les conditions d'optimalite dans le cadre non lisse. Puis nous detaillerons plusieurs algorithmes proximaux et leur cadre d'application. Nous etudierons en priorite le Forward-Backward et sa version acceleree FISTA, l'algorithme Primal-Dual, l'algorithme Douglas- Rachford ainsi que l'ADMM. Pour conclure cette partie nous verrons com- ment un m^eme probleme peut ^etre reecrit de plusieurs manieres et ainsi ^etre resolu via divers algorithmes. La dualite jouera ici un r^ole crucial.

1 Motivation et denitions

1.1 Pourquoi resoudre un probleme d'optimisation ?

Les problemes d'optimisation interviennent dans dierents domaines des mathematiques

Determiner les dimensions optimales d'un objet.

Determiner la fonction d'une classe donnee la plus proche d'une fonc- tion ou d'un nuage de poinst donnees.

Determiner la strategie optimale dans un jeu.

Determiner un estimateur optimal pour une classe de fonction (seuillage pour un debruitage d'images par exemple), maximum de vraisemblance ou maximum a prosteriori en statitiques. Determiner le minimum d'un critere en restauration d'images.

Transport optimal.

2 On peut ecrire beaucoup de ces problemes sous la forme : min x2EF(x) ouFest une fonction convexe denie sur un espaceHqui sera un espace de Hilbert ou plus souvent un espace euclidien, typiquementRn, a valeur dans R[f+1get ouEpeut ^etre l'espaceHtout entier, un sous espace de dernier ou un sous ensemble convexe deHdeni par un ensemble de contraintes. Les pointsx2Esont dits admissibles. Ce probleme n'admet pas toujours de solution ou peut admettre des min- ima locaux. On peut ramener les problemes de determination de maxima a celle de minima. On peut aussi avoir a resoudre des problemes de points-selle c'est a dire des problemes de la forme : min x2E1maxy2E2G(x;y) Nous allons nous concentrer ici sur les problemes de minimisation de fonc- tionsFet des contraintesEconvexes. Nous verrons que ce cadre est as- sez general et que les techniques utilisees peuvent parfois s'appliquer a des problemes non convexes. Nous verrons aussi que certains problemes non convexes peuvent ^etre convexies et que certains problemes de minimisation peuvent ^etre reecrits sous forme de problemes de determination de points- selle via la theorie de la dualite. Nous allons maintenant rappeler certaines denitions et proprietes de base de calcul dierentiel qui seront utiles pour la suite.

1.2 Rappels de calcul dierentiel

1.2.1 Fonctions deRdansR

Soitfune fonction denie de d'un intervalle ouvertIRa valeurs reelles.

On rappelle quelques denitions classiques.

On appelle point critique defsur un pointx2Itel quef0(x) = 0. On appelle minimiseur (respectivement maximiseur) local defsurIun pointx2Itel qu'il exister >0 tel que pour touty2I\]xr;x+r[, f(y)>f(x) (respectivementf(y)6f(x)). On appelle minimum local ou maximum local la valeurf(x).

Une fonctionfest convexe surIsi et seulement si

82[0;1];8(x;y)2I2; f(x+ (1)y)6f(x) + (1)f(y):

Une fonctionfest strictement convexe surIsi et seulement si

82[0;1];8(x;y)2I2; f(x+ (1)y)< f(x) + (1)f(y):

On rappelle les quelques proprietes suivantes :

3 Sifest derivable au pointx2Ialorsf(x+h) =f(x)+hf0(x)+o(h).

Sifest derivable deux fois enx2Ialors

f(x+h) =f(x) +hf0(x) +h22 f00(x) +o(h2). Sifest derivable sur un ouvertIsifadmet un minimum ou maximum local enx2Ialorsf0(x) = 0. Sifest convexe et derivable surI, alorsf0est une fonction croissante surI. (Reciproque ?) Sifest convexe et deux fois dierentiable surIalorsf00est une fonction positive surI. Sifest convexe, alors tout minimum local surIest un minimum global surIet tout minimiseur local et un minimiseur global. Sifest strictement convexe surI, elle admet au plus un minimiseur. La fonctionx7!exest strictement convexe surRet n'admet pas de minimum ni de minimiseur surR.

1.2.2 Optimisation de fonctions deRdansR

Sifest une fonction denie d'un intervalleIRet a valeurs dansR[f+1g, il existe plusieurs manieres d'en calculer un minimum local ou global suivant les hypotheses que l'on formule surf. Si la fonctionfest dierentiable, un point critiquex0est caracterise par le fait quef0(x0) = 0. Ainsi, les minimieurs locaux sont contenus dans l'ensemble des pointsx0veriantx0. Si on dispose d'un tel point, en analysant le comportement de la fonction au voisinage du point, on peut preciser s'il s'agit d'un minimiseur, d'un maximiseur ou d'un point d'in exion.

1. La methode par dichotomie permet d'approcher de maniere sequentielle

une valeurx0telle queg(x0) = 0 ougest une fonction continue en denissant une suite d'intervalles emboites dont la taille tend vers 0 et qui contiennent tousx0. Dans la version classique de cet algorithme, dont il existe des variantes, on considere un intervalle borneI= [a;b] tel queg(a)g(b)<0. On peut supposer par exemple queg(a)>0 etg(b)<0. On posea0=a etb0=bpuis pour toutn>0 on denitm=an+bn2 et sig(m)<0 on posebn+1=metan+1=anet sinon on posean+1=metbn+1=bn. Le theoreme des valeurs intermediaires asssure que pour toutn2N, l'intervalleIn= [an;bn] contient un elementx0tel queg(x0) = 0.

2. La methode de descente de gradient explicite a pas xe est denie par

un point de departu02Iet un pas xehon construit alors la suite u ndenie parun+1=unhf0(un). On peut montrer que sous certaines hypotheses de sur la fonctionf (telle que la convexite) et surh, cette methode converge vers un point critique def, independemment deu0. 4

3. Il existe une variante implicite de cete methode ou la suite (un)n2N

est denie parun+1=unhf0(un+1). Une telle methode necessite cependant de resoudre une equation a chaque etape. Selon la forme de la fonctionf, resoudre cette equation est plus ou moins couteux. Cette methode est plus stable que la methode de descente de gradient explicite.

4. Si la fonctionfest deux fois derivable et que l'on sait calculer la derivee

secondef, on peut utiliser la methode dite deNewton. Cette methode est a l'origine une methode pour determiner lezerod'une fonction derivable en utilisant la tangente de la fonction au pointunainsi pour approcher lezerode la fonctiongon construit une suite de la maniere suivante :un+1=ung(un)g

0(un). Ainsi si on cherche un point critique

d'une fonctionf, on peut construire une suite (un)n2Nde la maniere suivante :un+1=unf0(un)f

00(un). On peut voir cette methode comme une

methode de descente de gradient a pas adaptatif. Nous verrons par la suite, dans le cadre plus general des fonctions convexes deRndansR des conditions susantes de convergence de cette methode.

1.2.3 Fonctions deRndansR

On peut generaliser la notion de derivee premiere et seconde aux cas des fontions denies d'un ouvert

2Rnet a valeur dansRen introduisant la

notion de gradient : Denition 1On dit quefest dierentiable en un pointx2 , il existe un vecteuru2Rntel que f(x+h) =f(x) +hh;ui+o(khk):(1) S'il existe, ce vecteuruest unique et on le noterf(x). On peut noter que le gradient est un vecteur deRn. Dans le cas oun= 2, on peut representer la fonctionfpar une surface d'equationz=f(x;y). Le gradient defau point (x;y) est un vecteur qui est dirige dans la direction de plus forte pente de la surface au point (x;y) et dont la norme est proportionnellea la pente locale. Les composantes du gradient ne sont rien d'autre que les derivees par- tielles defpar rapport a chacune des variables (xi)16i6n.

Denition 2Soitfune fonction denie d'un ouvert

Rnet a valeurs

reelles,i0un entier compris entre 1 etn, pour toutn1uplet(x1;;xi01;xi0+1;;xn on notegl'application partielle denie par g(x) =f(x1;;xi01;x;xi0+1;;xn). Si la fonctiongest derivable au pointx, on dit que la fonctionfadmet une derivee partielle d'indicei0au point(x1;;xi01;x;xi0+1;;xn). On note @f@x i0cette derivee. 5 Proposition 1Si toutes les derivees partielles defexistent et sont contin- ues en tout point de , alors on dit quefestC1sur et on a rf=@f@x

1;;@f@x

n t

Denition 3Soitfune fonction denie d'un ouvert

2RndansRde

classeC1sur et si l'applicationx7! rf(x)est elle m^emeC1, on dit que fest de classeC2, il existe alors une unique forme bilinaire'xtelle que f(x+h) =f(x) +hrf(x);hi+'x(h;h) +o(khk2): On appelle Hessienne la matriceHrepresentant cette application bilineaire. La matrice hessienne est la matrice symetrique reelle dont le terme d'indice (i;j)est H i;j=@2f@x i@xj

Remarque :

Nous avons fait l'hypothese que la fonction estC2et ainsi la matrice hessienne est symetrique ce que lon peut traduire que l'ordre de derivation n'importe pas.

Exemple :

Quelle est la Hessienne au pointxde l'applicationx7!12 kAxyk2, ouA est une matrice deMn;m(R) ety2Rm?

Proposition 2Soitfest une fonction denie de

RndansRetC2.

Alorsfest convexe si et seulement si en tout pointx, la matrice hessienne est une matrice positive, c'est a dire que toute ses valeurs propres sont positives.

Exercice :

Justier que l'application denie dans l'exercice precedent est une application convexe. Est-elle necessairement strictement convexe ? Denition 4Soitfune fonction denie deEdansR=R[+1, on appelle domaine defet on notedom(f) =fx2Etels quef(x)6= +1g. Denition 5Une fonctionfdenie surEest dite coercive si lim kxk!+1f(x) = +1: Denition 6On dire qu'une fonctionfdenie deEdansR[+1est semi- continue inferieurement (on notera sci) si pour toutx2E, liminf y!xf(y)>f(x):

Remarque :

6 La semi-continuite inferieure est stable par somme.

Toute fonction continue est sci.

L'indicatrice d'un convexe ferme est sci (c'est a dire la fonction qui vaut 0 en tout point du convexe et +1en dehors).

Sifest sci, pour tout tout2R, les ensembles

fx2E; f(x)6getf(x;)2ERtels quef(x)6g sont fermes. Denition 7Une fonction deEdansR=R[f1gest dite propre si elle n'est pas identiquement egale a+1et si elle ne prend pas la valeur1. Proposition 3SiFest une fonction denie deEdansR, propre, coercive et semi continue inferieurement, elle est minoree.

Demonstration :

Pour toutr2R, l'ensembleHr=fx2Etels queF(x)6rgest ferme car Fest sci et borne carFest coercive. Donc pour toutr2R, l'ensembleHr est compact.

L'ensembleH=\

r2RH rest une intersection de compacts emboites. Comme Fest propre,H=;donc il exister02Rtel queHr0est vide et doncr0est un minorant deF, ce qui conclut la demonstration de la proposition. Proposition 4SoitFune fonction denie surEa valeur dansR, convexe, propre, sci et coercive, alorsFadmet au moins un minimiseur. CommeFest propre, il existex02Etel queF(x0)<+1etF(x0)6=1. L'ensembleH=fx2Etels queF(x)6F(x0)gest ferme carFest sci et borne carFest coercive.Hest donc compact carEest de dimension nie. On a infx2EF(x) = infx2HF(x)>1carFest bornee inferieurement. Soit (xn)n2Nune suite minimisante d'elements deHtels que limn!1F(xn) = infx2HF(x). Cette suite admet une sous-suite convergente vers un elementx1deH.

CommeFest sci on a

liminf n!1F(xn)>F(x1):

Comme lim

n!1F(xn) = infx2HF(x) on en deduit queF(x1) = infx2HF(x) = inf x2EF(x) 7

2 Optimisation de fonctions dierentiables

Dans cette partie on s'interesse au probleme generique suivant : min x2EF(x) (2) ouFest une fonction dierentiable denie sur un espace de HilbertHet a valeur dansR, convexe, coercive et queEest un ensemble convexe ferme. CommeFest dierentiable, elle est sci et propre par denition. Ces hy- potheses assurent que ce probleme d'optimisation (2) admet au moins une solution. Si de plusFest strictement convexe alors il existe une unique solution a (2).

2.1 Proprietes des fonctions dierentiables

Les fonctions convexes dierentiables ont la propriete d'^etre minorees par leurs approximations anes : Proposition 5Soitfune fonction convexe dierentiable denie deRndans

Ralors pour tout couple(x;y)2(Rn)2

f(y)>f(x) +hrf(x);yxi(3)

Demonstration

Par convexite on a pour tout2]0;1[,

f(x+(yx))6(1)f(x) +f(y): ce qui peut s'ecrire f(x+(yx))f(x)

6f(y)f(x)

en faisant tendrevers 0 on obtient hrf(x);yxi6f(y)f(x) On deduit de cette proposition, en l'appliquant aux pointsxetyle car- actere monotone du gradient : Denition 8Soitgune fonction denie deRndansRn, on dit quegest monotone si pour tout couple(x;y)2(Rn)2, hg(x)g(y);xyi>0: Corollaire 1Soitfune fonction convexe dierentiable denie deRndans

R, le gradient defest monotone.

Il existe une notion de convexite, appelee forte convexite qui permet des contr^oles locaux de la fonction encore un peu plus ns. 8 Denition 9Soitfune fonction denie deEdansR[ f+1get soit >

0, on dit que la fonctionfestfortement convexe (ouconvexe) si la

fonctiongdenie parg(x) =f(x)2 kxk2est convexe. On peut remarquer (exercice !) que s'il existex0tel que la fonctiongx0= f(x)kxx0k2est convexe alorsfestconvexe et bien s^ur qu'une fonction fortement convexe est strictement convexe et donc convexe. Elle admet en particulier un unique minimiseur. Par denition, sifest convexe et siyest un element deE, la fonction x7!f(x) +12 kxykest1 -fortement convexe. Le lemme suivant montre que si on s'ecarte du minimiseur d'une fonctionnelle fortement convexe, la valeur de la fonctionenlle croit au moins de maniere quadratique. Ce lemme sera utile par la suite. Lemma 1Soitfune foncionfortement convexe, et soitxle minimiseur def, alors pour toutx2Eon a f(x) +2 kxxk26f(x) (4)

Demonstration :

On noteg, la fonctionx7!f(x)2

kxk2qui est donc convexe par denition.

Soit2]0;1[, par convexite degon a

g(x+ (1)x)6g(x) + (1)g(x) f(x+ (1)x)2 kx+ (1)xk26 f(x)2 kxk2 + (1) f(x)2 kxk2 (1)(f(x)f(x))62 (2)kxk2+ 2(1)hx;xi (1)kxk2 f(x)f(x)62 kxxk2 f(x) +2 kxxk26f(x) ou on utilise a la troisieme ligne le fait quexest un minimiseur. Ceci pour tout2]0;1[, ce qui conclut la preuve du Lemme. Nous aurons aussi besoin de la denition du caractere Lipschitz d'une fonction : Denition 10On dit qu'une fonctiongdenie deRndansRestLLipschitz si pour tout couple(x;y)2(Rn)2on a kg(x)g(y)k6Lkxyk Sigest 1-Lipschitz on dit quegest non expansive et sigestLLipschitz avecL <1on dit quegestL-contractante ou contractante. Nous venons de voir que les fonctions convexes sont minorees par leurs approximations anes mais si le gradient defestLLipschitz, on peut obtenir un majorant defindependemment de la convexite en eet : 9 Lemma 2Soitfune fonction de denie deRndansR, dierentiable dont le gradient estLLipschitz, alors pour tout couple(y;z)2(Rn)2 f(z)6f(y) +hrf(y);zyi+L2 kzyk2:(5)

Demonstration :

Soitgune fonction derivable denie surRtelle queg0estKLipschitz, g(1) =g(0)+Z 1 0 g0(t)dt=g(0)+g0(0)+Z 1 0 (g0(t)g0(0))dt6g(0)+g0(0)+K2 Soit (y;z)2(Rn)2, pour toutt2[0;1] on posev=zy,yt=y+t(zy) etg(t) =f(yt). La fonctiongest derivable etg0(t) =hrf(yt);vi. D'apres les hypotheses surf,g0estK-Lipchitz avecK=Lkvk2.

On en deduit que pour tout (y;z)2(Rn)2

f(z)6f(y) +hrf(y);zyi+L2 kzyk2: On peut egalement denir une notion plus stricte que la non-expansivite, la ferme non-expansivite (rmly non expansive en anglais) qui sera utile dans la suite : Denition 11On dit qu'une fonctionfest fermement non-expansive si pour tout couple(x;y)2(Rn)2 kf(x)f(y)k2+kxf(x)y+f(y)k26kxyk2 l'exemple classique d'une fonction fermement non-expansive est celui d'un projecteur sur un convexe ferme mais nous verrons qu'il en existe d'autres tout aussi interessant. Proposition 6Soitfune fonction convexe denie surRndierentiable a gradientLLipschitz. Si <1L , l'applicationId rfest fermement non-expansive et donc 1-Lipschitz. Nous verrons que cette propriete est cruciale pour demontrer la conver- gence de plusieurs methodes d'optimisation. En eet nombre de methodes d'optimisation reposent sur des theoremes de points xes associes a des operateurs 1 Lipschitz.

Demonstration :

On se ramene a determiner le signe d'un produit scalaire.

Soit (x;y)2(Rn)2, on pose

u=1 (rf(x) rf(y)) etv=x1 rf(x)(y1 rf(y)). On a kxyk2=ku+vk2=kuk2+kvk2+ 2hu;vi

Pour montrer queId

rfest fermement non-expansive il sut de montrer que le produit scalairehu;viest positif, ce qui decoule directement du fait que <1L et de la co-coercivite derfqui est enoncee et demontree dans le lemme suivant. 10 Lemma 3Soitfune fonction dierentiable et convexe tel qu'il existeL >0 tel pour tout(x;y)2(Rn)2,krf(x) rf(y)k6Lkxyk. On a la relation suivante :

8(x;y)2(Rn)2;hrf(x) rf(y);xyi>1L

krf(x) rf(y)k2:(6) Cette propriete est appelee co-coercivite de la fonctionrf.

Demonstration :

On applique la majoration (119) en prenant ensuitez=xety=x1L rf(x) on obtient que

12Lkrf(x)k26f(x)f(x1L

rf(x))6f(x)f(x?): oux?est un minimiseur def. On a ainsi pour toutx2Rn,

12Lkrf(x)k26f(x)f(x?):(7)

Soit (x;y)2(Rn)2, on introduit ensuite une fonctionh1(z) =f(z)hrf(x);zi eth2(z) =f(z)hrf(y);zi. Ces deux fonctions sont convexes et admettent pour minimiseurs respectivementxety. On applique l'inegalite (120) a cesquotesdbs_dbs33.pdfusesText_39
[PDF] fonction convexe plusieurs variables

[PDF] modélisation et simulation d'un moteur ? courant continu matlab

[PDF] modélisation mcc

[PDF] simulation mcc simulink

[PDF] asservissement et regulation de vitesse d'un moteur a courant continu

[PDF] modélisation d'un moteur ? courant continu

[PDF] equation differentielle moteur courant continu

[PDF] schéma bloc moteur ? courant continu

[PDF] commande pid d'un moteur ? courant continu pdf

[PDF] modélisation machine asynchrone simulink

[PDF] onduleur triphasé matlab

[PDF] cours de modélisation financière sous excel

[PDF] modélisation financière pdf

[PDF] fiche de lecture les misérables victor hugo pdf

[PDF] modélisation financière exemple