[PDF] [PDF] Optimisation convexe - Institut de Mathématiques de Bordeaux

fonction fortement convexe est strictement convexe et donc convexe Elle admet en particulier un unique minimiseur Par définition, si f est convexe et si y est un 



Previous PDF Next PDF





[PDF] COURS OPTIMISATION Cours en Master M1 SITN Ionel Sorin

On appelle fonction elliptique une fonction f : IRn → IR de classe C1 et fortement convexe 15 Page 16 2 2 2 Exemples des fonctions convexes, strictement 



[PDF] Fonction fortement convexe ∃a - CERMICS

Enveloppe convexe f de f (f born´ee inf´erieurement par une fonction affine) f = plus grande fonction convexe inf´erieure `a f = enveloppe sup´erieure de toutes  



[PDF] Fonctions convexes et conjuguées

Proposition 3 1 Soit C un convexe de IRn et a ∈ IRn La fonction f : C ↦→ IRn est fortement convexe sur C si et seulement si la fonction g définie ci-dessous est  



[PDF] Fonctions convexes - Inria

Une fonction fortement convexe est donc strictement convexe avec une inégalité de convexité renforcée par un terme quadratique lui donnant une « courbure 



[PDF] Introduction à loptimisation convexe non différentiable - Institut de

D Les fonctions fortement convexes de classes C2 sont caractérisées par leur hessienne Proposition 1 6 Une fonction C2 est µ-fortement convexe si et seulement 



[PDF] Optimisation convexe - Institut de Mathématiques de Bordeaux

fonction fortement convexe est strictement convexe et donc convexe Elle admet en particulier un unique minimiseur Par définition, si f est convexe et si y est un 



[PDF] OptiAlgo cours

Proposition 3 2 (Propriétés des fonctions fortement convexes) Soit f : Rn → R une fonction fortement convexe pour la constante m > 0 Alors f vérifie les propriétés 



[PDF] Chapitre 9 INTRODUCTION A LOPTIMISATION - Centre de

La fonction J est donc fortement convexe sur H1(Ω) Exercice 9 2 7 Soit v0 ∈ V et J une fonction convexe majorée sur une boule de centre v0 Montrer que J est 



[PDF] Analyse convexe - Ceremade - Université Paris Dauphine

Trouver une fonction non convexe f : R → R dont tous les sous niveaux sont convexes 2 est dite α fortement convexe si α > 0, et −α semiconvexe si α < 0 1 

[PDF] fonction heure openoffice

[PDF] fonction linéaire cap

[PDF] fonction ln et exponentielle exercice

[PDF] fonction logarithme bac pro 3 ans

[PDF] fonction logarithme et exponentielle exercices corrigés pdf

[PDF] fonction logarithme exercice corrigé pdf

[PDF] fonction logarithme népérien exercices corrigés

[PDF] fonction logarithme népérien exercices et problèmes corrigés pdf

[PDF] fonction logarithmique graphique

[PDF] fonction logique de base 1ere année

[PDF] fonction logique excel

[PDF] fonction logique nand

[PDF] fonction logique ou exclusif

[PDF] fonction logique oui

[PDF] fonction logique simplification

Optimisation convexe

Ch. Dossal

Janvier 2017

Introduction

Ce document est un support pour le cours d'optimisation. Il n'a donc pas vocation a ^etre complet mais vient en appui aux seances de cours. L'objet de ce cours est de presenter des outils theoriques d'optimisation con- vexe ainsi que des algorithmes developpes ces dernieres annees pour resoudre des problemes lies plus particulierement au traitement des images et des statistiques. Comme ce cours traite a la fois de la theorie de l'optimisation convexe et des algorithmes plus speciquement des algorithmes proximaux de spliting, il ne pourra pas ^etre exhaustif. Certains choix sont faits et certaines notions ne sont donc pas approfondies et certains algorithmes ne sont pas traites. L'objectif de ce cours aura ete rempli s'il permet aux personnes qui le suivent d'avoir les outils pour appronfondir seules les notions abordees et d'^etre capable de mettre en oeuvre d'autres algorithmes de la grande famille des algorithmes proximaux qui forme aujourd'hui un vaste continent. L'optimisation continue, c'est a dire resoudre un probleme de la forme min x2EF(x) ouFest une fonction a valeur dansR[f+1get ouEest un ensemble inni, par exemple un espace de Hilbert, un espace euclidien, ou un sous ensemble de tels espaces, intervient dans de nombreux domaines des mathematiques (transport, traitement d'images, statistiques ...). Dans ce cours nous nous focaliserons sur le cas particulier ouFest une fonction convexe et ouE est un ensemble convexe. Non pas que les autres situations ne sont pas interessantes ou utiles mais que c'est dans ce cadre plus simple ou il est possible de developper le plus facilement des resultats et des algorithmes ef- caces. Nous verrons qu'en pratique, certains algorithmes d'analyse convexe peuvent s'appliquer a des fonctionsFnon convexes mais que le resultat de ces algorithmes ne fournit que rarement un optimum global au probleme. Ce cours se divise en deux grandes parties, la premiere est consacree a l'optimisation de fonctions convexes dierentiables, la seconde de l'optimisation des fonctions convexes non dierentiables, dites non lisses. Avant de traiter ces deux grandes parties nous presentons quelques exemples de problemes qui nous interesserons ainsi que les premieres denitions qui permettront de poser un cadre theorique clair dans lequel nous pourrons ensuite travailler. 1

Le plan de ce document est donc le suivant.

Dans une premiere partie nous presentons des exemples, les premieres denitions et le cadre theorique que nous allons etudier. Dans une seconde partie, nous commencons par donner les denitions et les proprietes essen- tielles speciques au cas des fonctions dierentiables dont nous auront besoin. Nous introduirons par exemple la notion de dualite qui est une notion essen- tielle en optimisation convexe. Nous traiterons en premier lieu des problemes sans contraintes, puis des problemes avec contraintes et plus speciquement des conditions d'optimalite (Lagrange conditions KKT). Dans un second temps nousevoquerons les algorithmes d'optimisation dierentiables, en commencant par les methodes de gradient et en passant par les methodes d'ordre superieure. Nousevoquerons aussi les methodes de lissage, ou smooth- ing, qui permettent d'approcher des problemes non lisses par des problemes dierentiables. Dans une troisieme partie nous traiterons de l'optimisation non dierentiable. Nous introduirons les outils speciques a l'optimisation non lisse comme le sous dierentiel, et l'operateur proximal ainsi que des proprietes elementaires de ces derniers. Nous etudierons ensuite les conditions d'optimalite dans le cadre non lisse. Puis nous detaillerons plusieurs algorithmes proximaux et leur cadre d'application. Nous etudierons en priorite le Forward-Backward et sa version acceleree FISTA, l'algorithme Primal-Dual, l'algorithme Douglas- Rachford ainsi que l'ADMM. Pour conclure cette partie nous verrons com- ment un m^eme probleme peut ^etre reecrit de plusieurs manieres et ainsi ^etre resolu via divers algorithmes. La dualite jouera ici un r^ole crucial.

1 Motivation et denitions

1.1 Pourquoi resoudre un probleme d'optimisation ?

Les problemes d'optimisation interviennent dans dierents domaines des mathematiques

Determiner les dimensions optimales d'un objet.

Determiner la fonction d'une classe donnee la plus proche d'une fonc- tion ou d'un nuage de poinst donnees.

Determiner la strategie optimale dans un jeu.

Determiner un estimateur optimal pour une classe de fonction (seuillage pour un debruitage d'images par exemple), maximum de vraisemblance ou maximum a prosteriori en statitiques. Determiner le minimum d'un critere en restauration d'images.

Transport optimal.

2 On peut ecrire beaucoup de ces problemes sous la forme : min x2EF(x) ouFest une fonction convexe denie sur un espaceHqui sera un espace de Hilbert ou plus souvent un espace euclidien, typiquementRn, a valeur dans R[f+1get ouEpeut ^etre l'espaceHtout entier, un sous espace de dernier ou un sous ensemble convexe deHdeni par un ensemble de contraintes. Les pointsx2Esont dits admissibles. Ce probleme n'admet pas toujours de solution ou peut admettre des min- ima locaux. On peut ramener les problemes de determination de maxima a celle de minima. On peut aussi avoir a resoudre des problemes de points-selle c'est a dire des problemes de la forme : min x2E1maxy2E2G(x;y) Nous allons nous concentrer ici sur les problemes de minimisation de fonc- tionsFet des contraintesEconvexes. Nous verrons que ce cadre est as- sez general et que les techniques utilisees peuvent parfois s'appliquer a des problemes non convexes. Nous verrons aussi que certains problemes non convexes peuvent ^etre convexies et que certains problemes de minimisation peuvent ^etre reecrits sous forme de problemes de determination de points- selle via la theorie de la dualite. Nous allons maintenant rappeler certaines denitions et proprietes de base de calcul dierentiel qui seront utiles pour la suite.

1.2 Rappels de calcul dierentiel

1.2.1 Fonctions deRdansR

Soitfune fonction denie de d'un intervalle ouvertIRa valeurs reelles.

On rappelle quelques denitions classiques.

On appelle point critique defsur un pointx2Itel quef0(x) = 0. On appelle minimiseur (respectivement maximiseur) local defsurIun pointx2Itel qu'il exister >0 tel que pour touty2I\]xr;x+r[, f(y)>f(x) (respectivementf(y)6f(x)). On appelle minimum local ou maximum local la valeurf(x).

Une fonctionfest convexe surIsi et seulement si

82[0;1];8(x;y)2I2; f(x+ (1)y)6f(x) + (1)f(y):

Une fonctionfest strictement convexe surIsi et seulement si

82[0;1];8(x;y)2I2; f(x+ (1)y)< f(x) + (1)f(y):

On rappelle les quelques proprietes suivantes :

3 Sifest derivable au pointx2Ialorsf(x+h) =f(x)+hf0(x)+o(h).

Sifest derivable deux fois enx2Ialors

f(x+h) =f(x) +hf0(x) +h22 f00(x) +o(h2). Sifest derivable sur un ouvertIsifadmet un minimum ou maximum local enx2Ialorsf0(x) = 0. Sifest convexe et derivable surI, alorsf0est une fonction croissante surI. (Reciproque ?) Sifest convexe et deux fois dierentiable surIalorsf00est une fonction positive surI. Sifest convexe, alors tout minimum local surIest un minimum global surIet tout minimiseur local et un minimiseur global. Sifest strictement convexe surI, elle admet au plus un minimiseur. La fonctionx7!exest strictement convexe surRet n'admet pas de minimum ni de minimiseur surR.

1.2.2 Optimisation de fonctions deRdansR

Sifest une fonction denie d'un intervalleIRet a valeurs dansR[f+1g, il existe plusieurs manieres d'en calculer un minimum local ou global suivant les hypotheses que l'on formule surf. Si la fonctionfest dierentiable, un point critiquex0est caracterise par le fait quef0(x0) = 0. Ainsi, les minimieurs locaux sont contenus dans l'ensemble des pointsx0veriantx0. Si on dispose d'un tel point, en analysant le comportement de la fonction au voisinage du point, on peut preciser s'il s'agit d'un minimiseur, d'un maximiseur ou d'un point d'in exion.

1. La methode par dichotomie permet d'approcher de maniere sequentielle

une valeurx0telle queg(x0) = 0 ougest une fonction continue en denissant une suite d'intervalles emboites dont la taille tend vers 0 et qui contiennent tousx0. Dans la version classique de cet algorithme, dont il existe des variantes, on considere un intervalle borneI= [a;b] tel queg(a)g(b)<0. On peut supposer par exemple queg(a)>0 etg(b)<0. On posea0=a etb0=bpuis pour toutn>0 on denitm=an+bn2 et sig(m)<0 on posebn+1=metan+1=anet sinon on posean+1=metbn+1=bn. Le theoreme des valeurs intermediaires asssure que pour toutn2N, l'intervalleIn= [an;bn] contient un elementx0tel queg(x0) = 0.

2. La methode de descente de gradient explicite a pas xe est denie par

un point de departu02Iet un pas xehon construit alors la suite u ndenie parun+1=unhf0(un). On peut montrer que sous certaines hypotheses de sur la fonctionf (telle que la convexite) et surh, cette methode converge vers un point critique def, independemment deu0. 4

3. Il existe une variante implicite de cete methode ou la suite (un)n2N

est denie parun+1=unhf0(un+1). Une telle methode necessite cependant de resoudre une equation a chaque etape. Selon la forme de la fonctionf, resoudre cette equation est plus ou moins couteux. Cette methode est plus stable que la methode de descente de gradient explicite.

4. Si la fonctionfest deux fois derivable et que l'on sait calculer la derivee

secondef, on peut utiliser la methode dite deNewton. Cette methode est a l'origine une methode pour determiner lezerod'une fonction derivable en utilisant la tangente de la fonction au pointunainsi pour approcher lezerode la fonctiongon construit une suite de la maniere suivante :un+1=ung(un)g

0(un). Ainsi si on cherche un point critique

d'une fonctionf, on peut construire une suite (un)n2Nde la maniere suivante :un+1=unf0(un)f

00(un). On peut voir cette methode comme une

methode de descente de gradient a pas adaptatif. Nous verrons par la suite, dans le cadre plus general des fonctions convexes deRndansR des conditions susantes de convergence de cette methode.

1.2.3 Fonctions deRndansR

On peut generaliser la notion de derivee premiere et seconde aux cas des fontions denies d'un ouvert

2Rnet a valeur dansRen introduisant la

notion de gradient : Denition 1On dit quefest dierentiable en un pointx2 , il existe un vecteuru2Rntel que f(x+h) =f(x) +hh;ui+o(khk):(1) S'il existe, ce vecteuruest unique et on le noterf(x). On peut noter que le gradient est un vecteur deRn. Dans le cas oun= 2, on peut representer la fonctionfpar une surface d'equationz=f(x;y). Le gradient defau point (x;y) est un vecteur qui est dirige dans la direction de plus forte pente de la surface au point (x;y) et dont la norme est proportionnellea la pente locale. Les composantes du gradient ne sont rien d'autre que les derivees par- tielles defpar rapport a chacune des variables (xi)16i6n.

Denition 2Soitfune fonction denie d'un ouvert

Rnet a valeurs

reelles,i0un entier compris entre 1 etn, pour toutn1uplet(x1;;xi01;xi0+1;;xn on notegl'application partielle denie par g(x) =f(x1;;xi01;x;xi0+1;;xn). Si la fonctiongest derivable au pointx, on dit que la fonctionfadmet une derivee partielle d'indicei0au point(x1;;xi01;x;xi0+1;;xn). On note @f@x i0cette derivee. 5 Proposition 1Si toutes les derivees partielles defexistent et sont contin- ues en tout point de , alors on dit quefestC1sur et on a rf=@f@x

1;;@f@x

n t

Denition 3Soitfune fonction denie d'un ouvert

2RndansRde

classeC1sur et si l'applicationx7! rf(x)est elle m^emeC1, on dit que fest de classeC2, il existe alors une unique forme bilinaire'xtelle que f(x+h) =f(x) +hrf(x);hi+'x(h;h) +o(khk2): On appelle Hessienne la matriceHrepresentant cette application bilineaire. La matrice hessienne est la matrice symetrique reelle dont le terme d'indice (i;j)est H i;j=@2f@x i@xj

Remarque :

Nous avons fait l'hypothese que la fonction estC2et ainsi la matrice hessienne est symetrique ce que lon peut traduire que l'ordre de derivation n'importe pas.

Exemple :

Quelle est la Hessienne au pointxde l'applicationx7!12 kAxyk2, ouA est une matrice deMn;m(R) ety2Rm?

Proposition 2Soitfest une fonction denie de

RndansRetC2.

Alorsfest convexe si et seulement si en tout pointx, la matrice hessienne est une matrice positive, c'est a dire que toute ses valeurs propres sont positives.

Exercice :

Justier que l'application denie dans l'exercice precedent est une application convexe. Est-elle necessairement strictement convexe ? Denition 4Soitfune fonction denie deEdansR=R[+1, on appelle domaine defet on notedom(f) =fx2Etels quef(x)6= +1g. Denition 5Une fonctionfdenie surEest dite coercive si lim kxk!+1f(x) = +1: Denition 6On dire qu'une fonctionfdenie deEdansR[+1est semi- continue inferieurement (on notera sci) si pour toutx2E, liminf y!xf(y)>f(x):

Remarque :

6 La semi-continuite inferieure est stable par somme.

Toute fonction continue est sci.

L'indicatrice d'un convexe ferme est sci (c'est a dire la fonction qui vaut 0 en tout point du convexe et +1en dehors).

Sifest sci, pour tout tout2R, les ensembles

fx2E; f(x)6getf(x;)2ERtels quef(x)6g sont fermes. Denition 7Une fonction deEdansR=R[f1gest dite propre si elle n'est pas identiquement egale a+1et si elle ne prend pas la valeur1. Proposition 3SiFest une fonction denie deEdansR, propre, coercive et semi continue inferieurement, elle est minoree.

Demonstration :

Pour toutr2R, l'ensembleHr=fx2Etels queF(x)6rgest ferme car Fest sci et borne carFest coercive. Donc pour toutr2R, l'ensembleHr est compact.

L'ensembleH=\

r2RH rest une intersection de compacts emboites. Comme Fest propre,H=;donc il exister02Rtel queHr0est vide et doncr0est un minorant deF, ce qui conclut la demonstration de la proposition. Proposition 4SoitFune fonction denie surEa valeur dansR, convexe, propre, sci et coercive, alorsFadmet au moins un minimiseur. CommeFest propre, il existex02Etel queF(x0)<+1etF(x0)6=1. L'ensembleH=fx2Etels queF(x)6F(x0)gest ferme carFest sci et borne carFest coercive.Hest donc compact carEest de dimension nie. On a infx2EF(x) = infx2HF(x)>1carFest bornee inferieurement. Soit (xn)n2Nune suite minimisante d'elements deHtels que limn!1F(xn) = infx2HF(x). Cette suite admet une sous-suite convergente vers un elementx1deH.

CommeFest sci on a

liminf n!1F(xn)>F(x1):

Comme lim

n!1F(xn) = infx2HF(x) on en deduit queF(x1) = infx2HF(x) = inf x2EF(x) 7

2 Optimisation de fonctions dierentiables

quotesdbs_dbs1.pdfusesText_1