[PDF] Eléments danalyse et doptimisation convexe
Eléments d'analyse convexe Dans ce chapitre nous présentons quelques propriétés remarquables des fonctions convexes Elle permettront de construire des
[PDF] Mod`eles convexes et algorithmes doptimisation en imagerie
25 oct 2011 · Travail en collaboration avec Jérôme Fehrenbach (Institut de Mathématiques de Toulouse) et le cancéropole • L'existence de schémas efficaces
[PDF] Univ Batna 2
Contribution à l'étude de la dualité quasi-convexe en optimisation Option : Analyse Mathématiques Appliquée 1 1 Elements d'analyse convexe
[PDF] Polynômes et optimisation convexe en commande robuste
Laboratoire d'Analyse et d'Architecture des Syst`emes du CNRS `a Toulouse par Didier Henrion Docteur de l'Institut National des Sciences Appliquées
[PDF] optimisation Sp - mathuniv-paris13fr
8 mar 2020 · Institut Galilée Université Paris 13 Sorbonne Paris Cité Département de mathématiques Analyse numérique: optimisation
[PDF] Résolution dun problème quadratique non convexe avec - Thèses
1 Notions d'analyse convexe et optimisation D C et DCA En programmation mathématique la notion de convexité joue un rôle majeur
[PDF] Optimisation non-linéaire
Institut de Recherche Mathématique Avancée (IRMA) second chapitre est dédié à l'analyse des problèmes d'optimisation en dimension finie qu'il
[PDF] th`ese de doctorat es sciences - UMMTO
21 juil 2017 · 2 1 9 La dualité en programmation mathématique non convexe [17 34 81] en alg`ebre analyse mathématique ou l'optimisation globale
![[PDF] Mod`eles convexes et algorithmes doptimisation en imagerie [PDF] Mod`eles convexes et algorithmes doptimisation en imagerie](https://pdfprof.com/Listes/16/33579-16Partie3_2.pdf.pdf.jpg)
Modeles convexes et algorithmes d'optimisation
en imagerie.Pierre Weiss.
October 25, 2011
III.2/ Theorie de la complexite en
optimisation convexe.Applications a l'imagerie.
Algorithmes d'optimisation... Deuxieme partie.
Jusqu'a present, on n'est pas capable de resoudre les problemes annonces au depart !Les descentes de sous-gradient sont trop lentes.
Les schemas acceleres ne s'adaptent pas aux
non-dierentiabilites.Conclusion :
Pour obtenir des algorithmes plus ecaces, il faut : Se concentrer sur des classes de fonctions plus restreintes que les fonctions convexes quelconques.Utiliser d'autres proprietes que les gradients et
sous-gradients (op erateurspro ximaux,dualit e). Quelques algorithmes d'optimisation non lisse ecaces. Deux mots sur les operateurs proximaux (Moreau 1960). Algorithmes primaux quand une partie du probleme est dierentiable. Algorithmes duaux quand une partie du probleme est fortement convexe.Algorithmes primaux-duaux dans le cas general.
Operateurs proximaux.
[Combettes, Wajs 03], Signal recovery by proximal forward-backward splitting. SIAM MMS Denition :Soitf:Rn!R[f+1gun fonction convexe s.c.i.On appelle
op erateurpro ximal ou r esolvante de fl'operateur : prox f(x0) = argmin x2Rnf(x) +12 kxx0k2:Notes :
Cet operateur est bien deni carf(x) +12
kxx0k2est strictement convexe et coercive. Il est parfois note (Id +@f)1(x0) car les conditions d'optimalite menent a02@f(proxf(x0)) + proxf(x0)x0:
Operateurs proximaux.
Intuition :
C'est une generalisation de la projection.
Sif(x) =0 six2X
+1sinon, alors : prox f(x0) = argmin x2X12 kxx0k2(1)X(x0):(2)
Proprietes elementaires :
L'operateur proximal est non expansif :
8(x;y)2RnRn;kproxf(x)proxf(y)k kxyk:
Il caracterise les minimiseurs :
x2Argmin x2Rnf(x),02@f(x),proxf(x) =x(point xe):Une classe de problemes non dierentiable :
L'operateur proximal est central pour la resolution - a l'aide de methodes de premier ordre - des problemes non dierentiables. Nous allons montrer son utilisation pour la resolution de quelques classes de probemes :1.Somme d'une fonction convexe dierentiable et d'une
fonction convexe (Primal).2.Somme d'une fonction convexe et d'une fonction fortement
convexe (Dual).3.Autres problemes de type point selle.
Une classe de problemes non dierentiable Auslender70:On considere desormais et jusqu'a
nouv elordre le probl eme suivant : minx2Rnf1(x) +f2(x) f1est convexe, dierentiable, a gradientL-Lispchitz. f2est convexe, s.c.i telle que proxf2peut ^etre calcule.Propriete :Les minimiseursxsont caracterises par
x = proxf2(xrf1(x)):Preuve :
02 rf1(x) +@f2(x)
,xrf1(x)2x+@f2(x) ,x= proxf2(xrf1(x)): Somme d'une fonction dierentiable et d'une fonction convexe.. Le gradient proximal :la caracterisation de point-xe precedente donne envie d'utiliser le schema : x k+1= proxf2(xkrf1(xk))Exemple (compressive sensing) :
min x2Rn12 kAxbk2+kxk1 x k+1=shrink(xkAT(Axb)) [I. Daubechie etal 03] An iterative thresholding algorithm for linear inverse problems with a sparsity constraint, CPAM.Convergence lineaire :Si=min(ATA)>0, alors le
schema precedent converge lineairement en choisissant=2+L. Somme d'une fonction dierentiable et d'une fonction convexe..Preuve :
kxk+1xk=kproxf2(xkAT(Axkb))xk =kproxf2(xkAT(Axkb)) proxf2(xAT(Axb))k k(IATA)(xkx)k(non expansif) jjj(IATA)jjj k(xkx)k avec :jjj(IATA)jjj= max(j1j;j1Lj).Enn, on a
min max(1;1L) =2+L: Que se passe-t-il dans le cas non fortement convexe ? Somme d'une fonction dierentiable et d'une fonction convexe. f1dierentiable + gradient Lipschitz)
f1(x)f1(xk) +hrf1(xk);xxki+L2
jjxxkjj22f1(x)+f2(x)f1(xk) +hrf1(xk);xxki+L2
jjxxkjj22+f2(x) |{z} k(x)En prenantxk+1= argmin
x2Rnk(x) on assure : f(xk+1)f(xk) | ou|est une \generalisation" dekrf(xk)k22L. Somme d'une fonction dierentiable et d'une fonction convexe. f1dierentiable + gradient Lipschitz)
f1(x)f1(xk) +hrf1(xk);xxki+L2
jjxxkjj22f1(x)+f2(x)f1(xk) +hrf1(xk);xxki+L2
jjxxkjj22+f2(x) |{z} k(x)En prenantxk+1= argmin
x2Rnk(x) on assure : f(xk+1)f(xk) | ou|est une \generalisation" dekrf(xk)k22L. Somme d'une fonction dierentiable et d'une fonction convexe.L'iteration precedente est equivalente a :
x k+1= argmin x2Rn1L f2(x) +12 x x krf1(xk)LSoit encore :
x k+1= proxf2=L x krf1(xk))L Somme d'une fonction dierentiable et d'une fonction convexe.Resultat de convergence 1 [Nesterov 07] Sous les hypotheses precedentes, pourdadmissible tel que jjdjj 1Df(xk)(d) O
Lf(x0)minfpk
Resultat de convergence 2
Si de plusf1est convexe alors :
f(xk)f(x)Ljjy0yjj2k (variables duales)Nette amelioration par rapport aux techniques de sous-gradient!Schema multi-pas [Nesterov 07].
In:Nombre d' iterationsN, point initialx02Rn.
Out:xNune estimee dex.
Init:Posert1= 1,y1=x0.
Pourkallant de 0 aN:
Poserxk= proxf2=L
y krf1(yk)LCalculertk+1=1+p1+4t2k2
Poseryk+1=xk+tk1t
k+1 (xkxk1).Schema multi-pas [Nesterov 07].
Resultat de convergence
L'algorithme assure que :
f(xk)f(x)Ljjx0xjj2k 2 C'est un taux de convergence optimal.Resultats pratiques... Pour les transformees \simples" de l'analyse harmonique,30 iterations menent a une precision susante pour le
systeme visuel. Vers du temps reel ? De l'ordre de la seconde pour une image 10001000 (architecture GPU).Minimisation d'une classe de fonctions fortement
convexes. Le cadre precedent ne permet pas de traiter des problemes de type : min x2Rnkrxk1+12 kxx0k2 en eet : x7! krxk1est trop complexe pour en calculer la resolvante. x7! krxk1n'est pas dierentiable...On va voir que
la dualit e p ermetde con tournerces probl emes.Une classe de fonctions fortement convexes.
min x2RnP(x) :=f1(Ax) +f2(x) f1:Rn!R[ f+1gconvexe, s.c.i.A:Rn!Rmlineaire (ou ane).
f2:Rn!R[ f+1g-fortement convexe. Ari(dom(f2))\ri(dom(f1))6=;.Exemple typique (TV + termel2) : min x2Rnjjrxjj1+2 jjxx0jj22Complements d'analyse convexe...
Denition (polaire)
Soitf:Rn!R[ f+1gune fonction convexe s.c.i. La
transformee de Fenchel ou polaire defest denie par f (x0) = sup x2Rnhx0;xi f(x)Proprietes
fest convexe s.c.i.On af=fce qui implique que :
f(x0) =f(x0) = sup x2Rnhx0;xi f(x)On peut redenirfa partir de sa polaire.
Complements d'analyse convexe...
Dualite de Fenchel-Rockafellar :On a donc :
min x2Rnf1(Ax) +f2(x) |{z}Probleme primal
= min x2Rnsup y2RmhAx;yi f1(y) +f2(x) = min x2Rnsup y2Rmhx;Ayi f1(y) +f2(x) = sup y2Rminfx2Rnhx;Ayi f1(y) +f2(x) (Voir schema) = sup y2Rmf1(y)sup x2Rnhx;Ayi f2(x) = sup y2Rmf1(y)f2(Ax) =infy2Rmf1(y) +f2(Ax) |{z}Probleme dual
Complements d'analyse convexe...
Figure:Une fonction convexe-concave et son point-selle.Complements d'analyse convexe...
Relations primales-duales.
Soit (x;y) un point selle, on a :
02Ax@f1(y)
02 Ay@f2(x)
Soit encore :
y2(@f1)(Ax)
x2(@f2)(Ay)
Car : x22@f(x1),x12@f(x2)
Les solutions du probleme dual apportent des informations sur le primal et vice-versa !Complements d'analyse convexe...
Theoreme (dernieres pages du livre de J.B.
Hiriart-Urruty et C. Lemarechal):Soit
f:Rn!R[ f+1gune fonction convexe, s.c.i. Les deux propositions suivantes sont equivalentes :1.fest dierentiable etrfestL-Lipschitz.
2.fest fortement convexe de module1L
Minimisation d'une classe de fonctions fortement
convexes.ConclusionSif2est-fortement convexe, on a :
min x2Rnf1(Ax) +f2(x) =miny2Rmf2(Ay) +f1(y) f2est dierentiablea vecun gradien t1 -Lipschitz. f1est convexe. Pour touty2Y,x=rf2(Ay).Un algorithme naturel : gradient proximal y k+1= proxf1=Lyk+Arf2(Ayk) x k+1=rf2(Ayk+1):Minimisation d'une classe de fonctions fortement
convexes.Analyse du taux de convergence.On a :
min x2Rnf1(Ax) +f2(x)|{z}P(x)=miny2Rmf2(Ay) +f1(y)|{z}
D(y) et pour touty2Y,x=rf2(Ay).Proposition [Peyre, Fadili, Weiss] (sur demande) Soit x(y) =rf2(Ay) Alors kx(y)xk22 jD(y)D(y)j Un taux de CV sur le dual)taux de CV sur le primal.Minimisation d'une classe de fonctions fortement
convexes.Resultat de convergence (gradient proximal dual)Sous les hypotheses precedentes :
jjxkxjj2jjjAjjj2jjy0yjj2k En notant (xk;yk) =P(xk)D(yk), le saut de dualite on a : jjxkxjj2(xk;yk):La distance au minimiseur peut ^etre evaluee a chaque iteration !Minimisation d'une classe de fonctions fortement
convexes..Exemple : le probleme TV-L2 min x2Rnjjrxjj1+2 jjxx0jj2=miny2R2n;jjyjj11jjryx0jj2Similaire a :
[A. Chambolle 04] An algorithm for TV minimization.Le schema assure que :
jjxkxjj28nkLa complexite augmente lineairement avec la
dimension !Minimisation d'une classe de fonctions fortement
convexes.Taux de convergence Les schemas acceleres de Nesterov appliques au dual assurent : jjxkxjj22jjjAjjj2jjy0yjj2 2k2 et sidom(f1) =Rm: f(xk)f(x)2jjy0yjj2jjjAjjj2k 2: (Sinon, rien n'assure que les iterees primales soient admissibles...)Quelques applications pratiques des algorithmes
precedentsOn considere le probleme :
min x2Rnkrxk1+2 kxx0k22 Debruitage dex0sous l'hypothese de bruit gaussien additif. [FILM, AUTRES EXEMPLES]Quelques applications pratiques des algorithmes
precedentsDebruitage d'images SPIM.
Travail en collaboration avec Jer^ome Fehrenbach (Institut deMathematiques de Toulouse) et le canceropole.
L'existence de schemas ecaces doit guider la modelisation.Motivation et presentation de la methode
Images SPIM:
les images son taect eespar des raies som bres (ou parfois brillantes).Motivation et presentation de la methode
On se propose d'
eliminerces rai es , pour obtenir des images plus lisibles ãL'origine physique de ces raies est peu claire. On va donc adopter une methode de traitemen td 'image sans modelisation de la physique.Motivation et presentation de la methode
Notre algorithme s'inspire des methodes recentes de decomposition d'images en :ãu0=u+v(structure + texture);.
ãu0=u+v+b(structure + texture + bruit):
[Meyer 01, Starck Donoho 05, Aujol 05, Fadili 10, ]=+Motivation et presentation de la methode
ãDiculte: grand nom bred'inconn ues(plus de 500 images100010001-50Go.).
ãPour s'en sortir: form ulerle probl emecomme un probl eme de minimisation con vexe . Cela permet le developpement d' algorithmes ecaces , qui convergent vers un minim um globalModelisation du bruit
On decrit le bruit comme etant compose de raies + bruit blanc (deux composantes).La raie est un \
motif elementaire " qui se retrouve a plusieurs endroits dans l'image. Pour d eplacer et r epliquer un motif dans l'espace on utilise un pro duitde con volution (x) =X y(y) (xy):Hypothese sous-jacente :
le bru itest stationnaireModelisation du bruit
De facon plus generale, le bruit est modelise comme le produit de convolution entre un bruit blanc (pas forc ementgaussien) et un noyau donne.Figure:Exemples de bruits stationaires obtenus par convolution d'un noyau avec un bruit blanc.Modelisation du bruit
Autres exemples de produit de convolution:=
Le produit de convolution s'exprime facilement en Fourier.Modelisation du bruit
Modelisation d'une raie : unltre de Gabor(=une gaussienne anisotrope modulee par une sinusode).Modelisation du bruit
Le bruit est decrit par plusieurs types de raies (longueur/largeur dierentes). Il s'ecrit b=mX i=1 i i: La loi de probabilite de chaqueidepend de la modelisation du bruit.D'une maniere generale on ecrit:
P(i) = exp(i(i)):
L'hypothese que le bruit est blanc permet de choisir des fonctionsi separables (ce qui simplie l'analyse n umerique et est justi epar l'hypothese de stationnar iteModele de restauration
On utilise le principe du
Maxim umA P osteriori
. On cherche l' imageula plus probable etantdonn ees:1)la forme et l'orientation dec haqueraie i
(en pratique : une/deux raie + un bruit Gaussien),2)une description dela probabilit ede c haquebruit i,
3)une description d'unmo deled'image a p riori.
La recherche de l'imageula plus probable peut s'exprimer comme un probl emede minimisation con vexeModele de restauration
Principe du Maximum A Posteriori (MAP) :
Connaissantu02Rn, trouver Argmax
2RmnP(ju0):
Loi de Bayes :P(ju0) =P(u0j)P()P(u0);
donc sous l'hypothese d'ind ependancede uet de:Argmax
2RmnP(ju0) = Argmin
2Rmn(log(P(u))log(P()))
Soit encore :
Argmin
2Rmn0 r u 0mX i=1 ii! 1;+mX i=1 i(i)1 AResultats (verication du principe)
Argmin
2R3n r u3X i=1 i? i!1+k1k1+k2k22+k3k1
Noyaux : \raie verticale (l1)", \Dirac (l2)", "poisson (l1)".=Resultats (verication du principe)
Resultats (verication du principe)
Figure:Le ltre naturel : un ltre en forme de gradient topologique... Mais mauvaise resolution.Figure:Super-resolution... Le cerveau de l'ombre.Resultats (verication du principe)
Figure:Le ltre naturel : un ltre en forme de gradient topologique... Mais mauvaise resolution.Figure:Super-resolution... Le cerveau de l'ombre.Resultats (verication du principe)
Figure:Le ltre naturel : un ltre en forme de gradient topologique... Mais mauvaise resolution.Figure:Super-resolution... Le cerveau de l'ombre.Resultats
Resultats
Figure:de gauche a droite : originale; 2 ltres (raie de Gabor + Dirac pour le bruit gaussien) ; methode TV-L2Resultats
Sur une autre image :=+
Remarque sur le choix des fonctionsi
Le modele de decomposition est le suivant :
Argmin
quotesdbs_dbs29.pdfusesText_35[PDF] Mecanique quantique Cours et exercices corriges - Numilog
[PDF] Correction de l 'examen de probabilités et statistiques - Julian Tugaut
[PDF] Examen final corrigé (janvier 2013)
[PDF] Série d 'exercices Finance Internationale - ResearchGate
[PDF] Cours de gestion financière (M1) Exercices corrigés Le cas
[PDF] Exercice n°1
[PDF] Réseaux de Petri
[PDF] Examen professionnel Informatique, système d 'information
[PDF] Graphes exercices et correction
[PDF] Correction examen théorie des jeux 2009-2010 - Ceremade
[PDF] Exercice n° HU 0601 - Corrigé
[PDF] 10
[PDF] 14
[PDF] Examen d analyse personnel technique (ANT) - carrieres gouv