[PDF] Champs aléatoires de Markov cachés pour la cartographie du





Previous PDF Next PDF



Champs aléatoires de Markov couples et segmentation des images

Champs aléatoires de Markov couples et segmentation des images texturées. Pairwise Markov Random Fields and Textured Images Segmentation.



Segmentation non-supervisée dans les champs de Markov couples

17 mai 2021 supervisée dans les champs de Markov couples gaussiens. GRETSI 2019: XXVIIème colloque franco- phone de traitement du signal et des images ...



Apport des champs de Markov à la classification des images

2 juil. 2016 bien adaptés au problème de la segmentation d'images. Soit S un ensemble de pixels X = (Xs) sES et Y = (Ys) sES deux champs aléatoires avec ...



Modèles de Markov en traitements dimages Markov models in

La segmentation statistique des images trouve de nombreuses applications dans les consacrée à un modèle récent dit champs de Markov Couple.



Segmentation Statistique non Supervisée des Images Code 2D par

le Champ de Markov couples ( CMCouple) qui est en fait une généralisation du modèle de Markov d'image figure l'étape de segmentation comme étant la.



Modèles statistiques pour lanalyse dimages algorithmes et

30 nov. 2010 2.1.1 Champs de Markov et champs aléatoires de Gibbs . ... 2.2.2 Segmentation d'images et équations aux dérivées partielles .



Analyse dimages: Filtrage et segmentation

23 juin 2017 2.2 Champ de Markov caché et segmentation non-supervisée ... L'image A peut être considérée comme un champ aléatoire dont une réalisation.



Champs aléatoires de Markov cachés pour la cartographie du

17 mars 2012 The documents may come from teaching and research institutions in France or abroad or from public or private research centers. L'archive ...



Chaînes de Markov Cachées et Application à limage satellitaire

segmentation d'images de télédétection utilisant la chaîne de Markov cachée ; au système de voisinage V : c'est le champ aléatoire X dont la probabilité ...



Depth Recovery from Stereo Matching Using Coupled Random Fields

9 déc. 2010 l'estimation des frontières la segmentation d'images

Segmentation non-supervisée dans les champs de Markov couples gaussiens Hugo GANGLOFF1, 2, Jean-Baptiste COURBOT3, Emmanuel MONFRINI4, Christophe COLLET1 1 ICube, Université de Strasbourg - CNRS UMR 7357

300 bd Sébastien Brant, 67400 Illkirch-Graffenstaden, France

2 Groupe Européen de Recherche sur les Prothèses Appliquées à la Chirurgie Vasculaire

4 rue Kirschleger, 67000 Strasbourg, France

3

IRIMAS EA 7499, Université de Haute-Alsace

2 rue des Frères Lumière, 68100 Mulhouse, France

4 SAMOVAR - CNRS UMR 5157, Télécom SudParis, Institut Polytechnique de Paris

9 rue Charles Fourier, 91000 Évry, France

hugogangloff@unistra.fr, jean-baptiste.courbot@uha.fr emmanuel.monfrini@telecom-sudparis.eu, c.collet@unistra.fr

Résumé -Nous présentons un modèle probabiliste à données cachées pour la modélisation de variables fortement corrélées. Une méthode

d"estimation non-supervisée des paramètres se distinguant par sa robustesse est proposée. Le nouveau modèle s"illustre face à d"autres méthodes

dans les problèmes pratiques où la modélisation par bruit corrélé est pertinente.

Abstract -We present a new probabilistic latent variable model to characterize strong correlations. A robust unsupervised parameter estimation

method is proposed. The new model performs well against other classical methods in practical cases where a model including correlated noise

is useful.

1 Introduction

L"intérêt des outils probabilistes pour les modélisations ma- thématiques réside dans la possibilité d"introduire des corréla- tions complexes entre variables aléatoires. Parmi les modèles à enrichir la loi des variables aléatoires considérées. C"est le cas des modèles de Markov couples ou triplets [11]. Des études théoriques de modèles similaires pour divers mélanges de lois de probabilité font l"objet de nombreaux articles [17] [14]. Les Champs Aléatoires Gaussiens Markoviens (CAGM) [15] ap- portent également des solutions à cette problématique. Nous présentons dans cet article un nouveau modèle, appelé Champ de Markov Couple Gaussien (CMCoG) qui fait le lien entre les deux théories précédentes pour répondre à des pro- blèmes où les corrélations sont fortes. Ce modèle peut être vu comme une machine de Boltzmann avec de nombreuses pothèse de Markov, nous proposons une procédure d"estima- tion des paramètres efficaces dans ces modèles complexes. Dans la suite, la notationp(X=x) =p(x)renvoie à la den- sitépévaluée en la réalisationx, et les lettres grasses minus-

cules (resp. majuscules) désignent les vecteurs (resp. matrices).2 Les champs de Markov couples gaus-

siens

2.1 Définition du modèle

SoitXXX= (X1;:::;XN)une variable alétoire discrète à va- leurs dans

N, avec

= (!1;:::;!L). Les réalisations deXXX sont inobservables.YYY= (Y1;:::;YN)est une variable aléa- toire réelle dont les réalisations sont observées. On considère que(XXX;YYY)est un processus de Markov défini par rapport à un voisinageN. L"ensemble des sites estSavecjSj=N. Nous associons à ce champ couple la densité suivante : p(xxx;yyy) =exp(E(xxx;yyy))Z(xxx;yyy);(1) où l"énergie vaut :

E(xxx;yyy) = exp

X s2SV

1(xs) +X

s2SX s 02NsV

2(xs;xs0)

12 (yyyxxx)TQQQ(yyyxxx) ;(2) etZ(xxx;yyy)est la constante de normalisation inconnue. Pour que p(xxx;yyy)existe, il faut queexp(E(xxx;yyy))soit intégrable sur NRNce qui est le cas dans notre définition de l"Équa- tion 2. Nous pouvons montrer queYYYest un CAGM, conditionnel- lement aux réalisations deXXX. En effet : p(yyyjxxx) =1p(2)Ndet(QQQ1)exp12 (yyyxxx)TQQQ(yyyxxx): (3) Ce qui correspond à la définition d"un CAGM de moyennexxx et de matrice de covariance =QQQ1. Cette propriété offre de nombreuses possibilités de modélisations. Notons que nous n"incluons pas la non-stationnarité de la variance du champ gaussien. Nous verrons à la Section 2.3 que la simulation du CAGM doit se faire à travers seséquations conditionnelles[15] [3] qui varient au cours des itérations. Dans ce contexte, intro- duire une variance non-stationnaire est hors de portée de cet article [8].

2.2 Paramètres du modèle

Paramètres liant les variables cachées

Le choix d"un modèle de type Multi-Level Logistic (MLL) est fait ici [12]. Le potentielV1(resp.V2) modélise le biais (resp. la granularité),8!l2 V

1(xs) =[xs=!l]etV2(xs;xs0) = (1)?[xs6=xs0]:(4)

Paramètres du CAGM

D"une part, les moyennes varient avec les réalisations desXs,

8s2 S:s=xs=!l. D"autre part, deux autres paramètres

sont liés à la matrice de précisionQQQdu CAGM :2etr. Par définition d"un CAGM,QQQest une matrice semi-définie posi- tive. Nous faisons le choix de la caractériser par la fonction de corrélation exponentielleavec un taux de décroissanceret une variance2. On a,8(s;s0)2 S2:

Cov(Ys;Ys0) = s;s0=2(s;s0;r);(5)

etQQQ= 1. L"hypothèse de champ à bordure périodique est faite, ce qui correspond à considérer les indices des variables moduloN, ce qui est une manière de traiter les indices hors des limites (par exemple, l"indiceN+ 2, qui n"existe pas, devient l"indice2). Notons que, sans cette hypothèse, nous n"avons pas de garantie que les calculs soient faisables en un temps rai- sonnable. Les notions abordées ici sont décrites en détail dans [15].

Ensemble final des paramètres

Sans perte de généralité, dans la suite, nous prenonsL= 2 classes. Dans ce cas, le modèle est décrit par7paramètres.

Soit,f0;1;;0;1;;rgle vecteur des paramètres.

2 =R5(R+)2. La Section 3 traite de l"estimation de

ces paramètres. Notons que les casL >2sont théoriquement possibles avec le modèle MLL et en considérantLmoyennes pour le CAGM, au prix d"une plus grande complexité algorith- mique.

2.3 Équations de simulation du couple

Dans cette section nous décrivons comment simuler des réa- lisations suivant le nouveau modèle CMCoG.FIGURE1 - Exemple de simulation et segmentation de CM- CoG pour= 1:2dans le cas supervisé. De gauche à droite :XXXgénéré,YYYgénéré, segmentation KMeans, segmenta- tion CMCa et segmentation CMCoG. R;8s2 S,peuventêtreécritesouslaformep(xsjxNs;yNs) p(ysjxs;xNs;yNs), dans le cas le plus général, en séparant les termes enysde ceux enxs. Ainsi,8s2 S, le couple (xs;ys)est obtenu en tirant successivementxspuisysavec l"échantillonneur de Gibbs. Remarquons quep(ysjxs;xNXs;yNYs)est une loi gaussienne de moyenneset de variance2sdonnées par : s=s1Q s;sX s

02Ns(ys0s0)Qs;s0et2s=1Q

s;s:(6) elles vont être utilisées pour la simulation. La Figure 1 illustre une réalisation d"un CMCoG, sous forme d"image à2classes.

2.4 Équations de simulationa posteriori

Nous décrivons maintenant comment utiliser notre modèle dans un cadre de classification. Le couple(XXX;YYY)est marko- vien, ce qui permet de conserver la markovianité de la loia posteriori. On a alors,8xs2 ;8s2 S,p(xsjxNS;yyy)/ p(xs;ysjxNs;yNs), et des réalisations peuvent être obtenues via l"échantillonneur de Gibbs [9].

2.5 Segmentation supervisée de données simu-

lées Pour illustrer la richesse des modélisations de bruit corrélé envisageable avec le modèle CMCoG, nous nous proposons de comparer le modèle CMCoG aux modèles CMCa et KMeans [1]. Nous générons des réalisations de CMCoG,(XXX;YYY), sous forme d"image binaire de taille128128px, et segmentons les images pour différentes valeurs de0et1. Nous utili- sons le critèreMode of Posterior Marginals(MPM) [13] pour la segmentation. Dans cette expérience, les vrais paramètres et la vérité terrain sont connus. Dans la Figure 1, nous présen- tons les résultats des segmentation pour= 1:2. Dans la Figure 2, nous traçons les taux d"erreur moyens pour les diffé- rents niveaux de bruit=j01jet pour chaque modèle. Nous observons des courbes qui rejoignent les attentes théo- riques, le nouveau modèle présente des taux d"erreur bien plus faibles que les autres, ce qui illustre sa plus grande généralité. Par exemple, dans le cas de la Figure 1= 1:2, le mo- dèle CMCoG atteint un taux d"erreur de4%, contre38%pour

KMeans, et13%pour CMCa.

00:511:522:530:20:4Taux d"erreurKmeans

CMCa CMCoG FIGURE2 - Taux d"erreur des modèles en fonction de(va- leurs moyennées sur20simulations). Le cas de la Figure 1 cor- respond à la ligne verticale en tirets.

3 Estimation des paramètres

3.1 Méthode robuste d"estimation

Nous nous plaçons dans un contexte non-supervisé, les don- nées complètes(XXX;YYY)ne sont pas disponibles. Nous propo- sons une procédure stochastique pour compléter les données puis estimer les paramètres, nommée PSEP. Lorsque les données complètes sont connues, nous pouvons [2] (MPV) et0,1et2avec le Maximum de Vraisemblance (MV).rest estimé par ajustement de la fonction de corrélation exponentielle sur le corrélogramme estimé, via la méthode des moindres carrés [6]. L"utilisation d"algorithmes de type Expec- tation - Maximization, comme Stochastic E-M [4] a été écartée car les estimateurs du MV ne sont pas calculables en un temps raisonnable. La convergence de PSEP est fondée sur la station- narité des échantillons tirésa posteriori, c"est le rôle de la fonc- tionverifier_convergence(). L"Algorithme 1 résume les différentes étapes.

3.2 Échantillonneur de Gibbs tempéré

sont connus dans la littérature. Nous proposons l"utilisation de l"échantillonneur de Gibbs tempéré (Gibbs-T). Son principe est détaillé dans [7]. L"idée est de mieux explorer la distributiona posterioridans l"étape de la ligne4de l"Algorithme 1. Gibbs-T introduit un ramètres. Cette approche a déjà été choisie pour une meilleure simulation de divers modèles probabilistes, [5] et [16].

3.3 Estimation des paramètres améliorée

En pratique, Gibbs-T n"est pas utilisé à chacune des itéra- tions pour éviter un temps de calcul trop important lorsque les corrélations estimées couvrent un large voisinage. Nous mo- difions PSEP de manière à ce qu"il y ait alternance des échan-

tillonneurs Gibbs-T et Gibbs à chaque itération. Nous obtenonsAlgorithme 1 :Procédure Stochastique d"Estimation

des Paramètres (PSEP)Données :0=f00;01;0;00;01;(2)0;r0g, les paramètres initiaux etyyy, les observations.

Résultat :

^=f^0;^1;^;^0;^1;^2;^rg, les paramètres estimés. 1t 0

2tant quepas de convergencefaire3/* Échantillonagea posteriori*/

4xxxt+1p(XXXjyyy;t)

5/* Estimateurs */

6Estimateur du MPV pourt+10,t+11ett+1.

7Estimateur du MV pourt+10ett+11.

8Estimateur du MV pour(2)t+1.

9Estimateur du corrélogrammert+1.

10t+1 ft+10;t+11;t+1;t+10;t+11;(2)t+1;rt+1g

11verifier_convergence()

12t t+ 1

13finun algorithme que nous appelons PSEP alterné (PSEP-A).

Pour comparer PSEP et PSEP-A, des images réelles binaires sont vues comme des réalisations des variables cachées (xxx) pour les modèles CMCoG et CMCa. Pour chaque image bi- naire, nous choisissonsetQQQet utilisons l"Équation 6 pour si- muler une observation. Cette réalisation correspond auxyyydes modèles à données cachées. Tous les paramètres sont ensuite considérés comme perdus : nous travaillons en contexte non- supervisé. Cependant la connaissance de la vérité terrain per- met de suivre l"évolution des algorithmes d"estimation via le taux d"erreur de reconstruction. La Figure 3 illustre les effets de l"introduction de Gibbs-T. Dans un premier cas (Figure 3a), PSEP augmente fortement après avoir atteint une valeur d"erreur minimale. C"est typique d"un régime de sur-apprentissage, caractérisé par la partie à droite de la ligne verticale en tirets [10][Section 5.2]. Il n"y a gure 3b), PSEP se stabilise mieux, mais l"utilisation de l"échan- tillonneur tempéré permet une meilleure exploration de la loi a posterioriet un taux d"erreur plus favorable pour PSEP-Aquotesdbs_dbs25.pdfusesText_31
[PDF] Champs de Markov en Vision par Ordinateur

[PDF] champs de responsabilité

[PDF] Champs électriques et magnétiques - Tir À L'Arc

[PDF] Champs électromagnétiques

[PDF] Champs éleCtromagnétiques - Portail Santé Environnement Travail - Le Style Et La Mode

[PDF] Champs éleCtromagnétiques - SBSSA - Le Style Et La Mode

[PDF] Champs électromagnétiques : la nouvelle directive européenne - Tir À L'Arc

[PDF] Champs électromagnétiques : Qui dort dine ?

[PDF] Champs électromagnétiques et santé - Linux - Électricité

[PDF] Champs électromagnétiques et téléphonie mobile - Tir À L'Arc

[PDF] Champs Elysées / Arc de triomphe | Hôtel West End | Hôtel Luxe

[PDF] Champs Elysées. J`me baladais Sur l`avenue, Le cœur ouvert à l

[PDF] Champs et forces avec F: force d`attraction exerc ée par la Terre sur l - Tir À L'Arc

[PDF] Champs magnétiques et radiofréquences - Tir À L'Arc

[PDF] Champs magnétiques et sécurité du travail - Tir À L'Arc