Champs aléatoires de Markov couples et segmentation des images
Champs aléatoires de Markov couples et segmentation des images texturées. Pairwise Markov Random Fields and Textured Images Segmentation.
Segmentation non-supervisée dans les champs de Markov couples
17 mai 2021 supervisée dans les champs de Markov couples gaussiens. GRETSI 2019: XXVIIème colloque franco- phone de traitement du signal et des images ...
Apport des champs de Markov à la classification des images
2 juil. 2016 bien adaptés au problème de la segmentation d'images. Soit S un ensemble de pixels X = (Xs) sES et Y = (Ys) sES deux champs aléatoires avec ...
Modèles de Markov en traitements dimages Markov models in
La segmentation statistique des images trouve de nombreuses applications dans les consacrée à un modèle récent dit champs de Markov Couple.
Segmentation Statistique non Supervisée des Images Code 2D par
le Champ de Markov couples ( CMCouple) qui est en fait une généralisation du modèle de Markov d'image figure l'étape de segmentation comme étant la.
Modèles statistiques pour lanalyse dimages algorithmes et
30 nov. 2010 2.1.1 Champs de Markov et champs aléatoires de Gibbs . ... 2.2.2 Segmentation d'images et équations aux dérivées partielles .
Analyse dimages: Filtrage et segmentation
23 juin 2017 2.2 Champ de Markov caché et segmentation non-supervisée ... L'image A peut être considérée comme un champ aléatoire dont une réalisation.
Champs aléatoires de Markov cachés pour la cartographie du
17 mars 2012 The documents may come from teaching and research institutions in France or abroad or from public or private research centers. L'archive ...
Chaînes de Markov Cachées et Application à limage satellitaire
segmentation d'images de télédétection utilisant la chaîne de Markov cachée ; au système de voisinage V : c'est le champ aléatoire X dont la probabilité ...
Depth Recovery from Stereo Matching Using Coupled Random Fields
9 déc. 2010 l'estimation des frontières la segmentation d'images
SETIT 2009
5 thInternational Conference: Sciences of Electronic,
Technologies of Information and TelecommunicationsMarch 22-26, 2009 - TUNISIA
- 1 - Segmentation statistique non supervisée des imagesCode 2D par modèle de Markov Caché
Khaled SALEM
1* , Nizar ABDELMAKSOUD1,2** et Ahmed BEN HMIDA
1* Route de Soukra km 4 Sfax Tunisie. ENIS, B.P 3038 skhaled736@yahoo.fr ahmed.benhamida@enis.mu.tn Rue Guiliermo Marconi, 59650 Villeneuve d'Ascq Lille France nizar_abdelmaksoud2005@yahoo.frRésumé: Ce papier présente une méthode de segmentation statistique non supervisée d'images. C'est une approche
statistique probabiliste fondée sur la modélisation markovienne ou modélisation par Champ de Markov. Ce type de
modélisation permet de tenir compte des dépendances spatiales entre pixels dans l'image, ce qui rend la segmentation
plus précise. Les champs de Markov sont classés en trois modèles. On distingue le Champ de Markov Caché ( CMC ),
le Champ de Markov couples ( CMCouple) qui est en fait une généralisation du modèle de Markov cachés en supposant
la markovianite du couple (X,Y), en plus, il permet de mieux modéliser le bruit et d'analyser les textures, et le Champ
de Markov triplets qui représente une généralisation du modèle des champs de Markov couples, la loi du couple (X,Y)
est une loi marginale d'un champ de Markov triplet T = (X,U,Y), U désigne un champ auxiliaire. Mots clés: Code 2D, Estimation, Markov, Modélisation, Segmentation.
INTRODUCTION
Le contenu d'une image constitue le centre d'intérêt et la première source d'informations pour plusieurs applications en analyse d'images. Il s'agit de le décrire quantitativement au moyen de méthodes et outils appropriés. Parmi les étapes d'un processus d'analyse d'image, figure l'étape de segmentation comme étant la plus importante dans la chaîne. En effet, c'est à partir de l'image segmentée que les paramètres et les propriétés mathématiques sont mesurées. Il existe deux types de segmentation : Une segmentation supervisée où on connaît les paramètres de l'image à segmenter et une segmentation non supervisée dans le cas contraire. Ce deuxième type de segmentation est délicat, en effet, il n'existe pas de solutions complètes jusqu'à ce moment. La plupart des algorithmes de segmentation utilisés sont orientés vers l'analyse statistique de l'image observée. Dans ce cadre, plusieurs approches et modèles sont proposés pour la résolution du problème, l'approche Bayésienne apparaît comme étant la plus intéressante. C'est une approche statistique probabiliste fondée sur la modélisation markovienne ou le modèle par champs de Markov [ABD 01]. 1. Modélisation probabiliste de l'image En analyse d'images, l'image est représentée par une grille S rectangulaire finie bidimensionnelle de taille n x m , contenant un ensemble de "sites" s, appelés également "pixels". st VtVsPour chaque pixel on associe un descripteur qui
représente un niveau de gris, indice... On appelle un système de voisinages toute famille SsVV s )(vérifiant les propriétés suivantes : sVs un site n'est pas voisin de lui même.
stVtVsrelation de voisinage est
symétrique. Les systèmes de voisinage les plus usuels sont : "4-connexité», voisinage du premier ordre. "8-connexité», voisinage du second ordre.1.1. Clique
Un sous ensemble C de S est appelé clique relative au système de voisinage V, si C est un singleton ou si tous les sites distincts de C sont voisins. Une clique est dite d'ordre P, si elle contient P éléments, en d'autres termes, l'ordre d'une clique est par définition sonSETIT2009
cardinal [BEN 02]. Figure 1. Système de clique associer au voisinage4- connexe et 8-connexe.
1.2. Définition d'un champ de Markov
Soit S un ensemble de pixels et une
famille de variables aléatoires, définie sur S, où chaqueest à valeurs dans un ensemble fini de classes Sss XX s X k W W ,.....,1 . Une telle famille sera dans la suite appelée " champ aléatoire ». Soit un système de voisinage V. On notera par la même lettre p les diverses lois de probabilité liées à X [TUP 04]. On dit qu'un champ X est un champ de Markov relativement à V, si et seulement si les deux propriétés suivantes sont vérifiées :Positivité :
0)(, xpx Scard (1)Markovianité :
2.MRF fondamentaux
2.1. Modèle d'Ising et Modèle de Potts
Le modèle d'Ising est caractérisé par un espace de descripteur E= {-1,1}. Le modèle de Potts est caractérisé par un espace de descripteur E= {0, m-1}. Le potentiel des cliques est définit comme suit :U(x) =- si x
s = x t (3) si x s x tȕ: paramètre de régularisation.
2.2. Modèle markovien Gaussien
Ce modèle est caractérisé par un espace de descripteur E= {0,255}. Il est utilisé pour les images en niveau de gris. Ssss tsctststscµxxxxxU
2 ),(2 )()(),( (4) Le premier terme correspond aux cliques d'ordre 2, c'est un terme de régularisation, il favorise les faibles différences de niveaux de gris entre sites voisins pour ȕ>0. Le second terme correspond à un terme d'attache aux données dans le cas où on possède une image de données extérieures. 3.Segmentation
La segmentation est un outil puissant qui aide à la décision. Elle permet de remonter à une réalisation de X (image cachée) à partir de l'observation des données bruitées Y. On parle dans ce contexte de champ de Markov Caché pour X ou de données incomplètes puisque Y n'est pas une réalisation de X. La segmentation d'image par le modèle de Markov Caché nécessite 3 étapes: Modélisation, Estimation etClassification [BLA 09].
3.1. Modélisation
Permet de choisir le modèle approprié selon le nombre de classe de l'image.3.2. Estimation
Cette phase est constituée de deux sous étapes: - Estimation du paramètre de régularisation pour la probabilité à priori ȕ en utilisant l'algorithmeGradient Stochastique (GS).
- Estimation des paramètres de bruit (µ,ı) de l'image observée par l'algorithme EstimationMaximisation (EM).
3.2.1. Gradient Stochastique
Ce paragraphe décrit toutes les étapes d'estimation du paramètre de régularisation ȕ commençant par une réalisation a priori une autre réalisation est accordée pour la distribution a posteriori et ensuite initialisation de tous les paramètres à estimer. L'estimation avec cet algorithme s'effectue par passage de )0( priori X n 1n - Simulation de à partir de associé à l'énergie )1(n priori X )(n priori X )(xU n - Simulation de à partir de )1(n posteriori X )(n posteriori X ),xP(xs)t,xP(x tstssVt (2)
- 2 -SETIT2009
associé à l'énergie )/()(xyUxU nCalcul de
1nà l'itération n+1:
3.2.2. Estimation Maximisation
C'est un algorithme itératif permettant l'estimation des paramètres de la distribution a posteriori. Pour le cas du modèle Gaussien, nous allons estimer la moyenne et la variance pour chaque classe (pour chaque classe on applique une densité Gaussienne).Répéter
Etape E:
Calculer la probabilité a posteriori ),(
tij yixpEtape M:
Estimation de Probabilité a priori de chaque classe :Estimation de la moyenne pour chaque classe :
Estimation de la variance pour chaque classe :
Jusqu'à
1tt QQ3.3. Classification
Permet de déterminer l'image de classe X à partirde l'image observée. Après avoir estimé tous les paramètres caractéristiques de l'image observée, on
peut appliquée les différents algorithmes de classification tel que le MAP (Maximum a Posteriori), et MPM (Maximum a Posteriori Marginal), et ICM (Mode itérative conditionné) [BOU 03]. - Maximum a Posteriori (MAP) y)\(max(argxPx - Maximum a Posteriori Marginale (MPM) y)\(max(arg ss xPx 4.Mise en oeuvre de l'approche statistique
4.1. Image aléatoire
Dans ce paragraphe on va présenter les résultats obtenus par les différents algorithmes.Gradient Stochastique
Image de classe ȕ=0.45 Image bruitée Figure 2. Allure de la courbe d'estimation de ȕ Après 15 itérations, on atteint la convergence avec une valeur initiale de ȕ=2.Estimation Maximisation
Pour générer l'image bruitée, on a appliqué une loi normale pour chaque classe. N(0,100) pour le descripteur X=0 N(60,50) pour le descripteur X=1 N(90,100) pour le descripteur X=2 )1(),(),( 1111 nyxUyxUk nnn nn nn (5) )2)(exp(2log(),(),( 22
s xs tsss
µyxxyxU
(6) n k tjtjjtjtjj tij kxpkxypixpxyp yixp 1 (7) n k tjjm j tjj j ykxpyixp ixp 11 (8) m j tjjm j jtjj i yixpyyixp 11 (9) m j tjjm j ijtjj i yixpµyyixp 11 2 (10) - 3 -SETIT2009
(a) (b) Figure 3. (a) Image de classe ȕ=4, (b) Image bruitée Class 1 (descriptor X=0): µ=0.89447, ı=95.957 Class 2 (descriptor X=1): µ=49.723, ı=61.602 Class 3 (descriptor X=2): µ=99.74 , ı=87.543Classification par la méthode MPM
(a) (b) (c) Figure 4. (a) Image de classe ǃ=4, (b) Image bruitée, et (c) Image segmentée. Nous allons présenter les résultats trouvés pour les trois phases de Modélisation, Estimation et Classification sur des images aléatoires avec un nombre de descripteur (classe) m=3. L'image (a) est une image de classe composée de trois descripteurs (3 classes) en utilisant le modèle de Potts, et un paramètre de régularisation (=4). L'image (b) est l'image observée (image bruitée), en utilisant des moyennes et des variances différentes (paramètres de la distribution Gaussienne) pour chaque classe. L'image (c) est l'image segmentée en utilisant l'algorithme MPM pour la classification de pixels. Le tableau Tab 1 contient les valeurs des moyennes et variances (à estimer) dans chaque classe.Classe 1 Classe 2 Classe 3
Moyenne 0 50 100
Variance 100 60 90
Tab 1. Moyenne et Variance pour chaque classe
Dans le tableau Tab 2, nous avons estimé la valeur de là Moyenne et Variance dans chaque classe à l'aide de l'algorithme EM :Classe 1 Classe 2 Classe 3
Moyenne 0.20 50.016 100.08
Variance 97.20 61.44 92.615
Tab 2. Moyenne et Variance estimées par l'algorithme La dernière étape de la segmentation c'est la classification. La figure Fig.3. (c) est l'image segmentée obtenu par application de l'algorithme Maximum a Posteriori Marginal (MPM). Donc le modèle de Markov Caché a donné de bons résultats au niveau estimation des paramètres de la distribution Gaussienne (Moyenne et variance), ainsi qu'une bonne reconstruction de l'image cachée a partir de l'image bruitée. On va présenter dans ce paragraphe, les résultats obtenus pour le cas des images code 2D.4.2. Image code 2D
On va présenter dans ce paragraphe, les résultats obtenus pour le cas des images code 2D. (a) (a) (b) (c) Figure 5. (a) Image de classe, (b) Image bruitée, et (c) Image segmentée - 4 -SETIT2009
L'image (a) est une image de classe composée de deux descripteurs (2 classes) en utilisant le modèle d'Ising. L'image (b) est l'image observée (image bruitée), en utilisant des moyennes et des variances différentes (paramètres de la distribution Gaussienne) pour chaque classe. L'image (c) est l'image segmentée en utilisant l'algorithme MPM pour la classification de pixels. Le tableau Tab 3 contient les valeurs des moyennes et variances (à estimer) dans chaque classe.Classe 1 Classe 2
Moyenne 0 50
Variance 100 60
Tab 3. Moyenne et Variance pour chaque classe
Dans le tableau Tab 4, nous avons estimé la valeur de la Moyenne et la Variance dans chaque classe à l'aide de l'algorithme EM :Classe 1 Classe 2
Moyenne 0.114 50.095
Variance 98.762 60.625
Tab4. Moyenne et Variance estimées par l'algorithmeEstimation Maximisation (EM)
Pour les images Code 2D, nous avons obtenu de bons résultats de segmentation qui sont semblables à ceux trouvés dans le cas des images aléatoires. 5.Conclusion
Les résultats de simulation ont bien montré
l'efficacité du modèle de Markov Caché pour l'étape d'estimation et l'étape de classification. Les images ainsi segmentées permettent de donner une bonne idée sur les images cachées (image originale), avec un nombre de pixels mal classés qui est très faible par apport au nombre total de pixels. Donc le Modèle de Markov Caché s'adapte bien avec les images code 2D. Notre travail devrait être étendu vers l'étude des autres modèles de Markov (Modèle de Markov Couple (CMCouple) et Modèle de Markov Triple (CMT) qui présentent un aspect plus général que celui du modèle de Markov Caché surtout lorsque nous utilisons des images présentant des textures.RÉFÉRENCES
[ABD 01] N.Abdelmaksoud, " Segmentation des images satellitaires par approche contour » : JTEA'06, Hammamet,Tunisie.
[BEN 02] D.Benboudjema, " Champs de Markov Triplets et Segmentation Bayesienne non Supervisée d'image » : Thèse,INT, France, 2005.
[BLA 09] J. Blanchet, " Modèles Markoviens et extensions pour la classification de données complexes ». [BOU 03] N.Bouhlel, " Segmentation bayésienne par approche markovienne», cours Université René Descartes.
[TUP 04] F.Tupin, " Introduction aux champs de Markov »,Telecom Paris.
- 5 -quotesdbs_dbs25.pdfusesText_31[PDF] champs de responsabilité
[PDF] Champs électriques et magnétiques - Tir À L'Arc
[PDF] Champs électromagnétiques
[PDF] Champs éleCtromagnétiques - Portail Santé Environnement Travail - Le Style Et La Mode
[PDF] Champs éleCtromagnétiques - SBSSA - Le Style Et La Mode
[PDF] Champs électromagnétiques : la nouvelle directive européenne - Tir À L'Arc
[PDF] Champs électromagnétiques : Qui dort dine ?
[PDF] Champs électromagnétiques et santé - Linux - Électricité
[PDF] Champs électromagnétiques et téléphonie mobile - Tir À L'Arc
[PDF] Champs Elysées / Arc de triomphe | Hôtel West End | Hôtel Luxe
[PDF] Champs Elysées. J`me baladais Sur l`avenue, Le cœur ouvert à l
[PDF] Champs et forces avec F: force d`attraction exerc ée par la Terre sur l - Tir À L'Arc
[PDF] Champs magnétiques et radiofréquences - Tir À L'Arc
[PDF] Champs magnétiques et sécurité du travail - Tir À L'Arc