[PDF] Segmentation Statistique non Supervisée des Images Code 2D par





Previous PDF Next PDF



Champs aléatoires de Markov couples et segmentation des images

Champs aléatoires de Markov couples et segmentation des images texturées. Pairwise Markov Random Fields and Textured Images Segmentation.



Segmentation non-supervisée dans les champs de Markov couples

17 mai 2021 supervisée dans les champs de Markov couples gaussiens. GRETSI 2019: XXVIIème colloque franco- phone de traitement du signal et des images ...



Apport des champs de Markov à la classification des images

2 juil. 2016 bien adaptés au problème de la segmentation d'images. Soit S un ensemble de pixels X = (Xs) sES et Y = (Ys) sES deux champs aléatoires avec ...



Modèles de Markov en traitements dimages Markov models in

La segmentation statistique des images trouve de nombreuses applications dans les consacrée à un modèle récent dit champs de Markov Couple.



Segmentation Statistique non Supervisée des Images Code 2D par

le Champ de Markov couples ( CMCouple) qui est en fait une généralisation du modèle de Markov d'image figure l'étape de segmentation comme étant la.



Modèles statistiques pour lanalyse dimages algorithmes et

30 nov. 2010 2.1.1 Champs de Markov et champs aléatoires de Gibbs . ... 2.2.2 Segmentation d'images et équations aux dérivées partielles .



Analyse dimages: Filtrage et segmentation

23 juin 2017 2.2 Champ de Markov caché et segmentation non-supervisée ... L'image A peut être considérée comme un champ aléatoire dont une réalisation.



Champs aléatoires de Markov cachés pour la cartographie du

17 mars 2012 The documents may come from teaching and research institutions in France or abroad or from public or private research centers. L'archive ...



Chaînes de Markov Cachées et Application à limage satellitaire

segmentation d'images de télédétection utilisant la chaîne de Markov cachée ; au système de voisinage V : c'est le champ aléatoire X dont la probabilité ...



Depth Recovery from Stereo Matching Using Coupled Random Fields

9 déc. 2010 l'estimation des frontières la segmentation d'images

SETIT 2009

5 th

International Conference: Sciences of Electronic,

Technologies of Information and Telecommunications

March 22-26, 2009 - TUNISIA

- 1 - Segmentation statistique non supervisée des images

Code 2D par modèle de Markov Caché

Khaled SALEM

1* , Nizar ABDELMAKSOUD

1,2** et Ahmed BEN HMIDA

1* Route de Soukra km 4 Sfax Tunisie. ENIS, B.P 3038 skhaled736@yahoo.fr ahmed.benhamida@enis.mu.tn Rue Guiliermo Marconi, 59650 Villeneuve d'Ascq Lille France nizar_abdelmaksoud2005@yahoo.fr

Résumé: Ce papier présente une méthode de segmentation statistique non supervisée d'images. C'est une approche

statistique probabiliste fondée sur la modélisation markovienne ou modélisation par Champ de Markov. Ce type de

modélisation permet de tenir compte des dépendances spatiales entre pixels dans l'image, ce qui rend la segmentation

plus précise. Les champs de Markov sont classés en trois modèles. On distingue le Champ de Markov Caché ( CMC ),

le Champ de Markov couples ( CMCouple) qui est en fait une généralisation du modèle de Markov cachés en supposant

la markovianite du couple (X,Y), en plus, il permet de mieux modéliser le bruit et d'analyser les textures, et le Champ

de Markov triplets qui représente une généralisation du modèle des champs de Markov couples, la loi du couple (X,Y)

est une loi marginale d'un champ de Markov triplet T = (X,U,Y), U désigne un champ auxiliaire. Mots clés: Code 2D, Estimation, Markov, Modélisation, Segmentation.

INTRODUCTION

Le contenu d'une image constitue le centre d'intérêt et la première source d'informations pour plusieurs applications en analyse d'images. Il s'agit de le décrire quantitativement au moyen de méthodes et outils appropriés. Parmi les étapes d'un processus d'analyse d'image, figure l'étape de segmentation comme étant la plus importante dans la chaîne. En effet, c'est à partir de l'image segmentée que les paramètres et les propriétés mathématiques sont mesurées. Il existe deux types de segmentation : Une segmentation supervisée où on connaît les paramètres de l'image à segmenter et une segmentation non supervisée dans le cas contraire. Ce deuxième type de segmentation est délicat, en effet, il n'existe pas de solutions complètes jusqu'à ce moment. La plupart des algorithmes de segmentation utilisés sont orientés vers l'analyse statistique de l'image observée. Dans ce cadre, plusieurs approches et modèles sont proposés pour la résolution du problème, l'approche Bayésienne apparaît comme étant la plus intéressante. C'est une approche statistique probabiliste fondée sur la modélisation markovienne ou le modèle par champs de Markov [ABD 01]. 1. Modélisation probabiliste de l'image En analyse d'images, l'image est représentée par une grille S rectangulaire finie bidimensionnelle de taille n x m , contenant un ensemble de "sites" s, appelés également "pixels". st VtVs

Pour chaque pixel on associe un descripteur qui

représente un niveau de gris, indice... On appelle un système de voisinages toute famille SsVV s )(vérifiant les propriétés suivantes : s

Vs un site n'est pas voisin de lui même.

st

VtVsrelation de voisinage est

symétrique. Les systèmes de voisinage les plus usuels sont : "4-connexité», voisinage du premier ordre. "8-connexité», voisinage du second ordre.

1.1. Clique

Un sous ensemble C de S est appelé clique relative au système de voisinage V, si C est un singleton ou si tous les sites distincts de C sont voisins. Une clique est dite d'ordre P, si elle contient P éléments, en d'autres termes, l'ordre d'une clique est par définition son

SETIT2009

cardinal [BEN 02]. Figure 1. Système de clique associer au voisinage

4- connexe et 8-connexe.

1.2. Définition d'un champ de Markov

Soit S un ensemble de pixels et une

famille de variables aléatoires, définie sur S, où chaqueest à valeurs dans un ensemble fini de classes Sss XX s X k W W ,.....,1 . Une telle famille sera dans la suite appelée " champ aléatoire ». Soit un système de voisinage V. On notera par la même lettre p les diverses lois de probabilité liées à X [TUP 04]. On dit qu'un champ X est un champ de Markov relativement à V, si et seulement si les deux propriétés suivantes sont vérifiées :

Positivité :

0)(, xpx Scard (1)

Markovianité :

2.

MRF fondamentaux

2.1. Modèle d'Ising et Modèle de Potts

Le modèle d'Ising est caractérisé par un espace de descripteur E= {-1,1}. Le modèle de Potts est caractérisé par un espace de descripteur E= {0, m-1}. Le potentiel des cliques est définit comme suit :

U(x) =- si x

s = x t (3) si x s x t

ȕ: paramètre de régularisation.

2.2. Modèle markovien Gaussien

Ce modèle est caractérisé par un espace de descripteur E= {0,255}. Il est utilisé pour les images en niveau de gris. Ssss tsctststsc

µxxxxxU

2 ),(2 )()(),( (4) Le premier terme correspond aux cliques d'ordre 2, c'est un terme de régularisation, il favorise les faibles différences de niveaux de gris entre sites voisins pour ȕ>0. Le second terme correspond à un terme d'attache aux données dans le cas où on possède une image de données extérieures. 3.

Segmentation

La segmentation est un outil puissant qui aide à la décision. Elle permet de remonter à une réalisation de X (image cachée) à partir de l'observation des données bruitées Y. On parle dans ce contexte de champ de Markov Caché pour X ou de données incomplètes puisque Y n'est pas une réalisation de X. La segmentation d'image par le modèle de Markov Caché nécessite 3 étapes: Modélisation, Estimation et

Classification [BLA 09].

3.1. Modélisation

Permet de choisir le modèle approprié selon le nombre de classe de l'image.

3.2. Estimation

Cette phase est constituée de deux sous étapes: - Estimation du paramètre de régularisation pour la probabilité à priori ȕ en utilisant l'algorithme

Gradient Stochastique (GS).

- Estimation des paramètres de bruit (µ,ı) de l'image observée par l'algorithme Estimation

Maximisation (EM).

3.2.1. Gradient Stochastique

Ce paragraphe décrit toutes les étapes d'estimation du paramètre de régularisation ȕ commençant par une réalisation a priori une autre réalisation est accordée pour la distribution a posteriori et ensuite initialisation de tous les paramètres à estimer. L'estimation avec cet algorithme s'effectue par passage de )0( priori X n 1n - Simulation de à partir de associé à l'énergie )1(n priori X )(n priori X )(xU n - Simulation de à partir de )1(n posteriori X )(n posteriori X ),xP(xs)t,xP(x tstss

Vt (2)

- 2 -

SETIT2009

associé à l'énergie )/()(xyUxU n

Calcul de

1n

à l'itération n+1:

3.2.2. Estimation Maximisation

C'est un algorithme itératif permettant l'estimation des paramètres de la distribution a posteriori. Pour le cas du modèle Gaussien, nous allons estimer la moyenne et la variance pour chaque classe (pour chaque classe on applique une densité Gaussienne).

Répéter

Etape E:

Calculer la probabilité a posteriori ),(

tij yixp

Etape M:

Estimation de Probabilité a priori de chaque classe :

Estimation de la moyenne pour chaque classe :

Estimation de la variance pour chaque classe :

Jusqu'à

1tt QQ

3.3. Classification

Permet de déterminer l'image de classe X à partir

de l'image observée. Après avoir estimé tous les paramètres caractéristiques de l'image observée, on

peut appliquée les différents algorithmes de classification tel que le MAP (Maximum a Posteriori), et MPM (Maximum a Posteriori Marginal), et ICM (Mode itérative conditionné) [BOU 03]. - Maximum a Posteriori (MAP) y)\(max(argxPx - Maximum a Posteriori Marginale (MPM) y)\(max(arg ss xPx 4.

Mise en oeuvre de l'approche statistique

4.1. Image aléatoire

Dans ce paragraphe on va présenter les résultats obtenus par les différents algorithmes.

Gradient Stochastique

Image de classe ȕ=0.45 Image bruitée Figure 2. Allure de la courbe d'estimation de ȕ Après 15 itérations, on atteint la convergence avec une valeur initiale de ȕ=2.

Estimation Maximisation

Pour générer l'image bruitée, on a appliqué une loi normale pour chaque classe. N(0,100) pour le descripteur X=0 N(60,50) pour le descripteur X=1 N(90,100) pour le descripteur X=2 )1(),(),( 111
1 nyxUyxUk nnn nn nn (5) )2)(exp(2log(),(),( 22
s xs tsss

µyxxyxU

(6) n k tjtjjtjtjj tij kxpkxypixpxyp yixp 1 (7) n k tjjm j tjj j ykxpyixp ixp 11 (8) m j tjjm j jtjj i yixpyyixp 11 (9) m j tjjm j ijtjj i yixpµyyixp 11 2 (10) - 3 -

SETIT2009

(a) (b) Figure 3. (a) Image de classe ȕ=4, (b) Image bruitée Class 1 (descriptor X=0): µ=0.89447, ı=95.957 Class 2 (descriptor X=1): µ=49.723, ı=61.602 Class 3 (descriptor X=2): µ=99.74 , ı=87.543

Classification par la méthode MPM

(a) (b) (c) Figure 4. (a) Image de classe ǃ=4, (b) Image bruitée, et (c) Image segmentée. Nous allons présenter les résultats trouvés pour les trois phases de Modélisation, Estimation et Classification sur des images aléatoires avec un nombre de descripteur (classe) m=3. L'image (a) est une image de classe composée de trois descripteurs (3 classes) en utilisant le modèle de Potts, et un paramètre de régularisation (=4). L'image (b) est l'image observée (image bruitée), en utilisant des moyennes et des variances différentes (paramètres de la distribution Gaussienne) pour chaque classe. L'image (c) est l'image segmentée en utilisant l'algorithme MPM pour la classification de pixels. Le tableau Tab 1 contient les valeurs des moyennes et variances (à estimer) dans chaque classe.

Classe 1 Classe 2 Classe 3

Moyenne 0 50 100

Variance 100 60 90

Tab 1. Moyenne et Variance pour chaque classe

Dans le tableau Tab 2, nous avons estimé la valeur de là Moyenne et Variance dans chaque classe à l'aide de l'algorithme EM :

Classe 1 Classe 2 Classe 3

Moyenne 0.20 50.016 100.08

Variance 97.20 61.44 92.615

Tab 2. Moyenne et Variance estimées par l'algorithme La dernière étape de la segmentation c'est la classification. La figure Fig.3. (c) est l'image segmentée obtenu par application de l'algorithme Maximum a Posteriori Marginal (MPM). Donc le modèle de Markov Caché a donné de bons résultats au niveau estimation des paramètres de la distribution Gaussienne (Moyenne et variance), ainsi qu'une bonne reconstruction de l'image cachée a partir de l'image bruitée. On va présenter dans ce paragraphe, les résultats obtenus pour le cas des images code 2D.

4.2. Image code 2D

On va présenter dans ce paragraphe, les résultats obtenus pour le cas des images code 2D. (a) (a) (b) (c) Figure 5. (a) Image de classe, (b) Image bruitée, et (c) Image segmentée - 4 -

SETIT2009

L'image (a) est une image de classe composée de deux descripteurs (2 classes) en utilisant le modèle d'Ising. L'image (b) est l'image observée (image bruitée), en utilisant des moyennes et des variances différentes (paramètres de la distribution Gaussienne) pour chaque classe. L'image (c) est l'image segmentée en utilisant l'algorithme MPM pour la classification de pixels. Le tableau Tab 3 contient les valeurs des moyennes et variances (à estimer) dans chaque classe.

Classe 1 Classe 2

Moyenne 0 50

Variance 100 60

Tab 3. Moyenne et Variance pour chaque classe

Dans le tableau Tab 4, nous avons estimé la valeur de la Moyenne et la Variance dans chaque classe à l'aide de l'algorithme EM :

Classe 1 Classe 2

Moyenne 0.114 50.095

Variance 98.762 60.625

Tab4. Moyenne et Variance estimées par l'algorithme

Estimation Maximisation (EM)

Pour les images Code 2D, nous avons obtenu de bons résultats de segmentation qui sont semblables à ceux trouvés dans le cas des images aléatoires. 5.

Conclusion

Les résultats de simulation ont bien montré

l'efficacité du modèle de Markov Caché pour l'étape d'estimation et l'étape de classification. Les images ainsi segmentées permettent de donner une bonne idée sur les images cachées (image originale), avec un nombre de pixels mal classés qui est très faible par apport au nombre total de pixels. Donc le Modèle de Markov Caché s'adapte bien avec les images code 2D. Notre travail devrait être étendu vers l'étude des autres modèles de Markov (Modèle de Markov Couple (CMCouple) et Modèle de Markov Triple (CMT) qui présentent un aspect plus général que celui du modèle de Markov Caché surtout lorsque nous utilisons des images présentant des textures.

RÉFÉRENCES

[ABD 01] N.Abdelmaksoud, " Segmentation des images satellitaires par approche contour » : JTEA'06, Hammamet,

Tunisie.

[BEN 02] D.Benboudjema, " Champs de Markov Triplets et Segmentation Bayesienne non Supervisée d'image » : Thèse,

INT, France, 2005.

[BLA 09] J. Blanchet, " Modèles Markoviens et extensions pour la classification de données complexes ». [BOU 03] N.Bouhlel, " Segmentation bayésienne par approche markovienne

», cours Université René Descartes.

[TUP 04] F.Tupin, " Introduction aux champs de Markov »,

Telecom Paris.

- 5 -quotesdbs_dbs25.pdfusesText_31
[PDF] Champs de Markov en Vision par Ordinateur

[PDF] champs de responsabilité

[PDF] Champs électriques et magnétiques - Tir À L'Arc

[PDF] Champs électromagnétiques

[PDF] Champs éleCtromagnétiques - Portail Santé Environnement Travail - Le Style Et La Mode

[PDF] Champs éleCtromagnétiques - SBSSA - Le Style Et La Mode

[PDF] Champs électromagnétiques : la nouvelle directive européenne - Tir À L'Arc

[PDF] Champs électromagnétiques : Qui dort dine ?

[PDF] Champs électromagnétiques et santé - Linux - Électricité

[PDF] Champs électromagnétiques et téléphonie mobile - Tir À L'Arc

[PDF] Champs Elysées / Arc de triomphe | Hôtel West End | Hôtel Luxe

[PDF] Champs Elysées. J`me baladais Sur l`avenue, Le cœur ouvert à l

[PDF] Champs et forces avec F: force d`attraction exerc ée par la Terre sur l - Tir À L'Arc

[PDF] Champs magnétiques et radiofréquences - Tir À L'Arc

[PDF] Champs magnétiques et sécurité du travail - Tir À L'Arc