[PDF] IFT-3655 Modèles Stochastiques orange Chaînes de Markov en





Previous PDF Next PDF



CHAÎNES DE MARKOV

Les chaînes de Markov constituent un des exemples les plus Soit P la matrice d'une chaîne de Markov à espace d'états finis irréductible et apériodique.



Chaînes de Markov

Exemple. La marche aléatoire sur Z/NZ est récurrente irréductible. Plus généra- lement toute chaîne de Markov finie dont le graphe orienté est connexe est 



Chapitre 2 - Chaines de Markov : compléments

Ainsi l'exemple de la chaıne {h



Chapitre I - Introduction aux chaines de Markov

Montrer que Y = (Ynn ∈ N∗) est une chaıne de Markov `a valeurs dans E2. Donner sa matrice de transition





Chaînes de Markov (et applications)

Feb 22 2021 Mesure d'occupation a) Donner un exemple de graphe non-apériodique. b) On suppose le graphe apériodique. Soit x un point du graphe. Montrer ...



Chaînes de Markov : théorie et applications

loi initiale de la chaîne de Markov (par exemple δx1 ) on a. C. ∑ i=1. Vxi Une chaîne de Markov irréductible est dite apériodique si sa période est h = 1 ...



chaines-Markov.pdf

Ici tous les états communiquent. La chaˆıne est irréductible. Exemple. P =



Classification des états dune chaîne de Markov

Par exemple s'il existe un état absorbant (fermé)



3 Mesures invariantes

positive (on le savait : chaîne finie irréductible) et par exemple



Chapitre 2 - Chaines de Markov : compléments

Ainsi l'exemple de la cha?ne {h



IFT-3655 Modèles Stochastiques orange Chaînes de Markov en

Ici tous les états communiquent. La chaˆ?ne est irréductible. Exemple. P =



Chaînes de Markov et Processus markoviens de sauts. Applications

Exemple 2 (Modèle de diffusion d'Ehrenfest) On réparti N particules dans deux com- Définition 7 Une chaîne de Markov est dite irréductible si E est ...



CHAÎNES DE MARKOV

Exemple 0. La marche aléatoire sur Z est irréductible (tous les états communiquent). Exemple 1. Considérons la chaîne de Markov dont l'ensemble des états 



Chaînes de Markov.

Soit (Xn)n?N une chaîne de Markov de matrice de transition P irréductible récurrente. Alors il existe une mesure ? strictement positive invariante



Classification des états de la Chaîne de Markov Classification des

Classification des états de la Chaîne de. Markov. Exemple: Le processus est irréductible est ergodique et donc il admet une distribution stationnaire.



Cours de Tronc Commun Scientifique Recherche Opérationnelle

valuation de l'arête i ? j : pij . Une cha?ne de Markov peut être vue comme une marche aleatoire sur G



Chaînes de Markov

irréductible récurrente la mesure empirique et la loi marginale du pro- Exemple. On représente usuellement une chaîne de Markov d'espace d'états X par.



Chapitre I - Introduction aux chaines de Markov

de Wright-Fisher voir l'exemple I.1.35 n'est pas irréductible. Exercice I.3. Soit X = (Xn



3 Mesures invariantes

En particulier une chaîne de Markov finie irréductible admet toujours une mesure exemple



[PDF] Chaines de Markov : compléments

Une cha?ne de Markov est dite irréductible lorsque tous ses états communiquent c'est-`a-dire lorsque pour toute paire d'états (xixj) la probabilité d'aller 



[PDF] CHAÎNES DE MARKOV - Institut de Mathématiques de Bordeaux

Les chaînes de Markov constituent un des exemples les plus simples de suites de La marche aléatoire sur Z est irréductible (tous les états communiquent)



[PDF] CHAÎNES DE MARKOV - ceremade

5 3 4 Graphe associé à une chaîne de Markov homogène Le but de la théorie des probabilités est de fournir un modèle mathématique pour décrire les



[PDF] Chaînes de Markov

Exemple La marche aléatoire sur Z/NZ est récurrente irréductible Plus généra- lement toute chaîne de Markov finie dont le graphe orienté est connexe est 



[PDF] Chapitre 8 Chaˆ?nes de Markov - DI ENS

Définition 8 1 6 S'il n'y a qu'une seule classe de communication la cha?ne sa matrice de transition et son graphe de transition sont dits irréductibles Page 



[PDF] Chaînes de Markov (et applications)

22 fév 2021 · Exemples et définitions Idée : Une chaîne de Markov est une suite de variables aléatoires dans le temps ou conditionnel-



[PDF] Les cha?nes de Markov - Loria

Une cha?ne de Markov est irréductible si chaque état est accessible `a partir de chaque autre état Autrement dit G est fortement connexe Sinon elle est dite 



[PDF] Introduction aux chaines de Markov - CERMICS

1 4 et la cha?ne de Markov de l'urne d'Ehrenfest de l'exemple I 1 38 sont irréductibles Une cha?ne possédant des états absorbants n'est pas irréductible (sauf 



[PDF] chaines-Markovpdf - Université de Montréal

La chaˆ?ne est irreductible si tous les états communiquent (une seule classe d'équivalence) On peut représenter une chaˆ?ne de Markov `a espace d'états 



[PDF] Chaînes de Markov - Institut Camille Jordan

Un exemple canonique de marche aléatoire sur un groupe est la marche aléatoire On peut donc parler d'une chaîne de Markov irréductible sur un ensemble S 

  • Comment montrer qu'une chaîne de Markov est irréductible ?

    Une chaîne de Markov est dite irréductible si K(x, y) > 0 pour tout couple x, y. Dans ce cas, soit la chaîne consiste en une seule classe d'états récurrents, soit la chaîne consiste seulement en états tous transitoires.
  • Comment calculer la période d'une chaîne de Markov ?

    Cela conduit au calcul suivant : P(X2 = s/X0 = m) = P(X2 = s/X1 = m) · P(X1 = m/X0 = m) + P(X2 = s/X1 = s) · P(X1 = s/X0 = m) = 0,15 · 0,0,55 + 0,15 · 0,1=0,0975. La cha?ne n'est pas périodique comme on peut le voir facilement sur son diagramme en points et fl`eches.
  • Comment montrer qu'une suite est une chaîne de Markov ?

    = P(Xn+1 = yXn = xn). Cette preuve permet de montrer rigoureusement que la marche aléatoire sur Zd est bien une chaîne de Markov. Dans le monde déterministe, cela revient à étudier les suites (xn)n?0 définies par ré- currence de la manière suivante : xn+1 = f(xn,n).
  • est indépendant de l'état de départ. Pour les chaînes ergodiques, on demande simplement que tout état soit atteignable depuis tout autre, mais le nombre de pas n'est pas nécessairement fixé.

Draft1

IFT-3655, Modeles Stochastiques

Cha^nes de Markov en temps discret

Prof. Pierre L'Ecuyer

DIRO, Universite de Montreal

Ces \diapos" sont surtout un support pour les presentations en classe. Elles ne contiennent pas toutes les explications detaillees. Pour cela il est recommande d'etudier le livre recommande, de Sheldon Ross.

Draft2

Cha^ne de Markov en temps discret

On considere un processus stochastique en

temps discret fXn;n= 0;1;2;:::gdont l'espace d'etatsX(l'ensemble de tous les etats possibles) est denombrable. On va habituellement numeroter les etats par des entiers non negatifs, et ainsi supposer queX=f0;1;:::;rg (ni) ouX=f0;1;2;:::g(inni).Ce processus est unec ha^nede Ma rkovhomog enesi P[Xn+1=jjXn=i;Xn1=in1;:::;X1=i1;X0=i0] =P[Xn+1=jjXn=i] =Pi;j: En d'autres mots, la loi de probabilite du prochain etatXn+1conditionnellement a

l'histoire passee ne depend que de l'etat actuelXnet ne depend pas den.LesPi;jsont lesp robabilitesde tran sitionde la cha ^ne.

L'adjectif

homog ene veut dire que ces p robabilitesn ed ependentpas de n.

Draft3

LesPi;jdoivent necessairement satisfaire:

P i;j0 for alli;j;1X j=1P i;j= 1 for alli:

Ils sont les elements de la

matrice de transition P=0 B BB@P

0;0P0;1P0;2

P

1;0P1;1P1;2

P

2;0P2;1P2;2

.........1 C CCA

Draft4

Exemple.Deux etats possibles: \il pleut" (0) et \il ne pleut pas" (1). Le temps est en jours. =P[pluie demainjpluie aujourd'hui],=P[pluie demainjpas de pluie aujourd'hui]. On a P=1

1Exemple.Marche aleatoiresur les entiers:

P i;i+1=p= 1Pi;i1;pouri2Z:Modele de parieur: Comme ci-haut maisP0;0=PN;N= 1 pour unN>0. X nrepresente la fortune du joueur a l'etapen. QuandXn= 0, il est ruine; quandXn=N, il s'arr^ete de jouer.

Draft5

Risque d'assurance d'un client: modele Bonus-Malus Dans ce modele,Xnrepresente le risque d'un client pour une cie d'assurance, en fonction de son historique d'accidents. L'idee est de denir un nombre ni de cat egoriesde risque , et une cha^ne de Markov dont les etats sont ces categories. Un client dans l'etatiqui akaccidents durant l'annee passera a l'etatsi(k), ou lessi(k) sont species a l'avance. Par exemple, on pourrait avoirsi(k) =i+kI[k= 0] , ou bien s

i(k) =i+ 2kI[k= 0], ou une fonction plus complexe.On suppose que le nombreYd'accidents par un client durant une annee estPoisson(), ou

le parametre=cpeut dependre du client et ^etre inconnu. Si le client est dans l'etati, il auraY=kaccidents avec probabiliteek=k!, et sa probabilite de passer a l'etatjest P i;j=X fk:si(k)=jge k=k! Il y a dierentes facons d'utiliser ce modele. Idealement, on voudrait pouvoir \apprendre"c et la loi des montants de reclamations, pour chaque client, en fonction de son historique.

Draft6

Equation de Chapman-Kolmogorov

Soit P(n) i;j=P[Xn=jjX0=i]; la probabilite de passer deiajen exactementnetapes.Equation de Chapman-Kolmogorov: P (n+m) i;j=1X k=0P[Xn+m=jjXn=k]P[Xn=kjX0=i] =1X k=0P(n) i;kP(m) k;j En notation matricielle, siP(n)est la matrice contenant lesP(n) i;j, cela donne P (n+m)=P(n)P(m): En particulier,P(2)=PP, et par induction surn, on aP(n)=P(n1)P=Pn. Similaire aux matrices donnant les nombres de chemins de longueurnentre chaque paire de sommets dans un graphe.

Draft7

Exemple.Dans l'exemple de \pluie" vs \non pluie", supposons que= 0:7 et= 0:4, de sorte que P=1 1 =0:7 0:3

0:4 0:6

les probabilites de transition en deux jours et en 4 jours sont: P

2=0:61 0:39

0:52 0:48

;P4=0:5749 0:4251

0:5668 0:4332

Que se passe-t-il avecPnquandn! 1?On a

lim n!1Pn=4=7 3=7

4=7 3=7

Les lignes sont identiques et donnent les

p robabiliteslimites des deux etats.

Interpretation.

Draft8

Exemple.On dispose de balles rouges et de balles bleues, et d'une urne qui contient 2 balles.A chaque etape, on tire une balle de l'urne et on la remplace par une balle de la m^eme couleur avec probabilite 0.8 et de l'autre couleur avec probabilite 0.2. On denit une cha^ne ouXnest lenomb rede balles rouges dans l'ur ne al' etapen. L'espace d'etats est f0;1;2get la matrice des probabilites de transition est P=0 @0:8 0:2 0

0:1 0:8 0:1

0 0:2 0:81

A SiX0= 2 (2 balles rouges au depart), alors lap remiereballe tir eeest certainement rouge. Soitbnla probabilite que la (n+ 1)-ieme balle tiree est rouge. On aura b n= 1P[Xn= 2jX0= 2] + (1=2)P[Xn= 1jX0= 2] =P(n)

2;2+P(n)

2;1=2:Par exemple, en calculantP4et on trouveP(4)

2;2= 0:4872 etP(4)

2;1= 0:4352, ce qui donne

b

4= 0:4872 + 0:4352=2 = 0:7048.Que se passe-t-ilquand n! 1? On peut montrer quePnconverge vers une matrice dont

les 3 lignes sont (1=4;1=2;1=4), et quebn!1=2, ce qui correspond a l'intuition.

Draft9

Exemple 4.11 du livre: Encore le probleme du collectionneur de capsules. Il y aktypes de capsules.A chaque etape on tire une capsule, avecp robabilite1 =kpour chaque type. SoitXnle nombre de types que l'on a apresntirages. Les probabilites de transition sontP0;1= 1,Pk;k= 1, P i;i=i=k= 1Pi;i+1pouriPest une matrice (k+ 1)(k+ 1). La probabilite d'avoir exactementjtypes apresntirages estP(n) 0;j. La probabilite d'avoir une collection complete apresntirages estP(n)

0;k.Et si les probabilites ne sontpas toutes 1 =k?Le modele aveck+ 1 etats ne tient plus.

L'etat doit indiquer quelles capsules il nous manque! Donc 2 ketats possibles.Et si on veut \apprendre" ces probabilites a partir d'observations?

Draft10

Cha^nes avec etats absorbants ou tabousParfois, pour une cha^ne de Markov, on a un sous-ensemble d'etatsA X et on s'interesse a

un evenement qui depend deN= inffn1 :Xn2 Ag, l'instant de la premiere visite aA, ou

du premier retour aAsi on y est deja. SiXnn'atteint jamaisA, on aN=1.On peut vouloir calculer par exemple

=P[NmjX0=i]: Dans ce genre de situation, on peut reduire la taille de la cha^ne en fusionnant tous les etats deAen un seul etat absorbant, disons . Quand la cha^ne atteint cet etat, elle y reste.

La nouvelle cha^nefWn;n0gest denie par

W n=XnpournOn obtient=P[NmjX0=i] =P[Wm= jW0=i] =Q(m) i;.

Draft11

Exemple:On tire a pile ou face et on s'interesse a laloi de p robabilitede N, le nombre de tirages requis pour avoirsfaces d'alee. SoitXnle nombre de faces de suite que l'on vient d'obtenir rendu a l'etapensi on a face a cette etape, etXn= 0 si on a pile.

On pose ensuiteA=fsg, = s, etN= inffn1 :Xn2 Ag.

AinsiWn=Xnavant d'avoir atteints, et par la suiteWn=s= (le cimetiere).Par exemple, pours= 3, lesQi;jsont donnes par

Q=0 B

B@1=2 1=2 0 0

1=2 0 1=2 0

1=2 0 0 1=2

0 0 0 11

C CA:

Pour chaquen>0, l'elementQ(n)

0;sde la matriceQndonne la valeur deP(Nn).

On peut ainsi calculer toute la distribution deN.

Draft12

Contraintes sur les trajectoires

Sii;j62 A, la probabilite queXm=jet que la cha^ne n'ait pas visite l'ensembleAjusqu'a l'etapems'ecrit =P[Xm=j;N>m1jX0=i]: Pour calculer, il sut de construireQet la cha^nefWn;n0gcomme ci-haut.

L'elementQ(m)

i;jdonne la probabilitecherchee.Pour le cas ouj2 A, voir Ross (2014), page 193.

Draft13

Classication des etats

On dit qu'un etatjestacces siblede l' etatis'il existe unn0 tel quep(n) ij>0. Cela veut dire que si on est dans l'etati, la probabilite d'atteindrejeventuellement n'est pas nulle.

Notez queiest toujours accessible dei.

Deux etatsietjcommuniquentsi chacun est acce ssiblede l'autre. On note cela i$j.

La communication est une

relation d' equivalence : c'est re exif et symetrique (decoule directement de la denition), et aussi transitif (decoule de l'equation de

Chapman-Kolmogorov).

Les classes d'equivalence forment une

pa rtition de l'espace d' etatsX.

On les appelle les

classes de communication

La cha^ne est

irreductible

si tous les etatscommuniquent (une se uleclasse d' equivalence).On peut representer une cha^ne de Markov a espace d'etats discret par un graphe oriente.

Les etats sont les

sommets , les transitions de probabilite positive sont les a rcs , et on peut aller deiajennetapes s'il y a un chemin deiajde longueurn.

Draft14

Exemple.

P=0 @1=2 1=2 0

1=2 1=4 1=4

0 1=3 2=31

A0121/2

1/21/4

1/31/21/42/3

Ici, tous les etats communiquent. La cha^ne est irreductible.

Exemple.

P=0 B

B@1=2 1=2 0 0

1=2 1=2 0 0

1=4 1=4 1=4 1=4

0 0 0 11

C

CA:01231/21/21/41

1/2 1/2

1/41/41/4

Ici, on a trois classes:f0;1g,f2g, etf3g. L'etat 2 esttransitoire et l' etat3 est abso rbant.

Draft15

Etats recurrents et transitoires

Pour chaque etati, soitfila probabilite que si on part dei, on va y revenir ulterieurement. L'etatiest ditr ecurrentsi fi= 1 (on est certain d'y revenir) ettransitoire si fi<1.

Voir les exemples.Sifi= 1, le processus va revenir aiavec probabilite 1, puis va y revenir encore une fois avec

probabilite 1, et ainsi de suite. La cha^ne va donc revenir aiune innite de fois, et le nombre espere de visites aiest necessairement inni.

Par contre,

si fi<1, a chaque passage ai, la cha^ne va y revenir avec probabilitefi<1, et n'y reviendra plus jamais avec probabilite 1fi. Le nombre de retours aiest donc dans ce cas une v.a. geometrique de parametrep= 1fi, dont l'esperance est (1p)=p<1 (ici, chaque retour correspond a un \echec"). Donc sifi<1, le nombre de visites a l'etatiest ni avec probabilite 1, et le nombre espere de visites aiest ni.

Draft16

SoitMi=P1

n=1I[Xn=i] le nombre de retours a l'etati, en supposant queX0=i.

On afi= 1 ssiE[MijX0=i] =1. Mais

E[MijX0=i] =1X

n=1E[I(Xn=i)jX0=i] =1X n=1P[Xn=ijX0=i] =1X n=1P(n)quotesdbs_dbs13.pdfusesText_19
[PDF] chaine de markov exercice corrigé

[PDF] chaine énergétique barrage hydraulique

[PDF] chaine énergétique d'une éolienne

[PDF] exercice corrigé centrale hydraulique

[PDF] chaine énergétique centrale thermique

[PDF] chaine énergétique pile

[PDF] chaine énergétique exercices

[PDF] chaine énergétique éolienne

[PDF] chaine énergétique panneau solaire

[PDF] chaine energetique definition

[PDF] chaine énergétique exemple

[PDF] cours de logistique de distribution pdf

[PDF] introduction logistique

[PDF] cours management de la chaine logistique pdf

[PDF] logistique et supply chain management