[PDF] Chaînes de Markov (et applications)





Previous PDF Next PDF



Chaînes de Markov

Une chaîne de Markov est un processus aléatoire (Xn)n2N Une chaîne de Markov finie est dite apériodique si la période de sa matrice de transition est 1.



CHAÎNES DE MARKOV

A toute matrice de transition on peut associer un graphe dirigé



Chaînes de Markov.

Si Pn(xy) = P(Xn+1 = y



Xn = x) ne dépend pas de n

la matrice P obtenue est stochastique. A. Popier (ENSAI).



Cours de Tronc Commun Scientifique Recherche Opérationnelle

Conséquence 2 : d`es que le graphe d'une cha?ne de Markov irréductible a une boucle sur un sommet alors la cha?ne est apériodique. 13/26. Châ?nes de Markov. F.



Chaînes de Markov et Processus markoviens de sauts. Applications

Théorème 7 Soit (Xn)n?N une chaîne de Markov de matrice de transition P irréductible récurrente positive apériodique. Soit ? la probabilité invariante.



Chaînes de Markov

chaînes de Markov irréductibles et apériodiques. Exercice 70 Reprendre tous les exemples de noyaux de transition vus précédemment et étudier leur période.



1 Définition

Dans le cas où il y a plusieurs classes fermées se pose la question de savoir dans quelle classe la chaîne de Markov va ultimement être « bloquée ». Définition.



Chaînes de Markov (et applications)

22 févr. 2021 En particulier étant donné Q une matrice stochastique



3 Mesures invariantes

Fin du cours sur les chaînes de Markov. 3 Mesures invariantes. Dans toute cette partie on supposera a priori la chaîne de Markov (Xn)n?0 irréductible.



Classification des états de la Chaîne de Markov Classification des

ergodiques. ? Pour toute chaîne de Markov irréductible et ergodique il existe une distribution stationnaire dont la distribution de ses états.



[PDF] CHAÎNES DE MARKOV - Institut de Mathématiques de Bordeaux

Soit Xn est une chaîne de Markov de matrice de transition P Une chaîne apériodique est une chaîne de dont tous les états sont apériodiques



[PDF] Chaînes de Markov

Une chaîne de Markov finie est dite apériodique si la période de sa matrice de transition est 1 On peut montrer que si la période d'une matrice 



[PDF] CHAÎNES DE MARKOV - ceremade

CHAÎNES DE MARKOV Spécialité : INGENIEUR 1ère année Béatrice de Tilière La partie “Rappels de probabilités” est basée sur des notes écrites en 



[PDF] Chaînes de Markov (et applications)

22 fév 2021 · On appelle graphe d'une chaîne de Markov (ou d'une matrice de transition ) le graphe dont les sommets sont les états possibles et étant donné x 



[PDF] Chapitre 8 Chaˆ?nes de Markov - DI ENS

Si d = 1 la matrice de transition et la cha?ne sont dites apériodiques Théor`eme 8 1 10 Soit P une matrice stochastique irréductible de période d Alors



[PDF] Chaînes de Markov - Institut Camille Jordan

chaînes de Markov irréductibles et apériodiques Exercice 70 Reprendre tous les exemples de noyaux de transition vus précédemment et étudier leur période



[PDF] Introduction aux chaines de Markov - CERMICS

Soit P une matrice stochastique sur E Une suite de variables aléatoires (Xnn ? N) `a valeurs dans E est appelée cha?ne de Markov de matrice de transition P 



[PDF] Chaînes de Markov

On notera (?A P?) l'espace probabilisé adapté à la chaîne de Markov homo- gène de matrice de transition P donnée et de loi initiale ? (? probabilité donnée



[PDF] Chaînes de Markov

Si Pn(xy) = P(Xn+1 = yXn = x) ne dépend pas de n on parle de chaîne de Markov homogène Dans ce cas la matrice P obtenue est stochastique A Popier (ENSAI)



[PDF] Les cha?nes de Markov - Loria

Pr(Xn+1 = jXn = i) = pn(i j) est la probabilité de transition de l'etat i `a l'etat j Remarque : on ne considérera que des cha?nes homog`enes i e telles 

  • Quel est le principe Sous-jacent de la technique des chaines de Markov ?

    Si une chaîne de Markov est irréductible et si son espace d'états est fini, tous ses états sont récurrents positifs. La loi forte des grands nombres est alors en vigueur. Plus généralement, tous les éléments d'une classe finale finie sont récurrents positifs, que l'espace d'états soit fini ou bien infini dénombrable.
  • C'est quoi une chaîne de Markov ergodique ?

    est indépendant de l'état de départ. Pour les chaînes ergodiques, on demande simplement que tout état soit atteignable depuis tout autre, mais le nombre de pas n'est pas nécessairement fixé.
  • Comment calculer la période d'une chaîne de Markov ?

    Cela conduit au calcul suivant : P(X2 = s/X0 = m) = P(X2 = s/X1 = m) · P(X1 = m/X0 = m) + P(X2 = s/X1 = s) · P(X1 = s/X0 = m) = 0,15 · 0,0,55 + 0,15 · 0,1=0,0975. La cha?ne n'est pas périodique comme on peut le voir facilement sur son diagramme en points et fl`eches.
  • = P(Xn+1 = yXn = xn). Cette preuve permet de montrer rigoureusement que la marche aléatoire sur Zd est bien une chaîne de Markov. Dans le monde déterministe, cela revient à étudier les suites (xn)n?0 définies par ré- currence de la manière suivante : xn+1 = f(xn,n).

Chapitre2

ChaînesdeMarkov

Résumé.Unechaînede Markovestunpro cessusaléatoire(X n n!N dont lestransitio nssontdonnéesparune matricestochastiqueP(X n ,X n+1 Cesproc essusvérifientlapropriétéde Markov,c'est-à-direqu'ob servés

àpartird'untemps(d'arrêt)T,(X

T+n n!N nedépend quedeX T etest denouv eauunechaînedeMarkov. Lesétatsd 'unechaînedeMarkov peuventêtreclassése ndeuxcatégo ries:lesétatstr ansitoires,quine sontvisitésqu'unnombre finidefois p.s.,etles étatsr écurrents,quiune foisatteints sontvisités p.s.uneinfinitédefois, ainsiquetouslesautres étatsdanslamême classederéc urrenc e.Pourunecha înedeMarkov irréductiblerécu rrente,lamesureempiriqueetlaloima rgina ledupro - cessusconv ergentsoitversl'uniquemesuredeprobabilitéP-invariante (récurrencepositive),soit verslevecteur nul(récurrencenulle).Cette théories'appliqueen particulierauxmarchesaléatoiresetau xmodèles defilesd'attente. Danscequis uit,onfixeune spac ed'étatsXfiniou dénombrable,muni delatribude l'ensembledesparties P(X).SiXestfini,on noteraNsonnombre d'éléments.

1.Ma tricesstochastiqueset propriétédeMarkov

1.1.Cha înesdeMarkov.UnematricestochastiquesurXestunefonction P:

(x,y)!X"#P(x,y)![0,1]telleque,p ourto utx!X, y!X

P(x,y)=1.

Autrementdit,tout x!Xdéfinitunemesure de probabilité P(x,·)surX,appelée probabilitédetransitionàpartirdex. Définition2.1(Chaîne deMarkov).Unechaîne deMar kovsur Xdematric ede transitionPestune suitedevariablesaléatoir es(X n n!N définiessurun espace (!,B,P) età valeursdans X,tellequepourtoutn,ettouspointsx 0 ,...,x n+1 P[X n+1 =x n+1 |X 0 =x 0 ,...,X n =x n ]=P(x n ,x n+1

Ainsi,lalo iconditio nnelleP

X n+1 |(X 0 ,...,Xn) estlaprobabilité detransitio nP(X n ,·).Il estutiled ereprésenter lesmesuresdeprobabilité "surXpardesvecteursen ligne ("(x 1 ),"(x 2 ),...,"(x k ),...).Alors,si" 0 estlaloi deX 0 ,quipeutêtrearbitraire,ona P[(X 0 ,X 1 ,...,X n )=(x 0 ,x 1 ,...,x n )]="(x 0 )P(x 0 ,x 1 )···P(x n"1 ,x n 7

82. CHAÎNE SDEMARKOV

parconditionneme ntsuccessif,desortequ'enparticulierlaloi" n deX n estdonnée par leproduit matriciel" n 0 P n .D'unpo intdevuedual,sifestunefonction bornéesur

X,vuecommeunvecteurcolonne,alors

E[f(X n+1 )|X 0 =x 0 ,...,X n =x n ]=(Pf)(x n E[f(X n n f=" 0 P n f. Notonsquelesproduitsmatriciels considérésso ntlicites mêmelorsquel'espace d'états estinfinidénom brable,puisqu'ona desbonnesbornessur lessommesde coe cientssur chaquelignedelam atricedetransi tion. Exemple.Onrepr ésenteusuellementunechaînedeMa rkovd'espaced'étatsXpar ungra pheorientéétiquetéG=(V,E)dontlessommetssont leséléments deX,etdont lesarê tesétiquetéessontlescouples (x,y)avecP(x,y)>0,lavaleurdelaprobabilité detransitio nétantl'étiquettedel'arêtex#y.Con sidéronsparexemplelachaînede Markovd'espaced' états[[1,N]],etdematricedetransition P= 1 3 111
11 .11 111
1 31
3 1 3 9 Leg rapheassociéestdessinéci-dessus, etlachaîneconsidéréeestl amarc hea léatoire surlecercle Z/NZoù,àchaq ueét ape,onaprobabilité1/3derestera umêmeendro it,et probabilité1/3desauter àgaucheo uàdro ite.Lesloismarginalesdecettec haînepeuvent êtrecalculéesco mmesuit.P ourtoutvecteurv!(C) Z/NZ ,notons

ˆv(k)=

1 N N j=1 v(j)# jk satransforméede Fourier discrète, avec#=e 2i!/N .D'autrepart,notonsC N lamatrice circulante C N 01 0 .1 10 ;P= I+C N +(C N "1 3

Pourtoutve cteurv,

(vC N )(k)=# k N parla transforméedeFourierdiscrètea gitdia gonalement,avec valeurs propres#,# 2 N .Il s'ensuitquesi Destlamat rice diagonale

D=diag

1+2cos

2! N 3

1+2cos

4! N 3

1+2cos

2N! N 3

1.MATR ICESSTOCHASTIQUESETPROP RIÉTÉDEMARKOV9

alorspourtout emesureiniti ale" 0 ,ona n 0 P n 0 D n où+·indiquelatra nsforméede Fourierinverse: +v(l)= 1 N N k=1 v(k)# "kl

Enpa rticulier,commeD

n pourtoutem esureinitiale" 0 ,laloimarginale" n convergeverslevecteur( 1 N 1 N C'estuncaspa rticul ierdesthé orèmesergodiquesquiserontévoqués auparagr aphe3.

Onpeu tmontrerqu epourtoutemesureinit iale"

0 surX,ettoutematricedetransition P,i lexist ee"ectivementunechaînedeMarkovave ccetteme sureinitialeetcett ematr ice detransitio n.OnnoteraP 0 etE 0 lesproba bilitésetespérancesrelativesà cettecha îne deMarko v,etdanslecasparti culie roù" 0 x estconcentrée enunseulpoint x!X, onnot eraP x etE x .Ces probab ilitésportentsurl'espacedestrajecto ires (X N ,P(X) #N munidelat ribupr oduit, etsurcetespace ,onaunicitéenloistraject oriel lesd'unech aîne deMark ovdeloiinitiale etmatr icedetra nsitiondonnées:laloiP 0 estentièremen tdé- terminéepar l'équation(!!).Cette propriété(!!)assurequelestransitionsd'unechaîne deMarko vautempsnsonthomogènesen temps(Pnedép endpasden),etne dépendent quedel'éta tprésen t,c'est-à-direque laloiconditionnellede X n+1 sachanttoutelatra- jectoire(X 0 ,...,X n )nedépend enfaitquede X n .Unereformulationdecesobservations estdonnée parlapropriétédeMarkov:

Proposition2.2.Si(X

n n!N estunechaîne deMarkov deloiP 0 ,alorspourtout m+n n!N estaussi unechaînede Markov, deloiP !m m indépendantede (X 0 ,...,X m"1 Ene et,onpeu tcalcu lerlesloist rajectoriellesdelachaîne deMarkovd écalée: P[X m =y 0 ,X m+1 =y 1 ,...,X m+n =y n x 0 ,x 1 ,...,x m!1 P[X 0 =x 0 ,...,X m"1 =x m"1 ,X m =y 0 ,...,X m+n =y n x 0 ,x 1 ,...,x m!1 0 (x 0 )P(x 0 ,x 1 )···P(x m"1 ,y 0 )P(y 0 ,y 1 )···P(y n"1 ,y n 0 P m )(y 0 )P(y 0 ,y 1 )···P(y n"1 ,y n m (y 0 )P(y 0 ,y 1 )···P(y n"1 ,y n etceson tbiencelles d'unechaînedematrice Petdemesure initiale" m

102.CH AÎNESD EMARKOV

1.2.Temp sd'arrêtetpropriétéd eMarkovforte.Unegénéra lisationdece

principeàdestempsa léatoires metenjeu lanotio ndetempsd'arrêt,ellemêmedépendant delano tionde filtrationd'espace.Soit(!,B,P)unespace deprobabilité; unefiltration decetespa ceestune suitecroissantede sous-trib us F 0 F 1 Fquotesdbs_dbs22.pdfusesText_28
[PDF] chaine de markov apériodique exemple

[PDF] chaine de markov reversible

[PDF] chaine de markov récurrente

[PDF] chaine de markov exemple

[PDF] chaine de markov irreductible exemple

[PDF] chaine de markov exercice corrigé

[PDF] chaine énergétique barrage hydraulique

[PDF] chaine énergétique d'une éolienne

[PDF] exercice corrigé centrale hydraulique

[PDF] chaine énergétique centrale thermique

[PDF] chaine énergétique pile

[PDF] chaine énergétique exercices

[PDF] chaine énergétique éolienne

[PDF] chaine énergétique panneau solaire

[PDF] chaine energetique definition