[PDF] [PDF] Quelques révisions Définition des chaînes de Markov, usage en

Donner une expression similaire pour la variance de S Définition des chaînes de Markov, usage en modélisation Exercice 4 – Lancers de dés On considère les 



Previous PDF Next PDF





[PDF] CHAÎNES DE MARKOV - Institut de Mathématiques de Bordeaux

Soit Xn est une chaîne de Markov de matrice de transition P, et soit ν0 la loi de X0 Alors la tout ce chapitre peuvent être résumés dans le théorème suivant :



[PDF] Chaînes de Markov une introduction - De lanalyse de texte à la

De l'analyse de texte `a la physique des particules Jean-Marc est une chaˆıne de Markov de loi initiale π(0) ssi est une chaıne de Markov homog`ene ssi



[PDF] Chaînes de Markov (et applications)

22 fév 2021 · Soit Q la matrice de transition d'une chaîne de Markov homogène Markov lui- même a analysé la succession de voyelles et de consonnes 



[PDF] Introduction aux chaines de Markov - CERMICS

Une chaıne de Markov est une suite de variables aléatoires (Xn,n ∈ N) qui permet de modéliser `a valeurs dans E est appelée chaıne de Markov de matrice de transition P si pour tous n Probabilités, Statistique et Analyse des Données



[PDF] Quelques révisions Définition des chaînes de Markov, usage en

Donner une expression similaire pour la variance de S Définition des chaînes de Markov, usage en modélisation Exercice 4 – Lancers de dés On considère les 



[PDF] Chaînes de Markov et Processus markoviens de sauts Applications

La probabilité µ est appelé loi initiale de la chaîne et la matrice P matrice de transition Proposition 1 (Xn)n≥0 est une chaîne de Markov si et seulement si ∀ n 



[PDF] Chaînes de Markov - DI ENS

fait, les chaınes de Markov sont des processus stochastiques dont l'évolution est régie par une Au lieu de calculer seulement u(a), l'analyse `a un pas calcule



[PDF] Chaînes de Markov - Institut Camille Jordan

1 7 2 Chaîne de Markov en temps continu et espace discret 27 résumer ainsi : lorsque la chaîne est dans l'état x, au cours d'un intervalle de temps



[PDF] Fiche résumée du cours de Processus de Markov, par IKourkova 1

Fiche résumée du cours de Processus de Markov, par I Kourkova 1 Chaînes de Markov à temps continu sur un espace dénombrable 1 1 loi exponentielle

[PDF] chaine de markov matrice de transition

[PDF] exercice corrigé chaine de markov a etat absorbante

[PDF] chaine d'acquisition de données

[PDF] chaine de mesure audioprothèse

[PDF] acquisition de données du capteur ? l ordinateur

[PDF] chaine de mesure pdf

[PDF] chaine d'acquisition capteur

[PDF] les capteurs exercices corrigés

[PDF] chaine de markov apériodique

[PDF] chaine de markov apériodique exemple

[PDF] chaine de markov reversible

[PDF] chaine de markov récurrente

[PDF] chaine de markov exemple

[PDF] chaine de markov irreductible exemple

[PDF] chaine de markov exercice corrigé

Université Paris 13, Institut Galilée M1 - Modèles aléatoires

Année universitaire 2012-2013

Fiche 1 - Chaînes de Markov (définition, calculs)Quelques révisions

Exercice 1.

1.Une urne contientNboules noires et une blanche. On tire des boules successivement avec remise

jusqu"à obtention de la boule blanche. On noteXle nombre de tirages effectués.

1.a)Quelle est la loi deX?

1.b)Calculer l"espérance deX.

1.c)Quelle est la probabilité qu"il faille au moinsktirages pour voir apparaître la boule blanche?

2.Soitn2N. On suppose maintenant que l"on effectuentirages (toujours avec remise) dans l"urne

précédente, et on noteBnle nombre de fois où la boule blanche a été obtenue parmi ceux-ci.

2.a)Quelle est la loi deBn?

2.b)Calculer l"espérance et la variance deBn.

Exercice 2.SoitXetYdes variables aléatoires indépendantes.

1.Quelle est la loi deS=X+YsiXetYont pour lois respectivesP()etP()?

2.Quelle est la loi deZ= min(X;Y)siXetYont pour loi respectivesG(p)etG(q)?

Exercice 3 -Somme d"un nombre aléatoire de termes.SoitXune variable aléatoire réelle

intégrable. SoitX1;X2;:::des variables aléatoires indépendantes, qui suivent toutes la même loi queX,

etNune variable aléatoire à valeurs dansN, indépendante des précédentes. On définit

S=NX k=1X k=X1++XN:

1.Montrer queE[S] =E[N]E[X].

2.Donner une expression similaire pour la variance deS.

Définition des chaînes de Markov, usage en modélisation

Exercice 4 -Lancers de dés.On considère les jets successifs d"un dé non biaisé, autrement dit une

suite(Xn)n0de variables aléatoires indépendantes, de loi uniforme surf1;:::;6g. On noteSnla somme

etMnle maximum des valeurs observées sur le dé entre les temps 0 etn: S n=X0++XnetMn= max(X0;:::;Xn):

1.Montrer que(Xn)n0,(Sn)n0et(Mn)n0sont des chaînes de Markov et préciser leurs probabilités

de transition.

2.Que dire des suites(S0n)n0et(n)n0définies par

S

0n=X0+ 2X1++ 2nXnetn=Xn+1Xn?

Exercice 5 -Formalisme matriciel.Soit(Xn)n0une chaîne de Markov surE=fx1;x2;:::;xNg, de loi initialeet de matrice de transitionP, etf:E!Rbornée.

1.En termes matriciels, comment s"exprime la loi deX1? deXn?Assimiler les lois à des vecteurs-lignes

2.En termes matriciels, comment s"exprimeE[f(X0)]?E[f(Xn)]?Assimilerfà un vecteur-colonne

Exercice 6 -Météo.À partir d"observations, un météorologue choisit de représenter le comportement

journalier du temps par une chaîne de Markov à trois états :E=fbeau;nuageux;couvertg, de matrice

de transition P=0 @0:6 0:3 0:1

0:3 0:5 0:2

0:1 0:4 0:51

A S"il fait beau aujourd"hui, quelle est la probabilité que le ciel soit 1 - couvert dans 2 jours? - couvert dans 2 jours et nuageux dans 4 jours?

Exercice 7 -Modélisation.

1.Dans un service administratif, on traite un dossier par jour. Par ailleurs, chaque jour arrivent zéro, un

ou deux nouveaux dossiers avec probabilitésp0,p1etp2respectivement, oùp0+p1+p2= 1. On note X

nle nombre de dossiers restant à traiter le journ. Expliciter la modélisation de(Xn)npar une chaîne

de Markov (Autrement dit, justifier que(Xn)npeut se représenter par une chaîne de Markov et préciser

sa matrice de transition).

2.On considère un modèle (simpliste) de transmission de caractères génétiques dans un population au

fil des générations. Le gène étudié possède deux allèles (" variantes »)Aeta. On suppose la population

de taille constanteNau cours du temps et que, pour toutn2N, chaque individu à la générationn+ 1

hérite de l"allèle d"un des individus à la générationnchoisi au hasard de façon uniforme. On noteXnle

nombre d"individus possédant l"allèleAà la générationn. Expliciter la modélisation de(Xn)npar une

chaîne de Markov.Justifier que, sachant queXn=x,Xn+1suit une loi binomiale de paramètresNetxN

Exercice 8 -Chaîne à deux états.Pourp;q2[0;1], on considère la chaîne surf0;1gde matrice de

transition

Q=1p p

q1q

1. Montrer que, sip+q >0, alors, pour toutn2N,

Q n=1p+q q p q p +(1(p+q))np+q pp q q

2.En déduirelimnQn.

3.On supposeP(X0= 1) =. CalculerP(X0= 1jX1= 1).

Exercice 9 -Une construction des chaînes de Markov.

1.Soitp= (p1;p2;:::)un vecteur de probabilité, de taille finie ou infinie (dénombrable), c"est-à-dire que

p i0pour toutietP ipi= 1. On suppose que l"on dispose d"une variable aléatoireUde loi uniforme

sur[0;1](par exemple fournie par un générateur de nombres pseudo-aléatoires sur un ordinateur ou une

calculatrice via la fonctionrand). Définir, à partir deU, une variable aléatoireX=f(p;U)ayant la loi

suivante : pour touti2N;P(X=i) =pi: On pourra vérifier quef: (p;u)7!minfk1jp1++pkugconvient.

2.SoitE=fx1;x2;:::gun ensemble dénombrable,Pune matrice stochastique surE, et0une loi

de probabilité surE. On suppose que l"on dispose d"une suite de variables aléatoires(U0;U1;U2;:::)

indépendantes et de loi uniforme sur[0;1]. Définir, à partir de cette suite, une suite(Xn)n0de variables

aléatoires qui est une chaîne de Markov de mesure initiale0et de matrice de transitionP. 2quotesdbs_dbs13.pdfusesText_19