Donner une expression similaire pour la variance de S Définition des chaînes de Markov, usage en modélisation Exercice 4 – Lancers de dés On considère les
Previous PDF | Next PDF |
[PDF] CHAÎNES DE MARKOV - Institut de Mathématiques de Bordeaux
Soit Xn est une chaîne de Markov de matrice de transition P, et soit ν0 la loi de X0 Alors la tout ce chapitre peuvent être résumés dans le théorème suivant :
[PDF] Chaînes de Markov une introduction - De lanalyse de texte à la
De l'analyse de texte `a la physique des particules Jean-Marc est une chaˆıne de Markov de loi initiale π(0) ssi est une chaıne de Markov homog`ene ssi
[PDF] Chaînes de Markov (et applications)
22 fév 2021 · Soit Q la matrice de transition d'une chaîne de Markov homogène Markov lui- même a analysé la succession de voyelles et de consonnes
[PDF] Introduction aux chaines de Markov - CERMICS
Une chaıne de Markov est une suite de variables aléatoires (Xn,n ∈ N) qui permet de modéliser `a valeurs dans E est appelée chaıne de Markov de matrice de transition P si pour tous n Probabilités, Statistique et Analyse des Données
[PDF] Quelques révisions Définition des chaînes de Markov, usage en
Donner une expression similaire pour la variance de S Définition des chaînes de Markov, usage en modélisation Exercice 4 – Lancers de dés On considère les
[PDF] Chaînes de Markov et Processus markoviens de sauts Applications
La probabilité µ est appelé loi initiale de la chaîne et la matrice P matrice de transition Proposition 1 (Xn)n≥0 est une chaîne de Markov si et seulement si ∀ n
[PDF] Chaînes de Markov - DI ENS
fait, les chaınes de Markov sont des processus stochastiques dont l'évolution est régie par une Au lieu de calculer seulement u(a), l'analyse `a un pas calcule
[PDF] Chaînes de Markov - Institut Camille Jordan
1 7 2 Chaîne de Markov en temps continu et espace discret 27 résumer ainsi : lorsque la chaîne est dans l'état x, au cours d'un intervalle de temps
[PDF] Fiche résumée du cours de Processus de Markov, par IKourkova 1
Fiche résumée du cours de Processus de Markov, par I Kourkova 1 Chaînes de Markov à temps continu sur un espace dénombrable 1 1 loi exponentielle
[PDF] exercice corrigé chaine de markov a etat absorbante
[PDF] chaine d'acquisition de données
[PDF] chaine de mesure audioprothèse
[PDF] acquisition de données du capteur ? l ordinateur
[PDF] chaine de mesure pdf
[PDF] chaine d'acquisition capteur
[PDF] les capteurs exercices corrigés
[PDF] chaine de markov apériodique
[PDF] chaine de markov apériodique exemple
[PDF] chaine de markov reversible
[PDF] chaine de markov récurrente
[PDF] chaine de markov exemple
[PDF] chaine de markov irreductible exemple
[PDF] chaine de markov exercice corrigé
Université Paris 13, Institut Galilée M1 - Modèles aléatoires
Année universitaire 2012-2013
Fiche 1 - Chaînes de Markov (définition, calculs)Quelques révisionsExercice 1.
1.Une urne contientNboules noires et une blanche. On tire des boules successivement avec remise
jusqu"à obtention de la boule blanche. On noteXle nombre de tirages effectués.1.a)Quelle est la loi deX?
1.b)Calculer l"espérance deX.
1.c)Quelle est la probabilité qu"il faille au moinsktirages pour voir apparaître la boule blanche?
2.Soitn2N. On suppose maintenant que l"on effectuentirages (toujours avec remise) dans l"urne
précédente, et on noteBnle nombre de fois où la boule blanche a été obtenue parmi ceux-ci.
2.a)Quelle est la loi deBn?
2.b)Calculer l"espérance et la variance deBn.
Exercice 2.SoitXetYdes variables aléatoires indépendantes.1.Quelle est la loi deS=X+YsiXetYont pour lois respectivesP()etP()?
2.Quelle est la loi deZ= min(X;Y)siXetYont pour loi respectivesG(p)etG(q)?
Exercice 3 -Somme d"un nombre aléatoire de termes.SoitXune variable aléatoire réelleintégrable. SoitX1;X2;:::des variables aléatoires indépendantes, qui suivent toutes la même loi queX,
etNune variable aléatoire à valeurs dansN, indépendante des précédentes. On définit
S=NX k=1X k=X1++XN:1.Montrer queE[S] =E[N]E[X].
2.Donner une expression similaire pour la variance deS.
Définition des chaînes de Markov, usage en modélisationExercice 4 -Lancers de dés.On considère les jets successifs d"un dé non biaisé, autrement dit une
suite(Xn)n0de variables aléatoires indépendantes, de loi uniforme surf1;:::;6g. On noteSnla somme
etMnle maximum des valeurs observées sur le dé entre les temps 0 etn: S n=X0++XnetMn= max(X0;:::;Xn):1.Montrer que(Xn)n0,(Sn)n0et(Mn)n0sont des chaînes de Markov et préciser leurs probabilités
de transition.2.Que dire des suites(S0n)n0et(n)n0définies par
S0n=X0+ 2X1++ 2nXnetn=Xn+1Xn?
Exercice 5 -Formalisme matriciel.Soit(Xn)n0une chaîne de Markov surE=fx1;x2;:::;xNg, de loi initialeet de matrice de transitionP, etf:E!Rbornée.1.En termes matriciels, comment s"exprime la loi deX1? deXn?Assimiler les lois à des vecteurs-lignes
2.En termes matriciels, comment s"exprimeE[f(X0)]?E[f(Xn)]?Assimilerfà un vecteur-colonne
Exercice 6 -Météo.À partir d"observations, un météorologue choisit de représenter le comportement
journalier du temps par une chaîne de Markov à trois états :E=fbeau;nuageux;couvertg, de matrice
de transition P=0 @0:6 0:3 0:10:3 0:5 0:2
0:1 0:4 0:51
A S"il fait beau aujourd"hui, quelle est la probabilité que le ciel soit 1 - couvert dans 2 jours? - couvert dans 2 jours et nuageux dans 4 jours?Exercice 7 -Modélisation.
1.Dans un service administratif, on traite un dossier par jour. Par ailleurs, chaque jour arrivent zéro, un
ou deux nouveaux dossiers avec probabilitésp0,p1etp2respectivement, oùp0+p1+p2= 1. On note Xnle nombre de dossiers restant à traiter le journ. Expliciter la modélisation de(Xn)npar une chaîne
de Markov (Autrement dit, justifier que(Xn)npeut se représenter par une chaîne de Markov et préciser
sa matrice de transition).2.On considère un modèle (simpliste) de transmission de caractères génétiques dans un population au
fil des générations. Le gène étudié possède deux allèles (" variantes »)Aeta. On suppose la population
de taille constanteNau cours du temps et que, pour toutn2N, chaque individu à la générationn+ 1
hérite de l"allèle d"un des individus à la générationnchoisi au hasard de façon uniforme. On noteXnle
nombre d"individus possédant l"allèleAà la générationn. Expliciter la modélisation de(Xn)npar une
chaîne de Markov.Justifier que, sachant queXn=x,Xn+1suit une loi binomiale de paramètresNetxNExercice 8 -Chaîne à deux états.Pourp;q2[0;1], on considère la chaîne surf0;1gde matrice de
transitionQ=1p p
q1q1. Montrer que, sip+q >0, alors, pour toutn2N,
Q n=1p+q q p q p +(1(p+q))np+q pp q q2.En déduirelimnQn.
3.On supposeP(X0= 1) =. CalculerP(X0= 1jX1= 1).
Exercice 9 -Une construction des chaînes de Markov.1.Soitp= (p1;p2;:::)un vecteur de probabilité, de taille finie ou infinie (dénombrable), c"est-à-dire que
p i0pour toutietP ipi= 1. On suppose que l"on dispose d"une variable aléatoireUde loi uniformesur[0;1](par exemple fournie par un générateur de nombres pseudo-aléatoires sur un ordinateur ou une
calculatrice via la fonctionrand). Définir, à partir deU, une variable aléatoireX=f(p;U)ayant la loi
suivante : pour touti2N;P(X=i) =pi: On pourra vérifier quef: (p;u)7!minfk1jp1++pkugconvient.2.SoitE=fx1;x2;:::gun ensemble dénombrable,Pune matrice stochastique surE, et0une loi
de probabilité surE. On suppose que l"on dispose d"une suite de variables aléatoires(U0;U1;U2;:::)
indépendantes et de loi uniforme sur[0;1]. Définir, à partir de cette suite, une suite(Xn)n0de variables
aléatoires qui est une chaîne de Markov de mesure initiale0et de matrice de transitionP. 2quotesdbs_dbs13.pdfusesText_19