[PDF] Feuille dexercices 3 card(X) est invariante par





Previous PDF Next PDF



Exemple: États Exemple: Matrice de transition

passivement la matrice de transition fixe on va à chaque état de probabilités de transition et minimisera le coût du processus. 3. Exemple: États.



Chapitre 1 - Dynamiques aléatoires : chaines de Markov

Dans ces diagrammes chaque état est représenté par un point et chaque coefficient pij non nul de la matrice de transition par une fl`eche allant de l'état i `a 



Réponse temporelle : solution de léquation détat

Résolution de l'équation d'état. ? Cas scalaire. ? Cas matriciel. ? Mise en évidence de la matrice de transition. ? Calcul de la matrice de transition.



E. Les graphes probabilistes

2 État probabiliste et matrice de transition. Définition 2. Soit une expérience aléatoire à deux issues possibles A et B.



IFT-3655 Modèles Stochastiques orange Chaînes de Markov en

chaˆ?ne o`u Xn est le nombre de balles rouges dans l'urne `a l'étape n. L'espace d'états est. {01



CHAÎNES DE MARKOV

A toute matrice de transition on peut associer un graphe dirigé



Chaînes de Markov

chaque ligne de la matrice de transition. Exemple. On représente usuellement une chaîne de Markov d'espace d'états X par un graphe orienté étiqueté G = (V 



Feuille dexercices 3

card(X) est invariante par P. (b) Application. Soit P la matrice de transition d'une chaîne de Markov sur un espace d'états fini 



Chapitre 2 - Chaines de Markov : compléments

Il n'y aurait plus moyen alors de définir de matrice de transition. Une cha?ne de Markov est dite irréductible lorsque tous ses états communiquent ...



? ? ? ? /

P = (( pij )). On vérifie immédiatement que P est une matrice stochastique . Le graphe des transitions a pour sommets les états du processus les arcs.



Chapitre 8 Chaˆ?nes de Markov - ENS

Une matrice de transition P est parfois repr·esent·ee par son graphe de transition G un graphe dont les nœuds sont les ·etats de E et qui a une arˆete orient·ee de i vers j si et seulement si pij > 0 auquel cas cette arˆete est orn·ee de l’·etiquette pij



MODÈLES DE DURÉE

Matrices related to linear transformations We have encountered several ways in which matrices relate to linear transformations In this note I summarize the important facts and formulas we have encountered The matrix of a linear transformation from Rn to Rm: Theorem 1 Given a linear transformation T: Rn!Rm;there is an m nmatrix Afor



Searches related to matrice de transition détat PDF

opérations dans un processus de Markov à temps discret de sorte à optimiser ces performances Ainsi au lieu d’accepter passivement la matrice de transition fixe on va à chaque état de la chaîne déterminer la décision à prendre qui affectera les probabilités de transition et minimisera le coût du processus 3 Exemple: États

  • Point de Sortie

    Point auquel un objet quitte l'état composite ou l'automate, symbolisé par un cercle barré d'une croix. En règle générale, on l'utilise si le processus n’est pas terminé mais doit être quitté en raison d'une erreur ou d'un autre problème.

  • Garde

    Condition booléenne qui autorise ou bloque une transition, inscrite au-dessus de la flèche de transition.

Quels sont les États de la matrice de transition?

Une matrice de transition, contenant quatre états (sain, incapable, invalide, décédé), et dépendant de l’âge à l’entrée et de l’ancienneté est une modélisation possible. 1.3. Principales tables à estimer Les tables permettent le calcul des probabilités de maintien ou des probabilités de

Qu'est-ce que le diagramme d'état transition ?

Dans cet exemple, « Problème avec la réservation » est l’élément déclencheur qui enverrait la personne à l’agence de voyage de l’aéroport au lieu de l'acheminer vers l'étape suivante du processus. Cet exemple de diagramme d'état transition montre le processus par lequel une personne fixe un rendez-vous dans son agenda.

Comment transposer une matrice ?

Vous pouvez transposer n'importe quelle matrice, quel que soit son nombre de lignes et de colonnes. Les matrices carrées, celles qui ont autant de lignes que de colonnes, sont peut-être plus faciles à transposer quand on débute : c'est pourquoi nous commencerons avec une matrice de ce type [2] . . Inversez les lignes et les colonnes de la matrice.

Quelle est la matrice de transition d'une marche aléatoire?

Marches aléatoires Définition : La matrice de transitiond'une marche aléatoire est la matrice carrée dont le coefficient situé sur la ligne iet la colonne jest la probabilité de transition du sommet jvers le sommet i. Définition : La matrice colonne des états de la marche aléatoire après nétapes

Feuille dexercices 3

Feuille d"exercices 3Chaînes de Markov 2023-2024Objectifs : Calculer la loi invariante d"une chaîne de Markov, en particulier en utilisant la notion de

réversibilité (1,2,3,4,5,6,7,8); utiliser le théorème de convergence vers la loi stationnaire dans le cas ré-

current positif (1,4,5,6,9); utiliser le théorème ergodique sur les nombres de visites (3,9). 1. Matr icesbis tochastiques.SoitXun espace d"états fini. On dit qu"une matrice(P(x,y))x,y∈X est bistochastique si ses coefficients sont tous dans[0,1], et si la somme des coefficients sur une ligne ou sur une colonne est toujours égale à1. (a) Montr erq u"unematr icede tr ansitionPest bistochastique si et seulement si la mesure uni- formeπ(x) =1card(X)est invariante parP. (b) Application. Soit Pla matrice de transition d"une chaîne de Markov sur un espace d"états finiX. On supposePirréductible et symétrique :P(x,y) =P(y,x)pour tous étatsx,y. On suppose aussi que la diagonale de la matricePn"est pas nulle. Montrer que, si(Xn)n∈N est une chaîne de Markov de matrice de transitionP, alors n(x) =Pπ0[Xn=x]→n→∞1card(X) pour n"importe quel choix de mesure initialeπ0, et pour tout étatx∈X. 2. Mesur esr éversibles,I. SoitPla matrice de transition d"une chaîne de Markov sur un espace d"états(x,y)∈X2,

π(x)P(x,y) =π(y)P(y,x).

Montrer qu"une mesure réversible est invariante pourP. La réciproque est-elle vraie? 3. Mar chealéat oiresur un g raphefini. SoitGun graphe (simple, sans boucle) fini, c"est-à-dire un ensemble finiXde sommets et un ensembleEde paires{x̸=y}de sommets. Le degré d"un sommet du graphe est degx= card{y∈X|{x,y} ∈E}. On suppose quedegx≥1pour toutx∈X. On définit alors une matrice stochastique d"espace d"étatsX:

P(x,y) =(

1degxsi{x,y} ∈E,

0sinon.

(a)

À q uellesconditions sur le g rapheGla matricePest-elle associée à une chaîne irréduc-

tible? Si ces conditions sont vérifiées, que faut-il supposer en plus pour avoir une chaîne apériodique? (b) On suppose jusq u"àla fin de l"e xerciceq uela c haîneir réductible.T rouverune mesur ede probabilité réversible pour cette chaîne de Markov. (c) probabilité, quels sont les sommets du graphe qui sont le plus souvent visités par cette trajectoire? 4. Les ur nesd"Ehr enfest.On considère une urne avecNballes, qui sont réparties dans deux com- partimentsAetB. On noteXnle nombre de balles qui sont dans le compartimentAau temps n;Xn∈[[0,N]], et le compartimentBcontientN-Xnballes au tempsn. L"évolution de la suite(Xn)n∈Nest la suivante. Pour passer deXnàXn+1: -On tire au hasard l"une desNballes de l"urne, toutes les balles étant équiprobables, et ce tirage étant indépendant des autres étapes.

B: alors,Xn+1=Xn-1.

-Au contraire, si la balle tirée au hasard appartient au compartimentB, on la déplace dans le compartimentA: dans ce cas,Xn+1=Xn+ 1. (a) Donner la matr icede tr ansitionPde la chaîne de Markov(Xn)n∈N. Montrer qu"elle est irréductible sur l"espace d"étatsX= [[0,N]]. (b) Calculer l"uniq uemesur ede pr obabilitéin varianteπpourP. On pourra la chercher réver- sible. Quelle mesure de probabilité classique obtient-on? (c) On suppose par e xempleq ueX0= 0. A-t-onlimn→∞P0[Xn=k] =π(k)pour toutk∈N? (d)

On modifie le modèle en supposant q u"àc haqueé tape,la balle tir éeau hasar ddans l"ur nea

une probabilité 12 d"être laissée dans son compartiment, et une probabilité12 d"être changée de compartiment. Reprendre les questions précédentes avec ce nouveau modèle. Quel est le lien entre les deux matrices de transition des deux modèles? 5. Les ur nesde Ber noulli-Laplace.On considère une urne avecN1balles blanches etN2balles noires, et avec deux compartimentsAetBcontenant respectivementa≥1balles etb≥1 balles;N1+N2=a+b, et chaque compartiment peut contenir des balles blanches et des balles noires. On noteXnle nombre de balles blanches dans le compartimentAau tempsn; c"est une quantité entière entremax(0,a-N2)etmin(N1,a). (a) Expr imeren f onctiondes par amètresdu modèle N1,N2,a,bet deXnle nombre de balles blanches ou de balles noires dans chaque compartiment au tempsn. L"évolution de la suite(Xn)n∈Nest la suivante. Pour passer deXnàXn+1: -On tire au hasard dans chaque compartiment une balle; toutes les balles du compartiment Asont équiprobables, et de même pour toutes les balles du compartimentB. -On échange la position des deux balles tirées au hasard : celle du compartimentAva vers le compartimentB, etvice versa. (b) Donner la matr icede tr ansitionPde la chaîne de Markov(Xn)n∈N. Montrer qu"elle est irréductible sur l"espace d"étatsX= [[max(0,a-N2),min(a,N1)]]. (c) partimentApeut varier entre0etN1. Trouver l"unique mesure de probabilité invarianteπ pourP. Quelle mesure de probabilité classique obtient-on? (d) P ourk∈X, montrer quelimn→∞Pπ0[Xn=k] =π(k). 6. Découpag edepolygones.SoitPunpolygoneconvexeavecaumoins3côtés,auquelonapplique

l"opération suivante : on choisit au hasard deux côtés deP, on joint les milieux de ces côtés

et on garde l"un des deux nouveaux polygones convexes plus petits ainsi obtenus. On réitère

cette opération infiniment, et on note(Cn)n∈Nla suite des nombres de côtés des polygones ainsi

obtenus. On supposera queC0= 3, et que les choix de découpage sont indépendants et donnent une chaîne de Markov. (a) Si Cn=k, montrer queCn+1∈[[3,k+ 1]]. Montrer ensuite que(Cn)n∈Nest irréductible sur l"espace des étatsN≥3={3,4,5,...}. (b) On pose Xn=Cn-3. Montrer que(Xn)n∈Nest une chaîne de Markov irréductible sur

X=N, et préciser sa matrice de transitionP.

(c) N otonsq ueX0= 0, puisqueC0= 3. CalculerE0[Xn]pour toutn≥0. En déduire que la chaîne est récurrente irréductible. (d) On chercheunemesuredeprobabilitéstationnaireπpourP(àcestade,iln"estpasclairqu"il en existe une, car la chaîne pourrait être récurrente nulle). On poseG(s) =P∞ k=0π(k)sk.

Montrer que, siπP=π, alors

(s-1)G(s) =∞X k=0π(k)k+ 2(sk+2-1).

Dériver cette équation pour trouver une équation différentielle satisfaite parG(s), et en

déduire la valeur de cette fonction. (e) Montr erq uela c haîne(Xn)n∈Nest récurrente positive et converge en loi vers une loi de

Poisson de paramètre1.

7. Modèle de file d"att ente,II. On considère la matrice de transition sur l"espaceX=Ndonnée par P(0,1) = 1 ;∀k≥1, P(k,k+ 1) =p;∀k≥1, P(k,k-1) = 1-p, pétant un paramètre réel dans(0,1). (a)

On suppose p <12

. Montrer que la chaîne de Markov de matricePest récurrente positive,

et calculer sa loi stationnaire. La chaîne est-elle apériodique? Quels résultats limites sont

valables pour cette chaîne de Markov? (b)

T oujoursdansl"hypothèsep <12

,onsupposequel"onpartd"unefilevide(X0= 0).Comme P(0,1) = 1,X1= 1et la file est non vide pendant un certain intervalle de temps1,τ+0. Déterminer l"espérance du tempsτ+0nécessaire pour que la file d"attente soit de nouveau vide. (c)

On suppose p=12

. Trouver une mesure invariante de masse infinie pour la chaîne de Mar- kov(Xn)n∈Nde matriceP. Trouver un lien entre(Xn)n∈Net une marche aléatoire simple 8.

Chaîne de vie e tde mor t,II. On reprend le modèle de la chaîne de vie et de mort, qui a pour

espace d"étatsX=Net pour matrice de transition

P(k,k+ 1) =pk;P(k,k-1) =qk;P(k,k) =rk,

avec(pk,qk,rk)k≥0famille de réels positifs avecpk+qk+rk= 1pour toutk, etq0= 0. On a

montré dans un exercice du précédent chapitre que la chaîne de Markov avec cette matrice de

transition était récurrente irréductible si et seulement sipk>0,qk>0pour toutk≥1et P l=0(Ql j=1q jp j) = +∞. Montrer que la chaîne est récurrente positive si et seulement si X l=0 lY j=1p j-1q j!

Dans ce cas, donner la mesure de probabilité stationnaire. Donner aussi une condition nécessaire

et suffisante simple pour l"apériodicité de la chaîne de Markov. 9. Mesur esr éversibles,II. SoitPunematricestochastiqueirréductiblesurunespaced"étatsX.On

suppose que la chaîne de Markov associée est récurrente positive, ce qui est automatiquement

le cas si l"espace d"états est fini; on noteπla mesure de probabilité stationnaire. L"objectif de

l"exercice est de montrer l"équivalence entre les deux conditions suivantes : -La mesureπest réversible :π(x)P(x,y) =π(y)P(y,x)pour tous étatsx,y∈X. -Pour toutn≥2et toutn-uplet d"états(x1,x2,...,xn), P(x1,x2)···P(xn-1,xn)P(xn,x1) =P(x1,xn)P(xn,xn-1)···P(x2,x1).

Autrement dit, le produit des probabilités de transitionx1→x2→ ··· →xn→x1est

le même si l"on prend le " cycle » dans l"autre sens :x1→xn→ ··· →x2→x1. C"est le

critère de Kolmogorov. (a) Montr erq uesi πest réversible, alors le critère de Kolmogorov est vérifié. (b) On suppose dans les q uestionssuiv antesq uele cr itèrede K olmogoroves tv érifié.Montr er que pour tous étatsx,y, et toutn≥1, on a P n(x,y)P(y,x) =P(x,y)Pn(y,x). (c)

On suppose la c haîneapér iodique.Déduir ede la q uestionpr écédenteq ueπest réversible

pourP. (d) On ne suppose plus la c haîneapér iodique.Montr erq u"ona, pour t ousé tatsxety, 1N N X n=1P n(x,y)→N→∞π(y).

En déduire de nouveau que la mesureπest réversible si le critère de Komogorov est vérifié.

(e) Application. SoitPunematricestochastiqueirréductibled"espacedesétatsXfini,etdontle graphe dirigéGPne contient pas de cycle : il n"existe pas de suite de sommets tous distincts x

1̸=x2̸=··· ̸=xnavecn≥3etP(x1,x2)···P(xn-1,xn)P(xn,x1)>0. C"est par

exemple le cas du modèle de la ruine du joueur. Montrer que la mesure stationnaire pourP est forcément réversible. 10.

U nicitéde la loi s tationnaire.SoitPune matrice stochastique irréductible sur un espace d"états

Xfini ou dénombrable. L"objectif de l"exercice est de donner une preuve élémentaire du fait suivant : siPadmet une mesure de probabilité invariante, alors celle-ci est unique. Dans ce qui

suit, on ne suppose pasa priorique la chaîne associée àPest récurrente (s"il existe une mesure

de probabilité invariante, on saita posteriorique ceci implique la récurrence positive). (a) P ourx∈R+, on poseϕ(x) =xx+1. Montrer que pour tous réels positifsx1,...,xnet tous poids positifsp1,...,pntels quep1+p2+···+pn= 1, on a nX i=1p ixi! ≥nX i=1p iϕ(xi).

Étendre cette inégalité au cas d"une suite(xi)i≥1et d"une distribution discrète(pi)i≥1avecP∞

i=1pi= 1. Quand a-t-on égalité dans cette inégalité? (b) On suppose donnée une mesur ede pr obabilitéπsurXinvariante parP, et on définit l"entropied"une autre mesure de probabilitéµsurXpar la formule suivante :

E(µ) =X

x∈Xπ(x)ϕµ(x)π(x) Justifier du fait que cette quantité est bien définie. Montrer que pour toute mesure de pro- babilitéµsurX, on a

E(µP)≥ E(µ).

(c) On suppose pour ce tteq uestionq ueP(x,y)>0pour tout couple(x,y)∈X2. Montrer

qu"on a égalité dans la question précédente si et seulement siµ=π. En déduire dans ce cas

l"unicité de la mesure de probabilité stationnaire. (d)

Dans lecasgénéral,onpose

eP(x,y) =P∞ n=112 nPn(x,y).MontrerqueE(µeP)≥ E(µ)pour

toute mesure de probabilitéµ, avec égalité si et seulement siµ=π. En déduire que siPest

une matrice irréductible, alors il existe au plus une mesure de probabilité invariante parP.quotesdbs_dbs30.pdfusesText_36
[PDF] journal anne frank résumé

[PDF] querelle des anciens et des modernes dates

[PDF] wikipedia la querelle des anciens et des modernes

[PDF] matrice de transition exercices corrigés

[PDF] definition generale des coefficients techniques de production

[PDF] fiche technique café

[PDF] intensité du café

[PDF] modèle fermé de leontief

[PDF] tableau intensité café nespresso

[PDF] exercices corrigés de comptabilité nationale sur le tableau entrée sortie pdf

[PDF] principales étapes transformation café pdf

[PDF] arômes du café

[PDF] l'économie d'un pays fictif dépend de trois secteurs

[PDF] coefficient technique de production définition

[PDF] input output économie