E. Les graphes probabilistes
Définition 1 Un graphe probabiliste est un graphe orienté et pondéré dans lequel : 2 État probabiliste et matrice de transition. Définition 2.
Credit Transition Model 2017 Update: Methodology and
The Credit Transition Model (CTM) is Moody's proprietary issuer-level model of rating Appendix I Definition of Default by Moody's Investors Service.
Recent advances in regional controllability of cellular automata
20-Dec-2019 matrice de transition en utilisant les définitions d'une chaîne ergodique et ... Définition 2 La configuration de l'automate cellulaire à ...
Partie 1 : Graphes orientés et graphes pondérés
Définition : Soit un graphe orienté d'ordre dont les sommets sont numérotés de Définition : La matrice de transition d'une chaîne de Markov est la ...
Chaînes de Markov
Définition 2.1 (Chaîne de Markov). Une chaîne de Markov sur X de matrice de transition P est une suite de variables aléatoires (Xn)n2Ndéfinies sur un espace (?
CHAÎNES DE MARKOV
n?1 k=0 pxkxk+1 . ?. Définition 4. On appelle matrice de transition la matrice P = (px
Chaînes de Markov
2 Matrice de transition. Définition 2.1 : Matrice de transition. Si la chaîne de Markov (Xn)n?N est homogène et si E est fini par exemple E = [[1
1 Définition
P est la matrice de transition de X. Ainsi (Xn)n est une chaîne de Markov si
MATRICES ET GRAPHES
Définition : Une matrice de taille × est un tableau de nombres formé de Définition : La matrice de transition d'une chaîne de Markov est la ...
Random walk on simplicial complexes
06-Jan-2021 plexes simpliciaux nous étendons la définition des noyaux de graphes basés ... Définition 5 (Matrice de transition).
Chaînes de Markov
Table des matières
1 Définitions2
2 Matrice de transition3
3 Étude d"une chaîne de Markov homogène 4
3.1 Étude mathématique d"une chaîne de Markov homogène . . . . . . . . . . . . . . . . . . . . .
43.2 Simulation des premiers états d"une chaîne de Markov avec Scilab . . . . . . . . . . . . . . . .
53.3 États stables d"une chaîne de Markov homogène . . . . . . . . . . . . . . . . . . . . . . . . .
63.4 Convergence vers l"état stable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7 1Les chaînes de Markov donnent un exemple de suites de variables aléatoires non indépendantes, ce qui
est le cas dans beaucoup de situations.1 DéfinitionsDéfinition 1.1 :Chaîne de Markov
On appellechaîne de Markov, toute suite(Xn)n?Nde variables aléatoires (définies sur le même espace pro-
babilisé) à valeurs dans un ensembleEtelles que pour toutn?Net pour tout(i0,i1,...,in-1,i,j)?En+2,
on a P [Xn=i]∩[Xn-1=in-1]∩...[X0=i0](Xn+1=j) =P[Xn=i](Xn+1=j).La loi deXn+1sachantX0,X1,...,Xn-1est égale à la loi deXn+1sachantXn.Remarque 1.2 :Interprétation
Intuitivement, si on interprète la variablencomme étant le temps, cette définition signifie que sachant
le présent (l"instantn), le futur (l"instantn+ 1) est indépendant du passé (les instant1àn-1). Un
processus de Markov est aussi dit "processus sans mémoire".Définition 1.3 :Ensemble des états de la chaîne
On dit que la chaîne est dansl"étatiau tempsnsi l"événement[Xn=i]est réalisé. L"ensembleEest
donc l"ensemble des états de la chaîne.Définition 1.4 :Probabilités de transitionLes probabilitésP[Xn=i](Xn+1=j), notéespi,j(n), sont appelées probabilités de transition.
Définition 1.5 :Chaîne de Markov homogèneUne chaîne de Markov est ditehomogènelorsque les probabilitéspi,j(n)ne dépendent pas den, mais
seulement deietj. Elles sont alors notéespi,j. On a alors ?(i,j)?E2,P[Xn=i](Xn+1=j) =P[X0=i](X1=j) =pi,j.Remarque 1.6 :InterprétationIntuitivement, cela signifie que la "loi d"évolution" d"un instantnà l"instant suivantn+1reste toujours la
même au cours du temps.Dans la suite nous n"étudierons que le cas où(Xn)n?Nest une chaîne de Markov homogène à valeurs
dans un espace d"étatsEqui est un ensemble fini. 22 Matrice de transition
Définition 2.1 :Matrice de transitionSi la chaîne de Markov(Xn)n?Nest homogène et siEest fini, par exempleE= [[1,N]], on appelle
matrice de transitionde la chaîne, la matrice deMN(R)suivante : M=( ((((p1,1p1,2... p1,N
p2,1p2,2... p2,N............
pN,1pN,2... pN,N)
))))Définition 2.2 :Matrice stochastiqueUne telle matrice, dont les coefficients sont positifs et tels que la somme des coefficients de chaque ligne
est égale à1, est dite stochastique.Définition 2.3 :Vecteur ligne stochastique
Un vecteur ligne, dont les coefficients sont positifs et tels que la somme des coefficients est égale à1, est
dit stochastique.Méthode 2.4 :Diagramme de transition
On représente une chaîne de Markov homogène(Xn)n?Npar ungraphe orienté pondéré, appelé
diagramme de transitiondont les sommets sont les éléments deE.Deux élémentsxetysont reliés par une flèche dexàylorsque la probabilité de passer dexàyest
strictement positive (la probabilité est précisée au-dessus de la flèche), et sans flèche dexàylorsque la
probabilité de passer dexàyest nulle.Exemple 1. La marche aléatoire sur{1,2,...,N}semi-réfléchie en1et enN. On choisit au hasard une position initiale entre1etNpuis : •On se déplace de façon équiprobable de+1ou-1.Sur les états1etN, on peut soit rester sur la même position, soit repartir vers l"état voisin, de
manière équiprobable. 3La matrice de transition associée est
M=( ((((((((((1/2 1/2 0 0...0 01/2 0 1/2 0...0 0
0 1/2 0 1/2...0 0
0 0 1/2 0...0 0
0 0 0 0...0 1/2
0 0 0 0...1/2 1/2)
et la loi deX0est?1N 1N ...1N (on choisit au hasard une position initiale).3 Étude d"une chaîne de Markov homogène
3.1 Étude mathématique d"une chaîne de Markov homogène
On suppose queE= [[1,N]].Méthode 3.1 :Comment calculer la loi d"une chaîne de Markov homogène?SoitMla matrice de transition de la chaîne(Xn)n?N. On pose le vecteur ligne
U n=?P(Xn= 1)P(Xn= 2)...P(Xn=N)?
•La formule des probabilités totales associée au système complet d"événements(Xn=i)i?[[1,N]]donne
?j?[[1,N]],P(Xn+1=j) =N? i=1P(Xn=i)P(Xn=i)(Xn+1=j) =N? i=1P(Xn=i)pi,j. •La relation précédente est équivalente à ?n?N, Un+1=UnM. •Par récurrence, on montre que ?n?N, Un=U0Mn.La loi deXnne dépend que de la matriceMet de la loi deX0.Remarque 3.2 :Définition par récurrence
Les chaînes de Markov sont le pendant aléatoire des suites récurrentes d"ordre1xn+1=f(xn). La
différence avec les suites récurrentes étant queXn+1est une fonction aléatoire deXn.Les chaînes de Markov sont un objet essentiel des probabilités modernes; elles sont utilisées avec succès
en théorie des jeux, physique, biologie, sciences sociales, finance, informatique. 4Méthode 3.3 :CasMdiagonalisableAyant trouvé les valeurs propres deM, et dans le cas oùMest diagonalisable, on sait qu"il existe une
matrice inversiblePet une matrice diagonaleDtelles queM=PDP-1.On a alors ?n?N, Mn=PDnP-1.On peut alors calculer
?n?N, Un=U0PDnP-1.On en déduit alors la loi deXnen déterminantU0,P,DetP-1.Remarque 3.4 :ConseilDans les cas oùMn"est pas diagonalisable, il faut se laisser guider par l"énoncé.3.2 Simulation des premiers états d"une chaîne de Markov avec Scilab
Définition 3.5 :Commande grand(.,"markov",.,.)
La commandegrand(n,"markov",M,x0)simule une chaîne de Markov de matrice de transitionM? MN(R)et d"état initialx0.
Cette commande renvoie lesnpremiers états de la chaîne (trajectoire) suivant l"état initial.Méthode 3.6 :Comment simuler une chaîne de Markov?On utilise la fonctiongrand(n,"markov",M,x0), oùMdésigne la matrice de transition de la chaîne.Remarque 3.7
Si l"ensemble des états est[[1,N]],x0doit être un entier compris entre1etN.Exemple 2.On considère le jeu suivant : un mobile se déplace par sauts sur les points alignésA(état1),
O(état2) etB(état3). Le voyage s"effectue selon la règle suivante : •Le mobile démarre enO.Si le mobile est enOà l"instantn, il sera de façon équiprobable, soit enAsoit enBà l"instantn+ 1.
•Si le mobile est enAà l"instantn, il y reste à l"instantn+ 1ou il retourne enOet ceci de façon
équiprobable.
Si le mobile est enBà l"instantn, il passe enOl"instantn+ 1avec la probabilité1(le pointBest dit réfléchissant).On obtient le diagramme de transition suivant :
5On souhaite simuler le trajet de ce mobile durant les10premiers sauts. Ce jeu est une chaîne de Markov à3
états :1(pointA),2(pointO) et3(pointB) dont la matrice est M=( (1/2 1/2 01/2 0 1/2
0 1 0)
Comme le mobile démarre enOon ax0=2, on peut alors proposer la commande suivante : --> X=grand(10,"markov",[1/2 1/2 0; 1/2 0 1/2; 0 1 0],2) X =1. 2. 3. 2. 1. 2. 3. 2. 1. 1.
3.3 États stables d"une chaîne de Markov homogèneDéfinition 3.8 :Distribution stationnaire
Soit une chaîne de Markov homogène de matrice de transitionM. Une loi de probabilité définie par un
vecteur ligne stochastiqueΠqui satisfait l"équationΠM= Πest appeléedistribution stationnaire(ou
loi stationnaire) de la chaîne de Markov.Propriété 3.9 :Distribution stationnairet
Πest vecteur propre detMpour la valeur propre1.Remarque 3.10 :Chaîne de Markov invarianteSi l"état initialX0a pour loi de probabilitéΠ, alors la chaîne de Markov est stationnaire (elle ne change
jamais d"état).Exemple 3.Déterminer un état stable pour une chaîne de Markov dont la matrice de transition est
M=?1/2 1/2
1/4 3/4?
Solution.On a le diagramme de transition suivant.
6SoitΠ =?
x y? avecx+y= 1(c"est un vecteur ligne stochastique) telle queΠM= Πetx+y= 1??
??x/2 +y/4 =x, x/2 + 3y/4 =y, x+y= 1.?? ??-x/2 +y/4 = 0, x/2-y/4 = 0, x+y= 1.??y= 2/3, x= 1/3.DoncΠ =?
1/3 2/3?
3.4 Convergence vers l"état stableProposition 3.11 :Convergence vers l"état stable
On suppose queUn(la loi deXn) converge vers une limiteL? M1,N(R). CommeUn+1=UnM, par passage à la limite on a : L=LMLa limite de la loi deXnest donc forcément l"état stableL= Π(vers lequel le système converge en temps
long).Dans ce cas, on remarque que quelle que soit la position initialex0de la chaîne de Markov, sa loi se
stabilise vers la même loi limite.Remarque 3.12 :Attention !La réciproque est fausse : il peut y avoir un état stable mais les lois de la chaîne de Markov peuvent ne
pas converger vers l"état stable.Exemple 4.Reprenons l"exemple précédent d"une chaîne de Markov dont la matrice de transition est
M=?1/2 1/2
1/4 3/4?
On a calculé l"état stableΠ =?
1/3 2/3?
Solution.Nous pouvons vérifier cela avecScilab
--> n=10000; --> X=grand(n,"markov",[1/2 1/2; 1/4 3/4],1); --> s1=sum(X==1) // nombre des états 1 de la chaîne s1 = 7 3291.--> f1=sum(X==1)/n // proportion des états 1 de la chaîne f1 =
0.3291
--> s2=sum(X==2) // nombre des états 2 de la chaîne s2 = 6709.--> f2=sum(X==2)/n // proportion des états 2 de la chaîne f2 =
0.6709Cela semble vouloir dire que, sur le long terme, il y a une chance sur3pour que le système soit dans l"état1
et deux chances sur3pour que le système soit dans l"état2. On a bien lim n→+∞Un= limn→+∞?P(Xn= 1)P(Xn= 2)?
1/3 2/3?
Donc lim n→+∞P(Xn= 1) =13 etlimn→+∞P(Xn= 2) =23 8quotesdbs_dbs13.pdfusesText_19[PDF] matrice de transition terminale s
[PDF] matrice des coefficients techniques
[PDF] matrice diagonalisable exemple
[PDF] Matrice et variable aléatoire
[PDF] matrice identité d'ordre 3
[PDF] matrice inverse de leontief definition
[PDF] matrice inversible exercice corrigé
[PDF] matrice nilpotente exercice corrigé
[PDF] Matrice probabiliste, terminale
[PDF] matrice spe maths es
[PDF] Matrice spécialité maths (ES)
[PDF] matrice terminale es exercice
[PDF] matrice trigonalisable exercice corrigé
[PDF] matrice xcas