Résumé.
Une chaîne de Markov est un processus aléatoire (Xn)n2N dont les transitions sont données par une matrice stochastique P(Xn,Xn+1).
Ces processus vérifient la propriété de Markov, c'est-à-dire qu'observés à partir d'un temps (d'arrêt) T, (XT+n)n2N ne dépend que de XT et est de nouveau une chaîne de Markov.
une chaîne de Markov est irréductible si tout état est accessible à partir de n'importe quel autre état ; un état est récurrent positif si l'espérance du temps de premier retour en cet état, partant de cet état, est finie.
Lorsque les variables aléatoires successives sont des variables discrètes munies d'une fonction de probabilité, on parle de chaîne de Markov.