Un processus de Markov est un processus stochastique possédant la propriété de Markov : l'information utile pour la prédiction du futur est entièrement contenue dans l'état présent du processus et n'est pas dépendante des états antérieurs (le système n'a pas de « mémoire »). Les processus de Markov portent le nom de leur inventeur, Andreï Markov .
Une variante courante des chaînes de Markov est la chaîne de Markov homogène, pour laquelle la probabilité de transition est indépendante de : Dans la suite de l'article on ne considèrera que des chaînes de Markov homogènes.
Si une chaîne de Markov possède au moins un état récurrent positif, alors il existe une probabilité stationnaire. S'il existe une probabilité stationnaire telle que , alors l'état est récurrent positif, et réciproquement. Théorème — Si une chaîne de Markov possède une seule classe finale alors il existe au plus une probabilité stationnaire.
une chaîne de Markov est irréductible si tout état est accessible à partir de n'importe quel autre état ; un état est récurrent positif si l'espérance du temps de premier retour en cet état, partant de cet état, est finie. Si une chaîne de Markov possède au moins un état récurrent positif, alors il existe une probabilité stationnaire.