Dans cette section et les suivantes, nous allons étudier des chaînes de Markov sur un ensemble fini. En fait, tout processus stochastique sur un ensemble fini, à temps discret, et jouissant de la propriété de Markov, est une chaîne de Markov. Nous commençons par étudier quelques exemples, avant de donner une définition et des propriétés générales.
Le point commun des deux exemples précédents est que la position au
temps
est choisie avec une distribution de probabilité ne
dépendant que de l'endroit où l'on se trouve au temps
,
indépendamment de ce qui s'est passé aux temps précédents: C'est la
propriété de Markov.
Dans la suite, il sera utile de noter, pour tout événement
,
Une matrice
dont tous les éléments sont non-négatifs, et telle que
la somme des éléments de chaque ligne vaut
est appelée une
matrice stochastique.
La relation (3.3.14) s'appelle équation de
Chapman-Kolmogorov. Elle signifie que les éléments de matrice de
donnent les probabilités de passer d'un état à l'autre en deux
pas, celles de
donnent les probabilités de passer d'un état
à l'autre en
pas.
Dans la suite, nous allons étudier plus en détail deux types de chaînes de Markov: