You are on page 1of 51

Chapitre 8

Chanes de Markov
8.1 La matrice de transition
Une suite de variables aleatoires X
n

n0
`a valeurs dans lespace denombrable E est
appele processus stochastique (`a temps discret) (`a valeurs dans E). Lensemble E est
lespace detat, dont les elements seront notes i, j, k... Lorsque X
n
= i, le processus est
dit etre dans, ou visiter, letat i au temps n.
Les suites de variables aleatoires iid sont bien des processus stochastiques, mais du
point de vue de la modelisation, elles ne sont pas satisfaisantes, ne prenant pas en compte
la dynamique des syst`emes en evolution, du fait de lindependance. Pour introduire
cette dynamique, il faut tenir compte de linuence du passe, ce que font les chanes
de Markov, `a la fa con des equations de recurrence dans les syst`emes deterministes. En
fait, les chanes de Markov sont des processus stochastiques dont levolution est regie
par une equation de recurrence du type X
n+1
= f(X
n
, Z
n+1
), o` u Z
n

n1
est une suite
iid independante de la valeur initiale X
0
(voir plus bas). Cette structure extremement
simple sut `a generer une grande variete de comportements. Cest pour cela que les
chanes de Markov trouvent des applications dans beaucoup de domaines comme, par
exemple, la biologie, la physique, la sociologie, la recherche operationnelle et les sciences
de lingenieur, o` u elles donnent des reponses qualitatives aussi bien que quantitatives
aux probl`emes poses.
Voici la denition :
Denition 8.1.1 Si pour tout entier n 0 et tous etats i
0
, i
1
, . . . , i
n1
, i, j E,
P(X
n+1
= j [ X
n
= i, X
n1
= i
n1
, . . . , X
0
= i
0
) = P(X
n+1
= j [ X
n
= i) , (8.1)
le processus X
n

n0
est appele chane de Markov. Celle-ci est dite homog`ene si le
second membre de (8.1) ne depend pas de n.
203
204 CHAPITRE 8. CHA

INES DE MARKOV
On abr`egera chane de Markov homog`ene par cmh.
La propriete (8.1) est la propriete de Markov.
La matrice P = p
ij

i,jE
, o` u
p
ij
= P(X
n+1
= j [ X
n
= i)
est la probabilite de transition de i vers j, est appellee matrice de transition de la chane.
Comme ses elements sont des probabilites et puisquune transition a necessairement lieu
dun etat vers un autre etat, on a
p
ij
0, et

kE
p
ik
= 1
pour tous etats i, j. Une matrice P indexee par E et satisfaisant les proprietes ci-dessus
est appelee matrice stochastique.
Lespace detat peut etre inni et par consequent une telle matrice nest pas du type
etudie en alg`ebre lineaire. Toutefois, laddition et la multiplication sont denies par les
memes r`egles formelles. Par exemple, avec A = a
ij

i,jE
et B = b
ij

i,jE
, le produit
C = AB est la matrice c
ij

i,jE
, o` u c
ij
=

kE
a
ik
b
kj
. La notation x = x
i

iE
represente formellement un vecteur colonne et x
T
est donc un vecteur ligne, le transpose
de x. Par exemple, y = y
i

iE
donne par y
T
= x
T
A est deni par y
i
=

kE
x
k
a
ki
.
Semblablement, z = z
i

iE
donne par z = Ax est deni par z
i
=

kE
a
ik
z
k
.
Une matrice de transition P est parfois representee par son graphe de transition G,
un graphe dont les nuds sont les etats de E et qui a une arete orientee de i vers j si et
seulement si p
ij
> 0, auquel cas cette arete est ornee de letiquette p
ij
.
La propriete de Markov (8.1) setend facilement (voir lExercice 8.5.2) comme suit
P(X
n+1
= j
1
, . . . , X
n+k
= j
k
[ X
n
= i, X
n1
= i
n1
, . . . , X
0
= i
0
)
= P(X
n+1
= j
1
, . . . , X
n+k
= j
k
[ X
n
= i) (8.2)
pour tous i
0
, . . . , i
n1
, i, j
1
, . . . , j
k
. En notant
A = X
n+1
= j
1
, . . . , X
n+k
= j
k
, B = X
0
= i
0
, . . . , X
n1
= i
n1
,
la derni`ere egalite se lit P(A [ X
n
= i, B) = P(A [ X
n
= i), et celle-ci se lit `a son tour
P(A B [ X
n
= i) = P(A [ X
n
= i)P(B [ X
n
= i).
Donc, A et B sont conditionnellement independants sachant X
n
= i. Tel est le contenu
du :
Theor`eme 8.1.1 Pour tout i E, n 1, le futur au temps n et le passe au temps n
sont conditionnellement independants etant donne letat present X
n
= i.
Voir cependant lExercice 8.5.1.
Le Theor`eme 8.1.1 montre en particulier que la propriete de Markov est independante
de la direction du temps.
8.1. LA MATRICE DE TRANSITION 205
La distribution dune cmh
La distribution au temps n de la chane est le vecteur
n
=
n
(i)
iE
, o` u

n
(i) = P(X
n
= i).
La r`egle des causes totales donne
n+1
(j) =

iE

n
(i)p
ij
, cest-`a-dire, sous forme ma-
tricielle,
T
n+1
=
T
n
P. En iterant cette egalite, on obtient pour tout n 1 :

T
n
=
T
0
P
n
. (8.3)
La matrice P
n
est appelee matrice de transition en n etapes car son terme general nest
autre que
p
ij
(n) = P(X
n+m
= j [ X
m
= i).
En eet, dapr`es la r`egle de Bayes sequentielle et en tenant compte de la propriete de
Markov, on trouve pour le second membre de la derni`ere egalite

i1,...,in1E
p
ii1
p
i1i2
p
in1j
,
qui est bien le terme general de la n-`eme puissance de la matrice P.
Par convention, P
0
= la matrice identite (p
i,j
(0) = 1
{i=j}
).
La variable X
0
est letat initial, et sa distribution de probabilite
0
est la distribution
initiale. La r`egle de Bayes sequentielle donne :
P(X
0
= i
0
, X
1
= i
1
, . . . , X
k
= i
k
)
= P(X
0
= i
0
)P(X
1
= i
1
[ X
0
= i
0
) P(X
k
= i
k
[ X
k1
= i
k1
, . . . , X
0
= i
0
) ,
et donc, dans le cas dune cmh,
P(X
0
= i
0
, X
1
= i
1
, . . . , X
k
= i
k
) =
0
(i
0
)p
i0i1
p
i
k1
i
k
. (8.4)
La donnee de (8.4) pour tout k 0 et tous etats i
0
, i
1
, . . . , i
k
constitue la distribution de
probabilite de la cmh. Donc :
Theor`eme 8.1.2 La distribution de probabilite dune cmh est enti`erement determinee
par sa distribution initiale et sa matrice de transition.
Notation. On abr`egera P(A [ X
0
= i) en P
i
(A). Pour toute probabilite sur E, on
notera P

(A) =

iE
(i)P(A[X
0
= i). Cest la probabilite qui regit levolution de la
chane lorsque la distribution initiale est .
206 CHAPITRE 8. CHA

INES DE MARKOV
Recurrences markoviennes
Nombre de cmh sont decrites par une equation de recurrence controlee par un bruit
blanc. Plus precisement,
Theor`eme 8.1.3 Soit Z
n

n1
une suite iid de variables aleatoires `a valeurs dans un
espace arbitraire G. Soit E un espace denombrable, et soit une fonction f : EG E.
Soit X
0
une variable aleatoire `a valeurs dans E, independante de la suite Z
n

n1
.
Lequation de recurrence
X
n+1
= f(X
n
, Z
n+1
) (8.5)
denit alors une cmh.
Demonstration. Literation de (8.5) montre que pour tout n 1, il existe une fonc-
tion g
n
telle que X
n
= g
n
(X
0
, Z
1
, . . . , Z
n
), et donc P(X
n+1
= j [ X
n
= i, X
n1
=
i
n1
, . . . , X
0
= i
0
) = P(f(i, Z
n+1
) = j [ X
n
= i, X
n1
= i
n1
, . . . , X
0
= i
0
) =
P(f(i, Z
n+1
) = j), puisque levenement X
0
= i
0
, . . . , X
n1
= i
n1
, X
n
= i est ex-
primable en termes de X
0
, Z
1
, . . . , Z
n
et est donc independant de Z
n+1
. Semblablement,
P(X
n+1
= j [ X
n
= i) = P(f(i, Z
n+1
) = j). On a donc une chane de Markov, qui est
de plus homog`ene, puisque le second membre de la derni`ere egalite ne depend pas de n.
Explicitement :
p
ij
= P(f(i, Z
1
) = j). (8.6)

Exemple 8.1.1: Marche al eatoire sur Z, take 1. Soit X


0
une variable `a valeurs
dans Z. Soit Z
n

n1
une suite de variables iid independante de X
0
, prenant les valeurs
+1 ou 1, et de distribution de probabilite commune
P(Z
n
= +1) = p,
o` u 0 < p < 1. Le processus X
n

n1
deni par
X
n+1
= X
n
+Z
n+1
est, au vu du Theor`eme 8.1.3, une cmh, appelee marche aleatoire sur Z.
Exemple 8.1.2: Automates stochastiques. Un automate ni (E, /, f) peut lire
les lettres dun alphabet ni / ecrites sur un ruban inni. Cet automate se trouve `a un
instant donne dans un quelconque des etats dun ensemble ni E, et son evolution est
regie par une fonction f : E / E comme suit. Quand lautomate est dans letat
i E et lit la lettre a /, il passe de letat i `a letat j = f(i, a) et lit sur le ruban la
prochaine lettre `a droite de celle quil vient de lire.
Un automate est represente par son graphe de transition G ayant pour nuds les etats
de E. Il y a une arete orientee du nud (etat) i au nud j si et seulement sil existe a /
8.1. LA MATRICE DE TRANSITION 207
3
0
1
0
0
0
1 1
1
0 1 2
a
1 0 0 1 1 1 1 0
3
0 1 1 1 1 1 1 0 1 0
3 3
b
3 0 1
1
2
1
2
1
2
1
2
1
2
1
2
1
2
1
2
2
c
Un automate stochastique
tel que j = f(i, a), et cette arete recoit alors letiquette a. Si j = f(i, a
1
) = f(i, a
2
) pour
a
1
,= a
2
, il y a alors 2 aretes orientees de i vers j avec les etiquettes a
1
et a
2
, ou, plus
economiquement, une seule arete orientee avec letiquette (a
1
, a
2
). Plus generalement,
une arete orientee donnee peut avoir des etiquettes multiples `a tous ordres.
Considerons `a titre dexemple lautomate avec lalphabet / = 0, 1 correspondant
au graphe de transition de la Figure a. Lautomate, initialise dans letat 0, lit la suite de
la Figure b de gauche `a droite, passant successivement dans les etats (y compris letat
initial 0)
0 1 0 0 1 2 3 1 0 0 1 2 3 1 2 3 0 1 0 .
Il apparat que lautomate est dans letat 3 apr`es avoir lu trois 1 successifs qui ne che-
vauchent pas un bloc de trois 1 consecutifs precedemment enregistre (voir Figure b), et
seulement dans cette circonstance.
Si la suite de lettres lues par lautomate est Z
n

n1
, la suite des etats X
n

n0
est
alors donnee par lequation de recurrence X
n+1
= f(X
n
, Z
n+1
) et donc, si Z
n

n1
est
iid et independante de letat initial X
0
, alors X
n

n1
est, au vu du Theor`eme 8.1.3,
une cmh. Son graphe de transition est represente dans la Figure c.
Toutes les cmh ne recoivent pas une description naturelle du type de celle du Theor`eme
8.1.3. Cependant une telle description est toujours possible dans le sens suivant :
208 CHAPITRE 8. CHA

INES DE MARKOV
Theor`eme 8.1.4
`
A toute matrice stochastique P sur E, on peut associer une cmh
X
n

n0
avec cette matrice pour matrice de transition, et admettant une representation
comme dans le Theor`eme 8.1.3.
Demonstration. On identiera E `a N. On pose
X
n+1
= j si
j1

k=0
p
Xnk
< Z
n+1

j

k=0
p
Xnk
,
o` u Z
n

n1
est iid, uniformement distribuee sur (0, 1]. On peut appliquer le Theor`eme
8.1.3, et on verie que cette cmh a la matrice de transition requise (Formule (8.6)).
Cette representation est utile pour simuler de petites (avec un petit espace detat) cmh.
Elle a egalement un interet theorique. En particulier, lorsquon cherche `a demontrer une
propriete qui concerne la distribution dune cmh, on peut toujours supposer que celle-ci
admet une representation comme dans le Theor`eme 8.1.3. Cette remarque sera utile `a
plusieurs reprises.
Toutes les cmh ne recoivent pas de mani`ere naturelle une description du type
donne dans le Theor`eme 8.1.3. Une leg`ere modication de ce theor`eme en elargit
considerablement la portee.
Theor`eme 8.1.5 Considerons la situation du Theor`eme 8.1.3, sauf en ce qui concerne
la distribution de X
0
, Z
1
, Z
2
, . . .. On suppose `a la place que F est denombrable et que
pour tout n 0, Z
n+1
est conditionnellement independant de Z
n
, . . . , Z
1
, X
n1
, . . . , X
0
sachant X
n
, cest-`a-dire : pour tout k, k
1
, . . . , k
n
F, i
0
, i
1
, . . . , i
n1
, i E,
P(Z
n+1
= k [ X
n
= i, X
n1
= i
n1
, . . . , X
0
= i
0
, Z
n
= k
n
, . . . , Z
1
= k
1
)
= P(Z
n+1
= k [ X
n
= i),
o` u la derni`ere quantite est independante de n. Alors, X
n

n0
est une cmh dont les
probabilites de transition sont donnees par la formule :
p
ij
= P(f(i, Z
1
) = j [ X
0
= i).
Demonstration. Exercice 8.5.3.
Exemple 8.1.3: Lurne dEhrenfest, take 1. Ce mod`ele simplie de diusion `a
travers une membrane poreuse fut propose en 1907 par les physiciens autrichiens Ta-
tiana et Paul Ehrenfest pour decrire en termes de physique statistique les echanges de
chaleur entre deux syst`emes `a dierentes temperatures, et ainsi de mieux comprendre le
phenom`ene dirreversibilite thermodynamique (Exemple 8.3.1).
Il y a N particules qui peuvent se trouver dans le compartiment A ou le compartiment
B. Supposons quau temps n 0, X
n
= i particules sont dans A. On choisit alors une
particule au hasard, et cette particule est alors transferee du compartiment o` u elle se
trouvait dans lautre. Le prochain etat du syst`eme, X
n+1
, est donc, soit i1 (la particule
8.1. LA MATRICE DE TRANSITION 209
deplacee fut trouvee dans le compartiment A) avec la probabilite
i
N
, soit i + 1 (elle fut
trouvee dans B) avec la probabilite
Ni
N
.
Ce mod`ele rel`eve du Theor`eme 8.1.5. Pour tout n 0,
X
n+1
= X
n
+Z
n+1
,
o` u Z
n
1, +1 et P(Z
n+1
= 1 [ X
n
= i) =
i
N
. Les termes non nuls de la matrice
de transition sont donc
p
i,i+1
=
N i
N
, p
i,i1
=
i
N
.
Analyse `a un pas
Certaines fonctionnelles de cmh, en particulier les probabilites dabsorption par un
ensemble detats A ferme (

jA
p
ij
= 1 pour tout i A) et les temps moyens avant
absorption, peuvent etre evalues grace `a la methode appelee analyse `a un pas. Cette
technique, qui est le moteur de la plupart des calculs en theorie des chanes de Markov,
va etre illustree par les exemple suivants.
Exemple 8.1.4: La ruine du joueur, take 1. Deux joueurs A et B jouent `a pile ou
face, o` u la probabilite de face est p (0, 1), et les tirages successifs sont iid. Si on note
X
n
la fortune du joueur A au temps n, alors X
n+1
= X
n
+Z
n+1
, o` u Z
n+1
= +1 (resp.,
1) avec probabilite p (resp., q = 1p), et Z
n

n1
est iid. En dautres mots, A parie 1
euro sur face `a chaque lancer, et B parie la meme chose sur pile. Le processus X
n

n1
est donc la marche aleatoire de lExemple 8.1.1. Les fortunes initiales de A et B sont
respectivement a et b. Le jeu se termine d`es quun des deux joueurs est ruine.
La duree du jeu est T, le premier temps n auquel X
n
= 0 ou c, et la probabilite que
A gagne est u(a) = P(X
T
= c [ X
0
= a).
1 2 3 4 5 6 7 8 9 10 T = 11
c = a + b
0
a
A gagne
La ruine du joueur B
210 CHAPITRE 8. CHA

INES DE MARKOV
Au lieu de calculer seulement u(a), lanalyse `a un pas calcule
u(i) = P(X
T
= c [ X
0
= i)
pour tout i, 0 i c, et pour ce faire, elle gen`ere une equation de recurrence pour les
u(i) en decomposant levenement A gagne selon les eventualites du premier lancer, et
en utilisant la r`egle des causes totales. Si X
0
= i, 1 i c 1, alors X
1
= i + 1 (resp.,
X
1
= i 1) avec probabilite p (resp., q), et la probabilite de ruine de B sachant que A
a une fortune initiale i +1 (resp., i 1) est u(i +1) (resp., u(i 1)). Donc, pour tout i,
1 i c 1,
u(i) = pu(i + 1) +qu(i 1),
avec les conditions aux fronti`eres u(0) = 0, u(c) = 1.
Lequation caracteristique associee `a cette equation de recurrence lineaire est
pr
2
r +q = 0. Elle a deux racines distinctes, r
1
= 1 et r
2
=
q
p
, si p ,= q, et une racine
double, r
1
= 1, si p = q =
1
2
. La solution generale est donc u(i) = r
i
1
+r
i
2
= +
_
q
p
_
i
quand p ,= q, et u(i) = r
i
1
+ ir
i
1
= + i lorsque p = q =
1
2
. Tenant compte des
conditions aux fronti`eres, on peut calculer et . Le resultat est, pour p ,= q,
u(i) =
1 (
q
p
)
i
1 (
q
p
)
c
,
et pour p = q =
1
2
,
u(i) =
i
c
.
Dans le cas p = q =
1
2
, la probabilite v(i) que B gagne quand la fortune initiale de B
est c i est obtenue en remplacant i par c i dans lexpression de u(i). Ce qui donne
v(i) =
ci
c
= 1
i
c
. On verie que u(i) + v(i) = 1, ce qui signie en particulier que la
probabilite pour que le jeu ne seternise pas est 1. Le lecteur est invite `a verier quil en
est de meme pour p ,= q.
Exemple 8.1.5: La ruine du joueur, take 2. (suite de lExemple 8.1.4) La duree
m(i) = E[T [ X
0
= i] du jeu quand la fortune initiale du joueur A est i verie lequation
de recurrence
m(i) = 1 +pm(i + 1) +qm(i 1)
lorsque 1 i c 1. En eet, la pi`ece doit etre lancee au moins une fois, et avec la
probabilite p (resp., q) la fortune de A sera i + 1 (resp., i 1), et donc m(i + 1) (resp.,
m(i 1)) lancers supplementaires seront en moyenne necessaires pour nir le jeu. Les
conditions aux fronti`eres sont
m(0) = 0, m(c) = 0.
8.1. LA MATRICE DE TRANSITION 211
Reecrivons lequation de recurrence sous la forme 1 = p(m(i + 1) m(i)) q(m(i)
m(i 1)). Notant
y
i
= m(i) m(i 1),
on a, pour 1 i c 1,
1 = py
i+1
qy
i
et
m(i) = y
1
+y
2
+ +y
i
.
Nous allons resoudre cette equation de recurrence avec p = q =
1
2
. Pour cela, on la reecrit
1 =
1
2
y
2

1
2
y
1
,
1 =
1
2
y
3

1
2
y
2
,
.
.
.
1 =
1
2
y
i

1
2
y
i1
,
et donc, en sommant,
(i 1) =
1
2
y
i

1
2
y
1
,
cest-`a-dire, pour 1 i c,
y
i
= y
1
2(i 1).
Reportant cette expression dans m(i) = y
1
+y
2
+ +y
i
, et observant que y
1
= m(1),
on obtient
m(i) = im(1) 2[1 + 2 + + (i 1)] = im(1) i(i 1).
La condition m(c) = 0 donne cm(1) = c(c 1) et donc, nalement,
m(i) = i(c i).
Exemple 8.1.6: R ecr eation : Tennis. Au tennis, si on ignore les tie-breaks, un
jeu peut etre modelise par une cmh dont le graphe de transition est donne par la
gure ci-dessous, o` u p est la probabilite que le serveur A gagne le point, et q = 1 p.
On veut calculer la probabilite pour que B remporte le jeu.
On voit sur la gure quun jeu comporte deux etapes : on atteint dabord un des etats
superieurs du graphe et ensuite, on reste dans les etats superieurs jusqu`a labsorption
en jeu pour A ou jeu pour B. En modiant les noms des etats superieurs, le graphe
de la cmh de la deuxi`eme etape est donne par la Figure b.
212 CHAPITRE 8. CHA

INES DE MARKOV
JEU B
40 15 15 40
40 0 30 15 15 30 0 40
30 0 15 15 0 30
15 0 0 15
0 0
p p p
p
p
p
p
p
p
p
p p
p
q
q
q
q
q
q
q
q
q
q q q
q q p
q p
JEU A AV. A

EGALIT

E
AV. B
a
1 1 2 3 4 5 1
q q q
p p p
b
Tennis : un jeu sans la r`egle du tie-break
8.1. LA MATRICE DE TRANSITION 213
Lanalyse `a un pas donne pour b
i
, la probabilite pour que B gagne sachant que la
deuxi`eme etape debute en i,
b
1
= 1 , b
5
= 0
et
b
2
= q +pb
3
,
b
3
= qb
2
+pb
4
,
b
4
= qb
3
.
pour p ,= q,
(b
1
, b
2
, b
3
, b
4
, b
5
) =
_
1 , q
1 pq
1 2pq
,
q
2
1 2pq
,
q
3
1 2pq
, 0
_
.
Si on debute en 0-0, B gagne avec la probabilite

5
i=1
p(i)b
i
, o` u p(i) est la probabilite
que la deuxi`eme etape debute en i. Une simple enumeration des chemins allant de 0-0 `a
letat superieur 1 donne p(1) = q
4
+q
3
pq +q
2
pq
2
+qpq
3
+pq
4
, cest-`a dire,
p(1) = q
4
(1 + 4p).
Le lecteur pourra terminer les calculs.
Distribution stationnaire
Denition 8.1.2 Une distribution de probabilite satisfaisant lequation de balance
globale

T
=
T
P (8.7)
est appelee distribution stationnaire de la matrice de transition P, ou de la cmh.
Lequation de balance globale dit que pour tout etat i,
(i) =

jE
(j)p
ji
.
Literation de (8.7) donne
T
=
T
P
n
pour tout n 0, et donc, au vu de (8.3), si la dis-
tribution initiale = , alors
n
= pour tout n 0 : si une chane a pour distribution
initiale la distribution stationnaire, elle garde cette distribution pour toujours. Mais il y
a plus. En eet, dans ce cas,
P(X
n
= i
0
, X
n+1
= i
1
, . . . , X
n+k
= i
k
) = P(X
n
= i
0
)p
i0i1
. . . p
i
k1
i
k
= (i
0
)p
i0i1
. . . p
i
k1
i
k
ne depend plus n. Cest dans ce sens quon dit que la chane est stationnaire. On dit
aussi quelle se trouve en regime stationnaire, ou en equilibre. En resume :
214 CHAPITRE 8. CHA

INES DE MARKOV
Theor`eme 8.1.6 Si la distribution initiale dune cmh est la distribution stationnaire,
la cmh est stationnaire.
Lequation de balance globale
T
P =
T
, et la relation
T
1 = 1 (o` u 1 est un vecteur
colonne dont toutes les coordonnees sont egales `a 1) qui exprime que est une proba-
bilite, donnent, lorsque E est ni, [E[ + 1 equations avec [E[ variables. Une de ces [E[
equations est superue sous la contrainte
T
1 = 1. En eet, si on fait la somme des
equations de
T
P =
T
on obtient
T
P1 =
T
1, cest-`a-dire,
T
1 = 1.
Exemple 8.1.7: Chane ` a 2 etats. Lespace detat est E = 1, 2 et la matrice de
transition est
P =
_
1
1
_
,
o` u , (0, 1). Les equations de balance globale sont
(1) = (1)(1 ) +(2),
(2) = (1) +(2)(1 ).
Ce syst`eme dependant se reduit `a une seule equation (1) = (2), `a laquelle il faut
ajouter (1) +(2) = 1 qui exprime que est une probabilite. On obtient
(1) =

+
, (2) =

+
.
Exemple 8.1.8: Lurne dEhrenfest, take 2. (suite de lExemple 8.1.3) Les
equations de balance globale sont pour i, 1 i N 1,
(i) = (i 1)
_
1
i 1
N
_
+(i + 1)
i + 1
N
et pour les etats extremes,
(0) = (1)
1
N
, (N) = (N 1)
1
N
.
Laissant (0) indetermine, on resout les equations pour i = 0, 1, . . . , N successivement
pour obtenir
(i) = (0)
_
N
i
_
.
La quantite (0) est alors determinee en ecrivant que est un vecteur de probabilite :
1 =
N

i=0
(i) = (0)
N

i=0
_
N
i
_
= (0)2
N
.
8.1. LA MATRICE DE TRANSITION 215
Ceci donne pour distribution binomiale de taille N et de param`etre
1
2
:
(i) =
1
2
N
_
N
i
_
.
Cest la distribution quon obtiendrait en placant independamment les particules dans
les compartiments avec la probabilite
1
2
pour chaque compartiment.
Les distributions stationnaires peuvent etre nombreuses. Ainsi, si on prend la matrice de
transition qui est la matrice unite, toute probabilite sur lespace detat est une probabilite
stationnaire. Il se peut aussi quil ny ait pas de probabilite stationnaire (voir lExercice
8.5.10).
Exemple 8.1.9: processus de naissance et de mort, I. De tels processus
generalisent le mod`ele de diusion dEhrenfest. Lespace detat est E = 0, 1, . . . , N, et
la matrice de transition :
P =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0 1
q
1
r
1
p
1
q
2
r
2
p
2
.
.
.
q
i
r
i
p
i
.
.
.
.
.
.
.
.
.
q
N1
r
N1
p
N1
1 0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
,
o` u p
i
> 0 et q
i
> 0 pour tout etat i tel que 1 i N 1. Les equations de balance
globale pour les etats i ,= 0, N sont :
(i) = p
i1
(i 1) +r
i
(i) +q
i+1
(i + 1),
et pour les etats 0 et N :
(0) = (1)q
1
, (N) = (N 1)p
N1
(barri`eres reechissantes). En remarquant que r
i
= 1 p
i
q
i
et en regroupant des
termes, on a, pour 2 i N 1,
(i + 1)q
i+1
(i)p
i
= (i)q
i
(i 1)p
i1
et
(1)q
1
(0) = 0,
(2)q
2
(1)p
1
= (1)q
1
(0).
216 CHAPITRE 8. CHA

INES DE MARKOV
Donc, (1)q
1
= (0), et pour 2 i N 1,
(i)q
i
= (i 1)p
i1
.
Ceci donne
(1) = (0)
1
q
1
,
et pour 2 i N,
(i) = (0)
p
1
p
2
p
i1
q
1
q
2
q
i
. (8.8)
Linconnue (0) est determinee par legalite

N
i=0
(i) = 1 ( est une probabilite), ce
qui donne,
(0)
_
1 +
1
q
1
+
p
1
q
1
q
2
+ +
p
1
p
2
p
N1
q
1
q
2
q
N1
q
N
_
= 1. (8.9)
Retournement du temps
Les notions de retournement de temps et de reversibilite sont tr`es productives en
theorie des chanes de Markov.
Soit X
n

n0
une cmh de matrice de transition P admettant une distribution sta-
tionnaire positive ((i) > 0 pour tout etat i). La matrice Q, indexee par E, denie
par
(i)q
ij
= (j)p
ji
, (8.10)
est une matrice stochastique. En eet,

jE
q
ij
=

jE
(j)
(i)
p
ji
=
1
(i)

jE
(j)p
ji
=
(i)
(i)
= 1,
o` u la troisi`eme egalite tient compte des equations de balance globale. Elle recoit lin-
terpretation suivante : supposons que la distribution initiale soit , auquel cas pour tout
n 0, tout i E,
P(X
n
= i) = (i).
Alors la formule de retrodiction de Bayes donne
P(X
n
= j [ X
n+1
= i) =
P(X
n+1
= i [ X
n
= j)P(X
n
= j)
P(X
n+1
= i)
,
cest-`a-dire, au vu de (8.10),
P(X
n
= j [ X
n+1
= i) = q
ji
.
On voit que Q est la matrice de transition de la chane quand on retourne le temps.
Lobservation qui suit est promue au rang de theor`eme `a cause de son ecacite.
8.1. LA MATRICE DE TRANSITION 217
Theor`eme 8.1.7 Soit P une matrice stochastique indexee par lensemble denombrable
E, et soit une distribution de probabilite positive sur E. Si la matrice Q indexee par
E et denie par (8.10) est une matrice stochastique (la somme de chacune des lignes
est egale `a 1), alors est une distribution stationnaire de P.
Demonstration. Pour i E xe, on somme les egalites (8.10) par rapport `a j E, ce
qui donne

jE
(i)q
ij
=

jE
(j)p
ji
.
Mais le membre de gauche de cette egalite egale (i)

jE
q
ij
= (i), et donc, pour tout
i E,
(i) =

jE
(j)p
ji
.

Denition 8.1.3 On appelle reversible toute chane de Markov de distribution initiale


(une distribution stationnaire) positive telle que pour tout i, j E,
(i)p
ij
= (j)p
ji
. (8.11)
Dans ce cas, q
ij
= p
ij
, et donc la chane et la chane retournee ont la meme distribution
puisque celle-ci est enti`erement determinee par la distribution initiale et la matrice de
transition. Les equations (8.11) sont appelees les equations de balance detaillee. Le
resultat suivant est un corollaire immediat du Theor`eme 8.1.7.
Theor`eme 8.1.8 Soit P une matrice de transition sur E, et soit une distribution de
probabilite sur E. Si pour tout i, j E, les equations de balance detaillee (8.11) sont
veriees, alors est une distribution stationnaire de P.
Exemple 8.1.10: Lurne dEhrenfest, take 3. (suite des Exemples 8.1.3 et 8.1.8)
On rappelle quon avait obtenu lexpression
(i) =
1
2N
_
N
i
_
pour la distribution stationnaire. La verication des equations de balance detaillee
(i)p
i,i+1
= (i + 1)p
i+1,i
est immediate. Lurne dEhrenfest est donc reversible.
Exemple 8.1.11: Marche al eatoire sur un graphe. Soit un graphe non oriente o` u
on note E lensemble de ses sommets, ou nuds. Soit d
i
le nombre daretes adjacentes
218 CHAPITRE 8. CHA

INES DE MARKOV
au sommet i. Transformons ce graphe en un graphe oriente en decomposant chacune de
ses aretes en deux aretes orientees de directions opposees, et faisons en un graphe de
transition en associant `a larete orientee de i vers j la probabilite de transition
1
d
i
.
On supposera que d
i
> 0 pour tout etat i (pas de nud isole). Une distribution
stationnaire (en fait, la distribution stationnaire comme nous le verrons bientot) est
donnee par
(i) =
d
i

jE
d
j
.
Pour cela on utilise le Theor`eme 8.1.8, en faisant le pari que la chane est reversible. Il
nous faut juste verier que
(i)
1
d
i
= (j)
1
d
j
,
ce qui est bien le cas.
1
2
3
4
1
2
3
4
1
1
3
1
3
1
2
1
2
1
2
1
2
1
3
Marche aleatoire sur un graphe
Communication
Les proprietes que lon va denir dans cette n de section (communication et periode)
sont purement topologiques, en ce sens quelles concernent le graphe de transition nu,
cest-`a-dire sans les etiquettes indiquant les probabilites de transition.
Denition 8.1.4 Letat j est dit accessible depuis letat i sil existe un entier M 0
tel que p
ij
(M) > 0. En particulier, un etat i est toujours accessible depuis lui-meme,
puisque p
ii
(0) = 1. Les etats i et j sont dits communiquer si i est accessible depuis j et
si j est accessible depuis i. On note ceci i j.
Pour M 1, p
ij
(M) =

i1,...,i
M1
p
ii1
p
i
M1
j
, et donc p
ij
(M) > 0 si et seulement
si il existe au moins un chemin i, i
1
, . . . , i
M1
, j de i `a j tel que
p
ii1
p
i1i2
p
i
M1
j
> 0,
8.1. LA MATRICE DE TRANSITION 219
ou, de mani`ere equivalente, si il existe un chemin oriente de i vers j dans le graphe de
transition G. On verie immediatement que
i i (reexivite),
i j j i (symetrie),
i j, j k i k (transivite).
Donc la relation de communication () est une relation dequivalence. Elle engendre
une partition de lespace detat E en classes dequivalences appelees classes de commu-
nication.
Denition 8.1.5 Un etat i tel que p
ii
= 1 est dit ferme. Plus generalement, un ensemble
C detats tel que

jC
p
ij
= 1 pour tout i C est dit ferme.
1
2
3
4
5
6
7
8
Un graphe de transition avec 3 classes de communications
Exemple 8.1.12: Un graphe de transition. Le graphe de transition de la gure
ci-dessous a trois classes de communication : 1, 2, 3, 4, 5, 7, 8, et 6. Letat 6 est
ferme. La classe de communication 5, 7, 8 nest pas fermee, mais lensemble 5, 6, 7, 8
lest.
On observe sur cet exemple quil peut y avoir des aretes orientees reliant deux classes
de communication dierentes E
k
et E

. Cependant, toutes les aretes orientees entre deux


classes de communication donnees ont la meme orientation, toutes de E
k
`a E

ou toutes
de E

`a E
k
.
Denition 8.1.6 Sil ny a quune seule classe de communication, la chane, sa matrice
de transition et son graphe de transition sont dits irreductibles.
220 CHAPITRE 8. CHA

INES DE MARKOV
Periode
Considerons la marche aleatoire sur Z (Exemple 8.1.1). Comme 0 < p < 1, elle est
irreductible. On observe que E = C
0
+ C
1
, o` u C
0
et C
1
, lensemble des entiers relatifs
pairs et impairs respectivement, ont la propriete suivante. Si on part de i C
0
(resp., C
1
),
on ne peut se rendre en une seule etape que dans un etat j C
1
(resp., C
0
). La chane
passe alternativement dune classe `a lautre. En ce sens, la chane a un comportement
periodique, correspondant `a la periode 2. Voici la denition exacte.
Denition 8.1.7 La periode d
i
de letat i E est par denition,
d
i
= pgcdn 1 ; p
ii
(n) > 0,
avec la convention d
i
= +sil ny a pas dindice n 1 tel que p
ii
(n) > 0 (on ne revient
pas en i). Si d
i
= 1, letat i est dit aperiodique.
Theor`eme 8.1.9 Si les etats i et j communiquent, ils ont la meme periode.
Demonstration. Comme i et j communiquent, il existe des entiers M et N tels que
p
ij
(M) > 0 et p
ji
(N) > 0. Pour tout k 1,
p
ii
(M +nk +N) p
ij
(M)(p
jj
(k))
n
p
ji
(N)
(en eet, un chemin tel que X
0
= i, X
M
= j, X
M+k
= j, . . . , X
M+nk
= j, X
M+nk+N
= i
est un des moyens parmi dautres daller de i `a i en M +nk +N etapes).
Donc, pour tout k 1 tel que p
jj
(k) > 0, on a p
ii
(M +nk +N) > 0 pour tout n 1.
Par consequent, d
i
divise M +nk +N pour tout n 1, et en particulier, d
i
divise k. On
a donc montre que d
i
divise tout k tel que p
jj
(k) > 0, et en particulier, d
i
divise d
j
. Par
symetrie, d
j
divise d
i
, et donc, nalement d
i
= d
j
.
Denition 8.1.8 Si la chane est irreductible, la periode d commune `a tous les etats
est appelee la periode de P, ou de la chane. Si d = 1, la matrice de transition et la
chane sont dites aperiodiques.
Theor`eme 8.1.10 Soit P une matrice stochastique irreductible, de periode d. Alors,
pour tous etats i, j E il existe des entiers (dependant de i, j) m 0 et n
0
0 tels que
p
ij
(m+nd) > 0, pour tout n n
0
.
Demonstration. Il sut de prouver le theor`eme pour i = j. En eet, il existe m tel que
p
ij
(m) > 0, parce que j est accessible depuis i, la chane etant irreductible, et donc, si
pour un n
0
0 on a p
jj
(nd) > 0 pour tout n n
0
, alors p
ij
(m+nd) > p
ij
(m)p
jj
(nd) > 0
pour tout n n
0
.
8.1. LA MATRICE DE TRANSITION 221
Le reste de la preuve decoule dun resultat classique de la theorie des nombres : tout
ensemble A dentiers positifs qui est ferme par addition et de pgcd d (comme cest bien
le cas pour A = k 1; p
jj
(k) > 0) contient tous les multiples de d, sauf peut-etre un
nombre ni dentre eux. En dautres termes, dans le cas qui nous interesse, il existe n
0
tel que n > n
0
entrane p
jj
(nd) > 0.
Au vu du resultat precedent, il est clair que pour une cmh irreductible de periode d, on
peut trouver une unique partition de E en d classes C
0
, C
1
, . . ., C
d1
telles que pour
tout k, 0 k d, et tout i C
k
,

jC
k+1
p
ij
= 1,
o` u par convention C
d
= C
0
. Les classes C
0
, C
1
, . . . , C
d1
sont les classes cycliques.
Considerons une cmh irreductible de periode d dont les classes cycliques sont C
0
,
C
1
,. . . ,C
d
. En renumerotant les etats de E si necessaire, la matrice de transition a la
structure de blocs ci-dessous (o` u on a choisi d = 4 pour etre explicite),
C
0
C
1
C
d1
C
d2
Cycles
P =
_
_
_
_
C
0
C
1
C
2
C
3
C
0
0 A
0
0
C
1
0 0 A
1
0
C
2
0 0 0 A
2
C
3
A
3
0 0 0
_
_
_
_
,
et donc P
2
, P
3
, et P
4
ont aussi une structure de blocs correspondant aux classes C
0
,
C
1
, C
2
, C
3
:
P
2
=
_
_
_
_
0 0 B
0
0
0 0 0 B
1
B
2
0 0 0
0 B
3
0 0
_
_
_
_
P
3
=
_
_
_
_
0 0 0 D
0
D
1
0 0 0
0 D
2
0 0
0 0 D
3
0
_
_
_
_
,
222 CHAPITRE 8. CHA

INES DE MARKOV
et nalement
P
4
=
_
_
_
_
E
0
0 0 0
0 E
1
0 0
0 0 E
2
0
0 0 0 E
3
_
_
_
_
.
On observe deux phenom`enes : le decalage des blocs et le fait que P
4
est bloc-diagonale.
Ceci est evidemment general : P
d
est bloc-diagonale relativement aux classes cycliques
C
0
, C
1
, . . . , C
d1
. La matrice de transition `a d etapes, P
d
, est aussi une matrice stochas-
tique, et les classes cycliques sont des classes de communication de P
d
comme le montre
la forme bloc-diagonale de cette derni`ere matrice.
8.2 Recurrence
Cette section et la suivante sont consacrees `a letude du comportement `a long terme
des chanes de Markov homog`enes. Les notions importantes sont celles detat recurrent
et detat transitoire. Soit X
n

n0
une cmh de matrice de transition P. On denit le
temps de retour en i par
T
i
= infn 1; X
n
= i,
avec la convention usuelle : inf = (Ici : T
i
= si X
n
,= i pour tout n 1).
Denition 8.2.1 On dit que letat i est recurrent si P
i
(T
i
< ) = 1. Un etat i
recurrent est dit recurrent positif si de plus E
i
[T
i
] < , recurrent nul si E
i
[T
i
] = .
Un etat qui nest pas recurrent est dit transitoire.
Pour un etat i xe, notons
k

k1
la suite des temps de retour successifs dans letat i.
Formellement :

1
= T
i
. . .

k+1
= infn >
k
; X
n
= i
. . .
Le resultat suivant est intuitif. Sa demonstration fait lobjet de lExercice 8.5.14.
Theor`eme 8.2.1 Sachant que
k
< , le processus X

k
+n

n0
est une cmh de ma-
trice de transition P independante de X
n
k

n0
.
En particulier, si letat i est recurrent, les cycles X
n+
k

0n<
k+1
, k 1, sont
independants et identiquement distribues.
Notons f
ji
= P
j
(T
i
< ) la probabilite de retourner en i en partant de j, et notons
N
i
=

n=1
1
{Xn=i}
8.2. R

ECURRENCE 223
le nombre total de visites en i `a partir de n = 1. On a
P
j
(N
i
= 0) = 1 f
ji
et, lorsque r 1,
P
j
(N
i
= r) = f
ji
(f
i
i)
r1
(1 f
ii
).
En eet, en utilisant le Theor`eme 8.2.1, cette probabilite est egale `a la probabilite de
visiter i au moins une fois (f
ji
) multiplie par la probabilite de visiter i encore r 1
fois (f
ii
)
r1
) en succession, et enn apr`es la r-`eme visite, de ne plus jamais revenir en i
(probabilite 1 f
ii
). En particulier :
P
i
(N
i
= r) = (f
ii
)
r
(1 f
ii
).
On en deduit que :
(a) Si f
ii
= 1, P
i
(N
i
= r) = 0 pour tout r 0, et donc P
i
(N
i
= ) = 1, et bien entendu
E
i
[N
i
] = .
(b) Si f
ii
< 1, on a

r=0
P
i
(N
i
= r) = 1, et donc P
i
(N
i
= ) = 0 ; dautre part un
calcul elementaire donne : E
i
[N
i
] =
f
ii
1f
ii
< .
En particulier :
Theor`eme 8.2.2 Pour que letat i soit recurrent, il faut et il sut que

n=1
p
ii
(n) = .
Demonstration. Les remarques precedant lenonce du theor`eme montrent que f
ii
=
1 E
i
[N
i
] = . Dautre part,
E
i
[N
i
] = E
i
_

n=1
1
{Xn=i}
_
=

n=1
E
i
[1
{Xn=i}
]
=

n=1
P
i
(X
n
= i) =

n=1
p
ii
(n) .

224 CHAPITRE 8. CHA

INES DE MARKOV
Le crit`ere de recurrence ci-dessus sappelle le crit`ere de la matrice potentiel car

n=0
p
ii
(n) est le terme (i, i) de la matrice potentiel
G =

n=0
P
n
.
Exemple 8.2.1: Marche al eatoire sur Z, take 2. (suite de lExercice 8.1.1) Comme
0 < p < 1, cette chane est irreductible et tous ses etats sont de meme nature (transitoires
ou recurrents). Considerons par exemple letat 0. On a p
00
(2n + 1) = 0 et
p
00
(2n) =
(2n)!
n!n!
p
n
(1 p)
n
.
Dapr`es la formule dequivalence de Stirling (n! (n/e)
n

2n), la quantite ci-dessus


est equivalente `a
[4p(1 p)]
n

n
. (8.12)
La nature de la serie

n=0
p
00
(n) est donc la meme que celle de la serie de terme general
(8.12). Si p ,=
1
2
, auquel cas 4p(1 p) < 1, cette derni`ere converge, et si p =
1
2
, auquel
cas 4p(1 p) = 1, elle diverge. Donc, la marche aleatoire sur Z est transiente si p ,=
1
2
,
recurrente si p =
1
2
.
Les exemples o` u lon peut utiliser le crit`ere de la matrice potentiel pour verier si un
etat est recurrent ou non sont rares. Ce crit`ere va cependant nous servir `a demontrer
limportant resultat suivant, `a savoir que la recurrence est une propriete de classe (de
communication).
Theor`eme 8.2.3 Soit une cmh de matrice de transition P. Deux etats qui commu-
niquent sont, soit tous deux recurrents, soit tous deux transitoires. En particulier, si P
est irreductible, les etats sont soit tous recurrents, soit tous transitoires. La chane (ou
sa matrice de transition) est alors dite, respectivement, recurrente, transiente.
Demonstration. Si i et j communiquent, il existe M et N tels que p
ij
(M) > 0 et
p
ji
(N) > 0. Posons = p
ij
(M)p
ji
(N) > 0. On a linegalite
p
ii
(M +n +N) p
ij
(M)p
jj
(n)p
ji
(N) = p
jj
(n) .
(En eet, le premier membre est la probabilite daller de i en j en exactement M+n+N
etapes, tandis que le second membre est la probabilite daller de i en j en exactement M+
n +N etapes, mais de facon particuli`ere, avec la contrainte que X
M
= j et X
M+n
= j.)
De meme :
p
jj
(N +n +M) p
ii
(n).
Donc, si i et j communiquent, les series

n=1
p
ii
(n) et

n=1
p
jj
(n) ont le meme com-
portement. Les etats i et j sont donc, dapr`es le Theor`eme 8.2.2, ou bien tous deux
transitoires, ou bien tous deux recurrents.
8.2. R

ECURRENCE 225
Crit`ere de la probabilite stationnaire
Le but que lon se xe maintenant est de demontrer un crit`ere plus maniable que celui
de la matrice potentiel, `a savoir, le crit`ere de la probabilite stationnaire, qui dit quune
cmh irreductible est recurrente positive si et seulement si elle admet une distribution
stationnaire.
La demonstration passe par des preliminaires concernant la mesure invariante dune
cmh irreductible recurrente.
Denition 8.2.2 Un vecteur non nul x = x
i

iE
de coordonnees non negatives est
appele mesure invariante de la matrice stochastique P = p
ij

i,jE
si pour tout i E,
x
i
=

jE
x
j
p
ji
. (8.13)
(En notation abregee, 0 x < et x
T
P = x
T
.)
Theor`eme 8.2.4 A. Soit P la matrice de transition dune cmh irreductible recurrente
X
n

n0
. Soit 0 un etat arbitraire et soit T
0
le temps de retour en 0. On denit, pour
tout i E, la quantite
x
i
= E
0
_
T0

n=1
1
{Xn=i}
_
. (8.14)
Alors, pour tout i E,
0 < x
i
< , (8.15)
et x est une mesure invariante de P.
B. La mesure invariante dune matrice stochastique irreductible recurrente est unique `a
une constante multiplicative pr`es.
C. Une cmh irreductible recurrente est recurrente positive si et seulement si sa mesure
invariante x verie

iE
x
i
< . (8.16)
Demonstration.
A. Faisons deux observations preliminaires. Premi`erement, quand 1 n T
0
, X
n
= 0
si et seulement si n = T
0
, et donc
x
0
= 1.
Deuxi`emement,

iE
T0

n=1
1
{Xn=i}
=
T0

n=1
_

iE
1
{Xn=i}
_
=
T0

n1
1 = T
0
,
226 CHAPITRE 8. CHA

INES DE MARKOV
et donc

iE
x
i
= E
0
[T
0
]. (8.17)
Passons `a la demonstration de (8.13). Pour cela, on introduit la quantite
0
p
0i
(n) := E
0
[1
{Xn=i}
1
{nT0}
] = P
0
(X
1
,= 0, , X
n1
,= 0, X
n
= i).
Cest la probabilite que, partant de letat 0, on visite i au temps n sans etre au prealable
retourne en 0. On a
x
i
= E
0
_
_

n1
1
{Xn=i}
1
{nT0}
_
_
,
et donc,
x
i
=

n1
0
p
0i
(n). (8.18)
On observe que
0
p
0i
(1) = p
0i
.
Dautre part, en utilisant la methode danalyse `a un pas, pour tout n 2,
0
p
0i
(n) =

j=0
0
p
0j
(n 1)p
ji
. (8.19)
En faisant la somme de toutes ces egalites, et en tenant compte de (8.18), on obtient
x
i
= p
0i
+

j=0
x
j
p
ji
,
cest-`a-dire (8.13), puisque x
0
= 1.
Ensuite, nous montrons que x
i
> 0 pour tout i E. En eet, en iterant (8.13), on a
x
T
= x
T
P
n
, cest-`a-dire, puisque x
0
= 1,
x
i
=

jE
x
j
p
ji
(n) = p
0i
(n) +

j=0
x
j
p
ji
(n).
Si x
i
etait nul pour un i E, i ,= 0, cela impliquerait que p
0i
(n) = 0 pour tout n 0, et
donc que 0 et i ne communiquent pas, en contradiction avec lhypoth`ese dirreductibilite.
Il reste `a montrer que x
i
< pour tout i E. Comme precedemment, on trouve que
1 = x
0
=

jE
x
j
p
j0
(n)
pour tout n 1, et donc, si x
i
= pour un i, necessairement p
i0
(n) = 0 pour tout
n 1, et ceci contredit `a nouveau lhypoth`ese dirreductibilite.
8.2. R

ECURRENCE 227
B. Dans la preuve de la partie A, on a montre que pour toute mesure invariante y dune
matrice stochastique irreductible, y
i
> 0 pour tout i E. On peut donc denir, pour
tout i, j E, la matrice Q par
q
ji
=
y
i
y
j
p
ij
. (8.20)
Cest une matrice de transition, puisque

iE
q
ji
=
1
y
j

iE
y
i
p
ij
=
y
j
y
j
= 1. Le terme
general de Q
n
est
q
ji
(n) =
y
i
y
j
p
ij
(n). (8.21)
En eet, en supposant (8.21) vraie pour n,
q
ji
(n + 1) =

kE
q
jk
q
ki
(n) =

kE
y
k
y
j
p
kj
y
i
y
k
p
ik
(n)
=
y
i
y
j

kE
p
ik
(n)p
kj
=
y
i
y
j
p
ij
(n + 1),
et (8.21) suit par induction.
La matrice Q est irreductible, puisque P est irreductible. En eet, au vu de (8.21),
q
ji
(n) > 0 si et seulement si p
ij
(n) > 0. Aussi, p
ii
(n) = q
ii
(n), et donc

n0
q
ii
(n) =

n0
p
ii
(n), et ceci garantit que Q est recurrente dapr`es le crit`ere de la matrice po-
tentiel. Notons g
ji
(n) la probabilite, relative `a la chane de matrice de transition Q, de
retourner dans letat i pour la premi`ere fois `a letape n en partant de j. Lanalyse `a un
pas donne :
g
i0
(n + 1) =

j=0
q
ij
g
j0
(n) . (8.22)
En multipliant les deux membres par y
i
et en utilisant (8.20), on obtient
y
i
g
i0
(n + 1) =

j=0
(y
j
g
j0
(n))p
ji
.
Rappelons que
0
p
0i
(n + 1) =

j=0
0
p
0j
(n)p
ji
, ou encore :
y
0 0
p
0i
(n + 1) =

j=0
(y
0 0
p
0j
(n))p
ji
.
On voit donc que les suites y
0 0
p
0i
(n) et y
i
g
i0
(n) verient la meme equation
de recurrence. Leurs premiers termes (n = 1), respectivement y
0 0
p
0i
(1) = y
0
p
0i
et
y
i
g
i0
(1) = y
i
q
i0
, sont egaux, dapr`es (8.20). Donc, pour tout n 1,
0
p
0i
(n) =
y
i
y
0
g
i0
(n).
En sommant par rapport `a n 1 et en utilisant legalite

n1
g
i0
(n) = 1 (Q est
recurrente), on obtient le resultat annonce : x
i
=
y
i
y0
.
228 CHAPITRE 8. CHA

INES DE MARKOV
C. La preuve decoule immediatement de legalite (8.17) et de la denition de la recurrence
positive.
Voici enn le crit`ere de recurrence positive de la probabilite stationnaire.
Theor`eme 8.2.5 1. Une cmh irreductible est recurrente positive si et seulement si elle
admet une probabilite stationnaire . Dans ce cas, la probabilite stationnaire est unique,
et (i) > 0 pour tout i E.
2. Soit lunique distribution stationnaire dune chane irreductible recurrente positive,
et soit T
i
le temps de retour en i. Alors
(i)E
i
[T
i
] = 1. (8.23)
3. Toute cmh irreductible despace detat ni est recurrente positive.
Demonstration.
1. La partie directe est une consequence immediate du Theor`eme 8.2.4. Pour la
reciproque, supposons lexistence dune distribution stationnaire . En iterant
T
=

T
P, on obtient
T
=
T
P
n
, cest-`a-dire, pour tout i E,
(i) =

jE
(j)p
ji
(n).
Si la chane etait transiente, on aurait, pour tous etats i, j,
lim
n
p
ji
(n) = 0.
(En eet, lim
n
p
ji
(n) = lim
n
E
j
[1
{Xn=i}
]. Dautre part, lim
n
1
{Xn=i}
= 0 (j est
transient) et 1
{Xn=i}
1, et donc, par convergence dominee, lim
n
E
j
[1
{Xn=i}
] = 0.)
Puisque p
ji
(n) est uniformement (en j et n) bornee par 1, on a, par convergence dominee
`a nouveau,
(i) = lim
n

jE
(j)p
ji
(n) =

jE
(j)
_
lim
n
p
ji
(n)
_
= 0.
Ceci contredit

iE
(i) = 1. La chane ne peut donc etre que recurrente, et dapr`es le
Theor`eme 8.2.4, partie C, elle est recurrente positive.
La distribution stationnaire dune chane irreductible recurrente positive est unique
(dapr`es le Theor`eme 8.2.4, partie B, et le fait que le seul choix du facteur multiplicatif
est 1). Aussi, on rappelle que (i) > 0 pour tout i E (Theor`eme 8.2.4, partie A).
2. Cette egalite est une consequence directe de lexpression (8.14) de la mesure invariante.
En eet, est obtenue par normalisation de x : pour tout i E,
(i) =
x
i

jE
x
j
,
8.2. R

ECURRENCE 229
et en particulier, pour i = 0, en se rappelant que x
0
= 1 et en utilisant (8.17),
(0) =
x
0

jE
x
j
=
1
E
0
[T
0
]
.
Letat 0 ne jouant pas un role special dans cette analyse, (8.23) est vraie pour tout i E.
3. On prouve dabord la recurrence. Si la chane etait transiente, alors, pour tout i, j E,
lim
n
p
ij
(n) = 0,
et donc, puisque lespace detat est ni,
lim
n

jE
p
ij
(n) = 0.
Mais pour tout n,

jE
p
ij
(n) = 1,
une contradiction. Donc, la chane est recurrente. Dapr`es le Theor`eme 8.2.4 elle ad-
met une mesure invariante x. Puisque E est ni,

iE
x
i
< , et donc la chane est
recurrente positive, dapr`es le Theor`eme 8.2.4, partie C.
Exemple 8.2.2: processus de naissance et de mort, II. Le mod`ele est le meme
que celui de lExemple 8.1.9, sauf que lespace detat est E = N. Les memes calculs que
precedemment conduisent `a lexpression (8.8). Pour que cette solution soit une probabi-
lite, on doit avoir (0) > 0. Aussi en ecrivant que

i=1
(i) = 1, on obtient
(0)
_
_
_
1 +
1
q
1
+

j=1
p
1
p
2
p
j
q
1
q
2
q
j+1
_
_
_
= 1. (8.24)
Donc une distribution stationnaire existe si et seulement si

j=1
p
1
p
2
p
j
q
1
q
2
q
j+1
< . (8.25)
Dans ce cas (i) est donne par (8.8), o` u (0) est determine par (8.24).
Un cas particulier important est
E = N, p
i
= p, q
i
= 1 p, r
i
= 0
o` u 0 < p < 1. Il sagit dune marche aleatoire du type de lExemple 8.1.1 o` u letat 0 est
reechissant. La condition (8.25) se lit

j
_
p
1 p
_
i
< ,
cest-`a-dire : la chane est recurrente positive si et seulement si p <
1
2
.
230 CHAPITRE 8. CHA

INES DE MARKOV
Exemple 8.2.3: Latelier de r eparation. Durant le jour n, Z
n+1
machines tombent
en panne, et elles sont admises dans latelier de reparation dans la journee n+1. Chaque
jour, une machine parmi celles qui attendent est reparee. Donc, en notant X
n
le nombre
de machines dans latelier au jour n,
X
n+1
= (X
n
1)
+
+Z
n+1
, (8.26)
o` u a
+
= max(a, 0). En particulier, si Z
n

n1
est une suite iid independante de letat
initial X
0
, alors X
n

n0
est une cmh. En termes de la distribution de probabilite
P(Z
1
= k) = a
k
, k 0,
la matrice de transition de cette chane est
P =
_
_
_
_
_
_
_
a
0
a
1
a
2
a
3

a
0
a
1
a
2
a
3

0 a
0
a
1
a
2

0 0 a
0
a
1

.
.
.
.
.
.
.
.
.
.
.
.
_
_
_
_
_
_
_
.
En eet, la formule (8.6) donne,
p
ij
= P((i 1)
+
+Z
1
= j) = P(Z
1
= j (i 1)
+
) = a
j(i1)
+.
Nous allons montrer quune condition necessaire et susante dirreducibilite est que
P(Z
1
= 0) > 0 (a
0
> 0) et P(Z
1
2) > 0 (a
0
+a
1
< 1).
Lequation de recurrence (8.26) nous permet de faire les observations suivantes. Si
a
0
= 0, alors X
n+1
X
n
et il y a donc une probabilite nulle daller de i `a i 1 quel que
soit i 1. Si a
0
+ a
1
= 1, alors X
n+1
X
n
et il y a donc une probabilite nulle daller
de i `a i + 1 quel que soit i 0. Donc les deux conditions a
0
> 0 et a
0
+ a
1
< 1 sont
necessaires pour lirreductibilite.
Elles sont egalement susantes. En eet, sil existe k 2 tel que P (Z
n+1
= k) > 0,
alors on peut aller de nimporte quel i > 0 `a i +k 1 > i ou de i = 0 ` a k > 0 avec une
probabilite positive. De plus, si P (Z
n+1
= 0) > 0, on peut aller de i > 0 `a i 1 avec
une probabilite positive. En particulier, on peut aller de i `a j < i avec une probabilite
positive. Donc, pour aller de i `a j i, on peut proceder par sauts vers le haut de
hauteur strictement positive, pour atteindre un etat l i, et ensuite, dans le cas o` u
l > i, descendre par sauts dune unite vers le bas de l `a i. Tout ceci avec une probabilite
positive.
Supposons que la chane soit irreductible recurrente positive, avec la distribution
stationnaire . Soit z un nombre complexe de module 1. De (8.26), on tire
z
Xn+1+1
=
_
z
(Xn1)
+
+1
_
z
Zn+1
=
_
z
Xn
1
{Xn>0}
+z1
{Xn=0}
_
z
Zn+1
=
_
z
Xn
1
{Xn=0}
+z1
{Xn=0}
_
z
Zn+1
,
8.2. R

ECURRENCE 231
et donc
zz
Xn+1
z
Xn
z
Zn+1
= (z 1)1
{Xn=0}
z
Zn+1
.
Comme X
n
et Z
n+1
sont independantes, E[z
Xn
z
Zn+1
] = E[z
Xn
]g
Z
(z), o` u g
Z
(z) est la
fonction generatrice de Z
n+1
, et E[1
{Xn=0}
z
Zn+1
] = (0)g
Z
(z), o` u (0) = P(X
n
= 0).
Donc,
zE[z
Xn+1
] g
Z
(z)E[z
Xn
] = (z 1)(0)g
Z
(z).
Si on est en regime stationnaire, alors E[z
Xn+1
] = E[z
Xn
] = g
X
(z), et donc :
g
X
(z) (z g
Z
(z)) = (0)(z 1)g
Z
(z). (8.27)
Ceci nous donne g
X
(z) =

i=0
(i)z
i
, du moins si on dispose de (0). Pour obtenir
(0), on derive (8.27) :
g

X
(z) (z g
Z
(z)) +g
X
(z)
_
1 g

Z
(z)
_
= (0)
_
g
Z
(z) + (z 1)g

Z
(z)
_
, (8.28)
et on fait z = 1, pour obtenir, en tenant compte des identites g
X
(1) = g
Z
(1) = 1 et
g

Z
(1) = E[Z],
(0) = 1 E[Z].
Comme (0) doit etre non negative, ceci conduit `a la condition necessaire de recurrence
positive : E[Z] 1. En fait, on a necessairement E[Z] < 1. En eet, si E[Z] = 1, ce qui
implique (0) = 0, il decoule de (8.27) que
g
X
(x)(x g
Z
(x)) = 0
pour tout x [0, 1]. Mais comme la chane est supposee irreductible, le cas Z
n+1
1
(cest-`a-dire, g
Z
(x) x) est exclus et lequation xg
Z
(x) = 0 a seulement x = 1 comme
solution quand g

Z
(1) = E[Z] 1. Donc g
X
(x) 0 pour tout x [0, 1), et en consequence
g
X
(z) 0 sur [z[ < 1 (une fonction analytique sur un ouvert ne peut avoir de points
daccumulation de zeros `a linterieur de cet ouvert, sauf si elle est identiquement nulle).
Ceci m`ene `a une contradiction puisque la fonction generatrice dune variable `a valeurs
enti`eres ne peut etre identiquement nulle.
On a donc demontre quune condition necessaire de recurrence positive est E[Z] < 1.
Nous allons voir que cest aussi une condition susante. On commence par verier que
la condition E[Z] < 1 entrane la recurrence. Il sut de montrer que la probabilite de
levenement A = non retour en 0 en partant de 0 est nulle. En eet dans A, pour
tout n,
X
n
= 1 +
n

k=1
(Z
k
1) 1
et en particulier

n
k=1
Z
k
n
1 > 0 ,
ce qui donne, en faisant tendre n vers linni, dapr`es la loi forte des grands nombres,
E[Z] 1. Une contradiction.
232 CHAPITRE 8. CHA

INES DE MARKOV
Supposons la recurrence, cest-`a-dire, supposons que le temps de retour T
0
est presque
s urement ni. On a legalite :
T0

n=1
Z
n
= (T
0
1). (8.29)
Observons que
E [Z
n
1
nT0
] = E [Z
n
] E [Z
n
1
n>T0
]
= E [Z
n
] E [Z
n
] E [1
n>T0
]
= E [Z
n
] E [1
nT0
] ,
o` u on a utilise le fait que levenement n > T
0
, qui ne depend que de Z
1
, . . . , Z
n1
, est
independant de Z
n
. On a donc, `a partir de (8.29)
E
0
[T
0
] = 1 +E
0
_

n=1
Z
n
1
nT0
_
= 1 +

n=1
E
0
[Z
n
1
n>T0
]
= 1 +

n=1
E
0
[Z
n
] E [1
nT0
]
= 1 +E [Z
1
]

n=1
E
0
[1
nT0
]
= 1 +E [Z
1
] E
0
_

n=1
1
nT0
_
= 1 +E [Z
1
] E
0
[T
0
] ,
et donc, si E[Z] < 1 (en particulier, la chane est recurrente),
E
0
[T
0
] = (1 E [Z
1
])
1
< ,
et donc la chane est recurrente positive.
Si E[Z] = 1 (en particulier, la chane est recurrente), on ne peut avoir E
0
[T
0
] < ,
car alors on aurait E
0
[T
0
] = 1 + E
0
[T
0
]. La chane recurrente est donc dans ce cas
recurrente nulle.
Reste `a examiner le cas E[Z] > 1. On sait que cela exclue la recurrence positive. Il
se trouve quen fait, la chane est alors transiente, mais nous ne le demontrerons pas ici.
En resume, sous la condition dirreductiblite (P(Z = 0) > 0 et P(Z 2) > 0) :
A. Si E[Z] < 1, la chane est recurrente positive et la fonction generatrice de sa distri-
bution stationnaire est

i=0
(i)z
i
= (1 E[Z])
(z 1)g
Z
(z)
z g
Z
(z)
.
8.2. R

ECURRENCE 233
B. Si E[Z] = 1, la chane est recurrente nulle.
C. Si E[Z] > 1, la chane est transiente.
Exemple 8.2.4: Instabilit e du protocole aloha. Le protocole aloha est une
methode dacc`es `a un canal satellite. Cest un protocole distribue, en ce sens que les uti-
lisateurs du canal ne se concertent pas pour eviter les collisions (plus dun message trans-
mis en meme temps, auquel cas aucun de ces messages nest considere comme transmis,
et chacun des messages en collision redemande la transmission `a un temps ulterieur, de
mani`ere susamment intelligente evidemment pas de retransmission immediate). Plus
precisement, on consid`ere le protocole aloha avec fenetres de transmission periodiques.
Ce protocole impose les r`egles suivantes (voir aussi la gure ci-dessous) :
(i) Les transmissions et retransmissions des messages ont lieu dans des intervalles de
temps equidistants, les slots, dont la duree est superieure `a celle du temps necessaire
pour transmettre un message. (Ici un message est une suite de longueur xe de symboles
binaires).
(ii) Les messages qui au debut dun slot sont en attente de retransmission demandent leur
retransmission independamment les uns des autres chacun avec la probabilite (0, 1).
(iii) Les messages fraisceux qui se presentent pour la premi`ere fois tentent
immediatement de passer.
transmission reussie
message frais
message en attente, non autorise ` a retransmettre
message en attente, autorise ` a retransmettre
Le protocole aloha
Soit X
n
le nombre de messages en attente de retransmission au debut du slot n. La
probabilite pour que i parmi X
n
= k messages en attente de retransmission demandent
la retransmission dans le slot suivant est donc
234 CHAPITRE 8. CHA

INES DE MARKOV
b
i
(k) =
_
k
i
_

i
(1 )
ki
.
Soit A
n
le nombre de requetes nouvelles dans le n-`eme slot. La suite A
n

n0
est supposee
iid avec la distribution
P(A
n
= j) = a
j
.
La quantite
= E[A
n
] =

i=1
ia
i
est lintensite de trac. On suppose que 0 < a
0
+ a
1
< 1, ce qui garantit que X
n

n0
est une cmh irreductible. Sa matrice de transition est :
p
ij
= b
1
(i)a
0
si j = i 1,
= [1 b
1
(i)]a
0
+b
0
(i)a
1
si j = i,
= [1 b
0
(i)]a
1
si j = i + 1,
= a
ji
si j i + 2.
La preuve consiste `a comptabiliser les possibilites. Par exemple, la premi`ere ligne cor-
respond `a un parmi les i messages en attente (de transmission ou de retransmission) qui
reussit `a passer, et pour cela il faut quil y ait soit pas de message nouveau (probabilite
a
0
) et un seul parmi les i messages en attente qui est admis `a retransmettre (probabilite
b
1
(i)). La seconde ligne correspond `a un des deux evenements suivants : (1), pas de
nouveau message et zero ou plus de deux requetes de retransmission parmi les messages
en attente et (2), un nouveau message et zero requete de retransmission parmi les
messages en attente.
Le but de cet exemple est de demontrer que ce protocole nest pas stable, en ce
sens que la cmh X
n

n0
nest pas recurrente positive. Pour cela, il sut, dapr`es le
Theoreme 8.3.1 de contredire lexistence dune distribution stationnaire .
Si une telle distribution stationnaire existait, elle satisferait aux equations de balance
globale
(i) = (i)[1 b
1
(i)]a
0
+b
0
(i)a
1
+(i 1)[1 b
0
(i 1)]a
1
+(i + 1)b
1
(i + 1)a
0
+

=2
(i )a

(o` u (i) = 0 si i < 0). Posons


P
N
=
N

i=0
(i)
et faisons la somme des equations de balance globale de i = 0 ` a N. On obtient :
P
N
= (N)b
0
(N)a
1
+(N + 1)b
1
(N + 1)a
0
+
N

=0
a

P
N
,
8.3. COMPORTEMENT ASYMPTOTIQUE 235
qui donne `a son tour :
P
N
(1 a
0
) = (N)b
0
(N)a
1
+(N + 1)b
1
(N + 1)a
0
+
N

=1
a

P
N
.
Mais comme P
N
croit avec N et

N
=1
a

=1
a

= 1 a
0
, nous avons
N

=1
a

P
N
P
N1
(1 a
0
),
et donc
P
N
(1 a
0
) (N)b
0
(N)a
1
+(N + 1)b
1
(N + 1)a
0
+P
N1
(1 a
0
),
do` u il suit que
(N + 1)
(N)

1 a
0
b
0
(N)a
1
b
1
(N + 1)a
0
.
Faisant usage de la forme explicite des b
i
(k), on obtient
(N + 1)
(N)

(1 a
0
) (1 )
N
a
1
(N + 1)(1 )
N
a
0
.
Pour toutes les valeurs de (0, 1), le membre de droite de cette inegalite tend vers
linni, ce qui contredit

N=1
(N) = 1 et les inegalites (N) > 0 que doit verier
en tant que distribution stationnaire dune cmh irreductible.
8.3 Comportement asymptotique
Convergence vers lequilibre
Considerons une cmh irreductible et recurrente positive. En particulier, si la distri-
bution initiale est la distribution stationnaire, elle conserve cette distribution pour tous
les temps. La chane est alors dite en regime stationnaire.
Quel est son comportement `a long terme quand la distribution initiale est arbitraire ?
Le resultat fondamental est le suivant :
Theor`eme 8.3.1 Soit une cmh de matrice de transition P irreductible, recurrente
positive et aperiodique. Alors, pour tout j E, et toute distribution initiale ,
lim
n
P(X
n
= j) = (j) ,
o` u est la distribution stationnaire de la chane.
Denition 8.3.1 Une cmh irreductible recurrente positive et ap eriodique est dite
ergodique.
236 CHAPITRE 8. CHA

INES DE MARKOV
Supposons que lon trouve un processus X

n0
tel que X
n
D
X

n
pour tout n 0,
et un processus X

n0
tel que X

n
D
pour tout n 0. Alors, le resultat sera demontre
si lon peut prouver que
lim
n
[P(X

n
= i) P(X

n
= i)[ = 0. (8.30)
Nous allons construire X

n0
et X

n0
pour que cette situation ait bien lieu. Nous
allons le faire de telle sorte quil existe un temps aleatoire presque s urement ni tel
que X

n
= X

n
pour tout n . On montrera ci-dessous que, dans ce cas,
[P(X

n
= i) P(X

n
= i)[ P( > n). (8.31)
Alors, la nitude de entrane que lim
n
P( > n) = 0, et le resultat sera donc prouve.
Voici la demonstration de (8.31) :
P(X

n
= j) P(X

n
= j) = P(X

n
= j, n) +P(X

n
= j, > n)
P(X

n
= j, n) P(X

n
= j, > n)
= P(X

n
= j, > n) P(X

n
= j, > n)
P(X

n
= j, > n)
P( > n).
De meme, P(X

n
= j) P(X

n
= j) P( > n).
Il nous reste `a construire X

n0
et X

n0
avec les proprietes annoncees.
Theor`eme 8.3.2 Soit X
(1)
n

n0
et X
(2)
n

n0
deux cmh ergodiques independantes de
meme matrice de transition P et de distributions initiales et , respectivement. Soit
= infn 0; X
(1)
n
= X
(2)
n
, avec = si les deux chanes ne se recoupent jamais.
Alors est en fait presque s urement ni et, de plus, le processus X

n0
deni par
X

n
=
_
X
(1)
n
if n ,
X
(2)
n
if n
(8.32)
(voir la gure ci-dessous) est une cmh de matrice de transition P.
Demonstration. Considerons la cmh Z
n

n0
denie par Z
n
= (X
(1)
n
, X
(2)
n
) ( chane
produit), prenant ses valeurs dans E E. Sa probabilite de transition de (i, k) `a (j, )
en n etapes est p
ij
(n)p
k
(n), elle est irreductible, et elle admet (i)(j)
(i,j)E
2 comme
distribution stationnaire (voir lExercice 8.5.16, o` u le role de lhypoth`ese daperiodicite
est mis en evidence). Dapr`es le crit`ere de la distribution stationnaire, la chane produit
est recurrente positive. En particulier, elle atteint la diagonale de E
2
en temps ni, et
donc P( < ) = 1.
Il reste `a prouver que le processus X

n0
deni par (8.32) est une cmh de matrice
de transition P. Ceci est fait dans lExercice 8.5.18.
8.3. COMPORTEMENT ASYMPTOTIQUE 237

0
X
(1)
n
X
(2)
n
X
n
Exemple 8.3.1: Lurne dEhrenfest, take 4. (suite des Exemples 8.1.3, 8.1.8 et
8.1.10) La celebrite du mod`ele dEhrenfest est due `a leclaircissement quil apporte au
phenom`ene dirreversibilite thermodynamique, un sujet de controverses du temps de
Boltzmann. Selon la theorie macroscopique de la thermodynamique de ce physicien, les
syst`emes progressent dune mani`ere ordonnee vers lequilibre thermodynamique.
Considerons, par exemple, un syst`eme de N particules gazeuses dans une boite divisee
en deux compartiments, A et B, separes par une membrane ctive. Si `a lorigine des
temps on place toutes les particules dans le compartiment A, ces particules vont se
redistribuer, et le syst`eme atteint lequilibre, un etat pour lequel les contenus deux
compartiments sont thermodynamiquement equivalents. Boltzmann disait quil existait
une `eche du temps en direction de lentropie croissante, et en eet dans lexperience de
diusion modelisee par le mod`ele des Ehrenfest, lequilibre thermodynamique correspond
`a lentropie maximale du syst`eme.
Boltzmann eut un redoutable contradicteur, un certain Zermelo, qui, au vu de la
reversibilite dans le temps des lois de la physique, doutait de la `eche du temps evoquee
par Boltzmann, ou du moins, demandait une explication. Sa position etait renforcee par
dirrefutables mathematiques, en particulier le theor`eme de recurrence de Poincare qui
predisait que si lexperience debutait avec toutes les particules dans le compartiment A,
on les retrouverait toutes, tot ou tard dans le compartiment dorigine. Comme chacun
sait, ce comportement nest jamais observe dans la vie quotidienne, et on na jamais vu
le sucre dissous dans la tasse de cafe reprendre sa forme initiale.
La theorie de Boltzmann etait mise `a mal par ce type darguments. Les choses de-
vaient etre clariees, et elles le furent par Tatiana et Paul Ehrenfest, dont le mod`ele
markovien permit de sauver tout ledice.
Ce mod`ele ne rentre pas dans les details de la physique du phenom`ene de diusion,
mais il en conserve les traits essentiels du point de vue de la physique statistique. Cest un
syst`eme reversible (la chane de Markov est reversible) et il est recurrent, repassant une
innite de fois dans nimporte quel etat, comme par exemple celui o` u le compartiment A
est vide. Lirreversibilite du syst`eme consiste en ceci : en partant dun etat quelconque,
238 CHAPITRE 8. CHA

INES DE MARKOV
la distribution au temps n converge vers la distribution stationnaire
1
qui met pratique-
ment toute la masse sur les etats proches du partage equilibre des particules entre les
deux compartiments. Il nen reste pas moins que ceci nempeche pas la recurrence et en
particulier le retour en letat 0 (correspondant au compartiment A vide).
Mais en realite ce retour nest pas observable dans le sens suivant. On peut montrer
que le temps moyen pour aller `a letat 0 en partant de L =
N
2
(on suppose N pair) est
1
2L
2
2L
(1 +O(L))
tandis que le temps moyen pour aller de L `a 0 est inferieur `a
L +Llog L +O(1).
Avec L = 10
6
et une unite de temps mathematique egale `a 10
5
seconde, le retour `a
letat L en partant de 0 est de lordre dune seconde, tandis quil faudrait de lordre de
1
2 10
11
2
2
10
6
secondes
pour passer de L `a 0. Il sagit dun temps astronomique, et cest en ce sens que le retour
en 0 nest pas observable.
Ces nombres nous apprennent quil est inutile de passer trop de temps `a touiller
son cafe, ou de lavaler rapidement de peur que le morceau de sucre se reforme. Plus
serieusement : rien nempeche la chane de se trouver dans un etat rare (au sens proba-
biliste, cest-`a-dire, de faible probabilite stationnaire), seulement elle ne sy trouve que
rarement (au sens temporel), extremement rarement, pour nous autre mortels, jamais !
Boltzmann etait conscient du fait que les temps de recurrence dans le theor`eme de
Poincare devaient etre tr`es longs, mais ses arguments navaient pas reussi `a convaincre,
ce que put faire le mod`ele Ehrenfest.
Theor`eme ergodique
Nous allons donner des conditions generales garantissant que les moyennes empiriques
du type
1
N
N

k=1
g(X
k
, . . . , X
k+L
)
convergent vers les moyennes probabilistes.
On obtiendra le resultat recherche comme consequence de la proposition suivante.
1
Dans ce mod`ele, ce nest pas vrai `a cause de la periodicite de la chane, mais cette objection
disparait au prix dune leg`ere modication.
8.3. COMPORTEMENT ASYMPTOTIQUE 239
Proposition 8.3.1 Soit X
n

n0
une cmh irreductible recurrente, et soit x la mesure
invariante canonique associee `a letat 0 E,
x
i
= E
0
_
_

n1
1
{Xn=i}
1
{nT0}
_
_
, (8.33)
o` u T
0
est le temps de retour en 0. Denissons pour tout n 1
(n) =
n

k=1
1
{X
k
=0}
. (8.34)
Soit maintenant f : E R une fonction telle que

iE
[f(i)[x
i
< . (8.35)
Alors, pour toute distribution initiale , presque s urement,
lim
N
1
(N)
N

k=1
f(X
k
) =

iE
f(i)x
i
. (8.36)
Demonstration. Soit T
0
=
1
,
2
,
3
, . . . les temps de retour successifs en 0. Posons
U
p
=
p+1

n=p+1
f(X
n
).
La suite U
p

p1
est, dapr`es le Theor`eme 8.2.1, iid. De plus, si on suppose f 0,
E[U
1
] = E
0
_
T0

n=1
f(X
n
)
_
= E
0
_
T0

n=1

iE
f(i)1
{Xn=i}
_
=

iE
f(i)E
0
_
T0

n=1
1
{Xn=i}
_
=

iE
f(i)x
i
.
Cette quantite est nie par hypoth`ese et, dapr`es la loi forte des grands nombres,
lim
n
1
n
n

p=1
U
p
=

iE
f(i)x
i
,
cest-`a-dire :
lim
n
1
n
n+1

k=T0+1
f(X
k
) =

iE
f(i)x
i
. (8.37)
240 CHAPITRE 8. CHA

INES DE MARKOV
En observant que

(n)
n <
(n)+1
,
on a :

(n)
k=1
f(X
k
)
(n)

n
k=1
f(X
k
)
(n)

(n)+1
k=1
f(X
i
)
(n)
.
Comme la chane est recurente, lim
n
(n) = , et donc, dapr`es (8.37), les termes
extremes de la chane dinegalites ci-dessus tendent vers

iE
f(i)x
i
quand n tend vers
l, et ceci donne (8.36). Le cas o` u f est de signe arbitraire sobtient en ecrivant (8.36)
pour f
+
= max(0, f) et f

= max(0, f), et en prenant les dierences des egalites


obtenues de cette mani`ere (la dierence nest pas une forme indeterminee , grace
`a lhypoth`ese (8.35)).
Nous sommes maintenant en mesure de donner le theor`eme ergodique pour les chanes
de Markov.
Theor`eme 8.3.3 Soit X
n

n0
une cmh irreductible recurrente positive de distribu-
tion stationnaire , et soit f : E R une fonction telle que
E

[[f(X
0
)[] :=

iE
[f(i)[(i) < . (8.38)
Alors, pour toute distribution initiale , presque s urement,
lim
n
1
N
N

k=1
f(X
k
) =

iE
f(i)(i). (8.39)
Demonstration. On applique la Proposition 8.3.1 `a f 1. La condition (8.35) est
satisfaite, puisque dans le cas positif recurrent,

iE
x
i
= E
0
[T
0
] < . Donc, presque
s urement,
lim
N
N
(N)
=

jE
x
j
.
Si la fonction f satisfait (8.38), elle satisfait aussi (8.35), puisque x et sont propor-
tionnelles, et donc, presque s urement,
lim
N
1
(N)
N

k=1
f(X
k
) =

iE
f(i)x
i
.
En combinant les egalites ci-dessus, on obtient
lim
N
1
N
N

k=1
f(X
k
) = lim
N
(N)
N
1
(N)
N

k=1
f(X
k
) =

iE
f(i)x
i

jE
x
j
,
do` u (8.39), puisque est obtenue par normalisation de x.
Le corollaire suivant etend le domaine dapplication du Theor`eme 8.3.3.
8.3. COMPORTEMENT ASYMPTOTIQUE 241
Corollaire 8.3.1 Soit X
n

n0
une cmh irreductible recurrente positive de distribution
stationnaire , et soit g : E
L+1
R une fonction telle que
E

[[g(X
0
, . . . , X
L
)[] < .
Alors, pour toute distribution initiale , presque s urement,
lim
1
N
N

k=1
g(X
k
, X
k+1
, . . . , X
k+L
) = E

[[g(X
0
, . . . , X
L
)[] .
Demonstration. On applique le Theor`eme 8.3.3 `a la chane (X
n
, X
n+1
, . . . , X
n+L
)
n0
despace detat
F = (i
0
, i
1
, . . . , i
L
) E
L+1
; p
i0i1
p
i
L1
i
L
> 0
qui est (voir Exercice 8.5.19) irreductible recurrente positive de distribution stationnaire
(i
0
)p
i0i1
p
i
L1
i
L
.

Exemple 8.3.2: Estimateur empirique des probabilit es de transition. Soit


X
n

n1
une cmh irreductible recurrente positive de matrice de transition P et de
distribution stationnaire . Alors, pour tous i
0
, i
1
E,
lim
N
1
N
N

k=1
1
{Xn=i0}
= (i
0
)
et
lim
N
1
N
N

k=1
1
{Xn=i0,Xn+1=i1}
= (i
0
)p
i0,i1
.
En particulier,
lim
N

N
k=1
1
{Xn=i0,Xn+1=i1}

N
k=1
1
{Xn=i0}
= p
i0,i1
.
Demonstration. Soit f : E R la fonction denie par f(i) = 1
{i0}
(i). On a :
f(X
n
) = 1
{i0}
(X
n
)
= 1
{Xn=i0}
,
et donc, dapr`es le theor`eme ergodique(Theor`eme 8.3.3),
lim
N
1
N
N

k=1
1
{Xn=i0}
= E

_
1
{X0=i0}

= P

(X
0
= i
0
) = (i
0
).
242 CHAPITRE 8. CHA

INES DE MARKOV
Avec f : E E R denie par f(i, j) = 1
{i0,i1}
(i, j), on a :
f(X
n
, X
n+1
) = 1
{i0,i1}
(X
n
, X
n+1
)
= 1
{Xn=i0,Xn+1=i1}
.
et donc, toujours dapr`es le theor`eme ergodique (Corollaire 8.3.1) :
lim
N
1
N
N

k=1
1
{Xn=i0,Xn+1=i1}
= E

_
1
{X0=i0,X1=i1}

= P

(X
0
= i
0
, X
1
= i
1
) = (i
0
)p
i0,i1
.

On voit donc que si lon ne connat pas la matrice de transition dune cmh irreductible
recurrente positive, on peut, en principe, obtenir cette matrice de transition si on dispose
dune trajectoire compl`ete de la cmh en question.
Exemple 8.3.3: Une politique de maintenance. Soit U
n

n1
une suite de variables
iid `a valeurs dans N
+
. La variable U
n
est interpretee comme la duree de vie dune
machine, la n-`eme, qui est remplacee par une (n + 1)-`eme d`es quelle tombe en panne.
Donc, au temps 0, la machine 1 est mise en service service jusqu`a ce quelle casse au
temps U
1
, o` u elle est immediatement remplacee par la machine 2, qui casse au temps
U
1
+ U
2
, et ainsi de suite. Au temps n, le temps restant avant la prochaine panne est
X
n
. Plus precisement, le processus X
n

n0
prend ses valeurs dans E = N (On suppose
que ces variables prennent des valeurs arbitrairement grandes : P(U
1
> k) > 0 pour tout
k 1 ; lautre cas se trate de mani`ere analogue), est egal `a 0 au temps R
k
=

k
i=1
U
i
,
`a U
k+1
1 au temps R
k
+ 1, et alors decrot dune unite par unite de temps jusqu`a
ce quil atteigne la valeur 0 au temps R
k+1
. On supposera que pour tout k N
+
,
P(U
1
> k) > 0, de sorte que lespace detat E est N. Alors X
n

n0
est une cmh de
probabilites de transition :
p
i,i+1
= P(U > i + 1 [ U > i) =
P(U > i + 1)
P(U > i)
,
p
i,0
= P(U = i + 1 [ U > i) =
P(U = i + 1)
P(U > i)
,
o` u U est une variable aleatoire de meme distribution que U
1
. Cette cmh est irreductible,
comme on le verie facilement. Elle est recurrente positive si et seulement si E[U] <
(U
1
= T
0
). Dans ce cas, sa distribution stationnaire est
(i) =
P(U > i)
E[U]
. (8.40)
8.3. COMPORTEMENT ASYMPTOTIQUE 243
En eet, on verie facilement les equations de balance globale
(i) = p
i1,i
(i 1)
et
(0) =

i=0
(i)p
i,0
.
Une visite de la cmh `a letat 0 correspond `a une panne de la machine machine, et donc
dapr`es le theor`eme ergodique,,
(0) = lim
N
1
N
N

k=1
1
{X
k
=0}
est la frequence empirique des pannes. On a
(0) = E
0
[T
0
]
1
,
o` u T
0
est le temps de retour en 0. Ici,
E
0
[T
0
] = E[U],
et donc
lim
N
1
N
N

k=1
1
{X
k
=0}
=
1
E[U]
. (8.41)
Le co ut dune panne peut etre si important que lon pref`ere remplacer une machine avant
quelle tombe en panne (une panne entrane des reparations co uteuses, peut-etre meme
une catastrophe humaine, tandis quun remplacement se traduit par de simples co uts de
maintenance). Dans la politique de de retraite `a age xe, on choisit un entier T 1
et on impose que toute machine atteignant lage T soit immediatement remplacee. On
veut calculer la frequence empirique des pannes (pas des remplacements).
La cmh correspondant `a cette politique est du meme type que celle decrite plus haut,
on remplace simplement U
n
par V
n
= U
n
T. Un remplacement (pas une panne) a lieu
au temps n si et seulement si X
n
= 0 et X
n1
= T 1. Mais X
n1
= T 1 implique
X
n
= 0, et donc un remplacement a lieu au temps n si et seulement si
X
n1
= T 1.
La frequence empirique de remplacements non dus `a des pannes est donc, dapr`es le
theor`eme ergodique,
lim
N
1
N
N

k=1
1
{X
k
=T1}
= (T 1).
La formule (1) appliquee `a cette nouvelle situation donne
(T 1) =
P(V T)
E[V ]
,
244 CHAPITRE 8. CHA

INES DE MARKOV
et donc, comme V = U T,
(T 1) =
P(U T)
E[U T]
.
La frequence empirique des visites `a 0 est, dapr`es (8.41),
1
E[U T]
.
La frequence empirique des pannes est donc
1
E[U T]

P(U T)
E[U T]
=
P(U < T)
E[U T]
.
8.4 Methode de Monte Carlo
Principe de la methode de Monte Carlo
On a vu (Section 3.2) que pour echantillonner une distribution de probabilie sur
un espace ni E = 1, 2, ..., r, on dispose dune methode conceptuellement tr`es simple :
On tire un nombre aleatoire U uniformement distribue sur [0, 1] et on denit la variable
aleatoire Z en posant Z = i si

i1
=1
() U <

i
=1
(). La variable aleatoire Z est
alors bien un echantillon de (cest-`a-dire : elle admet comme distribution).
Cette methode, dite de linverse, a un certain nombre dinconvenients quand r est
tr`es grand :
(a) Des probl`emes peuvent se poser `a cause de la petitesse des intervalles qui forment la
partition de [0, 1] adaptee `a la distribution , et du co ut de la precision alors necessaire
dans les calculs.
(b) Lespace des etats ne se presente pas dune mani`ere naturelle sous la forme
1, 2, ..., r. En traitement des images et en physique statistique, un etat est, par exemple,
un tableau de symboles binaires a
ij
, 1 i, j M; a
ij
0, 1, avec M tr`es grand.
Pour implementer la methode de linverse, il faut dabord coder E, cest-`a-dire associer
`a chacun de ses elements un nombre de 1 `a r, obtenir Z qui est un nombre de 1 `a r, puis
decoder le resultat (dire quelle image correspond `a ce nombre). Ces operations, qui
necessitent des recherches dans de tr`es grandes listes, sont co uteuses en temps de calcul.
(c) Enn, il existe de nombreuses situations, surtout en physique, o` u nest connu qu`a
un facteur de normalisation pr`es. La methode de linverse est alors tout simplement
inapplicable.
La recherche dechantillonneurs qui surmontent ces dicultes (surtout la derni`ere) est
un sujet important. La methode dite mcmc (Monte Carlo Markov chain) est base
8.4. M

ETHODE DE MONTE CARLO 245


sur le principe suivant : on construit une cmh X
n

n0
irreductible recurrente positive
aperiodique dont lespace des etats est E = 1, 2, ..., r et qui admet comme distri-
bution stationnaire. On laisse ce processus evoluer jusqu`a un temps n assez grand pour
que la distribution de X
n
soit assez proche de la distribution stationnaire , et on prend
comme echantillon de la variable X
n
. La distribution de X
n
nest quapproximative-
ment egale `a . Ceci nest pas trop grave si on peut donner une vitesse de convergence
de la distribution au temps n vers la distribution stationnaire ce qui permet de controler
la qualite de lapproximation en choisissant n en fonction des exigences de precision.
Le probl`eme des vitesses de convergence est un domaine de recherche tr`es actif que
nous naborderons pas ici. Pour linstant nous allons simplement choisir une matrice de
transition irreductible recurrente positive aperiodique qui admet comme distribution
stationnaire.
Il y a un nombre inni de telles matrices et, parmi elles, il y en a une innite qui
correspondent `a une paire (P, ) reversible, cest-`a-dire telle que
(i)p
ij
= (j)p
ji
. (8.42)
Nous allons chercher des solutions de la forme
p
ij
= q
ij

ij
(8.43)
pour j ,= i, o` u Q = q
ij

i,jE
est une matrice de transition sur E irreductible. La chane
evolue de la facon suivante : Lorsque letat present est i, on choisit un etat j avec la
probabilite q
ij
. Cet etat j est accepte comme nouvel etat avec la probabilite
ij
. Sil
nest pas accepte, on ne change pas detat, on reste en i. La probabilite de transition de
i `a j quand i ,= j est bien donne par (8.42). Il reste maintenant `a choisir q
ij
et
ij
. Nous
allons decrire les deux algorithmes les plus cel`ebres.
Exemple 8.4.1: Lalgorithme de Metropolis. On suppose que la distribution
est de la forme
(i) =
e
U(i)
K
, (8.44)
o` u U : E R est une fonction, dite fonction energie dans un contexte de physique, et
K est la constante de partition, la constante de normalisation assurant que est bien
un vecteur de probabilite. On notera que la forme (8.44) na pas vraiment `a etre postulee
puisque on peut toujours choisir U(i) = log (i) et K = 1. En pratique, la fonction
denergie U est donnee et la constante de normalisation K est impossible `a calculer
numeriquement. Mais nous allons voir que lalgorithme de Metropolis nen a pas besoin.
Cet algorithme preconise une matrice Q symetrique, et la probabilite dacceptation

ij
= min
_
1, e
(U(j)U(i))
_
.
Il est facile de verier que les equations de balance detaillee (8.42) sont satisfaites, et
que la cmh en question est bien irreductible et, lorsque la fonction energie nest pas une
constante, aperiodique.
246 CHAPITRE 8. CHA

INES DE MARKOV
Exemple 8.4.2: Lalgorithme de Barker. Cet algorithme utilise lui aussi une ma-
trice Q symetrique. Sa probabilite dacceptation est

ij
=
e
U(i)
e
U(i)
+e
U(j)
.
Ce choix correspond au principe de base de la physique statistique : quand la Nature a le
choix entre deux etats 1 et 2 denergies respectives E
1
et E
2
, elle choisit i = 1, 2 avec la
probabilite
e
E
i
e
E
1+e
E
2
. L`a encore, on verie que les equations de balance detaillee (8.42)
sont satisfaites, et que la cmh en question est bien irreductible et, lorsque la fonction
energie nest pas une constante, aperiodique.
Exemple 8.4.3: Lalgorithme de Gibbs. Lespace des etats est E =
N
, o` u N est
un entier positif et est un ensemble ni. La distribution `a echantillonner est donc de
la forme
(z) = (z(1), . . . , z(N))
Le mecanisme de transition est le suivant. Si on se trouve dans letat (z(1), . . . , z(N)), on
choisit un site , 1 N, au hasard, et on change la coordonnee z() (et elle seule)
en y(), cette nouvelle coordonnee etant choisie en fonction de z(1), . . . , z( 1), z( +
1), . . . , z(N) avec la probabilite
(y() [ z(1), . . . , z( 1), z( + 1), . . . , z(N)). (8.45)
L`a encore, on verie que les equations de balance detaillee (8.42) sont satisfaites, que la
cmh en question est bien irreductible et, lorsque nest pas une constante, aperiodique.
Cette methode est specialement interessante lorsque (lespace des phases) est petit,
et lorsque la probabilite conditionnelle ( [ z(1), . . . , z( 1), z( + 1), . . . , z(N)) ne
depend que dun petit nombre des arguments z(1), . . . , z( 1), z( +1), . . . , z(N). Voici
un exemple qui presente un grand interet pour les physiciens :
Exemple 8.4.4: L echantillonneur de Gibbs pour le mod` ele dIsing. Le mod`ele
dIsing est une idealisation dun materiau ferromagnetique. On a N = M
2
dipoles
magnetiques places sur une grille nie. Plus precisement les sites sur lesquels se trouvent
les dipoles forment un ensemble S = (i, j); 1 i, j M. Un site s S a donc
la forme s = (i, j). La distance entre deux sites s
1
= (i
1
, j
1
) et s
2
= (i
2
, j
2
) est
d(s
1
, s
2
) = [i
1
i
2
[ +[j
1
j
2
[. On dit que s
1
et s
2
sont voisins si d(s
1
, s
2
) = 1. Deux sites
voisins s
1
et s
2
forment une paire notee s
1
, s
2
). Lespace des phases est = 1, +1,
la valeur 1 correspond `a une orientation de dipole, disons vers le bas, tandis que +1
correspond `a la direction opposee. Lespace detats E =
S
est lensemble des con-
gurations (z(s), s S) o` u z(s) = 1, +1. Une telle conguration represente
des dipoles places sur les sites de S, lorientation du dipole place en s etant z(s). Si on
8.5. EXERCICES 247
enum`ere les sites de S de 1 `a N = M
2
, on retrouve bien la situation decrite plus haut.
Precisons maintenant la distribution . On prendra
(z(s), s S) =
expc(z)
K
o` u c(z) est lenergie de la conguration z = (z(s), s S) : c(z) = H

sS
z(s) +
J

s,t
z(s)z(t) (la deuxi`eme somme porte sur toutes les paires de sites voisins) et K
est une constante de normalisation, en general incalculable numeriquement. (Pour les
physiciens H est le champ magnetique externe, et J est lenergie interne dune paire de
dipoles voisins orientes dans le meme sens.) La probabilite conditionnelle jouant le role
de (8.45),
(y(s) [ z(t), t S s) =
(y(s), z(t), t S s)

z(s)
(z(s), z(t), t S s)
,
prend la forme (faire le calcul)
(y(s) [ z(t), t S s) =
expc(s, z)
expc
+1
(s, z) + expc
+1
(s, z)
, (8.46)
o` u c(s, z) = y(s) (H +J

z(v(s))) et o` u la somme porte sur tous les sites v(s) voi-


sins de s. En physique, on appelle c(s, z) lenergie locale au site s de la conguration
(y(s), z(t), t S s), et c
+1
(s, z) et c
+1
(s, z) sont les valeurs de cette energie locale
correspondant aux directions +1 et 1 respectivement de lorientation du dipole place en
s. Lechantillonneur de Gibbs fonctionne donc dans le cas present de la facon suivante :
si au temps n on a la conguration z = (z(s), s S), on choisit un site compl`etement
au hasard (distribution uniforme). Si cest le site s qui a ete tire au sort, on tire au sort
la nouvelle phase y(s) de ce site s selon la probabilite (8.46). On notera que ce choix est
fait selon les principes de la physique statistique decrit quelques lignes plus haut.
8.5 Exercices
Exercice 8.5.1. Un contre-exemple.
La propriete de Markov ne dit pas que le present et le futur sont independants etant
donne une information quelconque sur le present. Trouvez un exemple simple de cmh
X
n

n0
avec lespace detat E = 1, 2, 3, 4, 5, 6 tel que
P(X
2
= 6 [ X
1
3, 4, X
0
= 2) ,= P(X
2
= 6 [ X
1
3, 4).
Exercice 8.5.2.
Demontrez legalite (8.2).
Exercice 8.5.3.
Demontrez le Theor`eme 8.1.5.
248 CHAPITRE 8. CHA

INES DE MARKOV
Exercice 8.5.4. Gestion des stocks.
Une marchandise donnee A est stockee en vue de satisfaire `a la demande. La demande
totale entre le temps n et le temps n + 1 est de Z
n+1
unites, et on suppose que la suite
Z
n

n1
est iid, et independante de la valeur initiale X
0
du stock. Le remplissage du
stock a lieu aux temps n + 0 (cest-`a-dire, immediatement apr`es le temps n) pour tout
n 1.
s = 2
s = 5
X
0
0
Z
1
= 1 Z
2
= 4 Z
3
= 2 Z
4
= 1 Z
5
= 1 Z
6
= 3 Z
7
= 2
X
1
X
2
X
3
X
4
X
5
X
6
X
7
Une strategie de gestion populaire est la strategie (s, S), o` u s et S sont des entiers tels
que 0 < s < S. Avec cette politique de gestion, si le niveau du stock au temps n est plus
gret que s, alors le stock est ramene au niveau S autemps n + 0. Autrement, rien nest
fait. Le stock initial X
0
est suppose inferieur ou egal `a S, et donc X
n

n1
prend ses
valeurs dans E = S, S 1, S 2, . . .. (Voir la gure.) Les valeurs negatives du stock
sont admises, avec interpretation quune commande non satisfaite est immediatement
honoree apr`es restockage. Montrez que X
n

n1
est une cmh et donnez sa matrice de
transition.
Exercice 8.5.5. Records.
Soit Z
n

n1
une suite iid de variables geometriques (pour k 0, P(Z
n
= k) = (1p)
k
p,
o` u p (0, 1)). Soit X
n
= max(Z
1
, . . . , Z
n
) la valeur record au temps n, o` u on suppose
que X
0
est une variable `a valeurs enti`eres et independante de la suite Z
n

n1
. Montrez
que X
n

n0
est une cmh et donnez sa matrice de transition.
Exercice 8.5.6. La vie des gangsters.
Trois personnages armes, A, B, et C, se trouvent soudainement en presence au carrefour
dune rue de Washington, D.C., et sur ce, se mettent tout naturellement `a se tirer dessus.
Chaque survivant tire sur un autre survivant de son choix toutes les 10 secondes. Les
probabilites datteindre la cible pour A, B, et C sont respectivement , , et . A est le
plus ha des trois, et donc, tant quil vit, B et C signorent et lui tirent dessus. Pour des
raisons historiques que nous ne developperons pas, A ne peut pas sentir B, et donc il ne
8.5. EXERCICES 249
tire que sur B tant que ce dernier est vivant. Le bienheureux C nest vise que lorsquil
se trouve en presence de A seul ou B seul. Quelles sont les chances de survie de A, B, et
C, respectivement ?
Exercice 8.5.7. Le chat, la souris et le gruy` ere.
Une souris aairee se prom`ene dans un labyrinthe. Si au temps n elle se trouve dans une
pi`ece avec k portes, elle en choisit une avec la probabilite
1
k
et se retrouve `a linstant
n+1 dans la pi`ece `a laquelle cette porte conduit. Un chat paresseux attend dans la pi`ece
numero 3, et il y a un morceau de fromage dans la pi`ece numero 5. La souris commence
son periple dans la pi`ece 1. Avec quelle probabilite go utera-t-elle du fromage avant que
le chat ne la devore ?
5
CHAT
SOURIS FROMAGE
2
1
3
4
La chambre au gruy`ere
Exercice 8.5.8.
Montrez que le graphe de transition de la gure ci-dessous est irreductible. Donnez sa
periode et ses classes cycliques.
1
4
3
5
2
7
6
Exercice 8.5.9.
Montrez quune matrice de transition P avec au moins un etat i E tel que p
ii
> 0 est
aperiodique.
250 CHAPITRE 8. CHA

INES DE MARKOV
Exercice 8.5.10.
Montrez que la marche aleatoire symetrique sur Z na pas de distribution stationnaire.
Exercice 8.5.11.
Est-ce que la cmh de lExemple 8.1.9 est reversible ?
Exercice 8.5.12.
Soit X
n

n0
la cmh de lExemple 8.1.7.
(1) Montrez quelle est reversible ;
(2) Sachant X
0
= 1, calculez la distribution de probabilite de T
1
= inf n 1; X
n
= 1,
o` u on utilise la convention inf = .
Exercice 8.5.13.
Calculez la distribution stationnaire de la cmh despace detat E = 1, 2, 3 et de matrice
de transition
P =
_
_
1 1 0
0 1
0 1
_
_
,
o` u , , (0, 1). Est-elle reversible ?
Exercice 8.5.14.
Demontrez le Theor`eme 8.2.1
Exercice 8.5.15. Les cailloux.
Des cailloux S
1
, . . . , S
M
sont alignes. Au temps n un caillou est choisi au hasard, et ce
caillou echange sa place avec le caillou place juste devant lui. Si le caillou selectionne
est en tete, on ne change rien. Par exemple, avec M = 5 : Si la situation juste avant le
temps n est S
2
S
3
S
1
S
5
S
4
(S
2
est en tete), et si S
5
est tire au sort, la nouvelle situation est
S
2
S
3
S
5
S
1
S
4
, tandis que si S
2
est selectionne, la conguration reste la meme.
`
A chaque
top de lhorloge, S
i
est selectionne avec la probabilite
i
> 0. Notons X
n
la situation au
temps n, par exemple X
n
= S
i1
S
i
M
, avec linterpretation que S
i
j
est dans la j-`eme
position. Montrez que X
n

n0
est une cmh irreductible recurrente positive et que sa
distribution stationnaire est
(S
i1
S
i
M
) = C
M
i1

M1
i2

i
M
,
o` u C est une constante de normalisation.
Exercice 8.5.16. Chane produit.
Soit X
(1)
n

n0
et X
(2)
n

n0
deux cmh avec la meme matrice de transition P. Montrez
que le processus Z
n

n0
`a valeurs dans EE deni par Z
n
= (X
(1)
n
, X
(2)
n
) est une cmh.
Quelle est sa matrice de transition en n etapes ? Montrez quelle est irreductible si P est
8.5. EXERCICES 251
irreductible et aperiodique. Donnez un contre-exemple lorsquon abandonne lhypoth`ese
daperiodicite.
Exercice 8.5.17.
Soit X
1
0
, X
2
0
, Z
1
n
, Z
2
n
(n 1) des variables aleatoires independantes, et telles que, de plus,
Z
1
n
, Z
2
n
(n 1) sont identiquement distribuees. Soit une variable aleatoire `a valeurs
enti`eres non negatives telle que pour tout m N, levenement = m est exprimable
en fonction de X
1
0
, X
2
0
, Z
1
n
, Z
2
n
(n m). On denit Z
n

n1
par
Z
n
=
_
= Z
1
n
si n
= Z
2
n
si n >
Montrez que Z
n

n1
a la meme distribution que Z
1
n

n1
et est independante de
X
1
0
, X
2
0
.
Exercice 8.5.18. Fusion.
Soit X
1
n

n0
et X
2
n

n0
deux cmh avec la meme matrice de transition P. Soit le
temps deni par
= infn 0 ; X
1
n
= X
2
n

(avec la convention usuelle: inf = ). Supposons que P( < ) = 1. On denit


X
n

n1
par
X
n
=
_
X
1
n
if n
X
2
n
if n >
Montrez que X
n

n1
a la meme distribution que X
1
n

n1
.
Exercice 8.5.19. La chane serpent.
Soit X
n

n0
une cmh despace detat E et de matrice de transition P. Pour L 1, on
denit Y
n
= (X
n
, X
n+1
, . . . , X
n+L
).
(a) Le processus Y
n

n0
prend ses valeurs dans F = E
L+1
. Montrez que cest une cmh
et donnez sa matrice de transition.
(b) Montrez que si X
n

n0
est irreductible, il en est de meme pour Y
n

n0
si on
restreint lespace detat de cette derni`ere `a F = (i
0
, . . . , i
L
) E
L+1
; p
i0i1
p
i1i2

p
i
L1
i
L
> 0.
(c) Montrez que si X
n

n0
a une distribution stationnaire , alors Y
n

n0
a aussi une
distribution stationnaire. Laquelle ?
Exercice 8.5.20. Retour ` a l etat initial.
Soit le temps de retour `a letat initial dune cmh irreductible recurrente positive
X
n

n0
, cest-`a-dire,
= infn 1; X
n
= X
0
,
252 CHAPITRE 8. CHA

INES DE MARKOV
Calculez lesperance de lorsque la distribution initiale est la distribution stationnaire .
Conclure que cette esperance est nie si et seulement si E est ni. Quand E est inni,
est-ce que ceci est en contradiction avec lhypoth`ese de recurrence positive ?
Exercice 8.5.21. Le cavalier rentre ` a la maison.
Un cavalier circule de mani`ere aleatoire sur un echiquier, choisissant chaque mouvement
parmi ceux qui lui sont permis avec la meme probabilite, et debutant son periple dun
coin de lechiquier. Combien de temps en moyenne lui faudra-t-il pour se retrouver sur
sa case de depart ?
Exercice 8.5.22. Codage alternatif.
Dans certains syst`emes de communication numerique, une suite de 0 et de 1 (symboles
dentree) est codee en une suite de 0, +1 et 1 (symboles de sortie) de la mani`ere
suivante. Un symbole dentree 0 est code en 0, tandis quun symbole dentree 1 est code
en 1 ou +1. Le choix entre 1 et +1 est fait de telle sorte que les 1 et les +1 alternent.
Le premier 1 est code en +1. Par exemple la suite de symboles dentree 011101 devient
0, +1, 1, +1, 0, 1.
a. Trouvez un automate avec 4 etats +1, 1, 0
+
et 0

, pour lequel la suite des etats vi-


sites, `a part letat initial xe `a 0
+
, est, lorsque 0
+
et 0

sont remplaces par 0, exactement


la suite de sortie.
b. On suppose que la suite dentree Z
n

n1
est iid, avec 0 et 1 equiprobables. La suite
des etats de lautomate est alors une cmh dont on demande de calculer la matrice de
transition P et ses iterees P
n
, et la distribution stationnaire .
c. Notons Y
n

n0
la suite de symboles de sortie (prenant les valeurs 0, 1, +1). Mon-
trez que Y
n
= f (X
n
) pour une function f `a identier, et calculez lim
n
E[Y
n
Y
n+k
]
E[Y
n
]E[Y
n+k
] pour tout k 0.
Exercice 8.5.23. ABBABAA.
Une suite de A et de B est formee comme suit. La premi`ere lettre est choisie au hasard,
P(A) = P(B) =
1
2
, ainsi que la deuxi`eme, independamment de la premi`ere. Quand les
n 2 premi`eres lettres ont ete selectionnees, la (n+1)-`eme est choisie, independamment
des lettres dans les positions k n 2, et conditionnellement `a la paire formee par les
lettres en position n 1 et n, comme suit :
P(A [ AA) =
1
2
, P(A [ AB) =
1
2
, P(A [ BA) =
1
4
, P(A [ BB) =
1
4
.
Quelles sont les proportions de A et de B au long terme ?
Exercice 8.5.24. Recherche dun motif.
Considerons le tableau de a et de b de la gure A ci-dessous o` u une lettre dans
une position donnee est choisie au hasard et equiprobablement dans lensemble a, b,
8.5. EXERCICES 253
independamment des autres lettres. On veut calculer la frequence empirique asympto-
tique du motif de la gure B, sans compter les chevauchements. Par exemple, avec la
suite de la gure A , on compte 2 occurences du motif ; La troisi`eme est ignoree car elle
chevauche la deuxi`eme (Figure C).
a b b a b a b b b b
b a a a a b b a a a
A
b
a
b
a

B
b a b b a b a b b
a
b
b a a a b b a a a
NON OUI OUI
C
Trouvez un automate qui lit successivement les colonnes `a deux lettres de gauche `a
droite, et qui poss`ede un etat privilegie avec la propriete suivante : lautomate entre
ou reste dans letat si et seulement si il vient de decouuvrir un motif qui ne chevauche
pas un autre precedemment decouvert. Quelle est la frequence empirique asymptotique
du motif ?

You might also like