M1Probabilites1

M1 - Math

´
ematiques Appliqu
´
ees
`
a l’
´
Economie et
`
a la Finance
Universit
´
e Paris 1
Probabilit
´
es 1
Annie Millet
Le but de ce cours est de reprendre les notions fondamentales de th´eorie de la mesure vues
en Licence, en se concentrant sur les outils constamment utilis´es par les probabilistes, ainsi
que les notions purement probabilistes. Les r´esultats de th´eorie de la mesure seront rappel´es
sans d´emonstration, sauf pour ceux qui sont nouveaux. On traitera plus `a fond l’esp´erance
conditionnelle (utilis´ee en Statistiques et en Probabilit´es 2 dans l’´etude des processus `a
temps discret), les vecteurs gaussiens et les th´eor`emes de convergence.
−8 −6 −4 −2 0 2 4 6 8
−6
−4
−2
0
2
4
6
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
. .
.
.
.
.
.
.
.
. .
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
..
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
. .
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
. .
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Table des mati`eres
1. Rappels de notions de th´eorie de la mesure . . . . . . . . . . . . 4
1.1. Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2. Fonctions mesurables - Fonctions ´ etag´ees . . . . . . . . . . . . . 5
1.3. Mesure positive . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4. Int´egrale d’une fonction mesurable positive - Th´eor`eme de conver-
gence monotone . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5. Int´egrale d’une fonction mesurable de signe quelconque . . . . . . 12
1.6. Ensembles n´egligeables - Th´eor`emes de Lebesgue . . . . . . . . . . 14
1.7. Espaces L
1
, L
2
, L
p
et L

. . . . . . . . . . . . . . . . . . . . . . 16
1.8. Mesure produit - Th´eor`eme de Fubini. . . . . . . . . . . . . . . . 20
2. Formulation probabiliste . . . . . . . . . . . . . . . . . . . . . . 23
2.1. Variables al´eatoires r´eelles - Loi - Fonction de r´epartition . . . . . 23
2.2. Vecteurs al´eatoires - Changement de variables. . . . . . . . . . . 32
2.3. Ind´ependance . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.4. Simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.4.1. M´ethode d’inversion de la fonction de r´epartition . . . . . . . . . 37
2.4.2. M´ethode de rejet . . . . . . . . . . . . . . . . . . . . . . . 39
2.4.3. Simulation de variables al´eatoires gaussiennes . . . . . . . . . . 42
3. Esp´erance conditionnelle. . . . . . . . . . . . . . . . . . . . . . 43
3.1. Probabilit´e conditionnelle . . . . . . . . . . . . . . . . . . . . 43
3.2. Th´eor`eme de projection orthogonale . . . . . . . . . . . . . . . 44
3.3. Construction de l’esp´erance conditionnelle E(X/() . . . . . . . . 46
3.4. Loi conditionnelle et E(Y/X) . . . . . . . . . . . . . . . . . . . 48
3.4.1. D´efinition . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.4.2. Cas d’une variable al´eatoire X prenant un nombre fini ou d´enombrable
de valeurs. . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.4.3. Cas o` u le couple (X, Y ) a une densit´e - Densit´e conditionnelle . . . 51
3.4.4. Application `a la simulation . . . . . . . . . . . . . . . . . . 52
3.5. Propri´et´es de l’esp´erance conditionnelle. . . . . . . . . . . . . . 53
3.5.1. Diverses g´en´eralisations des propri´et´es de l’esp´erance . . . . . . . 53
3.5.2. Esp´erance conditionnelle et ind´ependance . . . . . . . . . . . . 55
4. Fonction caract´eristique - Vecteurs gaussiens . . . . . . . . . . . 57
4.1. Fonction caract´eristique d’une variable al´eatoire r´eelle . . . . . . 57
4.2. Fonction caract´eristique des vecteurs al´eatoires . . . . . . . . . 60
4.3. Vecteurs gaussiens . . . . . . . . . . . . . . . . . . . . . . . . 62
5. Th´eor`emes de convergence . . . . . . . . . . . . . . . . . . . . . 68
5.1. Convergence en probabilit´e . . . . . . . . . . . . . . . . . . . . 68
5.2. Lois des grands nombres. . . . . . . . . . . . . . . . . . . . . . 71
5.3. Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . 73
5.3.1. D´efinition . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5.3.2. Convergence en loi et fonction de r´epartition . . . . . . . . . . . 76
5.3.3. Convergence en loi et fonction caract´eristique . . . . . . . . . . . 77
5.4. Th´eor`eme de la limite centrale . . . . . . . . . . . . . . . . . . 81
1 Rappels de notions de th´eorie de la mesure
Le but de ce chapitre est de donner les (r)appels de la th´eorie de l’int´egration d’utilisation
courante en Probabilit´es. Seuls les points « nouveaux » par rapport au cours de L3 seront
d´emontr´es.
Convention de notation. Si A ⊂ X, on note A
c
le compl´ementaire de A dans X.
1.1 Tribu
L’information qualitative dont on dispose dans un mod`ele est donn´ee par un ensemble
Ω, qui correspond souvent `a l’ensemble de tous les r´esultats possibles d’une exp´erience,
et `a des sous-ensembles de Ω, qui d´ecrivent des propri´et´es particuli`eres des r´esultats. Il
faut cependant donner des r`egles de manipulation de ces sous-ensembles qui permettront
ensuite d’introduire des informations quantitatives. On se place tout d’abord dans un cadre
l´eg`erement plus g´en´eral. Afin de r´eserver la notation Ω `a un espace utilis´e en probabilit´es,
on appellera ici l’ensemble de r´ef´erence X.
D´efinition 1.1 Soit X un ensemble. Une tribu (ou σ-alg`ebre) sur X est une famille A de
parties de X telles que
1. ∅ ∈ A,
2. Pour tout A ∈ A on a A
c
∈ A,
3. Pour toute suite (A
n
, n ≥ 1) d’´el´ements de A, ∪
n
A
n
∈ A.
On dit que (X, A) est un espace mesurable et les ´el´ements de A sont des ensembles mesu-
rables.
La remarque suivante regroupe des propri´et´es importantes d’une tribu A sur X qui d´ecoulent
imm´ediatement de la d´efinition pr´ec´edente.
Remarque 1.2 Soit (X, A) un espace mesurable.
1. Pour toute suite (A
n
, n ≥ 1) d’´el´ements de A, ∩
n
A
n
∈ A. De plus les ensembles
limite sup´erieure lim
n
A
n
= ∩
n
(∪
k≥n
A
k
) et limite inf´erieure liminf
n
A
n
= ∪
n
(∩
k≥n
A
k
)
de la suite (A
n
, n ≥ 1) appartiennent `a A. Ils d´ecrivent respectivement l’ensemble des
´el´ements x de X qui appartiennent `a une infinit´e des ensembles A
n
(resp. `a tous les
ensembles A
n
`a partir d’un certain rang).
2. Toute r´eunion (resp. intersection) finie d’´el´ements de A appartient `a A.
3. Si A ∈ A, B ∈ A, A`B := A∩ B
c
∈ A.
De fa¸ con ´evidente, l’intersection d’une famille de tribus sur X est encore une tribu et
l’ensemble {(X) des parties de X est une tribu. Par contre, l’union de deux tribus n’est
pas n´ecessairement une tribu, comme le montre l’exemple suivant : X = [0, 1[, T
1
=
¦∅, [0,
1
2
[, [
1
2
, 1[, X¦, T
2
= ¦∅, [0,
1
4
[, [
1
4
, 1[, X¦. L’ensemble [0,
1
2
[∩[
1
4
, 1[= [
1
4
,
1
2
[∈ T
1
∪ T
2
. Cette
remarque justifie la d´efinition suivante.
D´efinition 1.3 Pour toute famille / de sous-ensembles de X il existe une plus petite tribu
contenant /, appel´ee tribu engendr´ee par / et not´ee σ(/) ; c’est l’intersection de toutes les
tribus qui contiennent /.
Probabilit´es 1 - Annie Millet 11 novembre 2007
Les exemples suivants de tribus engendr´es par une famille d’ensembles seront souvent utilis´es.
1. Si A ⊂ X et / = ¦A¦, la tribu engendr´ee par A est σ(A) = ¦∅, A, A
c
, X¦.
2. Si (A
n
, n ∈ N) est une partition de X, c’est `a dire que les ensembles A
n
sont deux
`a deux disjoints et que leur r´eunion est X, la tribu engendr´ee par cette partition est
l’ensemble de toutes les r´eunions (finies ou) d´enombrables d’´el´ements de la partition.
3. Si X = R et 1 d´esigne l’ensemble des intervalles ]−∞, t] pour t ∈ R, la tribu engendr´ee
par 1 est la tribu des bor´eliens de R, not´ee 1. Elle contient tous les intervalles ouverts,
ferm´es, semi-ouverts, tous les ensembles ouverts de R (qui sont la r´eunion d’une suite
d’intervalles ouverts disjoints), tous les ensembles ferm´es de R, ... D’autre part, on a
1 = σ(() avec ( = ¦[a, b] : a ∈ R, b ∈ R, a ≤ b¦, ou bien ( = ¦]a, b[: a ∈ R, b ∈
R, a < b¦, ou bien ( = ¦] − ∞, a[: a ∈ R¦. Il n’est cependant pas possible de d´ecrire
explicitement la tribu des bor´eliens. Mˆeme s’il existe des ensemble non bor´eliens, dans
la pratique tous les ensembles que l’on construit « naturellement » sont bor´eliens.
4. On note [0, +∞] = [0, ∞[∪¦+∞¦. La tribu B([0, +∞]) est la tribu engendr´ee par la
classe / = ¦[a, b], 0 ≤ a ≤ b ≤ +∞¦.
5. Si X = R
d
et { d´esigne l’ensemble des pav´es ouverts de R
d
(c’est `a dire des ensembles
Π
d
i=1
]a
i
, b
i
[ o` u a
i
< b
i
pour tout i = 1, , d) la tribu engendr´ee par { est la tribu des
bor´eliens de R
d
et not´ee 1
d
.
6. Si X est un espace topologique, la tribu des bor´eliens de X est la tribu not´ee B(X)
engendr´ee par la famille O des ouverts de X. Lorsque X = R
d
pour la topologie usuelle,
on retrouve les tribus bor´eliennes pr´ec´edentes, c’est ` a dire B(R
d
) = 1
d
.
7. Soit (Y, \) un espace mesurable et f : X →Y une application. L’ensemble des images
r´eciproques par f des ´el´ements de \, soit A = ¦A = f
−1
(B) : B ∈ \¦, est une
tribu sur X. On note A = f
−1
(\). L’exemple suivant montre que si A est une tribu
sur X, l’ensemble des images par f des ´el´ements de A n’est pas n´ecessairement une
tribu sur Y : X = Y = 1, f(x) = x
2
, A = σ([−1, 2]). En effet l’ensemble des images
de σ([−1, 2]) = ¦∅, [−1, 2], ] − ∞, −1[∪]2, +∞[, R¦ par f est ¦∅, [0, 4], ]1, +∞[, R¦ qui
n’est pas une tribu.
1.2 Fonctions mesurables - Fonctions ´ etag´ees
La notion suivante est celle d’application compatible avec les espaces mesurables sur les
ensembles de d´epart et d’arriv´ee.
D´efinition 1.4 Soit (X, A) et (Y, \) des espaces mesurables. Une application f : (X, A) →
(Y, \) est mesurable si pour tout B ∈ \, f
−1
(B) ⊂ A, c’est `a dire f
−1
(\) ⊂ A.
Exemple 1.5 1. Toute application constante est mesurable pour toute tribu sur les es-
paces de d´epart et d’arriv´ee.
2. Si (X, A) est un espace mesurable, pour tout A ∈ X, la fonction indicatrice de A,
1
A
: (X, A) → (R, 1) d´efinie par 1
A
(x) = 1 si x ∈ A et 0 sinon est mesurable.
Remarquons que si \ = σ(/) est la tribu engendr´ee par /, une application f : (X, A) →
(Y, \) est mesurable si et seulement si f
−1
(/) ⊂ A. On en d´eduit que toute application f
continue d’un espace topologique X dans un espace topologique Y est mesurable de (X, B(X))
dans (Y, B(Y)).
11 novembre 2007 Probabilit´es 1 - Annie Millet
Proposition 1.6 Soit (X
i
, A
i
), i = 1, 2, 3 des espaces mesurables, f : (X
1
, A
1
) → (X
2
, A
2
)
et g : (X
2
, A
2
) → (X
3
, A
3
) des applications mesurables. Alors f
2
◦ f
1
: (X
1
, A
1
) → (X
3
, A
3
)
est mesurable.
On en d´eduit imm´ediatement le corollaire suivant.
Corollaire 1.7 Soit (X, A) un espace mesurable, f, g des fonctions mesurables de (X, A)
dans (R, 1). Alors les fonctions [f[, [f[
p
pour p ∈]0, +∞[, f
+
= sup(f, 0), f

= sup(−f, 0),
f +g, fg, sup(f, g), inf(f, g) sont mesurables. De plus les ensembles ¦x ∈ X : f(x) = g(x)¦,
¦x ∈ X : f(x) ≤ g(x)¦, ¦x ∈ X : f(x) < g(x)¦, ¦x ∈ X : f(x) ≥ g(x)¦ et ¦x ∈ X : f(x) >
g(x)¦ sont mesurables.
La notion suivante de fonction ´etag´ee, qui privil´egie les valeurs prises (sur des ensembles
qui, bien que mesurables, peuvent ˆetre beaucoup plus compliqu´es que des intervalles) par
rapport aux ensembles sur lesquels ces valeurs sont prises, donne une grande souplesse `a
cette th´eorie de la mesure.
D´efinition 1.8 Soit (X, A) un espace mesurable Une fonction f : (X, A) → R est ´etag´ee
si elle ne prend qu’un nombre fini de valeurs et est mesurable lorsqu’on munit R de la tribu
des bor´eliens, i.e., s’il existe un entier n ≥ 1 et pour tout i = 1, , n des ensembles A
i
∈ A
et des r´eels c
i
∈ R tels que
f =
n
¸
i=1
c
i
1
A
i
. (1.1)
On remarque que, si on prend les ensembles A
i
deux `a deux disjoints, les constantes c
i
sont
uniques. Les fonctions ´etag´ees sont stables par somme, produit, supremum, infimum. Le
th´eor`eme suivant est crucial dans la th´eorie ; il permet d’approximer des fonctions mesurables
par des fonctions ´etag´ees.
Th´eor`eme 1.9 Soit (X, A) un espace mesurable.
(i) Soit f : (X, A) → ([0, +∞], B([0, +∞]) une fonction mesurable. Alors il existe une
suite croissante (f
n
, n ≥ 1) de fonctions ´etag´ees positives ou nulles qui converge simplement
vers f.
(ii) Toute fonction mesurable finie f : (X, A) →R (resp. born´ee) est la limite (resp. est
la limite uniforme) d’une suite de fonctions ´etag´ees.
D´emonstration.
(i) Pour tout entier n ≥ 1 et tout i = 0, , n2
n
, soit
A
i
= ¦ω ∈ Ω : f(ω) ∈ [i2
−n
, (i + 1)2
−n
[¦ et B
n
= ¦ω ∈ Ω : f(ω) ≥ n¦.
La suite
f
n
=
n2
n
−1
¸
i=0
i 2
−n
1
A
i
+ n1
Bn
est croissante ´etag´ee et pour tout x, f
n
(x) converge vers f(x).
(ii) Si f est de signe quelconque, on utilise (i) pour approximer f
+
= sup(f, 0) et
f

= sup(−f, 0) et on en d´eduit par diff´erence une suite de fonctions ´etag´ees qui converge
simplement vers f. Si de plus la fonction f est born´ee, les suites qui approximent f
+
et f

Probabilit´es 1 - Annie Millet 11 novembre 2007
convergent uniform´ement et leur diff´erence converge donc uniform´ement vers f = f
+
− f.
2
Convention de notation. Dans la suite, si A ⊂ R et f : X → R, pour tout A ⊂ R on
notera
¦f ∈ A¦ := ¦ω ∈ Ω : f(ω) ∈ A¦ = f
−1
(A).
On notera de mˆeme ¦f ≤ t¦ = ¦ω ∈ Ω : f(ω) ≤ t¦, ¦f = a¦ = ¦ω ∈ Ω : f(ω) = a¦, ...
Si X et Y sont des espaces topologiques, A = B(X) et B(Y) = \ d´esignent leurs tribus
bor´eliennes, une application f : X →Y mesurable de (X, A) dans (Y, \) est dite bor´elienne.
1.3 Mesure positive
La description qualitative des r´esultats d’une exp´erience est insuffisante. Elle doit ˆetre
compl´et´ee par une information quantitative, c’est `a dire qu’`a chaque ensemble de la tribu il
faut affecter un nombre positif, sa « mesure ».
D´efinition 1.10 Soit (X, A) un ensemble mesurable. Une mesure positive sur (X, A) est
une application
µ : A → [0, +∞]
telle que
1. µ(∅) = 0.
2. Si (A
n
, n ≥ 1) est une suite d’ensembles mesurables deux `a deux disjoints, µ(∪
n
A
n
) =
¸
n
µ(A
n
).
On dit que (X, A, µ) est un espace mesur´e.
Si µ(X) < +∞, on dit que la mesure µ est finie. Si µ(X) = 1, on dit que µ est une
probabilit´e. S’il existe une suite croissante (X
n
, n ≥ 1) d’ensembles mesurables tels que

n
X
n
= X et µ(X
n
) < +∞ pour tout entier n, on dit que µ est σ-finie.
On remarque que l’on permet µ(A) = +∞ avec les conventions alg´ebriques suivantes :
a + (+∞) = +∞, (+∞) + (+∞) = +∞.
Convention Lorsque la mesure µ est une probabilit´e sur un ensemble mesurable (Ω, T) qui
d´ecrit les r´esultats d’une exp´erience al´eatoire, on la note traditionnellement P et on dit que
l’espace (Ω, T, P) est un espace probabilis´e.
Les exemples suivants de mesure sont fondamentaux.
Exemple 1.11 1. La mesure de Dirac au point a ∈ X est la probabilit´e δ
a
sur A d´efinie
par δ
a
(B) = 1 si a ∈ B et δ
a
(B) = 0 si a ∈ B.
2. La mesure de comptage sur (N, {(N)) est la mesure µ d´efinie par µ(n) = 1 pour tout
entier n ≥ 0. Pour tout A ⊂ N, µ(A) = [A[, o` u [A[ d´esigne le nombre des ´el´ements de
A. C’est une mesure σ-finie, non finie.
3. Si (a
n
, n ≥ 0) est une suite d’´el´ements de X et (α
n
, n ≥ 0) est une suite de nombres
r´eels positifs ou nuls, la mesure µ =
¸
n
α
n
δ
an
est σ-finie. Lorsque
¸
n
α
n
= 1, c’est
une probabilit´e. La mesure de comptage correspond au cas o` u X = N, a
n
= n et α
n
= 1.
La proposition suivante donne quelques propri´et´es usuelles des mesures positives. Sa
d´emonstration est laiss´ee en exercice.
11 novembre 2007 Probabilit´es 1 - Annie Millet
Proposition 1.12 Soit (X, A, µ) un espace mesur´e.
(i) Pour tout A ∈ A, B ∈ A, µ(A ∪ B) + µ(A ∩ B) = µ(A) + µ(B). Si de plus
µ(A∩ B) < ∞, µ(A∪ B) = µ(A) + µ(B) −µ(A∩ B).
(ii) Pour toute suite (A
n
, n ≥ 0) d’ensembles mesurables, µ(∪
n
A
n
) ≤
¸
n
µ(A
n
).
(iii) Pour toute suite croissante (A
n
, n ≥ 0) d’ensembles mesurables (A
n
⊂ An + 1),
µ(∪
n
A
n
) = lim
n
µ(A
n
).
(iv) Pour toute suite d´ecroissante (A
n
, n ≥ 0) d’ensembles mesurables telle que µ(A
0
) <
∞, µ(∩
n
A
n
) = lim
n
µ(A
n
).
L’exemple suivant montre que dans le point (iv), la propri´et´e µ(A
0
) < ∞est cruciale. Soit
X = N, µ la mesure ce comptage sur A = {(N), et pour tout n ≥ 0, A
n
= ¦k ∈ N : k ≥ n¦.
Alors µ(A
n
) = +∞ pour tout entier n alors que ∩
n
A
n
= ∅.
Le th´eor`eme suivant est fondamental.
Th´eor`eme 1.13 Il existe une unique mesure positive λ sur (R, 1), appel´ee mesure de Le-
besgue, telle que
(i) λ([a, b]) = b −a pour tout a ≤ b.
(ii) λ est invariante par translation, c’est `a dire que pour tout a ∈ R et tout A ∈ 1,
λ(a + A) = λ(A).
La mesure λ est σ-finie.
On peut caract´eriser λ en demandant dans le point (i) seulement λ([0, 1]) = 1. C’est pour
ce th´eor`eme que la « bonne » tribu sur R est la tribu bor´elienne et pas la tribu ensemble des
parties. La d´emonstration de l’existence de cette mesure est longue et les arguments ne sont
pas souvent utilis´es dans la suite ; elle est donc omise. Par contre, celle de l’unicit´e utilise
un r´esultat qui sert dans de nombreux contextes o` u l’on veut ´etablir un r´esultat d’unicit´e.
Elle repose sur le th´eor`eme suivant.
Th´eor`eme 1.14 (Th´eor`eme de la classe monotone ou Th´eor`eme de Dynkin) Soit ( une
famille de parties de X stable par intersection finie, c’est `a dire telle que si A ∈ ( et B ∈ (,
alors A∩ B ∈ (. Soit B une famille de parties qui contient ( telle que
(i) X ∈ B
(ii) Si A ∈ B et B ∈ B, A ⊂ B entraˆıne B`A ∈ B.
(iii) Si A
n
⊂ A
n+1
est une suite croissante d’´el´ements de B, alors ∪
n
A
n
∈ B.
Alors, la tribu σ(() engendr´ee par ( est contenue dans B.
D´emonstration. On dira qu’un λ-syst`eme est une famille de parties de X qui satisfait
les conditions (i)-(iii) du th´eor`eme. Une tribu est clairement un λ-syst`eme. Notons λ(()
l’intersection de tous les λ-syst`emes qui contiennent ( ; on en d´eduit que λ(() est contenu
dans B. Pour montrer que λ(() contient σ((), il suffit de prouver que λ(() est une tribu.
Il est clair que λ(() v´erifie les propri´et´es (1) et (2) de la d´efinition 1.1 ; il suffit donc de
prouver que λ(() est stable par r´eunion d´enombrable. Montrons d’abord que λ(() est stable
par intersection finie. Pour tout A ∈ (, notons
Π(A) = ¦B ∈ λ(() : A∩ B ∈ λ(()¦.
De fa¸ con ´evidente, ( ⊂ Π(A) ⊂ λ((). Pour prouver que λ(() = Π(A), il suffit donc de
montrer que Π(A) est un λ-syst`eme. Tout d’abord, A∩X = A ∈ ( ⊂ λ((), donc X ∈ Π(A).
Soit B
1
⊂ B
2
des ´el´ements de Π(A). Alors (B
2
`B
1
) ∩A = (B
2
`A) ∩(B
1
`A) ∈ Π(A) puisque
Probabilit´es 1 - Annie Millet 11 novembre 2007
c’est la diff´erence de deux ensembles emboˆıt´es de Π(A). Enfin, soit (B
n
, n ≥ 0) une suite
croissante d’´el´ements de Π(A). Alors (∪
n
B
n
) ∩ A = ∪
n
(B
n
∩ A), tandis que B
n
∩ A est
une suite croissante d’´el´ements de Π(A). On en d´eduit que ∪
n
B
n
∈ Π(A). Nous venons
donc d’´etablir que λ(() = Π(A), c’est `a dire que pour tout tout A ∈ ( et B ∈ λ((), on a
A∩ B ∈ Π(A).
Soit alors A ∈ λ((). Le raisonnement pr´ec´edent montre alors que ( ⊂ Π(A) et que de
nouveau Π(A) = λ((). On en d´eduit que la famille λ(() est stable par intersection finie. La
stabilit´e par compl´ementaire permet d’en d´eduire que λ(() est ´egalement stable par r´eunion
finie. Soit enfin (A
n
, n ≥ 1) une suite (non n´ecessairement croissante) d’´el´ements de λ(().
Pour tout n ≥ 1, notons B
n
= ∪
1≤k≤n
A
k
. Alors la suite B
n
est croissante et par construction

n
B
n
= ∪
n
A
n
, ce qui termine la d´emonstration. 2
On d´eduit imm´ediatement de ce th´eor`eme le r´esultat suivant :
Th´eor`eme 1.15 Soit ( une famille de sous-ensembles de X stable par intersection finie, P
1
et P
2
des probabilit´es sur la tribu σ((). Si P
1
(A) = P
2
(A) pour tout A ∈ (, alors P
1
= P
2
.
D´emonstration. Soit B = ¦B ∈ σ(() : P
1
(A) = P
2
(A)¦ ⊂ σ((). Par hypoth`ese ( ⊂ B et
on montre facilement que B satisfait les propri´et´es (i)-(iii) du th´eor`eme 1.14. On d´eduit de
ce th´eor`eme que σ(C) ⊂ B, ce qui termine la d´emonstration. 2
La d´emonstration du corollaire suivant est laiss´ee au lecteur.
Corollaire 1.16 Soit ( une famille de parties de X stable par intersection finie. Soit µ
1
et
µ
2
des mesures sur σ(() qui co¨ıncident sur ( et sont σ-finies sur (, c’est `a dire qu’il existe
une suite croissante d’ensembles A
n
∈ ( telle que ∪A
n
= X et µ
1
(A
n
) = µ
2
(A
n
) < +∞
pour tout n ≥ 0. Alors µ
1
= µ
2
.
Le corollaire pr´ec´edent fournit clairement l’unicit´e de la mesure de Lebesgue sur R. Il
suffit en effet de prendre ( = ¦[a, b] : a ≤ b¦.
Remarquons que si λ d´esigne la mesure de Lebesgue sur (R, 1), pour tout nombre r´eel
x, µ(¦x¦) = 0, et que pour tout ensemble A d´enombrable (par exemple A = N, A = Q),
λ(A) = 0. De plus, pour a, b ∈ R avec a < b, λ(]a, b]) = λ([a, b]) = λ([a, b]) = λ(]a, b[) = b−a.
Proposition 1.17 Soit λ la mesure de Lebesgue sur 1. Pour tout entier d ≥ 2, la mesure
λ
d
= λ
⊗d
sur la tribu bor´elienne R
d
est l’unique mesure sur 1
d
telle que pour a
i
< b
i
,
i = 1, , d, λ

Π
d
i=1
]a
i
, b
i
[

= Π
d
i=1
(b
i
−a
i
).
Le r´esultat suivant est une version « fonctionnelle » du Th´eor`eme de la classe monotone ; sa
d´emonstration est laiss´ee en exercice.
Th´eor`eme 1.18 Soit H un sous-espace vectoriel de l’ensemble des fonctions born´ees de Ω
dans R telles que
(i) les fonctions constantes appartiennent `a H.
(ii) Si (h
n
) est une suite d’´el´ements de H qui converge uniform´ement vers h, alors h ∈ H.
(iii) Si (h
n
) est une suite croissante positive de fonctions de H telle que la fonction
h = sup
n
h
n
est born´ee, alors h ∈ H.
Soit ( un sous-ensemble de H stable par multiplication. Alors H contient toutes les
fonctions born´ees mesurables de (Ω, σ(() dans (R, 1).
11 novembre 2007 Probabilit´es 1 - Annie Millet
Par construction, λ
2
(¦x¦ R) = λ
2
(R ¦x¦) = 0 et, plus g´en´eralement, on pourra
montrer que toute droite du plan a une mesure de Lebesgue λ
2
nulle. De mˆeme, tout sous-
espace vectoriel (ou affine) de R
d
de dimension strictement inf´erieure `a d est de mesure de
Lebesgue λ
d
nulle.
Le th´eor`eme suivant permet de transporter une mesure de l’espace de d´epart `a l’espace
d’arriv´ee d’une fonction mesurable.
Th´eor`eme 1.19 Soit (X, A) et (Y, \) des espaces mesurables, f : (X, A) → (Y, \) une
fonction mesurable et µ une mesure positive sur A. La fonction ν : \ → [0, +∞[ d´efinie
par ν(B) = µ(f
−1
(B)) est une mesure sur \ appel´ee mesure image de µ par f. On la note
souvent ν = µ ◦ f
−1
ou bien ν = µ
f
. Sa masse totale est ´egale `a celle de µ
1.4 Int´egrale d’une fonction mesurable positive - Th´eor`eme de convergence
monotone
Dans toute cette section, sauf mention explicite du contraire, on notera (X, A, µ) un
ensemble mesur´e. On utilise aussi syst´ematiquement la convention 0 (+∞) = 0.
On commence par d´efinir l’int´egrale des fonctions « les plus simples », c’est `a dire les
fonctions indicatrices, en imposant que l’int´egrale de 1
A
par rapport `a µ soit µ(A). Pour
pr´eserver la lin´earit´e, il est alors naturel de poser la d´efinition suivante.
D´efinition 1.20 Soit f =
¸
n
i=1
α
i
1
A
i
une fonction ´etag´ee positive. En utilisant la conven-
tion 0 (+∞) = 0, on d´efinit l’int´egrale de f par rapport `a µ par

d
¸
i=1
α
i
1
A
i

dµ :=
d
¸
i=1
α
i
µ(A
i
). (1.2)
On remarque facilement que la d´efinition pr´ec´edente de

fdµ est ind´ependante de la d´ecom-
position de la fonction ´etag´ee f comme combinaison lin´eaire de fonctions indicatrices. On
supposera dans la suite que les ensembles A
i
sont deux `a deux disjoints. On v´erifie facilement
la proposition suivante :
Proposition 1.21 Soit f et g des fonctions ´etag´ees positives, c un nombre r´eel positif ou
nul.
(i)

(f + cg)dµ =

fdµ + c

gdµ.
(ii) Si 0 ≤ f ≤ g, 0 ≤

fdµ ≤

gdµ.
Par exemple, si µ est la mesure de comptage sur {(N) et si f
n
(i) = i pour tout i ≤ n
et f
n
(i) = n pour tout i > n,

f
n
dµ = +∞, tandis que si g
n
(i) = i pour tout i ≤ n et
g
n
(i) = 0 pour tout i > n,

g
n
dµ =
¸
n
i=0
i =
n(n+1)
2
.
Si λ d´esigne la mesure de Lebesgue sur 1, et si f : R → [0, +∞[ est d´efinie par f(x) = 1
si x ∈ [0, 1[, f(x) = 2 si x ∈ [1, 4] et f(x) = 0 si x ∈ [0, 4],

fdλ = 7.
On d´efinit ensuite l’int´egrale d’une fonction mesurable positive en utilisant le point (ii).
D´efinition 1.22 Soit f : (X, A) → ([0, +∞], B([0, +∞])) une fonction mesurable positive.
On d´efinit alors l’int´egrale de f par rapport `a µ par

fdµ = sup

ϕdµ : 0 ≤ ϕ ≤ f, ϕ´etag´ee

. (1.3)
Probabilit´es 1 - Annie Millet 11 novembre 2007
monotone 11
Notation Lorsque plusieurs espaces ou plusieurs mesures seront en jeu, l’int´egrale pr´ec´edente
sera parfois not´ee

X
f(x)dµ(x) ou bien

X
f(x)µ(dx) au lieu de

X
fdµ ou

fdµ.
Si la d´efinition d’int´egrale d’une fonction mesurable positive donn´ee par (1.3) est « in-
trins`eque » elle n’est gu`ere op´erationnelle pour calculer des int´egrales. Le th´eor`eme 1.9 a
donn´e un proc´ed´e constructif pour approximer une fonction mesurable positive par une suite
croissante de fonctions ´etag´ees. Le th´eor`eme suivant est un des outils fondamentaux de la
th´eorie. Il permet, par passage `a la limite croissante, de calculer concr`etement des int´egrales
de fonctions mesurables positives.
Th´eor`eme 1.23 (Th´eor`eme de convergence monotone) Soit (f
n
, n ≥ 0) une suite crois-
sante de fonctions positives mesurables de (X, A) dans ([0, +∞], B([0, +∞])). Alors f =
lim
n
f
n
: X → [0, +∞] est mesurable de (X, A) dans ([0, +∞], B([0, +∞])) et

lim
n
f
n

dµ = lim
n

f
n
dµ. (1.4)
Les exemples suivants montrent que la monotonie de la suite f
n
est cruciale, mˆeme pour
des suites born´ees si la mesure est infinie, ou bien si la mesure est finie avec des suites non
born´ees.
Exemple 1.24 (i) Consid´erons l’espace mesur´e (R, 1, λ), o` u λ d´esigne la mesure de Le-
besgue. Pour n ≥ 0 soit f
n
= 1
[n,n+1[
. Alors la suite f
n
converge simplement vers 0, mais

f
n
dλ = 1 pour tout entier n. Sur un ensemble de mesure infinie, il ne suffit donc pas que
la suite f
n
soit born´ee.
(ii) Consid´erons l’espace mesur´e ([0, 1], B([0, 1]), λ), o` u λ d´esigne la restriction de la
mesure de Lebesgue `a [0, 1]. Alors pour tout α > 0, la suite (f
n
= n
α
1
]0,
1
n
]
, n ≥ 1) converge
simplement vers 0, mais

f
n
dλ = 1 pour tout entier n si α = 1, lim
n

f
n
dλ = 0 si
0 < α < 1 et

f
n
dλ tend vers +∞ si α > 1. Il ne suffit donc pas que la mesure soit une
probabilit´e.
On d´eduit imm´ediatement du Th´eor`eme de convergence monotone 1.23 et du Th´eor`eme 1.9
les r´esultats suivants.
1. Si f : (X, A) → ([0, +∞], B([0, +∞])) est une fonction mesurable positive, pour tout
a ∈ X,

fdδ
a
= f(a).
2. Si f : N → [0, +∞], f est mesurable pour la tribu {(N) et si µ d´esigne la mesure de
comptage sur {(N),

fdµ =
¸
n≥0
f(n).
L’´evaluation d’une fonction et les s´eries `a termes positifs apparaissent donc comme des cas
particuliers d’int´egrales de fonctions pour des mesures convenables.
La proposition suivante rassemble quelques propri´et´es de l’int´egrale d’une fonction me-
surable positive.
Proposition 1.25 Soit f et g des fonctions mesurables positives de (X, A) dans ([0, +∞],
B([0, +∞])). Alors
(i) Si 0 ≤ f ≤ g, on a 0 ≤

fdµ ≤

gdµ.
11 novembre 2007 Probabilit´es 1 - Annie Millet
12 1 Rappels de notions de th´eorie de la mesure
(ii) Si

fdµ = 0, on a µ(f = 0) = 0.
(iii) Si

fdµ < +∞, on a µ(f = +∞) = 0.
(iv) (In´egalit´e de Markov) Pour tout nombre a ∈]0, +∞[,
µ(f ≥ a) ≤
1
a

fdµ. (1.5)
Enfin, le th´eor`eme de convergence monotone permet de construire des mesures positives
`a partir d’autres mesures positives. Sa d´emonstration est laiss´ee en exercice.
Th´eor`eme 1.26 Soit (X, A, µ) un espace mesur´e, f : (X, A) → ([0, +∞], B([0, +∞])) une
fonction mesurable positive. Alors l’application ν : A → [0, +∞] d´efinie par
ν(A) =

(f 1
A
)dµ , ∀A ∈ A
est une mesure positive. On dit que la mesure ν a la densit´e f par rapport `a la mesure µ.
On voit imm´ediatement que si ν a la densit´e f par rapport `a µ, la masse totale de ν vaut
ν(X) =

fdµ; la mesure ν est donc une probabilit´e si

fdµ = 1.
1.5 Int´egrale d’une fonction mesurable de signe quelconque
De nouveau dans cette section, (X, A, µ) d´esigne un espace mesur´e. Pour pr´eserver la
lin´earit´e de l’int´egrale, puisque l’on peut ´ecrire f = f
+
− f, o` u f
+
= f ∨ 0 et f

=
(−f) ∨ 0, il est tentant de d´efinir l’int´egrale de f comme diff´erence des int´egrales de f
+
et
de f

. Cependant, on ne peut pas prendre de convention raisonnable pour donner un sens `a
l’expression (+∞) −(+∞), ce qui conduit `a introduire la d´efinition suivante, compte tenu
du fait que [f[ = f
+
+ f

.
D´efinition 1.27 Une fonction mesurable f : (X, A) → (R, 1) est µ-int´egrable (ou int´egrable
pour la mesure µ) si

[f[dµ < +∞. On note L
1
(µ) l’ensemble des fonctions µ-int´egrables
et si f ∈ L
1
(µ), on pose

fdµ =

f
+
dµ −

f

dµ et |f|
1
=

[f[dµ.
On voit que dans la d´efinition pr´ec´edente, on a assur´e que s´epar´ement les int´egrales de f
+
et de f

sont finies. Comme on peut donner un sens `a a −b lorsque un des deux termes de
la diff´erence est +∞, on peut ´egalement d´efinir des fonctions semi-int´egrables et imposant
que l’une au moins des int´egrales

f
+
dµ ou

f

dµ est finie ; on d´efinit alors de nouveau

fdµ =

f
+
dµ −

f

dµ.
Remarque 1.28 Si f = f
1
− f
2
o` u f
1
et f
2
sont des fonctions mesurables positives ou
nulles int´egrables, on a f
+
≤ f
1
et f

≤ f
2
tandis que (f
1
− f
+
) − (f
2
− f

) = 0. On en
d´eduit que

fdµ =

f
1
dµ −

f
2
dµ, ce qui prouve la lin´earit´e de l’int´egrale.
Proposition 1.29 Soit f et g des fonctions µ-int´egrables, α et β des nombres r´eels. Alors
αf + βg est µ-int´egrable et

(αf + βg)dµ = α

fdµ + β

gdµ.
Dans le cas particulier (X, A) = (R, 1), la proposition suivante relie l’int´egrale d’une
fonction f par rapport `a la mesure de Lebesgue λ et l’int´egrale de Riemann de f. C’est un
outil pr´ecieux pour calculer effectivement des int´egrales par rapport `a la mesure de Lebesgue.
Probabilit´es 1 - Annie Millet 11 novembre 2007
1.5 Int´egrale d’une fonction mesurable de signe quelconque 13
Proposition 1.30 (i) Toute fonction f int´egrable au sens de Riemann sur l’intervalle ferm´e
born´e [a, b] est int´egrable pour la mesure de Lebesgue λ et

(f 1
[a,b]
)dλ =

b
a
f(x)dx. (1.6)
(ii) Toute fonction f admettant une int´egrale g´en´eralis´ee absolument convergente au
sens de Riemann sur un intervalle ouvert ou semi-ouvert d’extr´emit´es a, b ∈ [−∞, +∞]
est int´egrable pour la mesure de Lebesgue sur cet intervalle et l’´equation (1.6) est encore
satisfaite.
On ne peut par contre pas mettre dans le cadre de la th´eorie de la mesure les fonctions
dont l’int´egrale g´en´eralis´ee converge sans converger absolument, comme le montre l’exemple
suivant. La fonction f : R → R d´efinie par f(x) =
sin(x)
x
1
[1,+∞[
n’est pas int´egrable (ni
d’ailleurs semi-int´egrable) pour la mesure de Lebesgue, bien que

+∞
−∞
f(x)dx ait un sens
comme int´egrale de Riemann g´en´eralis´ee convergente, mais non absolument convergente.
Soit a ∈ X ; toute fonction mesurable f : (X, A) → (R, 1) est int´egrable pour la mesure
de Dirac δ
a
et

fdδ
a
= f(a).
Une fonction f : N →R (aussi appel´ee suite) est int´egrable pour la mesure de comptage
µ sur {(N) si et seulement la s´erie de terme g´en´eral f(n) est absolument convergente, c’est
`a dire
¸
n
[f(n)[ < +∞. Dans ce cas,

fdµ =
¸
n
f(n). La fonction f : N → R d´efinie
par f(n) =
(−1)
n
n+1
n’est donc pas int´egrable pour la mesure de comptage, bien que la s´erie
altern´ee
¸
n
f(n) soit convergente.
Les deux th´eor`emes suivants sont constamment utilis´es en th´eorie des probabilit´es. Le
premier relie les int´egrales d’une fonction g par rapport `a la mesure µ et `a la mesure ν de
densit´e f par rapport `a µ.
Th´eor`eme 1.31 Soit (X, A, µ) un espace mesur´e, f : (X, A) → ([0, +∞], B([0, +∞]))
une fonction mesurable positive et ν la mesure de densit´e f par rapport `a µ d´efinie par
le Th´eor`eme 1.26. Alors
(i) Pour toute fonction mesurable positive ϕ : (X, A) → ([0, ∞], B([0, +∞])),

ϕdν =

(fϕ)dµ. (1.7)
(ii) La fonction mesurable ϕ : (X, A) → (R, 1) est ν-int´egrable si et seulement si la
fonction fϕ est µ-int´egrable et si ces fonctions sont int´egrables, l’´egalit´e (1.7) reste valable.
D´emonstration. (i) Par d´efinition, pour tout ensemble A ∈ A,

1
A
dν = ν(A) =

(f1
A
)dµ
et l’´equation (1.7) est donc vraie lorsque ϕ = 1
A
. Par lin´earit´e de l’int´egrale, l’´equation (1.7)
reste vraie lorsque ϕ est une fonction ´etag´ee positive. Soit ϕ une fonction mesurable positive
et ϕ
n
une suite croissante de fonctions ´etag´ees positives qui converge simplement vers ϕ (et
dont l’existence est assur´ee par le Th´eor`eme 1.9). Puisque f est positive, la suite fϕ
n
est
croissante et converge simplement vers fϕ. Le th´eor`eme de convergence monotone 1.23
appliqu´e aux suites (ϕ
n
) par rapport `a la mesure ν et (fϕ
n
) par rapport `a la mesure µ
permet de conclure que l’´equation (1.7) est vraie pour toute fonction ϕ mesurable positive,
ce qui prouve (i).
11 novembre 2007 Probabilit´es 1 - Annie Millet
14 1 Rappels de notions de th´eorie de la mesure
(ii) Soit ϕ : (X, A) → (R, 1) une fonction mesurable ; alors [ϕ[ est une fonction mesurable
positive et (1.7) montre que ϕ ∈ L
1
(ν) si et seulement si fϕ ∈ L
1
(µ). De plus, si ϕ ∈ L
1
(ν),
ϕ
+
et ϕ

sont mesurables positives et appartiennent ´egalement `a L
1
(ν). D’apr`es (i), on en
d´eduit que fϕ
+
et fϕ

sont des fonctions mesurables positives qui appartiennent `a L
1
(µ)
et telles que fϕ = fϕ
+
−fϕ

. La remarque 1.28 et le point (i) permettent de d´eduire que
l’´egalit´e (1.7) est vraie pour ϕ, ce qui termine la d´emonstration de (ii). 2
Le second permet de comparer les int´egrales de ϕ◦f par rapport `a µ et de ϕ par rapport
`a la mesure image de µ par f not´ee µ ◦ f
−1
. Sa d´emonstration est laiss´ee en exercice.
Th´eor`eme 1.32 (Th´eor`eme de la mesure image) Soit (X, A) et (Y, \) des espaces mesu-
rables, µ une mesure positive sur A et ν = µ ◦ f
−1
la mesure image de µ par f d´efinie sur
\ dans le Th´eor`eme 1.19. Alors
(i) Pour toute fonction mesurable positive ϕ : (Y, \) → ([0, ∞], B([0, +∞])),

Y
ϕd(µ ◦ f
−1
) =

X
(ϕ ◦ f)dµ. (1.8)
(ii) Pour toute fonction mesurable ϕ : (Y, \) → (R, 1), ϕ est µ ◦ f
−1
-int´egrable si et
seulement si ϕ ◦ f est µ-int´egrable. Dans ce cas, l’´egalit´e (1.8) reste vraie.
1.6 Ensembles n´egligeables - Th´eor`emes de Lebesgue
Le th´eor`eme de convergence monotone entraˆıne le r´esultat suivant, qui sert `a montrer
que des fonctions sont int´egrables.
Th´eor`eme 1.33 (Lemme de Fatou) Soit (f
n
, n ≥ 1) une suite de fonctions mesurables
positives. Alors
0 ≤

liminf f
n
dµ ≤ liminf

f
n
dµ ≤ +∞.
On en d´eduit imm´ediatement que, si sup
n

[f
n
[dµ < +∞ et si la suite (f
n
) converge sim-
plement vers f, alors f est µ-int´egrable.
On cherche `a ´etendre le th´eor`eme de convergence monotone de plusieurs fa¸ cons : d’une
part en affaiblissant la notion de convergence simple de la suite (f
n
), d’autre part en n’exi-
geant plus que la suite soit croissante, positive. Dans cette section (X, A, µ) est un espace
mesur´e.
D´efinition 1.34 (i) Un ensemble mesurable A est µ-n´egligeable si µ(A) = 0.
(ii) Une propri´et´e est vraie µ presque partout si elle vraie sur le compl´ementaire d’un
ensemble µ-n´egligeable.
(iii) Une fonction f : X →R est µ-n´egligeable si elle est nulle µ-presque partout.
Ainsi, l’ensemble Q des nombres rationnels est n´egligeable pour la mesure de Lebesgue λ
sur 1, ¦x¦ R est n´egligeable pour la mesure de Lebesgue λ
2
sur R
2
. La suite de fonctions
f
n
: [0, 1] →R d´efinies par f
n
(x) = n1
[
0,
1
n
] converge vers 0 λ-presque sˆ urement.
Si deux fonctions mesurables positives (ou int´egrables) f et g sont telles que f = g µ-
presque partout, alors

fdµ =

gdµ.
Probabilit´es 1 - Annie Millet 11 novembre 2007
1.6 Ensembles n´egligeables - Th´eor`emes de Lebesgue 15
Proposition 1.35 (i) Une fonction f ∈ L
1
(µ) (c’est `a dire µ-int´egrable) est finie µ-presque
partout.
(ii) Une fonction f est µ-n´egligeable si et seulement si

[f[dµ = 0.
(iii) Une fonction f int´egrable est µ-n´egligeable si et seulement si

A
fdµ = 0 pour tout
ensemble A ∈ A.
D´emonstration. L’in´egalit´e de Markov (1.5) montre que pour tout entier n ≥ 1,
µ([f[ ≥ n) ≤
1
n

[f[dµ et µ([f[ ≥
1
n
) ≤ n

[f[dµ.
(i) La suite d’ensembles ¦[f[ ≥ n¦ est d´ecroissante, µ([f[ ≥ 1) < +∞ et ∩
n
¦[f[ ≥
n¦ = ¦[f[ = +∞¦. En utilisant la propri´et´e (iv) de la Proposition 1.12 on en d´eduit que
µ([f[ = +∞) = 0.
(ii) Si

[f[dµ = 0, la suite d’ensembles ¦[f[ ≥
1
n
¦ est croissante et µ([f[ ≥
1
n
) =
0 pour tout n. Le point (iii) de la Proposition 1.12 permet d’en d´eduire µ(f = 0) =
µ


n
¦[f[ ≥
1
n
¦

= 0. La r´eciproque est ´evidente.
(iii) Si f est µ-n´egligeable, pour tout A ∈ A, [

A
fdµ[ ≤

[f[dµ = 0. R´eciproquement,
pour tout entier n ≥ 1, soit A
n
= ¦f ≥
1
n
¦ et B
n
= ¦f ≤ −
1
n
¦. Alors 0 ≤
1
n
µ(A
n
) ≤

An
fdµ = 0, donc µ(A
n
) = 0 et de mˆeme µ(B
n
) = 0. Puisque ¦f = 0¦ = ∪
n
(A
n
∪ B
n
),
µ(f = 0) = 0. 2
Le r´esultat suivant est le second th´eor`eme « classique » permettant d’intervertir limite
et int´egrale pour une suite de fonctions.
Th´eor`eme 1.36 (Th´eor`eme de convergence domin´ee) Soit (f
n
, n ≥ 1) une suite de fonc-
tions mesurables de (X, A) dans (R, 1) telle que
(i) la suite f
n
converge vers f µ-presque partout.
(ii) Il existe une fonction g ∈ L
1
(µ) telle que pour tout n ≥ 1, [f
n
[ ≤ g µ-presque partout.
Alors, lim
n

f
n
dµ =

fdµ. On a mˆeme le r´esultat plus fort : lim
n

[f
n
−f[dµ = 0.
On voit ici que l’on a am´elior´e les choses par rapport `a l’int´egrale de Riemann, mˆeme dans
le cadre ´el´ementaire de l’int´egrale de Riemann sur un compact. En effet, dans ce dernier cadre
il faut demander que la suite de fonctions (f
n
) Riemann int´egrables converge uniform´ement
vers f. L’hypoth`ese de « domination » (ii) du th´eor`eme de convergence domin´ee peut ˆetre
satisfaite sans convergence uniforme, comme le montre l’exemple suivant. On pose X = [0, 1]
muni de sa tribu bor´elienne et de la mesure de Lebesgue λ (restreinte `a [0,1]). Pour tout
n ≥ 1, x ∈ [0, 1] on pose
f
n
(x) = min

e
−nx
2

x
, n

.
La suite (f
n
) de fonctions continues (donc bor´eliennes) est telle que f
n
(x) converge vers 0
pour tout x ∈]0, 1]. La suite f
n
converge donc vers 0 λ presque partout. De plus, [f
n
(x)[ ≤
g(x) avec g(x) =
1

x
. Puisque

1
0
1

x
dx < +∞, g est λ int´egrable sur [0, 1]. Le th´eor`eme de
convergence monotone 1.23 s’applique donc et lim
n

f
n
dλ = 0, alors que la suite (f
n
) ne
converge pas uniform´ement vers 0.
On d´eduit imm´ediatement le corollaire suivant qui permet d’intervertir s´erie et int´egrale.
11 novembre 2007 Probabilit´es 1 - Annie Millet
16 1 Rappels de notions de th´eorie de la mesure
Corollaire 1.37 Soit (g
n
, n ≥ 1) une suite de fonctions mesurables de (X, A) dans (R, 1).
(i) Si les fonctions g
n
sont positives pour tout entier n, alors

¸
n
g
n

dµ =
¸
n

g
n
dµ. (1.9)
(ii) Si
¸
[g
n
[dµ < +∞, alors les fonctions g
n
,
¸
n
[g
n
[ et la fonction d´efinie presque
partout par
¸
n
g
n
sont µ-int´egrables. De plus, l’´egalit´e (1.9) est encore vraie.
D´emonstration. (i) On applique le th´eor`eme de convergence monotone 1.23 ` a la suite
croissante des sommes partielles f
n
=
¸
n
k=1
g
k
et on conclut par lin´earit´e de l’int´egrale.
(ii) Soit g =
¸
n
[g
n
[. D’apr`es (i), g ∈ L
1
(µ) donc g < +∞µ-presque partout et la s´erie de
terme g´en´eral g
n
(x), qui est presque partout absolument convergente, est presque partout
convergente. Sur l’ensemble n´egligeable sur lequel la somme de la s´erie
¸
n
g
n
n’est pas
d´efinie, on lui attribue une valeur arbitraire, par exemple 0. La suite des sommes partielles
f
n
=
¸
n
k=1
g
k
converge donc µ-presque partout vers
¸
n
g
n
et [f
n
[ ≤ g pour tout n. Le
th´eor`eme de convergence domin´ee et la lin´earit´e de l’int´egrale concluent la d´emonstration.
2
Les th´eor`emes suivants donnent des conditions suffisantes pour la continuit´e et la d´erivabilit´e
d’int´egrales d´ependant d’un param`etre. Comme ces propri´et´es peuvent ˆetre caract´eris´ees par
la convergence de suites, ce sont des cons´equences imm´ediates du Th´eor`eme de convergence
domin´ee et leur d´emonstration est laiss´ee en exercice.
Th´eor`eme 1.38 Soit I un ouvert de R
k
, f : R
d
I →R une fonction bor´elienne et µ une
mesure positive sur 1
d
. Supposons que :
(i) Pour tout t ∈ I, la fonction x ∈ R
d
→ f(x, t) est µ-int´egrable.
(ii) Pour µ-presque tout x ∈ R
d
la fonction t ∈ I → f(x, t) est continue.
(iii) Pour tout t
0
∈ I il existe une boule V centr´ee en t
0
et contenue dans I et une
fonction g ∈ L
1
(µ) telle que [f(x, t)[ ≤ g(x) pour µ-presque tout x et pour tout t ∈ V .
Alors la fonction t ∈ I →

R
d
f(x, t)dµ(x) est continue sur I.
Th´eor`eme 1.39 Soit I un ouvert de R
k
, f : R
d
I →R une fonction bor´elienne et µ une
mesure positive sur 1
d
. Fixons j ∈ ¦1, , k¦ et supposons que :
(i) Pour tout t ∈ I, la fonction x ∈ R
d
→ f(x, t) est µ-int´egrable.
(ii) Pour µ-presque tout x ∈ R
d
la fonction t ∈ I → f(x, t) admet une d´eriv´ee partielle
∂f
∂t
j
(x, t).
(iii) Pour tout t
0
∈ I il existe une boule V centr´ee en t
0
et contenue dans I et une
fonction g ∈ L
1
(µ) telle que

∂f
∂t
j
(x, t)

≤ g(x) pour µ-presque tout x et pour tout t ∈ V .
Alors la fonction t ∈ I → F(t) =

R
d
f(x, t)dµ(x) admet une d´eriv´ee partielle
∂F
∂t
j
(t) sur I
et
∂F
∂t
j
(t) =

R
d
∂f
∂t
j
(x, t)dµ(x).
1.7 Espaces L
1
, L
2
, L
p
et L

Le but de cette section est d’´etudier les fonctions de puissance p-`eme int´egrable, en
g´en´eralisant l’espace L
1
. De nouveau on se donne un espace mesur´e (X, A, µ).
Probabilit´es 1 - Annie Millet 11 novembre 2007
1.7 Espaces L
1
, L
2
, L
p
et L

17
D´efinition 1.40 Pour tout r´eel p ∈]0, +∞[, soit L
p
(X, A, µ) l’ensemble des fonctions me-
surables de (X, A) dans (R, 1) telles que

[f[
p
dµ < +∞. Lorsqu’il n’y a pas de confusion
sur l’ensemble et la mesure, on notera plus simplement L
p
= L
p
(X, A, µ).
Si a, b et α sont des nombres r´eels, [αa +b[
p
≤ (2 max([α[ [a[, [b[))
p
≤ 2
p
[α[
p
[a[
p
+2
p
[b[
p
. On
en d´eduit que L
p
est un espace vectoriel. Le r´esultat suivant sera tr`es utile lorsque l’espace
est probabilis´e.
Proposition 1.41 Si µ(X) < +∞, lorsque 0 < p ≤ q, L
q
⊂ L
p
.
D´emonstration. Soit µ une mesure finie et 0 < p ≤ q. Alors, [f[
p
≤ [f[
q
1
|[f[≥1¦
+ 1
|[f[<1
}.
Si f ∈ L
q
, on en d´eduit

[f[
p
dµ ≤

[f[
q
dµ + µ([f[ < 1) < +∞. 2
Dans la suite, on s’int´eressera au cas p ≥ 1. Dans le cas de la mesure de Lebesgue λ sur
R, la fonction f d´efinie par f(x) =
1

x
1
]0,1]
(x) est telle que f ∈ L
1
mais f ∈ L
2
tandis que
la fonction g d´efinie par g(x) =
1
[x[+1
est telle que g ∈ L
2
mais g ∈ L
1
. Dans la suite on
supposera p ≥ 1 et si f : (X, A) → (R, 1) est mesurable, on notera
|f|
p
=

[f[
p

1
p
. (1.10)
Lorsque f ∈ L
2
, on dit que la fonction f est de carr´e int´egrable. Le th´eor`eme suivant sera
tr`es utile dans la suite.
Th´eor`eme 1.42 (In´egalit´e de Schwarz) Soit f et g deux fonctions appartenant `a L
2
. Alors
fg ∈ L
1
et

[fg[dµ ≤ |f|
2
|g|
2
. (1.11)
On a de plus l’in´egalit´e triangulaire |f + g|
2
≤ |f|
2
+|g|
2
.
D´emonstration. Soit f, g des fonctions de L
2
. Alors, la lin´earit´e de l’int´egrale entraˆıne que
pour tout a ∈ R,
0 ≤

[af + g[
2
dµ = a
2

[f[
2
dµ + 2a

[fg[dµ +

[g[
2
dµ.
Le discriminant de ce trinˆome est donc n´egatif ou nul, ce qui prouve l’in´egalit´e (1.11). De
plus, dans le cas particulier a = 1, l’´equation pr´ec´edente et (1.11) montrent que |f +g|
2
2
=

(f + g)
2
dµ ≤ (|f|
2
+|g|
2
)
2
. 2
Nous allons g´en´eraliser l’in´egalit´e de Schwarz et l’in´egalit´e triangulaire du Th´eor`eme 1.42
au cas p > 1. On dira que deux nombres r´eels p ∈ [1, +∞] et q ∈ [1, +∞] sont conjugu´es si
1
p
+
1
q
= 1, (1.12)
avec la convention
1
+∞
= 0. On voit donc que p = 1 et q = +∞ sont conjugu´es, ainsi que
p = q = 2.
11 novembre 2007 Probabilit´es 1 - Annie Millet
18 1 Rappels de notions de th´eorie de la mesure
Th´eor`eme 1.43 (In´egalit´e de H¨older) Soit p ∈]1, +∞[ et q ∈]1, +∞[ des exposants conjugu´es.
(i) Soit f et g des fonctions positives mesurables de (X, A) dans ([0, +∞[, B([0, +∞[)).
Alors,
0 ≤

fg dµ ≤ |f|
p
|g|
q
≤ +∞. (1.13)
De plus si |f|
p
+ |g|
q
< +∞, l’in´egalit´e (1.13) est une ´egalit´e si et seulement s’il existe
des nombres r´eels positifs a et b tels que (a, b) = (0, 0) et af
p
= bg
q
µ presque partout.
(ii) Soit f ∈ L
p
et g ∈ L
q
. Alors, fg ∈ L
1
et
|fg|
1
≤ |f|
p
|g|
q
. (1.14)
De plus l’in´egalit´e (1.14) est une ´egalit´e si et seulement s’il existe des nombres r´eels positifs
a et b tels que (a, b) = (0, 0) et a [f[
p
= b [g[
q
µ presque partout.
D´emonstration. (i) Soit α ∈]0, 1[. Montrons tout d’abord l’in´egalit´e de Young pour deux
nombres r´eels positifs u et v
u
α
v
1−α
≤ αu + (1 −α)v, (1.15)
avec ´egalit´e si et seulement si u = v. Soit ϕ
α
: [0, +∞[→ R la fonction d´efinie par ϕ
α
(x) =
x
α
−αx. Alors ϕ
α
est d´erivable sur ]0, +∞[ et (ϕ
α
)

(x) > 0 sur ]0, 1[ tandis que ϕ

α
(x) < 0
sur ]1, +∞[. On en d´eduit ϕ
α
(x) ≤ ϕ
α
(1) = 1 − α pour tout x ∈]0, +∞[ avec ´egalit´e si et
seulement si x = 1. Lorsque u ≥ 0 et v > 0, cette in´egalit´e ´ecrite avec x =
u
v
et multipli´ee
par v > 0 entraˆıne (1.15). Enfin, (1.15) est vraie si u ≥ 0 et v = 0.
D´emontrons (1.13). Cette in´egalit´e est clairement v´erifi´ee si |f|
p
= 0 ou |g|
q
= 0,
puisque dans ce cas f ou g est µ-n´egligeable et fg = 0 µ-presque partout (avec la convention
0 (+∞) = 0. Remarquons que dans ce cas, (1.13) est une ´egalit´e et que f ou g est nulle
µ presque partout.
Supposons donc |f|
p
= 0 et |g|
q
= 0. Si l’un de ces termes est +∞, de nouveau (1.13)
est ´evidente. Nous supposons donc |f|
p
∈]0, +∞[ et |g|
q
∈]0, +∞[. Soit α =
1
p
∈]0, 1[ ;
1 − α =
1
q
. L’in´egalit´e de Young (1.15) appliqu´ee `a u =
f
p
(x)
|f|
p
p
et v =
g
q
(x)
|g|
q
q
montre que pour
tout x ∈ X,
f(x)g(x)
|f|
p
|g|
q

1
p
f
p
(x)
|f|
p
p
+
1
q
g
q
(x)
|g|
q
q
, (1.16)
avec une ´egalit´e uniquement pour les ´el´ements x de X tels que
f
p
(x)
|f|
p
p
=
g
q
(x)
|g|
q
q
. En int´egrant
on en d´eduit
0 ≤

fgdµ ≤ |f|
p
|g|
q

1
p

f
p
(x)
|f|
p
p
µ(dx) +
1
q

g
q
(x)
|g|
q
q
µ(dx)

= |f|
p
|g|
q
,
ce qui prouve (1.13). Si l’in´egalit´e (1.13) est une ´egalit´e, alors l’in´egalit´e (1.16) est de la
forme ϕ ≤ ψ et on a

ϕdµ =

ψdµ. Le point (ii) de la Proposition 1.35 montre que
ψ −ϕ est nulle µ-presque partout, c’est `a dire
f
p
(x)
|f|
p
p
=
g
q
(x)
|g|
q
q
pour µ-presque tout x. Puisque
|f|
p
= 0 et |g|
q
= 0, ceci conclut la d´emonstration de (i).
La partie (ii) est une cons´equence imm´ediate de (i) appliqu´e avec [f[ et [g[. 2
On d´eduit imm´ediatement le
Corollaire 1.44 Soit f ∈ L
p
et g ∈ L
q
. Alors

fgdµ

≤ |f|
p
|g|
q
.
Probabilit´es 1 - Annie Millet 11 novembre 2007
1.7 Espaces L
1
, L
2
, L
p
et L

19
Il reste `a g´en´eraliser l’in´egalit´e triangulaire ; c’est l’objet du
Th´eor`eme 1.45 (In´egalit´e de Minkowski) Soit p ∈ [1, +∞[, f et g des fonctions de L
p
.
Alors
|f + g|
p
≤ |f|
p
+|g|
p
.
De plus, lorsque p > 1, cette in´egalit´e est une ´egalit´e si et seulement si f = 0 µ-presque
partout o` u il existe un nombre r´eel α ≥ 0 tel que g = αf. Lorsque p = 1, cette in´egalit´e
triangulaire est une ´egalit´e si et seulement si fg ≥ 0 µ-presque partout.
D´emonstration. L’in´egalit´e triangulaire est triviale pour p = 1 et on suppose donc p > 1.
En int´egrant l’in´egalit´e [f + g[
p
≤ [f[[f + g[
p−1
+[g[[f + g[
p−1
, on d´eduit
|f + g|
p
p

[f[[f + g[
p−1
dµ +

[g[[f + g[
p−1
dµ.
Si q est l’exposant conjugu´e de p, l’in´egalit´e de H¨older entraˆıne
|f + g|
p
p
≤ |f|
p

[f + g[
(p−1)q

1
q
+|g|
p

[f + g[
(p−1)q

1
q
.
Puisque (p −1)q = 1, on en d´eduit
|f + g|
p
p
≤ (|f[
p
+|g|
p
)|f + g|
p−1
p
.
Comme L
p
est un espace vectoriel, |f +g|
p
< +∞. Si |f +g|
p
= 0, l’in´egalit´e triangulaire
est triviale. Sinon, on peut simplifier la derni`ere in´egalit´e trouv´ee par |f + g|
p−1
p
et on en
d´eduit l’in´egalit´e triangulaire.
La caract´erisation des cas d’´egalit´e n’est pas d´emontr´ee. 2
La d´efinition de |.|
p
montre que si a ∈ R et f ∈ L
p
, |af|
p
= [a[|f|
p
; grˆace `a l’in´egalit´e
de Minkowski, |.|
p
est une semi-norme, mais ce n’est pas une norme. En effet |f|
p
= 0
entraˆıne que

[f[
p
dµ = 0, c’est `a dire que [f[
p
= 0 µ-presque partout, c’est `a dire que la
fonction f est n´egligeable, mais qu’on n’a pas f = 0.
D´efinition 1.46 Soit p ∈ [1, +∞[. On dit que deux fonctions f et g de L
p
sont ´equivalentes
(not´e f ∼ g) si |f − g|
p
= 0, c’est `a dire si f = g µ-presque partout. Cette relation
d’´equivalence est compatible avec l’addition et la multiplication par un nombre r´eel. On note
L
p
l’ensemble des classes d’´equivalence de L
p
par ∼. Si
¯
f ∈ L
p
d´esigne la classe d’´equivalence
de f ∈ L
p
, on note |
¯
f|
p
= |f|
p
(qui ne d´epend pas du repr´esentant dans
¯
f).
Th´eor`eme 1.47 (i) Si
¯
f et ¯ g sont deux classes de L
2
,
'
¯
f, ¯ g` = 'f, g` :=

fgdµ (1.17)
ne d´epend pas des repr´esentants f ∈ L
2
et g ∈ L
2
et d´efinit un produit scalaire sur L
2
de
norme associ´ee 'f, f` = |f|
2
2
. De plus L
2
est complet pour cette norme ; c’est un espace de
Hilbert.
(ii) L’espace vectoriel L
p
est complet pour la norme |.|
p
.
11 novembre 2007 Probabilit´es 1 - Annie Millet
20 1 Rappels de notions de th´eorie de la mesure
Convention Dans la suite, afin d’all´eger la notation, on fera l’abus de langage consistant `a
identifier la classe d’´equivalence
¯
f ∈ L
2
et l’un de ses repr´esentants, la fonction mesurable
f ∈ L
2
(qui n’est d´efinie que µ-presque partout).
D´efinition 1.48 Pour toute fonction mesurable f : (X, A) → (R, 1), on d´efinit
|f|

= inf¦a ∈ [0, +∞[: µ([f[ > a) = 0¦, (1.18)
avec la convention inf ∅ = +∞. On note L

l’ensemble des fonctions mesurables telles
qu’il existe un nombre a ∈ R
+
tel que [f[ ≤ a µ-presque partout, c’est `a dire telles que
|f|

< +∞.
L’ensemble L

est un espace vectoriel et |.|

est une semi-norme. L’in´egalit´e de H¨older
(1.14) est encore vraie lorsque p = 1 et q = +∞. La relation d’´equivalence pr´ec´edente permet
d’introduire une norme sur l’espace quotient L

, et on appliquera la mˆeme convention de
notation pour les ´el´ements de L

.
1.8 Mesure produit - Th´eor`eme de Fubini
Le but de cette section est d´efinir une tribu et une mesure sur un espace produit XY
et de calculer des int´egrales par rapport `a cette mesure.
D´efinition 1.49 Soit (X, A) et (Y, \) des espaces mesurables. La tribu produit de A et \
est la tribu sur XY not´ee A⊗\ engendr´ee par l’ensemble A\ = ¦AB : A ∈ A, B ∈ \¦,
c’est `a dire
A ⊗\ = σ(¦AB : A ∈ A, B ∈ \¦).
Remarque 1.50 (i) La tribu A ⊗\ est la plus petite tribu sur XY qui rend mesurables
les projections canoniques Π
X
: XY →X et Π
Y
: XY →Y d´efinies par Π
X
(x, y) = x et
Π
Y
(x, y) = y lorsque la tribu sur l’espace d’arriv´ee X (resp. Y) est A (resp. \).
(ii) Soit (V, 1) un espace mesurable. Une application f = (f
X
, f
Y
) : (V, 1) → (X
Y, A ⊗\) est mesurable si et seulement si les applications f
X
(resp. f
Y
) sont mesurables de
(V, 1) dans (X, A) (resp. dans (Y, \)).
La d´efinition pr´ec´edente peut ˆetre ´etendue `a un produit fini d’espaces. Pour i = 1, , d,
soit (X
i
, A
i
) un espace mesurable et soit X = Π
d
i=1
X
i
. Si / = ¦Π
d
i=1
A
i
, A
i
∈ A
i
¦ d´esigne
l’ensemble des ensembles produits d’´el´ements des tribus A
i
, la tribu sur X engendr´ee par /
est appel´ee tribu produit et not´ee A = ⊗
d
i=1
A
i
. Dans le cas particulier o` u (X
i
, A
i
) = (R, 1)
pour tout i = 1, , d, X = R
d
et la tribu des bor´eliens 1
d
co¨ıncide avec la tribu produit
1
⊗d
. De plus l’op´eration ⊗ sur les tribus est associative, c’est `a dire que ⊗
3
i=1
A
i
= (A
1

A
2
) ⊗A
3
= A
1
⊗(A
2
⊗A
3
)
Proposition 1.51 Soit (X, A) et (Y, \) deux espaces mesur´es.
(i) Soit A ∈ A ⊗\, les sections A
x
= ¦y ∈ Y : (x, y) ∈ A¦ appartiennent `a \ pour tout
x ∈ X et A
y
= ¦x ∈ X : (x, y) ∈ A¦ appartiennent `a A pour tout y ∈ Y.
(ii) Soit f : (XY, A ⊗\) → (R, 1) une fonction mesurable. Pour tout x ∈ X la section
de f d’abscisse x d´efinie par f
x
(y) = f(x, y) pour y ∈ Y est mesurable de (Y, \) dans (R, 1)
et de mˆeme pour tout y ∈ Y la section f
y
d’ordonn´ee y d´efinie par f
y
(x) = f(x, y) pour
x ∈ X est mesurable de (X, A) dans (R, 1).
Probabilit´es 1 - Annie Millet 11 novembre 2007
1.8 Mesure produit - Th´eor`eme de Fubini 21
Si (X, A, µ) et (Y, \, ν) sont deux espaces mesur´es, le th´eor`eme suivant d´efinit une
mesure sur l’espace mesurable produit (X Y, A ⊗\)
Th´eor`eme 1.52 Soit (X, A, µ) et (Y, \, ν) deux espaces mesur´es σ-finis. Il existe une
unique mesure not´ee µ ⊗ν sur (X Y, A ⊗\) d´efinie par
(µ ⊗ν)(A B) = µ(A) ν(B) , ∀A ∈ A, ∀B ∈ \, (1.19)
avec la convention 0 (+∞) = 0.
L’existence de cette mesure est admise. Son unicit´e est une cons´equence du th´eor`eme de la
classe monotone (par le Corollaire 1.16).
Remarquons que l’on peut it´erer cette construction et d´efinir une mesure produit µ
1

⊗µ
d
sur la tribu produit A
1
⊗ ⊗A
d
d´efinie sur l’espace produit X = Π
d
i=1
X
i
. Remarquons
enfin que la mesure de Lebesgue λ
d
sur 1
d
= ⊗
d
1 est la mesure produit λ
⊗d
.
Le th´eor`eme suivant permet de relier des int´egrales de fonctions mesurables positives
d´efinies sur X Y par rapport `a µ ⊗ν `a des int´egrales par rapport `a µ et `a ν.
Th´eor`eme 1.53 (Th´eor`eme de Fubini-Tonelli) Soit (X, A, µ) et (Y, \, ν) des espaces me-
sur´es σ-finis, f : (X Y, A ⊗ \) → ([0, +∞], B([0, ∞])) une fonction mesurable positive.
Alors l’application y ∈ Y →

X
f(x, y)µ(dx) est mesurable de (Y, \) dans (([0, +∞], B([0, ∞]))
et l’application x ∈ X →

Y
f(x, y)ν(dy) est mesurable de (X, A) dans (([0, +∞], B([0, ∞])).
De plus,

XY
fd(µ ⊗ν) =

X

Y
f(x, y)ν(dy)

µ(dx) =

Y

X
f(x, y)µ(dx)

ν(dy) . (1.20)
Il reste `a ´etendre ce th´eor`eme `a des fonctions de signe quelconque.
Th´eor`eme 1.54 (Th´eor`eme de Fubini-Lebesgue)
Soit (X, A, µ) et (Y, \, ν) des espaces mesur´es σ-finis, f : (XY, A ⊗\) → (R, 1) une
fonction qui appartient `a L
1
(µ ⊗ ν), c’est `a dire int´egrable pour la mesure produit µ ⊗ ν.
Alors
(i) Pour µ-presque tout x ∈ X, la fonction y → f(x, y) ∈ L
1
(ν) et pour ν presque tout
y ∈ Y, la fonction x → f(x, y) ∈ L
1
(µ).
(ii) On a x →

Y
f(x, y)dν(y) ∈ L
1
(µ) et y →

X
f(x, y)dµ(x) ∈ L
1
(ν), ces fonctions
´etant d´efinies respectivement µ-presque partout et ν-presque partout.
(iii)

XY
fd(µ ⊗ν) =

X

Y
f(x, y)ν(dy)

µ(dx) =

Y

X
f(x, y)µ(dx)

ν(dy) . (1.21)
Convention d’´ecriture On ´ecrit souvent les ´equations (1.20) et (1.21) sous la forme

X

Y
µ(dx)ν(dy)f(x, y) =

X
µ(dx)

Y
f(x, y)ν(dy) =

Y
ν(dy)

X
µ(dx)f(x, y).
Ces deux th´eor`emes de Fubini-Tonelli et Fubini-Lebesgue permettent de retrouver le
Corollaire 1.37, ou encore de d´efinir les s´eries doubles `a termes positifs - ou bien absolument
convergentes - et de les calculer.
11 novembre 2007 Probabilit´es 1 - Annie Millet
22 1 Rappels de notions de th´eorie de la mesure
Proposition 1.55 Soit f et g des fonctions bor´eliennes de R dans R int´egrables pour la
mesure de Lebesgue. Alors la fonction f ∗ g d´efinie par
(f ∗ g)(x) =

f(x −y)g(y)λ(dy) =

f(y)g(x −y)λ(dx) (1.22)
est int´egrable pour la mesure de Lebesgue et
|f ∗ g|
1
≤ |f|
1
|g|
1
. (1.23)
On appelle f ∗ g le produit de convolution de f et g. De plus, si f ou g est de classe (
k
pour
k ≥ 0, f ∗ g est ´egalement de classe (
k
.
D´emonstration. Il suffit d’appliquer le th´eor`eme de Fubini-Tonelli 1.53 pour obtenir
|f ∗ g|
1
=

[f ∗ g(x)[λ(dx) ≤

[f(x −y)[[g(y)[λ(y)

λ(dx)

[g(y)[

[f(x −y)[λ(dx)

λ(dy) = |g|
1
|f|
1
,
o` u la derni`ere ´egalit´e vient de l’invariance de la mesure de Lebesgue par translation. La
r´egularit´e du produit de convolution vient de th´eor`emes 1.38 et 1.39 de continuit´e et
d´erivabilit´e d’int´egrales d´ependant d’un param`etre, qui sont des cons´equences imm´ediates
du th´eor`eme de convergence domin´ee. 2
L’in´egalit´e de H¨older permet de montrer des propri´et´es plus pr´ecises sur l’appartenance
du produit de convolution aux espaces L
p
.
Proposition 1.56 (i) Soit p ∈ [1, +∞] et q l’exposant conjugu´e, f ∈ L
p
(λ) et g ∈ L
q
(λ).
Alors
sup
x∈R
[(f ∗ g)(x)[ ≤ |f|
p
|g|
q
. (1.24)
(ii) p ∈ [1, +∞], f ∈ L
p
(λ) et g ∈ L
1
(λ). Alors f ∗ g ∈ L
p
(λ) et on a
|f ∗ g|
p
≤ |f|
p
|g|
1
. (1.25)
.
D´emonstration. (i) L’in´egalit´e (1.24) est imm´ediate si p = ∞ ou q = +∞. Supposons
donc p, q ∈]1, +∞[. L’in´egalit´e de H¨older montre que pour tout x ∈ R,
[f ∗ g(x)[ ≤

[f(x −y)[
p
λ(dy)
1
p

[g(y)[
q
λ(dy)
1
q
et on en d´eduit (1.24) par invariance de la mesure de Lebesgue par translation.
(ii) De nouveau, le r´esultat est ´evident si p = +∞. Pour p ∈ [1, +∞[, appliquons
l’in´egalit´e de H¨older `a la mesure [g(y)[λ(dy). Alors pour tout x ∈ R, si q est l’exposant
conjugu´e de p,
([f[∗[g[)(x) =

[f(x−y)[[g(y)[λ(dy) ≤

[f(x −y)[
p
[g(y)[λ(dy)
1
p

1
q
[g(y)[λ(dy)
1
q
.
En ´elevant cette in´egalit´e `a la puissance p puis en l’int´egrant par rapport `a la mesure de
Lebesgue λ(dx), puisque [f[
p
∈ L
1
, l’in´egalit´e (1.23) entraˆıne
| [f[ ∗ [g[ |
p
p
≤ | [f[
p
∗ [g[ |
1
|g|
p
q
1
≤ | [f[
p
|
1
| g |
1+
p
q
1
= | f |
p
p
| g |
p
1
,
ce qui termine la d´emonstration de (1.25) puisque |f ∗ g|
p
p
≤ |[f[ ∗ [g[|
p
p
. 2
Probabilit´es 1 - Annie Millet 11 novembre 2007
23
2 Formulation probabiliste
Dans tout ce chapitre, on consid`ere un ensemble Ω qui d´ecrit toutes les valeurs possibles
d’une exp´erience ou d’une observation « qui d´epend du hasard ».
La tribu, qui d´ecrit l’information dont on dispose avec les observations faites, est tradi-
tionnellement not´ee T. Les ensembles appartenant `a la tribu sont appel´es ´ev`enements et les
´el´ements de Ω sont not´es ω. Lorsque l’ensemble Ω est fini ou d´enombrable (par exemple N
ou N
d
), la tribu usuelle est l’ensemble des parties de Ω, soit T = {(Ω). Lorsque Ω n’est pas
d´enombrable, par exemple quand Ω = R, la tribu ensemble des parties n’est techniquement
plus convenable et on est amen´e `a en construire une plus petite, par exemple 1.
La probabilit´e P sur T est telle que P(A) d´ecrit num´eriquement les « chances que la
propri´et´e qui d´efinit A soit r´ealis´ee quand on regarde un r´esultat particulier de l’exp´erience ».
Le mod`ele probabiliste le plus simple est celui o` u l’ensemble Ω est fini. On prend alors
souvent comme tribu T la tribu {(Ω) ensemble des parties de Ω et la probabilit´e uniforme
sur T d´efinie par P(A) =
[A[
[Ω[
pour tout A ⊂ Ω d´ecrit math´ematiquement le fait toutes les
valeurs apparaissent de le mˆeme fa¸ con (pi`ece ´equilibr´ee, d´e ´equilibr´e, choix d’une personne
« au hasard » dans une population, ...)
Ce mod`ele est bien sˆ ur beaucoup trop limit´e pour traduire des ph´enom`enes plus com-
plexes et nous ne le reprendrons pas ici. Les r´esultats suivants donnent les rappels essen-
tiels de la th´eorie des probabilit´es en utilisant les outils de la mesure abstraite du chapitre
pr´ec´edent.
2.1 Variables al´eatoires r´eelles - Loi - Fonction de r´epartition
Commen¸ cons par reprendre les notions de fonction mesurable et d’int´egrale en utilisant
la terminologie usuelle en probabilit´es. C’est au d´ebut un simple probl`eme de vocabulaire,
mais assez vite les probl`emes abord´es seront sp´ecifiquement probabilistes.
Convention Pour toute fonction bor´elienne ψ : R →R, positive ou int´egrable par rapport
`a la mesure de Lebesgue λ, on notera

R
ψdλ =

R
ψ(x)dx.
D´efinition 2.1 Une variable al´eatoire r´eelle est une fonction mesurable X : (Ω, T) →
(R, 1), ou encore X : (Ω, T) → ([−∞, +∞], B([−∞, +∞])). Une variable al´eatoire discr`ete
est une fonction mesurable X : (Ω, T) → (N, {(N)). Si X : Ω → [0, +∞] est mesurable,
l’int´egrale de X par rapport `a P est appel´ee esp´erance de X et not´ee E(X), i.e.,
E(X) :=


XdP. (2.1)
Une variable X est int´egrable si elle est P-int´egrable, c’est `a dire si E([X[) =


[X[dP <
+∞; dans ce cas, l’int´egrale

XdP est ´egalement d´efinie et on note de nouveau E(X) =

XdP.
Remarquons que toute variable al´eatoire discr`ete est ´egalement une variable al´eatoire r´eelle.
Les ensembles n´egligeables sont les ´el´ements de T de P-mesure nulle, c’est `a dire P-
n´egligeables. Une propri´et´e vraie P-presque partout sera dite vraie presque sˆ urement et
11 novembre 2007 Probabilit´es 1 - Annie Millet
24 2 Formulation probabiliste
not´ee p.s. On retraduit ainsi la partie (i) de la Proposition 1.35 en disant qu’une variable
al´eatoire int´egrable est finie presque sˆ urement. On pourra comme exercice montrer que
cette propri´et´e entraˆıne le lemme suivant, qui est tr`es utile en probabilit´es pour montrer la
convergence presque sˆ ure qui sera ´etudi´ee au Chapitre 5.
Lemme 2.2 (Lemme de Borel-Cantelli) Soit (Ω, T, P) un espace probabilis´e et (A
n
, n ≥ 1)
une suite d’ensembles mesurables telle que
¸
n
P(A
n
) < +∞. Alors P(limsup A
n
) = 0.
Dans l’esprit de la section 1.7, on introduit les espaces L
p
et L
p
. Une variable al´eatoire X
est dite de carr´e int´egrable si elle appartient `a L
2
:= L
2
(P), de puissance p-`eme int´egrable
si elle appartient `a L
p
:= L
p
(P), 1 ≤ p < +∞ et (essentiellement) born´ee si elle appartient
`a L

:= L

(P). Pour tout p ∈ [1, +∞[, et toute variable al´eatoire r´eelle X,
|X|
p
= [E([X[
p
)]
1
p
. (2.2)
Dans la suite, on fera l’abus de langage indiqu´e `a la fin de la section 1.7 et identifiant un
´el´ement de l’espace quotient L
p
`a un de ses repr´esentants et une variable al´eatoire apparte-
nant `a L
p
`a sa classe d’´equivalence de L
p
. Ainsi, on parlera de la « norme p » d’une variable
al´eatoire X ∈ L
p
, alors qu’on devrait parler de sa semi-norme et de la norme de la classe
d’´equivalence de X. L’in´egalit´e de H¨older entraˆıne que les espaces L
p
sont inclus les uns
dans les autres.
Th´eor`eme 2.3 Soit (Ω, T, P) un espace probabilis´e. Alors si 1 ≤ p
1
≤ p
2
≤ +∞, L
p
2

L
p
1
. Plus pr´ecis´ement, pour toute variable al´eatoire r´eelle X,
|X|
p
1
≤ |X|
p
2
, ∀(p
1
, p
2
) tels que 1 ≤ p
1
≤ p
2
≤ +∞. (2.3)
D´emonstration. L’in´egalit´e (2.3) est ´evidente si X ∈ L
p
2
et on suppose donc |X|
p
2
<
+∞. De fa¸ con ´evidente, si X ∈ L

, [X[ ≤ |X|

p.s. et donc pour tout p
1
∈ [1, +∞[,
[X[
p
1
≤ |X|
p
1

. En int´egrant cette in´egalit´e, on d´eduit (2.3) lorsque p
2
= ∞.
Supposons 1 ≤ p
1
< p
2
< +∞ et notons p =
p
2
p
1
∈]1, +∞[ et q l’exposant conjugu´e de p.
Alors l’in´egalit´e de H¨older (1.14) appliqu´ee `a la fonction g = 1, telle que |g|
q
= 1, entraˆıne
|X|
p
1
p
1
= E([X[
p
1
1) ≤

[X[
p
1
p
dP
1
p
1 = |X|
p
1
p
2
,
ce qui termine la d´emonstration de (2.3). 2
La notion suivante g´en´eralise la domination et permet ´egalement d’intervertir limite et
int´egrale.
D´efinition 2.4 Soit c une famille de fonctions mesurables. On dit que c est ´equiint´egrable
(ou uniform´ement int´egrable) si
lim
a→+∞
sup
f∈c

|[f[≥a¦
[f[dP = 0. (2.4)
Soit g est une fonction int´egrable ; le th´eor`eme de convergence domin´ee 1.36 montre que
c = ¦g¦ est ´equiint´egrable. On en d´eduit que c = ¦f mesurable : [f[ ≤ [g[¦ est aussi une
famille ´equiint´egrable. Le r´esultat suivant montre qu’une suite born´ee dans L
p
, p > 1 est
uniform´ement int´egrable.
Probabilit´es 1 - Annie Millet 11 novembre 2007
2.1 Variables al´eatoires r´eelles - Loi - Fonction de r´epartition 25
Th´eor`eme 2.5 Soit c une famille de fonctions mesurables telles qu’il existe p ∈]1, +∞[
v´erifiant M = sup¦|f|
p
: f ∈ c¦ < +∞. Alors, c est uniform´ement int´egrable.
D´emonstration. Soit q ∈]1, +∞[ l’exposant conjugu´e de p. Pour tout a > 0, l’in´egalit´e de
H¨older entraˆıne pour f ∈ c que

|[f[≥a¦
[f[dP ≤

[f[
p
dP
1
p
(P([f[ ≥ a)
1
q
.
L’in´egalit´e de Markov (1.5) montre que P([f[ ≥ a) ≤
1
a
p

[f[
p
dP. On en d´eduit que pour
toute fonction f ∈ c,

|[f[≥a¦
[f[dP ≤ M
1+
p
q
a

p
q
,
ce qui termine la d´emonstration. 2
L’exemple suivant montre qu’une suite de fonctions born´ee dans L
1
n’est pas n´ecessai-
rement uniform´ement int´egrable. Soit X = [0, 1], A = B([0, 1]), P est la restriction de la
mesure de Lebesgue `a [0, 1], f
n
= n1
[0,
1
n
]
. Alors pour tout a > 0 et n ≥ a,

|[fn[≥a¦
[f
n
[dP =

[f
n
[dP = 1. D’autre part, une suite peut ˆetre born´ee dans L
2
sans ˆetre domin´ee par une
fonction int´egrable, comme le montre l’exemple suivant. Pour tout entier n et tout entier
k = 1, , 2
n
, soit f
n,k
= 2
n
2
1
[(k−1)2
−n
,k2
−n
]
. Alors sup
n
sup
1≤k≤2
n |f
n,k
|
2
= 1, mais pour tout
x ∈ [0, 1], sup
n
sup
1≤k≤2
n [f
n,k
(x)[ = +∞.
On peut caract´eriser l’´equiint´egrabilit´e par une propri´et´e des int´egrales sur des ensembles
de « petite »probabilit´e de type « continuit´e ».
Proposition 2.6 Une famille de fonctions mesurables c est ´equiint´egrable si et seulement
si les deux propri´et´es suivantes sont satisfaites :
(i) C = sup¦|f|
1
: f ∈ E¦ < +∞
(ii) Pour tout ε > 0 il existe α > 0 tel que pour tout ensemble A ∈ T tel que P(A) ≤ α
et toute fonction f ∈ c,

A
[f[dP < ε.
D´emonstration. Si c est uniform´ement int´egrable, pour tout ε ∈]0, 1] il existe a > 0 tel
que pour toute fonction f ∈ c,

|[f≥a¦
[f[dP ≤ ε, et donc |f|
1
≤ a + 1, ce qui prouve (i).
De plus, pour tout ensemble mesurable A,

A
[f[dP =

A∩|[f[≥a¦
[f[dP +

A∩|[f[<a¦
[f[dP ≤ ε + aP(A),
ce qui prouve (ii).
R´eciproquement, soit c une classe de fonctions mesurables qui satisfait les conditions (i)
et (ii). Alors pour tout a > 0, l’in´egalit´e de Markov (1.5) et (i) montrent que pour toute
fonction f ∈ E, P([f[ ≥ a) ≤
C
a
. De plus pour ε > 0 fix´e, soit α > 0 tel que (ii) soit vraie.
Alors pour a >
C
α
et A = ¦[f[ ≥ a¦ la propri´et´e (ii) prouve que

|[f[≥a¦
[f[dP < ε pour toute
fonction f ∈ c, ce qui termine la d´emonstration. 2
Le th´eor`eme suivant g´en´eralise le th´eor`eme de convergence domin´ee.
Th´eor`eme 2.7 Soit (f
n
, n ≥ 1) une suite de fonctions mesurables qui converge presque
sˆ urement vers f et est ´equiint´egrable. Alors lim
n
E([f −f
n
[) = 0 et lim
n
E(f
n
) = E(f).
11 novembre 2007 Probabilit´es 1 - Annie Millet
26 2 Formulation probabiliste
D´emonstration. D’apr`es la Proposition 2.6, la suite f
n
est born´ee dans L
1
et le Lemme
de Fatou 1.33 entraˆıne que f est int´egrable. Pour tout a > 0,
E([f
n
−f[) ≤

[fn[≥a¦
[f
n
[dP +

[f[≥a¦
[f[dP +

f
n
1
|[fn[<a¦
−f1
|[f[<a¦

dP.
Pour tout ε > 0, la D´efinition 2.4 montre l’existence de a > 0 telle que toute fonction g
appartenant `a la famille ´equiint´egrable c = ¦f¦ ∪ ¦f
n
: n ≥ 1¦, on a

[g[1
|[g[≥a¦
dP ≤ ε.
De plus la suite f
n
1
|[fn[<a¦
− f1
|[f[<a¦
converge presque sˆ urement vers 0 et est domin´ee
par la constante 2a int´egrable. Le th´eor`eme de convergence domin´ee montre alors que

f
n
1
|[fn[<a¦
−f1
|[f[<a¦

dP converge vers 0. Ceci termine la d´emonstration. 2
Le th´eor`eme 2.3 montre que l’espace L
2
des variables al´eatoires de carr´e int´egrable est
inclus dans l’espace des variables al´eatoires int´egrables. La d´efinition suivante montre que,
pour toute variable al´eatoire X de carr´e int´egrable, E(X) est la meilleure constante qui
approxime X en norme | |
2
. En effet, si X est de carr´e int´egrable, E(X) est bien d´efinie,
E(X −E(X)) = 0 et pour tout nombre r´eel a, la lin´earit´e de l’int´egrale entraˆıne
E

[X −a[
2

= E

[X −E(X)[
2

+

E(X) −a

E

X −E(X)

+

E(X) −a

2
≥ E

[X −E(X)[
2

.
D´efinition 2.8 Soit X une variable al´eatoire de carr´e int´egrable. La variance de X est
V ar(X) = E

[X −E(X)[
2

= E(X
2
) −E(X)
2
. (2.5)
D’apr`es la Proposition 1.35 (ii), une variable al´eatoire est presque sˆ urement constante (et
´egale `a son esp´erance) si et seulement si elle est de carr´e int´egrable et de variance nulle. De
fa¸ con ´evidente, si X est int´egrable, E(aX +b) = aE(X) +b et si X est de carr´e int´egrable,
V ar(aX +b) = a
2
V ar(X). La variance d’une variable r´eelle mesure la « dispersion » de X
autour de son esp´erance.
La notion de mesure image est cruciale. Le th´eor`eme suivant reprend les Th´eor`emes 1.19
et 1.32.
Th´eor`eme 2.9 Soit X : Ω →R une variable al´eatoire. La probabilit´e P
X
= P ◦ X
−1
image
de P par X est appel´ee la loi de X. Pour tout ensemble bor´elien A ∈ 1, P
X
(A) = P(X ∈ A)
et pour tout fonction bor´elienne ϕ : R → [0, +∞],
E[ϕ(X)] =


ϕ(X(ω))dP(ω) =

R
ϕ(x)dP
X
(x) =

ϕdP
X
. (2.6)
La fonction ϕ est P
X
-int´egrable si et seulement si ϕ(X) est P-int´egrable et dans ce cas on
a de nouveau E(ϕ(X)) =

ϕdP
X
.
De plus, si ν est une probabilit´e sur 1 telle que E(ϕ(X)) =

R
ϕdν pour toute fonction
bor´elienne positive ϕ (ou pour toute fonction bor´elienne ϕ born´ee), alors ν = P
X
.
Remarquons que la donn´ee de la loi de X d´ecrit la probabilit´e P non pas sur toute la tribu
T, mais sur la tribu engendr´ee par X, σ(X) = ¦X ∈ A : A ∈ 1¦. Remarquons enfin que
pour toute probabilit´e ν sur la tribu bor´elienne 1, il existe un espace probabilis´e (Ω, T, P)
et une variable al´eatoire r´eelle X : Ω → R de loi ν. Il suffit en effet de prendre Ω = R,
T = 1, P = ν et X l’identit´e sur R.
Probabilit´es 1 - Annie Millet 11 novembre 2007
2.1 Variables al´eatoires r´eelles - Loi - Fonction de r´epartition 27
Lorsque X : Ω → R, le th´eor`eme de la classe monotone 1.15 appliqu´e `a la classe ( =
¦]a, b[: a < b, a, b ∈ R¦ montre que la loi de X est caract´eris´ee par la probabilit´e que X
appartienne aux intervalles de R. On peut encore r´eduire la classe d’intervalles qui permet
de caract´eriser la loi de X en consid´erant ( = ¦] −∞, t], t ∈ R¦.
Proposition 2.10 Soit X : (Ω, T) → (R, 1) une variable al´eatoire r´eelle et P une proba-
bilit´e sur T. La loi de X est caract´eris´ee par la fonction de r´epartition de X, c’est `a dire
par la fonction F : R ∈ [0, 1] d´efinie par
F(t) = P(X ≤ t), ∀t ∈ R. (2.7)
De plus, la fonction de r´epartition F est croissante, continue `a droite, lim
t→−∞
F(t) = 0 et
lim
t→+∞
F(t) = 1.
Lorsque X : Ω →N est une variable al´eatoire discr`ete, sa loi est caract´eris´ee par le suite
des nombres positifs (P(X = n), n ≥ 0) telle que
¸
n
P(X = n) = 1. Dans ce cas, la loi de
X s’´ecrit comme une s´erie pond´er´ee de masses de Dirac, soit
P
X
=
¸
n≥0
P(X = n) δ
n
.
Dans ce cas, pour toute fonction bor´elienne ϕ positive, ou bien telle que ϕ(X) est int´egrable,
E(ϕ(X)) =
¸
n≥0
ϕ(n)P(X = n).
En particulier,
E(X) =
¸
n≥0
nP(X = n) ∈ [0, +∞].
De plus, si F est la fonction de r´epartition de X, pour tout entier n ≥ 0, P(X = n) = F(n)−
F(n − 1). Toute suite (a
n
, n ≥ 0) de nombre positifs telle que S :=
¸
n≥0
a
n
< +∞ peut,
par normalisation, d´efinir une loi de variable al´eatoire discr`ete, en posant P(X = n) =
an
S
.
Exemple 2.11 Voici quelques exemples de lois discr`etes « classiques »
1) Loi de Bernoulli de param`etre p ∈ [0, 1], not´ee B(p)
Cette loi mod´elise une exp´erience `a deux r´esultats possibles (pile ou face, succ`es et ´echec,
...). On code les r´esultats 0 (´echec) et 1 (succ`es) Une variable al´eatoire X : Ω → ¦0, 1¦ suit
une loi de Bernoulli de param`etre p ∈ [0, 1] si P(X = 1) = p et P(X = 0) = 1 − p. C’est
une variable al´eatoire born´ee, qui appartient donc `a tous les espaces L
p
, 1 ≤ p ≤ +∞.
On a E(X) = p et V ar(X) = p(1 − p) ; on retrouve donc que X est constante, c’est `a
dire « d´eterministe » , si p = 0 ou p = 1.
2) Loi binomiale de param`etres n ≥ 1 et p ∈ [0, 1], not´ee B(n, p)
Cette loi mod´elise le nombre total de succ`es lorsqu’on r´ep`ete n fois « de fa¸ con ind´epen-
dante » la mˆeme exp´erience dont chaque tirage suit une loi de Bernoulli de param`etre p.
Nous reviendrons l`a-dessus dans la section 2.3. Une variable al´eatoire X : Ω → ¦0, , n¦
suit une loi de Bernoulli si pour tout entier k = 0, , n, P(X = k) = C
k
n
p
k
(1 − p)
n−k
.
De nouveau, une variable al´eatoire de loi B(n, p) appartient `a tous les espaces L
p
pour
1 ≤ p ≤ +∞.
On a E(X) = np et V ar(X) = np(1 −p).
11 novembre 2007 Probabilit´es 1 - Annie Millet
28 2 Formulation probabiliste
3) Loi de Poisson de param`etre λ not´ee {(λ)
Une des motivations de l’´etude de cette loi est le probl`eme suivant : on r´ep`ete une infinit´e
de fois de fa¸ con ind´ependante la mˆeme exp´erience dont le temps de r´ealisation est al´eatoire
de loi exponentielle (qui sera rappel´ee plus tard). On veut mod´eliser le nombre de r´ealisations
de cette exp´erience dans un intervalle de temps donn´e.
Une variable al´eatoire X : Ω → N suit une loi de Poisson de param`etre λ > 0 si pour
tout entier n ≥ 1, P(X = n) = exp(−λ)
λ
n
n!
. Cette variable al´eatoire n’est plus born´ee, mais
appartient `a tous les espaces L
p
, p ∈ [1, +∞[.
On a E(X) = λ et V ar(X) = λ.
4) Loi g´eom´etrique de param`etre a not´ee ((a)
Une des motivations de l’´etude de cette loi est le probl`eme suivant : on r´ep`ete une infinit´e
de fois de fa¸ con ind´ependante la mˆeme exp´erience al´eatoire `a deux issues cod´ees succ`es et
´echec (donc mod´elis´ee par une variable al´eatoire de Bernoulli) et on veut savoir combien de
fois il faut r´ealiser l’exp´erience pour avoir le premier succ`es.
Une variable al´eatoire X : Ω → N suit une loi g´eom´etrique de param`etre a ∈ [0, 1[ si
pour tout entier n, P(X = n) = (1−a)a
n
. Cette variable al´eatoire ne d´ecrit pas exactement
le probl`eme pr´ec´edent qui est mod´elis´e par une loi g´eom´etrique plus 1 (puisque le temps
d’attente est sup´erieur ou ´egal `a 1). Elle est calqu´ee sur la s´erie g´eom´etrique.
Sauf si a = 0 (o` u X est presque sˆ urement ´egale `a 0) la variable al´eatoire X n’est pas
born´ee, mais appartient `a tous les espaces L
p
, 1 ≤ p < +∞.
On a E(X) =
a
1−a
et V ar(X) =
a
(1−a)
2
.
Un autre exemple fondamental de loi de variable al´eatoire utilise le Th´eor`eme 1.31.
D´efinition 2.12 Une variable al´eatoire r´eelle X a pour densit´e f (par rapport `a la mesure
de Lebesgue) si sa loi P
X
a la densit´e f par rapport `a λ, c’est `a dire si pour tout ensemble
bor´elien A ∈ 1,
P(X ∈ A) =

1
A
fdλ =

A
f(x)dx. (2.8)
La fonction f est bor´elienne, positive, telle que

R
f(x)λ(dx) = 1 et pour toute fonction
bor´elienne ϕ positive (ou telle que ϕf est λ-int´egrable),
E

ϕ(X)

=

R
ϕ(x) f(x) dx. (2.9)
La validit´e de (2.9) pour tout fonction bor´elienne ϕ positive (ou bien born´ee) entraˆıne que la
loi de X a comme densit´e f par rapport `a la mesure de Lebesgue λ. On dit plus simplement
que X a pour densit´e f
Si X est une variable al´eatoire positive ou int´egrable de densit´e f, on en d´eduit donc
E(X) =

R
xf(x)dx.
De nouveau, toute fonction bor´elienne g positive sur 1 telle que I :=

R
g(x)dx < +∞
peut, par normalisation, donner une densit´e de probabilit´e sur 1; il suffit de poser f(x) =
g(x)
I
.
Soit X une variable r´eelle de densit´e f. Alors la fonction de r´epartition F de X est
l’int´egrale de la borne sup´erieure de f et est continue, c’est `a dire que P(X = t) = 0 pour
Probabilit´es 1 - Annie Millet 11 novembre 2007
2.1 Variables al´eatoires r´eelles - Loi - Fonction de r´epartition 29
tout t ∈ R. Il est donc naturel de tenter de relier la d´eriv´ee de F, si elle existe, `a f. Ce point
est cependant assez d´elicat. De fa¸ con g´en´erale, on admettra que toute fonction croissante G
sur l’intervalle [a, b] (donc Riemann int´egrable sur [a, b]) et continue sur [a, b] est d´erivable
λ-presque partout sur [a, b]. Alors, si G

est sa d´eriv´ee (d´efinie λ-presque partout) l’in´egalit´e
suivante est vraie :

b
a
G

(x)dx ≤ G(b) −G(a). (2.10)
En effet, pour tout entier n ≥ 1, soit G
n
(x) = n[G(x +
1
n
) − G(x)] pour a ≤ x ≤ b −
1
n
et
G
n
(x) = 0 pour b −
1
n
< x ≤ b. Alors les fonctions G
n
sont positives et convergent λ-presque
partout vers G

. Le lemme de Fatou 1.33 permet de conclure que

b
a
G

(x)dλ(x) ≤ liminf
n

b
a
G
n
(x)dλ(x).
De plus,

b
a
G
n
(x)dλ(x) = n

b
b−
1
n
G(x)dx −n

a+
1
n
a
G(x)dx
= n
¸
Φ(b) −Φ(b −
1
n
)

−n
¸
Φ(a +
1
n
) −Φ(a)

,
o` u l’on note Φ(t) =

t
a
G(x)dx. Puisque G est continue en a et en b, Φ admet une d´eriv´ee `a
droite en a ´egale `a G(a) et une d´eriv´ee `a gauche en b ´egale `a G(b). La suite

b
a
G
n
(x)dλ(x)
converge donc vers G(b) −G(a).
L’exemple suivant montre que l’in´egalit´e (2.10) entre accroissement et int´egrale de la
d´eriv´ee peut ˆetre stricte. Si G(x) = 1
[
1
2
,1]
, a = 0 et b = 1, G

(x) = 0 λ presque partout sur
[a, b] et

1
0
G

(x)dx = 0 < G(1) − G(0) = 1. Un exemple plus complexe montre que cette
in´egalit´e peut ˆetre stricte mˆeme si G est continue.
Cependant, l’int´egrale de la borne sup´erieure F d’une fonction f int´egrable par rapport
`a la mesure de Lebesgue λ (appel´ee fonction absolument continue) est λ-presque partout
d´erivable et F

= f λ-presque partout. On en d´eduit la
Proposition 2.13 (i) Soit X une variable al´eatoire r´eelle de densit´e f. Alors la fonction
de r´epartition F de X est continue, presque partout d´erivable et F

(x) = f(x) λ-presque
partout.
(ii) Soit X une variable al´eatoire r´eelle dont la fonction de r´epartition F est continue ;
alors F est d´erivable presque partout. De plus, si

+∞
−∞
F

(x) dx = 1, on en d´eduit que X a
pour densit´e F

.
D´emonstration. Le point (i) est admis. Pour le point (ii), la d´erivabilit´e presque λ-presque
partout de F est admise. Pour tout entier n, on sait d’apr`es (2.10) que

n
−n
F

(x)dx ≤
F(n) −F(−n) ≤ 1. De plus, F ´etant croissante, F

≥ 0 λ-presque partout. Le th´eor`eme de
convergence monotone montre donc que

R
F

(x)dx ≤ 1, c’est `a dire que F

est int´egrable.
Si on note Φ(t) =

t
−∞
F

(x)dx, la partie (i) montre que Φ

= F

λ-presque partout. De
plus,

+∞
−∞
F

(x) dx = 1 et pour tout t ∈ R, (2.10) et le th´eor`eme de la classe monotone 1.15
montrent que

t
−∞
F

(x) dx ≤ F(t) tandis que

+∞
t
F

(x) dx ≤ 1 − F(t). On en d´eduit que
pour tout t, Φ(t) =

t
−∞
F

(x) dx = F(t), ce qui montre que Φ est la fonction de r´epartition
11 novembre 2007 Probabilit´es 1 - Annie Millet
30 2 Formulation probabiliste
d’une loi loi µ sur 1 de densit´e F

, et puisque, d’apr`es la Proposition 2.10, la fonction de
r´epartition caract´erise la loi, on en d´eduit que X a pour densit´e F

. 2
On calcule la loi d’une transformation d’une variable al´eatoire r´eelle X par une fonction
Φ de la fa¸ con suivante.
Th´eor`eme 2.14 Soit X une variable al´eatoire de densit´e f, I =]a, b[ un intervalle ouvert
de R (avec ´eventuellement a = −∞ ou b = +∞) tel que f = 0 presque partout sur ]a, b[
c
.
Alors P(X ∈]a, b[) = 1. Soit Φ : I → J =]c, d[ une fonction bijective, d´erivable sur I. Alors,
pour toute fonction bor´elienne positive φ :]c, d[→ [0, +∞[, on a la formule de changement
de variables :

b
a
φ(Φ(x))[Φ

(x)[dx =

d
c
φ(y)dy. (2.11)
Si φ est de signe quelconque, 1
]c,d[
φ est λ-int´egrable si et seulement si φ ◦ Φ[Φ

[1
]a,b[
est λ-
int´egrable et dans ce cas, l’´equation (2.11) reste vraie. La variable al´eatoire Y = Φ(X) prend
presque sˆ urement ses valeurs dans l’intervalle ]c, d[ et a pour densit´e la fonction d´efinie par
g(y) = 0 si y ∈]c, d[ et pour y ∈]c, d[, si Ψ :]c, d[→]a, b[ d´esigne l’application r´eciproque de
Φ,
g(y) = f(Ψ(y))[Ψ

(y)[. (2.12)
D´emonstration. De fa¸ con ´evidente, P(X ∈]a, b[
c
) =

]a,b[
c
f(x) dx = 0. Le th´eor`eme clas-
sique de changement de variable de calcul diff´erentiel montre (2.11) lorsque ϕ est continue.
Les fonctions continues ´etant denses dans L
1
, on ´etend ensuite aux fonctions int´egrables par
convergence domin´ee, puis bor´eliennes positives par convergence monotone.
Pour en d´eduire la densit´e de Y = Φ(X), soit ϕ :]c, d[→ R une fonction bor´elienne
positive. Alors si Ψ d´esigne l’application r´eciproque de Φ, Ψ est d´erivable sur ]c, d[ et Ψ

(y) =
1
Φ

(Ψ(y))
. En appliquant (2.11) `a φ(y) = ϕ(y)f(Ψ(y))[Ψ

(y)[, on d´eduit que
E[ϕ(Y )] =

b
a
ϕ(Φ(x))f(x)dx =

d
c
ϕ(y)[Ψ

(y)[f(Ψ(y))dy.
La caract´erisation de la densit´e de Y prouv´ee dans (2.9) termine la d´emonstration. 2
Exemple 2.15 Les exemples suivants de variables al´eatoires `a densit´e sont classiques.
1) Loi uniforme sur l’intervalle [a, b], not´ee |([a, b])
Cette loi mod´elise un ph´enom`ene al´eatoire qui prend des valeurs r´eelles comprises entre
a et b, de telle sorte que la probabilit´e de tomber dans un intervalle soit proportionnelle `a
la longueur de celui-ci, c’est `a dire que les valeurs sont prises « au hasard » dans l’intervalle
[a, b].
Une variable al´eatoire X : Ω → R suit une loi uniforme sur l’intervalle [a, b] o` u a et
b sont des nombres r´eels tels que a < b si sa densit´e est la fonction f =
1
b−a
1
[a,b]
. Elle ne
prend donc presque sˆ urement que des valeurs comprises entre a et b ; elle est donc presque
sˆ urement born´ee et appartient `a tous les espaces L
p
avec p ∈ [1, +∞].
On a E(X) =
a+b
2
et V ar(X) =
(b−a)
2
12
et la fonction de r´epartition F est telle que
F(t) =

0 si t < a,
t−a
b−a
si a ≤ t ≤ b,
1 si t > b.
Probabilit´es 1 - Annie Millet 11 novembre 2007
2.1 Variables al´eatoires r´eelles - Loi - Fonction de r´epartition 31
2) Loi exponentielle de param`etre λ, not´ee c(λ)
Cette loi mod´elise la dur´ee de vie d’un mat´eriel qui ne donne pas de signe ext´erieur de
vieillissement, ou plus g´en´eralement le temps d’attente d’un ph´enom`ene dont le fait qu’il
ne se soit pas encore produit ne donne aucune indication sur le temps qui reste `a attendre
avant qu’il se produise.
Une variable al´eatoire X : Ω → R suit une loi exponentielle de param`etre λ > 0 si sa
densit´e est la fonction f d´efinie par f(x) = λ exp(−λx) 1
[0,+∞[
(x). Elle est donc presque
sˆ urement positive, mais non born´ee. Elle appartient par contre `a tous les espaces L
p
pour
p ∈ [1, +∞[.
On a E(X) =
1
λ
et V ar(X) =
1
λ
2
.
Sa fonction de r´epartition est d´efinie par F(t) =

1−exp(−λt)

1
[0,+∞[
(t). En particulier
P(X ≥ t) = exp(−λt) pour tout t > 0.
3) Loi Gamma de param`etres λ et a, not´ee Γ(λ, a)
C’est une g´en´eralisation de la loi exponentielle important d’un point de vue technique.
Une variable al´eatoire X : Ω → R suit une loi Γ(λ, a) avec λ > 0 et a > 0 si elle a pour
densit´e la fonction f d´efinie par
f(x) =
λ
a
Γ(a)
exp(−λx) x
a−1
1
]0,+∞[
(x) ,
o` u pour tout a > 0 on note
Γ(a) =

+∞
0
x
a−1
e
−x
dx.
On voit que les lois Γ(λ, 1) et c(λ) sont ´egales. De nouveau, une variable al´eatoire de loi
Γ(λ, a) n’est pas born´ee, mais appartient `a tous les espaces L
p
pour p ∈ [1, +∞[.
Rappelons que pour tout a > 0, Γ(a + 1) = aΓ(a), pour tout entier n ≥ 1 on a Γ(n) =
(n −1)! et que Γ(
1
2
) =

Π.
On a E(X) =
a
λ
et V ar(X) =
a
λ
2
. On ne dispose pas d’expression explicite de la fonction
de r´epartition, sauf dans des cas particuliers de valeurs de a.
4) Loi gaussienne (ou normale) centr´ee r´eduite not´ee ^(0, 1)
C’est une loi fondamentale dans la th´eorie des probabilit´es. Elle mod´elise la loi de
ph´enom`enes qui sont la somme de tr`es nombreuses observations al´eatoires « microscopiques »
ind´ependantes similaires, tels de tr`es nombreux petits chocs (par exemple elle est sous-
jacente `a la mod´elisation de cours d’actions `a la bourse, ...)
Une variable al´eatoire suit une loi gaussienne ^(0, 1) si sa densit´e est la fonction f d´efinie
par
f(x) =
1


exp


x
2
2

.
Cette variable al´eatoire « charge » tout intervalle [a, b] tel que a < b et n’est pas born´ee, mais
appartient `a tous les espaces L
p
avec p ∈ [1, +∞[. On ne dispose pas de formule explicite
de sa fonction de r´epartition (qui est tabul´ee), mais on sait que ses deux param`etres sont
respectivement l’esp´erance et la variance, soit
E(X) = 0 et V ar(X) = 1.
11 novembre 2007 Probabilit´es 1 - Annie Millet
32 2 Formulation probabiliste
5) Loi gaussienne (ou normale) ^(m, σ
2
)
C’est la loi de l’image de celle d’une variable X de loi ^(0, 1) par l’application affine
x → y = m+ σx et on convient que σ =

σ
2
≥ 0. Ainsi, lorsque X suit une loi ^(0, 1), la
variable al´eatoire Y = m+σX suit une loi ^(m, σ
2
). On a donc imm´ediatement E(Y ) = m,
V ar(Y ) = σ
2
. Si σ = 0, X est presque sˆ urement ´egale `a m et si σ > 0, et un calcul simple
de changement de variable montre que la densit´e de Y est
g(y) =
1
σ


exp


(y −m)
2

2

.
De nouveau, Y appartient `a tous les espaces L
p
pour p ∈ [1, +∞[ mais n’appartient pas `a
L

(sauf si σ = 0).
6) Loi de Cauchy
C’est un exemple tr`es simple de variable al´eatoire qui n’appartient `a aucun espace L
p
,
1 ≤ p ≤ +∞, c’est `a dire qui n’est pas int´egrable.
Une variable al´eatoire X : Ω → R suit une loi de Cauchy si sa densit´e f est d´efinie
par f(x) =
1
π(1+x
2
)
. Alors, E([X[) = +∞ et la fonction de r´epartition satisfait F(t) =
Arctan(t) +
Π
2
pour tout nombre r´eel t.
2.2 Vecteurs al´eatoires - Changement de variables
On s’int´eresse aux applications mesurables de (Ω, T) dans (R
d
, 1
d
).
D´efinition 2.16 Une variable al´eatoire `a valeurs dans R
d
, ou vecteur al´eatoire, est une
application mesurable X : (Ω, T) → (R
d
, 1
d
). On dit que X = (X
1
, , X
d
) est int´egrable
(resp. appartient `a L
p
pour p ∈ [1, +∞]) si chacune des ses composantes X
i
, 1 ≤ i ≤ d est
int´egrable (resp. appartient `a L
p
). Si X ∈ L
1
, l’esp´erance de X est le vecteur de R
d
d´efini
par
E(X) = (E(X
1
), , E(X
d
)).
On remarque ais´ement qu’une application X = (X
1
, , X
d
) : Ω → R
d
est un vecteur
al´eatoire si et seulement si chacune de ses composantes X
i
, i = 1, , d est une variable
al´eatoire r´eelle. De plus, la lin´earit´e de l’int´egrale montre que si h : R
d
→ R
r
est une
application lin´eaire, le vecteur al´eatoire h(X) := h ◦ X : Ω →R
r
est int´egrable et
E

h(X)

= h

E(X)

.
Convention Dans la suite, il sera commode de commettre l’abus de notation consistant `a
identifier un vecteur de R
d
`a la matrice colonne de ses composantes dans la base canonique. Si
A d´esigne la matrice associ´ee `a h dans les bases canoniques, on ´ecrira avec cette convention :
E(X) =

¸
¸
E(X
1
)
.
.
.
E(X
d
)

et aussi E(AX) = AE(X) pour l’esp´erance du vecteur h(X).
La variance est remplac´ee par la matrice de covariance du vecteur al´eatoire.
Probabilit´es 1 - Annie Millet 11 novembre 2007
2.2 Vecteurs al´eatoires - Changement de variables 33
Th´eor`eme 2.17 (i) Soit X et Y des variables al´eatoires r´eelles de carr´e int´egrable. La
covariance de X et Y est un nombre r´eel d´efini par
Cov(X, Y ) = E(XY ) −E(X)E(Y ) = E

(X −E(X)) (Y −E(Y ))

= Cov(Y, X). (2.13)
De plus, Cov(X, X) = V ar(X) et [Cov(X, Y )[ ≤

V ar(X)

V ar(Y ).
(ii) Soit X = (X
1
, , X
d
) un vecteur al´eatoire de carr´e int´egrable. La matrice de cova-
riance de X est la matrice carr´ee d d not´ee Γ
X
d´efinie par
Γ
X
=

Cov(X
i
, X
j
) : 1 ≤ i, j ≤ d

= E

X
˜
X

−E(X)

E(X), (2.14)
o` u
˜
B d´esigne la matrice transpos´ee de la matrice B. C’est une matrice sym´etrique de type
positif. Plus pr´ecis´ement, pour tout vecteur (a
1
, , a
d
) ∈ R
d
si on note ´egalement a la
matrice colonne (d, 1) des a
i
,
˜ aΓ
X
a = V ar

d
¸
i=1
a
i
X
i

≥ 0. (2.15)
Enfin, pour toute application lin´eaire h : R
d
→R
r
, de matrice A dans les bases canoniques,
Γ
AX
= AΓ
X
˜
A. (2.16)
D´emonstration. (i) Il suffit d’appliquer l’in´egalit´e de Schwarz (1.11).
(ii) D’apr`es le point (i), Γ
X
est bien d´efinie, sym´etrique. Les ´equations (2.15) et (2.16)
r´esultent de calculs imm´ediats. 2
Le th´eor`eme de la mesure image permet de nouveau de d´efinir la loi du vecteur al´eatoire
X : Ω →R
d
comme la probabilit´e P
X
sur 1
d
d´efinie par
P
X
(A) = P(X ∈ A) , ∀A ∈ 1
d
.
Le th´eor`eme 1.14 de la classe monotone montre que la loi du vecteur al´eatoire X =
(X
1
, , X
d
) peut ˆetre caract´eris´ee par la famille
P

X ∈ Π
d
i=1
[a
i
, b
i
]

= P


d
i=1
¦X
i
∈ [a
i
, b
i

. (2.17)
D´efinition 2.18 Le vecteur al´eatoire X : Ω →R
d
a pour densit´e f si f : R
d
→ [0, +∞[ est
une fonction bor´elienne positive telle que P(X ∈ A) =

A
f(x)dλ
d
(x) pour tout A ∈ R
d
.
Le vecteur al´eatoire X = (X
1
, , X
d
) a pour densit´e f si et seulement si pour tout
choix de nombres r´eels a
i
< b
i
, si A
i
= [a
i
, b
i
],
P


d
i=1
¦X
i
∈ A
i
¦

=

A
1
A
d
f(x
1
, , x
d
)dλ
d
(x
1
, , x
d
).
Enfin, X = (X
1
, , X
d
) a pour densit´e f si et seulement si pour toute fonction bor´elienne
ϕ : R
d
→ [0, +∞[,
E(ϕ(X)) =

R
d
ϕ(x)f(x)dλ
d
(x),
et cette ´egalit´e est encore vraie si ϕ est bor´elienne (de signe quelconque) telle que ϕ(X) est
int´egrable, ou de fa¸ con ´equivalente, ϕf est λ
d
-int´egrable.
Les calculs d’int´egrales par rapport `a la mesure λ
d
, mesure produit de la mesure de
Lebesgue sur 1, se font en appliquant le Th´eor`eme de Fubini-Tonelli 1.53 ou de Fubini-
Lebesgue 1.54. Ces th´eor`emes permettent de calculer la densit´e de « sous-vecteurs » de X.
11 novembre 2007 Probabilit´es 1 - Annie Millet
34 2 Formulation probabiliste
Th´eor`eme 2.19 Soit X = (X
1
, , X
d
) un vecteur al´eatoire de densit´e f, k un entier
compris entre 1 et d−1, 1 ≤ i
1
< i
2
< i
k
≤ d et Y = (X
i
1
, , X
i
k
). Alors, les vecteurs Y a
pour densit´e la fonctions g d´efinie en notant y = (x
i
1
, , x
i
k
), j
1
< < j
d−k
les ´el´ements
de ¦1, , d¦`¦i
1
, , i
k
¦ et z = (x
j
1
, , x
j
d−k
),
g(y) =

R
d−k
f(x
1
, , x
d
)dλ
d−k
(z). (2.18)
En particulier, si d = 2, chaque composante X
i
du couple (X
1
, X
2
) a une densit´e appel´ee la
i-`eme densit´e marginale f
i
d´efinie respectivement par
f
1
(x
1
) =

f(x
1
, x
2
)dx
2
et f
2
(x
2
) =

f(x
1
, x
2
)dx
1
. (2.19)
On calcule la densit´e de transform´ees d’un vecteur al´eatoire par le th´eor`eme de chan-
gement de variables suivant. On caract´erise tout d’abord les « changements de variables »
autoris´es.
D´efinition 2.20 Soit ∆ un ouvert de R
d
et Φ : ∆ → R
d
. On dit que Φ est un (
1
-
diff´eomorphisme de ∆ sur son image D = Φ(∆) si
(i) Φ est une bijection de ∆ sur D
(ii) Φ est de classe (
1
sur ∆, c’est `a dire que ses d´eriv´ees partielles existent et sont
continues.
(iii) Φ

(a) est une application lin´eaire de R
d
dans R
d
inversible pour tout a ∈ ∆, c’est `a
dire que si J
Φ
(a) d´esigne le d´eterminant de la matrice Jacobienne de Φ au point a d´efinie
par (
∂Φ
i
∂x
j
(a), 1 ≤ i, j ≤ d), J
Φ
(a) est diff´erent de 0 en tout point a ∈ ∆.
Alors D est un ouvert de R
d
et pour tout b ∈ D, (Φ
−1
)

(Φ(x)) =

Φ

(x)

−1
.
Th´eor`eme 2.21 Soit ∆ un ouvert de R
d
et Φ : ∆ → D un (
1
-diff´eomorphisme de ∆ sur
son image D. Alors
(i) Pour toute fonction bor´elienne positive φ : D → [0, +∞[,

D
φ(y)dy =


φ(Φ(x)) [J
Φ
(x)[ dx. (2.20)
(ii) Une fonction bor´elienne φ de signe quelconque est int´egrable pour la restriction de
la mesure de Lebesgue sur D si et seulement si la fonction φ ◦ Φ[J
Φ
[ est int´egrable pour la
restriction de la mesure de Lebesgue sur ∆. Dans ce cas, l’´equation (2.20) est encore vraie.
On en d´eduit imm´ediatement le corollaire suivant sur la densit´e de Φ(X).
Corollaire 2.22 Soit ∆ un ouvert de R
d
et Φ : ∆ → D un (
1
-diff´eomorphisme de ∆ sur
son image D, X : Ω → R
d
une variable al´eatoire de densit´e f telle que P(X ∈ ∆) = 1.
Alors la variable al´eatoire Y = Φ(X) est d´efinie presque sˆ urement, `a valeurs dans R
d
, de
densit´e la fonction g d´efinie par
g(y) = f(Ψ(y)) [J
Ψ
(y)[1
D
(y), (2.21)
o` u Ψ := Φ
−1
: D → ∆ d´esigne l’application r´eciproque de Φ.
Probabilit´es 1 - Annie Millet 11 novembre 2007
2.3 Ind´ependance 35
2.3 Ind´ependance
Il nous faut formaliser plus pr´ecis´ement les notions implicites dans les mod`eles d´ecrits
pour introduire des lois classiques, telles que la loi de Poisson, la loi g´eom´etrique, ...
Le notion d’ind´ependance est « purement probabiliste »; son but est de d´ecrire math´e-
matiquement des exp´eriences successives telles que « les r´esultats des premi`eres n’influent
pas sur les suivantes », mais elle n’est cependant pas ´equivalente `a cette propri´et´e intuitive.
D’autre part, il faut se garder de la confondre avec l’ind´ependance lin´eaire. La notion centrale
est celle d’ind´ependance de tribus, `a laquelle toutes les autres d´efinitions se ram`enent.
D´efinition 2.23 (i) Deux ´ev`enements A et B sont ind´ependants si
P(A∩ B) = P(A)P(B).
(ii) Une famille ((
k
, 1 ≤ k ≤ n) de sous-tribus de T est ind´ependante si
P(∩
n
k=1
A
k
) = Π
n
k=1
P(A
k
) , ∀A
k
∈ (
k
, 1 ≤ k ≤ n. (2.22)
Une suite ((
k
, k ≥ 1)) de sous-tribus de T est ind´ependante si pour tout entier n, la famille
((
k
, 1 ≤ k ≤ n) est ind´ependante.
(iii) Une famille d’ensembles (A
k
, 1 ≤ k ≤ n) (resp. (A
k
, k ≥ 1)) d’´ev`enements est ind´e-
pendante si la famille des tribus (σ(A
k
), 1 ≤ k ≤ n) (resp. (σ(A
k
), k ≥ 1) ) est ind´ependante.
(iv) Une famille finie de vecteurs al´eatoires (X
k
: 1 ≤ k ≤ n) (resp. une suite de
vecteurs al´eatoires (X
k
, k ≥ 1)), o` u X
k
: Ω →R
d
k
, est ind´ependante si la famille des tribus
σ(X
k
) = X
−1
k
(1
d
k
) est ind´ependante.
(v) Un vecteur al´eatoire X : Ω →R
d
et une sous-tribu ( ⊂ T sont ind´ependantes si les
tribus σ(X) = X
−1
(1
d
) et ( sont ind´ependantes.
On voit imm´ediatement que des ´ev`enements A et B sont ind´ependants si et seulement
si les tribus σ(A) = ¦∅, Ω, A, A
c
¦ et σ(B) sont ind´ependantes. De plus, si des vecteurs
al´eatoires X
k
: Ω → R
d
k
, 1 ≤ n sont ind´ependants, et si Φ
k
: R
d
k
→ R
r
k
sont des fonctions
bor´eliennes, alors les vecteurs al´eatoires Y
k
= Φ
k
◦ X
k
: Ω →R
r
k
sont ind´ependants.
Le r´esultat suivant caract´erise la loi de vecteurs al´eatoires (X
1
, , X
d
) dont les compo-
santes sont ind´ependantes (ou des blocs de composantes sont ind´ependants). Sa d´emonstration
repose sur le fait qu’une probabilit´e sur R
d
est caract´eris´ee par la valeur qu’elle prend sur
des pav´es Π
d
i=1
[a
i
, b
i
].
Th´eor`eme 2.24 Soit X
i
: Ω →R
d
i
, 1 ≤ i ≤ n des vecteurs al´eatoires, k ∈ ¦1, , n−1¦ et
Y = (X
1
, , X
k
), Z = (X
k+1
, , X
n
) des sous-vecteurs de X = (Y, Z) = (X
1
, , X
n
).
Alors les propri´et´es sont ´equivalentes :
(i) Le vecteurs al´eatoires Y et Z sont ind´ependants
(ii) La loi de X sur 1
d
1
+dn
est ´egale au produit des lois de Y et de Z respectivement
sur 1
d
1
+d
k
et sur 1
d
k+1
++dn
, c’est `a dire P
(Y,Z)
= P
X
⊗P
Y
.
Dans le cas particulier o` u les vecteurs al´eatoires Y et Z ont pour densit´e respectivement
g et h, ces deux propri´et´es sont encore ´equivalentes `a
(iii) La densit´e du couple de vecteurs al´eatoires X = (Y, Z) est le « produit »des densit´es
de f et de g ; plus pr´ecis´ement, c’est la fonction f de x = (y, z) d´efinie par
f(y, z) = g(y)h(z). (2.23)
11 novembre 2007 Probabilit´es 1 - Annie Millet
36 2 Formulation probabiliste
Ce r´esultat s’´etend `a un nombre fini de sous-vecteurs de X. Dans le cas particulier de
variables al´eatoires r´eelles X
i
ayant une densit´e f
i
, les variables al´eatoires X
1
, , X
n
sont
ind´ependantes si et seulement si la densit´e du vecteur X = (X
1
, , X
n
) sur R
n
est la
fonction f d´efinie par f(x
1
, , x
n
) = f
1
(x
1
) f
n
(x
n
).
On d´eduit de cette caract´erisation de l’ind´ependance que si les vecteurs al´eatoires X
k
,
1 ≤ k ≤ n sont ind´ependants, pour tout k = 1, , n −1, les vecteurs Y = (X
1
, , X
k
) et
Z = (X
k+1
, , X
n
) sont ind´ependants et donc que si Φ : R
d
1
+d
k
→R
l
et Ψ : R
d
k+1
+dn

R
r
sont des fonctions bor´eliennes, les vecteurs al´eatoires Φ(Y ) et Ψ(Z) sont ind´ependants.
De nouveau, cette propri´et´e s’´etend `a un nombre fini de sous-vecteurs de X = (X
1
, , X
n
).
Les th´eor`emes de Fubini-Tonelli 1.53 et de Fubini-Lebesgue 1.54 montrent que si X et
Y sont des variables al´eatoires r´eelles ind´ependantes de densit´e respectivement f et g, alors
X + Y a pour densit´e de produit de convolution f ∗ g d´efini par (1.22). Les th´eor`emes de
Fubini montrent enfin le r´esultat suivant.
Th´eor`eme 2.25 Soit X
i
: Ω → R
d
i
, i = 1, 2 des vecteurs al´eatoires ind´ependants et Φ
i
:
R
d
i
→R sont des fonctions bor´eliennes.
(i) Si les fonctions Φ
i
sont positives,
E

Φ
1
(X
1

2
(X
2
)

= E

Φ
1
(X
1
)

E

Φ
2
(X
2
)

. (2.24)
(ii) Si les fonctions Φ
i
sont telles que les variables al´eatoires Φ
i
(X
i
) sont int´egrables, la
variable al´eatoire Φ
1
(X
1

2
(X
2
) est aussi int´egrable et l’´equation (2.24) est encore vraie.
On remarque que l’ind´ependance permet de s’affranchir de l’hypoth`ese de carr´e int´egrable
pour qu’un produit de variables al´eatoires r´eelles soit int´egrable. On en d´eduit en particulier
que si deux variables al´eatoires X et Y sont ind´ependantes et int´egrables, le produit XY
est int´egrable et que E(XY ) = E(X)E(Y ), c’est `a dire que la covariance Cov(X, Y ) = 0.
La r´eciproque est fausse, comme le montre l’exemple suivant (qui a d’autres propri´et´es qui
serviront ult´erieurement).
Exemple 2.26 Soit X une variable al´eatoire ^(0, 1), a > 0 et Y la variable al´eatoire
d´efinie par Y = X 1
|[X[>a¦
−X1
|[X[≤a¦
. Alors la variable al´eatoire Y est ´egalement ^(0, 1),
mais en tant que fonction non constante de X, elle n’est pas ind´ependante de X. Si on
note G(t) =

t
0
1


exp(−
x
2
2
)dx, la fonction G : [0, +∞[→ [0,
1
2
[ est continue, G(0) = 0 et
lim
t→+∞
G(t) =
1
2
. Le th´eor`eme des valeurs interm´ediaires montre alors qu’il existe a > 0
(qui est d’ailleurs unique) tel que G(a) =
1
4
. Pour cette valeur de a, E(XY ) = 0, donc
Cov(X, Y ) = 0.
D’autre part, on d´eduit du Th´eor`eme 2.25 le
Corollaire 2.27 Soit X = (X
1
, , X
d
) : Ω →R
d
un vecteur al´eatoire.
(i) Si les composantes X
i
de X sont ind´ependantes, la matrice de covariance de X est
diagonale.
(ii) Si k ∈ ¦1, , d−1¦ est tel que les vecteurs Y = (X
1
, , X
k
) et Z = (X
k+1
, , X
d
)
sont ind´ependants, alors la matrice de covariance Γ
X
de X est diagonale par blocs, c’est `a
dire
Γ
X
=

Γ
Y
0
0 Γ
Z

.
Les r´eciproques des deux r´esultats du Corollaire 2.27 sont fausses.
Probabilit´es 1 - Annie Millet 11 novembre 2007
2.4 Simulation 37
2.4 Simulation
Dans de nombreuses situations concr`etes, au lieu de r´ealiser une exp´erience al´eatoire (qui
peut ˆetre coˆ uteuse, dangereuse, ...) mod´elis´ee par la variable al´eatoire r´eelle ou vectorielle
X, on pr´ef`ere « simuler » cette variable al´eatoire, c’est `a dire obtenir un r´esultat num´erique
r´eel ou vectoriel x qui correspondrait `a l’observation X(ω) de cette exp´erience. Ce nombre
ou ce vecteur x est appel´e r´ealisation de la variable al´eatoire X. On souhaiterait d’ailleurs
simuler la r´ealisation d’une suite de variables al´eatoires ind´ependantes de mˆeme loi que X.
Il est alors crucial de r´epondre `a la question suivante : comment g´en´erer une suite de
nombres (x
n
, n ≥ 1) qui soit la r´ealisation (X
n
(ω) , n ≥ 1) d’une suite de variables al´eatoires
ind´ependantes de mˆeme loi donn´ee ?
Nous allons voir ici que, d’un point de vue th´eorique, la r´eponse `a cette question se ram`ene
au cas de la loi |([0, 1]) uniforme sur l’intervalle [0, 1] ; c’est ce qu’on appelle des nombres
pseudo-al´eatoires. La question du caract`ere « statistiquement acceptable » d’une telle suite
(tant pour l’ad´equation `a la loi |([0, 1]) que pour l’ind´ependance des tirages cons´ecutifs) ne
sera pas abord´ee ici. Trouver un « bon » g´en´erateur de nombres pseudo-al´eatoires est rest´e
longtemps un probl`eme appliqu´e de toute premi`ere importance, mais il y maintenant des
biblioth`eques de programmes qui en fournissent d’excellents (e.g. le « Mersenne Twister ».)
La plupart des g´en´erateurs sont de type « congruenciel » , c’est `a dire qu’ils fournissent
une suite d’entiers (x
n
, n ≥ 0) donn´es par la relation de r´ecurrence :
x
n+1
= a x
n
+ c (mod m) ;
la valeur initiale x
0
est appel´ee racine, a est le multiplicateur, c est l’accroissement et m le
module de la suite. La suite (x
n
) prend ses valeurs entre 0 et m−1 et la suite (x
n
/m, n ≥ 1)
prend ses valeurs dans l’intervalle [0, 1[. La p´eriode maximale d’un tel g´en´erateur est m et
il est important, pour des simulations de grands ´echantillons de loi donn´ee, de disposer de
g´en´erateurs de grande p´eriode. Celle du Mersenne Twister est de 10
6000
.
Nous supposons donc que nous savons simuler la r´ealisation d’un ´echantillon de loi uni-
forme sur [0, 1], c’est `a dire une suite (u
n
, n ≥ 0) de r´ealisations (U
n
(ω), n ≥ 0) d’une suite
(U
n
, n ≥ 0) de variables al´eatoires ind´ependantes de mˆeme loi |([0, 1]), par exemple en
ex´ecutant la commande Random dans un programme. Nous allons d´ecrire trois m´ethodes
classiques de simulation d’autres lois de variables al´eatoires r´eelles `a partir de (U
n
).
2.4.1 M´ethode d’inversion de la fonction de r´epartition
On cherche `a simuler des r´ealisations de variables al´eatoires r´eelles (X
n
, n ≥ 1) ind´epen-
dantes de mˆeme loi de fonction de r´epartition F : R → [0, 1] d´efinie par F(t) = P(X
1
≤ t)
pour tout t ∈ R.
Proposition 2.28 Notons F
−1
:]0, 1[→R la pseudo-inverse de F d´efinie par
F
−1
(u) = inf¦t : F(t) ≥ u¦ pour tout u ∈]0, 1[ .
Alors si U suit une loi |(]0, 1[), F
−1
(U) a pour fonction de r´epartition F.
D´emonstration. Montrons tout d’abord que pour tout u ∈]0, 1[ et t ∈ R, F
−1
(u) ≤ t si
et seulement si u ≤ F(t). En effet, si u ≤ F(t), par d´efinition F
−1
(u) ≤ t. R´eciproquement,
11 novembre 2007 Probabilit´es 1 - Annie Millet
38 2 Formulation probabiliste
soit y > t ≥ F
−1
(u) ; alors, puisque F est croissante, F(y) ≥ u et puisque F est continue `a
droite, lorsque y > t converge vers t, on en d´eduit F(t) ≥ u. 2
Si la fonction de r´epartition F de X est explicite, on en d´eduit que (F
−1
(U
n
), n ≥ 1) est
un ´echantillon de la loi de X. Ceci fournit par exemple un algorithme de simulation lorsque
:
Cas 1. X ne prend qu’un nombre fini ou d´enombrable de valeurs On suppose
que les valeurs prises par X sont (a
i
, 0 ≤ i ≤ N) ordonn´ees par de fa¸ con croissante, et que
P(X = a
i
) = p
i
pour tout i. On calcule alors F
i
= p
0
+ + p
i
pour tout i et pour tout
u ∈]0, 1[ on note : F
−1
(u) = a
0
1
|u≤F
0
¦
+
¸
i≥1
a
i
1
|F
i−1
<u≤F
i
¦
.
Exemple d’une loi de Bernoulli de param`etre p : P(X = 0) = q = 1 − p et P(X =
1) = p . On en d´eduit la simulation de n variables al´eatoires ind´ependantes de mˆeme loi de
Bernoulli de param`etre p ∈]0, 1[ que l’on stocke dans le tableau X (en utilisant le fait que
si U suit une loi uniforme |([0, 1]), 1 −U suit aussi une loi |([0, 1])) :
Pour k = 1, ..., n
Si (Random < p)
X[k] ← 1
Sinon X[k] ← 0
Fin
X ne prend qu’un nombre fini de valeurs : Si X prend N + 1 valeurs, en d´ebut de
programme on calcule les valeurs de F
i
que l’on stocke dans un tableau F[i], i = 0, , N
et on stocke ´egalement les valeurs a
i
dans un tableau a[i]. La boucle critique est alors la
suivante :
i ← 0
U ← Random
Tantque (U > F[i])
i ← i + 1
Fin
X[k] ← a[i]
Cas 2. Loi c(λ) exponentielle de param`etre λ > 0 La densit´e de X est f(x) =
λ e
−λx
1
|x>0¦
et la fonction de r´epartition est donc F(t) = 0 si t ≤ 0 et F(t) = 1 −e
−λt
< 1
si t > 0. On en d´eduit pour u ∈ [0, 1[ : F
−1
(u) = −
ln(1−u)
λ
. Si U suit une loi |([0, 1]),
1 −U suit ´egalement une loi |([0, 1]) et on en d´eduit un algorithme de simulation d’une loi
exponentielle de param`etre λ :
X = −ln( Random )/λ
L’utilisation des lois exponentielles fournit une m´ethode de simulation de la loi de Poisson
de param`etre λ.
Proposition 2.29 Soit (E
i
, i ≥ 1) une suite de variables al´eatoires ind´ependantes de mˆeme
loi exponentielle de param`etre λ > 0 ; alors pour tout entier n ≥ 1,
p
n
= P (E
1
+ + E
n
≤ 1 < E
1
+ + E
n+1
) = e
−λ
λ
n
n!
.
Probabilit´es 1 - Annie Millet 11 novembre 2007
2.4 Simulation 39
D´emonstration : Pour tout entier n ≥ 1,
p
n
=

|x
1
+xn≤1<x
1
+x
n+1
¦
λ
n+1
exp

−λ(x
1
+ + x
n+1
)

dx
1
dx
n+1
=

|x
1
+xn≤1¦
λ
n
exp

−λ (x
1
+ + x
n
)

exp

−λ[1 −(x
1
+ x
n
)]

dx
1
dx
n
= e
−λ
λ
n

|x
1
+xn≤1¦
dx
1
dx
n
= e
−λ
λ
n
n!
. 2
On en d´eduit qu’en simulant des variables al´eatoires (U
i
, i ≥ 1) ind´ependantes et de mˆeme
loi |([0, 1]), si n d´esigne le premier entier tel que U
1
U
2
U
n+1
< e
−λ
, n suit une loi de
Poisson {(λ), d’o` u un algorithme de simulation d’une variable al´eatoire X de loi {(λ) :
a ← exp(−λ), X ← 0
U ← Random
Tantque (U > a) faire
U ← U∗ Random , X ← X + 1
Fin
2.4.2 M´ethode de rejet
On suppose tout d’abord que l’on sait simuler par l’algorithme / une variable al´eatoire
de loi uniforme sur un ensemble bor´elien D ⊂ R
d
(par exemple le carr´e ]−1, +1[
2
) et que l’on
veut simuler une variable al´eatoire de loi uniforme sur un sous-ensemble bor´elien C ⊂ D.
L’algorithme
Faire X ← /
Tantque C faux
Fin
Retourner X
donne une simulation de la loi uniforme sur C. En effet, soit (X
n
, n ≥ 1) une suite de
variables al´eatoires ind´ependantes de loi uniforme sur D et τ = inf¦n ≥ 1 : X
n
∈ C¦ ;
l’algorithme pr´ec´edent retourne la variable al´eatoire X
τ
telle que pour tout sous-ensemble
bor´elien B ⊂ C,
P(X
τ
∈ B) =

¸
k=1
P(¦τ = k¦ ∩ ¦X
k
∈ B¦) =

¸
k=1
P(X
1
∈ C)
k−1
P(X
k
∈ B)
=

¸
k=1

1 −
[C[
[D[

k−1
[B[
[D[
=
[B[
[D[
1
[C[
[D[
=
[B[
[C[
.
La figure suivante montre une m´ethode de rejet uniforme sur le cercle unit´e `a partir d’une
loi uniforme sur le carr´e [0, 1]
2
. Sur 10 000 points tir´es dans le carr´e, seuls 7 848 sont gard´es
car ils sont dans le cercle unit´e ; on a par ailleurs π/4 = 0, 785 398. Cette simulation a ´et´e
obtenue comme suit :
11 novembre 2007 Probabilit´es 1 - Annie Millet
40 2 Formulation probabiliste
−1.5 −1.2 −0.9 −0.6 −0.3 0.0 0.3 0.6 0.9 1.2 1.5
−1.060
−0.848
−0.636
−0.424
−0.212
0.000
0.212
0.424
0.636
0.848
1.060
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
. .
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
Faire U ← 2 ∗ Random −1, V ← 2 ∗ Random −1
Tantque (U ∗ U + V ∗ V > 1)
Fin
X ← U et Y ← V
D´ecrivons maintenant la m´ethode de rejet g´en´erale. L’id´ee de la m´ethode repose sur le
r´esultat suivant : Simuler une variable al´eatoire de densit´e f revient `a tirer un point au
hasard sous le graphe de f et retourner l’abscisse de ce point. En effet si (X, Y ) est une
variable al´eatoire de loi uniforme sous le graphe de la fonction f, alors pour tout t ∈ R,
P(X ≤ t) =

t
−∞

f(x)
0
dydx.
On veut simuler une variable al´eatoire X dont la loi a pour densit´e f et on suppose qu’il
existe une loi de densit´e g « facilement simulable » et une constante c > 0 telles que :
f(x) ≤ c g(x) , ∀x ∈ R.
Puisque f et g sont des densit´es, on a c ≥ 1. Ce r´esultat peut ˆetre g´en´eralis´e `a une densit´e
par rapport `a une mesure quelconque et justifie la m´ethode de rejet suivante :
Proposition 2.30 Soit f et g des densit´es telles que f ≤ c g ; notons q(x) =
f(x)
c g(x)
∈ [0, 1].
Soit Y
1
une variable al´eatoire de densit´e g et U
1
une variable al´eatoire de loi uniforme
|([0, 1]) ind´ependante de Y
1
. Si U
1
≤ q(Y
1
), on pose X = Y
1
. Sinon, on rejette X
1
et on
simule une suite de variables al´eatoires ind´ependantes Y
i
de densit´e g et U
i
de loi uniforme
|([0, 1]) jusqu’`a τ = inf¦i ≥ 1 : U
i
≤ q(Y
i
)¦ . Alors la variable al´eatoire X = Y
τ
a pour
densit´e f, τ suit une loi g´eom´etrique de param`etre
1
c
et E(τ) = c.
Probabilit´es 1 - Annie Millet 11 novembre 2007
2.4 Simulation 41
D´emonstration : Puisque f et g sont des densit´es de probabilit´e, on a :
P

U
1
> q(Y
1
)

=

+∞
−∞
g(y) dy

1
f(y)
c g(y)
du =

+∞
−∞

g(y) −
1
c
f(y)

dy = 1 −
1
c
.
On en d´eduit que pour tout entier k ≥ 1, P(τ = k) =

1 −
1
c

k−1
1
c
, tandis que pour tout
t ∈ R :
P(X ≤ t) =

¸
k=1

1 −
1
c

k−1

t
−∞
g(y) dy
f(y)
c g(y)
0
du
= c

t
−∞
g(y)
f(y)
cg(y)
dy =

t
−∞
f(y) dy .
Remarquons que cette m´ethode s’applique au cas o` u les variables al´eatoires X et Y ont
une densit´e par rapport `a une mˆeme mesure (qui n’est pas obligatoirement la mesure de
Lebesgue, mais peut ˆetre la mesure de comptage). 2
Application aux lois Gamma La m´ethode de rejet permet par exemple de simuler une
variable al´eatoire de loi Γ(λ, a), c’est `a dire de densit´e f(x) =
λ
a
Γ(a)
exp(−λ x) x
a−1
1
]0,+∞[
(x)
o` u λ et a sont des param`etres strictement positifs et Γ(a) =

+∞
0
e
−x
x
a−1
dx.
Si X et Y sont des variables al´eatoires ind´ependantes de loi Γ(λ, a) et Γ(λ, b) respecti-
vement, la variable al´eatoire X + Y suit une loi Γ(λ, a + b). De plus, la loi Γ(λ, 1) est une
loi exponentielle c(λ), ce qui entraˆıne qu’une variable al´eatoire de loi Γ(λ, n) avec n entier
sup´erieur ou ´egal `a 1 peut ˆetre ais´ement simul´ee comme somme de n variables al´eatoires
ind´ependantes de mˆeme loi exponentielle c(λ).
Un changement de variables montre enfin que si Y suit une loi Γ(1, a), la variable al´eatoire
X =
Y
λ
suit une loi Γ(λ, a).
D’apr`es ce qui pr´ec`ede, pour simuler toutes les lois Γ(λ, a), il suffit donc de savoir simuler
une variable al´eatoire de loi Γ(1, a) pour un param`etre a ∈]0, 1[ , ce qui est possible par la
m´ethode de rejet suivante de Ahrens et Dieter (1974) modifi´ee par B est (1983) (et qui ne
n´ecessitera pas de calculer Γ(a)).
Soit a ∈]0, 1[ et f(x) =
1
Γ(a)
e
−x
x
a−1
1
]0,+∞[
(x) et
g(x) =
a e
a + e

x
a−1
1
]0,1[
(x) + e
−x
1
[1,+∞[
(x)

;
alors f ≤
a+e
a e Γ(a)
g et pour tout x > 0 :
q(x) =
f(x)
a+e
a e Γ(a)
g(x)
= e
−x
1
]0,1[
(x) + x
a−1
1
[1,+∞[
(x) .
Soit Y une variable al´eatoire de densit´e g ; on peut ais´ement calculer la fonction de r´epartition
G de Y et son inverse est d´efinie pour z ∈]0, 1[ par :
G
−1
(z) =

a + e
e
z
1
a
1
]0,
e
a+e
[
(z) −ln

(1 −z)
a + e
a e

1
[
e
a+e
,1[
(z) .
(1) On simule une variable al´eatoire U de loi uniforme |([0, 1]), on calcule Y = G
−1
(U),
puis on simule V de loi uniforme |([0, 1]) ind´ependante de U.
(2) Si V ≤ q(Y ), on pose X = Y et sinon on retourne en (1).
11 novembre 2007 Probabilit´es 1 - Annie Millet
42 2 Formulation probabiliste
2.4.3 Simulation de variables al´eatoires gaussiennes
La fonction de r´epartition d’une loi gaussienne centr´ee r´eduite ^(0, 1) n’est pas explicite
et l’utilisation de cette fonction tabul´ee risque d’accumuler les erreurs. On dispose d’une
m´ethode de simulation « exacte » dite de Box-Muller. Si X
1
et X
2
sont des variables al´eatoires
gaussiennes ^(0, 1) centr´ees r´eduites ind´ependantes, alors les variables al´eatoires X
2
i
, i = 1, 2
sont ind´ependantes et un changement de variable montre qu’elles suivent une loi Gamma
Γ(
1
2
,
1
2
) de densit´e f(x) =
1

2 π
e

1
2
x
x

1
2
1
]0,+∞[
(x). La variable al´eatoire R
2
= X
2
1
+ X
2
2
suit
donc une loi exponentielle de param`etre
1
2
. Si on pose X
1
= R cos(θ) et X
2
= R sin(θ),
un changement de variable montre que θ suit une loi uniforme sur l’intervalle [0, 2π] et est
ind´ependante de R. On en d´eduit la
Proposition 2.31 Soit U
1
et U
2
des variables al´eatoires ind´ependantes de mˆeme loi uni-
forme |([0, 1]) ; alors les variables al´eatoires
X
1
=

−2 ln(U
1
) cos(2 π U
2
) et X
2
=

−2 ln(U
1
) sin(2 π U
2
)
sont gaussiennes ^(0, 1) ind´ependantes.
(On pourra montrer cette proposition directement `a titre d’exercice).
−6 −4 −2 0 2 4 6
0
0.04
0.08
0.12
0.16
0.20
0.24
0.28
0.32
0.36
0.40
Histogramme des echantillons par Box Muller
Valeurs
Densite
La figure ci-dessus montre l’histogramme de simulation de variables al´eatoires Gaus-
siennes ^(0, 1) `a l’aide de 10 000 couples de tirages uniformes ind´ependants par la m´ethode
de Box-Muller, ainsi que le graphe de la densit´e th´eorique.
Probabilit´es 1 - Annie Millet 11 novembre 2007
43
3 Esp´erance conditionnelle
Cette notion est fondamentale dans l’´etude de nombreux processus stochastiques (mar-
tingales, chaˆınes de Markov, mouvement brownien, ...) qui interviennent dans la mod´elisation
de beaucoup de ph´enom`enes, en particulier en finance.
Nous rechercherons d’abord la meilleure approximation d’une variable al´eatoire X, qui
« d´epend de toute l’information contenue dans la tribu T » par une autre variable al´eatoire
qui n’utilise qu’une « information plus restreinte » , c’est `a dire qui est est mesurable par
rapport `a une sous-tribu ( de T. C’est d´ej`a cette id´ee d’utilisation de l’information dont
on dispose qui est `a la base de la notion classique de probabilit´e conditionnelle. D’autre
part, nous avons vu que l’esp´erance d’une variable al´eatoire de carr´e int´egrable r´esout d´ej`a
cette question de meilleure approximation dans L
2
lorsque la tribu ( = ¦∅, Ω¦ est la tribu
triviale, par rapport `a laquelle les seules variables al´eatoires mesurables sont les constantes.
Nous allons voir que, dans un cas particulier, la r´esolution du probl`eme d’approximation
dans L
2
consiste `a calculer une esp´erance par rapport `a des probabilit´es conditionnelles.
Nous g´en´eraliserons ensuite cette notion hors du cadre de l’approximation dans L
2
: tout
comme l’esp´erance, nous d´efinirons l’esp´erance conditionnelle pour des variables al´eatoires
positives ou int´egrables et ´etendrons de nombreux r´esultats du premier chapitre `a ce contexte.
3.1 Probabilit´e conditionnelle
Rappelons la d´efinition :
D´efinition 3.1 Soit A ∈ T un ´ev`enement tel que P(A) > 0. Pour tout ´ev`enement B ∈ T,
la probabilit´e conditionnelle de B sachant A est d´efinie par
P(B/A) =
P(A∩ B)
P(A)
.
Il est facile de voir que B ∈ T → P(B/A) est une probabilit´e qui ne charge que les
sous-ensembles de A. Cette notion est un outil tr`es utile pour d´ecrire des ph´enom`enes
al´eatoires qui se d´eroulent s´equentiellement de telle sorte que la deuxi`eme exp´erience d´epend
du r´esultat de la premi`ere. Elle permet alors d’´eviter une description fastidieuse du mod`ele.
Par exemple on dispose de deux urnes U
1
et U
2
; chacune des urnes U
i
contient N
i
boules
noires et B
i
boules blanches. On choisit au hasard une urne dans laquelle on tire ensuite
une boule au hasard. Il est clair que dans ce cas, si A = ¦ω le tirage a lieu dans l’urne U
1
¦,
et B = ¦ω : on tire une boule noire ¦, P(B/A) =
N
1
N
1
+B
1
.
La Proposition suivante rassemble quelques propri´et´es utiles des probabilit´es condition-
nelles.
Proposition 3.2 (i) Soit (A
n
, n ≥ 1) une partition de Ω en ´ev`enements tels que P(A
n
) > 0
pour tout entier n. Alors pour tout B ∈ T,
P(B) =
¸
n
P(B/A
n
) P(A
n
).
(ii) Soit A ∈ T et B ∈ T des ´ev`enements tels que P(A) > 0, P(A
c
) > 0 et P(B) > 0.
Alors
P(A/B) =
P(B/A)P(A)
P(B/A)P(A) + P(B/A
c
)P(A
c
)
.
11 novembre 2007 Probabilit´es 1 - Annie Millet
44 3 Esp´erance conditionnelle
(iii) Soit (A
k
, 1 ≤ k ≤ n) une famille d’ensembles mesurables tels que P(∩
n−1
k=1
A
k
) > 0.
Alors
P (∩
n
k=1
A
k
) = P(A
1
)P(A
2
/A
1
)P(A
3
/A
1
∩ A
2
) P(A
n
/A
1
∩ ... ∩ A
n−1
).
3.2 Th´eor`eme de projection orthogonale
Ce th´eor`eme est une version infinie-dimensionnelle du th´eor`eme classique de projection
orthogonale de R
d
sur un sous-espace vectoriel de dimension strictement inf´erieure `a d. Il
permet de reformuler de fa¸ con ´equivalente le probl`eme de minimisation de la norme par des
contraintes d’orthogonalit´e qui sont techniquement beaucoup plus faciles `a manipuler.
Rappelons que l’ensemble L
2
:= L
2
(Ω, T, P) est un espace de Hilbert, c’est `a dire est
complet pour la norme |.|
2
associ´ee au produit scalaire d´efini par (1.17), qui dans le cas
particulier d’une probabilit´e s’´ecrit pour X ∈ L
2
et Y ∈ L
2
'X, Y ` = E(XY ). (3.1)
Th´eor`eme 3.3 (Th´eor`eme de projection orthogonale) (i) Soit H un sous-espace vectoriel
ferm´e de L
2
. Pour tout X ∈ L
2
, les propri´et´es suivantes sont ´equivalentes pour un ´el´ement
Π(X) ∈ H :
(a) |X −Π(X)|
2
= inf¦|X −Z|
2
: Z ∈ H¦.
(b) 'X −Π(X), Z` = 0 pour tout Z ∈ H.
(ii) Pour tout X ∈ L
2
, il existe un unique ´el´ement Π(X) ∈ H qui satisfait les propri´et´es (a)
ou (b), appel´e projection orthogonale de X sur H.
(iii) L’application X ∈ L
2
→ H d´efinie par X → Π(X) est lin´eaire et |Π(X)|
2
≤ |X|
2
.
D´emonstration. (i) Montrons tout d’abord que (a) entraˆıne (b). Soit Z ∈ H ; pour tout
λ ∈ R, Π(X) + λZ ∈ H, d’o` u
|X −Π(X)|
2
2
≤ |X −Π(X) −λZ|
2
2
= |X −Π(X)|
2
2
−2λ'X −Π(X), Z` + λ
2
|Z|
2
.
On e d´eduit que le trinˆome λ
2
|Z|
2
−2λ'X−Π(X), Z` ≥ 0 pour tout λ ∈ R; le discriminant
de ce trinˆome est donc n´egatif ou nul, ce qui entraˆıne (b).
R´eciproquement, supposons que (b) est vrai et soit Z ∈ H. Alors Π(X) −Z ∈ H et
|X −Z|
2
2
= |(X −Π(X)) + (Π(X) −Z)|
2
2
= |X −Π(X)|
2
2
+ 2'X −Π(X), Π(X) −Z` +|Π(X) −Z|
2
2
= |X −Π(X)|
2
2
+ |Π(X) −Z|
2
2
≥ |X −Π(X)|
2
2
.
(ii) Soit m = inf¦|X − Z|
2
2
: Z ∈ H¦ et pour tout n ≥ 1, soit Z
n
∈ H tel que
|X −Z
n
|
2
2
≤ m+
1
n
. L’identit´e du parall´elogramme
|a + b|
2
2
+|a −b|
2
2
= 2|a|
2
2
+ 2|b|
2
2
appliqu´ee `a a = X −Z
n
et b = X −Z
n+k
pour tous les entiers n ≥ 1 et k ≥ 1 et le fait que
1
2
(Z
n
+ Z
n+k
) ∈ H, montrent donc
4

X −
Z
n
+ Z
n+k
2

2
2
+|Z
n
−Z
n+k
|
2
2
= 2|X −Z
n
|
2
2
+ 2|X −Z
n+k
|
2
2
,
Probabilit´es 1 - Annie Millet 11 novembre 2007
3.2 Th´eor`eme de projection orthogonale 45
ce qui entraˆıne
|Z
n
−Z
n+k
|
2
2
≤ 2

m+
1
n

+ 2

m+
1
n + k

−4m ≤
4
n
.
La suite (Z
n
) est donc de Cauchy et converge dans L
2
vers une limite Π(X). Puisque H
est ferm´e, on en d´eduit que Π(X) ∈ H ; d’autre part |X − Π(X)|
2
2
= m. Soit Y ∈ H un
autre ´el´ement satisfaisant ´egalement |X − Y |
2
H
= m. Appliquons de nouveau l’identit´e du
parall´elogramme avec a = X −Π(X) et b = X −Y . Alors, puisque
Y +Π(X)
2
∈ H,
4m+|Y −Π(X)|
2
2
≤ 4

X −
Y + Π(X)
2

2
2
+|Y −Π(X)|
2
2
= 2|a|
2
2
+ 2|b|
2
2
= 2m+ 2m,
ce qui entraˆıne |Y −Π(X)|
2
2
= 0, c’est `a dire Y = Π(X).
(iii) Soit X, Y des variables al´eatoires de carr´e int´egrable et λ ∈ R. Alors, U = Π(X) +
λΠ(Y ) ∈ H et pour tout Z ∈ H
'(X + λY ) −

Π(X) + λΠ(Y )

, Z` = 'X −Π(X), Z` + λ'Y −Π(Y ), Z` = 0.
La caract´erisation de Π(X + λY ) donn´ee dans (b) montre alors que Π(X +λY ) = Π(X) +
λΠ(Y ).
Enfin, l’orthogonalit´e de Π(X) ∈ H et de X −Π(X) donn´ee par la propri´et´e (b) montre
que |X|
2
2
= |Π(X)|
2
2
+|X−Π(X)|
2
2
≥ |Π(X)|
2
2
, ce qui termine la d´emonstration. 2
Exemple 3.4 • Dans le cas particulier o` u H est le sous-espace vectoriel engendr´e par
la fonction 1, c’est `a dire l’ensemble des constantes, on retrouve le fait que la meilleure
approximation dans L
2
d’une variable al´eatoire de carr´e int´egrable par une constante est
son esp´erance E(X). L’erreur quadratique, E([X −E(X)[
2
) est la variance de X.
• Si X d´esigne une autre fonction de carr´e int´egrable, et si H d´esigne l’espace vectoriel de
L
2
engendr´e par les variables al´eatoires 1 et X, ou encore par les variables al´eatoires 1 et
X − E(X), on voit que H est de dimension inf´erieure ou ´egale `a deux et est donc ferm´e.
Dans ce cas, pour tout ´el´ement Y de L
2
, Π(Y ) = a + b

X − E(X)

et les constantes a et
b sont caract´eris´ees par les propri´et´es suivantes, qui consistent `a ´ecrire l’orthogonalit´e de
Y −Π(Y ) avec la famille g´en´eratrice de H form´ee par 1 et X −E(X) :
'Y −

a + b

X −E(X)

, 1` = E

Y −

a + b(X −E(X)

= 0 ,
'Y −

a + b

X −E(X)

, X −E(X)` = E

Y −(a + b(X −E(X))

[X −E(X)]

= 0.
On en d´eduit a = E(Y ) puis bV ar(X) = Cov(X, Y ).
Si X est presque sˆ urement constante, alors H est de dimension 1 (l’ensemble des variables
al´eatoires constantes) et par unicit´e de la projection orthogonale Π(Y ) = E(Y ) et b est
arbitraire (si Π(Y ) est unique, il n’y a pas unicit´e de la d´ecomposition dans la famille
g´en´eratrice qui n’est pas une base puisque puisque X −E(X) = 0).
Si X n’est pas presque sˆ urement constante, V ar(X) > 0 et b =
Cov(X,Y )
V ar(X)
. On retrouve la
r´egression lin´eaire de Y par X, soit
Π(Y ) = E(Y ) +
Cov(X, Y )
V ar(X)

X −E(X)

.
11 novembre 2007 Probabilit´es 1 - Annie Millet
46 3 Esp´erance conditionnelle
De plus |Y − Π(Y )|
2
2
= V ar(Y )

1 − ρ
2
(X, Y )

, o` u ρ(X, Y ) =
Cov(X,Y )

V ar(X)V ar(Y )
∈ [−1, +1]
d’apr`es l’in´egalit´e de Schwarz. On en d´eduit que si X et Y sont corr´el´ees, |Y − Π(Y )|
2
2
<
V ar(Y ), c’est `a dire que l’utilisation de X a permis de diminuer l’erreur quadratique de
l’approximation de Y . Par contre, si X et Y sont ind´ependantes, ou plus g´en´eralement si
elles ne sont pas corr´el´ees, l’utilisation de X n’a pas am´elior´e la qualit´e de l’approximation
de Y .
3.3 Construction de l’esp´erance conditionnelle E(X/()
On dit qu’une variable al´eatoire Y : Ω → R
d
est (-mesurable si Y
−1
(1
d
) ⊂ (. Le but
de cette section est de g´en´eraliser les exemples pr´ec´edents dans deux directions.
D’une part, dans le cas particulier ( = σ(X), on voudrait approximer en norme |.|
2
la variable al´eatoire Y ∈ L
2
par une variable al´eatoire σ(X)-mesurable, c’est `a dire par
une fonction bor´elienne (non n´ecessairement affine) de X. Plus g´en´eralement, on cherche
la meilleure approximation dans L
2
de Y par une variable al´eatoire (-mesurable de carr´e
int´egrable, c’est `a dire qui ne d´epend que de l’information d´ecrite par la sous-tribu (.
Ce probl`eme apparaˆıt naturellement dans l’´etude des processus al´eatoires, c’est `a dire de
familles de variables al´eatoires (X
n
, n ≥ 0) ou (X
t
, t ∈ [0, 1]) qui d´ependent du temps.
Dans ces mod`eles, le param`etre n ∈ N ou t ∈ [0, 1] repr´esente l’instant auquel on fait
l’observation et l’´evolution du ph´enom`ene est telle que ce qu’on observe `a un instant n’est
pas ind´ependant de ce qu’on a observ´e avant. La « grosse » tribu T contient l’information sur
toutes les observations tandis que la « petite » tribu ( ne contient que l’information jusqu’`a
un instant n
0
ou bien t
0
< 1. L’esp´erance conditionnelle est souvent l’outil qui permet de
d´ecrire l’´evolution dans le temps.
D’autre part, on aimerait pour des raisons techniques d´efinir l’esp´erance conditionnelle
pour des variables al´eatoires Y qui ne sont pas n´ecessairement de carr´e int´egrable, ce qui ne
r´esoudra plus un probl`eme de minimisation de la norme |.|
2
. Cette derni`ere g´en´eralisation
est naturelle, car nous verrons que dans le cas particulier o` u ( = σ(X), l’esp´erance condi-
tionnelle d’une variable al´eatoire positive ou int´egrable se ram`ene `a celui de son « esp´erance
pour la loi conditionnelle de Y sachant X = x ».
Commen¸ cons par d´efinir l’esp´erance conditionnelle lorsque X ∈ L
2
Th´eor`eme 3.5 Soit ( une sous-tribu de T et X une variable al´eatoire r´eelle de carr´e
int´egrable. Il existe une variable al´eatoire not´ee E
C
(X) ou encore E(X/() (unique `a ´equi-
valence pr`es), (-mesurable, de carr´e int´egrable, telle que pour toute variable al´eatoire (-
mesurable Z de carr´e int´egrable,
E(XZ) = E(E
C
(X)Z). (3.2)
Cette variable al´eatoire est appel´ee l’esp´erance conditionnelle de X sachant (.
D´emonstration. On applique de nouveau le th´eor`eme de projection orthogonale `a l’en-
semble H des ´el´ements de L
2
dont au moins un repr´esentant est (-mesurable. Comme
H = L
2
(Ω, (, P), c’est un espace complet et il est donc ferm´e. Par l’abus de langage usuel,
on identifiera la classe de la projection orthogonale de X sur H, qui appartient `a H, avec un
repr´esentant (-mesurable (qui est donc unique `a ´equivalence pr`es) not´e E
C
(X) et l’´equation
(3.2) n’est que la traduction de la propri´et´e (b) du th´eor`eme de projection orthogonale 3.3.
2
Probabilit´es 1 - Annie Millet 11 novembre 2007
3.3 Construction de l’esp´erance conditionnelle E(X/() 47
Pour ´etendre cette d´efinition au cas o` u X est positive ou int´egrable, il faut r´esoudre deux
probl`emes : l’existence et l’unicit´e de l’extension.
L’unicit´e dans un cadre positif ou int´egrable demande une caract´erisation, `a ´equivalence
pr`es, par int´egration contre des fonctions indicatrices (et plus g´en´eralement contre des va-
riables al´eatoires de carr´e int´egrable). Ceci est assur´e par le lemme suivant.
Lemme 3.6 Soit X et Y des variables al´eatoires (-mesurables et toutes deux positives, soit
toutes deux int´egrables telles que E(1
A
X) ≤ E(1
A
Y ) (resp. E(1
A
X) = E(1
A
Y )) pour tout
A ∈ (. Alors X ≤ Y p.s. (resp. X = Y p.s.).
D´emonstration. Pour tout a < b, notons F(a, b) = ¦Y ≤ a < b ≤ X¦. Alors ¦Y < X¦ =

a<b,a,b∈Q
F(a, b) et il suffit donc de prouver que P(F(a, b)) = 0 pour tout a < b. Supposons
que P(F(a, b)) > 0 ; alors
E(1
F(a,b)
Y ) ≤ aP(F(a, b)) < bP(F(a, b)) ≤ E(1
F(a,b)
X),
ce qui fournit une contradiction. L’´egalit´e p.s. est obtenue en ´echangeant X et Y . 2
Le r´esultat suivant permet de montrer l’existence des extensions annonc´ees.
Th´eor`eme 3.7 Soit X une variable al´eatoire positive (resp. int´egrable). Alors il existe une
variable al´eatoire positive (resp. int´egrable) unique ` a une ´equivalence pr`es, telle que
E(1
A
X) = E(1
A
E
C
(X)) , ∀A ∈ (. (3.3)
D´emonstration. L’unicit´e vient du Lemme 3.6 et il suffit donc de prouver l’existence.
Soit X ≥ 0 et pour tout n, X
n
= X ∧ n ∈ L
2
. D’apr`es le Th´eor`eme 3.5 pour tout
entier n ≥ 1, E
C
(X
n
) ∈ L
2
est telle que pour tout A ∈ (, E(1
A
X
n
) = E(1
A
E
C
X
n
).
Puisque la suite X
n
est croissante, pour tout A ∈ ( et tout n ≥ 1, E(1
A
X
n
) ≤ E(1
A
X
n+1
),
d’o` u E(1
A
E
C
(X
n
)) ≤ E(1
A
E
C
(X
n+1
)). En utilisant le Lemme 3.6, on en d´eduit que la
suite E
C
(X
n
) est presque sˆ urement croissante. Elle converge donc presque sˆ urement vers
une variable al´eatoire (-mesurable, positive, not´ee Y . De plus, le th´eor`eme de convergence
monotone entraˆıne que pour tout A ∈ (, E(1
A
Y ) = lim
n
E(1
A
E
C
(X
n
)) = lim
n
E(1
A
X
n
) =
E(1
A
X). On en d´eduit que Y = E
C
(X). De plus, si X est int´egrable, lorsque A = Ω on
d´eduit que E
C
(X) est ´egalement int´egrable.
Soit X = X
+
−X

∈ L
1
. Alors, les variables al´eatoires X
+
et X

sont positives ou nulles
et int´egrables ; les deux variables al´eatoires E
C
(X
+
) et E
C
(X

) sont donc aussi int´egrables
(et donc p.s. finies) et (-mesurables. Il suffit donc de poser E
C
(X) = E
C
(X
+
) − E
C
(X

).
2
La proposition suivante rassemble des cons´equences imm´ediates du Th´eor`eme 3.7 et du
Lemme 3.6 et g´en´eralise les propri´et´es usuelles de l’esp´erance. Sa d´emonstration est laiss´ee
en exercice.
Proposition 3.8 (i) E
C
(1) = 1 et si ( = ¦∅, Ω¦, E
C
(X) = E(X) p.s. pour toute variable
al´eatoire X positive ou int´egrable.
(ii) Pour X, Y int´egrables, a, b ∈ R (resp. pour X, Y positives, a, b ∈ [0, +∞[),
E
C
(aX + bY ) = aE
C
(X) + bE
C
(Y ) p.s.
(iii) Pour X ≤ Y int´egrables (resp. positives), E
C
(X) ≤ E
C
(Y ).
(iv) Pour toute variable al´eatoire X int´egrable ou positive, E

E
C
(X)

= E(X).
11 novembre 2007 Probabilit´es 1 - Annie Millet
48 3 Esp´erance conditionnelle
La proposition suivante montre une caract´erisation de E
C
(X) similaire `a celle de (3.2)
d`es que les termes de l’´egalit´e ont un sens.
Proposition 3.9 (i) Soit X une variable al´eatoire positive. Alors pour toute variable al´eatoire
Z positive et (-mesurable,
E

ZE
C
(X)

= E(ZX) . (3.4)
(ii) Soit X une variable int´egrable. Alors pour toute variable al´eatoire Z born´ee (-
mesurable, l’´equation (3.4) est satisfaite.
D´emonstration. Soit X ≥ 0 ; alors E
C
(X) ≥ 0 p.s. et l’´equation (3.3) montre que (3.4)
est vraie si Z = 1
A
et A ∈ (. Par lin´earit´e de E
C
(propri´et´e (ii) de la Proposition 3.8),
l’´equation (3.4) est encore vraie si Z est ´etag´ee positive. Enfin le th´eor`eme de convergence
monotone 1.23 appliqu´e aux deux membres de l’´equation (3.4) ainsi que le Th´eor`eme 1.9
permettent de conclure.
Si X est int´egrable, il suffit d’appliquer le point (i) en d´ecomposant X = X
+
− X

et
Z = Z
+
−Z

et d’observer que les quatre int´egrales que l’on obtient sont finies. 2
3.4 Loi conditionnelle et E(Y/X)
Cette section va traiter le probl`eme de l’approximation de Y par une fonction mesurable
(non n´ecessairement affine) de X et plus g´en´eralement le cas particulier de l’esp´erance
conditionnelle sachant la tribu ( = σ(X). Soit X : Ω →R
d
un vecteur al´eatoire. L’espace H
auquel nous allons appliquer le th´eor`eme de projection orthogonale est H = L
2
(Ω, σ(X), P),
c’est `a dire l’espace vectoriel des (classes de) variables al´eatoires de carr´e int´egrable dont un
repr´esentant est mesurable par rapport `a la tribu engendr´ee par X, soit σ(X) = ¦X
−1
(B) :
B ∈ 1
d
¦. Dans la suite, nous identifierons souvent un repr´esentant σ(X) mesurable et sa
classe. Nous ´etendrons ensuite cette notion au cas de variables al´eatoires Y positives ou
int´egrables.
3.4.1 D´efinition
Comme H est un espace L
2
pour la tribu σ(X), il est complet pour la norme |.|
2
; c’est
donc un sous-espace ferm´e de L
2
= L
2
(Ω, T, P). Le lemme suivant caract´erise les variables
al´eatoires Y : Ω →R
r
qui sont mesurables par rapport `a σ(X).
Lemme 3.10 Pour tout vecteur al´eatoire X : Ω → R
d
, un vecteur al´eatoire Y : Ω → R
r
est mesurable par rapport `a la tribu σ(X), c’est `a dire Y
−1
(1
r
) ⊂ σ(X), si et seulement s’il
existe une fonction bor´elienne ϕ : R
d
→R
r
telle que Y = ϕ(X).
D´emonstration. Puisque la mesurabilit´e dans un espace produit pour la tribu produit est
´equivalente `a celle de chaque composante (cf. la Remarque 1.50, (ii)), il suffit de v´erifier ce
lemme lorsque r = 1.
Si A = X
−1
(B) avec B ∈ 1, la fonction indicatrice de A s’´ecrit 1
A
= 1
B
◦ X. On en
d´eduit que si Y =
¸
n
i=1
a
i
1
X
−1
(A
i
)
est une fonction ´etag´ee sur σ(X), alors Y = ϕ ◦ X avec
ϕ =
¸
n
i=1
a
i
1
B
i
. Si Y est σ(X)-mesurable positive, en l’approximant par une suite croissante
de fonctions ´etag´ees sur la tribu σ(X) (cf. Th´eor`eme 1.9), on en d´eduit qu’il existe une
fonction bor´elienne positive ϕ telle que Y = ϕ ◦ X ; en d´ecomposant Y = Y
+
− Y

, on en
d´eduit que cette ´egalit´e s’´etend enfin `a une variable al´eatoire Y de signe quelconque. 2
Probabilit´es 1 - Annie Millet 11 novembre 2007
3.4 Loi conditionnelle et E(Y/X) 49
Le Th´eor`eme 3.5 montre donc que pour tout vecteur al´eatoire X : Ω → R
d
et toute
variable al´eatoire Y : Ω → R de carr´e int´egrable, il existe une unique (`a ´equivalence pr`es)
variable al´eatoire ϕ ◦ X ∈ H telle que pour toute fonction bor´elienne ψ : R
d
→ R, si
E(ψ(X)
2
) < +∞, alors 'Y −ϕ(X), ψ(X)` = 0, c’est `a dire E(Y ψ(X)) = E(ϕ(X)ψ(X)).
Le Th´eor`eme 3.7 montre enfin que pour tout vecteur al´eatoire X : Ω → R
d
et toute
variable al´eatoire Y : Ω →R positive ou int´egrable, il existe une unique (`a ´equivalence pr`es)
variable al´eatoire ϕ ◦ X positive ou int´egrable telle que pour B ∈ 1
d
E

Y 1
B
(X)

= E

ϕ(X)1
B
(X)

. (3.5)
Convention de notation L’esp´erance conditionnelle d’une variable al´eatoire Y positive
ou int´egrable sachant la tribu σ(X) est appel´ee esp´erance conditionnelle de Y sachant X
et not´ee E(Y/X). De plus, la fonction bor´elienne ϕ telle que E(Y/X) = ϕ ◦ X est not´ee
x → E(Y/X = x). Le Th´eor`eme 3.7 la Proposition 3.9 montrent que la fonction bor´elienne
x → E(Y/X = x) est caract´eris´ee (`a une ´equivalence pr`es) par les deux propri´et´es suivantes
si Y est positive (ou int´egrable) :
E(Y/X = x) ≥ 0 (resp. E

E(Y/X = x) ◦ X

< +∞. ) (3.6)
E

Y ψ(X)

= E

E(Y/X = x) ◦ Xψ(X)

, ∀ψ : R
d
→R positive (resp. born´ee) (3.7)
Il faut concr`etement calculer E(Y/X), c’est `a dire x → E(Y/X = x). Remarquons que
puisque cette fonction est ensuite compos´ee avec X, il est suffisant de la calculer pour les
valeurs x ∈ R
d
effectivement prises par X. Plus pr´ecis´ement, si P(X ∈ A) = 0 pour un
ensemble A ∈ 1
d
, alors on peut poser E(Y/X = x) = 0 si x ∈ A.
Nous ne ferons les calculs explicites que dans deux cas particuliers simples, mais couvrant
de tr`es nombreuses situations.
3.4.2 Cas d’une variable al´eatoire X prenant un nombre fini ou d´enombrable de
valeurs.
Pour all´eger les notations, nous supposerons que X : Ω → N et cherchons ϕ : N → R
telle que E(Y/X) = ϕ ◦ X. D’apr`es la remarque pr´ec´edente il suffit de calculer ϕ(n) pour
tous les entiers n tels que P(X = n) > 0 pour en d´eduire
E(Y/X) =
¸
n:P(X=n)>0
ϕ(n)1
|n¦
.
Fixons donc k ∈ N tel que P(X = k) > 0 et soit ψ
k
= 1
|k¦
la fonction indicatrice du
singleton ¦k¦. Alors ψ
k
≥ 0, E(ψ
k
(X)
2
) = P(X = k) < +∞ et d’apr`es (3.4),
E

Y 1
|X=k¦

=
¸
n:P(X=n)>0
E

ϕ(n)1
|X=n¦
1
|X=k¦

.
On en d´eduit E(Y 1
|X=k¦
) = ϕ(k)P(X = k), ce qui entraˆıne
E(Y/X) =
¸
k
E

Y 1
|X=k¦

P(X = k)
1
|X=k¦
,
11 novembre 2007 Probabilit´es 1 - Annie Millet
50 3 Esp´erance conditionnelle
o` u par convention les quotients apparaissant dans le membre de droite de cette ´egalit´e sont
nuls si P(X = k) = 0. On voit donc que sur chaque ensemble ¦X = k¦, E(Y/X = k) =
E

Y 1
{X=k}

P(X=k)
est l’esp´erance de Y pour la probabilit´e conditionnelle P(./X = k). En effet,
cette propri´et´e est imm´ediate si Y = 1
A
, A ∈ T, puis s’´etend aux variables al´eatoires ´etag´ees
par lin´earit´e, aux variables al´eatoires positives par convergence monotone, puis aux variables
al´eatoires int´egrables par diff´erence des parties positive et n´egative.
Plus g´en´eralement, soit Y : Ω → R
r
un vecteur al´eatoire et φ : R
r
→ R une fonction
bor´elienne telle que φ ≥ 0 ou φ ◦ Y ∈ L
1
. Le calcul pr´ec´edent appliqu´e `a φ(Y ) au lieu de Y
montre que
E(φ(Y )/X) =
¸
k
E

φ(Y )1
|X=k¦

P(X = k)
1
|X=k¦
. (3.8)
De nouveau, pour calculer la valeur de
E

φ(Y )1
{X=k}

P(X=k)
, il suffit de disposer de la loi de Y
sachant X = k. Ainsi, lorsque la variable al´eatoire Y est discr`ete elle aussi,
E(φ(Y )/X) =
¸
k

¸
n
φ(n)P(Y = n/X = k)

1
|X=k¦
.
On peut aussi supposer que la loi conditionnelle de Y sachant X = k a une densit´e g
k
par
rapport `a la mesure de Lebesgue. Dans ce cas, la variable al´eatoire Y prend des valeurs
r´eelles et pour tout ensemble bor´elien A ∈ 1 et tout entier k, l’´egalit´e
P(X = k, Y ∈ A) := P(¦X = k¦ ∩ ¦Y ∈ A¦) = P(X = k)

A
g
k
(y)dy
d´ecrit la loi du couple (X, Y ). Dans ce cas,
E(φ(Y )/X) =
¸
k

φ(y)g
k
(y)dy
P(X = k)
1
|X=k¦
.
Exemple 3.11 Soit X et Y des variables al´eatoires ind´ependantes de loi de Poisson de
param`etre respectivement λ et µ. On veut calculer la loi de X sachant la somme S = X+Y
qui suit une loi de Poisson de param`etre λ +µ. Pour tout couple d’entiers n ≥ k ≥ 0 il faut
calculer
P(X = k[X+Y = n) =
P(X = k, Y = n −k)
P(X + Y = n)
=
e
−λ
λ
k
e
−µ
µ
n−k
n!
k!(n −k)!e
−(λ+µ)
(λ + µ)
n
= C
k
n
p
k
(1−p)
n−k
,
avec p =
λ
λ+µ
.
La loi de X sachant X + Y = n est donc binomiale B(n, p) et E(X[X + Y = n) = np,
ce qui entraˆıne imm´ediatement E(X[S) = pS. Un calcul similaire `a partir de la l’esp´erance
et de la variance d’une binomiale donne E(X
2
[S) = p
2
S
2
+ p(1 −p)S.
Probabilit´es 1 - Annie Millet 11 novembre 2007
3.4 Loi conditionnelle et E(Y/X) 51
3.4.3 Cas o` u le couple (X, Y ) a une densit´e - Densit´e conditionnelle
Soit X : Ω → R
d
et Y : Ω → R
r
des vecteurs al´eatoires tels que le couple (X, Y ) a la
densit´e f(x, y) par rapport `a la mesure de Lebesgue sur 1
d+r
et soit φ : R
r
→R une fonction
bor´elienne telle que φ ≥ 0 ou φ(Y ) est int´egrable. On veut calculer E[φ(Y )/X]. Tout d’abord,
d’apr`es (2.18), le vecteur X a pour densit´e g(x) =

R
r
f(x, y)dλ
r
(y) =

R
r
f(x, y)dy. Par
analogie avec la probabilit´e conditionnelle, si (x, y) → f(x, y) est continue et si ∆(x) et ∆(y)
sont de « petits » pav´es centr´es en x et y respectivement et P[X ∈ ∆(x)] ∼ g(x)λ
d
(∆(x)) >
0, on a P

(X, Y ) ∈ ∆(x) ∆(y)/X ∈ ∆(x)


f(x,y)λ
d
(∆(x))λr(∆(y))
g(x)λ
d
(∆(x))
=
f(x,y)
g(x)
λ
r
(∆(y)). On en
d´eduit la d´efinition suivante :
D´efinition 3.12 Soit X : Ω → R
d
et Y : Ω → R
r
des vecteurs al´eatoires tels que le
couple (X, Y ) a la densit´e f(x, y) par rapport `a la mesure de Lebesgue sur 1
d+r
et soit
g(x) =

R
r
f(x, y)dy la densit´e de X. Alors pour tout x ∈ R
d
tel que g(x) > 0, la densit´e
conditionnelle de Y sachant X = x est la fonction
q(y/x) :=
f(x, y)
g(x)
=
f(x, y)

f(x, y)dy
. (3.9)
Remarquons que si g(x) > 0,

R
r
q(y/x)dy = 1, ce qui justifie la terminologie.
Le th´eor`eme suivant montre que pour calculer E(φ(Y )/X = x) on proc`ede formellement
comme pour calculer E(φ(Y )) en rempla¸ cant la densit´e de Y par la densit´e conditionnelle
de Y sachant X = x.
Th´eor`eme 3.13 Soit X : Ω → R
d
et Y : Ω →R
r
des vecteurs al´eatoires tels que le couple
(X, Y a la densit´e f(x, y) par rapport `a la mesure de Lebesgue sur 1
d+r
et φ : R
d+r
→R une
fonction bor´elienne telle que φ ≥ 0 ou φ ◦ (X, Y ) ∈ L
1
. Alors pour λ
d
-presque tout x ∈ R
d
tel que g(x) =

R
r
f(x, y)dy > 0, si q(y/x) d´esigne la densit´e conditionnelle de Y sachant
X = x,
E(φ(X, Y )/X = x) =

R
d
φ(x, y) q(y/x)dy =

R
d
φ(x, y)
f(x, y)

f(x, y)dy
dy. (3.10)
De plus, si on pose E(φ(X, Y )/X = x) = 0 si g(x) = 0, alors
E(φ(X, Y )/X) = E(φ(X, Y )/X = x) ◦ X.
D´emonstration. Pour tout B ∈ 1
d
, la caract´erisation de ϕ(x) = E(φ(X, Y )/X = x)
donn´ee par (3.3) et le th´eor`eme de Fubini-Lebesgue 1.54 montrent que
E[ϕ(X)1
B
(X)] =

B
ϕ(x)g(x)dx = E[φ(X, Y )1
B
(X)]
=

B

R
r
φ(x, y)f(x, y)dy

dx =

B

R
r
φ(x, y)q(y/x)dy

g(x)dx.
La Proposition 1.35 (iii) appliqu´ee `a la mesure de Lebesgue λ
d
sur R
d
entraˆıne que si
α(x) = ϕ(x) −

R
r
φ(x, y)q(y/x)dy, la fonction g(x)α(x) est nulle presque partout, c’est `a
dire que α(x) = 0 pour λ
d
-presque tout x tel que g(x) > 0. Ceci termine la d´emonstration.
2
11 novembre 2007 Probabilit´es 1 - Annie Millet
52 3 Esp´erance conditionnelle
Un calcul similaire au pr´ec´edent montre d’ailleurs qu’avec les notations du Th´eor`eme
3.13, si φ : R
d+r
→ [0, +∞[ est bor´elienne,
E[φ(X, Y )[X = x) =

R
d
φ(x, y) q(y/x)dy =

R
d
φ(x, y)
f(x, y)

f(x, y)dy
dy.
Dans le cas particulier o` u X et Y sont ind´ependantes, de densit´es respectives g et h,
alors f(x, y) = g(x)h(y), d’o` u q(y/x) = h(y) et E(φ(Y )/X) = E(φ(Y )). On en d´eduit
de nouveau que X ne sert pas pour am´eliorer l’approximation dans L
2
d’une fonction de
Y puisque d`es que φ(Y ) appartient `a L
2
, ou plus g´en´eralement est positive ou int´egrable,
E(φ(Y )/X) = E[φ(Y )].
Exemple 3.14 Soit X et Y des variables al´eatoires ind´ependantes de mˆeme loi exponen-
tielle de param`etre λ > 0. On veut calculer la loi conditionnelle de X sachant S = X + Y .
Calculons la densit´e du couple (X, S), soit f(x, s). La densit´e du couple (X, Y ) est le produit
des densit´es de X et de Y , et si D = ¦(x, s) : 0 < x < s¦ l’application Φ :]0, +∞[
2
→ D
d´efinie par Φ(x, y) = (x, x + y) est un (
1
-diff´eomorphisme. Le jacobien de l’application
r´eciproque calcul´e au point (x, s) ∈ D est 1. La formule de changement de variables entraˆıne
donc que pour toute fonction bor´elienne positive ϕ : R
2
→ [0, +∞[,
E(ϕ(X, S)) =

]0,+∞[
2
ϕ(x, x + y)λ
2
e
−λ(x+y)
dxdy
=

D
ϕ(x, s)λ
2
e
−s
dxds.
Le couple (X, S) a donc comme densit´e la fonction f(x, s) = λ
2
e
−s
1
|0<x<s¦
. La densit´e
marginale de S est donc λ
2
se
−λs
1
[0,+∞[
(s) et on retrouve bien une loi gamma Γ(1, 2). Si
s > 0, la densit´e conditionnelle de X sachant S = s est q(x[s) =
1
s
1
]0,s[
(x). C’est une loi
uniforme sur l’intervalle ]0, s[. On en d´eduit que pour s > 0, E(X[S = s) =
s
2
et que
E(X[S) =
S
2
. De mˆeme, E(X
p
[S) =
S
p
p+1
pour tout nombre r´eel p ≥ 1.
Un raisonnement direct aurait pu donner la valeur de E(X[S), mais pas l’esp´erance condi-
tionnelle de toute fonction bor´elienne de X positive ou int´egrable. Les variables al´eatoires
X et Y « jouent des rˆoles sym´etriques », ce qui entraˆıne que E(X[X + Y ) = E(Y [X + Y ).
Puisque E(.[X+Y ) est lin´eaire, X+Y = E(X+Y [X+Y ) = 2E(X[X+Y ), ce qui permet,
sans calcul fastidieux de loi conditionnelle et pour tout couple de variables al´eatoires r´eelles
int´egrables ind´ependantes et de mˆeme loi, de montrer que E(X[X + Y ) =
X+Y
2
.
3.4.4 Application ` a la simulation
La notion pr´ec´edente de loi conditionnelle permet de simuler des vecteurs al´eatoires (X
1
, ,
X
n
) dont les composantes ne sont pas ind´ependantes. En effet, il suffit de simuler la premi`ere
composante X
1
par les m´ethodes de la section 2.4 ; on en d´eduit x
1
∈ R. On simule ensuite
la loi conditionnelle de X
2
sachant X
1
= x
1
, qui est de nouveau une probabilit´e sur 1; cela
fournit x
2
∈ R. On simule ensuite la loi conditionnelle de X
3
sachant (X
1
, X
2
) = (x
1
, x
2
), et
ainsi de suite jusqu’`a la simulation de la loi conditionnelle de X
n
sachant (X
1
, , X
n−1
) =
(x
1
, , x
n−1
).
Probabilit´es 1 - Annie Millet 11 novembre 2007
3.5 Propri´et´es de l’esp´erance conditionnelle 53
3.5 Propri´et´es de l’esp´erance conditionnelle
Nous montrons ici des propri´et´es de l’esp´erance conditionnelle E
C
par rapport `a une
sous-tribu quelconque ( de T ; elles sont bien sˆ ur aussi vraies dans le cas de l’esp´erance
conditionnelle par rapport `a une variable al´eatoire.
3.5.1 Diverses g´en´eralisations des propri´et´es de l’esp´erance
La premi`ere proposition montre que les variables al´eatoires (-mesurables se comportent
par rapport `a E
C
comme les constantes par rapport `a l’esp´erance.
Proposition 3.15 Soit X et Y des variables al´eatoires positives (ou bien telles que Y et
XY sont int´egrables) et X est (-mesurable. Alors
E
C
(XY ) = X E
C
(Y ) p.s. (3.11)
D´emonstration. Supposons que X et Y sont positives. Alors pour tout A ∈ (, 1
A
X est (-
mesurable positive. La proposition 3.9 montre alors que E

1
A
X

E
C
(Y )

= E

1
A
X

Y

=
E

1
A
(XY )

. On en d´eduit que la fonction (-mesurable positive X E
C
(Y ) est p.s. ´egale `a
E
C
(XY ). Lorsque X et Y sont de signe quelconque, il suffit d’´ecrire X = X
+
− X

et
Y = Y
+
−Y

. 2
Proposition 3.16 Soit ( ⊂ H des sous-tribus de T et X une variable al´eatoire positive ou
int´egrable. Alors
E
C

E
1
(X)

= E
C
(X) p.s. (3.12)
En particulier E

E
1
(X)

= E(X) pour toute variable al´eatoire X positive ou int´egrable.
D´emonstration. Soit X positive et Y = E
C

E
1
(X)

. Alors Y est (-mesurable positive
et pour tout A ∈ ( ⊂ H,
E(1
A
Y ) = E(1
A
E
1
(X)) = E(1
A
X),
ce qui entraˆıne que Y = E
C
(X) p.s. On ´etend cette ´egalit´e au cas X int´egrable en d´ecomposant
X = X
+
− X

. Puisque ( = ¦∅, Ω¦ ⊂ H pour toute sous-tribu H de T, la proposition 3.8
(i) permet de conclure que E

E
1
(X)

= E(X). 2
Le r´esultat suivant est une in´egalit´e de Schwarz conditionnelle.
Proposition 3.17 Soit X ∈ L
2
et Y ∈ L
2
. Alors [E
C
(XY )[
2
≤ E
C
(X
2
) E
C
(Y
2
) p.s.
D´emonstration. Pour tout a ∈ R il existe un ensemble n´egligeable N
a
tel que
0 ≤ E
C

(aX + Y )
2

= a
2
E
C
(X
2
) + 2aE
C
(XY ) + E
C
(Y
2
) sur N
c
a
.
L’ensemble N = ∪
a∈Q
N
a
est encore n´egligeable et l’´egalit´e pr´ec´edente est vraie sur N
c
pour
tous les nombres rationnels a et donc par continuit´e pour tous les nombres r´eels a. On en
d´eduit que le discriminant de ce trinˆome est presque sˆ urement n´egatif ou nul, ce qui termine
la d´emonstration. 2
Le r´esultat suivant est une g´en´eralisation de l’in´egalit´e de Jensen. Il permet de montrer
que E
C
contracte chaque norme |.|
p
.
11 novembre 2007 Probabilit´es 1 - Annie Millet
54 3 Esp´erance conditionnelle
Proposition 3.18 (i) Soit f : R → R une fonction convexe et X une variable al´eatoire
telle que X et f(X) sont int´egrables. Alors f

E
C
(X)

≤ E
C
(f(X)) p.s.
(ii) Pour tout p ∈ [1, +∞[ et X ∈ L
p
, [E
C
(X)[
p
≤ E
C
([X[
p
) p.s. et pour tout p ∈ [1, +∞]
|E
C
(X)|
p
≤ |X|
p
. L’esp´erance conditionnelle est donc une contraction de chaque espace
L
p
, 1 ≤ p ≤ +∞.
D´emonstration. (i) Pour tout x ∈ R il existe une droite passant par le point (x, f(x)) situ´ee
au-dessous du graphe de f, c’est `a dire une fonction affine y → g
x
(y) = α
x
(y − x) + f(x)
telle que g
x
(y) ≤ f(y) pour tout y ∈ R. En consid´erant la famille d´enombrable des points
x ∈ Q, que l’on notera x
n
, on en d´eduit que g = sup
n
g
xn
est une fonction convexe, continue,
telle que g(x) = f(x) pour tout x ∈ Q. On en d´eduit donc que f = g, c’est `a dire que
f est le supremum d’une suite de fonctions affines g
n
= a
n
x + b
n
≤ f. Pour tout n on
en d´eduit que a
n
X + b
n
≤ f(X), et donc qu’il existe un ensemble n´egligeable N
n
tel que
a
n
E
C
(X)(ω) +b
n
≤ E
C

f(X)

(ω) pour ω ∈ N
c
n
. L’ensemble N = ∪N
n
est n´egligeable et sur
N
c
, f

E
C
(X)

= sup
n

a
n
E
C
(X) + b
n

≤ E
C
(f(X)).
(ii) Pour p ∈ [1, +∞[, la fonction [x[
p
est convexe et il suffit d’appliquer (i). En int´egrant
par rapport `a P l’in´egalit´e [E
C
(X)[
p
≤ E
C
([X[
p
) on en d´eduit |E
C
(X)|
p
≤ |X|
p
. Le cas
p = +∞ r´esulte de la Proposition 3.8 (i) et (iii). 2
Le r´esultat suivant g´en´eralise les th´eor`emes de convergence du premier chapitre. Sa
d´emonstration est laiss´ee en exercice.
Proposition 3.19 Soit (X
n
, n ≥ 1) une suite de variables al´eatoires.
(i) Si X
n
≥ 0 pour tout n, et X
n
croit vers X, alors E
C
(X
n
) croit vers E
C
(X) presque
sˆ urement.
(ii) Si X
n
≥ 0 pour tout n, alors E
C
(liminf X
n
) ≤ liminf E
C
(X
n
) p.s.
(iii) S’il existe Y ∈ L
1
telle que [X
n
[ ≤ Y p.s. et X
n
→ X p.s., alors E
C
(X
n
) → E
C
(X)
p.s.
Le r´esultat suivant permet de trouver des familles ´equiint´egrables de variables al´eatoires
li´ees `a l’esp´erance conditionnelle. Il est important en th´eorie des martingales.
Th´eor`eme 3.20 (i) Soit (X
i
, i ∈ I) une famille de variables al´eatoires ´equiint´egrable et
((
j
, j ∈ J) une famille de sous-tribus de T. Alors la famille de variables al´eatoires (Y
j
i
=
E
C
j
(X
i
) : i ∈ I, j ∈ J) est ´equiint´egrable.
(ii) En particulier, on en d´eduit que :
(a) Soit X une variable al´eatoire int´egrable et ((
j
, j ∈ J) une famille de sous-tribus
de (. Alors la famille (E
C
j
(X), j ∈ J) est ´equiint´egrable.
(b) Soit (X
i
) une famille de variables ´equiint´egrables et ( une sous-tribu de T. Alors
la famille de variables al´eatoires Y
i
= E
C
(X
i
) est ´equiint´egrable.
D´emonstration. (i) Pour tout i ∈ I et j ∈ J notons Y
j
i
= E
C
j
(X
i
). Pour tout a > 0,
l’´ev`enement ¦[Y
j
i
[ ≥ a¦ ∈ (
j
et d’apr`es la Proposition 3.18 (i), [Y
j
i
[ ≤ E
C
j
([X
i
[). On en
d´eduit
|[Y
j
i
[≥a¦
[Y
j
i
[dP ≤

|[Y
j
i
[≥a¦
E
C
([X
i
[)dP =

|[Y
j
i
[≥a¦
[X
i
[dP.
De plus, l’in´egalit´e de Markov (1.5) et la Proposition 3.16 montrent que P([Y
j
i
[ ≥ a) ≤
1
a
E

E
C
j
([X
i
[)

=
1
a
E([X
i
[). Puisque d’apr`es la Proposition 2.6 sup
i
E(X
i
[) < +∞, on en
Probabilit´es 1 - Annie Millet 11 novembre 2007
3.5 Propri´et´es de l’esp´erance conditionnelle 55
d´eduit que pour tout α > 0, P([Y
j
i
[ ≥ a) ≤ α pour a assez grand. La Proposition 2.6
permet donc de conclure que pour tout ε > 0,

|[Y
j
i
[≥a¦
[X
i
[dP ≤ ε pour a assez grand, ce
qui termine la d´emonstration.
(ii) Si X est int´egrable, la famille ¦X¦ est ´equiint´egrable. Le point (a) est alors une
cons´equence imm´ediate de (i). Le point (b) est un cas particulier de (i). 2
3.5.2 Esp´erance conditionnelle et ind´ependance
Rappelons qu’une variable al´eatoire X et une tribu ( sont ind´ependantes si les tribus
σ(X) et ( sont ind´ependantes. Le lemme suivant donne une premi`ere caract´erisation de
l’ind´ependance de X et (.
Lemme 3.21 Soit X : Ω → R
d
une variable al´eatoire et ( une sous-tribu de T. Alors X
et ( sont ind´ependantes si et seulement si pour toute fonction bor´elienne positive φ : R
d

[0, +∞[ et toute variable al´eatoire (-mesurable positive Y ,
E[φ(X)Y ] = E[φ(X)]E(Y ). (3.13)
D´emonstration. Si X et ( sont ind´ependantes et Y est (-mesurable, σ(Y ) ⊂ (. L’ind´e-
pendance de ( et de σ(X) entraˆıne donc celle de σ(Y ) et de σ(X), ce qui entraˆıne (3.13).
R´eciproquement, supposons que (3.13) est vraie pour tout φ et Y . Soit A ∈ ( et Y =
1
A
; Y est (-mesurable positive. Soit B ∈ σ(X) ; alors B = X
−1
(C) avec C ∈ 1
d
et si
φ = 1
C
, 1
B
= φ(X). L’´egalit´e (3.13) permet de conclure que P(A ∩ B) = E(Y φ(X)) =
E(Y )E(φ(X)) = P(A)P(B). Les tribus ( et σ(X) sont donc ind´ependantes. 2
La proposition suivante permet de caract´eriser l’ind´ependance de X et ( en termes
d’esp´erance conditionnelle. Il faut cependant prendre garde au fait que le seul point (i)
de cette proposition ne suffit pas `a montrer l’ind´ependance de X et (. On donnera un
contre-exemple comme exercice.
Proposition 3.22 (i) Soit X une variable al´eatoire positive ou int´egrable ind´ependante de
la sous-tribu (. Alors, E
C
(X) = E(X) p.s.
(ii) Soit X : Ω → R
d
un vecteur al´eatoire et ( une sous-tribu. Alors X et ( sont
ind´ependantes si et seulement si pour toute fonction bor´elienne positive φ : R
d
→ [0, +∞[
E
C
(φ(X)) = E(φ(X)). (3.14)
D´emonstration. (i) La constante E(X) (r´eelle ou bien ´egale `a +∞) est (-mesurable. De
plus pour tout A ∈ (, E(1
A
X) = P(A)E(X) = E[1
A
E(X)], et le Th´eor`eme 3.7 permet de
conclure que E
C
(X) = E(X) p.s.
(ii) Si X et ( sont ind´ependantes, (3.14) est une cons´equence de (i). R´eciproquement, si
Y est (-mesurable positive, (3.14) et la Proposition 3.9 montrent que
E

φ(X)Y

= E

E
C
(φ(X))Y

= E

E(φ(X))Y

= E[φ(X)]E(Y ).
Le lemme 3.21 entraˆıne alors l’ind´ependance de X et (. 2
La Proposition pr´ec´edente peut ˆetre g´en´eralis´ee comme suit.
11 novembre 2007 Probabilit´es 1 - Annie Millet
56 3 Esp´erance conditionnelle
Proposition 3.23 Soit ( une sous-tribu de T, X : Ω → R
d
et Y : Ω → R
r
des vecteurs
al´eatoires tels que Y est (-mesurable et X est ind´ependante de (. Alors pour toute fonction
bor´elienne φ : R
d+r
→ [0, +∞[ positive ,
E[φ(X, Y )/(] = ϕ(Y ) p.s. o` u ϕ(y) = E[φ(X, y)].
En particulier, si X et Y sont ind´ependantes,
E[φ(X, Y )/Y = y] = E[φ(X, y)] p.s.
D´emonstration. Soit Z une variable al´eatoire positive (-mesurable. Notons P
X
la loi de
X et P
(Y,Z)
la loi du couple (Y, Z). Les vecteurs al´eatoires X et (Y, Z) sont clairement
ind´ependants et le Th´eor`eme 2.24, puis le Th´eor`eme de Fubini-Tonelli montrent que
E[Zφ(X, Y )] =

R
d

R
r+1
z φ(x, y)P
(Y,Z)
(dy, dz)P
X
(dx)
=

R
r+1
z
¸
R
r
φ(x, y)P
X
(dx)

P
(Y,Z)
(dy, dz)
=

R
r+1
z E[φ(X, y)]P
(Y,Z)
(dy, dz) = E[Zϕ(Y )].
Puisque la variable al´eatoire ϕ(Y ) est (-mesurable, le Th´eor`eme 3.5 conclut la d´emonstration.
2
Probabilit´es 1 - Annie Millet 11 novembre 2007
57
4 Fonction caract´eristique - Vecteurs gaussiens
Dans ce chapitre, nous consid´erons un espace probabilis´e (Ω, T, P) fix´e qui ne sera pas
rappel´e de fa¸ con syst´ematique dans les ´enonc´es. La transformation de Fourier est un outil
tr`es puissant en analyse. Les probabilistes lui donnent traditionnellement un autre nom :
celui de fonction caract´eristique. D’autre part, la notion de vecteur gaussien est centrale
dans la th´eorie `a cause des th´eor`emes de convergence en loi qui seront vus dans le chapitre
suivant. Elle admet une g´en´eralisation en dimension infinie : le mouvement Brownien qui
est `a la base de nombreux mod`eles, en particulier en finance.
4.1 Fonction caract´eristique d’une variable al´eatoire r´eelle
Si X est une variable al´eatoire r´eelle quelconque, pour tout t ∈ R les variables al´eatoires
cos(tX) et sin(tX) sont born´ees, donc int´egrables. Pour tout nombre r´eel a, rappelons que
e
ia
= cos(a) + i sin(a) ∈ C est un nombre complexe de module 1. On d´efinit naturellement
une variable al´eatoire Z : Ω → C en imposant que les parties r´eelles Re(Z) et imaginaires
Im(Z) soient des variables al´eatoires r´eelles. On dit que Z est int´egrable (resp. de puissance
p int´egrable) si et seulement si ses parties r´eelle et imaginaire le sont. Si Z ∈ L
1
, on pose
E(Z) = E(Re(Z))+iE(Im(Z)). Toutes les propri´et´es de l’esp´erance des variables al´eatoires
r´eelles s’´etendent imm´ediatement `a des variables al´eatoires complexes. On notera [z[ le
module du nombre complexe z.
D´efinition 4.1 Soit X : Ω → R une variable al´eatoire r´eelle. Sa fonction caract´eristique
est la fonction Φ
X
: R →C d´efinie par
Φ
X
(t) = E

e
itX

= E(cos(tX)) +iE(sin(tX)). (4.1)
Bien sˆ ur, quelle que soit la variable al´eatoire r´eelle X, Φ
X
(0) = 1.
Si X : Ω → N, Φ
X
(t) =
¸
n≥0
e
itn
P(X = n) alors que si X : Ω → R a pour densit´e la
fonction f, Φ
X
(t) =

R
e
itx
f(x)dx est la transform´ee de Fourier
ˆ
f(t) de f calcul´ee au point
t. De fa¸ con g´en´erale, Φ
X
est la transform´ee de Fourier de la probabilit´e P
X
, c’est `a dire la
loi de X.
Exemple 4.2 1. Si X suit une loi de Bernoulli B(p) de param`etre p ∈ [0, 1], Φ
X
(t) =
pe
it
+ 1 −p
2. Si X suit une loi binomiale B(n, p) de param`etres n et p ∈ [0, 1], la formule du
binˆome montre que Φ
X
(t) = [pe
it
+ 1 −p]
n
. Nous retrouverons ce r´esultat d’une fa¸ con
diff´erente ult´erieurement.
3. Si X suit une loi de Poisson {(λ), o` u λ > 0, on montrera en exercice que Φ
X
(t) =
exp (λe
it
−1).
4. Si X suit une loi uniforme sur [0, 1] et t = 0, Φ
X
(t) =

1
0
e
itx
dx =
e
it
−1
it
. Certains
calculs d’int´egrales peuvent ˆetre faits « comme d’habitude » bien que les fonctions
prennent des valeurs complexes.
5. Si X suit une loi de Cauchy, des techniques de fonctions analytiques (calculs de r´esidus)
permettent de montrer que Φ
X
(t) = e
−[t[
. Nous retrouverons ce r´esultat diff´eremment.
La proposition suivante donne des propri´et´es imm´ediates de la fonction caract´eristique.
11 novembre 2007 Probabilit´es 1 - Annie Millet
58 4 Fonction caract´eristique - Vecteurs gaussiens
Proposition 4.3 Soit X : Ω →R une variable al´eatoire r´eelle.
(i) Pour tout a, b ∈ R, Φ
aX+b
(t) = e
ibt
Φ
X
(at).
(ii) La fonction caract´eristique Φ
X
est born´ee par 1 et est uniform´ement continue.
D´emonstration. La partie (i) r´esulte imm´ediatement de la lin´earit´e de l’int´egrale et de
l’´egalit´e ´evidente : Φ
aX
(t) = Φ
X
(at) pour tout a, t ∈ R.
(ii) Puisque [e
itX
[ = 1, [Φ
X
(t)[ ≤ E([e
itX
[) = 1. De plus, pour tout ǫ > 0 il existe N tel
que P([X[ ≥ N) < ǫ. Le th´eor`eme des accroissements finis montre que pour tout x, s, t ∈ R,
[e
itx
−e
isx
[ ≤ 2[x[[t −s[. On en d´eduit pour [t −s[ ≤
ǫ
2N
.

X
(t) −Φ
X
(s)[ ≤ 2P([X[ ≥ N) +

N
−N
[e
itx
−e
isx
[dP
X
(x) ≤ 2ǫ + 2N[t −s[ ≤ 3ǫ. 2
La propri´et´e suivante (i) est fondamentale. La partie (ii) permet, dans certains cas, de
retrouver la densit´e `a partir de la fonction caract´eristique. Ce th´eor`eme est provisoirement
admis ; il sera d´emontr´e dans le dernier chapitre (Proposition 5.18).
Th´eor`eme 4.4 Soit X et Y des variables al´eatoires r´eelles.
(i) Les lois P
X
et P
Y
de X et Y sont ´egales si et seulement si les fonctions caract´eristiques
Φ
X
et Φ
Y
sont ´egales.
(ii) Si X a pour densit´e f et si
ˆ
f = Φ
X
∈ L
1
(λ) o` u λ d´esigne la mesure de Lebesgue sur
1, on a la formule d’inversion de Fourier :
f(x) =
1

R
ˆ
f(t)e
−itx
dt pour presque tout x. (4.2)
Un calcul direct montre que

R
e
−itx
e
−[t[
dt =

0
−∞
e
−itx+t
dt +

+∞
0
e
−itx−t
dt =
1
−ix + 1
+
−1
−ix −1
=
2
1 +x
2
.
On voit donc que si
ˆ
f(t) = e
−[t[
,
ˆ
f ∈ L
1
(λ) et
1

R
e
−itx
ˆ
f(t)dt =
1
π
1
1+x
2
, c’est `a dire que l’on
retrouve la densit´e d’une loi de Cauchy.
En combinant les Th´eor`emes 1.38 et 1.39 sur la continuit´e et la d´erivabilit´e des int´egrales
d´ependant d’un param`etre, on d´eduit le
Th´eor`eme 4.5 (i) Soit X une variable al´eatoire r´eelle, n ≥ 1 un entier tel que E([X[
n
) <
+∞. Alors la fonction caract´eristique de X est de classe (
n
et pour tout k = 1, , n,
Φ
(k)
X
(t) = i
k
E

X
k
e
itX

. (4.3)
En particulier, Φ
(k)
X
(0) = i
k
E

X
k

.
(ii) Soit X ∈ L
2
; alors Φ

(0) = iE(X), Φ
′′
(0) = −E(X
2
). De plus, il existe α > 0 et
une fonction ǫ :] −α, +α[→C telle que lim
t→0
ǫ(t) = 0 et pour [t[ < α,
Φ(t) = exp

itE(X) −
t
2
2
V ar(X) + t
2
ǫ(t)

. (4.4)
Probabilit´es 1 - Annie Millet 11 novembre 2007
4.1 Fonction caract´eristique d’une variable al´eatoire r´eelle 59
D´emonstration. (i) Appliquons le th´eor`eme 1.39 `a la fonction (t, x) → f(x, t) = e
itx
(en fait s´epar´ement `a la partie r´eelle et `a la partie imaginaire de cette fonction, mais en
r´eunissant les r´esultats obtenus ainsi, on peut raisonner directement avec une fonction `a
valeurs complexes), I = R, d = 1 et `a la mesure µ = P
X
. Si X est int´egrable,

∂f
∂t
(x, t)

=
[ixe
itx
[ = [x[ ∈ L
1
(P
X
). On en d´eduit la formule (4.3) pour k = 1. Il suffit ensuite de
raisonner par r´ecurrence sur les d´eriv´ees partielles successives (et les puissances successives
de X) jusqu’`a l’ordre n.
(ii) Si X ∈ L
2
, Φ
X
est de classe (
2
et la formule de Taylor `a l’ordre 2 en 0 donne
Φ
X
(t) = 1 +itE(X) −
t
2
2
E(X
2
) + o(t
2
).
La fonction ln(1 + z) peut ˆetre d´efinie pour un nombre complexe z tel que [z[ < 1 par
ln(1 + z) =
¸

k=1
(−1)
k+1 z
k
k
et en approximant ln(1 + z) par z −
z
2
2
+ o([z[
2
) quand [z[ est
assez petit, on en d´eduit (4.4). 2
Exemple 4.6 L’exemple suivant est fondamental. En appliquant le Th´eor`eme 4.5 (i), nous
allons calculer la fonction caract´eristique d’une variable al´eatoire Y gaussienne ^(m, σ
2
)
et v´erifier que, dans ce cas, dans l’´equation (4.4) le terme ǫ(t) est identiquement nul. Ceci
expliquera le rˆole central que jouent les variables al´eatoires gaussiennes dans les th´eor`emes
de convergence.
Si Y suit une loi gaussienne ^(m, 0), Y est p.s. ´egale `a son esp´erance m et Φ
Y
(t) = e
itm
.
Si σ > 0, X =
Y −m
σ
est gaussienne ^(0, 1) et Y = m + σX. D’apr`es la Proposition 4.3,
Φ
Y
(t) = e
itm
Φ
X
(σt) et il suffit donc de calculer Φ
X
. Puisque X ∈ L
1
, pour tout t ∈ R,
Φ

X
(t) =
i


¸
R
xcos(tx)e

x
2
2
dx + i

R
xsin(tx)e

x
2
2
dx

= −
1

R
xe

x
2
2
sin(tx)dx.
En effet, la premi`ere int´egrale est nulle car l’int´egrant est impair et int´egrable. Une int´egration
par parties dans la seconde int´egrale montre que

R
xe

x
2
2
sin(tx)dx = −e

x
2
2
sin(tx)

+∞
−∞
+

R
te

x
2
2
cos(tx)dx.
Puisque pour des raisons de parit´e, Φ
X
(t) =
1

R
cos(tx)e

x
2
2
dx, nous en d´eduisons que
Φ
X
est `a valeurs r´eelles et que pour tout t, Φ

X
(t) = −tΦ
X
(t). On en d´eduit que ln([Φ
X
(t)[) =

t
2
2
+C o` u C est une constante r´eelle. Puisque Φ
X
est continue et ne s’annule pas, elle garde
un signe constant. De plus Φ
X
(0) = 1 entraˆıne que Φ
X
(t) = e

t
2
2
.
Nous avons donc montr´e que si Y suit une loi gaussienne ^(m, σ
2
),
E

e
itY

= e
itm−
t
2
σ
2
2
= exp
¸
itE(Y ) −
t
2
2
V ar(Y )

. (4.5)
On pourra montrer comme exercice le r´esultat suivant sur les moments d’une variable
al´eatoire X gaussienne ^(0, 1) : pour tout entier n impair, E(X
n
) = 0 et pour tout entier
n = 2k pair, E(X
2k
) =
(2k)!
2
k
k!
.
11 novembre 2007 Probabilit´es 1 - Annie Millet
60 4 Fonction caract´eristique - Vecteurs gaussiens
4.2 Fonction caract´eristique des vecteurs al´eatoires
Nous allons g´en´eraliser les d´efinitions et r´esultats pr´ec´edents `a des vecteurs al´eatoires
X : Ω →R
d
. Notons 'x, y` le produit scalaire des vecteurs x et y de R
d
.
D´efinition 4.7 Soit X = (X
1
, , X
d
) : Ω → R
d
un vecteur al´eatoire. Sa fonction ca-
ract´eristique est la fonction Φ
X
: R
d
→ C d´efinie pour tout vecteur t = (t
1
, , t
d
) ∈ R
d
par
Φ
X
(t) = E

e
i/t,X)

= E

e
i
P
d
k=1
t
k
X
k

. (4.6)
Le th´eor`eme suivant donne une version vectorielle des premiers r´esultats sur les variables
al´eatoires r´eelles.
Th´eor`eme 4.8 (i) Pour tout vecteur X : Ω →R
d
, Φ
X
est uniform´ement continue sur R
d
,
de module major´e par 1 et Φ
X
(0) = 1.
(ii) Pour tout a ∈ R et b, t ∈ R
d
, Φ
X
(at + b) = e
i/t,b)
Φ
X
(at).
(iii) Deux vecteurs al´eatoires X et Y ont mˆeme loi si et seulement si leurs fonctions
caract´eristiques sont ´egales.
(iv) Soit X : Ω → R
d
et n ≥ 1 un entier tel que X ∈ L
n
. Alors Φ
X
est de classe (
n
et
pour tout multiindice α = (α
j
, 1 ≤ j ≤ d) de longueur [α[ =
¸
d
j=1
α
j
≤ n,

[α[

α
1
t
1

α
d
t
d
Φ
X
(t) = i
[α[
E

X
α
1
1
X
α
d
d
e
i/t,X)

.
Le point (iii) sera prouv´e dans le chapitre suivant (Proposition 5.18). Les autres propri´et´es
se montrent de fa¸ con similaire aux d´emonstrations correspondantes de la section pr´ec´edente
et les d´etails sont laiss´es en exercice.
Dans le cas particulier de vecteurs al´eatoires de carr´e int´egrable, le r´esultat suivant est
une version multidimensionnelle de l’´equation (4.4). Sa d´emonstration est laiss´ee en exercice.
Rappelons que l’on commet l’abus de langage consistant `a identifier un vecteur et la
matrice colonne de ses composantes dans la base canonique et que l’on note
˜
t la matrice
transpos´ee de la matrice t.
Th´eor`eme 4.9 Soit X : Ω → R
d
un vecteur al´eatoire de carr´e int´egrable. Notons E(X)
son vecteur esp´erance et Γ
X
sa matrice de covariance. Alors
Φ
X
(t) = 1 +i't, E(X)` −
1
2
d
¸
k,l=1
t
k
t
l
E(X
k
X
l
) + o([t[
2
).
Il existe α > 0, une fonction ǫ :] −α, +α[
d
→C telle que lim
|t|→0
ǫ(|t|) = 0 et telle que pour
t ∈ R
d
qui v´erifie |t| < α,
Φ(t) = exp

i
d
¸
k=1
t
k
E(X
k
) −
1
2
d
¸
k,l=1
t
k
t
l
Cov(X
k
, X
l
) +|t|
2
ǫ(|t|)

= exp

i
˜
t E(X) −
1
2
˜
t Γ
X
t +|t|
2
ǫ(|t|)

. (4.7)
Probabilit´es 1 - Annie Millet 11 novembre 2007
4.2 Fonction caract´eristique des vecteurs al´eatoires 61
La caract´erisation de la loi `a l’aide de la fonction caract´eristique permet ´egalement une
caract´erisation de l’ind´ependance des vecteurs al´eatoires.
Th´eor`eme 4.10 Soit (X
k
: Ω → R
d
k
, 1 ≤ k ≤ n) des vecteurs al´eatoires. Ils sont ind´e-
pendants si et seulement si la fonction caract´eristique du vecteur X = (X
1
, , X
n
) : Ω →
R
d
1
++dn
est d´efinie pour tout t = (t
1
, , t
n
) avec t
k
∈ R
d
k
par
Φ
X
(t) =
n
¸
k=1
Φ
X
k
(t
k
).
D´emonstration. Pour d´egager les id´ees, nous consid´ererons seulement un couple (X, Y ) de
variables al´eatoires r´eelles. Notons Z la variable al´eatoire `a valeurs dans R
2
de loi P
X
⊗P
Y
.
Pour tout (s, t) ∈ R
2
, le th´eor`eme de Fubini Lebesgue 1.54 montre que
Φ
Z
(s, t) =

R
2
e
i(sx+ty)
dP
X
(x) ⊗dP
Y
(y) =

R
e
isx
dP
X
(x)

R
e
ity
dP
Y
(y) = Φ
X
(s)Φ
Y
(t).
Puisque la fonction caract´eristique caract´erise la loi, nous en d´eduisons que Z et le couple
(X, Y ) ont la mˆeme loi si et seulement si Φ
Z
(s, t) = Φ
(X,Y )
(s, t). Le th´eor`eme 2.24 conclut
la d´emonstration. 2
La proposition suivante est tr`es utile pour calculer la loi de la somme de variables
al´eatoires ind´ependantes. Dans le cas de variables al´eatoires de densit´e respectivement f
et g, il montre que la transform´ee de Fourier du produit de convolution f ∗ g des densit´es
est ´egale au produit des transform´ees de Fourier de f et de g.
Proposition 4.11 Soit (X
k
, 1 ≤ k ≤ n) des vecteurs al´eatoires ind´ependants `a valeurs
dans R
d
et S =
¸
n
k=1
X
k
leur somme. Pour tout t ∈ R
d
,
Φ
S
(t) =
n
¸
k=1
Φ
X
k
(t).
D´emonstration. Il suffit d’utiliser le th´eor`eme 2.25 et le fait que pour tout t ∈ R
d
les va-
riables al´eatoires e
i/t,X
k
)
sont int´egrables (puisque born´ees par 1). On en d´eduit imm´ediatement
Φ
S
(t) = E

d
¸
k=1
e
i/t,X
k
)

=
n
¸
k=1
E

e
i/t,X
k
)

.
2
Exemple 4.12 1. La somme de deux variables al´eatoires gaussiennes X et Y ind´ependantes
de lois respectivement ^(m
1
, σ
2
1
) et ^(m
2
, σ
2
2
) est gaussienne ^(m
1
+m
2
, σ
2
1

2
2
). Pour le
v´erifier, il suffit de calculer la fonction caract´eristique de X + Y `a l’aide de la Proposition
pr´ec´edente et d’utiliser le calcul de la fonction caract´eristique d’une loi gaussienne ^(m, σ
2
)
fait dans (4.5).
2. Soit (X
n
, n ≥ 1) une suite de variables al´eatoires ind´ependantes de mˆeme loi de Cauchy
et
¯
X
n
=
1
n
¸
n
k=1
X
k
la moyenne des n premiers termes de cette suite. Alors
¯
X
n
suit une loi
de Cauchy. Pour le prouver, il suffit de montrer que la fonction caract´eristique de
¯
X
n
est
e
−[t[
. Pour tout t ∈ R,
E

e
it
¯
Xn

= E

exp

n
¸
k=1
i
t
n
X
k

=
n
¸
k=1
Φ
X
k

t
n

= e
−n
|t|
n
= e
−[t[
.
11 novembre 2007 Probabilit´es 1 - Annie Millet
62 4 Fonction caract´eristique - Vecteurs gaussiens
On pourra montrer comme exercice que si X et Y sont ind´ependantes de mˆeme loi de
carr´e int´egrable telle que E(X) = 0, V ar(X) = 1 et
X+Y

2
est de mˆeme loi que X, alors X (et
Y ) est gaussienne ^(0, 1). On pourra aussi montrer que dans ce cas, les variables al´eatoires
X+Y

2
et
X−Y

2
sont gaussiennes ^(0, 1) ind´ependantes.
4.3 Vecteurs gaussiens
Nous avons vu que les variables al´eatoires gaussiennes r´eelles sont caract´eris´ees par le
fait que leur fonction caract´eristique est l’exponentielle d’un polynˆome de degr´e deux (sans
terme suppl´ementaire dans le d´eveloppement limit´e `a l’ordre deux). La notion de vecteur
gaussien calque cette propri´et´e en dimension quelconque.
D´efinition 4.13 Un vecteur al´eatoire X = (X
1
, , X
d
) est gaussien si et seulement si
toute combinaison lin´eaire de ses composantes est une variable al´eatoire gaussienne r´eelle
(de variance positive ou nulle).
La d´efinition pr´ec´edente montre imm´ediatement que si X : Ω → R
d
est un vecteur
gaussien et si L : R
d
→ R
r
est une application lin´eaire, le vecteur Y = L(X) : Ω → R
r
est
un vecteur gaussien.
D’apr`es le Th´eor`eme 2.17, si X = (X
1
, , X
d
) est un vecteur gaussien, puisque pour
t ∈ R
d
la variable al´eatoire 't, X` est gaussienne d’esp´erance 't, E(X)` et de variance
˜
t Γ
X
t,
la fonction caract´eristique de X est
E

e
i/t,X)

= e
i /t , E(X))−
1
2
˜
t Γ
X
t
. (4.8)
On voit en particulier que si Y = (Y
1
, , Y
d
) est un vecteur gaussien centr´e de matrice
de covariance Id
d
, et X = σY , la densit´e de X est
g
σ
(x) =
1


2π)
d
e

x
2

2
,
alors sa fonction caract´eristique est
ˆ g
σ
(x) = e

1
2
σ
2
|x|
2
=



σ

d
g1
σ
(x). (4.9)
On voit donc qu’`a un facteur de normalisation pr`es, la fonction caract´eristique de X co¨ıncide
avec la densit´e g1
σ
de
1
σ
Y . Cette remarque et des propri´et´es de convergence de σY quand
σ → 0 sont `a la base de l’injectivit´e de la transformation de Fourier et de la formule
d’inversion de Fourier.
De plus, le premier exemple 4.12 montre que si les composantes du vecteur al´eatoire
X = (X
1
, , X
d
) sont gaussiennes ind´ependantes, le vecteur X est gaussien. Par contre, si
les composantes d’un vecteur gaussien sont des variables al´eatoires gaussiennes, la r´eciproque
est fausse en g´en´eral, comme le montre l’exemple 2.26. En effet, dans cet exemple les deux
variables al´eatoires X et Y sont gaussiennes ^(0, 1) de plus, pour tout a et pour a conve-
nablement choisi, Cov(X, Y ) = 0. La diff´erence X − Y est non nulle et est born´ee par a,
ce qui lui interdit d’ˆetre gaussienne de variance nulle (elle serait constamment ´egale `a 0) ou
de variance strictement positive car dans ce cas on aurait P([X − Y [ > a) > 0. Le vecteur
(X, Y ) n’est donc pas gaussien.
Le r´esultat suivant met en ´evidence une propri´et´e tr`es importance des vecteurs gaussiens.
Probabilit´es 1 - Annie Millet 11 novembre 2007
4.3 Vecteurs gaussiens 63
Th´eor`eme 4.14 Soit X = (X
1
, , X
d
) : Ω →R
d
un vecteur gaussien. Alors
(i) Pour tout 1 ≤ j < k ≤ d, les composantes X
j
et X
k
sont ind´ependantes si et
seulement si Cov(X
j
, X
k
) = 0.
(ii) Les composantes de X sont ind´ependantes si et seulement si la matrice de covariance
de X est diagonale.
(iii) Pour tout k ∈ ¦1, , d
1
¦ les vecteurs Y = (X
1
, , X
k
) et Z = (X
k+1
, , X
d
)
sont ind´ependants si et seulement si Γ
X
=

Γ
Y
0
0 Γ
Z

.
D´emonstration. (i) est une cons´equence imm´ediate de (ii) puisque le sous-vecteur (X
j
, X
k
)
de X est gaussien.
(ii) Si les composantes d’un vecteur al´eatoire de carr´e int´egrable sont ind´ependantes,
la matrice de covariance de X est toujours diagonale. R´eciproquement, supposons que
la matrice de covariance Γ
X
est diagonale. Pour montrer que les composantes de X sont
ind´ependantes, il suffit de calculer la fonction caract´eristique de X et d’appliquer le Th´eor`eme
4.10. Pour tout vecteur t ∈ R
d
, l’´equation (4.8) et le fait que Γ
X
est diagonale montrent que
Φ
X
(t) = e
P
d
k=1
it
k
E(X
k
)−
1
2
P
d
k=1
t
2
k
V ar(X
k
)
=
d
¸
k=1
e
it
k
E(X
k
)−
1
2
t
2
k
V ar(X
k
)
=
d
¸
k=1
Φ
X
k
(t
k
). 2
La figure suivante montre la simulation de 10 000 couples de variables al´eatoires ind´e-
pendantes de mˆeme loi ^(0, 1).
−6 −4 −2 0 2 4 6
−4
−3
−2
−1
0
1
2
3
4
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
. .
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
. .
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
La matrice de covariance d’un vecteur X de R
d
est sym´etrique de type positif (c’est `a
dire que pour tout vecteur a ∈ R
d
, ˜ aΓ
X
a ≥ 0). Rappelons les r´esultats d’alg`ebre lin´eaire qui
permettent de r´eduire la matrice Γ
X
et de la d´ecomposer en un produit A
˜
A. On commet
l’abus de notation consistant `a assimiler un vecteur de R
d
et la matrice colonne de ses
coefficients dans la base canonique. On note |x| la norme euclidienne de x.
11 novembre 2007 Probabilit´es 1 - Annie Millet
64 4 Fonction caract´eristique - Vecteurs gaussiens
Th´eor`eme 4.15 Soit M une matrice dd. Les propri´et´es suivantes sur M sont ´equivalentes :
(i) M est la matrice de passage d’une base orthonorm´ee dans une base orthonorm´ee.
(ii) Pour tout vecteur x de R
d
, |Mx| = |x|.
(iii) Les vecteurs colonne de M sont norm´es et deux `a deux orthogonaux.
(iv) La matrice inverse de M est ´egale `a sa transpos´ee, c’est `a dire M
˜
M =
˜
MM = Id
d
.
On dit d’une telle matrice M qu’elle est orthogonale.
Le th´eor`eme suivant permet de diagonaliser les matrices de covariance.
Th´eor`eme 4.16 Soit Γ une matrice sym´etrique `a coefficients r´eels. Alors Γ est diagonali-
sable dans R par une patrice de passage M orthogonale, c’est `a dire qu’il existe une matrice
diagonale D `a coefficients r´eels et une matrice orthogonale M telle que D = M
−1
Γ M =
˜
M Γ M. Si Γ est sym´etrique de type positif (resp. d´efinie positive), les ´el´ements de D sont
positifs ou nuls (resp. strictement positifs) et il existe une matrice carr´ee (resp. inversible)
A telle que Γ = A
˜
A.
D´emonstration. La diagonalisation des matrices sym´etriques est un r´esultat classique
d’alg`ebre lin´eaire. Pour chaque vecteur propre x
k
de Γ associ´e `a la valeur propre λ
k
, ˜ x
k
Γx
k
=
λ
k
|x|
2
k
. On en d´eduit que si Γ est de type positif (resp. d´efinie positive) les valeurs propres de
Γ sont positives ou nulles (resp. strictement positives). Notons ∆ la matrice diagonale telle
que ∆
k,k
=

λ
k
pour tout k = 1, , d. On en d´eduit que Γ = M D
˜
M = M ∆
˜

˜
M = A
˜
A
pour A = M ∆. Si la matrice Γ est d´efinie positive, les matrices M et ∆ sont inversibles et
A est donc ´egalement inversible. 2
On en d´eduit imm´ediatement que si X est un vecteur gaussien de matrice de covariance
Γ
X
et que M est une matrice orthogonale telle que D = M
−1
Γ
X
M est diagonale et si
Y = QX, on a Γ
Y
= QΓ
X
˜
Q = D. Le vecteur Y =
˜
MX est un vecteur gaussien dont la
matrice de covariance est diagonale, c’est `a dire dont les composantes sont ind´ependantes.
Pour tout nombre r´eel m et tout nombre r´eel σ
2
≥ 0, on sait construire une variable
al´eatoire gaussienne d’esp´erance m et de variance σ
2
. De plus, on sait que si σ = 0, cette
variable al´eatoire gaussienne a une densit´e f(x) =
1
σ


exp


1
2
(x −m)
1
σ
2
(x −m)

. Nous
allons g´en´eraliser ceci `a un vecteur gaussien quelconque. Le th´eor`eme suivant permet de
construire un vecteur gaussien dont on a impos´e le vecteur esp´erance et la matrice de
covariance.
Th´eor`eme 4.17 Soit m ∈ R
d
et Γ une matrice d d sym´etrique de type positif. Il existe
un vecteur gaussien X = (X
1
, , X
d
) de vecteur esp´erance m et de matrice de covariance
Γ. Ce vecteur sera not´e ^(m, Γ).
Si de plus la matrice Γ est inversible, alors X a pour densit´e la fonction d´efinie pour
tout vecteur x ∈ R
d
par
f(x) =
1
(2π)
d
2
1

det(Γ)
exp


1
2

(x −m) Γ
−1
(x −m)

. (4.10)
D´emonstration. D’apr`es le Th´eor`eme 4.16, il existe une matrice A de format dd telle que
Γ = A
˜
A. Soit Y = (Y
1
, , Y
d
) un vecteur dont les composantes sont gaussiennes ^(0, 1)
ind´ependantes. Le vecteur Y est donc gaussien et si on note L : R
d
→ R
d
l’application
lin´eaire dont la matrice dans les bases canoniques est A, le vecteur Z = AY est gaussien de
Probabilit´es 1 - Annie Millet 11 novembre 2007
4.3 Vecteurs gaussiens 65
matrice de covariance A
˜
A = Γ. Il suffit alors de consid´erer le vecteur X = m + AY pour
avoir un vecteur gaussien dont l’esp´erance est m et dont la matrice de covariance est ´egale
`a celle de AY . Si la matrice Γ est inversible, la matrice A l’est aussi et Φ : R
d
→R
d
d´efinie
par x = Φ(y) = Ay +m est un (
1
-diff´eomorphisme dans R
d
dans R
d
. La matrice jacobienne
de Φ
−1
est A
−1
, la densit´e du vecteur Y est
g(y) =

1

d
e

1
2
|y|
2
=

1

d
e

1
2
˜ yy
,
et d’apr`es le Th´eor`eme 2.21, celle de X = Φ(Y ) est donc f(x) = [det(A
−1
)[g(Φ
−1
(x)).
Puisque det(Γ) = det(A)det(
˜
A) = [det(A)]
2
et que y = Φ
−1
(x) = A
−1
(x − m), on d´eduit
(4.10) de l’identit´e :
˜ yy =

(x −m)
¯
A
−1
A
−1
(x −m) =

(x −m)Γ
−1
(x −m). 2
Les vecteurs gaussiens ont enfin une propri´et´e remarquable relative au conditionnement.
La d´emonstration du r´esultat suivant est laiss´ee en exercice.
Th´eor`eme 4.18 Soit (X, Y ) : Ω → R
2
un vecteur gaussien de vecteur esp´erance m =
(m
1
, m
2
) et de matrice de covariance Γ =

σ
2
1
ρσ
1
σ
2
ρσ
1
σ
2
σ
2
2

, o` u σ
1
> 0, σ
2
> 0 et ρ ∈
[−1, +1].
Les variables al´eatoires X − m
1
et (Y − m
2
) − ρ
σ
2
σ
1
(X − m
1
) sont gaussiennes centr´ees
ind´ependantes. L’esp´erance conditionnelle E(Y [X) = m
2
+
ρσ
2
σ
1
(X−m
1
). C’est une fonction
affine de X et c’est donc aussi la r´egression lin´eaire de Y en X.
• Si [ρ[ = 1, alors V ar(σ
2
X
1
−ρσ
1
X
2
) = 0, c’est `a dire que les composantes X
1
et X
2
sont
li´ees (au sens de l’alg`ebre lin´eaire). Le vecteur (X
1
, X
2
) est port´e par la droite d’´equation
σ
2
x −ρσ
1
y = σ
2
m
1
−ρσ
1
m
2
.
• Si [ρ[ < 1, le vecteur (X, Y ) a pour densit´e
f(x, y) =
exp


1

2
1
σ
2
2
(1−ρ
2
)

2
2
(x −m
1
)
2
−2ρσ
1
σ
2
(x −m
1
)(y −m
2
) + σ
2
1
(y −m
2
)
2
]

2π σ
1
σ
2

1 −ρ
2
.
La loi conditionnelle de Y sachant X = x est gaussienne
^

m
2
+
ρσ
2
σ
1
(x −m
1
) , σ
2
2
(1 −ρ
2
)

.
Ce r´esultat se g´en´eralise comme suit : Soit X = (Y, Z) un vecteur gaussien. La loi
conditionnelle de Z sachant Y = y est celle d’un vecteur gaussien. De plus, E(Z[Y ) =
a +
¸
k
i=1
b
i
Y
i
si Y = (Y
1
, , Y
k
), c’est `a dire que l’esp´erance conditionnelle E(Z[Y ) est
solution du probl`eme de r´egression multiple de Z en Y .
On peut donner des r´esultats plus pr´ecis sur la d´ecomposition d’une matrice Γ d d
sym´etrique de type positif et de rang r ≤ d. Dans ce cas, il existe une matrice A d
r telle que Γ = A
˜
A. Lorsque Γ est inversible (c’est `a dire d´efinie positive) on dispose
d’une m´ethode num´erique, appel´ee d´ecomposition de Choleski, pour trouver A que l’on
11 novembre 2007 Probabilit´es 1 - Annie Millet
66 4 Fonction caract´eristique - Vecteurs gaussiens
peut choisir triangulaire inf´erieure. La d´ecomposition de Choleski de Γ (qui est disponible
dans de nombreuses biblioth`eques de programmes) est calcul´ee de la fa¸ con suivante :
A
1,1
=

Γ
1,1
, A
i,1
=
Γ
1,i
A
1,1
pour 2 ≤ i ≤ d ,
pour i croissant de 2 `a d : A
i,i
=

Γ
i,i

¸
1≤k≤i−1
[A
i,k
[
2
,
pour i < j ≤ d A
j,i
=
Γ
i,j

¸
i−1
k=1
A
i,k
A
j,k
A
i,i
, A
i,j
= 0 .
Dans le cas particulier d = 2, Γ =

σ
2
1
ρ σ
1
σ
2
ρ σ
1
σ
2
σ
2
2

, on a A =

σ
1
0
ρ σ
2
σ
2

1 −ρ
2

.
Donc si Y
1
et Y
2
sont des variables al´eatoires gaussiennes ^(0, 1) ind´ependantes, le vecteur
X = (X
1
, X
2
) d´efini par X
1
= m
1

1
Y
1
, X
2
= m
2

2

ρ Y
1
+

1 −ρ
2
Y
2

est gaussien de
vecteur esp´erance m = (m
1
, m
2
) et de matrice de covariance Γ.
Les figures ci-dessous montrent la simulation de 10 000 vecteurs X dans R
2
, centr´es et
de matrice de covariance Γ =

3 −2
−2 3

puis
¯
Γ =

3 2
2 3

. Les valeurs propres de
Γ sont 5 et 1 avec comme vecteurs propres respectivement v
1
= (1, −1) et v
2
= (1, 1).
Sa d´ecomposition de Choleski est Γ = A
˜
A avec A =

3 0

2

3

5
3

. On observe que
dans ce cas les points sont concentr´es dans un ellipso¨ıde d’axes v
1
et v
2
et de longueurs
reli´ees aux valeurs propres de Γ. Les valeurs propres de
¯
Γ sont 5 et 1 avec comme vecteurs
propres respectivement les vecteurs ¯ v
1
= (1, 1) et ¯ v
2
= (1, −1) et on observe une rotation de
l’ellipso¨ıde.
−8 −6 −4 −2 0 2 4 6 8
−6
−4
−2
0
2
4
6
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
. .
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
. .
.
.
.
. .
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
. .
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
. .
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
. . .
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
. .
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
. . .
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
. .
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
. .
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
−8 −6 −4 −2 0 2 4 6 8
−6
−4
−2
0
2
4
6
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
. .
.
.
.
.
.
.
.
. .
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
. .
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
. .
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
. .
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
. .
.
.
..
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . .
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
. .
.
.
. .
.
.
.
.
. .
.
.
.
. .
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
. .
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Les r´esultats suivants sont importants en statistiques.
D´efinition 4.19 Pour tout entier n ≥ 1, un χ
2
n
est une variable al´eatoire
¸
n
k=1
X
2
k
o` u les
variables al´eatoires (X
k
, 1 ≤ k ≤ n) sont ^(0, 1) ind´ependantes.
On montrera en exercice que le carr´e d’une variable al´eatoire gaussienne ^(0, 1) suit une
loi Γ(
1
2
,
1
2
). La loi d’un χ
2
n
est alors une cons´equence imm´ediate du r´esultat suivant : Si X et
Y sont des variables al´eatoires ind´ependantes de loi respectivement Γ(λ, a) et Γ(λ, b), alors
X + Y suit une loi Γ(λ, a + b). On en d´eduit qu’un χ
2
n
suit une loi Γ(
1
2
,
n
2
).
Probabilit´es 1 - Annie Millet 11 novembre 2007
4.3 Vecteurs gaussiens 67
Proposition 4.20 Soit (X
k
, 1 ≤ k ≤ n) des variables al´eatoires ind´ependantes de mˆeme loi
^(m, σ
2
) ; notons
¯
X
n
=
1
n
¸
n
k=1
X
k
et Σ
n
(X) =
¸
n
k=1
(X
k

¯
X
n
)
2
. Les variables al´eatoires
¯
X
n
et Σ
n
(X) sont ind´ependantes de lois respectivement ^(m,
σ
2
n
) et σ
2
Y o` u Y est un χ
2
n−1
.
D´emonstration. Si la variance est nulle, la Proposition est ´evidente. Si σ > 0, on peut
se ramener au cas de variables al´eatoires ^(0, 1). En effet, pour tout k ≥ 1, la variable
al´eatoire Y
k
= σ
−1
(X
k
− m) est ^(0, 1), les Y
k
sont ind´ependantes,
¯
X
n
= m + σ
¯
Y
n
et
Σ
n
(X) = σ
2
Σ
n
(Y ).
Nous supposons donc m = 0 et σ = 1. La moyenne
¯
X
n
est une variable al´eatoire
gaussienne centr´ee de variance
1
n
2
¸
n
k=1
V ar(X
k
) =
1
n
. Le vecteur (X
1
, , X
n
) est gaussien
et le vecteur (
¯
X
n
, X
1

¯
X
n
, , X
n

¯
X
n
) est donc gaussien. Puisque Σ
n
(X) est une fonction
bor´elienne des n derni`eres composantes de ce vecteur, il suffit de v´erifier que
¯
X
n
et (X
1

¯
X
n
, , X
n

¯
X
n
) sont ind´ependants et, grˆace au Th´eor`eme 4.14, que pour tout k = 1, , n,
Cov(
¯
X
n
, X
k

¯
X
n
) = 0, ce qui est imm´ediat.
Il reste donc `a montrer que Σ
n
(X) est la somme des carr´es de n −1 variables al´eatoires
^(0, 1) ind´ependantes. Notons v
1
= (
1

n
, ,
1

n
). Le vecteur v
1
est de norme 1 et peut ˆetre
compl´et´e en une base orthonorm´ee (v
1
, , v
n
) de R
n
. Notons A la matrice de changement
de base de la base canonique dans la base (v
1
, , v
n
). C’est une matrice orthogonale, ainsi
que sa transpos´ee
˜
A. Le vecteur Z =
˜
AX est gaussien, centr´e de matrice de covariance
˜
AId
n
A = Id
n
. Les variables al´eatoires Z
k
sont donc gaussiennes ^(0, 1) ind´ependantes et
Z
1
=
1

n
¸
n
k=1
X
k
=

n
¯
X
n
. De plus, d’apr`es le Th´eor`eme 4.15 (iii),
¸
n
k=1
Z
2
k
=
¸
n
k=1
X
2
k
.
Enfin,
Σ
n
(X) =
n
¸
k=1
X
2
k
−2
¯
X
n
n
¸
k=1
X
k
+ n(
¯
X
n
)
2
=
n
¸
k=1
X
2
k
−n(
¯
X
n
)
2
=
n
¸
k=2
Z
2
k
.
Ceci termine la d´emonstration. 2
D´efinition 4.21 Pour tout entier n ≥ 1, une variable al´eatoire T
n
=
X

Y
n
suit une loi de
Student `a n degr´es de libert´e si les variables al´eatoires X et Y sont ind´ependantes de loi
respectivement ^(0, 1) et χ
2
n
.
On en d´eduit imm´ediatement que pour un entier n ≥ 2, si (X
1
, , X
n
) sont des variables
al´eatoires ind´ependantes de mˆeme loi gaussienne ^(m, σ
2
) avec σ > 0, la variable al´eatoire
T =
¯
X
n
−m

P
n
k=1
(X
k

¯
Xn)
2
n−1
suit une loi de Student `a n − 1 degr´es de libert´e. La propri´et´e importante est que ni la
d´efinition de T ni sa loi ne d´ependent du param`etre σ. Ceci est utilis´e en statistique pour
construire des tests sur la moyenne d’´echantillons gaussiens dont la variance est inconnue.
11 novembre 2007 Probabilit´es 1 - Annie Millet
68 5 Th´eor`emes de convergence
5 Th´eor`emes de convergence
Le but de ce chapitre est d’introduire deux modes de convergence de suites de variables
al´eatoires, de les comparer `a ceux ´etudi´es dans le premier chapitre de th´eorie de la me-
sure et de prouver des r´esultats classiques de convergence pour des moyennes de suites de
variables al´eatoires ind´ependantes et de mˆeme loi. Dans tout ce chapitre, sauf mention ex-
plicite du contraire, on dispose d’un espace probabilis´e (Ω, T, P) qui ne sera pas rappel´e
syst´ematiquement dans les ´enonc´es. Les espaces L
p
, 1 ≤ p ≤ +∞ sont les espaces L
p
(P)
d´efinis dans le premier chapitre.
Convention de notation Dans tout ce chapitre, si (X
n
, n ≥ 1) d´esigne une suite de
variables al´eatoires ind´ependantes (r´eelles ou vectorielles), on note S
n
=
¸
n
k=1
X
k
la somme
des n premi`eres variables al´eatoires et
¯
X
n
=
Sn
n
la moyenne de ces n premi`eres variables
al´eatoires. Enfin, une suite de variables al´eatoires ind´ependantes et de mˆeme loi est not´ee
i.i.d. (ind´ependantes identiquement distribu´ee).
5.1 Convergence en probabilit´e
Rappelons que d’apr`es l’in´egalit´e de Schwarz (resp. de H¨older), si une suite de variables
al´eatoires (X
n
) converge vers X dans L
2
(resp. dans L
p
avec 1 < p < +∞), alors (X
n
)
converge vers X dans L
1
. Plus g´en´eralement, si 1 ≤ p
1
< p
2
≤ +∞ et si la suite (X
n
)
converge vers X dans L
p
2
, alors (X
n
) converge vers X dans L
p
1
.
La r´eciproque est fausse, comme le montre l’exemple suivant : Ω =]0, 1[ muni de la tribu
bor´elienne et de la mesure de Lebesgue et X
n
= n
a
1
]0,
1
n
[
. Si a p
1
< 1, la suite (X
n
) converge
vers 0 dans L
p
1
, tandis que pour tout p
2
> p
1
, si a p
2
> 1, la suite |X
n
|
p
2
tend vers +∞
et (X
n
) ne converge donc pas vers 0 dans L
p
2
. De mˆeme, si a > 0, la suite (X
n
) n’est pas
born´ee dans L

, tandis que pour p < +∞, si ap < 1, elle converge vers 0 dans L
p
.
La d´efinition suivante introduit une notion de convergence qui est plus faible que celle
de convergence dans L
1
et de convergence presque sˆ ure. On note |x| la norme euclidienne
d’un vecteur x ∈ R
d
.
D´efinition 5.1 Une suite de vecteurs al´eatoires X
n
: Ω → R
d
converge vers le vecteur
al´eatoire X : Ω →R
d
en probabilit´e si pour tout ε > 0,
lim
n
P(|X
n
−X| ≥ ε) = 0 . (5.1)
On remarque imm´ediatement qu’une suite de vecteurs al´eatoires (X
n
= (X
1
n
, , X
d
n
) ∈
R
d
, n ≥ 1) converge vers X = (X
1
, , X
d
) en probabilit´e si et seulement si pour chaque
i = 1, , d, la suite de variables al´eatoires r´eelles (X
i
n
, n ≥ 1) converge en probabilit´e vers
X
i
. Le th´eor`eme suivant relie les convergences dans L
1
, presque sˆ ure et en probabilit´e.
Th´eor`eme 5.2 Soit (X
n
: Ω →R
d
, n ≥ 1) une suite de vecteurs al´eatoires et X : Ω →R
d
.
Alors :
(i) Si la suite (X
n
) converge vers X dans L
1
, alors la suite (X
n
) converge vers X en
probabilit´e.
(ii) Si la suite (X
n
) converge vers X presque sˆ urement, alors la suite (X
n
) converge vers
X en probabilit´e.
Probabilit´es 1 - Annie Millet 11 novembre 2007
5.1 Convergence en probabilit´e 69
(iii) Si la suite (X
n
) converge vers X en probabilit´e, alors il existe une sous-suite (n
k
, k ≥
1) telle que la suite (X
n
k
, k ≥ 1) converge vers X presque sˆ urement.
(iv) Si la suite (X
n
) converge vers X en probabilit´e et est ´equiint´egrable, alors la suite
(X
n
) converge vers X dans L
1
.
D´emonstration.
(i) L’in´egalit´e de Markov (1.5) montre que pour tout ε > 0,
P(|X
n
−X| ≥ ε) ≤
1
ε
E(|X
n
−X|),
ce qui prouve que la convergence dans L
1
entraˆıne la convergence en probabilit´e.
(ii) Pour tout entier N ≥ 1 et tout ε > 0, notons Ω
N
= ¦ω : sup
n≥N
|X
n
−X| ≥ ε¦. La
suite d’ensembles Ω
N
est d´ecroissante et la convergence presque sˆ ure de (X
n
) vers X montre
que P(Ω
N
) → 0 quand N → +∞. Puisque ¦|X
N
− X| ≥ ε¦ ⊂ Ω
N
, on en d´eduit que la
convergence presque sˆ ure entraˆıne la convergence en probabilit´e.
(iii) Pour tout entier k ≥ 1, soit N
k
un entier tel que P

|X
n
−X| ≥
1
k


1
k
2
pour
tout n ≥ N
k
. On peut donc construire une suite (n
k
, k ≥ 1) telle que pour tout k ≥ 1,
n
k+1
> n
k
et n
k
≥ N
k
. Notons A
k
= ¦|X
n
k
− X| ≥
1
k
¦. La s´erie
¸
k
P(A
k
) ≤
¸
k
k
−2
est donc convergente et le lemme de Borel Cantelli 2.2 entraˆıne que P(limsup A
k
) = 0.
On en d´eduit que, pour presque tout ω, il existe un entier K(ω) tel que pour k ≥ K(ω),
|X
n
k
−X|(ω) ≤
1
k
, ce qui montre que la suite (X
n
k
(ω) −X(ω), k ≥ 1) converge vers 0.
(iv) Il suffit de raisonner pour chaque composante de X
n
, c’est `a dire qu’on peut
se ramener `a supposer que d = 1. D’apr`es (iii), il existe une sous-suite (n
k
) telle que
(X
n
k
, k ≥ 1) converge vers X presque sˆ urement. L’´equiint´egrabilit´e de la suite (X
n
) montre
que sup
k
E([X
n
k
[) < +∞ (cf. la Proposition 2.6) et le lemme de Fatou 1.33 montre donc
que X est int´egrable. De plus, pour tout ε > 0 et a > 0,
E(|X
n
−X|) ≤ ε + E(|X
n
−X|1
||Xn−X|≥ε¦
≤ ε + E

|X
n
|1
||Xn|≥a¦
+|X|1
||X|≥a¦

+ E[|X
n
−X|1
||Xn−X|≥ε¦
1
||Xn−X|≤2a¦
].
D’apr`es la Proposition 2.6, pour tout ε > 0 il existe a > 0 tel que E(|X|1
||X|≥a¦
) ≤ ε et
pour tout n, E(|X
n
|1
||Xn|≥a¦
) ≤ ε. On en d´eduit E(|X
n
− X|) ≤ 3ε + 2aP(|X
n
−X| ≥
ε) ≤ 4ε si n est assez grand. 2
Soit Ω = [0, 1[ muni de la tribu bor´elienne et de la mesure de Lebesgue. Pour tout
a > 0, la suite X
n
= n
a
1
[0,
1
n
[
converge en probabilit´e vers 0 tandis que si a > 1 la suite
X
n
ne converge pas vers 0 dans L
1
. De plus, pour tout k ≥ 1 et tout n = 0, , 2
k
− 1,
soit X
k,n
= 1
[n2
−k
,(n+1)2
−k
[
. En ordonnant les couples (k, n) pr´ec´edents de telle sorte que
(k
1
, n
1
) ≤ (k
2
, n
2
) si k
1
< k
2
, ou bien si k
1
= k
2
et n
1
≤ n
2
, on en d´eduit que cette suite
converge vers 0 dans L
1
, et donc aussi en probabilit´e, mais pas presque sˆ urement. On voit
donc que les r´eciproques des propri´et´es (i) et (ii) sont fausses (sans restriction de sous-suite
ou bien sans condition suppl´ementaires).
La convergence en probabilit´e est m´etrisable, comme le montre la proposition suivante.
Proposition 5.3 Soit X et Y des variables al´eatoires `a valeurs dans R
d
, et
d(X, Y ) = E

|X −Y |
1 +|X −Y |

. (5.2)
11 novembre 2007 Probabilit´es 1 - Annie Millet
70 5 Th´eor`emes de convergence
Alors d est une distance (sur l’ensemble quotient des variables al´eatoires par les variables
al´eatoires n´egligeables, c’est `a dire telles que |X| = 0 p.s.). L’ensemble des vecteurs al´eatoires
(quotient´e par les vecteurs n´egligeables) est complet pour d.
De plus, pour toute suite de vecteurs al´eatoires (X
n
) `a valeurs dans R
d
, la suite (X
n
)
converge vers X en probabilit´e si et seulement si la suite d(X
n
, X) converge vers 0.
D´emonstration. (i) Montrons tout d’abord que d est une distance. La fonction f : [0, +∞[→
[0, +∞[ d´efinie par f(x) =
x
1+x
est croissante et l’in´egalit´e triangulaire pour la norme sur
R
d
entraˆıne que pour X, Y, Z : Ω →R
d
,
d(X, Z) ≤ E (f(|X −Y | +|Y −Z|)) ≤ E

|X −Y |
1 +|X −Y |
+
|Y −Z|
1 +|Y −Z|

,
ce qui entraˆıne l’in´egalit´e triangulaire pour d. De fa¸ con ´evidente d(X, Y ) = d(Y, X). Enfin,
si d(X, Y ) = 0, on a
|X−Y |
1+|X−Y |
= 0 p.s., ce qui entraˆıne X = Y p.s.
(ii) Montrons que l’ensemble des vecteurs al´eatoires muni de la distance d est complet.
Soit tout d’abord (X
n
) une suite de vecteurs al´eatoires telle que
¸
n
d(X
n
, X
n+1
) < +∞.
Montrons tout d’abord que la suite (X
n
) converge presque sˆ urement vers un vecteur al´eatoire
X. En effet, le th´eor`eme de convergence monotone 1.23 (ou bien le th´eor`eme de Fubini-
Tonelli 1.53) montre que E(
¸
n
|Xn−X
n+1
|
1+|Xn−X
n+1
|
) =
¸
n
d(X
n
, X
n+1
) < +∞, ce qui entraˆıne que
¸
n
|Xn−X
n+1
|
1+|Xn−X
n+1
|
< +∞ p.s. Puisque la convergence de la s´erie `a termes positifs
¸
n
a
n
est
´equivalente `a celle de la s´erie
¸
n
an
1+an
, on en d´eduit que
¸
n
|X
n
− X
n+1
| < +∞ p.s., et
donc que la suite X
n
converge presque sˆ urement vers un vecteur al´eatoire not´e X.
La suite
|Xn−X|
1+|Xn−X|
converge donc presque sˆ urement vers 0 et est domin´ee par 1. Le
th´eor`eme de convergence domin´ee permet de conclure que la suite d(X
n
, X) converge vers
0.
Ceci montre que l’espace m´etrique des (classes d’´equivalence de) vecteurs al´eatoires muni
de la distance d est complet. En effet, si une suite (Y
n
) est de Cauchy, on peut en extraire
une sous-suite X
k
= Y
n
k
telle que
¸
k
d(X
k
, X
k+1
) < +∞, et nous venons de prouver qu’il
existe X tel que d(X
n
k
, X) → 0 quand k → +∞. Une suite de Cauchy dont une sous-suite
converge vers X converge vers X, ce qui termine la d´emonstration de la compl´etude de
l’espace m´etrique.
(3) Il reste `a montrer que la convergence en probabilit´e est ´equivalente `a celle pour d.
Soit (X
n
) une suite qui converge vers X en probabilit´e. Alors
E

|X
n
−X|
1 +|X
n
−X|


ε
1 +ε
+

||Xn−X|≥ε¦
|X
n
−X|
1 +|X
n
−X|
dP ≤ ε+P(|X
n
−X| ≥ ε) ≤ 2ε
pour n assez grand.
R´eciproquement, si la suite (X
n
) ne converge pas vers X en probabilit´e, il existe ε > 0
et α > 0 tels que pour tout N, il existe n ≥ N pour lequel P(|X
n
− X| ≥ ε) ≥ α. Alors,
puisque x ∈ [0, +∞[→
x
1+x
est croissante,
d(X
n
, X) ≥

||Xn−X|≥ε¦
|X
n
−X|
1 +|X
n
−X|
dP ≥
ε
1 +ε
P(|X
n
−X| ≥ ε) ≥
ε
1 +ε
α.
Probabilit´es 1 - Annie Millet 11 novembre 2007
5.2 Lois des grands nombres 71
La suite d(X
n
, X) ne converge donc pas vers 0. 2
La proposition suivante montre par exemple que la somme (et le produit) de suites
de variables al´eatoires r´eelles qui convergent en probabilit´e converge vers la somme (et le
produit) des limites. Sa d´emonstration est laiss´ee en exercice. (On pourra se ramener `a un
compact de R
2
et utiliser la continuit´e uniforme d’une fonction continue sur un compact.)
Proposition 5.4 (i) Soit (X
n
) et (Y
n
) des suites de variables al´eatoires r´eelles telles que
X
n
(resp. Y
n
) converge en probabilit´e vers X (resp. vers Y ) et soit f : R
2
→R une fonction
continue. Alors la suite f(X
n
, Y
n
) converge en probabilit´e vers f(X, Y ).
(ii) Si P(X = 0) = 0, la suite
1
Xn
converge en probabilit´e vers
1
X
.
5.2 Lois des grands nombres
Montrons tout d’abord que la moyenne d’une suite de variables al´eatoires i.i.d. de carr´e
int´egrable converge en probabilit´e. Ce r´esultat, dont la d´emonstration est tr`es simple, suffit
dans de nombreuses situations concr`etes. Nous prouvons tout d’abord un r´esultat un peu
plus g´en´eral, dont la loi faible des grands nombres est une cons´equence imm´ediate.
Pour toute variable al´eatoire r´eelle Z ∈ L
2
et λ > 0, la version suivante de l’in´egalit´e de
Markov est appel´ee in´egalit´e de Bienayme-Chebychev :
P([Z −E(Z)[ ≥ λ) ≤
V ar(Z)
λ
2
. (5.3)
Elle d´ecoule imm´ediatement de l’in´egalit´e de Markov pour la variable al´eatoire [Z −E(Z)[
2
et la constante λ
2
(et montre directement que la convergence dans L
2
entraˆıne la convergence
en probabilit´e) .
Th´eor`eme 5.5 Soit (X
n
) une suite de variables al´eatoires r´eelles ind´ependantes de carr´e
int´egrable ; pour tout n ≥ 1, notons m
n
= E(X
n
) et σ
2
n
= V ar(X
n
). Supposons qu’il existe
m ∈ R tel que
lim
n
1
n
n
¸
k=1
m
k
= m et
n
¸
k=1
σ
2
k
= o(n
2
).
Alors la suite
¯
X
n
converge dans L
2
(et donc en probabilit´e) vers m.
D´emonstration. Puisque (a + b)
2
≤ 2(a
2
+ b
2
), l’ind´ependance de la suite (X
n
) entraˆıne
que pour tout n ≥ 1
E([
¯
X
n
−m[
2
) ≤ 2E

¸

¯
X
n

1
n
n
¸
k=1
m
k

2

+2

1
n
n
¸
k=1
m
k
−m

2

2
n
2
n
¸
k=1
σ
2
k
+2

1
n
n
¸
k=1
m
k
−m

2
.
Ceci termine la d´emonstration. 2
Si la suite (X
n
) est i.i.d. r´eelle de carr´e int´egrable, d’esp´erance m et de variance σ
2
, on
a
1
n
¸
n
k=1
m
k
= m et
¸
n
k=1
σ
2
k
= nσ
2
. En raisonnant pour chaque composante d’un vecteur
al´eatoire, on en d´eduit imm´ediatement le
Corollaire 5.6 Soit (X
n
) une suite de vecteurs al´eatoires ind´ependants et de mˆeme loi de
carr´e int´egrable. Alors la suite
¯
X
n
converge dans L
2
, et donc aussi en probabilit´e, vers E(X).
11 novembre 2007 Probabilit´es 1 - Annie Millet
72 5 Th´eor`emes de convergence
Cependant, dans certaines situations, la loi faible des grands nombres est insuffisante.
Par exemple, la m´ethode de Monte-Carlo consiste `a approximer l’esp´erance d’une variable
al´eatoire par la moyenne
¯
X
n
(ω) pour une seule r´ealisation (x
n
= X
n
(ω) , n ≥ 1) de la suite
(X
n
, n ≥ 1), c’est `a dire pour une seule valeur de ω. Il est clair qu’un r´esultat de convergence
en probabilit´e est insuffisant pour prouver que pour presque toute r´ealisation, la suite
¯
X
n
(ω)
approxime E(X). D’autre part, on aimerait affaiblir la condition de carr´e int´egrable par la
condition plus naturelle d’int´egrabilit´e sur la suite i.i.d. (X
n
). Ces deux am´eliorations font
l’objet du th´eor`eme suivant.
Th´eor`eme 5.7 Soit (X
n
) une suite de vecteurs al´eatoires ind´ependants de mˆeme loi int´e-
grable. Alors la suite
¯
X
n
converge presque sˆ urement vers E(X
1
).
D´emonstration. (1) En raisonnant sur chaque composante de la suite (X
n
), on se ram`ene
au cas de variables al´eatoires i.i.d., r´eelles et int´egrables. D’autre part, en rempla¸ cant la
suite i.i.d. (X
n
) par la suite i.i.d. centr´ee

Y
n
= X
n
− E(X
n
), n ≥ 1

, on se ram`ene au cas
o` u E(X
1
) = 0. Nous consid´erons donc une suite i.i.d. de variables al´eatoires r´eelles centr´ees
(X
n
).
(2) Nous ne ferons la d´emonstration que lorsque la suite (X
n
) est de carr´e int´egrable
et montrons tout d’abord que la suite
¯
X
n
2 converge p.s. vers 0. En effet, pour tout ε > 0,
l’in´egalit´e de Bienayme-Chebychev (5.3) montre que
P([
¯
X
n
2[ ≥ ε) ≤
1
ε
2
V ar(
¯
X
n
2) =
n
2
V ar(X
1
)
n
4
ε
2
=
V ar(X
1
)
n
2
ε
2
.
Le lemme de Borel-Cantelli (2.2) montre que P(limsup¦[
¯
X
n
2[ ≥ n

1
4
¦) = 0. Pour presque
tout ω, il existe donc un entier N(ω) tel que pour n ≥ N(ω), [
¯
X
n
2(ω)[ ≤ n

1
4
, ce qui montre
la convergence presque sˆ ure de
¯
X
n
2 vers 0.
(3) Supposons toujours que la suite (X
n
) est de carr´e int´egrable, et montrons que la suite
¯
X
n
converge p.s. Pour tout entier n ≥ 1, notons
A
ε
n
= ¦ω : ∃k ∈ ¦n
2
, n
2
+ 1, , (n + 1)
2
−1¦, [
¯
X
k

¯
X
n
2[(ω) > ε¦.
Alors l’in´egalit´e de Markov (1.5), l’in´egalit´e triviale (a + b)
2
≤ 2a
2
+ 2b
2
et l’ind´ependance
des X
n
entraˆınent que pour tout ε > 0,
P(A
ε
n
) ≤
1
ε
2
P([
¯
X
k

¯
X
n
2[ ≥ ε) ≤
(n+1)
2
−1
¸
k=n
2
1
ε
2
E([
¯
X
k

¯
X
n
2[
2
)

(n+1)
2
−1
¸
k=n
2
1
ε
2
E

1
k

1
n
2

n
2
¸
i=1
X
i
+
1
k
k
¸
i=n
2
+1
X
i

2
¸
¸

2
ε
2
(n+1)
2
−1
¸
k=n
2
(k −n
2
)
2
(kn
2
)
2
V ar

n
2
¸
i=1
X
i

+
2
ε
2
(n+1)
2
−1
¸
k=n
2
1
k
2
V ar

k
¸
i=n
2
+1
X
i


2
ε
2
(n+1)
2
−1
¸
k=n
2
(2n)
2
n
8
n
2
V ar(X
1
) +
2
ε
2
(n+1)
2
−1
¸
k=n
2
1
n
4
2nV ar(X
1
)

C
ε
2

1
n
3
+
1
n
2


C
ε
2
n
2
.
Probabilit´es 1 - Annie Millet 11 novembre 2007
5.3 Convergence en loi 73
Puisque
¸
n
P(A
n

1
4
n
) < +∞, le lemme de Borel-Cantelli entraˆıne que P(limsup A
n

1
4
n
) = 0.
On en d´eduit que pour presque tout ω et tout ε > 0, il existe N
1
(ω) tel que pour tout
n ≥ N
1
(ω), et pour tout k ∈ ¦n
2
, , (n+1)
2
−1¦, [
¯
X
k

¯
X
n
2 [(ω) ≤ ε. De plus pour presque
tout ω il existe N
2
(ω) tel que pour tout n ≥ N
2
(ω), [
¯
X
n
2(ω)[ ≤ ε. La suite (
¯
X
n
) converge
donc presque sˆ urement vers 0. 2
5.3 Convergence en loi
La notion suivante correspond `a la convergence vague des mesures (et `a la convergence
´etroite des lois). C’est la plus faible de toutes les convergences ´etudi´ees et, contrairement
aux pr´ec´edentes, elle ne demande pas que toutes les variables al´eatoires soient d´efinies sur
le mˆeme espace probabilis´e.
5.3.1 D´efinition
La convergence en loi est, comme son nom l’indique, une notion qui ne d´epend pas
de l’espace probabilis´e sur lequel les variables al´eatoires sont d´efinies (comme toutes les
convergences pr´ec´edentes), mais se d´efinit seulement comme la convergence des lois des
variables al´eatoires.
D´efinition 5.8 (i) Une suite de probabilit´es (µ
n
) sur 1
d
converge ´etroitement vers la pro-
babilit´e µ si pour toute fonction f : R
d
→ R continue born´ee, la suite

fdµ
n
, n ≥ 1

converge vers

fdµ.
(ii) Soit (Ω
n
, T
n
, P
n
) une suite d’espaces probabilis´es et (Ω, T, P) un espace probabilis´e.
Une suite de vecteurs al´eatoires X
n
: (Ω
n
, T
n
) → (R
d
, 1
d
) converge en loi vers la variable
al´eatoire X : (Ω, T → (R
d
, 1
d
) si la suite (P
n
)
Xn
= P
n
◦ X
−1
n
des lois de X
n
converge vers
la loi P
X
= P ◦X
−1
de X. Si tous les espaces probabilis´es sont les mˆemes, la convergence en
loi de la suite (X
n
) vers X est donc d´efinie par la convergence de la suite

E[f(X
n
)], n ≥ 1

vers E[f(X)] pour toute fonction continue born´ee f : R
d
→R.
Une probabilit´e µ sur 1
d
´etant caract´eris´ee par la famille des int´egrales

fdµ pour
les fonctions f continues born´ees (d’apr`es la version fonctionnelle du th´eor`eme de la classe
monotone), on voit que si une suite (X
n
) de vecteurs al´eatoires converge en loi vers X, c’est
`a dire si la suite des lois P
Xn
converge ´etroitement vers la loi P
X
, la loi limite est unique
(mais pas la variable al´eatoire, ni l’espace probabilis´e sur lequel elle est d´efinie).
La proposition suivante permet de caract´eriser la convergence en loi de la suite de va-
riables al´eatoires (X
n
) en restreignant la classe de fonctions f dans la d´efinition. Cela cor-
respond `a la convergence faible (pour des fonctions continues f telles que f(x) → 0 quand
[x[ → ∞), ou mˆeme vague (pour des fonctions continues `a support compact) de la suite des
lois.
Convention de notation Afin de simplifier les notations, nous supposerons dans la suite
que tous les espaces probabilis´es sur lesquels les variables al´eatoires sont d´efinies sont le
mˆeme espace (Ω, T, P). De nombreux r´esultats restent valables dans le cas d’une suite de
variables al´eatoires d´efinies sur des espaces probabilis´es diff´erents.
Proposition 5.9 Une suite de vecteurs al´eatoires X
n
: Ω → R
d
converge en loi vers X :
Ω → R
d
si et seulement si pour toute fonction f : R
d
→ R continue `a support compact, la
suite

E[f(X
n
)], n ≥ 1

converge vers E[f(X)].
11 novembre 2007 Probabilit´es 1 - Annie Millet
74 5 Th´eor`emes de convergence
D´emonstration. La convergence des int´egrales de fonctions continues born´ees entraˆıne
celle de fonctions continues `a support compact (ou bien qui tendent vers 0 `a l’infini).
R´eciproquement, soit f une fonction continue born´ee et (h
k
, k ≥ 1) une suite de fonc-
tions continues `a support compact qui croit vers 1 (par exemple d´efinies par h
k
(x) = 1 si
|x| ≤ k, h
k
(x) = 0 si |x| ≥ k + 1 et h
k
(x) = k + 1 −|x| si k < |x| < k + 1. Alors
[E[f(X
n
) −f(X)][ ≤ [E[(fh
k
)(X
n
) −(fh
k
)(X)][
+[E[f(X
n
)(1 −h
k
(X
n
))][ +[E[f(X)(1 −h
k
(X))][
≤ [E[(fh
k
)(X
n
) −(fh
k
)(X)][
+|f|

(1 −E[h
k
(X
n
)]) +|f|

(1 −E[h
k
(X)]) .
Pour tout ε > 0, le th´eor`eme de convergence domin´ee 1.36 montre qu’on peut choisir k tel
que 1 −E[h
k
(X)] < ε. La fonction h
k
´etant continue `a support compact, la suite E[h
k
(X
n
)]
converge vers E[h
k
(X)] quand n → ∞ et on peut trouver N
1
tel que pour n ≥ N
1
, 1 −
E(h
k
(X
n
)) < 2ε. Enfin, la fonction (fh
k
) ´etant `a support compact, on peut trouver N
2
tel
que pour tout n ≥ N
2
, [E[(fh
k
)(X
n
) −(fh
k
)(X)][ ≤ ε. On en d´eduit que pour n ≥ N
1
∨N
2
,
[E[f(X
n
) −f(X)][ ≤ (1 + 3|f|

)ε. 2
L’exemple µ
u
= δ
n
fournit une suite de probabilit´es telle que pour toute fonction f
continue qui tend vers 0 `a l’infini (par exemple continue `a support compact), la suite

fdµ
n
, n ≥ 1

converge vers 0. La suite (δ
n
) converge donc faiblement vers 0 (c’est `a
dire qu’il peut y avoir « perte de masse totale »). La suite des variables al´eatoires (X
n
= n)
ne converge dons pas en loi. Quand on demande que la mesure limite soit de nouveau une
probabilit´e (par exemple la loi d’une variable al´eatoire), on ´evite ce probl`eme de perte de
masse.
Proposition 5.10 Si une suite de vecteurs al´eatoires (X
n
) `a valeurs dans R
d
converge en
loi vers un vecteur al´eatoire X `a valeurs dans R
d
, la suite P
Xn
des lois de X
n
est tendue,
c’est `a dire que pour tout ε > 0 il existe une constante K > 0 telle que
sup
n
P(|X
n
| ≥ K) ≤ ε. (5.4)
D´emonstration. Pour tout ε > 0, il existe K
1
tel que P(|X| ≥ K
1
) ≤ ε. On peut
construire une fonction continue f telle que f(x) = 0 si |x| ≤ K
1
, 0 ≤ f ≤ 1 et f(x) = 1 si
|x| ≥ K
1
+ 1. Alors il existe N tel que pour n ≥ N, [E(f(X)) −E(f(X
n
))[ ≤ ε et
P(|X
n
| ≥ K
1
+ 1) ≤ E[f(X
n
)] ≤ E[f(X)] + ε ≤ P(|X| ≥ K
1
) + ε ≤ 2ε.
Il reste `a choisir K
2
tel que pour n = 1, , N −1, P(|X
n
| ≥ K
2
) ≤ ε pour en d´eduire que
pour tout n ≥ 1 et K = K
1
∨ K
2
, l’in´egalit´e P(|X
n
| ≥ K) ≤ 2ε est vraie. 2
Le th´eor`eme suivant montre que la convergence en loi est la plus faible de toutes les
notions de convergence que nous avons ´etudi´ees.
Proposition 5.11 Soit (X
n
) une suite de vecteurs al´eatoires `a valeurs dans R
d
d´efinies sur
le mˆeme espace probabilis´e.
(i) Si la suite (X
n
) converge en probabilit´e vers X, alors X
n
converge en loi vers X.
(ii) Si la suite (X
n
) converge en loi vers une variable al´eatoire X presque sˆ urement
constante, alors (X
n
) converge vers X en probabilit´e.
Probabilit´es 1 - Annie Millet 11 novembre 2007
5.3 Convergence en loi 75
D´emonstration. (i) Soit f : R
d
→ R une fonction continue `a support compact. Elle est
uniform´ement continue et pour tout ε > 0 il existe donc α > 0 tel que |x −y| ≤ α entraˆıne
[f(x) −f(y)[ ≤ ε. Alors
[E[f(X
n
) −f(X)][ ≤ ε + 2|f|

P(|X
n
−X| ≥ α).
La convergence de P(|X
n
− X| ≥ α) vers 0 montre alors que la suite E[f(X
n
)] converge
vers E[f(X)] et la Proposition 5.9 permet de conclure.
(ii) Soit (X
n
) une suite qui converge en loi vers le vecteur constant a ∈ R
d
. Pour tout
λ > 0 soit f une fonction continue telle que 0 ≤ f ≤ 1, f(x) = 1 si |x −a| ≥ λ et f(x) = 0
si |x −a| ≤
λ
2
. Alors, quand n → ∞
P(|X
n
−a| ≥ λ) ≤ E[f(X
n
)] → 0. 2
L’exemple suivant montre que, sauf dans le cas d’une limite constante, la convergence
en loi est strictement plus faible que celle en probabilit´e.
Exemple 5.12 Soit X et Y des variables al´eatoires ind´ependantes de Bernoulli de pa-
ram`etre p ∈]0, 1[. Soit X
n
= Y pour tout entier n. Alors la suite (X
n
) converge en loi vers
Y et donc aussi vers X. Par contre pour tout λ ≤ 1, P([X
n
− X[ ≥ λ) = P(X = 0, Y =
1) +P(X = 1, Y = 0) = 2p(1 −p). La suite (X
n
) ne converge donc pas en probabilit´e vers
X.
Le tableau suivant r´ecapitule les liens entre les divers modes de convergence.
X
n
L
2
−→ X ⇒ X
n
L
1
−→ X ⇒ X
n
Proba
−→ X ⇒ X
n
Loi
−→ X

X
n
p.s.
−→ X
Si les variables al´eatoires X
n
et X prennent des valeurs discr`etes, on caract´erise facile-
ment la convergence en loi de (X
n
) vers X.
Proposition 5.13 Soit (X
n
) une suite de variables al´eatoires qui prennent leurs valeurs
dans un ensemble I ⊂ R fini ou bien dans I = N. Alors la suite (X
n
) converge en loi vers la
variable al´eatoire X : Ω → I si et seulement si pour tout i ∈ I, la suite

P(X
n
= i), n ≥ 1

converge vers P(X = i).
D´emonstration. Pour toute fonction continue `a support compact f : R → R, le support
de f ne contient qu’un sous-ensemble fini J ⊂ I. Donc E[f(X
n
)] =
¸
i∈J
f(i)P(X
n
= i)
converge vers E[f(X)] =
¸
i∈J
f(i)P(X = i) si pour chaque i ∈ I, P(X
n
= i) converge vers
P(X = i) lorsque n → ∞.
R´eciproquement, pour tout i ∈ I, il existe une fonction continue born´ee f
i
telle que
f
i
(i) = 1 et telle que pour tout j = i, f
i
(j) = 0. On en d´eduit que P(X
n
= i) = E[f
i
(X
n
)]
converge vers P(X = i) = E[f
i
(X)] si la suite (X
n
) converge faiblement vers X. 2
On montrera comme exercice que si (X
n
) est une suite de variables al´eatoires de loi
binomiales B(n, p
n
) telles que np
n
→ λ > 0 quand n tend vers +∞, alors la suite (X
n
)
converge en loi vers une variable al´eatoire X de loi de Poisson de param`etre λ.
11 novembre 2007 Probabilit´es 1 - Annie Millet
76 5 Th´eor`emes de convergence
5.3.2 Convergence en loi et fonction de r´epartition
Soit (X
n
) une suite de variables al´eatoires qui converge en loi vers X ; on cherche `a
montrer que pour un bor´elien A ∈ 1
d
, la suite

P(X
n
∈ A), n ≥ 1

converge vers P(X ∈ A).
L’exemple suivant montre qu’il faut ajouter des contraintes sur A. En effet, la fonction
indicatrice 1
A
est born´ee, mais n’est pas continue.
Exemple 5.14 La suite de variables al´eatoires X
n
=
1
n
converge en loi vers X = 0. Par
contre, l’ensemble A =] − ∞, 0] est tel que pour tout entier n, P(X
n
∈ A) = 0 tandis que
P(X ∈ A) = 1. Cet exemple met en ´evidence que le lien entre la loi de X et la fronti`ere de
A est crucial.
Th´eor`eme 5.15 Soit (X
n
) une suite de vecteurs al´eatoires `a valeurs dans R
d
qui converge
en loi vers X et soit A un ensemble bor´elien de R
d
de fronti`ere δ(A). Alors quand n → ∞,
si P(X ∈ δA) = 0, P(X
n
∈ A) → P(X ∈ A). (5.5)
D´emonstration. Nous allons encadrer la fonction indicatrice de A par deux suites (f
k
) et
(g
k
) de fonctions continues telles que (f
k
) croit vers 1◦
A
et (g
k
) d´ecroˆıt vers 1 ¯
A
.
En effet, la fonction x → d(x, A
c
) est continue et est nulle sur l’adh´erence A
c
de A
c
. La
suite de fonctions d´efinie par
f
k
= inf(1, kd(., A
c
))
est donc une suite croissante de fonctions continues, telle que 0 ≤ f
k
≤ 1, et qui v´erifie
f
k
(x) = 0 si x ∈ A
c
= (

A
)
c
tandis que f
k
(x) → 1 si d(x, A
c
) > 0, c’est `a dire si x ∈

A
.
De mˆeme soit
g
k
= 1 −inf(1, kd(., A)).
La suite (g
k
) de fonctions continues est d´ecroissante, telle que 0 ≤ g
k
≤ 1 et g
k
(x) = 1 si
x ∈
¯
A et g
k
(x) → 0 si x ∈
¯
A. Ainsi pour tout entier k ≥ 1,
f
k
≤ 1◦
A
≤ 1 ¯
A
≤ g
k
.
L’hypoth`ese faite sur la fronti`ere de A montre que pour tout ε > 0, il existe un entier K tel
que E[g
K
(X) −f
K
(X)] ≤ ε. La convergence en loi de (X
n
) vers X montre alors qu’il existe
un entier N tel que pour tout n ≥ N, [E[g
K
(X
n
)−g
K
(X)][ ≤ ε et [E[f
K
(X
n
)−f
K
(X)][ ≤ ε.
On en d´eduit alors que pour tout n ≥ N,
[P(X
n
∈ A) −P(X ∈ A)[ ≤ 3ε,
ce qui termine la d´emonstration. 2
En prenant comme ensemble A =] −∞, t], on relie la convergence en loi `a la convergence
simple des fonctions de r´epartition. Rappelons que pour toute variable al´eatoire X : Ω →R
la fonction de r´epartition F de X est d´efinie par F(t) = P(X ≤ t).
Th´eor`eme 5.16 Soit (X
n
) une suite de variables al´eatoires r´eelles de fonctions de r´epartition
F
n
et X une variable al´eatoire r´eelle de fonction de r´epartition F. Alors la suite (X
n
)
converge vers X en loi si et seulement si
pour tout t ∈ R tel que P(X = t) = 0, F
n
(t) = P(X
n
≤ t) → F(t) = P(X ≤ t).
Probabilit´es 1 - Annie Millet 11 novembre 2007
5.3 Convergence en loi 77
D´emonstration. Le sens direct vient du th´eor`eme pr´ec´edent, puisque la fronti`ere de ]−∞, t]
est ¦t¦. La r´eciproque est admise. Ce th´eor`eme montre en particulier que si la variable
al´eatoire X a une densit´e, alors (X
n
) converge vers X en loi si et seulement si la suite (F
n
)
des fonctions de r´epartition de X
n
converge simplement vers X. 2
Exemple 5.17 Le th´eor`eme 5.16 est utile pour montrer la convergence en loi de suites de
variables al´eatoires d´efinies comme des supremum ou des infimum de suites de variables
al´eatoires ind´ependantes. Ainsi, soit (X
n
) une suite de variables al´eatoires ind´ependantes de
mˆeme loi uniforme sur l’intervalle [a, b] avec a < b (d´efinies sur le mˆeme espace probabilis´e).
Alors les suites I
n
= inf(X
1
, , X
n
) et M
n
= sup(X
1
, , X
n
) convergent en probabilit´e
respectivement vers a et b.
D’apr`es la Proposition 5.11, il suffit de prouver que les suites (I
n
) et (M
n
) convergent
en loi respectivement vers les constantes a et b. La fonction de r´epartition de la constante
b est la fonction F = 1
[b,+∞[
. Le th´eor`eme 5.16 montre que la suite (M
n
) converge en loi
vers b si et seulement si pour tout t = b, la suite P(M
n
≤ t) converge vers F(t). Pour
tout t ≤ a, P(M
n
≤ t) = 0, pour tout t ≥ b, P(M
n
≤ t) = 1 et pour tout t ∈]a, b[,
P(M
n
≤ t) =

t−a
b−a

n
→ 0 quand n → ∞. La d´emonstration de la convergence en loi de
(I
n
), qui est similaire, est laiss´ee en exercice.
5.3.3 Convergence en loi et fonction caract´eristique
La fonction caract´eristique est de nouveau un outil tr`es puissant pour caract´eriser la
convergence en loi. De plus, la convergence en loi et la convolution par des lois gaussiennes
de variance qui tend vers 0 permettent de retrouver la loi d’une variable al´eatoire `a partir
de sa fonction caract´eristique.
Le r´esultat suivant est important, car il est `a la base de l’injectivit´e de la transformation
de Fourier et de la formule d’inversion de Fourier qui ont ´et´e ´enonc´es dans le chapitre
pr´ec´edent (Th´eor`emes 4.4 et 4.8). Rappelons que l’on note 'x, y` le produit scalaire des
vecteurs x et y et |x|
2
= 'x, x` le carr´e de la norme euclidienne de x.
Th´eor`eme 5.18 (i) Pour tout n, soit X
n
un vecteur al´eatoire gaussien de R
d
dont les
composantes sont ^(0, 1) ind´ependantes. Alors pour toute suite σ
n
qui converge vers 0, la
suite de variables al´eatoires σ
n
X
n
converge en probabilit´e vers 0.
(ii) De plus, pour toute probabilit´e µ sur 1
d
, si on note
ˆ µ(t) =

R
d
e
i/t,x)
µ(dx)
la transform´ee de Fourier de µ et g
σ
(x) =
1


2π)
d
exp


|x|
2

2

la densit´e du vecteur gaussien
centr´e de matrice de covariance σ
2
Id
d
, alors pour toute suite (σ
n
) qui converge vers 0, la
suite de probabilit´es de densit´e
h
σn
(x) = µ ∗ g
σn
(x) =

g
σn
(x −y)µ(dy) =
1
(2π)
d

R
d
ˆ µ(t)e
−i/t,x)
exp


σ
2
n
|t|
2
2

dt (5.6)
converge ´etroitement vers µ. Ceci revient `a dire que pour toute variable al´eatoire Y de loi µ
ind´ependante de la suite (X
n
), la suite de variables al´eatoires (X
n
+Y ) converge en loi vers
Y .
11 novembre 2007 Probabilit´es 1 - Annie Millet
78 5 Th´eor`emes de convergence
(iii) Enfin, pour toute fonction f int´egrable pour la mesure de Lebesgue λ
d
, si
ˆ
f(t) =

R
d
e
i/t,x)
f(x)dx
d´esigne la transform´ee de Fourier de f, quand la suite (σ
n
) tend 0, la suite de fonctions
(f ∗ g
σn
)(x) =
1
(2π)
d

R
d
ˆ
f(t)e
−i/t,x)
exp


σ
2
n
|t|
2
2

dt
converge vers f dans L
1

d
). De plus, si les fonctions f et
ˆ
f sont int´egrables pour la mesure
de Lebesgue, on a la formule d’inversion de Fourier
f(x) =
1
(2π)
d

R
d
e
−i/t,x)
ˆ
f(t)dt , pour presque tout x ∈ R
d
. (5.7)
D´emonstration. (i) Pour tout λ > 0, P(|X
n
| ≥ λ) = P

|Y | ≥
λ
σn

si Y suit une loi
^(0, Id). Puisque |Y | < +∞ p.s., on en d´eduit que P(|X
n
| ≥ λ) → 0.
(ii) Un changement de variables et le th´eor`eme de Fubini-Tonelli 1.53 montrent que si
X
n
et Y sont des vecteurs al´eatoires ind´ependants respectivement gaussien ^(0, σ
2
n
Id) et
de loi µ, alors pour toute fonction bor´elienne positive φ : R
d
→ [0, +∞[, on a
E[φ(X
n
+ Y )] =

R
d

R
d
φ(x + y)g
σn
(x)dxµ(dy) =

R
d
dzφ(z)

R
d
g
σn
(z −y)µ(dy)

,
ce qui montre que la densit´e de X
n
+ Y est h
σn
(x).
D’autre part, pour tout σ > 0, l’´equation (4.9) montre que g
σ
(x) =

1
σ

d
ˆ g1
σ
(x) =

1
σ

d
ˆ g1
σ
(−x) et on a
h
σ
(x) =
1


2π)
d

R
d
ˆ g1
σ
(y −x)µ(dy)
=
1


2π)
d

R
d
¸
σ
d
(

2π)
d

R
d
exp

i't, y −x` −
σ
2
|t|
2
2

dt

µ(dy).
Puisque

exp

i't, y −x` −
σ
2
|t|
2
2

= exp


σ
2
|t|
2
2

, cette fonction est int´egrable par rap-
port `a la mesure produit dt ⊗µ et le th´eor`eme de Fubini Lebesgue 1.54 montre que
h
σ
(x) =
1
(2π)
d

R
d
¸
R
d
e
i/t,y)
µ(dy)

e
−i/t,x)−
σ
2
t
2
2
dt =
1
(2π)
d

R
d
ˆ µ(t)e
−i/t,x)−
σ
2
t
2
2
dt.
Ceci prouve (5.6).
Soit f : R
d
→R une fonction continue born´ee ; alors si
D
σ
=

R
d
h
σ
(x)f(x)dx −

R
d
f(y)µ(dy)

,
Probabilit´es 1 - Annie Millet 11 novembre 2007
5.3 Convergence en loi 79
le th´eor`eme de Fubini Lebesgue 1.54 appliqu´e `a la mesure µ(dy) ⊗ dx et `a la fonction
g
σ
(x −y)f(x) montre que
D
σ

R
d

R
d
g
σ
(x −y)f(x)dx −f(y)

µ(dy).
Pour tout ε > 0 il existe λ > 0 tel que pour tout σ > 0,

||x−y|≥σλ¦
g
σ
(x −y)dx =

||z|≥λ¦
g
1
(z)dz ≤ ε.
En d´ecoupant l’int´egrale sur les ensembles ¦|x − y| < σλ¦ et ¦|x − y| ≥ σλ¦ et en
utilisant la continuit´e de f au point y, on en d´eduit que pour tout y, lorsque σ → 0,

R
d
g
σ
(x−y)f(x)dx → f(y). De plus, cette diff´erence est major´ee par 2|f|

et le th´eor`eme
de convergence domin´ee 1.36 permet de conclure que D
σn
→ 0 quand σ
n
→ 0.
(iii) La convergence de (f ∗ g
σn
) vers f dans L
1

d
) est laiss´ee en exercice.
Montrons la formule d’inversion de Fourier si f et
ˆ
f sont toutes deux int´egrables. Pour
tout t ∈ R
d
quand σ → 0, la fonction t →
1
(2π)
d
ˆ
f(t) exp

−i't, x` −
σ
2
|t|
2
2

converge vers
t →
1
(2π)
d
ˆ
f(t)e
−i/t,x)
et reste domin´ee par [
1
(2π)
d
ˆ
f[ ∈ L
1

d
). Le th´eor`eme de convergence
domin´ee 1.36 montre donc que pour tout x ∈ R
d
, lorsque σ
n
→ 0, la suite (f ∗g
σn
(x), n ≥ 1)
converge vers
1
(2π)
d

R
d
e
−i/t,x)
ˆ
f(t)dt. En appliquant de nouveau le th´eor`eme de convergence
domin´ee on en d´eduit que pour toute fonction ϕ : R
d
→R continue born´ee, quand n → +∞

R
d
(f ∗ g
σn
(x)ϕ(x)dx →

R
d

R
d
1
(2π)
d

R
d
e
−i/t,x)
ˆ
f(t)dt

ϕ(x)dx.
Notons µ la mesure de de densit´e f par rapport `a la mesure de Lebesgue. Alors, µ∗g
σn
=
f ∗ g
σn
et d’apr`es (ii), la suite des mesures de densit´e f ∗ g
σn
converge ´etroitement vers la
mesure de densit´e f (par rapport `a la mesure de Lebesgue), c’est `a dire que pour toute
fonction ϕ : R
d
→R continue born´ee,

R
d
(f ∗ g
σn
(x)ϕ(x)dx →

R
d
ϕ(x)f(x)dx.
L’´egalit´e

R
d
ϕ(x)f(x)dx =

R
d
ϕ(x)g(x)dx pour toute fonction ϕ continue born´ee permet
de d´eduire f(x) = g(x) pour λ
d
presque tout x, ce qui montre la formule d’inversion de
Fourier (5.7). 2
Ce Th´eor`eme montre d’une part la formule d’inversion de Fourier annonc´ee dans le
Th´eor`eme 4.4 ainsi que les r´esultats annonc´es dans les Th´eor`emes 4.4 et 4.8. En effet, si µ
et ν sont deux probabilit´es sur 1
d
dont les transform´ees de Fourier ˆ µ et ˆ ν sont ´egales (c’est
`a dire soit X et Y des vecteurs al´eatoires de loi µ et ν respectivement dont les fonctions
caract´eristiques Φ
X
et Φ
Y
sont ´egales), alors d’apr`es la formule (5.6), les mesures de densit´e
µ ∗ g
σn
= ν ∗ g
σn
sont ´egales et quand σ
n
→ 0, elles convergent faiblement respectivement
vers µ et ν. L’unicit´e de la limite ´etroite de cette suite de probabilit´es montre que µ = ν.
11 novembre 2007 Probabilit´es 1 - Annie Millet
80 5 Th´eor`emes de convergence
Th´eor`eme 5.19 Soit (X
n
) une suite de vecteurs al´eatoires `a valeurs dans R
d
et X un
vecteur al´eatoire `a valeurs dans R
d
. Alors la suite (X
n
) converge en loi vers X si et seulement
si la suite des fonctions caract´eristiques de X
n
converge vers la fonction caract´eristique de
X, c’est `a dire si :
E(e
i/t,Xn)
) → E(e
i/t,X)
) pour tout t ∈ R
d
.
D´emonstration. Pour tout t ∈ R
d
, la fonction x → e
i/t,x)
est continue born´ee et la conver-
gence en loi de (X
n
) vers X entraˆıne donc la convergence simple de la suite (Φ
Xn
) vers
Φ
X
. On peut d’ailleurs montrer que la suite (Φ
Xn
) converge vers Φ
X
uniform´ement sur tout
compact.
R´eciproquement, l’´equation (5.6) montre que pour tout n et tout σ > 0,
P
Xn
∗ g
σ
(x) =

1

d

R
d
Φ
Xn
(t)e
−i/t,x)−
σ
2
t
2
2
dt.
Rappelons que pour tout vecteur al´eatoire Y [Φ
Y
[ ≤ 1. Puisque pour tout σ > 0, x ∈ R
d
la suite de fonctions t → Φ
Xn
(t)e
−i/t,x)−
σ
2
t
2
2
converge vers t → Φ
X
(t)e
−i/t,x)−
σ
2
t
2
2
et est
domin´ee par la fonction t → e

σ
2
t
2
2
∈ L
1

d
), le th´eor`eme de convergence domin´ee montre
que P
Xn
∗ g
σ
(x) converge vers P
X
∗ g
σ
(x) pour tout x. On peut r´ecrire cette convergence
sous la forme suivante : Soit 1 l’espace vectoriel des fonctions continues qui tendent vers 0
en l’infini et engendr´e par
c = ¦y → g
σ
(x −y) : x ∈ R
d
, σ > 0¦.
Alors pour toute fonction φ ∈ 1, E[φ(X
n
)] → E[φ(X)]. Le th´eor`eme de Stone Weierstrass
montre que l’espace vectoriel 1 est dense dans cet espace pour la norme ||

. On en d´eduit
que pour toute fonction f continue `a support compact (et qui tend donc vers 0 `a l’infini) et
tout ε > 0, il existe une fonction h ∈ 1 telle que |f −h|

< ε. Alors
[E[f(X
n
)] −E[f(X)][ ≤

(f −h)dP
Xn

+

(f −h)dP
X

+[E[h(X
n
)] −E[h(X)][
≤ 2ε +[E[h(X
n
)] −E[h(X)][ ≤ 3ε
si n est assez grand. La Proposition 5.9 permet alors de conclure que la suite (X
n
) converge
en loi vers X. 2
Le th´eor`eme suivant est un raffinement d’une des implications du th´eor`eme pr´ec´edent,
puisqu’il ne demande pas que la limite des fonctions caract´eristiques de X
n
soit une fonction
caract´eristique. Il est admis.
Th´eor`eme 5.20 (Th´eor`eme de L´evy) Soit (X
n
) une suite de variables al´eatoires r´eelles
dont la suite des fonctions caract´eristiques (Φ
Xn
) converge simplement vers une fonction Φ
continue en 0. Alors Φ est la fonction caract´eristique d’une variable al´eatoire r´eelle X et la
suite (X
n
) converge vers X en loi.
Exemple 5.21 Soit (X
n
, n ≥ 1) une suite de variables al´eatoires r´eelles ind´ependantes
telles que P(X
n
= 2
−n
) = P(X
n
= 2
n
) =
1
2
pour tout entier n ≥ 1. La suite S
n
=
¸
n
k=1
X
k
converge en loi. En effet, pour tout t ∈ R la fonction caract´eristique de S
n
est
Φ
Sn
(t) =
n
¸
k=1
e
it2
−n
+ e
−it2
−n
2
=
n
¸
k=1
cos(t2
−k
).
Probabilit´es 1 - Annie Millet 11 novembre 2007
5.4 Th´eor`eme de la limite centrale 81
La formule trigonom´etrique sin(2a) = 2 sin(a) cos(a) montre que pour tout n ≥ 1,
2
n
sin(t2
−n

Sn
(t) = sin(t).
Lorsque n → ∞, 2
n
sin(t2
−n
) converge vers t. Donc pour tout t = 0, la suite Φ
Sn
(t) converge
vers
sin(t)
t
, tandis que Φ
Sn
(0) = 1 converge vers 1. La fonction limite Φ d´efinie par Φ(t) =
sin(t)
t
si t = 0 et Φ(0) = 1 est continue en 0 et le th´eor`eme de L´evy montre que c’est la fonction
caract´eristique d’une variable al´eatoire X telle que (S
n
) converge en loi vers X.
On peut d’ailleurs identifier la loi de X comme ´etant uniforme sur l’intervalle ] − 1, 1[.
En effet, si f(x) =
1
2
1
]−1,+1[
(x), pour t = 0,
ˆ
f(t) =
1
2

1
−1
e
itx
dx =
1
2it

e
it
−e
−it

=
sin(t)
t
,
tandis que
ˆ
f(0) = 1. On en d´eduit que Φ(t) =
ˆ
f(t), c’est `a dire que X suit bien une loi
uniforme sur ] −1, +1[.
5.4 Th´eor`eme de la limite centrale
Ce th´eor`eme montre le rˆole central que les variables al´eatoires gaussiennes et les vecteurs
gaussiens jouent en probabilit´es. Convenablement renormalis´ee, une somme de variables
al´eatoires ind´ependantes de mˆeme loi de carr´e int´egrable converge en loi vers une loi « uni-
verselle » gaussienne ^(0, 1). D’autre part, ce th´eor`eme indique la vitesse de convergence
en
1

n
de la moyenne
¯
X
n
vers E(X) dans la loi forte des grands nombres.
Nous montrerons ce th´eor`eme dans le cadre classique d’une suite i.i.d. de carr´e int´egrable,
mais il admet de tr`es nombreuses extensions.
Conventions de notation Dans cette section, toutes les variables al´eatoires doivent ˆetre
d´efinies sur le mˆeme espace probabilis´e (Ω, T, P).
Pour toute suite de vecteurs al´eatoires (X
n
, n ≥ 1), on note
S
n
=
n
¸
k=1
X
k
,
¯
X
n
=
S
n
n
.
Th´eor`eme 5.22 (Th´eor`eme de la limite centrale)
Soit (X
n
, n ≥ 1) une suite de vecteurs al´eatoires `a valeurs dans R
d
, ind´ependantes de
mˆeme loi de carr´e int´egrable de vecteur esp´erance E(X) et de matrice de covariance Γ. Alors
la suite

n[
¯
X
n
−E(X)] , n ≥ 1) converge en loi vers un vecteur gaussien ^(0, Γ). (5.8)
D´emonstration. On se ram`ene imm´ediatement au cas o` u E(X) = 0. En effet, la suite
Y
n
= X
n
−E(X) est ´egalement ind´ependante, de carr´e int´egrable, de matrice de covariance
Γ et
¯
Y =
¯
X −E(X) ; clairement, E(Y
n
) = E(
¯
Y ) = 0.
Nous supposerons donc E(X) = 0. Notons Φ la fonction caract´eristique de X
1
; le
th´eor`eme 4.9 montre que pour vecteur t ∈ R
d
de norme |t| est assez petite, Φ(t) =
exp


1
2
˜
tΓt + o(|t|
2
)

. Pour tout t ∈ R
d
, on en d´eduit que pour n assez grand,
Φ

n
¯
Xn
(t) =
¸
Φ

t

n

n
= exp
¸

n
2
¯
t

n
Γ
t

n
+ no

t

n

2
¸
.
11 novembre 2007 Probabilit´es 1 - Annie Millet
82 5 Th´eor`emes de convergence
On en d´eduit que la suite des fonctions caract´eristiques de

n
¯
X
n
converge simplement
vers la fonction caract´eristique d’un vecteur gaussien ^(0, Γ) d’apr`es l’´equation (4.8). Le
th´eor`eme 5.19 permet de conclure. 2
Pour des variables al´eatoires r´eelles, on peut renormaliser par la racine carr´ee de la
variance de la loi et obtenir une loi limite ^(0, 1) qui a une densit´e.
Corollaire 5.23 Soit (X
n
, n ≥ 1) une suite de variables al´eatoires r´eelles ind´ependantes et
de mˆeme loi non constante et de carr´e int´egrable. Alors la suite de variables al´eatoires
S
n
−E(S
n
)

V ar(S
n
)
=

n
¯
X
n
−E(X
1
)

V ar(X
1
)
converge en loi vers une variable al´eatoire ^(0, 1).
Si on note F(t) =
1

t
−∞
e

x
2
2
dx la fonction de r´epartition d’une variable al´eatoire ^(0, 1),
P

S
n
−nE(X
1
)

nV ar(X
1
)
≤ t

→ F(t) , ∀t ∈ R.
D´emonstration. La d´efinition de convergence en loi montre que si la suite de variables
al´eatoires (X
n
) converge en loi vers X, pour toute constante a ∈ R la suite (aX
n
) converge
vers aX. Le th´eor`eme 5.22 appliqu´e avec d = 1 (pour une suite (X
n
) de variables al´eatoires
non constantes) et la remarque pr´ec´edente appliqu´ee `a a =
1

V ar(X
1
)
montrent que la suite

n

V ar(X
1
)

¯
X
n
−E(X
1
)

converge en loi vers une gaussienne ^(0, 1). Un calcul facile montre
que cette suite peut ˆetre ´ecrite en « normalisant » la suite S
n
, c’est `a dire sous la forme
Sn−E(Sn)

V ar(Sn)
et le th´eor`eme 5.16 conclut la d´emonstration grˆace `a la continuit´e de F. 2
Exemple 5.24 1) Soit (X
n
) une suite i.i.d. de lois de Bernoulli de param`etre p ∈]0, 1[.
Alors la suite
Sn−np

np(1−p)
converge en loi vers une variable ^(0, 1). Puisque pour tout n ≥ 1 la
variable al´eatoire S
n
suit une loi binomiale B(n, p), ceci entraˆıne imm´ediatement l’approxi-
mation gaussienne d’une loi binomiale pour n assez grand.
2) On suppose qu’un ordinateur arrondit tous les nombres `a 10
−9
pr`es, c’est `a dire qu’il
garde 9 chiffres apr`es la virgule. Il effectue la somme de 10
6
op´erations ´el´ementaires pour
lesquelles chaque erreur d’arrondi suit une loi uniforme sur l’intervalle


1
2
10
−9
,
1
2
10
−9

. Les
erreurs d’arrondi sont ind´ependantes et l’erreur sur le r´esultat final est la somme des erreurs
commises `a chaque op´eration. On veut trouver la probabilit´e que la valeur absolue de l’erreur
finale soit inf´erieure `a
1
2
10
−6
. On introduit une suite de variables al´eatoires (X
n
, 1 ≤ n ≤
10
9
) de variables al´eatoires ind´ependantes de mˆeme loi uniforme sur


1
2
10
−9
,
1
2
10
−9

. Alors
E(X
1
) = 0 et V ar(X
1
) =
1
12
10
−18
. On en d´eduit que si S =
¸
10
6
k=1
X
k
, la loi de
S
10
3
q
10
−18
12
est
proche d’une loi ^(0, 1) et que si Y suit une loi gaussienne ^(0, 1),
P

[S[ ≤
10
−6
2

= P

2

3[S[
10
−6

2

3 10
−6
2 10
−6

∼ P([Y [ ≤

3) = 2F(

3) −1 ∼ 0.91674.
Probabilit´es 1 - Annie Millet 11 novembre 2007
5.4 Th´eor`eme de la limite centrale 83
Le th´eor`eme de la limite centrale vectoriel entraˆıne le r´esultat suivant qui est `a la base
du test du χ
2
.
Soit (Y
n
) une suite de variables al´eatoires ind´ependantes de mˆeme loi prenant leurs
valeurs dans un espace d’´etats fini I comportant k ´el´ements not´es 1, , k. La loi des Y
i
est donc le vecteur p = (p
i
, 1 ≤ i ≤ k) ∈ R
k
o` u P(Y
1
= i) = p
i
. Notons (e
i
, 1 ≤ i ≤ k)
les vecteurs de la base canonique de R
k
et pour tout n, notons X
n
: Ω → R
k
la variable
al´eatoire d´efinie par
X
n
(ω) = e
i
si et seulement si Y
n
(ω) = i.
La i
`eme
composante du vecteur S
n
(ω) =
¸
n
j=1
X
j
(ω) est donc le nombre des tirages Y
j
(ω)
1 ≤ j ≤ n qui valent i et le vecteur
¯
X
n
donne les fr´equences auxquelles on a observ´e les
diverses valeurs i ∈ I.
Les variables al´eatoires X
n
sont clairement ind´ependantes de mˆeme loi. De plus, E(X
1
) =
p et pour tout i, j ∈ ¦1, , k¦,
Cov(X
i
, X
j
) = p
i
δ
i,j
−p
i
p
j
, o` u δ
i,i
= 1 et δ
i,j
= 0 si i = j.
Si on note Γ la matrice de covariance de X, le th´eor`eme de la limite centrale 5.22 montre
que la suite

n

Sn
n
−p

converge en loi vers un vecteur gaussien ^(0, Γ). Afin d’obtenir
une limite qui ne d´epend pas des p
i
, il faut pond´erer diff´eremment les diverses composantes
de X.
Th´eor`eme 5.25 Sous les hypoth`eses et avec les notations pr´ec´edentes, la suite
T
n
=
k
¸
i=1
n
p
i

S
n
(i)
n
−p
i

2
= −n +
k
¸
i=1
S
n
(i)
2
np
i
converge en loi vers un χ
2
k−1
. (5.9)
D´emonstration. L’´egalit´e entre les deux expressions de T
n
est facile `a v´erifier. Soit f :
R
k
→R la fonction d´efinie par
f(x) =
k
¸
i=1
x
2
i
p
i
.
Alors f est continue et T
n
= f


n

Sn
n
−p

. De plus, pour toute fonction continue born´ee
g : R →R, la fonction g ◦ f : R
k
→R est continue born´ee, ce qui entraˆıne lorsque n → +∞
E
¸
(g ◦ f)


n

S
n
n
−p

→ E[(g ◦ f)(N(0, Γ))].
On en d´eduit que la suite (T
n
) converge en loi vers la variable al´eatoire T = f(^(0, Γ)). Il
reste donc `a v´erifier que l’image par f d’un vecteur gaussien ^(0, Γ) est un χ
2
k−1
.
Le vecteur de v
1
= (

p
1
, ,

p
k
) ∈ R
k
est norm´e et peut dont ˆetre compl´et´e en une
base orthonorm´ee (v
1
, , v
k
) de R
k
. Soit A : R
k
→R
k
une transformation orthogonale telle
que A(v
1
) = e
1
. Notons N un vecteur gaussien ^(0, Γ),
N

p
le vecteur dont les composantes
sont
N
i

p
i
pour 1 ≤ i ≤ k et Z = A
N

p
. C’est un vecteur gaussien centr´e de matrice de
covariance
Γ
Z
= AΓ N

p
˜
A = A

δ
i,j


p
i

p
j
, 1 ≤ i, j ≤ k

˜
A = Id
k
−e
1
¯ e
1
.
11 novembre 2007 Probabilit´es 1 - Annie Millet
84 R´ef´erences
La matrice de covariance de Z est diagonale et les composantes de Z sont donc ind´ependantes
d’apr`es le Th´eor`eme 4.14. Pour i = 2, , k, on a V ar(Z
i
) = 1 tandis que V ar(Z
1
) =
0. Par construction, T = f(N) =

N

p

2
= |Z|
2
puisque d’apr`es le Th´eor`eme 4.15, la
transformation orthogonale A conserve la norme euclidienne. De plus, T =
¸
k
i=1
Z
2
i
=
¸
k
i=2
Z
2
i
est la somme des carr´es de k −1 variables al´eatoires gaussiennes centr´ees r´eduites
ind´ependantes, ce qui conclut la d´emonstration. 2
On en d´eduit que :
• si la suite (Y
n
) suit la loi p = (p
1
, , p
k
), la suite (T
n
) converge vers un χ
2
k−1
.
• si au contraire la suite (Y
n
) suit une loi ¯ p = (¯ p
1
, , ¯ p
k
) = p, il existe au moins un
indice i = 1, , k tel que ¯ p
i
= p
i
, et que la suite
Sn(i)
n
→ ¯ p
i
p.s. d’apr`es la loi forte des
grands nombres. Dans ce dernier cas T
n

n
p
i

Sn(i)
n
−p
i

2
converge presque sˆ urement vers
+∞.
Ceci donne la r´egion de rejet du test du χ
2
(d’ad´equation `a la loi p pour les Y
n
) : ¦T
n
≥ a¦
o` u la valeur de a est donn´ee par le niveau du test et la table de fonction de r´epartition d’un
χ
2
k−1
.
R´ef´erences
[1] Billingsley, P., Probability and measure, Wiley series in probability, 1995.
[2] Briane, M. , Pag`es, G., Th´eorie de l’int´egration, Vuibert, 1998.
[3] Gradinaru, M., Roynette, B., Polycopi´e du cours de probabilit´es de M1, Universit´e de
Nancy 1.
[4] Jacod, J., Protter, P., Probability Essentials, Springer, 2004
[5] Neveu, J., Polycopi´e du cours de probabilit´es,
´
Ecole Polytechnique.
Probabilit´es 1 - Annie Millet 11 novembre 2007

Sign up to vote on this title
UsefulNot useful