You are on page 1of 50

Licence 3  Probabilités

Exercices corrigés de TD

Cécile Mercadier, Johannes Kellendonk, Laurent Tournier

Associés au cours de Stéphane Attal

Année universitaire : 2008-2009

Université Claude Bernard Lyon 1 Probabilités
Année universitaire 2008-2009

Feuille de TD 1

Dénombrement

Exercice 1
Trois cartes sont tirées d'un jeu de 52 cartes. Calculer les probabilités des événements
suivants :
(i) Trois piques (ii) Aucun pique (iii) Un pique et deux "non-piques"
(iv) Au moins un pique (v) Trois cartes de la même famille (vi) Trois cartes de familles
diérentes
(vii) Trois as (viii) Aucun as (ix) Trois cartes rouges
lorsque :
1. On suppose que les cartes sont, l'une après l'autre, tirées au hasard et remises dans le
jeu.
2. On suppose que les cartes sont tirées simultanément au hasard.

Exercice 2 Soit n et p deux entiers non nuls.
1. De combien de façons peut-on répartir p enveloppes identiques dans n boîtes aux
lettres ?
2. E1 = {(x1 , . . . , xn ) ∈ Nn , x1 + . . . + xn = p}.
En déduire le cardinal de l'ensemble
3. Supposons p ≥ n. De combien de façons peut-on répartir p enveloppes identiques dans
n boîtes aux lettres de sorte qu'aucune boîte aux lettres ne reste vide ?
4. De quel ensemble E2 (construit de façon similaire à E1 ) peut-on en déduire le cardinal ?
5. De combien de façons peut-on répartir p enveloppes distinctes dans n boîtes aux
lettres ?

Exercice 3 Soit n et p deux entiers non nuls.
1. Déterminer le cardinal de l'ensemble des suites croissantes (au sens strict) de p éléments
de {1, . . . , n}.
2. Déterminer le cardinal de l'ensemble des suites croissantes (au sens large) de p éléments
de {1, . . . , n}.

Caractérisation d'une loi de probabilité

Exercice 4 X une variable aléatoire à valeurs dans N ou Z dénie sur l'espace de
Soit
probabilité discret (Ω, P). Démontrer que sa fonction de répartition, notée FX , dénie par

∀ x ∈ R, FX (x) = P(X ≤ x)

vérie les propriétés suivantes :
1. FX est croissante avec limx→−∞ FX (x) = 0 et limx→−∞ FX (x) = 1.

2. FX est continue à droite en tout point et admet des limites à gauche en tout point. De
plus limy→x− FX (y) = P(X < x).
3. FX caractérise la loi de X .

Exercice 5 Soit X une variable aléatoire à valeurs dans N dénie sur l'espace de proba-
bilité discret (Ω, P). On dénit sa fonction génératrice par
X
GX (s) = E(sX ) = P(X = k)sk .
k∈N

1. Montrer que GX est bien dénie sur [−1, 1].
2. Montrer que GX caractérise la loi de X .
3. 2 0 00
Supposons que X et X sont intégrables. Notons GX et GX les dérivées première et
0 2 00 0
seconde de GX . Montrer que E(X) = GX (1) et E(X ) = GX (1) + GX (1). En déduire
l'expression de Var(X).

Correction feuille de TD 1
Référence
Introduction aux probabilités
Delmas, Jean-Pierre
Ellipses
BU Maths 19.2 DEL

Rappel de cours : Dénombrement
 Le nombre d'applications d'un ensmble à p éléments vers un ensemble à n éléments
p
est n .
 Le nombre de permutations d'un ensemble à n éléments  bijections de cet ensemble
dans lui-même  est n!.
 Le nombre d'arangements injections  d'un ensmble à p éléments dans un ensemble
p n!
à n éléments est An = .
(n − p)!
 Le nombre de combinaisons  ou sous-ensembles  à p éléments dans un ensemble à
n!
n éléments (≥ p) est Cnp = .
p!(n − p)!
Rappel de cours : Probabilités sur un ensemble ni
On convient de représenter une expérience aléatoire E , c'est-à-dire, une expérience soumise
au hasard, par Ω l'ensemble des résultats possibles. Une réalisation ω , un élément de Ω
est aussi appelé expérience élémentaire.
Un événement aléatoire A est l'ensemble des expériences élémentaires ω qui réalisent A.
Comme Ω est ni, la probablité P sur Ω dénie par P({ω}) = 1/card(Ω) s'appelle la
probablité uniforme sur Ω. C'est la probabilité qui rend toutes les expériences élémentaires
card(A) nombre de cas favorables
ω équiprobables. On a alors P(A) = =” ”.
card(Ω) nombres de cas possibles

Exercice 1 On peut décider qu'un jeu de cartes est l'ensemble {1, . . . , 52} avec par
exemple {1, . . . , 13} les piques, puis les trèes, puis les coeurs, puis les carreaux.
1. L'univers Ω est {1, . . . , 52}3 donc card(Ω) = 523 .
Comme les tirages sont faits au hasard, on peut munir Ω de la probabilité uniforme : tous
3
les événements élémentaires E ont la même probabilité : 1/52 . Plus généralement, on
sait que la probabilité d'un événement A quelconque se calcule comme card(A)/card(Ω).
3
(i) 1/64 car à chaque fois un pique soit 13 cas favorables
3
(ii) 27/64 car il s'agit de faire cette expérience sur 52 − 13 = 39 cartes, autrement dit, 39
cas favorables
(iii) 27/64 car on a 3 × 13 × 392 cas favorables
(iv) 37/64 complémentaire de (ii)
3
(v) 1/16 car 3 × 13 cas favorables
(vi) 3/8 car 52 × 39 × 26 cas favorables
3
(vii) 1/2197 car 4 cas favorables
3
(viii) 1728/2197 car 48 cas favorables
3
(ix) 1/8 car 26 cas favorables
2. Dans cette expérience, Ω est l'ensemble des combinaisons de 3 éléments parmi 52.

3
Son cardinal vaut donc C52 . Comme les tirages sont faits au hasard, on peut munir Ω de
la probabilité uniforme : tous les événements élémentaires E ont la même probabilité :
3
1/C52 . Plus généralement, on sait que la probabilité d'un événement A quelconque se
calcule comme card(A)/card(Ω).
3 3 3 3 1 2 3 3 3 3 3
(i) C13 /C52 (ii) C39 /C52 (iii) C13 C39 /C52 (iv) 1 − C39 /C52 (v) 4C13 /C52
1 3 3 3 3 3 3 3
(vi) 4(C13 ) C52 (vii) 4/C52 (viii) C48 /C52 (ix) C26 /C52

Exercice 2 1. On peut modéliser les n boîtes aux lettres à l'aide de n−1 séparateurs
donc une conguration est un ensemble de n − 1 + p éléments qui est déterminée par
n−1
exemple par la position des séparateurs, soit en tout Cn+p−1 possibilités.
2. On peut voir ce problème comme le nombre de répartitions de p enveloppes dans n
boîtes aux lettres avec xi le nombre d'enveloppes dans la boîte aux lettres i. On a bien
n−1
xi ∈ N et x1 + . . . + xn = p. Donc Card(A) = Cn−1+p .
3. On commence par mettre une enveloppe par boîte aux lettres. Il s'agit alors de calculer
n−1
le nombre de façons de répartir p − n enveloppes dans n boîtes aux lettres soit Cp−1
possibilités.
4. E2 = {(x1 , . . . , xn ) ∈ (N? )n , x1 + . . . + xn = p}.
5. p
Pour chaque enveloppe on attribue une boîte aux lettres, soit n possibilités.

Exercice 3 1. L'ensemble des suites strictements croissantes de p éléments de {1, . . . , n}
est en bijection avec l'ensemble des parties à p éléments de {1, . . . , n}. En eet, on peut
associer à toute suite strictement croissante (s1 , . . . , sp ) une partie {s1 , . . . , sp } à p éléments
de {1, . . . , n}, et l'application réciproque consiste à ordonner les éléments d'une partie
{s1 , . . . , sp }. Le cardinal recherché est donc le nombre de combinaisons de p éléments
p
parmi n, soit Cn .
2. Se donner une suite croissante (au sens large) de p éléments de {1, . . . , n} revient à se
donner, pour i = 1, . . . , n, le nombre xi d'éléments de la suite égaux à i, avec la condition
Pn
i=1 xi = p et xi ≥ 0. On voit ainsi que l'on est ramené à la question 1 de l'exercice 2,
n−1
donc la réponse est Cn−1+p .
Autre solution : on se ramène à la question précédente par la bijection

φ : (x1 , x2 . . . , xp ) 7→ (x1 , x2 + 1, . . . , xp + p − 1),
qui envoie les suites croissantes (au sens large) de p éléments de {1, . . . , n} dans l'ensemble
des suites strictement croissantes de p éléments de {1, . . . , n+p−1}. Pour le voir, noter que
si (y1 , . . . , yn ) est strictement croissante à valeurs dans {1, . . . , n+p−1}, alors yi ≥ yi−1 +1
et yi ≥ i pour tout i (par récurrence). L'image par φ de notre ensemble est l'ensemble
décrit dans la question précédente dans lequel n devient n+p−1 donc le cardinal recherché
p n−1
est Cn+p−1 = Cn−1+p éléments.

Exercice 4 1. FX est croissante puisque si x < y , FX (y) = FX (x) + µX (]x, y]) ≥ FX (x).
limn→+∞ ] − ∞, −n] = ∩n∈N ] − ∞, −n] = ∅ comme limite d'une suite décroissante d'en-
sembles et limn→+∞ ] − ∞, n] = ∩n∈N ] − ∞, n] = R comme limite d'une suite croissante
d'ensembles Par continuité de l'application probabilité, on a limn→−∞ FX (n) = P(∅) = 0
et limn→∞ FX (n) = P(R) = 1.
2. FX est continue à droite car limn→∞ ] − ∞, x + 1/n] = ∩n∈dN ] − ∞, x + 1/n] =] − ∞, x].
De plus, limn→∞ ] − ∞, x − 1/n] = ∩n∈dN ] − ∞, x − 1/n] =] − ∞, x[.
3. On a FX (x) − FX (x− ) = µX ({x}). En particulier, on retrouve toutes les probabilités
µX ({k}) = P(X = k) = P(X −1 ({k})) = P({ω, X(ω) = k}).

(n − k + n−k (k) 1)P (X = n)s et GX (0) = k!P(X = k). 3. GX est la somme de la série entière de terme général P(X = n)sn . 1]. . On en déduit que Var(X) = GX (1) + GX (1) − GX (1)2 . . De plus. on sait que ses dérivées s'obtiennent par (k) P∞ dérivation terme à terme de la série. . par dénition la série nP (X = n) est convergente. La fonction est bien dénie sur [−1. P∞ P∞ 0 00 Pour s = 1. 00 P∞ On montre de la même manière que si E(X(X − 1)) existe alors GX (s) = n=2 n(n − n−2 00 1)P (X = n)s et GX bien dénie sur [−1. sa somme est la dérivée de laP somme de la série P(X = n)sn = GX (s). GX (1) = n=1 nP (X = n) = E(X) et GX (1) = n=2 n(n − 1)P (X = n) = 00 0 0 E(X(X − 1)). 1]. La série n−1 n−1 P nP (X = n)s est normalement convergente pour |s| ≤ 1 car sups |nP (X = n)s |= P nP (X = n). autrement dit G0X (s). 2. Par conséquent.Exercice 5 1. 1]. P Si X est intégrable. Elle est donc indéniment dérivable sur ] − 1. En résumé G0X (s) = ∞ n=1 nP (X = n)s n−1 et GX 0 est bien dénie sur [−1. On a donc GX (s) = n=k n(n − 1) . On peut donc reconstruire la loi de X à l'aide (k) de la formule suivante : P(X = k) = GX (0)/k!. = n)sn est absolument convergente pour |s| ≤ 1 car P La série P(X |P(X = n)sn | ≤ P(X = n) et P P(X = n) = 1. 1[.

Déterminer la loi de X. 1] : P(X = k) = Cn p (1−p) pour k = 0. ? de loi binomiale de paramètres n ∈ N et p ∈ [0. Exercice 2 1. 1] : P(X = k) = p(1 − p) pour k ∈ N . 1[. . . 1] . k −λ λ Poisson(λ) avec λ > 0 : P(X = k) = e pour k ∈ N. En déduire l'espérance et la variance de X dans chacun des cas. 3. 2. 4. 1[ dénit bien une loi de pro- babilité puis calculer sa moyenne et sa variance. . 1] dénit bien une loi de probabilité puis calculer sa moyenne et sa variance. Montrer que pour tout a ∈ R+ ? E(|X|) (Markov) P(|X| ≥ a) ≤ .On répète de façon indépendante l'expérience jusqu'à obtenir r fois E . n. Soit X une variable aléatoire intégrable. 1] : P(X = 0) = 1 − p et P(X = 1) = p. Rappeler la formule du binôme de Newton. k! Lois discrètes usuelles Exercice 1 Donner l'expression et "tracer" les fonctions de répartitions de loi de Bernoulli de paramètre 2/3 puis de loi géométrique de paramètre 3/4. n≥1 et n≥2 lorsque |a| < 1. de loi de Poisson de paramètre λ > 0 . . 2. Exercice 4 Calculer la fonction génératrice deX lorsque X est une variable aléatoire 1. k k n−k Binomiale(n. En déduire que la loi binomiale de paramètres n ∈ N? et p ∈ [0. a . de loi géométrique de paramètre p ∈ ]0. 3. 5. de loi de Bernoulli de paramètre p ∈ [0.Université Claude Bernard Lyon 1 Probabilités Année universitaire 2008-2009 Feuille de TD 2 Rappels : Lois usuelles discrètes Bernoulli(p) avec p ∈ [0. p) avec n > 0 et p ∈ [0. c Soit X la variable aléatoire associée au nombre de réalisations de E . Exercice 3 Au cours d'une expérience un certain événement E se réalise avec une pro- babilité p ∈ ]0. Inégalités Exercice 5 1. En déduire que la loi géométrique de paramètre p ∈ ]0. 1] . k ? Géométrique(p) avec p ∈ [0. 1[. 4. n nan−1 n(n − 1)an−2 P P P Rappeler le comportement des séries n≥0 a .

Donner la loi de Xn . On extrait n fois avec remise une boule dans une urne composée de 2 boules vertes et 6 boules blanches.99. Soit Xn la variable aléatoire associée au nombre de boules vertes obtenues lors des n tirages.22. A l'aide de l'exercice précédent. 3.2. don- ner une borne inférieure pour la probabilité de l'événement {Fn ∈ ]0.22. a2 Exercice 6 Soit n ∈ N∗ .26[} soit au moins 0. 2. En déduire l'espérance et la variance de Xn puis de Fn . On pose Fn = Xn /n. On suppose dans cette question que n = 10 000. 1. . En déduire que si X est de carré intégrable alors pour tout a ∈ R+ ? V ar(X) (Tchebyche ) P(|X − E(X)| ≥ a) ≤ . 0. Donner une estimation du nombre minimal n de tirages nécessaires pour que la pro- babilité de l'événement {Fn ∈ ]0.26[}. 0.

limn a = 0. on a FX (x) = 0 pour tout x < 1. Pour vérier que P (X = k) = ak (où k ∈ N et ak ∈ R) dénit bien une mesure P∞ de probabilités sur N. donc FX (x) = P (X ≤ x) = 0 si x < 0 et FX (x) = 1 si x ≥ 1. Pour réels (ou dans un quelconque anneau commutatif ) et n ∈ N. Ceci montre que la loi géométrique de paramètre p est bien une loi de probabilités. . Pour la loi binomiale de paramètres nP et p. y Xn n formule du binôme de Newton s'écrit (x + y) = Cnk xk y n−k . Exercice 2 1. De plus. on calcule : n X n X n−1 X E(X) = kCnk pk (1 − p)n−k =n k−1 k Cn−1 p (1 − p)n−k = np k Cn−1 pk (1 − p)n−1−k = np k=1 k=1 k=0 n X n X E(X(X − 1)) = k(k − 1)Cnk pk (1 − p)n−k = k−2 k n(n − 1)Cn−2 p (1 − p)n−k = n(n − 1)p2 . k=2 k=2 d'où Var(X) = E(X )−E(X) = E(X(X −1))+E(X)−E(X)2 = n(n−1)p2 +np−n2 p2 = 2 2 np(1 − p). il faut vérier ak ≥ 0 et k=0 ak = 1. k=0 2. Comme X est ∗ à valeurs dans N . 4[. On calcule : X X 1 E(X) = kP(X = k) = p k(1 − p)k−1 = k≥1 k≥1 p X X 1−p E(X(X − 1)) = k(k − 1)P(X = k) = p(1 − p) k(k − 1)(1 − p)k−2 = 2 k≥2 k≥2 p2 1−p 1 1 1−p Var(X) = E(X(X − 1)) + E(X) − E(X)2 = 2 2 + − 2 = . alors k≥1 P(X = k) = p k≥0 (1 − P P p)k = 1. da 1 − a (1 − a) da 1 − a (1 − a) 4. 3[. Par propriété de 1−a dérivation des séries entières dans leur intervalle ouvert de convergence. De plus. Pour |a| < 1. FX (x) = FX (2) + P (X = 3) = 15/16 + 3/64 si x ∈ [3. et de la formule du binôme. Soit X une variable aléatoire de la loi géométrique de paramètre p = 3/4. X est à valeurs dans Si {0.. p p p p2 . Faire le dessin correspondant. FX (x) = P (X ≤ x) = P (X = 0) = 1 − p = 1/3. si 0 ≤ x < 1. FX (x) = P (X = 1) + P (X = 2) = 3/4 + 3/16 = 15/16 si x ∈ [2. Si pour tout k ≥ 1 on a P(X = k) = p(1 − p)k−1 . on en déduit d2     P k−1 d 1 1 P k−2 1 2 k≥1 ka = = 2 et k≥2 k(k − 1)a = 2 = 3 . . Si a 6= 1 on a. k k−1 k−1 k−2 À l'aide des formules kCn = nCn−1 et k(k − 1)Cn = n(n − 1)Cn−2 (la première se vérie k via la dénition des Cn et la deuxième se déduit de la première). Correction feuille de TD 2 Exercice 1 X suit la loi de Bernoulli de paramètre p = 2/3. nk=0 ak = n+1 P . 1 − an+1 3. 1}. la positivité est évidente. la x. et la seconde condition résulte de la formule n k k n−k du binôme : k=0 Cn p (1 − p) = (p + 1 − p)n = 1. 2[. FX (x) = P (X = 1) = 3/4 si x ∈ [1. pour tout n. 1−a P k 1 donc la série géométrique est alors convergente avec k≥0 a = .

Pour trouver la probabilité P(X = n) il faut calculer le nombre de manières de construire des r + n uplets se terminant par E . . (1 − s(1 − p))2 (1 − s(1 − p))3 2(1 − p) 2(1 − p) En particulier. . et E(X) = G0X (1). si la série dérivée converge en s = 1). Loi de Poisson de paramètre λ > 0. . E c .Exercice 3 On a Ω = {E. d'où E(X) = 1 p et Var(X) = +  2 p2 p2 1 1 1−p − = . 2. .} où E apparait r fois et E c apparait n fois dans les r + n premiers termes a une probabilité pr (1 − p)n . d'où GX (1) = np et G00X (1) 0 = n(n − 1)p2 . Rappelons que dans ce cas P(X = n) = e ∞ λn n! λ P pour n ∈ N. Exercice 4 1. . on utilise à vrai dire une réciproque G0X (1) < ∞ partielle de la question 5. C'est donc le nombre de combinaisons de r−1 éléments parmi r+n−1 puisque un des éléments ainsi que sa position r−1 r−1 r n est imposée. la formule du binôme donne : n X n X k GX (s) = s Cnk pk (1 − p) n−k = Cnk (sp)k (1 − p)n−k = (1 − p + sp)n . Il suit G0X (1) = p et G00X (1) = 0. . on en déduit que G0X (s) = et G00X (s) = . k=1 1 − s(1 − p) p 2p(1 − p) Pour ces valeurs de s. et contenant r fois E . λn −λ 3. 1−p 1−p ∞ X sp GX (s) = sk (1 − p)k−1 p = . Pour déduire le calcul de l'espérance et de la variance. n=0 n! donc G0X (s) = λeλ(s−1) et G00X (s) = λ2 eλ(s−1) . Donc pour tout n ∈ N on a : P(X = n) = Cn+r−1 p (1−p) . ? Il s'agit de la loi binomiale négative de paramètres r ∈ N et p ∈]0. À savoir : si (c'est-à-dire. 1 1 4. alors X est de carré in- 2 00 0 tégrable et E(X ) = E(X(X − 1)) + E(X) = GX (1) + GX (1). On a. . L'événement {E. . feuille 2 1. Et si G00X (1) < ∞ (idem pour la série dérivée seconde). soit encore Cr+n−1 . G0X (1) = 1 p et G00X (1) = . alors X est intégrable. donc G0X (s) = p et G00X (s) = 0. Loi géométrique de paramètre p. . . E c }N . pour tout s ∈] − . E. pour tout s ∈ R : ∞ X λn GX (s) = sn e−λ = eλs e−λ = eλ(s−1) . Loi de Bernoulli de paramètre p. pour s ∈ R. . E c . Pour s ∈ R. exercice 5 et remarque à la n du corrigé). Par conséquent (cf. GX (s) = E[X s ] = (1 − p) + ps. 1]. Ce même développement fournit. Loi binomiale de paramètres n et p. E(X) = p et Var(X) = p − p = p(1 − p).3 de la feuille 1. p p p2 Remarque 1. On a. [. La preuve est quasiment . k=0 k=0 0 On obtient GX (s) = np(1 − p + sp)n−1 et G00X (s) = n(n − 1)p2 (1 − p + sp)n−2 . G0X (1) = λ et G00X (1) = λ2 impliquent E(X) = λ et Var(X) = λ. Le développement en série de l'exponentielle e = n=0 n! (et le fait que n λ −λ n! e ≥ 0) montre qu'il s'agit bien d'une probabilité.

3. Dès que le rayon de convergence de GX est strictement plus grand que ∞ 1 (ce qui est le cas dans les exemples précédents). 0.26[) > 1−P(|Fn −E(Fn )| ≥ 0. Remarque 2.99 alors on aura P(Fn ∈ ]0. Il sut de chercher n tel que P(|Fn − E(Fn )| ≥ 0. donc X est 2 k intégrable. 0 la même puisque par exemple les propriétés X est intégrable et GX (1) P < ∞ se tra- duisent exactement par la même condition de convergence : k kP(X = k) < ∞.22.01) ≥ 1−V ar(Fn )/0.26[) = P(Fn − E(Fn ) ∈ ] − 0. Xn n et p = 2/8 = 1/4. Donc E(Xn ) = est de loi binomiale de paramètres n/4 et V ar(Xn ) = 3n/16.26[) > 0.22.01) < 0.03. 0.01 donc n > 3/(16 0. Exercice 6 1. X aussi et.22.01) > 0.012 = 1−3/16 = 13/16.01. 0.99. 0. GX est de classe C en 1.01) donc si P(|Fn − E(Fn )| < 0. 0.01[) > P(|Fn − E(Fn )| < 0. . 2 3 Or P(|Fn − E(Fn )| > 0. Exercice 5 Voir page 13 du cours.01) donc P(Fn ∈ ]0. P(Fn ∈ ]0. de façon plus générale. P(Fn ∈ ]0. 2.26[) > P(|Fn − E(Fn )| < 0.01 ) = 187500.01) < V ar(Fn )/0. On obtient alors E(Fn ) = 1/4 et V ar(Fn ) = 3/(16n).22. X est intégrable pour tout k (considérer la dérivée k -ième de GX ).

. . Montrer que si X est une variable aléatoire intégrable à valeurs dans N. . . pour tout événement A. l'un après l'autre. . pour toutes fonctions f et g de R dans R. alors : ∞ X E[X] = P(X ≥ n). . les événements B1 . 1An sont indépendantes. Le chire du deuxième dé est pair et Les deux chires ont même parité.Université Claude Bernard Lyon 1 Probabilités Année universitaire 2008-2009 Feuille de TD 3 Exercice 1 Fonctions indicatrices (Ω. . 1. B et C les événements Le chire du premier dé est pair. et seulement si les variables aléatoires 1A1 . est-ce que X est indépendante de Z ? . An sont indépendants aussi. 1} la fonction indicatrice de A :  1 si ω∈A pour tout ω ∈ Ω. . Exercice 3 Indépendance et passage au complémentaire Soit (Ω. . An }. An sont indépendants si. Montrer que. Montrer que XY est intégrable et E[XY ] = E[X]E[Y ]. 3. on note 1A : Ω → {0. 1. On note respectivement A. 2. . 4. 2. Montrer que les événements A. P(A) = E[1A ]. . Bn ∈ c {An . Généraliser ces résultats à n variables aléatoires X1 . 1. . . n=1 Indépendance Exercice 2 Indépendance entre 3 événements On jette deux dés (non pipés). . . Démontrer que les événements A1 . P)un espace de probabilité discret. Montrer que Ac1 . . 1A (ω) = 0 si ω∈ / A. Montrer que A. Pour des événements A et B. On suppose X 2 et Y 2 intégrables. B et C sont deux à deux indépendants. 2. Montrer que Var(X + Y ) = Var(X) + Var(Y ). A2 . f (X) et g(Y ) sont des variables aléatoires indépendantes. . 3. . On suppose X et Y intégrables. . Exercice 4 Soit X et Y des variables aléatoires réelles indépendantes. B et C ne sont pas indépendants dans leur ensemble. Vérier que. . . A1 }. P). . . . . dénies sur un espace de probabilité discret (Ω. . An des événements indépendants. Exercice 5 SiX est une variable aléatoire indépendante de Y et si Y est indépendante de Z. . Xn indépendantes. c En déduire par récurrence la propriété plus générale : pour tous B1 ∈ {A1 . Bn sont indépendants. et A1 . 2. . exprimer 1Ac et 1A∩B en fonction de 1A et 1B . P) Soit un espace de probabilité discret. Si A ⊂ Ω est un événement. 1. 3.

Quelle est la probabilité qu'une personne soit réellement malade lorsque son test est positif ? Exercice 9 Soient X1 et X2 des variables aléatoires. On dénit Z = min(X. Identier une loi connue. Calculer la loi conditionnelle de X1 sachant X1 + X2 . . On dispose d'un test sanguin qui détecte M avec une abilité de 99% lorsque cette maladie est eec- tivement présente. 2. . . Cependant.2% des personnes saines testées. 2.Lois usuelles et indépendance Exercice 6 Interprétation des lois usuelles On considère une suite d'expériences indépendantes dont l'issue est un succès avec pro- babilité p et un échec avec probabilité 1 − p. si A est un événement de probabilité non nulle : P(A|Hi )P(Hi ) P(Hi |A) = Pn . Une maladie M aecte une personne sur 1000 dans une population donnée. 1. Conditionnement Exercice 8 Formule de Bayes 1. Hn ) une partition de Ω en n un espace de probabilité discret. Soit (Ω. Y ). . 1. Montrer que. n. 1. Montrer que le nombre de succès parmi les n premières expériences suit une loi bino- miale de paramètres n et p. . de loi de Poisson de paramètres λ1 etλ2 respectivement. pour i = 1. on obtient aussi un résultat faussement positif pour 0. P) (H1 . Exercice 7 Soit X. j=1 P(A|Hj )P(Hj ) 2. Y . . et événements de probabilité non nulle. 2. . indépendantes. En déduire la loi de Z. . Y des variables aléatoires indépendantes suivant des lois géométriques de paramètres respectifs pX et pY . . Calculer la loi de X1 + X2 . Z. Calculer les fonctions de répartition de X. Montrer que l'instant où a lieu le premier succès suit une loi géométrique de paramètre p.

A3 . An sont indépen- dants grâce à la question 1 (ou trivialement si B1 = A1 ). On a facilement 1A c = 1 − 1A et 1A∩B = 1A 1B . 1An indépendantes. 2. 1. . où la première composante représente la valeur du premier dé. . X X E[1A ] = 1A (ω)P({ω}) = P({ω}) = P(A). . . . An sont indépendants. < ik ≤ n. Exercice 3 Indépendance et passage au complémentaire 1. On raisonne par récurrence : on sait que les événements B1 . B2 . k=1 k=1 Indépendance Exercice 2 Indépendance entre 3 événements L'espace des épreuves est Ω = {1. Pour tous 2 ≤ i1 < . 6}2 . A2 . . donc on peut leur appliquer la question 1 pour voir que B1 . D'après les dénitions. etc. X(ω) ∞ X X X(ω) = 1= 1{X≥k} (ω). . 2. Alors. On remarque que : pour tout ω ∈ Ω. 3. on voit que A ∩ C = {deux lancers pairs} = B ∩ C = A ∩ B et P(A ∩ B) = (3 · 3)/36 = 1/4. on a : P(Ac1 ∩ Ai1 ∩ · · · ∩ Aik ) = P(Ai1 ∩ · · · ∩ Aik ) − P(A1 ∩ Ai1 ∩ · · · ∩ Aik ) = (1 − P(A1 ))P(Ai2 ) · · · P(Ain ) = P(Ac1 )P(Ai2 ) · · · P(Aik ) et P(Ai1 ∩ · · · ∩ Aik ) = P(Ai1 ) · · · P(Aik ). P(Ai1 ∩ · · · Aik ) = E[1Ai1 ∩···∩Aik ] = E[1Ai1 ] · · · E[1Aik ] = P(Ai1 ) · · · P(Aik ) . Correction de la feuille de TD 3 Exercice 1 Fonctions indicatrices 1. On a : A ∩ B ∩ C = A ∩ B donc P(A ∩ B ∩ C) = 1/4 6= 1/8 = P(A)P(B)P(C). . D'autre part. . . 2. . Les couples de résultats sont équiprobables. . k=1 k=1 d'où par théorème de convergence dominée (les sommes partielles sont inférieures à X. pour tous 1≤ i1 < · · · < ik ≤ n. . . ω∈Ω ω∈A 3. . et la seconde celle du second dé. . Card(A) = 3 · 6 = 18 = Card(B) et Card(C) = 6 · 3 = 18 donc P(A) = P(B) = On a P(C) = 1/2. intégrable) (ou convergence monotone) : ∞ X ∞ X E[X] = E[1{X≥k} ] = P(X ≥ k). . . donc on munit Ω de la loi uniforme P. Supposons les variables aléatoires 1A1 .

n}. On remarque que la question ci-dessus requiert juste l'indépendance des variables 2 à 2. . . g(Y ) = b) = P(X ∈ f −1 (a). . Xi = 0) S⊂{1.. .Card(S)=k . pour a... .. .n}. Pas de vraie diculté pour généraliser. . . On a : (on peut changer l'énoncé et prendre X et Y à valeurs dans Z pour coller au cours) X X E[|XY |] = |kl|P(X = k.. .. k S⊂{1. Exercice 4 1. . Il apparaît donc que l'événement {Ai1 = c1 . . . Y ∈ g −1 (b)) = P(X ∈ f −1 (a))P(Y ∈ g −1 (b)) = P(f (X) = a)P(g 2.Card(S)=k   X k n−k n k = p (1 − p) = p (1 − p)n−k . . . telle que P(Xi = 1) = p (on représente le succès par 1) et P(Xi = 0) = 1 − p (et l'échec par 0). On note S le nombre de succès parmi les n premières expériences. l'événement {1A = x} est c ou bien égal à A ou à A . Y = l) = |kl|P(X = k)P(Y = l) k∈X(Ω). Pour tout k ∈ {1. . . 1An . 4. On a : Var(X+Y ) = E[(X+Y )2 ]−E[X+Y ]2 = E[X 2 +Y 2 +XY ]−(E[X]+E[Y ])2 = E[X 2 ]−E[X]2 +E[Y 2 ]−E[Y ]2 en développant et en utilisant la question précédente. . . ∀i ∈ / S. . 1Aik = ck ) = P(Bi1 ) · · · P(Bik ) = P(1Ai1 = c1 ) · · · P(1Aik = ck ). Lois usuelles et indépendance Exercice 6 Interprétation des lois usuelles On considère une suite de variables aléatoiresX1 . An indépendants. Aik = ck } est de la forme de ceux considérés dans l'exercice 3. Supposons réciproquement les événements A1 . Pour tout événement A. sinon dans l'écriture. . d'où : P(1Ai1 = c1 . Exercice 5 Prendre un contre-exemple. on trouve E[XY ] = E[X]E[Y ]. indépendantes. Xi = 1.l∈Y (Ω) X X = |k|P(X = k) |l|P(Y = l) = E[|X|]E[|Y |] < ∞ k∈X(Ω) l∈Y (Ω) donc XY est intégrable. 1.. . D'où l'indépendance de 1A1 . où Bi = Ai si ci = 1. et en refaisant le calcul sans les valeurs absolues (justié par Fubini). Bi = Aci si ci = 0. . n} : X P(S = k) = P(∀i ∈ S. 3. X2 . lorsque x parcourt R.. b ∈ R (ou ∈ f (X(Ω)) et g(Y (Ω)) : P(f (X) = a.d'où l'indépendance des événements. On a.l∈Y (Ω) k∈X(Ω). .

. Y > z) = 1 − P(X > z)P(Y > z) = 1 − (1 − pX )k (1 − pY )k si z > 0 et k ≤ z < k + 1 . 2. P(Z ≤ z) = 1 − P(Z > z) = 1 − P(X > z. P(X ≤ k) = 1 − P(X > k) = (1 − pX )k donc FX (x) = 1 − (1 − pX )k si x > 0 et k ≤ x < k + 1 . Autrement dit. Xk−1 = 0. . k De même FY (y) = 1 − (1 − pY ) si y > 0 et k ≤ y < k + 1 . . . 0 sinon. Z est de loi Géométrique de paramètre pZ = 1 − (1 − pX )(1 − pY ) = pX + pY − pX pY . Xk = 1) = (1 − p)k p.2. pour k≥1 : P(N = k) = P(X1 = 0. L'instant N de premier succès est tel qu'il est précédé de N −1 échecs. 0 sinon. Exercice 7 Soit k un entier non nul. 1. d'où. . N suit la loi géométrique de paramètre p. 1 sinon.

999 · 2/1000 Ainsi. . P(X = j|X+Y = k) = = e 2 e−λ2 P(X + Y = k) j! (k − j)! (λ1 + λ2 )k e−(λ1 +λ2 )  j  k−j λ1 λ1 = Ckj λ1 + λ2 λ1 + λ2 λ1 Par conséquent. 33 P (E)P (T |E) + P (E )P (T |E ) 1/1000 · 0. 99 + 0. la loi de X sachant X +Y = k suit la binomiale de paramètre (k. P(E) = 1/1000. λ1 + λ2 . 002. P(X = j)P(Y = k − j) λj1 −λ1 λk−j k! 2. 99 et P(T |E c ) = 0. P(A) j P(A ∩ Hj ) j P(A|Hj )P(Hj ) 2. 1. et dont une partie T a une réaction positive au test. en remarquant que A est la réunion disjointe des événements A∩H1 . 99 P(E|T ) = c c = ' 0. Pk Pk λj1 −λ1 λj2 −λ2 Méthode directe : P(X + Y = k) = j=0 P(X = j)P(Y = k − j) = j=0 e e j! j! k −(λ1 +λ2 ) = (λ1 + λ2 ) /k!e . P(T |E) = 0. Y) suit la loi de Poisson de paramètre λ1 (resp. . d'où (cas particulier de la formule de Bayes pour la c partition de Ω en E et E ) : P (E)P (T |E) 1/1000 · 0. A∩Hn : P(Hi ∩ A) P(A ∩ Hi ) P(A|Hi )P(Hi ) P(Hi |A) = =P =P . donc X +Y suit la loi de Poisson de paramètre λ1 + λ2 . alors : GX+Y (s) = GX (s)GY (s) = eλ1 (1−s) eλ2 (1−s) = e(λ1 +λ2 )(1−s) . On a. dont une partie E est atteinte par la maladie M. le test a deux chances sur trois de donner une réponse positive à une personne saine. Ω est la population considérée. Par hypothèse. Ici. . ).Conditionnement Exercice 8 Formule de Bayes. λ2 ). ce qui est loin d'être négligeable ! Exercice 9 1. Si X (resp. . C'est bien la loi de Poisson de paramètre la somme des para- mètres de X et Y .

de loi normale N (m. 3. Y deux variables aléatoires Soit indépendantes dénies sur Ω. Montrer que. P) un espace de probabilité discret. GX+Y (s) = GX (s)GY (s). . p) et (m.a. qui admet donc une racine réelle (pourquoi ?). p) ?  deux variables aléatoires indépendantes de loi de Poisson de paramètre λ et µ? Exercice 2 Dés truqués 1. . . montrer que la loi de X1 + X2 ne peut pas être la loi uniforme sur {2. . Généraliser ce qui précède au cas de n variables aléatoires indépendantes X1 . Indication : on remarquera que GXi (s) = sϕi (s) où ϕi est un polynôme à coecients réels de degré impair. . 3. 12}.Université Claude Bernard Lyon 1 Probabilités Année universitaire 2008-2009 Feuille de TD 4 Somme de v. (on pourra donner deux preuves) 3. . . Pour quelles valeurs de α ∈ R la variable |X|α est-elle intégrable ? Exercice 5 Une variable aléatoire positive X est sans mémoire si P(X > t + s|X > t) = P(X > s). . Peut-on piper deux dés indépendants de façon à rendre toutes les sommes entre 2 et 12 équiprobables ? Lois continues usuelles Exercice 3 Calculer l'espérance et la variance de X lorsque X est une variable aléatoire 1. Quelle est la loi de la somme de n variables aléatoires indépendantes de loi de Bernoulli de paramètre p? Retrouver alors l'espérance et la variance de cette loi. 1. 2. Quelle est la loi de la somme de :  deux variables aléatoires indépendantes de loi binomiale de paramètres (n. b] ⊂ R . . indépendantes et fonction génératrice Exercice 1 (Ω. . Exprimer la loi de X + Y en fonction de celles de X et Y . Exercice 4 Soit X une variable aléatoire de densité f (x) = a π(a2 +x2 ) avec a > 0. 4. X n . 5. Vérier que f est bien une densité. σ) de paramètre m ∈ R. . . . . En étudiant les racines du polynôme GX1 GX2 . . Soit X1 et X2 des variables aléatoires indépendantes à valeurs dans {1. Quelle est la fonction génératrice de la loi uniforme sur {2. à valeurs dans N. 6}. pour tout s ∈ [−1. 2. 1]. . b]) sur l'intervalle [a. 12} ? 2. de loi exponentielle E(λ) de paramètre λ > 0. . La loi de X est appelée loi de Cauchy de paramètre a. ∀t. s ≥ 0. et X. σ > 0 . de loi uniforme U([a.

Quel lien y a-t-il entre f et la fonction de répartition FX ? 2. et seulement si elle suit une loi exponentielle. 1. Exercice 6 Soit X une variable aléatoire réelle.n Xi ..Montrer qu'une variable aléatoire positive dont la loi admet une densité est sans mémoire si..3 de la feuille 3). Exercice 7 Soit X1 . Réciproquement. Supposons que X a pour densité f .n Xi . Soit r un réel > 0. 3. . Montrer que Z ∞ r E[X ] = rxr−1 P(X > x)dx. ... 1. . X n des variables aléatoires indépendantes de loi E(λ) de para- mètre λ > 0. 0 où les deux membres sont nis ou innis. On pourra donner une preuve dans le cas à densité (à l'aide de ce qui précède). On suppose X à valeurs positives.) 2. . et une preuve dans le cas général (dans l'esprit de la question 1.. . (Indication : calculer la fonction de répartition. Calculer la loi de mini=1.. donner une condition sur FX pour que la loi de X admette une densité.. Calculer la loi de maxi=1..

3. où S est une variable aléatoire de loi binomiale de paramètres n et p. l'espérance de cette loi est : E[Y ] = E[X1 +· · ·+Xn ] = P i=1 E[Xi ] = np. Y = l} pour k.l∈N. n et sa variance est (vu l'indépendance) : Var(Y ) = Var(X1 + · · · + Xn ) = i=1 Var(Xi ) = np(1 − p). Autre méthode : X et Y sont X Y indépendantes. µ). Correction de la feuille de TD 4 Somme de v. indépendantes et fonction génératrice Exercice 1 Somme de v. donc X +Y suit la loi de Poisson de paramètre λ + µ. 4. 1]. La généralisation à n variables ne pose pas de problème. En particulier. alors : GX+Y (s) = GX (s)GY (s) = eλ(1−s) eµ(1−s) = e(λ+µ)(1−s) .a. . . et celles-ci sont intégrables pour s ∈ [−1. on a donc. indépendantes et fonctions génératrices 1. 1]. On reconnaît dans la formule précédente l'expression des coecients de la série en- tière produit deGX et GY . GX+Y (s) = GX (s)GY (s).  Si X (resp. 1]. donc X +Y suit la loi binomiale de paramètres m + n et p (ce qui se comprend bien par l'interprétation précédente). Comme ces deux séries entières convergent sur [−1. Remarquons que l'exercice précédent donnait déjà la loi loi binomiale comme somme de Bernoullis indépendantes. . k.a. Soit X1 . Xn des variables de Bernoulli indépendantes de paramètre p. On a GX1 (s) = · · · = GXn (s) = p + (1 − p)s. Y = l) = P(X = k)P(Y = l). pour tout s ∈ [−1. L'événement {X + Y = n} est la réunion disjointe des {X = k. .  Si X (resp. Y) suit la loi de Poisson de paramètre λ (resp. Comme la fonction génératrice caractérise la loi. m et p). Y) suit la loi binomiale de paramètres n et p (resp. d'où : GX+Y (s) = E[sX+Y ] = E[sX sY ] = E[sX ]E[sY ] = GX (s)GY (s). l ∈ N tels que k + l = n. d'où.Y = X1 + · · · + Xn suit une loi binomiale de Pparamètres n et n p. donc s et s aussi.k+l=n k+l=n Pn soit : µX+Y ({n}) = k=1 µX ({k})µY ({n − k}). 2. 5. . pour tout s : GX1 +···+Xn (s) = GX1 (s) · · · GXn (s) = (p + (1 − p)s)n = GS (s). d'où : X X P(X + Y = n) = P(X = k. alors : GX+Y (s) = GX (s)GY (s) = (p + (1 − p)s)n (p + (1 − p)s)m = (p + (1 − p)s)m+n .

. π r En eet. pour tout r > 0. la parité puis le changement de variable x− > 2x.Exercice 2 Dés truqués 1. 3. .r. impair. la fonction |x|r fX (x) est bornée par intégrable sur [a.b] (x) x−a Exercice 3 UNIFORME la densité est et la f. . 1) alors Y = (b − a)X + a ∼ U (a. la fonction de répartition 2πσ R x n'a pas d'expression explicite.∞[ (x). les polynômes ϕ1 et ϕ2 ont donc chacun au moins une racine réelle. b)r Pour tout r > 0. 1−s et le polynôme du membre de droite a pour racines les racines onzièmes de l'unité autres que 1. Lois continues usuelles 1[a. j=1 où ϕi est un polynôme.σ (x) = √ . b). Cette loi admet des moments de tous les ordres.1 (y)dy = √ 0 e−x dx par −∞ m. Pour s ∈ [−1. pour i= 1. σ D'autre part : R 2 RR R  R  −x2 −x2 −y 2 RR −r2 ∞ −r2 π/2 R+ e dx = R+ ×R+ e dxdy = R+ ×[0. X2 = 6) = P(X1 = 6)P(X2 = 6) ϕi est de degré et donc que 5. seulement la forme intégrale fm. Par un argument de valeurs intermédiaires. b] donc b−a a+b (b − a)2 X admet des moments de tout ordre. 2. 12 X 1 i s 1 − s11 GX (s) = s = . .π/2] e rdrdθ = 0 e rdr 0 dθ = 2 p 1/2×π/2 = π/4. Tant que les dés sont indépendants. . −∞ R∞ R∞ 2 R∞ 2 C'est bien une loi de proba : I = f (y)dy = −∞ f0. Or : 1 − s11 11sϕ1 (s)ϕ2 (s) = . est F (x) = 1[a. 2 12 On peut également noter que si X ∼ U (0. modier leur loi) de façon à rendre toutes les sommes entre 2 et 12 équiprobables. 6 X GXi (s) = P(Xi = j)sj = sϕi (s). on ne peut donc les piper (i. En particulier E(X) = et V ar(X) = . et que la condition P(X1 + X2 = 12) = 1/11 implique 1/11 = P(X1 = 6. exp(−(x − m)2 /(2σ 2 ) NORMALE La densité est fm. max(|a|. Supposons que l'on ait GX1 GX2 = GX (donné ci-dessus). Donc I = √ π/4 = 1.σ π x−m √ changement de variable x− > . Soit X une variable de loi uniforme sur {2. on a |x| fm.σ (x) est intégrable.σ (y)dy . On en déduit facilement les moment de Y à partir de ceux de X . à coecients réels. dont aucune n'est réelle : contradiction.e. i=2 11 11 1 − s 2. 1] (ou R).b[ (x) + b−a b−a 1[b. Remarquons que. 12}.

Donc la f. De plus. il faut noter que si X est de loi cauchy de paramètre a alors Y = X/a est de loi cauchy de paramètre 1. σ)∼ N (0. Dériver cette equation par rapport à t en t = 0 donne l'equation diérentielle 0 F̄ (s) = −f (0)F̄ (s) qui a comme solution F̄ (s) = ce−f (0)s . Il sut de calculer les m moments de la N (0. la fonction caractéristique de Y une variable 2π 1 + ξ de loi de cauchy de paramètre 1 est e−|t| . 0 F̄ est diérentiable avec dérivée F̄ (x) = −f (x). En particulier. on a que pour tout m entier impair.1 (y)dy = (m − 1) y f0. r Si E(X ) est ni alors Z b Z b r r r E(X ) = lim x F {dx} = −b (1 − F (b)) + rbr−1 (1 − F (x))dx b→∞ 0 0 en appliquant avec G=1−F la formule Z b Z b 0 u(x)G{dx} = u(b)G(b) − u(a)G(a) − u (x)G(x)dx. est Fλ (x) = 1− −λx e 1x∈R+ . 1 1 2 2. P(X/a ≤ x) = P(X ≤ ax) = −∞ π(a2 +x2 ) dx = −∞ π(a2 +(ay)2 ) ady = −∞ π(1+y 2 ) dy . (m − 1) = en posant m = 2k . a a . i. Donc f (t) = cf (0)e−f (0)t et c=1 est déterminé par la normalisation. Donc on obtient la relation E(Y ) = (m − 1)E(Y ) lorsque m est pair. Exercice 6 Soit X R+ de densité f et r > 0. La loi exponentielle sert à modéliser les durées de vie. On déduit de la question précédente et de la transformée de fourier inverse que −|t| 1 R 2 e = 2 eiξt dξ . R ax a Rx a Rx 1 En eet. 1). . Par parité.1 (y)dy en m m−2 intégrant par parties. −1 X −|ta| E(eitX ) = E(eitaa ) = E(eitaY ) = e = e−a|t| . On a E(Y ) = y yf0. R0 R∞ e−|t| eiξt dt = −∞ e−t(1+iξ) dt + 0 e−t(1+iξ) dt = R + = . a|x| π(a2 +x2 ) est intégrable ssi α − 2 < −1. α < 1. 2k k! −λx EXPONENTIELLE La densité est fλ (x) = λe 1x∈R+ . On a E(X) = 1/λ et V ar(X) = 1/λ2 . Exerciceα 4 1.r. Soit m R m−1 R m−2 maintenant un entier pair. La propriété sans mémoire s'écrit F̄ (s + t) = F̄ (t)F̄ (s). 1 − iξ 1 + iξ 1 + ξ2 3. 0 0 y 0 0 0 On peut justier l'échange d'intégration dans le cas où E(X r ) est ni car cette nitude est l'hypothèse dans le Thm de Tonelli. une variable aléatoire à valeurs dans Z ∞ Z ∞Z ∞ Z ∞Z y Z ∞ r−1 r−1 r−1 rx P(X > x)dx = rx f (y)dydx = rx f (y)dxdy = xr f (y)dy = E(X r ). 3 . . . (2k)! Comme E(Y 2 ) = 1 on obtient E(Y m ) = 1 . E(Y ) = 0. On obtient donc les lois exponentielles. X −m On peut également montrer que si X ∼ N (m. Exercice 5 R∞ Soit f la densité de notre variable et posons F̄ (x) = 1 − F (x) = x f (t)dt. On en alors Y = σ 2 déduit facilement que E(X) = m + E(Y )σ et V ar(X) = σ V ar(Y ). . 1).e.

R R∞ On sait que lim xr F {dx} nie donc b xr F {dx} ≥ br (1 − F (b)) permet de déduire que Rb r la limite du terme de droite vaut 0. Donc lorsque E(X ) est inni alors il en est de même de 0 rb (1 − F (x))dx.. . P(mini=1..n Xi ≤ x) = P(X ≤ x) = (1 − e ) ..n Xi > x) = 1 − P(X > x) = 1 − e−nλx ... On a d'autre part 0 x F {dx} ≤ R b r−1 r r 0 rb (1 − F (x))dx car pour b positif R ∞ r−1on a b (1 − F (b)) positif..... n −λx n Il suit P(maxi=1...n Xi ≤ x) = 1 − P(mini=1.. n D'autre part. on a une densité f (x) = −λx −λx λe 1x>0 et une fonction de répartition F (x) = 1 − e si x > 0 et F (x) = 0 sinon. Exercice 7 Pour une loi exponentielle de paramètre λ > 0. Il suit le résultat.

5. 1] :  (1 − a)E(X) ≤ E X1[aE(X). 4. En déduire la loi de Z −1 si Z est une variable aléatoire de loi de Cauchy. En déduire que pour tout a ∈ [0. 1). Donner la loi de sin(U ). On suppose que la loi de X est uniforme sur [0. 1. 2 1−U Exercice 2 Soit X. Déterminer la densité de Y à l'aide d'un changement de variable. P). 2 A quelle condition a-t-on E(X ) = 0 ? On exclut cette possibilité dans la suite. Si X est de loi normale N (m. trouver une fonction f telle que Y est de loi normale N (0. 2 Calculer. Quelques inégalités Exercice 4 Soit X etdes variables aléatoires positives de carré intégrable sur (Ω. 1. 2 En considérant la fonction λ 7→ E [(X + λY ) ]. en fonction de m et σ .Université Claude Bernard Lyon 1 Probabilités Année universitaire 2008-2009 Feuille de TD 5 Obtenir une loi à partir d'une autre Exercice 1 X une variable aléatoire à valeurs dans E ⊂ R et f : E → R une fonction Soit mesurable. 3. π]. Soit Y la variable aléatoire dénie par Y = f (X). Y 1.∞[ (X) . On suppose que X admet une densité et que f est injective et C 1 par morceau. Y deux variables aléatoires indépendantes de loi normale N (0. Donner la loi de 2 1 1+U (a) |U | (b) U (c) ln . 2. 1). Montrer que pour tout a ∈ [0. Quelle est la loi de Y ? 3. A. 1] et f (x) = − ln x. σ 2 ). 2. E(X 2 ) . Soit U une variable aléatoire de loi uniforme sur [−1. l'espérance E[(X + Y ) ]. 1]. retrouver l'inégalité de Cauchy-Schwarz E(XY )2 ≤ E(X 2 )E(Y 2 ). Soit U une variable aléatoire de loi uniforme sur [0. 2. Exercice 3 Soit X et Y deux variables aléatoires indépendantes de loi normale N (m. 4. Calculer la loi de la variable X Y . 1] : E(X)2 P(X ≥ aE(X)) ≥ (1 − a)2 . σ).

Autrement dit. Entropie Soit (Ω. Montrer que f (E(X)) ≤ E(f (X)). 10 de carreau d pour les autres cartes  où a.  X(C) = b ? et  X(C) = c ? dans cet ordre. c'est l'entropie binaire qu'on va noter H . où log2 est ω∈Ω le logarithme en base 2 et on adopte la convention 0 log2 0 = 0. l'entropie est maximale pour la loi uni- forme sur Ω et uniquement pour celle-ci. L'entropie binaire de la loi µX d'une variable aléatoire nie X est notée H(µX ) ou bien H(X) . P) un espace de probabilité ni. ω∈Ω Q({ω}) 1. l'entropie binaire H est l'espérance de la variable aléa- toire Z(ω) = − log2 (P({ω})).Exercice 5 L'inégalité de Jensen Soit f : E ⊂ R → R une fonction convexe dénie sur un intervalle E qui contient les valeurs d'une variable aléatoire X. 1. P. b. Exercice 7 On considère un jeux de 32 cartes et la variable aléatoire X dénie par    a si la carte est noir b si la carte est un coeur  X(carte) =   c si la carte est le 7. 8. Supposons que Bob choisit les questions  X(C) = a ?. On suppose que X et f (X) sont intégrables. c. Exercice 6 Soit Ω un ensemble ni. d}. Ici on dénit Remarque : En théorie de l'information on utilise surtout b = 2. 2. est la base du logarithme. Montrer que la valeur moyenne du nombre de questions que Bob à besoin de poser vaut H(X). C et demande Bob de déterminer Alice et Bob jouent au jeu suivant : Alice tire une carte la valeur X(C) en posant des questions de type  X(C) appartient-il à A ? où A est une partie de {a. 2. parmi les probabilités sur Ω. leur entropie relative est D(P kQ) = X P ({ω}) P ({ω}) log2 . c. Montrer que si f est strictement convexe. . L'entropie (sur la base b) de la distribution P est la valeur X Hb (P) := − P({ω}) logb (P({ω})) ω∈Ω où b>0 0 logb (0) = 0. Déterminer H(X). b. Montrer à l'aide de l'inégalité de Jensen que D est positive et que D(P kQ) = 0 im- plique P = Q. Q probabi- Pour lités sur Ω Q({ω})  avec > 0 pour tout ω ∈ Ω. L'entropie d'une probabilité P sur Ω X est H(P ) = − P ({ω}) log2 P ({ω}). En déduire que. 9. alors l'égalité f (E(X)) = E(f (X)) implique que X est constante sur un événement presque sûr (c'est-à-dire de mesure 1 pour P). d sont quatre réels distincts.

ω∈Ω P0 ({ω}) 1. 3. Montrer que D(Pku) = H(u) − H(P). Soit u la distribution uniforme sur Ω. 2. Montrer à l'aide de l'inégalité de Jensen que D est positif et que D(PkP0 ) = 0 implique P = P0 . En déduire que l'entropie binaire d'une distribution sur Ω prend ses valeurs entre 0 et log2 |Ω| et que la distribution uniforme est l'unique point maximal de H. L'entropie relative notée 0 D(PkP ) est dénie comme l'espérance de la variable ω → log2 (P({ω})) − log2 (P0 ({ω})) par rapport à P : X P({ω}) D(PkP0 ) = P({ω}) log2 ( ).Exercice 8 Soit maintenant P et P0 deux probabilités sur Ω. .

1]. µsin(U ) (dt) =√ 1[0. −1 0 Donc ρY (s) = |fρX0 (f(f−1 (s))| (s)) (ou ρY = |f −1 |ρX ◦ f −1 ). il est plus direct de passer par la fonction de répartition. f −1 0 (s) = −e−s . Pour |U | et U 2 .1] . 1. 1[ vers R. 5. Par application du théorème du transfert. alors Z E(g(sin(U ))) = g(sin(u))µU (du) R et Z E(g(sin(U ))) = g(t)µsin(U ) (dt). En particular P(Y ∈ R) = P(X ∈ R) = 1 et les autres axiomes.1] (t)dt. Réponse : f (x) = σ−1 (x − m). ρX la densité de X . Correction de la feuille de TD 5 Obtenir une loi à partir d'une autre Exercice 1 X une variable aléatoire à valeurs dans E ⊂ R et f : E → R une fonction Soit mesurable. On trouve que |U | est de loi uniforme sur [0. 2. U 2 a pour densité au point t par rapport à la mesure de 1 1 1+u Lebesgue √ 1[0. On peut leur faire appliquer 2e2t ce qui precede. donc la densité de sin(U ) au point t par π 1 − t2 2 1 rapport à la mesure de Lebesgue est √ 1[0. On regarde le cas où f est Soit −1 (s)) injective et C 1. π 0 1 − t2 2 1 Par conséquent. Pour la transformation par h(u) := ln .∞[ (s).1] (t). Donc Z Z π Z π/2 1 2 g(sin(u))µU (du) = g(sin(u))du = g(sin(u))du. R On sait que U a pour densité par rapport à la mesure de Lebesgue 1/π1[0.π] (u). si g est une fonction mesurable bornée de R dans R. on peut remarquer 2 t 2 1−u que cette fonction est strictement croissante de ]−1. 3. R π 0 π 0 En posant t = sin(u) on a u = arcsin(t) et Z 1 2 1 E(g(sin(U ))) = g(t) √ dt. 4. ρX = 1[0. P(Y ∈ A) = 1A (f (t))ρX (t)dt = 1A (s) |fρX0 (f(f−1 (s))| R R ds.1] (t). Donc ρY (s) = e−s 1[0. P(Y ∈ A) = P(f (X) ∈ A) = P(X ∈ f −1 (A)). on obtient une densité au point t donnée par . (e2t + 1)2 . π 1 − t2 6. f −1 (s) = e−s . Soit Y = f (X). ce qui est la loi exponentielle de paramètre 1.

2. A. 2 2 2 2 La fonction λ → E [(X + λY ) ] = E(X ) + 2λE(XY ) + λ E(Y ) est un trinôme du 2 second degré toujours positif. 8. La densité de (X. t2 ) = 1 − 12 (t21 +t22 ) 2π e .∞[ (X) = 1 − 1[0. Donc Z a la même loi que Z . Par symmetrie a la même loi que . 1).∞[ (X)) ≥ E(X) − aE(X). Soit 1. Le cas dégalité cor- P respond à constant Q-p. 2.s. Par conséquent son discriminant est négatif : 4E(XY ) − 4E(X 2 )E(Y 2 ) ≤ 0 autrement dit.aE(X)[ (X)) ≤ aE(X) donc E(X1[aE(X). Or E(X1[0. 2. Y R2 t2 2π R2 2π Par Fubini on peut evaluer Z 1 1 2 +1)t2 1 e− 2 (s 2 |t2 |dt2 = 2π R π(1 + s2 ) ce qui est donc la densité de la loi de Y. Comme X est une variable positive on a 1[aE(X). Y ) est ρ(t1 .Exercice 2 X. En utilisant les deux questions précédentes on a : (1 − a)2 E(X)2 ≤ E(X1[aE(X).aE(X)[ (X). 4. d'où H(P ) ≤ H(u) et l'éga- lité donne une égalité dans la question d'avant donc P = u. Alors Z Z X t1 1 − 1 (t21 +t22 ) 1 1 2 2 P( ∈ A) = 1A ( ) e 2 dt1 dt2 = 1A (s) e− 2 (s +1)t2 ds|t2 |dt2 . c'est-à-dire pour tout ω car Q > 0. Y deux variables aléatoires indépendantes de loi normale N (0. 9. 1. La constante doit être 1 Q puisque ce sont des probas. P (ω)(− log Q(ω) ) ≥ − log P (ω) Q(ω) P P Appliquer Jensen à − ln et la mesure P : P (ω) P (ω) = 0. P).. 3. Si Z est une variable aléatoire de loi de Cauchy alors sa loi est la même que celle de X Y X −1 . E(XY )2 ≤ E(X 2 )E(Y 2 ).∞[ (X))2 ≤ E(X 2 )P(X ≥ aE(X)). 10 d pour les autres cartes  . Quelques inégalités Exercice 4 Soit X et Y des variables aléatoires positives de carré intégrables sur (Ω. P (ω) P Prendre pour Q la mesure uniforme : l'inégalité devient 0 ≤ P (ω) log 1/|Ω| = −H(P ) + log |Ω| = −H(P ) + H(u) (u proba uniforme). Entropie Exercice 7 On considère un jeux de 32 cartes avec la variable aléatoire X où    a si la carte est noir b si la carte est coeur  X(carte) =   c si la carte est carreau 7. La variable aléatoire X 2 est positive ou nulle donc E(X 2 ) = 0 si et seulement si X 2 est nulle presque sûrement ou encore si et seulement si X est nulle presque sûrement. Y X Y Exercice 3 On trouve E[(X +Y )2 ] = E[X 2 ]+E[Y 2 ]+2E[XY ] = m2 +σ 2 +m2 +σ 2 +2m2 = 2 2 4m + 2σ . ou alors à x 7→ x ln x qui est strictement convexe (dérivée ln x+1 strictement croissante) P P (ω) (− log Q(ω) PP PP et à la mesure Q : Q(ω) P (ω) )Q(ω) ≥ ( Q Q) ln( Q Q) = 0. Exercice 5 L'inégalité de Jensen A faire Exercice 6 1.

Supposons que Bob choisit les questions  X(C) = a ?. 75 = H(X).  X(C) = c ?. H(X) = − i∈{a. c. d}. c. Soit L la variable aléatoire de nombre de questions Bob a du demander pour connaître le 1 1 1 1 resultat. Alors E(L) = 1 + 2 + 3 + 3 = 1.où a. b. Déterminer la valeur moyenne de nombre de questions que Bob à besoin de poser. 1.c.  X(C) = b ?. b. appartient-il à A ? où A est une partie de {a.b. 75. dans cet ordre. 2 4 8 8 Exercice 8 Voir copie de l'an passe. d sontPquatre nombres diérents.d} P(X = i) log2 (P(X = i)) = 21 log2 (2) + 41 log2 (4) + 2 81 log2 (8) = 1. 2. Alice et Bob jouent un jeu : Alice tire une carte C et demande Bob de déterminer la valeur X(C) en posant des questions de type  X(C). .

2. SoitZ1 .λ . P). A.λ .a. 7. Donner Re (ΦX (t)) et . Γ(a) 1.a. 8.λ et γb. indépendantes dont on calculera les lois. et Y 1. . Soit V1 . 3. . Déterminer la loi de X +Y. Exercice 3 Loi Normale Soit X deux variables aléatoires réelles indépendantes de loi N (0. 1). Déterminer l'espérance de cette loi. Vérier que cette fonction dénit bien une densité. Montrer que Z12 suit une loi γ1/2. Montrer que Z12 + · · · + Zn2 suit une loi γn/2.λ respecti- vement. indépendantes. Soit g : R → R+ telle que g(x) ≥ b > 0 pour tout x ∈ I ⊂ R. 9.Université Claude Bernard Lyon 1 Probabilités Année universitaire 2008-2009 Feuille de TD 6 Exercice 1 Généralisation d'inégalités du cours Soit X une variable aléatoire réelle de carré intégrable sur (Ω.λ (x) = exp(−λx)xa−1 1R+ (x). 4. 3. 5. 1). . σ 2 + t2 Exercice 2 Loi Gamma Pour a > 0 et λ > 0. Montrer que X + Y et X/(X + Y ) sont des v. 6. Montrer que X + Y et X/Y sont des v. on dénit la loi γa. . Calculer la loi de X/(X + Y ). Vn des variables aléatoires réelles indépendantes de loi E(λ). Retrouver à l'aide du résultat précédent les inégalités de Markov et Tchebyche. 2 En utilisant la fonction g(x) = (x + c) pour c > 0 montrer que si E(X) = 0 et 2 Var(X) = σ alors pour tout t > 0. V2 . . Soit X et Y deux variables aléatoires réelles indépendantes de loi γa. Notons ΦX (t) = E(e itX ) la fonction caractéristique de X . .λ par sa densité relativement à la mesure de Lebesgue : λa fa. Montrer par récurrence que la loi de la somme V1 + · · · + Vn est la loi γn. 1. Soit X et Y deux variables aléatoires réelles indépendantes de loi γa. Montrer que P(X ∈ I) ≤ b−1 E(g(X)). Z2 . σ2 P(X > t) ≤ .1/2 est également appelée loi χ2 (n)). 2. Zn des variables aléatoires réelles indépendantes de loi N (0.1/2 . . Déterminer la loi de λX .1/2 . (La loi γn/2. .

Quelle X1 + · · · + Xn est la loi de X n = ? √ n n 3. 7. 3. Que peut-on dire de P(X n ≤ 0. montrer qu'il existe (sans l'expliciter) un unique nombre réel positif φα tel que Z φα 2 /2 dx e−x √ = 1 − α. On applique 5) au cas où m = 1/2. 1). σ = 1/2. Soit θ ∈ [0. Soient X et Y deux variables aléatoires indépendantes de loi N (m. Soit α ∈]0. tel que 6. Déterminer la loi de Xθ = X cos(θ) + Y sin(θ) et Yθ = −X sin(θ) + Y cos(θ). 2π]. σ 02 ). . σ 2 ). m + t]. Les variables Xθ et Yθ sont-elles indépendantes ? Exercice 4 Extrait du partiel d'avril 2008 1. SoientX1 . Montrer que (X n − m) suit une loi N (0. . En déduire que pour tout t > 0 on a limn→∞ P (|X n − m| > t) = 0. n = 1000 et α = 0. Quelle est la loi de X +Y ? 2. On a φα = 1. 45) ? . . 96 dans ce cas. .Im (ΦX (t)) puis montrer à l'aide d'intégrations par parties que Φ0X (t) = −tΦX (t). toutes de loi N (m. avec t à préciser en fonction En déduire qu'il existe un intervalle P (X n ∈ Iα ) = 1 − α. σ 4. Xn des variables aléatoires indépendantes. En déduire l'expression de ΦX . 1[. 2. −φα 2π 5. des constantes de l'exercice. σ 2 ) et N (m0 . 05. Iα = [m − t.

P). 3. cela donne : σ 2 + c2 P(X ≥ t) ≤ . . . Direct. . E(X) − t] ∪ [E(X) + t. on a bien g(x) ≥ 0 pour tout x et g(x) ≥ (t + c)2 2 pour x ≥ t > 0.. . . A. g(x) = x et I = [t. + Vn )) = E(g(S + Vn )) = g(x + y)µ(S. 2. Z ∞ Z ∞ λn−1 −λt n−2 Z g(x + y)µ(S. . +∞[.Vn ) (dx. (t + c)2 Si E(X) = 0 et E(X 2 ) = σ 2 . dy) = dx dtg(t) e x R 0 x Γ(n − 1) Z ∞ λn−1 −λt  n−1 t = g(t) e x /(n − 1) 0 dt Γ(n − 1) Z0 λn = g(t) exp(−λt)tn−1 1R+ (t)dt R Γ(n) 4.+Vn (dt). . . g(x) = (x − E(X)) et I =] − ∞. . .. . On utilise le fait que Γ(a + 1) = aΓ(a) pour obtenir que l'espérance de cette loi est a/λ. 2 Tchebyche : t > 0. g positive donne E(g(X)1X ∈I/ ) ≥ 0 et g minorée par b sur I donne E(g(X)1X∈I ) ≥ bP(X ∈ I). On a R Z E(g(V1 + . Donc 1  2  P(X ≥ t) ≤ E (X + c) . ok. 3. Pour n = 1. + Vn )) = g(t)µV1 +.Vn ) (dx. vn−1 ) = v1 + . . 1. + vn−1 et g(vn ) = vn2 mesurables on en déduit que S et Vn sont indépendantes car (V1 . Pour g(x) = (x + c) pour c > 0. 2. Correction de la feuille de TD 6 Exercice 1 Généralisation d'inégalités du cours Soit X une variable aléatoire réelle de carré intégrable sur (Ω. Supposons n ≥ 2 et S := V1 + . (t + c)2 Le terme de droite est une fonction en c qui atteint son minimum au point c = σ 2 /t > 0 et donne le résultat attendu. + Vn−1 de loi γn−1. Vn−1 ) et Vn le sont. . . Exercice 2 Loi Uniforme Exercice 3 Loi Gamma 1. On peut utiliser la fonction de répartition. t > 0. Markov : X positive. R Comme f (v1 . dy) R et Z E(g(V1 + . Avec un changement de variable on voit . . .λ . ∞[. Soit g une fonction mesurable bornée de dans R.

v)µ(X+Y. pour x > 0 et y > 0 . dv) R2 et Z E(g(X + Y.1 . On a Z E(g(X + Y. . On fait alors le changement de variable u = x + y .Y ) (dx. dy) R2 où f (x. Y ) a pour densité µX (dx)µY (dy) par rapport à la mesure de 2 Lebesgue sur R . y) = (x + y.que λX ∼ γa. x/y) dénie de (R∗+ )2 (R∗+ )2 . Ceci est équivalent à x = uv/(v + 1) et y = u/(v + 1) pour u > 0 et v > 0. le couple (X. 5. X/Y )) = g(u.X/Y ) (du. v = x/y . y)µ(X. X/Y )) = g ◦ f (x. Soit g une fonction mesurable bornée de R2 dans R2 . Comme les variables X et Y sont vers indépendantes.

.

.

v/(v + 1) u/(v + 1) .

v)| = . u On a de plus |J(u.

1/(v + 1) −u/(v + 1)2 .

Il suit . = (v + 1)2 .

.

X/(X+Y )) (dx. R2 (v + 1)2a Γ(a)2 λ2a 2a−1 −λu Les variables sont indépendantes. µX+Y (du) = u e 1u>0 du et µX/Y (dv) = Γ(2a) Γ(2a) v a−1 1v>0 dv . On a Z E(g(X + Y. y) = (x + y. pour x > 0 et y > 0 . y)µ(X+Y. Ceci est équivalent à x = uv et y = u(1 − v) pour u > 0 et v ∈ (0. dv) R2 et Z E(g(X + Y. v)µ(X+Y. Soit g une fonction mesurable bornée de R2 dans R2 . . x/(x + y)) dénie de (R∗+ )2 vers (R∗+ )2 . v a−1 λ2a Z E(g(X + Y. Y ) a pour densité µX (dx)µY (dy) par rapport à la mesure de Lebesgue sur R2 . On fait alors le changement de variable u = x + y . 1). Comme les variables X et Y sont indépendantes. v = x/(x + y). X/Y )) = g(u.X/(X+Y )) (du. Γ(a)2 (v + 1)2a 6. X/(X + Y ))) = g(u. X/(X + Y ))) = g ◦ f (x. le couple (X. v)u2a−1 e−λu 1u>0 1 v>0 dudv. dy) R2 où f (x.

.

.

v u .

.

v)| = . On a de plus |J(u.

1 − v −u .

= u. Il suit .

µX/(X+Y ) (dv) = Γ(a)R 7. Le seul point délicat est de calculer 0t xa−1 (t − x)b−1 dx = ta+b−1 01 ya−1 (1 − y)b−1 dy = R ta+b−1 Ca. On a Z Z Z 1 2 /2 E(g(X 2 )) = g(u)µX 2 (du) E(g(X 2 )) = g(x2 )µX (dx) = √ g(x2 )e−x dx. λ2a 2a−1 −λu Z Γ(2a) E(g(X +Y. R R 2π R . 1) et g une fonction mesurable bornée de R dans R. R 2 Γ(2a) Γ(a) Γ(2a) Les variables sont indépendantes et on a de plus 2 (v(1 − v))a−1 10<v<1 dv . X/(X +Y ))) = g(u.b . 8. v) u e 1u>0 2 (v(1 − v))a−1 10<v<1 dudv.b est forcément égale à Γ(a)Γ(b)/Γ(a + b) en tenant compte de la normalisation. Si Z1 est de loi N (0. La constante Ca.

1). si g est un fonction mesurable bornée de R dans R . En utilisant l'indépendance et la question précédente on trouve ΦXθ (t) = ΦYθ (t) = exp(−t2 /2). + zn−1 2 2 2 et g(xn ) = zn mesurables on en déduit que Sn−1 et Zn sont indépendantes car (Z1 . . N (0. En utilisant le fait que ΦX (0) = 1 2 2 on obtient que log(ΦX (t)) = −t /2 et ΦX (t) = exp(−t /2). Yθ )) = g(u. . −x sin(θ) + y cos(θ)) sur R2 . y) = (x cos(θ) + y sin(θ). Pour n = 1 c'est vrai. y) ∈ R2 . . v = −x sin(θ) + y cos(θ) pour (x. + Zn−1 ∼ γ n−1 . 1 et Zn ∼ N (0. . 1. . On le montre par récurrence. v)µ(Xθ . Y ) a pour densité e /(2π) par rapport à la 2 mesure de Lebesgue sur R . Supposons que Sn−1 = Z1 + 2 2 . On a Sn = Sn−1 + Zn2 . 2 /2 2 R∞ 2 −x2 2 R∞ dy Par parité de x 7→ g(x2 )e−x on a E(g(X 2 )) = √ 0 g(x )e dx = √ 0 g(y)e−y/2 √ 2π 2π 2 y 1 donc µX 2 (dx) = √ e−y/2 y −1/2 1R+ (y). 2π 9. . On utilise ensuite la question 7 et 8 donnant Sn suit une γ n−1 + 1 . . 1 . alors Z E(g(Xθ . Y )) = g ◦ hθ (x. v) ∈ R2 .Yθ ) (du.Y ) (dx. dy). R2 −(x2 +y 2 )/2 X et Y sont indépendantes donc (X. Comme f (z1 . 0 On montre avec les indications que ΦX (t) = −tΦX (t). Ces variables sont donc de loi 3. On fait le changement de variable u = x cos(θ) + y sin(θ). 2 2 2 2 2 Exercice 4 Loi Normale SoitX et Y deux variables aléatoires réelles indépendantes de loi N (0. Ceci est équivalent à x = u cos(θ) − v sin(θ) et y = u sin(θ) + v cos(θ) pour (u. . zn−1 ) = 2 2 z12 + . . Par application 2 2 du théorème du transfert. . . 1). . y)µ(X. 2. 1 = γ n . Zn−1 ) et Zn le sont. Yθ )) = E(g ◦ hθ (X. dv) R2 et Z E(g(Xθ . . 1). On dénit hθ (x.

.

.

cos(θ) − sin(θ) .

v)| = . Le jacobien vaut |J(u.

.

.

en utilisant le fait que sin(θ) cos(θ) . On obtient. = 1.

Exercice 5 Voir Test partiel du 11 avril 2008 . Y )) = g(u. v)e−(u /(2π)dudv. Ces deux variables aléatoires sont indépendantes.Yθ ) = µXθ ⊗ µYθ . x2 + y 2 = u2 + v 2 . µ(Xθ . R2 Par conséquent. Z 2 +v 2 )/2 E(g ◦ hθ (X.

pour t ∈ R. pour ϕ : R → R mesurable.a. Montrer que. Soit X et Y des variables aléatoires indépendantes de même loi. X3 . réelle. c'est-à-dire que la loi de X a 1 −|x| 1 pour densité x 7→ e sur R. 1). SoitX1 . Quelle est la loi Soit 2 conditionnelle de X sachant Y ? Plus généralement. Loi conditionnelle (cas général. . X4 des variables aléatoires indépendantes de loi N (0. 2 Montrer que la loi de X = ZY est symétrique et calculer sa fonction caractéristique (en fonction de ΦY ). Quelle est la loi de la moyenne de deux variables π(1+x2 ) aléatoires de loi de Cauchy de paramètre 1 indépendantes ? 4. ΦX (t) ∈ R. Soit X une variable aléatoire suivant la loi de Laplace. X2 . Calculer ΦX où X suit la loi E(λ). Soit Y une v. 1. Si Y admet une densité f. et Z une v. (on pourra utiliser 2 1+t2 la dernière question de l'exercice précédent) 3. et en déduire la loi de X1 X2 + X3 X4 . À quelle condition une loi de densité f par rapport à la mesure de Lebesgue est-elle symétrique ? 2. pour tout t ∈ R. indépendante de Y et de loi donnée par : 1 P(Z = 1) = = P(Z = −1). 1). Calculer ΦX1 X2 (en utilisant le théorème de Fubini). Y ) sachant Y ? Exercice 4 Soit X etY deux variables aléatoires indépendantes de loi N (0. puis ΦX1 X2 +X3 X4 .λ pour n ∈ N∗ . Montrer que la loi d'une variable aléatoire réelle X est symétrique si. et seulement si. ΦX−Y . ΦX (t) = . cas à densité) Exercice 3 X et Y deux variables aléatoires réelles indépendantes.Université Claude Bernard Lyon 1 Probabilités Année universitaire 2008-2009 Feuille de TD 7 Fonction caractéristique Exercice 1 Lois symétriques. 4. Rappeler la valeur de ΦXi (t). quelle est la loi de X? Exercice 2 Calculs de fonctions caractéristiques 1. 2. Détermi- ner la loi du couple (X. quelle est la loi conditionnelle de ϕ(X. ΦX+Y .a. fonction caractéristique La loi d'une variable aléatoire réelle X est dite symétrique lorsque X et −X ont même loi. En déduire ΦZ où Z suit la loi γn. 3. et en déduire la loi conditionnelle de X sachant X + Y . Exprimer en fonction de la fonction caractéristique ΦX de X les fonctions caractéristiques suivantes : Φ−X . X + Y ). En déduire la fonction caractéristique d'une variable aléatoire suivant une loi de Cauchy 1 de paramètre 1 (densité f (x) = ).

3. √ 2 4. 1. 2 Déterminer la loi du couple (X. 2 Calculer E[ |X| |X + Y ]. Déterminer la loi du couple (R. Ces variables sont-elles indépendantes ? Retrouver alors rapidement le résultat de la question précédente. 1). On note R = Z et on dénit Θ ∈ [0. Ydes variables aléatoires indépendantes de loi N (0. Z) = (X. 2 2 En déduire la loi de X + Y puis la loi conditionnelle de X sachant X + 2 Y 2. Θ).Exercice 5 Soit X. . 2π[ par les équations X = R cos Θ et Y = R sin Θ. 2 2. X + Y ).

P(Xi = 0) = 1 − p pour un p ∈]0. 2. + Xn . Identier une loi connue puis interpréter. Calculer la loi conditionnelle de X1 sachant X1 + X2 . 1. indépendantes. . Soit Sn = X1 + . 1[. . 2. Quelle est la loi du couple (X1 . Quelle est la loi de Sn ? 2. Sn ) ? 3. . de loi Exp(λ). . Exercice 7 Loi conditionnelle autour de la loi de Bernoulli SoientX1 . 1.Exercice 6 Loi conditionnelle autour de la loi de Poisson Soient X1 et X2 des variables aléatoires. b]|T1 ≤ t ≤ T1 + T2 ) : Qu'en concluez- vous ? . de loi de Poisson de paramètre λ1 et λ2 respectivement. Calculer la loi de X1 + X2 . Calculer la loi de T1 + T2 . Quelle est la loi de conditionnelle de Sn sachant X1 ? Exercice 8 Loi conditionnelle autour de la loi exponentielle Soient T1 et T2 des variables aléatoires. 1. Quelle est la loi conditionnelle de X1 sachant Sn ? 4. Calculer la probabilité conditionnelle P(T1 ∈ [a. Xn des variables aléatoires de Bernoulli indépendantes toutes de même loi : P(Xi = 1) = p. indépendantes. . .

Comme (voir che 4) la loi γn. on a ΦX (t) = Re( ) = 1+t 2. 1. et est indépendante de Y . alors e = . Si Y a pour densité f . Soit X1 . 1 + t2 . Φ−X (t) = ΦX (−t) = ΦX (t) (car X(ω) ∈ R). 2. 3. Donc la loi de X1 +X 2 2 est celle de 2 X1 .λ est la loi de la somme de n variables de loi exponentielle indépendantes. fonction caractéristique La loi d'une variable aléatoire réelle X est dite symétrique lorsque X et −X ont même loi. X de loi f (x)dx. Donc −ZY et ZY ont même loi. d'où 0 = {f −g>0} (f − g) − R R {f −g<0} (f − g) = R |f (x) − g(x)|dx et donc f (x) = g(x) dx-presque partout. Comme ΦX est intégrable sur R on a. 4. donc X se déduit d'une variable Y de loi E(1) de 2 2 1 1 la même façon qu'à la n de l'exercice 1. 2 2π R En réécrivant cette égalité. ΦX+Y = (ΦX )2 . Et. si on note f (x) = e −x 1R+ (x) la densité de la loi exponentielle de 1 −|x| f (x)+f (−x) paramètre 1. en découpant selon les valeurs de Z . La variable Z est symétrique. ΦX−Y = |ΦX |2 . Donc le couple (−Z. et si deux densités f et g fournissent la même loi. On a : Z Z  −itxy − y2 2 dy x2 dx ΦX1 X2 (t) = e e √ e− 2 √ Z 2π 2π x2 dx = ΦX2 (tx)e− 2 √ Z 2π 2 x 2 dx = e−(t +1) 2 √ 2π 1 = √ . ΦX (t) ∈ R ssi ΦX (t) = ΦX (t) ssi ΦX (t) = Φ−X (t). donc ΦX (t) = (ΦY (t) + Φ−Y (t)) = e dy pour tout t. elles R sont telles que A f (x)dx = A g(x)dx pour tout borélien A. Il faut et il sut que f soit paire (ou plutôt. c'est-à-dire ΦY (t) = e −|t| si Y est de loi de Cauchy de paramètre 1. Ainsi. On peut voir que. Correction de la feuille de TD 7 Fonction caractéristique Exercice 1 Lois symétriques. par la formule d'inversion de Fourier (ou Corol- 1 −|x| 1 R −itx laire II. Y ). ΦX (t) = 12 (E[eitY ] + E[e−itY ]) = Re(ΦY (t)).  n n λ ΦZ (t) = (ΦX (t)) = . X2 de loi de Cauchy de paramètre 1. 4. −Y a pour 1 R ity f (y)+f (−y) densité y 7→ f (−y). λ − it 2. Si X suit la loi E(λ). ΦX (t) = λ λ−it . Y ) a même loi que (Z.14 du cours 7). En eet la loi de −X −f est de densité R R . e = e ΦX (t)dt où X est comme à la question d'avant. ce 2 2 f (y)+f (−y) qui montre que X a pour densité . on a e−itx π(1+t dt 2) = e −|x| . 1−it 3. t Φ X1 +X2 (t) = E[ei 2 (X1 +X2 ) ] = ΦX1 (t/2)2 = e−|t| = ΦX1 (t). soit égale Lebesgue- presque-partout à une fonction paire) pour que la loi de X soit symétrique. 2 Exercice 2 Calculs de fonctions caractéristiques 1.

y) = f (ϕ(x. z) 1{|x|≤√z} 1 fX|Z=z (x) = = √ . y). X + Y ) 1 de densité 2π e− 2 e− . autrement dit Z suit la loi exponentielle de paramètre 1/2. z)1{z≥x2 } √ dx dz. z) = 1 2 2π z−x2 {z≥x } par rapport à la 2 mesure de Lebesgue sur R .Z) (x. Alors la loi de Z est de densité : √ z e−z/2 Z Z dx 1 fZ (z) = f(X.Puis ΦX1 X2 +X3 X4 (t) = √ 1 . Y des variables aléatoires indépendantes de loi N (0. 2 Pour toute fonction bornée f : R → R. z)dx = 1R+ (z) √ √ = e−z/2 1R+ (z) R 2π − z z−x 2 2 (en reconnaissant la dérivée de arcsin √xz dans l'intégrale). x2 + y 2 )e−x /2 e−y /2 2π ZR Z0 ∞ dz dx = 2 f (x. Z) est de densité f(X. 1). y))dµ(X. Donc la loi conditionnelle de X sachant Z est p(z. on a : Z Z Z  E[f (ϕ(X. la loi de X conditionnellement à Z a pour densité e 2 et π 2 2 z 2 z l'exposant s'écrit −(x − zx + z /4) = −(x − ) . Lois conditionnelles Exercice 3 examen de rattrapage du 25 juin 2008. 2). 1. 2 2 Exercice 5 Loi conditionnelle autour de la loi normale Soit X. 2). et la question précédente montre que X 1 X2 + X3 X4 suit la 1+t2 1 −|t| loi 2 e dt. fZ (z) z − x2 π . et comme Z a 2 x2 (z−x)2 2 − − 2 + z4 √1 pour loi N (0. Z)] = f (x.Z) (x.y) (φ) dµY (y). dx) = fX|Z=z (x)dx où. x2 + y 2 )e−x e−y R R 2π Z Z ∞ 2 2 dy dx = 2 f (x. Z) = (X. Pour toute f : R → R mesurable bornée. z)e−z/2 √ R x2 2 z − x2 2π e−z/2 Z Z = f (x. pour z>0 : f(X. Y ) sachant Y =y est la loi de ϕ(X. R R 2π z − x2 −z/2 e√ donc la loi du couple (X.Z) (x. x2 (z−x)2 Exercice 4 On trouve (X. on a : Z Z dx dy 2 /2 2 /2 E[f (X. 2. donc la loi conditionnelle de ϕ(X. donc c'est la loi N ( . y))dµX (x) dµY (y) Z Z  = f (φ)dµϕ(X. Y ))] = f (ϕ(x.Y ) (x.

Exercice 6 Loi conditionnelle autour de la loi de Poisson examen du 9 juin 2008 Exercice 7 Loi conditionnelle autour de la loi de bernoulli test partiel du 11 avril 2008 Exercice 8 Loi conditionnelle autour de la loi de exponentielle examen de rattrapage du 25 juin 2008 . avec |Jφ−1 (r. r sin θ)e−r /2 r dr . θ)| = r. y) 7→ (r. 0 0 2π 2 1 (θ) donc (R. Notamment. on a donc : π/2 √ √ √ Z dθ 2 z E[ |X| |Z = z] = z E[ | cos Θ| ] = 4 z cos θ = . y))e−(x +y R R 2π Z ∞ Z 2π 2 dθ = f (r cos θ. ou : On note φ : (x. On pourrait aussi retrouver la densité fX|Z=z (x). la loi de X sachant Z = z est √ donc la loi de z cos Θ. Par l'exercice 3. on a donc : Z Z 2 2 )/2 dx dy E[f (R. 2π[. 3. Alors : Z E[ |X| |Z] = |x|fX|Z (x)dx R Z √Z 2 x = √ dx π 0 Z − x2 2h √ i √Z = − Z − x2 π√ x=0 2 Z = . Θ)] = E[f (φ(X. 2π]. 0 2π π comme obtenu plus haut.+∞[ (r)dr et la loi uniforme sur √ [0.2π[2π . π 4. Or Z et Θ sont √ indépendantes car R = Z et Θ le sont.et fX|Z=x (x) = 0 si z ≤ 0. La loi conditionnelle de X sachant Z est la loi conditionnelle de R cos Θ = Z cos Θ sachant Z . θ) l'application de passage en 1 2 coordonnées polaires . Y ))] = f (φ(x. Θ) a pour densité re−r /2 1]0.+∞[ (r) ]0. de lois −r2 /2 respectives re 1]0. c'est un C -diéo de R \ (R+ × {0}) dans ]0. Pour toute fonction mesurable bornée f : R2 → R. R et Θ sont indépendantes. +∞[×]0. Voir corrigé de l'examen.

On pose Xn Y = lim sup . n n→∞ n n n→∞ n Borel-Cantelli : * n P(An ) < ∞ ⇒ P(lim supn An ) = 0. * limn→∞ P(An ) = P(∪∞ n=1 An ) lorsque (An )n est croissante. P Exercice 1 Soit(Xn )n≥0 une suite de variables aléatoires indépendantes de loi exponen- tielle de paramètre λ > 0. il existe k(n) ≥ n tel que ω ∈ Ak(n) donc lim supn An contient les éléments ω ∈ Ω qui appartiennent à une innité de An . On a donc P(lim supn An ) = limn→∞ P(∪k≥n Ak ) = limn→∞ P(Jn ) et P(lim inf n An ) = limn→∞ P(∩k≥n Ak ) = limn→∞ P(In ). * limn→∞ P(An ) = P(∩∞ n=1 An ) lorsque (An )n est décroissante. n ln n . De plus pour tout n In ⊂ An ⊂ Jn et par conséquent P(lim inf An ) = lim P(In ) ≤ lim inf P(An ) ≤ lim sup P(An ) ≤ lim P(Jn ) = P(lim sup An ). On savait déjà que pour une suite d'événements (An )n : * P(∪∞ P∞ n=1 An ) ≤ n=1 P(An ) avec une égalité dans le cas où les An sont deux à deux disjoints. lim inf n An contient les éléments ω ∈ Ω qui appartiennent à tous les An à partir d'un certain rang.Université Claude Bernard Lyon 1 Probabilités Année universitaire 2008-2009 Feuille de TD 8 Modes de convergence et lemme de Borel-Cantelli Quelques Rappels Par dénition [ \ lim inf An = Ak . D'autre part \ [ lim sup An = Ak n n≥1 k≥n donc ω ∈ lim supn An ⇔ pour tout n. P * (An ) mutuellement indépendants et n P(An ) = ∞ ⇒ P(lim supn An ) = 1. Posons In = ∩k≥n Ak et Jn = ∪k≥n Ak . n n≥1 k≥n donc ω ∈ lim inf n An ⇔ il existe n tel que ω ∈ Ak pour tout k ≥ n.

Montrer que      Xn 1 Xn 1 P lim sup ≥ ≤ P lim sup ≥ . . Montrer que Xn ln n converge vers 0 en probabilité. pour tout  > 0. 1] qui tend vers 0. En déduire que P(Y > λ ) = 0. puis calculer 4. Démontrer que la suite Sn /n converge en probabilité vers une constante à préciser. . puis Sn = Y1 + .e.  Xn 1 P(Y ≥ λ1 ) = 1. En déduire 1 que P(Y = ) = 1. 1. 1. n ln n λ n ln n λ 2. P Sous quelle condition sur la somme n pn la suite (Xn )n≥1 converge-t-elle aussi presque sûrement vers 0? Exercice 3 (Un )n∈N une suite de variables aléatoires indépendantes de loi de Ber- Soit noulli de paramètre p (i. Pour tout n. Soit (Xn )n≥1 une suite de variables aléatoires indépendantes de loi Bernoulli de paramètre pn : P(Xn = 1) = pn = 1 − P(Xn = 0). Pour tout n. on note Yn = Un Un+1 . pour tout n. λ 6. qui valent 1 avec probabilité p et 0 avec probabilité q = 1 − p).      Xn 1+ Xn 1+ P lim sup > ≤ P lim sup > . Var[Sn ] ≤ Cn. Calculer E[Yn Ym ] E[Sn /n]. 1 Le but est de montrer que Y = λ presque surement. Montrer qu'il existe une constante C telle que. n ln n λ n ln n λ 4. quelle est la loi de Yn ? 2. 1. + Yn . 5. . Cette suite converge-t-elle presque sûrement vers 0? Exercice 2 Soit (pn )n≥1 une suite dans [0. En déduire que 3.  Montrer que P lim supn ln n ≥ λ = 1. 2. A quelle condition sur n et m tels que 1 ≤ n < m les variables aléatoires Yn et Ym sont-elles indépendantes ? 3. Montrer que Xn converge vers 0 en probabilité.  Xn 1+  1+ Montrer que P lim supn ln n > λ = 0. Montrer que. 5.

Exercice 2 1. On rappelle que lim supn xn = limn supk≥n xk . Borel Cantelli implique P(lim supn ln n ≥ λ )= 1 et donc avec 1. ) = P( Xn ≥ lnλn ) = e− ln n = n−1 . Λ = lim supn Λn = n k≥n Λk est l'ensemble des points P∈ Ω pour lesquelles Xn (ω) ne converge pas vers 0. Donc  Xn 1  On a P( ln n ≥ λ X  Xn 1  X1 P( ≥ )= = ∞.  > 0 que P(Xn ≥ ) ≤ pn −→ 0T. Decoule de l' implication suivante Soit (xn )n≥0 une suite de nombres réels. Donc P(Y = λ1 ) = P(Y ≥ λ1 ) − P(Y > λ1 )=1-0=1. Exercice 3 Voir examen du 9 juin 2008 . ln n )) = 0. 5. Alors on peut montrer que xn ≥ 0 pour une innité de n =⇒ lim sup xn ≥ 0 n 2. 3. Maintenant   X Xn 1+ X P( > )= n−(1+) < ∞. n ln n λ n n  Xn 1 Comme les variables sont indépendantes. Soit (xn )n≥0 une suite de nombres réels. Alors on peut montrer que lim sup xn > 0 =⇒ xn > 0 pour une innité de n. On rappelle Decoule de l' implication suivante que lim supn xn = limn supk≥n xk . Donc (Xn )n converge prèsque surement vers 0 ssi n pn < ∞ . D'après Borel-Cantelli ω P P(Λ) = 0 ssi n P(Λn ) < ∞. P(Y > λ1 (1 + Borel Cantelli nous dit alors que P(lim supn Avec 3. On pose Λn = {Xn = 1}. 6. S On a pour tout n→∞ 2. Correction de la feuille de TD 8 Exercice 1 1. On a P( lnXnn ≥ a) = P(X1 ≥ aln n) → 0. n 4. n ln n λ n  Xn > λ1 (1 + ) ) = 0. P(Y ≥ λ1 ) = 1. On laissant tendre vers 0 on obtient par σ -continuité que P(Y > λ1 ) = lim→0 P(Y > 1+ λ ) = 0.

Maintenant X  Xn  1+ X P( > )= n−(1+) < ∞. n ln n λ n  Xn 1 Borel Cantelli nous dit alors que P(lim supn > (1 + ) ) = 0. X 1+ Ce qui signie que ω ∈ lim sup{ n > }. il est clair que cette variable converge en probabilité vers 0. Correction de l'exercice 1 du Td 8 Xn 1. Montrons que Xn lim sup{ ln n ≥ 1/λ} ⊂ {lim sup ≥ 1/λ}. ln n Xn (ω) X Par conséquent. Donc P(Y = λ1 ) = P(Y ≥ λ1 ) − P(Y > λ1 )=1-0=1. λ 5. Autrement dit. n En eet. Donc  Xn X  Xn 1  X1 P( ≥ )= = ∞. soit encore ω ∈ {lim sup n ≥ 1/λ}. ln n 2. n ln n λ n n Comme les variables sont indépendantes. . 6. lim sup ln n ≥ 1/λ . P(Y ≥ λ1 ) = P(lim supn ln n 1. ln n Xn Xn Soit ω ∈ lim sup{ ln n ≥ 1/λ}. Borel Cantelli implique  Xn ≥ λ1 ) = 1 et donc avec la question 1. ln n   ln n Xn (ω) Xn (ω) Or il existe une sous-suite de qui converge vers lim sup . on voit très rapidement apparaître une contrac- diction avec le résultat de la question 5. On peut montrer qu'elle ne converge pas ps vers 0 en utilisant l'équivalence Yn →ps Y si et seulement si ∀ > 0 P(lim sup |Yn − Y | > ) = 0. ln n Xn 1+ Xn (ω) 1+ Soit ω ∈ {lim sup > λ } on a alors lim sup > λ . Xn 3. ≥ 1/λ} est inni. ln n λ 1 Avec la question 3. On a P( ln n ≥ λ1 ) = P( Xn ≥ lnλn ) = e− ln n = n−1 . ln n > 1+λ } est inni. Montrons que {lim sup > 1+ λ Xn } ⊂ lim sup{ ln n > 1+ λ }. pour Yn = Xn / ln n et Y = 0 ici. ln n λ 4. ln n n∈N ln n Xn (ω) Donc l'ensemble {n ∈ N. Alors ω appartient à une innité d'événements { ln n ≥ 1/λ} Xn (ω) c'est-à-dire que l'ensemble {n ∈ N. On a P( lnXnn ≥ ) = P(X1 ≥ ln n) → 0. En laissant tendre  vers 0 on obtient par σ-continuité que P(Y > λ1 ) = lim→0 P(Y > 1+ λ ) = 0. P(Y > (1 + )) = 0.

Soit N une variable aléatoire de loi de Poisson de paramètre λ > 0 indépendante de (Xn )n≥1 . . Montrer que les variables Z et 1{Z=X} sont indépendantes. p) indépendante de X0 . Y ). Déterminer la loi de Mn puis montrer que Mn converge en probabilité vers 1. . Déterminer le comportement lorsque n tend vers l'inni de la suite de terme 1 Pn général 1{Yi +Zi ≤1} . . On pose  0 si N = 0. . X1 . . Y ). . . Pour ` ∈ N. . 3. On note Z = min(X. . V = PN i=1 Xi si N ≥ 1. (Xn )n≥1 une suite de variables aléatoires indépendantes et de même loi de Bernoulli Soit de paramètre p. Soit N une variable aléatoire de loi binomiale B(n. Calculer P(X ≤ Y ). 2. 2. Calculer la fonction de répartition de Z . On note Z = min(X. Soit (Xn )n≥1 une suite de variables aléatoires indépendantes et de même loi N (0. calculer P(Z = k). i=0 Exprimer la fonction caractéristique de U en fonction de celle de X0 . Calculer la fonction génératrice de V. Xn . 5. . On pose N X U= Xi . Xn des variables aléatoires indépendantes et identiquement distri- buées. Yn ). 1. . . 6. 1]. 2. 1). X1 .Université Claude Bernard Lyon 1 Probabilités Année universitaire 2008-2009 Feuille de TD 9 Exercice 1 X et Y deux variables aléatoires indépendantes de lois respectives E(λ) Soit avec λ > 0 et E(µ) avec µ > 0. n i=1 3. Exercice 2 1. (Yn )n≥1 et (Zn )n≥1 des variables aléatoires indépendantes et de même loi uniforme Soit sur [0. 4. Notons Mn = max(Y1 . . Calculer les fonctions de répartition de X et Y . Pour k ∈ N? . 1[ et E(λ) avec λ > 0. 7. Calculer P(X ≤ Y ). Soit X et Y deux variables aléatoires indépendantes de lois respectives G(p) avec p ∈]0. calculer P(a < Z < b). Soit X0 . Quelle loi reconnaissez-vous ? Exercice 3 1. 1 Pn Montrer que la suite de terme général X 2 eXi converge presque sûrement lorsque n i=1 i n tend vers l'inni vers une limite que l'on précisera. a et b deux réels tels que ` < a < b < ` + 1.

k=1 Pour Y on a pour tout y : P(Y ≤ y) = (1 − e−λy )1R+ (y). on a : [x] X P(X ≤ x) = P(X ≤ [x]) = p(1 − p)k−1 = 1 − (1 − p)[x] . X ≥ ` + 1) = P(a < Y < b)P(X ≥ ` + 1) = P(a < Y < b)(1 − P(X ≤ `)) = (e−λa − e−λb )(1 − p)` . Pour` ∈ N. 4. ? P(Z = k) = P(X = k. k=1 k=1 k=1 1 − e−λ (1 − p) 6. Y ). On a P(Z ∈ A. 5. P  N V V P ∞ P∞ V On pose V = i=1 Xi 1N ≥1 . P(X ≤ Y ) = R2 1x≤y µ(X. P(Z ∈ A)P(1Z=X = 1) = P(Z ∈ A)P(X ≤ Y ) = A . Z est une variable positive. A λ (λ+µ)e−(λ+µ)z 1R+ (z)dz R D'autre part. X ∈ A) Z Z ∞  = µe dy λe−λx 1R+ (x)dx −µy A Z x = λ e−(λ+µ)x 1R+ (x)dx. PN Pk itU ] = E[eitU ( nk=0 1N =k )] = nk=0 E[eit j=0 Xj ]P(N = P P On pose U= i=0 Xi . On reconnait k! la loi de Poisson de paramètre λp. 1. X = k) = P(Y ≥ k)P(X = k) = p(1−p)k−1 e−λk = . Y > z) = 1 − P(X > z)P(Y > z) = 1 − e−(λ+µ)z donc Z suit une loi exponentielle de paramètre λ + µ.Y ) (dx. on a P(Z ≤ z) = 1 − P(X > z. GV (s) = E[s ] = E[s ( k=0 1N =k )] = k=0 E[s 1N =k ] = P∞ Pk Xj P∞ λk P(N = 0)+ k=1 E[s j=11N =k ] = e−λ + k −λ k=1 (1−p+sp) e = eλp(s−1) . 1[ et E(λ) avec λ > 0. On note Z = min(X. on a : P(a < Z < b) = P(a < Y < b. 7. λ 2. λ+µ Soit X et Y deux variables aléatoires indépendantes de lois respectives G(p) avec p ∈]0. Y > k) car Y est à densité donc P(Z = k) = p(1 − p)k−1 e−λk . dy) =T onelli 0∞ x∞ µe−µy dy λe−λx dx = R R R  . On note Z = min(X. Correction de la feuille de TD 9 Exercice 1 X et Y deux variables aléatoires indépendantes de lois respectives E(λ) Soit avec λ > 0 et E(µ) avec µ > 0. 1Z=X = 1) = P(Z ∈ A)P(1Z=X = 1). Pour k ∈ N . λ+µ 3. X est une variable à valeurs dans N? et pour x ≥ 1. Il est susant de montrer que pour A ⊂ R borélien : P(Z ∈ A. Exercice 2 1. Y ). . 1Z=X = 1) = P(X ≤ Y. ∞ ∞ ∞ X X X pe−λ P(X ≤ Y ) = P(X ≤ Y. a et b deux réels tels que ` < a < b < ` + 1. Pour z > 0. φU (t) = E[e n k) on trouve alors facilement que φU (t) = φX0 (t) (pφX0 (t) + 1 − p) . 2.

. Pour x ∈ [0. . . On a pour x < 0 P(Mn ≤ x) = 0 et pour x > 1 P(Mn ≤ x) = 1. E[1Y +Z≤1 ] = 1/2. On a des variables aléatoires indépendantes de même loi intégrables donc d'après la loi forte des grands nombres on a la convergence ps vers 2e1/2 . . P(|Mn − 1| > ε) = (1 − ε)n 10<ε≤1 . Yn ). 1]. on a P(Mn ≤ x) = P(Y1 ≤ x)n = xn . E[X 2 eX ] = 2e1/2 .Exercice 3 1. Donc cette probabilité tend vers 0 pour tout ε > 0. Notons Mn = max(Y1 . 2. 3. On a des variables aléatoires indépendantes de même loi intégrables donc d'après la loi forte des grands nombres on a la convergence ps vers 1/2. .

4. 2. . par quelle loi gaussienne peut-on approcher la loi de X n ? 3. Le but de l'exercice est de démontrer la loi forte des grands nombres pour la suite (Xn )n . Conclure. P En déduire que. dans une suite de lancers indépendants de pièces de monnaie identiques. alors la convergence a lieu en probabilité. 2 2 2. 95. 2. la séquence PFPFF ( Pile. pour tout n. pour n = 10000 et φ = 1. 3. X n des variables aléatoires indépendantes de loi exponentielle X1 + · · · + Xn de paramètre λ > 0. avec α1 . 4 4 Montrer que. On note. 1). Démontrer que la suite de terme général max1≤k≤n Xk − ln n λ converge en loi vers une limite à déterminer. 1) et −X . n 1. En déduire un intervalle de la forme I = [1/λ − β. On pose X n = et Zn = 1/X n . n P(|Sn | > nε) converge. . Exercice 3 Soit (Xn )n≥1 une suite de variables aléatoires indépendantes. 1. On note X = X1 . En supposant n susamment grand pour que cela se justie. Exercice 5 Soient X1 . Indication : utiliser par exemple X de loi N (0. . Sn = X1 + · · · + X n . 95. Montrer la convergence en probabilité suivante : 1 (p) 1 max Xk −→ . Montrer que Zn converge presque sûrement vers λ quand n tend vers ∞. tel que P(X n ∈ I) = 0. tel que P(Zn ∈ J) = 0. Exercice 2 Soit (Xn )n≥1 une suite de variables aléatoires indépendantes. Application numérique : calculer J . 6. Donner un exemple de suite (Xn )n≥0 qui converge en loi mais pas en probabilité (et donc pas presque sûrement). montrer qu'il existe un unique φ ∈ R+ tel que P(|N | ≤ φ) = 0. de même loi. . En déduire ensuite un intervalle de la forme J = [α1 λ. ln n 1≤k≤n n λ 2. 5. qui a même loi. Montrer que si (Xn )n converge en loi vers une variable aléatoire constante c. avec β à déterminer. 95. Soit N une variable aléatoire de loi N (0. pour tout n. Préciser ce résultat à l'aide de la loi forte des grands nombres. Exercice 4 1. α2 à déterminer. . α2 λ]. de loi E(λ). Face) apparaît une innité de fois.Université Claude Bernard Lyon 1 Probabilités Année universitaire 2008-2009 Feuille de TD 10 Exercice 1 Montrer que. pour tout ε > 0. E[Sn ] = nE[X ] + 3n(n − 1)E[X ] . 1. en fonction de λ inconnu. 1/λ + β]. 96. On suppose E[X] = 0 et E[X 4 ] < ∞.

(développer. 1 1 X 1 X ]{1 ≤ k ≤ n|(Xk . n ≤ 1 p . de loi P(Xn = F ) = 1/2 = 1 − P(Xn = P ). par Borel-Cantelli. La loi des grands nombres donne quant à elle la fréquence asymptotique d'apparition de la séquence : presque-sûrement.a. n . Xk+2 . 1. indépen- dantes). n0 tel que. de loi E(λ). Xk+3 .i. X5n+2 .s. pour tout n. pour tout p ∈ N∗ . Xk+1 . Correction de la feuille de TD 10 Exercice 1 (Xn )n≥0 suite i. 1. E[Sn4 ] = nE[X 4 ] + 3n(n − 1)E[X 2 ]2 . F. Pour tout ε > 0. il existe p. en prenant ε = 1/p. On applique Borel-Cantelli aux événements indépendants A5n = {(X5n . n4 ε4 n2 ε4 3. Comme une intersection dénombrable d'événements presque sûrs |Sn | est presque sûre. de même loi..s. P. On note X = X1 . Xk+4 ) = (P. si ε < 1/λ : 1 1 1 P( max Xk − < −ε) = (1 − exp(−(1 − λε) ln n))n = exp(n ln(1 − 1−ελ )) →n 0. c'est à dire que la suite (Sn /n)n converge vers 0. P(Zn ≤ t) = 0 et on a. E[Sn4 ] 3E[X 2 ]2 P(|Sn | > nε) = P(|Sn |4 > n4 ε4 ) ≤ ∼n . On a : 1 1 1 P( max Xk − > ε) = P(Xk > ( + ε) ln n)n ln n 1≤k≤n λ λ = exp(−n(1 + λε) ln n) →n 0 et. F. Le but de l'exercice est de démontrer la loi forte des grands nombres pour la suite (Xn )n . Soit ε > 0. pour tout t>0 : ln n P(Zn ≤ t) = P(Xk − ≤ t)n λ e−λt n −λt = (1 − ) →n e−e . |Sn | pour n ≥ n0 . Montrer que. Pour t ≤ 0. Pour tout p ∈ N∗ . pour n ≥ n0 . P. X5n+4 ) = (P. F.. Exercice 2 Soit (Xn )n≥1 une suite de variables aléatoires indépendantes. ln n 1≤k≤n λ n et cette proba est nulle si ε > 1/λ. on a : p. Exercice 3 Soit (Xn )n≥1 une suite de variables aléatoires indépendantes. On suppose E[X] = 0 et E[X 4 ] < ∞. F. 2. F )} = 1A5k +· · ·+ 1A → − n n 1≤5k≤n n 1≤5k+4≤n 5k+4 n (on découpe l'ensemble selon le résidu de k modulo 5 de façon à avoir des v.) 2. F )} P qui ont tous même proba de sorte que la série n P (A5n ) diverge grossièrement. il existe n0 tel que. X5n+1 . X5n+3 ..d. n ≤ p1 .

Par le T. Donc Zn →ps λ. Rnλ √ 3. −λt −e−λt En dérivant.98 et α2 = 1.+∞[ (t). 2. 2.) √ 4.95 donc on pose √ √ α1 = λ(1/(1 + φ/ n)) et α2 = λ(1/(1 − φ/ n)). donc la suite Xn = (−1)n X converge en loi vers X . si Sn = nX n alors Sn − nE[X1 ] √ ∼ N (0. P(|Xn − c| > ε) = 1 − P(c − ε < Xn < c + ε) →n 0 par convergence des fonctions de répartition aux points de continuité de la limite (ici. Alors −X a même loi.95 √ √ c'est à dire P(|X − 1/λ| < φ/( nλ)) = 0. Exercice 4 1.+∞[ (t). √ ). σ(X1 )) n 1 donc X ∼ N (1/λ.C.0196 donc α1 = 0. 1). 1) donc √ P( nλ|X − 1/λ| < φ) = 0. φ/ n = 0. alors : pour tout ε > 0.98λ. √ 6.02λ]. Par la loi des grands nombres (X1 integrable) on a X n →ps E[X1 ] = 1/λ. partout sauf en c). . Il s'agit d'une loi de Gumbel. nλ(X − 1/λ) ∼ N (0. Si (Xn )n converge en loi vers la variable aléatoire constante c. −λt Donc Zn converge en loi vers la loi ayant pour fonction de répartition F (t) = e−e 1[0. X de loi N (0. on voir que c'est aussi la loi de densité λe e 1[0.95 est equivalent à √ √ P(λ(1/(1 + φ/ n)) ≤ Zn ≤ λ(1/(1 − φ/ n))) = 0.02 d'ou J = [0. P(1/λ + φ/( nλ) ≤ X ≤ 1/λ + φ/( nλ)) = 0. or Xn − X = 0 si n est pair et −2X si n est impair donc la suite P(|Xn − X| > 1) ne converge pas vers 0.L. 1. croissante de 0 à 1 donc le théorème des valeurs intermédiaires (si I intervalle de R et f dénie sur I à valeurs réelles et continue alors f (I) est un intervalle. La fonction x 7→ −x x 2 e−t /2 dt/ 2π est continue.95 donc β = φ/( nλ). Exercice 5 1. √ √ 5.