You are on page 1of 13

Université de Douala

Licence 3 - Année académique 2020-2021


TD de Probabilités-Statistiques

TRAVAUX DIRIGÉS DE PROBABILITÉS

Partie I - Exercices par thèmes

Espaces Probabilisés

1. Show that if A ⊂ Ω then F = {∅, Ω, A, Ac } is a σ-algebra of subsets


of Ω
2. Let Ω = {α, β, γ} and let
F1 = {∅, Ω, {α} , {β, γ}} and F2 = {∅, Ω, {α, β} , {γ}}
Show that F1 and F2 are σ-algebras of subsets of Ω.
Is F = F1 ∪ F2 also a σ-algebra of subsets of Ω?
3. Let (Ω, F, P) be a probability space and let Q : F −→ [0, 1] be defined
by Q(A) = P(A|B) where B ∈ F such that P(B) > 0. Show that
(Ω, F, P) is also a probability space.
4. Boole’s Inequality. Suppose {Ai }i∈I is a countable collection of events.
Show that !
[ X
P Ai ≤ P(Ai )
i∈I i∈I

5. Bonferroni’s Inequality. Suppose {Ai}i∈I is a countable collection of


events. Show that
!
\ X
P Ai ≥ 1 − P(Aci )
i∈I i∈I
c P(Aci )
S  P
since P i∈I Ai ≤ i∈I

6. Borel-Cantelli Lemma. Let (Ω, F, P) be a probability space and let


A1 , A2 , ... be sets in F. Show that
\ +∞
+∞ \ +∞
[
Ak ⊆ Ak
m=1 k=m k=m

and hence prove that


+∞
\ +∞
!  T P+∞
\ 1 if Ai Aj = ∅, i 6= j and k=1 P(Ak ) = ∞
P Ak = P+∞
m=1 k=m
0 if k=1 P(Ak ) < ∞

1
Variables Aléatoires continues

1. Gamma Distribution.
Let U and V be continuous independent random variables and let
W =U +V.
i) Show that the probability density function of W can be written as
Z +∞ Z +∞
fW (w) = fV (w − u)fU (u)du = fU (w − v)fV (v)dv
−∞ −∞

where fU (u) and fV (v) are the density functions of U and V , respec-
tively.

ii) Let X1 , X2 , ..., Xn ∼ exp(λ) be a sequence of independent and iden-


tically distributed random variables, each following an exponential dis-
tribution with common parameter λ > 0. Prove that if
n
X
Y = Xi
i=1

then Y follows a gamma distribution, Y ∼ Gamma(n, λ) with the


following probability density function: ‘

(λy)n−1 −λy
fY (y) = λe , y≥0
(n − 1)!
n n
iii) Show also that E(Y ) = λ and Var(Y ) = λ2

2. Normal Distribution Property I.


Show that for constants a, L and U such that t > 0 and L < U ,
Z U  2     
1 aw− 12 √
w
a2 t U − at L − at
√ e t =e Φ √ −Φ √
2πt L t t
where Φ(·) is the cumulative distribution function of a standard nor-
mal.

3. Normal Distribution Property II.


i) Show that if X ∼ N (µ, σ 2 ) then for δ ∈ {−1, 1},

δ(µ + σ 2 − log K)
   
 X µ+ 21 σ 2 δ(µ − log K)
E(max δ(e − K), 0 ) = δe Φ −δKΦ
σ σ

where K > 0 and Φ(·) denotes the cumulative standard normal distri-
bution function.

2
4. Lognormal Distribution I.
Let Z ∼ N (0, 1).
i) Show that the moment generating function of a standard normal
distribution is
1 2
E(eθZ ) = e 2 θ
for a constant θ.

ii) Show that if X ∼ N (µ, σ 2 ) then Y = eX follows a lognormal


distribution, Y = eX ∼ log N (µ, σ 2 ) with probability density function
1 1 log y−µ 2
fY (y) = √ e2( σ )
yσ 2π
1 2
with mean E(Y ) = eµ+ 2 σ and variance Var(Y ).

5. Lognormal Distribution II.


Let X ∼ log N (µ, σ 2 ).
Show that for n ∈ N
1 2
E(X n ) = enµ+ 2 σ .

6. Chi-Square Distribution.
X−µ
i) Show that if X ∼ N (µ, σ 2 ), then Y = σ ∼ N (0, 1).

Let Z1 , Z2 , . . . , Zn ∼ N (0, 1) be a sequence of independent


and identically distributed random variables each following a standard
normal distribution. Using mathematical induction show that Z =
Z12 + Z22 + · · · + Zn2 ∼ X 2 (n) where Z has a probability density function

1 n z
fZ (z) = n
n
 z 2 −1 e− 2 , z≥0
2 Γ 2
2

such that n Z ∞ n


Γ = e−x x 2 −1 dx.
2 0

Finally, show that E(Z) = n and Var(Z) = 2n.

3
Changement de mesure et Espérance

1. Change of Measure.
Let Ω be a probability space and let P and Q be two probability
measures on Ω. Let Z(w) be the Radon-Nikodym derivative defined
as
Q(w)
Z(w) =
P(w)
such that P(Z > 0) = 1.

By denoting EP and EQ as expectations under the measure P and Q,


respectively, show that for any random variable X,
 
Q P P Q X
E (X) = E (XZ), E (X) = E .
Z

Espérance Conditionelle: Définition générale et Propriétés

Let (Ω, F, P) be a probability space and let G be a sub-σ-algebra of F


(i.e., sets in G are also in F).
Définition: Let X be an integrable (i.e. E(|X|) < +∞) and non negative
random variable.
The conditional expectation X given G, denoted E(X/G) is any random vari-
able that satisfies: (i) E(X/G) is G-mesurable
R and (ii) Rfor every set A ∈ G,
we have the partial average property A E(X/G)dP = A XdP.

1. Conditional Probability.
If IA is an indicator random variable for an event A defined as

1 if w ∈ A
IA =
0 otherwise

Show that
E(IA |G) = P(A|G)

2. Linearity.
Let X1 , X2 , . . . , Xn are integrable random variables and c1 , c2 , . .
. , cn are constants. Show that

E(c1 X1 +c2 X2 +...+c2 Xn |G) = c1 E(X1 |G)+c2 E(X2 |G)+...+c2 E(Xn |G).

4
3. Positivity.
If X is an integrable random variable such that X ≥ 0 almost surely,
then show that
E(X|G)
almost surely.

4. Monotonicity.
If X and Y are integrable random variables such that X ≤ Y almost
surely, then show that

E(X|G) ≤ E(Y |G).

5. Computing Expectations by Conditioning.


Let (Ω, F, P) be a probability space and let G be a sub-σ-algebra of F
(i.e., sets in G are also in F). Show that

E(E(X|G)) = E(X).

6. Taking Out What is Known.


If X and Y are integrable random variables and if X is G-measurable
show that
E(XY |G) = XE(Y |G).

7. Tower Property.
If H is a sub-σ-algebra of G (i.e., sets in H are also in G) and X is an
integrable random variable, show that

E(E(X|G)|H) = E(X|H).

8. Measurability.
If the random variable X is G measurable then show that

E(X|G) = X.

9. Independence.
If X = IB such that

1 if w ∈ B
IB (w) =
0 otherwise

and IB is independent of G, show that

E(X|G) = E(X).

5
Conditional Jensen’s Inequality.
Let ϕ : R ←→ R is a convex function and X is an integrable random
variable. Show that

E(ϕ(X)|G) ≥ ϕ(E(X|G)).

Deduce that if X is independent of G, then the above inequality be-


comes
E(ϕ(X)) ≥ ϕ(E(X)).

10. If X is an integrable random variable and E(X 2 ) ≤ ∞ show that

E(E(X|G)2 ) ≤ E(X 2 ).

6
Convergences de Variables aléatoires

Exercice 1

Soit (Xn )n∈N une suite de variables aléatoires réelles sur un espace prob-
A, P ); onP
abilisé (Ω,P suppose qu’il existe une suite de réels (an )n∈N telles que
les séries n an et n P P{Xn 6= an } sont convergentes.
Démontrer que la série n Xn est p.s. convergente.

Exercice 2

Soit (Xi )i∈I une famille de variables aléatoires réelles sur (Ω, A, P ); on
suppose qu’il existe une fonction G : [0, ∞[→ [0, ∞[ vérifiant

lim G(t)/t = ∞
t→∞

telle que supi∈I E(G(|XI |)) est fini.


Démontrer que la famille (Xi )i∈I est uniformement intégrable.

Exercice 3

Soient (Xn )n∈N et (Yn )n∈N deux suites de variables aléatoires réelles sur
(Ω, A, P) convergeant en loi respectivement vers X et Y .

a) On suppose que pour tout n, Xn et Yn sont indépendantes. Démontrer


que Xn + Yn converge en loi vers X + Y . Donner un exemple montrant que
l’hypothèse d’indépendance est indispensable.

b) On suppose que Y = 0. Prouver que Xn + Yn converge en loi vers X


et Xn Yn converge en loi vers 0.

Exercice 4

Montrer que pour x > 0,


Z +∞
−x2 /2 1 1 2 /2 2 /2 1
e ( − 3) ≤ e−t dt ≤ e−x
x x x x
2
Indication: intégrer par parties t−1 te−t /2
Soit maintenant (Xn )n∈N une suite de variables aléatoires indépendantes,
toutes de même loi N (0, 1). Montrer que

Xn
lim sup √ =1 p.s
n→∞ 2logn

7
Montrer également que
max1≤i≤n Xi P
√ −
→1
2logn

Exercice 5: Les parties A) et B) sont indépendantes.

A) Let (Ω, F, P) be a probability space. We consider a symmetric ran-


dom walk such that the j-th step is defined as

1

1 with probability 2
Zj = 1
−1 with probability 2

Where Zi ⊥ Zj , i 6= j. By setting 0 = k0 < k1 < k2 < ... < kt , we let


ki
X
Mki = Zj , i = 1, 2, ...t
j=1

Where M0 = 0
Show that the symmetric random walk has independent increments such
that the random variables Mk1 − Mk0 , Mk2 − Mk1 , ..., Mki − Mki−1 are inde-
pendent.
Finally, show that E(Mki+1 − Mki ) = 0 et V ar(Mki+1 − Mki ) = ki+1 − ki

B) Donsker Theorem.
Let (Ω, F, P) be a probability space. For a symmetric random walk
k
X
Mk = Zi
i=1

1
where M0 = 0, P(Zi = 1) = P(Zi = −1) = 2 and by defining

[nt]
(n) 1 1 X
Wt = √ M[nt] = √ Zi
n n
i=1

for a fxed time t, show that


[nt]
(n) 1 X D
lim Wt = lim √ Zi −
→ N (0, t)
n→∞ n→∞ n
i=1

8
Exercice 6

Soit (Xi )i∈I une suite de variables aléatoires indépendantes suivant une
loi de BernouilliP B(p).
On pose X = ni=1 Xi
Montrer que X suit une loi binomiale B(n, p)
Montrer en utilisant le Théorème Central limite que lorsque n → ∞, X peut
être approximée par une loi normale N (np, np(1 − p))

9
Partie II - Exercices généraux

Exercice 1

La banque UCL propose les deux produits financiers suivants pour une
période d’un an :
(I) un titre A dont la valeur, modélisée par la variable aléatoire XA (0 ≤
XA ≤ 1), est liée aux résultats financiers de la compagnie Parapluie de
Belgique
(II) un titre B dont la valeur, modélisée par la variable aléatoire XA (0 ≤
XA ≤ 1); est liée aux profits réalisés par la compagnie Soleil de Toscane.
a) Un portefeuille est composé de 50 pour cent du titre A et de 50 pour
cent du titre B, c’est-á-dire que Y = 0.5XA + 0.5XB ; où Y est la variable
aléatoire représentant la valeur d’une unité du portefeuille. En supposant
que
E(XA ) = E(XB ) = 0
et que la matrice Variance-Covariance soit donnée par
 
1 0
ΣXA ,XB =
0 2

déterminer Var(Y ).
b) On suppose maintenant que la distribution conjointe de XA et XB est
donnée par :

0.5xA + 1.5xB si 0 ≤ xA , xB ≤ 1
fX (x) = fXA ,XB (x) =
0 sinon

Calculer la valeur esperée du titre A sachant que le titre B vaut 0.6 avec
certitude.
c) On suppose maintenant que la composition d’une unité du portefeuille
est donnée par:
Y = AX X = (XA , XB )T avec
 
1 1
A=
1 −1

Déterminer la fonction de densité du vecteur aléatoire Y.

Exercice 2
Soit X1 et X2 deux variables aléatoires exponentielles et de moyennes θ11 et
1
θ2 respectivement. on suppose que X1 et X2 sont indépendantes et on pose:
Y1 = X1 + X2 et Y2 = X1 − X2

1. Déterminer les distributions fY1 et fY2 des v.a Y1 et Y2 respectivement.

10
2. Peut on affirmer que Y1 et Y2 sont indépendantes ? Justifer.
3. Quelle est la distribution de T = max(X1 ; X2 ) ?
Exercice 3
On considére le vecteur aléatoire X N2 (µ, σ) où µ = (2, 2)T et
 
1 1
σ=
1 −1

ainsi que les matrices A = [1, 1] et B = [1, −1]. Es ce que les variables
aléatoire AX et BX sont indépendantes?

Exercice 4
La transformation de Box-Muller est populaire pour simuler des nombres
normaux à partir de nombres uniformes. Soient U1 U n[0, 1] et U2
U n[0, 1] deux variables aléatoires indépendantes et
1
X1 = (−2 ln U1 ) 2 cos(2πU2 )
1
X2 = (−2 ln U1 ) 2 sin(2πU2 )
deux v.a distribuées chacune selon une loi normale centrée réduite. Démontrer
que X1 et X2 sont indépendantes.

Exercice 5
On considère le vecteur aléatoire T = (X; Y ; Z) de densité

fT (x; y; z) = k(x + yz)IA (x; y; z)

où IA est la fonction indicatrice sur le cube A = [0; 1] × [0; 1] × [0; 1]


1. Déterminer la valeur de k pour que fT soit une fonction de densité.
2. Déterminer la distribution marginale de X.
3. Déterminer la covariance entre les variables aléatoires Y et Z.
4. Déterminer la distribution de (Y ; Z|X).
Exercice 6
Soient X et Y deux v.a. discrètes dont les probabilités conjointes et marginales
sont définies dans le tableau ci-dessus:
Calculons E(X|Y = 1), E(X|Y = 2), E(X|Y = 3), E(Y |X = 1) et E(Y |X =
2) puis en déduire que X et Y sont deux v.a dépendantes l’une de l’autre.

Exercice 7
Soient X et Y deux v.a de densité conjointe

fX,Y = 8xyIB

11
X|Y 1 2 3 PX (x)
1 1 2
1 9 9 0 9
1 1 1
2 3 0 6 2
1 1 1 5
3 9 18 9 18
5 1 5
PX (x) 9 6 18 1

où IB est la fonction indicatrice en B = {0 < x < y < 1} : Calculer E(X|Y )


et E(Y |X).

Exercice 8
Soient T et S deux v.a. de densité conjointe
 3s2
t3
si 0 < s < t < 1
fT,S (t, s) =
0 otherwise

Calculer E(T ); E(T 2); Var(T ); E(S|T ); Var(S|T ); E[V ar(S|T )]; Var[E(S|T )] et
en déduire Var(S).

Exercice 9
Soient X et Y deux v.a de densité conjointe

1 + α(2x − 1)(2x + 1) si 0 < x, y < 1, −1≤α≤1
fX,Y (x, y) =
0, ailleur

i) Montrer que fX;Y est une densité de probabilité.


ii) Calculer Var(X|Y = y).
iii) Pour cette famille de distribution, montrer que X indépendant à Y si et
seulement si Corr(X; Y ) = 0.

Exercice 10
Soient X et Y deux v.a. réelles de carré intégrable définies sur l’espace
(Ω, F, P).
On suppose que E(Y |X) = X
a) Montrer sans utiliser l’inégalité de Jensen que E(Y 2 |X) ≥ X 2
b) Montrer que les trois propriétés suivantes sont équivalentes :
- E(Y 2 |X) = X 2
- E(Y 2 ) = E(X 2 )
- Y = X, P − ps.

Exercice 11
Soient X et Y deux v.a réelles, g une fonction continue de R vers R:
Démontrer que

min E[(Y − g(X))2 ] = E[(Y − E(Y |X))2 ].


g∈C 0 (R;R)

12
Exercice 12
Soient X et Y deux v.a réelles de carrés intégrables définies sur un espace
probabilisé (ΩF; P). Soit A une sous-tribu de F . On rappelle :

Var(X|A) = E[(X − E(X|A))2 |A] (1)

Cov[(X; Y )|A] = E[(X − E(X|A))(Y − E(Y |A))|A]. (2)


et on supposera que E(X|A) − E(X) est la projection orthogonale de X −
E(X) sur l’espace vectoriel L2 (Ω, F, P)
a) Montrer que

Var(X) = E[Var(X|A)] + Var[E(X|A)].

b) Montrer que

Cov(X, Y ) = E[Cov[(X, Y )|A]] + Cov[E(X|A); E(Y |A)].

13

You might also like