Professional Documents
Culture Documents
Espaces Probabilisés
1
Variables Aléatoires continues
1. Gamma Distribution.
Let U and V be continuous independent random variables and let
W =U +V.
i) Show that the probability density function of W can be written as
Z +∞ Z +∞
fW (w) = fV (w − u)fU (u)du = fU (w − v)fV (v)dv
−∞ −∞
where fU (u) and fV (v) are the density functions of U and V , respec-
tively.
(λy)n−1 −λy
fY (y) = λe , y≥0
(n − 1)!
n n
iii) Show also that E(Y ) = λ and Var(Y ) = λ2
δ(µ + σ 2 − log K)
X µ+ 21 σ 2 δ(µ − log K)
E(max δ(e − K), 0 ) = δe Φ −δKΦ
σ σ
where K > 0 and Φ(·) denotes the cumulative standard normal distri-
bution function.
2
4. Lognormal Distribution I.
Let Z ∼ N (0, 1).
i) Show that the moment generating function of a standard normal
distribution is
1 2
E(eθZ ) = e 2 θ
for a constant θ.
6. Chi-Square Distribution.
X−µ
i) Show that if X ∼ N (µ, σ 2 ), then Y = σ ∼ N (0, 1).
1 n z
fZ (z) = n
n
z 2 −1 e− 2 , z≥0
2 Γ 2
2
3
Changement de mesure et Espérance
1. Change of Measure.
Let Ω be a probability space and let P and Q be two probability
measures on Ω. Let Z(w) be the Radon-Nikodym derivative defined
as
Q(w)
Z(w) =
P(w)
such that P(Z > 0) = 1.
1. Conditional Probability.
If IA is an indicator random variable for an event A defined as
1 if w ∈ A
IA =
0 otherwise
Show that
E(IA |G) = P(A|G)
2. Linearity.
Let X1 , X2 , . . . , Xn are integrable random variables and c1 , c2 , . .
. , cn are constants. Show that
E(c1 X1 +c2 X2 +...+c2 Xn |G) = c1 E(X1 |G)+c2 E(X2 |G)+...+c2 E(Xn |G).
4
3. Positivity.
If X is an integrable random variable such that X ≥ 0 almost surely,
then show that
E(X|G)
almost surely.
4. Monotonicity.
If X and Y are integrable random variables such that X ≤ Y almost
surely, then show that
E(E(X|G)) = E(X).
7. Tower Property.
If H is a sub-σ-algebra of G (i.e., sets in H are also in G) and X is an
integrable random variable, show that
E(E(X|G)|H) = E(X|H).
8. Measurability.
If the random variable X is G measurable then show that
E(X|G) = X.
9. Independence.
If X = IB such that
1 if w ∈ B
IB (w) =
0 otherwise
E(X|G) = E(X).
5
Conditional Jensen’s Inequality.
Let ϕ : R ←→ R is a convex function and X is an integrable random
variable. Show that
E(ϕ(X)|G) ≥ ϕ(E(X|G)).
E(E(X|G)2 ) ≤ E(X 2 ).
6
Convergences de Variables aléatoires
Exercice 1
Soit (Xn )n∈N une suite de variables aléatoires réelles sur un espace prob-
A, P ); onP
abilisé (Ω,P suppose qu’il existe une suite de réels (an )n∈N telles que
les séries n an et n P P{Xn 6= an } sont convergentes.
Démontrer que la série n Xn est p.s. convergente.
Exercice 2
Soit (Xi )i∈I une famille de variables aléatoires réelles sur (Ω, A, P ); on
suppose qu’il existe une fonction G : [0, ∞[→ [0, ∞[ vérifiant
lim G(t)/t = ∞
t→∞
Exercice 3
Soient (Xn )n∈N et (Yn )n∈N deux suites de variables aléatoires réelles sur
(Ω, A, P) convergeant en loi respectivement vers X et Y .
Exercice 4
Xn
lim sup √ =1 p.s
n→∞ 2logn
7
Montrer également que
max1≤i≤n Xi P
√ −
→1
2logn
1
1 with probability 2
Zj = 1
−1 with probability 2
Where M0 = 0
Show that the symmetric random walk has independent increments such
that the random variables Mk1 − Mk0 , Mk2 − Mk1 , ..., Mki − Mki−1 are inde-
pendent.
Finally, show that E(Mki+1 − Mki ) = 0 et V ar(Mki+1 − Mki ) = ki+1 − ki
B) Donsker Theorem.
Let (Ω, F, P) be a probability space. For a symmetric random walk
k
X
Mk = Zi
i=1
1
where M0 = 0, P(Zi = 1) = P(Zi = −1) = 2 and by defining
[nt]
(n) 1 1 X
Wt = √ M[nt] = √ Zi
n n
i=1
8
Exercice 6
Soit (Xi )i∈I une suite de variables aléatoires indépendantes suivant une
loi de BernouilliP B(p).
On pose X = ni=1 Xi
Montrer que X suit une loi binomiale B(n, p)
Montrer en utilisant le Théorème Central limite que lorsque n → ∞, X peut
être approximée par une loi normale N (np, np(1 − p))
9
Partie II - Exercices généraux
Exercice 1
La banque UCL propose les deux produits financiers suivants pour une
période d’un an :
(I) un titre A dont la valeur, modélisée par la variable aléatoire XA (0 ≤
XA ≤ 1), est liée aux résultats financiers de la compagnie Parapluie de
Belgique
(II) un titre B dont la valeur, modélisée par la variable aléatoire XA (0 ≤
XA ≤ 1); est liée aux profits réalisés par la compagnie Soleil de Toscane.
a) Un portefeuille est composé de 50 pour cent du titre A et de 50 pour
cent du titre B, c’est-á-dire que Y = 0.5XA + 0.5XB ; où Y est la variable
aléatoire représentant la valeur d’une unité du portefeuille. En supposant
que
E(XA ) = E(XB ) = 0
et que la matrice Variance-Covariance soit donnée par
1 0
ΣXA ,XB =
0 2
déterminer Var(Y ).
b) On suppose maintenant que la distribution conjointe de XA et XB est
donnée par :
0.5xA + 1.5xB si 0 ≤ xA , xB ≤ 1
fX (x) = fXA ,XB (x) =
0 sinon
Calculer la valeur esperée du titre A sachant que le titre B vaut 0.6 avec
certitude.
c) On suppose maintenant que la composition d’une unité du portefeuille
est donnée par:
Y = AX X = (XA , XB )T avec
1 1
A=
1 −1
Exercice 2
Soit X1 et X2 deux variables aléatoires exponentielles et de moyennes θ11 et
1
θ2 respectivement. on suppose que X1 et X2 sont indépendantes et on pose:
Y1 = X1 + X2 et Y2 = X1 − X2
10
2. Peut on affirmer que Y1 et Y2 sont indépendantes ? Justifer.
3. Quelle est la distribution de T = max(X1 ; X2 ) ?
Exercice 3
On considére le vecteur aléatoire X N2 (µ, σ) où µ = (2, 2)T et
1 1
σ=
1 −1
ainsi que les matrices A = [1, 1] et B = [1, −1]. Es ce que les variables
aléatoire AX et BX sont indépendantes?
Exercice 4
La transformation de Box-Muller est populaire pour simuler des nombres
normaux à partir de nombres uniformes. Soient U1 U n[0, 1] et U2
U n[0, 1] deux variables aléatoires indépendantes et
1
X1 = (−2 ln U1 ) 2 cos(2πU2 )
1
X2 = (−2 ln U1 ) 2 sin(2πU2 )
deux v.a distribuées chacune selon une loi normale centrée réduite. Démontrer
que X1 et X2 sont indépendantes.
Exercice 5
On considère le vecteur aléatoire T = (X; Y ; Z) de densité
Exercice 7
Soient X et Y deux v.a de densité conjointe
fX,Y = 8xyIB
11
X|Y 1 2 3 PX (x)
1 1 2
1 9 9 0 9
1 1 1
2 3 0 6 2
1 1 1 5
3 9 18 9 18
5 1 5
PX (x) 9 6 18 1
Exercice 8
Soient T et S deux v.a. de densité conjointe
3s2
t3
si 0 < s < t < 1
fT,S (t, s) =
0 otherwise
Calculer E(T ); E(T 2); Var(T ); E(S|T ); Var(S|T ); E[V ar(S|T )]; Var[E(S|T )] et
en déduire Var(S).
Exercice 9
Soient X et Y deux v.a de densité conjointe
1 + α(2x − 1)(2x + 1) si 0 < x, y < 1, −1≤α≤1
fX,Y (x, y) =
0, ailleur
Exercice 10
Soient X et Y deux v.a. réelles de carré intégrable définies sur l’espace
(Ω, F, P).
On suppose que E(Y |X) = X
a) Montrer sans utiliser l’inégalité de Jensen que E(Y 2 |X) ≥ X 2
b) Montrer que les trois propriétés suivantes sont équivalentes :
- E(Y 2 |X) = X 2
- E(Y 2 ) = E(X 2 )
- Y = X, P − ps.
Exercice 11
Soient X et Y deux v.a réelles, g une fonction continue de R vers R:
Démontrer que
12
Exercice 12
Soient X et Y deux v.a réelles de carrés intégrables définies sur un espace
probabilisé (ΩF; P). Soit A une sous-tribu de F . On rappelle :
b) Montrer que
13