Professional Documents
Culture Documents
Aula 5
Aula 5
Vetores Aleatórios
Seja (Ω, =, P ) um espaço de probabilidades. Nosso objetivo é definir
uma função X = (X1 , X2 , ..., Xn ) do espaço amostral Ω no conjunto
dos números reais <n , de dimensão n. Na realidade construimos um
outro espaço de probabilidades (<n , =X , PX ), onde =X é a σ-álgebra
de Borel, β n , em <n (no caso discreto, β n poderia ser substituida pelo
conjunto das partes da imagem da aplicação X, X(Ω)).
Se assumimos que a imagem inversa de qualquer conjunto A em =X
pertence a =, isto é, X−1 (A) ∈ =, ∀A ∈ =X , podemos definir
PX (A) = P (X−1 (A)), ∀A ∈ =X .
Observe que:
PX (<n ) = P (X−1 (<n )) = P (Ω) = 1, e que se (Ak )k≥1 é uma
sequência de eventos em =X , dois a dois disjuntos
PX (∪∞ −1 ∞ ∞ −1
k=1 Ak ) = P (X (∪k=1 Ak )) = P (∪k=1 X (Ak )) =
∞
X ∞
X
−1
P X (Ak )) = PX (Ak ).
k=1 k=1
Portanto os axiomas de Kolmogorov estão satisfeitos e o espaço de
probabilidades (<n , =X , PX ) esta bem definido e procedemos na for-
malização do conceito:
Definição 1.1. Seja (Ω, =, P ) um espaço de probabilidade e X uma
aplicação de Ω em <k . X é uma variável aleatória se X−1 (A) ∈
=, ∀A ∈ =X .
Denominamos (<k , =X , PX )como o espaço de probabilidade induzido
por X.
pode ser escrito como a união disjunta dos conjuntos unitários {xij },
A = ∪nj=1 {xij } e
X−1 (A) = X−1 (∪nj=1 {xij }) = ∪nj=1 X−1 ({xij }))
com
PX (A) = P (X ∈ A) = P (X−1 (A)) = P (∪kj=1 X−1 ({xij })) =
{ab| | } { a| b| } { b| a| }
{ |ab| } { a| | b} { b| | a}
{ | |ab} { | a| b} { | b| a}
Sejam as variáveis aleatórias definidas por :
N : O número de urnas ocupadas;
Xi : O número de bolas no i-ésimo compartimento, 1 ≤ i ≤ 3.
As distribuições conjuntas de (N, X1 ) e de (X1 , X2 ) bem como suas
marginais estão nas tabelas
Tabela 1- Distribuição conjunta de (N, X1 )
N, X1 0 1 2 total
1 0, 22 0 0, 12 0, 34
2 0, 22 0, 44 0 0, 66
total 0, 44 0, 44 0, 12 1
P (X1 = x1 , X2 = x2 ) = P (X1 = x1 , X2 = x2 , X3 = x3 ) =
x3 =0
n−x 1 −x2
X n!
px1 1 px2 2 px3 3 (1−p1 −p2 −p3 )(n−x1 −x2 −x3 ) =
x3 =0
x1 !x2 !x3 !(n − x1 − x2 − x3 )!
(n−x1 −x2 )
n!px1 1 px2 2 X (n − x1 − x2 )!
px3 (1−p1 −p2 −p3 )(n−x1 −x2 −x3 ) =
x1 !x2 !(n − x1 − x2 )! x3 =0
x3 !(n − x1 − x2 − x3 )! 3
n!
px1 px2 (1 − p1 − p2 )n−x1 −x2 .
x1 !x2 !(n − x1 − x2 )! 1 2
A distribuição de probabilidade marginal de X1 é a distribuição bi-
nomial.
n x1
P (X1 = x1 ) = p (1 − p1 )n−x1 .
x1 1
xj |Y = yk ) com 0 ≤ P (X = xj |Y = yk ) ≤ 1 e ΣP (X = xj |Y = yk ) = 1.
Sua função de probabilidade é
(X|Y = yk ) x1 ... xn
P (X = x|Y = yk ) P (X = x1 |Y = yk ) ... P (X = xn |Y = yk )
X2 , X1 1 2 3 total
9 12 6 27
1 81 81 81 81
12 16 8 36
2 81 81 81 81
6 8 4 18
3 81 81 81 81
27 36 18
total 81 81 81
1
Observe que
9 27 27
P (X1 = 1, X2 = 1) = = . = P (X1 = 1).P (X2 = 1),
81 81 81
6 27 36
P (X1 = 1, X2 = 3) = = . = P (X1 = 1).P (X2 = 2),
81 81 81
e
P (X1 = x1 , X2 = x2 ) = P (X1 = x1 ).P (X2 = x2 ), ∀x1 , x2 ∈ {1, 2, 3}.
Concluimos que
P (X1 = x1 , X2 = x2 )
P (X1 = x1 |X2 = x2 ) = =
P (X2 = x2 )
P (X1 = x1 )P (X2 = x2 )
= P (X1 = x1 )
P (X2 = x2 )
e que, equivalentemente,
P (X1 = x1 , X2 = x2 ) = P (X1 = x1 ).P (X2 = x2 ), ∀x1 , x2 ∈ {1, 2, 3}.
Definição 1.11. As variáveis aleatórias X1 , X2 , ..., Xn , definidas em
(Ω, =, P ) so estocásticamente independentes se, e somente a distribuição
conjunta de qualquer subconjunto {Xi1 , ..., Xik )} de {X1 , X2 , ..., Xn } é
o produto de suas marginais, isto é
P (X = xi ) = P (Xi1 = xi1 , Xi2 = xi2 , ..., Xik = xik ) =
P (Xi1 = xi1 ).P (Xi2 = xi2 )....P (Xik = xik ), k = 2, 3, ..., n.
Um conjunto básico de <n é um retângulo da forma A = A1 XA2 X...XAn ,
onde Aj ⊆ β. Então pode-se provar que as variáveis aleatórias X1 , X2 , ..., Xn
são estocásticamente independentes se, e somente se,
P (X1 ∈ A1 , X2 ∈ A2 , ..., Xn ∈ An ) = P (X1 ∈ A1 )P (X2 ∈ A2 )...P (Xn ∈ An ),
para quaisquer A = A1 XA2 X...XAn em β n . No caso particular, dis-
creto, em que n = 2, temos
P (Z ≤ z) = P (max{X, Y } ≤ z) = P (X ≤ z, Y ≤ z) =
P (X ≤ z)P (Y ≤ z) = [1 − (1 − p1 )z ][1 − (1 − p2 )z ];
B) a probabilidade P (max{X, Y } = X) é
∞
X
P (Y ≤ X) = P (Y ≤ X|Y = y)P (Y = y) =
y=1
∞
X ∞
X
P (y − 1 < X|Y = y)P (Y = y) = P (X > y − 1)P (Y = y) =
y=1 y=1
∞
X
(1 − p1 )y−1 p2 (1 − p2 )y−1 =
x=1
∞
X p2
p2 [(1 − p1 )(1 − p2 )]y−1 = .
y=1
p1 + p2 − p1 .p2
Observe que, na primeira igualdade utilizamos a regra da probabilidade
total.
C) a probabilidade P (S = X + Y = k) é
k−1
X k−1
X
P (S = k) = P (X = x, Y = k − x) = P (X = x)P (Y = k − x) =
x=1 x=1
9
k−1 k−1
X
x−1 k−x−1 k−2
X (1 − p1 ) x−1
p1 p2 (1 − p1 ) (1 − p2 ) = p1 p2 (1 − p2 ) [ ] =
x=1 x=1
(1 − p2 )
p1 p2 [(1 − p2 )k−1 − (1 − p1 )k−1 ]
.
p1 − p2
Em geral se X e Y são variáveis aleatórias independentes, assumindo
valores em {x1 , x2 , ..., xk , ..} e {y1 , y2 , ..., yk , ..} respectivamente, a soma
S = X + Y é uma variável aleatória assumindo valores xi + yj , i =
1, 2, ..., k, ..., j = 1, 2, ..., k, ..., com probabilidades
X X
P (X+Y = k) = P (X = xi , Y = k−xi ) = P (X = xi )P (Y = k−xi ).
xi xi
X m
X
|xi |P (X = xi ) + |yj |P (Y = yj ) = E[|X|] + E[|Y |].
xi yj
Contudo
XX
E[X + Y ] = (xi + yj )P (X = xi , Y = yj ) =
xi yj
XX XX
xi P (X = xi , Y = yj ) + yj P (X = xi , Y = yj ) =
xi yj xi yj
X X X X
xi P (X = xi , Y = yj ) + yj P (X = xi , Y = yj ) =
xi yj yj xi
X X
xi P (X = xi ) + yj P (Y = yj ) = E[X] + E[Y ].
xi yj
Contudo
XX
E[X.Y ] = (xi .yj ))P (X = xi , Y = yj ) =
xi yj
XX XX
xi P (X = xi , Y = yj ). yj P (X = xi , Y = yj ) =
xi yj xi yj
X X X X
xi P (X = xi , Y = yj ). yj P (X = xi , Y = yj ) =
xi yj yj xi
X X
xi P (X = xi ). yj P (Y = yj ) = E[X].E[Y ].
xi yj
∞
X
P (ΣN
i=1 Xi = k|N = n)P (N = n) =
n=k
∞
X e−λ λn
P (Σni=1 Xi = k|N = n) =
n=k
n!
∞
X e−λ λn
P (Σni=1 Xi = k) =
n=k
n!
∞
e−λ λn
X n k
p (1 − p)n−k =
n=k
k n!
∞
(λp)k e−λ X [(1 − p)λ]n−k
=
k! n=k
(n − k)!
∞
(λp)k e−λ X [(1 − p)λ]m
=
k! m=0
m!
Prova
Prova
A prova é imediata:
V ar(X+Y ) = E{[(X+Y )−E(X+Y )]2 } = E{[(X−E[X])+(Y −E[Y ])]2 } =
E[(X − E[X])2 + E[(Y − E[Y ])2 + 2.E[(X − E[X]).(Y − E[Y ])] =
V ar(X) + V AR(Y ) + 2.Cov(X, Y ).
Se X e Y são independentes, Cov(X, Y ) = 0 e temos
V ar(X + Y ) = V ar(X) + V ar(Y ).
X 0 1
P (X = x) 1−p p
Exemplo 1.33. Suponha que temos uma urna com N bolas idênticas
das quais K tem a côr branca e N − K preta. Retiramos da urna uma
amostra sem reposição de n bolas. Seja Sn o número de bolas brancas
na amostra. Observe que Sn assume os valores 0, 1, 2, ..., min{n, K}
com probabilidades
K N −K
k n−k
P (Sn = k) = N
n
Prova:
Se Y = aX + b temos E[Y ] = a.E[X] + b, V ar(Y ) = a2 .V ar(X) e
E[XY ] = E[X.(aX + b)] = a.E[X 2 ] + b.E[X] = a.V ar(X) + a.E[X]2 +
b.E[X].
Portanto
Cov(X, Y ) = a.V ar(X) + a.E[X]2 + b.E[X] = a.V ar(X)
20
e
a.V ar(X) a
ρ(X, Y ) = p = .
a2 V ar(X)2 |a|