You are on page 1of 9

M. Eisencraft 4.

6 Distribui¸c˜ao e densidade de uma soma de vari´aveis aleat´orias57
Assim,
F
W
(w) =
_
+∞
−∞
_
w−y
x=−∞
f
X,Y
(x, y)dxdy (4.24)
e usando a Eq. (4.17),
F
W
(w) =
_
+∞
−∞
f
Y
(y)dy
_
w−y
x=−∞
f
X
(x)dx (4.25)
Diferenciando a Eq. 4.25 e usando a regra de Leibniz chega-se ` a fun¸c˜ao densidade desejada
f
W
(w) =
_
+∞
−∞
f
Y
(y)f
X
(w −y)dy. (4.26)
Esta express˜ ao ´e uma integral de convolu¸c˜ao. Consequentemente, mostrou-se que a fun¸ c˜ ao
densidade da soma de duas vari´aveis aleat´orias estat´ısticamente independentes ´e a convolu¸ c˜ ao
das suas densidades individuais.
Exerc´ıcio 4.8. Calcule a densidade de W = X + Y em que as densidades de X e Y s˜ ao,
respectivamente,
f
X
(x) =
1
a
[u(x) −u(x −a)] (4.27)
f
Y
(y) =
1
b
[u(y) −u(y −b)] (4.28)
com 0 < a < b.
4.6.2 Soma de diversas vari´aveis aleat´ orias
Quando deseja-se considerar a soma Y de N vari´aveis aleat´ orias X
1
, X
2
, ..., X
N
, pode-se
extender os resultados acima. Continuando o processo encontra-se que a fun¸c˜ao densidade de
Y = X
1
+ X
2
+ . . . + X
N
´e a convolu¸ c˜ao das fun¸c˜oes densidade individuais:
f
Y
(y) = f
X
N
(x
N
) ∗ f
X
N−1
(x
N−1
) ∗ · · · ∗ f
X
1
(x
1
) . (4.29)
M. Eisencraft 4.7 Teorema do Limite Central 58
4.7 Teorema do Limite Central
De forma geral, o teorema do limite central diz que a fun¸c˜ao distribui¸ c˜ao de probabilidades da
soma de um grande n´ umero de VAs aproxima-se de uma distribui¸ c˜ao gaussiana.
Seja
¯
X
i
e σ
2
X
i
as m´edias e variˆancias, respectivamente, de N vari´aveis aleat´ orias X
i
, i =
1, 2, . . . , N que podem ter densidades de probabilidade arbitr´arias. O teorema do limite central
estabelece que a soma Y
N
= X
1
+X
2
+· · · +X
N
, que tem m´edia
¯
Y
N
=
¯
X
1
+
¯
X
2
+· · · +
¯
X
N
e
variˆancia σ
2
Y
= σ
2
X
1

2
X
2
+· · · +σ
2
X
N
tem uma distribui¸ c˜ao de probabilidade que se aproxima
de uma gaussiana para N →∞.
A importˆ ancia pr´ atica do teorema do limite central n˜ao reside tanto na exatid˜ ao da dis-
tribui¸c˜ao gaussiana quando N → ∞ porque a variˆancia de Y
N
torna-se infinita, mas sim no
fato de que Y
N
para N finito ter distribui¸ c˜ao muito pr´ oxima de uma gaussiana.
Exerc´ıcio 4.9. Use o Matlab

para tra¸ car histogramas da vari´avel aleat´oria Y = X
1
+ X
2
+
· · · +X
N
, sendo que cada uma das VAs X
i
tem distribui¸ c˜ao uniforme no intervalo [0, 1]. Veja
o que ocorre para diversos valores de N.
Cap´ıtulo 5
Opera¸c˜oes sobre m´ ultiplas vari´aveis
aleat´ orias
Nessa se¸ c˜ao, estende-se o conceito de valor esperado para o caso de duas ou mais vari´aveis
aleat´ orias.
5.1 Valor esperado de uma fun¸c˜ao de vari´aveis aleat´orias
O valor esperado de uma fun¸c˜ao de uma vari´avel aleat´ oria foi definido na Se¸ c˜ao 3.1 por
E [g(X)] =
_

−∞
g(x)f
X
(x)dx. (5.1)
Quando mais de uma vari´avel aleat´ oria ´e envolvida, o valor esperado deve ser tomado em
rela¸ c˜ao a todas as vari´aveis envolvidas. Por exemplo, se g(X, Y ) ´e uma fun¸c˜ao de duas vari´aveis
aleat´ orias X e Y , o valor esperado de g(., .) ´e dado por
g = E [g(X, Y )] =
_

−∞
_

−∞
g(x, y)f
X,Y
(x, y)dxdy. (5.2)
Para N vari´aveis aleat´ orias X
1
, X
2
, . . ., X
N
e uma fun¸c˜ao dessas vari´aveis denotada por
59
M. Eisencraft 5.1 Valor esperado de uma fun¸c˜ao de vari´aveis aleat´orias 60
g(X1, . . . , X
N
), o valor esperado dessa fun¸c˜ao se torna:
g = E [g(X
1
, . . . , X
N
)] =
_

−∞
· · ·
_

−∞
g(x
1
, . . . , x
N
)f
X
1
,...,X
N
(x
1
, . . . , x
N
)dx
1
. . . dx
N
. (5.3)
Um resultado que segue diretamente da defini¸ c˜ao acima ´e que o valor esperado de uma
soma ponderada de vari´aveis aleat´orias
g (X
1
, . . . , X
N
) =
N

i=1
α
i
X
i
(5.4)
´e a soma ponderada de seus valores m´edios:
g = E
_
N

i=1
α
i
X
i
_
=
N

i=1
α
i
E [X
i
] (5.5)
5.1.1 Momentos conjuntos em torno da origem
Uma importante aplica¸c˜ao do valor esperado ´e na defini¸ c˜ao de momentos conjuntos em torno
da origem. Eles s˜ao denotados por m
nk
e s˜ao definidos por
m
nk
= E
_
X
n
Y
k
¸
=
_

−∞
_

−∞
x
n
y
k
f
X,Y
(x, y)dxdy (5.6)
para o caso de duas vari´aveis aleat´ orias X e Y .
Claramente, m
n0
= E [X
n
] s˜ao os momentos m
n
de X e m
0k
= E
_
Y
k
¸
s˜ao os momentos de
Y .
A soma n + k ´e chamada de ordem dos momentos. Assim, m
02
, m
20
e m
11
s˜ao todos
momentos de segunda ordem de X e Y .
Os momentos de primeira ordem m
01
= E[Y ] = Y e m
10
= E[X] = X s˜ao os valores
esperados de X e Y respectivamente e s˜ao as coordenadas do “centro de gravidade” da fun¸c˜ao
f
X,Y
(x, y).
O momento de segunda ordem m
11
= E[XY ] ´e chamado de correla¸ c˜ao de X e Y . Ele ´e t˜ao
M. Eisencraft 5.1 Valor esperado de uma fun¸c˜ao de vari´aveis aleat´orias 61
importante que recebe um s´ımbolo especial R
XY
. Assim,
R
XY
= m
11
= E[XY ] =
_

−∞
_

−∞
xyf
X,Y
(x, y)dxdy. (5.7)
Se a correla¸ c˜ao puder ser escrita na forma
R
XY
= E[X] · E[Y ], (5.8)
ent˜ao X e Y s˜ao ditas n˜ao-correlacionadas.
A independˆencia estat´ıstica de X e Y ´e suficiente para garantir que elas s˜ao n˜ao-correlacionadas.
Por´em, o contr´ ario n˜ao ´e verdade em geral. Ou seja, independˆencia implica n˜ao-correla¸c˜ ao,
mas n˜ao-correla¸ c˜ao n˜ao implica independˆencia.
Se R
XY
= 0 as vari´aveis X e Y s˜ao ditas ortogonais. Resumindo:
• f
X,Y
(x, y) = f
X
(x) · f
Y
(y) ⇒ X e Y s˜ao independentes
• R
XY
= E[X] · E[Y ] ⇒ X e Y s˜ao n˜ao-correlacionadas
• R
XY
= 0 ⇒ X e Y s˜ao ortogonais
• X e Y s˜ao independentes ⇒ X e Y s˜ao n˜ao-correlacionadas
Exerc´ıcio 5.1. Seja X uma vari´avel aleat´oria com valor m´edio X = E[X] = 3 e variˆ ancia
σ
2
X
= 2 e uma outra vari´avel Y dada por Y = −6X + 22. Pede-se:
a E [X
2
]
b Y
c R
XY
d as vari´aveis s˜ao correlacionadas?
e as vari´aveis s˜ao ortogonais?
M. Eisencraft 5.1 Valor esperado de uma fun¸c˜ao de vari´aveis aleat´orias 62
5.1.2 Momentos conjuntos centrais
Uma outra aplica¸c˜ao importante da defini¸ c˜ao de valores esperado ´e a defini¸ c˜ao de momentos
centrais conjuntos. Para duas vari´aveis aleat´ orias X e Y , estes momentos denotados por µ
n,k
s˜ao dados por:
µ
nk
= E
_
_
X −X
_
n
_
Y −Y
_
k
_
=
_

−∞
_

−∞
_
x −X
_
n
_
y −Y
_
k
f
X,Y
(x, y)dxdy (5.9)
Os momentos centrais de segunda ordem
µ
20
= E
_
_
X −X
_
2
_
= σ
2
X
(5.10)
µ
02
= E
_
_
Y −Y
_
2
_
= σ
2
Y
(5.11)
(5.12)
s˜ao as variˆancias de X e Y .
O momento conjunto de segunda ordem µ
11
´e muito importante.
´
E chamado de co-variˆ ancia
de X e Y ´e simbolizado por C
XY
. Assim,
C
XY
= µ
11
= E
__
X −X
_ _
Y −Y

=
_

−∞
_

−∞
_
x −X
_ _
y −Y
_
f
X,Y
(x, y)dxdy. (5.13)
Expandindo-se o produto
_
X −X
_ _
Y −Y
_
esta integral se reduz a
C
XY
= R
XY
−X · Y = R
XY
−E[X] · E[Y ] (5.14)
Se X e Y forem independentes ou n˜ao-correlacionadas, ent˜ao R
XY
= E[X]·E[Y ] e C
XY
= 0.
Se X e Y forem ortogonais, ent˜ao C
XY
= −E[X] · E[Y ]. Claramente, C
XY
= 0 se X ou Y
tamb´em tiverem m´edia nula al´em de serem ortogonais.
M. Eisencraft 5.2 Fun¸c˜ oes caracter´ısticas conjuntas 63
O momento de segunda ordem normalizado
ρ =
µ
11

µ
20
µ
02
=
C
XY
σ
X
σ
Y
(5.15)
´e conhecido como coeficiente de correla¸ c˜ao de X e Y . Pode-se mostrar [1] que −1 ≤ ρ ≤ 1.
Uma aplica¸c˜ao direta das defini¸ c˜oes acima ´e que se X ´e uma soma ponderada de vari´aveis
aleat´ orias X
i
, X =

N
i=1
α
i
X
i
, ent˜ao
E[X] =
N

i=1
α
i
X
i
(5.16)
σ
2
X
=
N

i=1
α
2
i
σ
2
X
i
. (5.17)
Exerc´ıcio 5.2. [1] Num sistema de controle, sabe-se que uma tens˜ao aleat´oria X tem m´edia
X = m
1
= −2V e momento de segunda ordem X
2
= m
2
= 9V
2
. Se a tens˜ao X ´e amplificada
por um amplificador que fornece como sa´ıda Y = −1,5X +2, encontre σ
2
X
, Y , Y
2
, σ
2
Y
e R
XY
.
5.2 Fun¸c˜ oes caracter´ısticas conjuntas
A fun¸ c˜ao caracter´ıstica conjunta de duas VAs X e Y ´e definida por
Φ
X,Y

1
, ω
2
) = E
_
e

1
X+jω
2
Y
¸
(5.18)
em que ω
1
e ω
2
s˜ao n´ umeros reais. Uma forma equivalente ´e
Φ
X,Y

1
, ω
2
) =
_

−∞
_

−∞
f
X,Y
(x, y)e

1
x+jω
2
y
dxdy. (5.19)
Esta express˜ ao ´e a transformada de Fourier bidimensional (com os sinais de ω
1
e ω
2
trocados)
[3].
Fazendo ω
2
= 0 ou ω
1
= 0 na Eq. (5.19), a fun¸c˜ao caracter´ıstica de X ou Y ´e obtida,
M. Eisencraft 5.2 Fun¸c˜ oes caracter´ısticas conjuntas 64
respectivamente. S˜ao as chamadas fun¸ c˜oes caracter´ısticas marginais:
Φ
X

1
) = Φ
X,Y

1
, 0) (5.20)
Φ
Y

2
) = Φ
X,Y
(0, ω
2
) (5.21)
Os momentos conjuntos m
nk
podem ser encontrados a partir da fun¸c˜ao caracter´ıstica con-
junta por:
m
nk
= (−j)
n+k

n+k
Φ
X,Y

1
, ω
2
)
∂ω
n
1
∂ω
k
2
¸
¸
¸
¸
ω
1
=0,ω
2
=0
(5.22)
Esta express˜ ao ´e a generaliza¸ c˜ao bidimensional da Eq. (3.16).
Exerc´ıcio 5.3. Duas vari´aveis aleat´orias X e Y tem fun¸ c˜ao caracter´ıstica conjunta
Φ
X,Y

1
, ω
2
) = exp
_
−2ω
2
1
−8ω
3
2
_
(5.23)
Mostre que X e Y tˆem m´edia nula ´e que elas s˜ao n˜ao correlacionadas.
Referˆencias Bibliogr´aficas
[1] P. Z. P. Jr., Probability, Random Variables And Random Signal Principles, 4th ed. New
York: Mcgraw-Hill, 2001.
[2] B. P. Lathi, Modern Digital and Analog Communication Systems, 3rd ed. New York, NY,
USA: Oxford University Press, Inc., 1998.
[3] A. V. Oppenheim, A. S. Willsky, and S. H. Nawab, Sinais e sistemas, 2nd ed. S˜ao Paulo:
Pearson Prentice Hall, 2010.
65