2.

8

Convolução

É sempre importante saber calcular a distribuição de X + Y a partir das distribuições de X e de Y , quando tais v.a.’s são independentes. Suponha que X e Y sejam v.a.’s independentes, contínuas, tendo funções de densidades marginais fX (x) e fY (y), respectivamente. A função de dsitribuição acumulada de X + Y é obtida da seguinte forma: Z Z FX+Y (z) = P (X + Y ≤ z) = fX (x)fY (y)dxdy =
x+y≤z ∞ Z ∞ Z ∞ Z z−y Z z−y Z fX (x)fY (y)dxdy = fX (x)dxfY (y)dy = FX (z − y)fY (y)dy, = −∞ −∞ −∞ −∞ −∞

ou seja, FX+Y (z) =
∞ Z

−∞

FX (z − y)fY (y)dy.

(8)

A expressão em (8) é chamada de convolução das funções de distribuição acumuladas FX (x) e FY (y). Diferenciando (8), obtemos a função densidade de probabilidade de X + Y (fX+Y (z), a convolução das densidades marginais de X e Y , fX (x) e fY (y) respectivamente) que é dada por: d fX+Y (z) = dz
∞ Z

−∞

FX (z − y)fY (y)dy =

−∞

∞ Z

d FX (z − y)fY (y)dy = dz

−∞

∞ Z

fX (z − y)fY (y)dy.

(9)

As expressões apresentadas a seguir, obtidas de forma análoga àquela usada para encontrar (8) e (9), também representam convolução de FX (x) e FY (y) e de fX (x) e fY (y), respectivamente: FX+Y (z) =
∞ Z

−∞

FY (z − x)fX (x)dx

e

fX+Y (z) =

−∞

∞ Z

fY (z − x)fX (x)dx.

Exemplo 12 Suponha que X e Y sejam v.a.’s iid com função densidade de probabilidade dada por ½ −x e para x ≥ 0 fX (x) = 0, caso contrário. Determinemos a densidade de Z = X + Y.

7

é possível calcular a esperança condicional de Y dado que X = x0 . Exemplo 13 Suponha que um ponto de coordenadas X e Y seja escolhido aleatoriamente no quadrado Q contendo todos os pontos (x.a. 14 e 3 14 . respectivamente. p(y|1) = se y = 0 se y = 1  0. 2.1 Esperança Condicional Caso discreto Seja (X. se z = 1 .5. Além disso. y)dxdy.9 Esperança de uma função de duas Variáveis Considere as v. 0. 1 2.c. respectivamente. c. De posse da distribuição condicional da variável aleatória Y . P (Z = z) = 2  14 3 14 se z = 2 3 8 14 . portanto. como observado por exemplo na expressão (5) da Seção (2. Y ). que assume o valor E(X|Y = y) com probabilidade P (Y = y). Prova 1 Deixada como exercicio. tais que 0 ≤ x ≤ 1 e 0 ≤ y ≤ 1. Pode ser mostrado que o valor esperado de Z pode ser determinado diretamente da relação: ∞ ∞ Z Z g(x.a. c. Analogamente. E(Y |X = 1) = Note que Assim. e 3 14 são. Y ) o vetor bivariado de variáveis aleatórias discretas. e portanto: E(Y |X = 0) = 0 . −∞ −∞ ∞ ∞ XX g(xi . que assume os valores 0.’s X e Y .y) do plano. que E(Y |X) é uma v. Z = E(Y |X) é uma v.a. i=1 j=1 E(Z) = (Caso discreto) Neste caso é desnecessário determinar a distribuição de Z. 2. se y = 0 p(y|0) = . com função de densidade conjunta fXY (ou função de probabilidade conjunta pXY ). c. y)fXY (x. 14 1 e E(Y |X = 2) = 0. X = x) = y P (Y = y|X = x)P (X = x) = E(Y ) = y y x y x # " X X X = yP (Y = y|X = x) P (X = x) = [E(Y |X = x)]P (X = x) = E(E(Y |X)). as probabilidades de X = 0. 1 2 Ou seja.c. tal que:  3  14 .c. Seja Z = g(X. (Caso contnuo) E(Z) = ou. então E(XY ) = E(X)E(Y ). yj )pXY (xi . dado um valor específico da variável aleatória X. e p(y|2) = ½ 1. se y = 0 .’s independentes.2. Exemplo 14 Determinemos E(XY) no exemplo 1. E(Y ) = E(E(Y |X)) Prova: X X X X X yP (Y = y) = y P (Y = y.1).a. que assume o valor E(Y |X = x) com probabilidade P (X = x). a fim de se calcular o valor de E(Z). Teorema 1 Se X e Y são v. 1.a. 0. Determinemos o valor esperado de X 2 + Y 2 . E(X|Y ) é uma v. temos que: ½ 1.10. 2 3 8 ou 2 com as probabilidades 14 . yj ). No exemplo 1. | {z } x y x f unç˜o de x a | {z } f unç˜o de x=E(Y |X=x) a 8 .a. Temos. se z = 0 8 . Z = E(Y |X) é uma v.   1 2.10 2.

ela própria e uma variável aleatória com sua própria função distribuição de probabilidade. E(Y |x) é a média da distribuição condicional de Y dado que X = x. Sendo E(Y |X) uma função da v. ∞ Z ∞ ∞ Z Z −∞ E(Y |x)fX (x)dx = yfY |X=x (y)fX (x)dydx.’s com distribuição contínua conjunta. y)dydx = E(Y ). Seja fXY (x. X que assume o valor E(Y |x) quando X = x e é especificada por: E(Y |x) = ∞ Z yfY |X=x (y)dy. X. é definida por: V ar(Y |X = x) = E{[Y − E(Y |X = x)]2 |X = x}. −∞ −∞ A prova para o caso discreto sai de forma similar.2 Caso continuo Suponha que X e Y sejam v. Prova 2 Assuma. então: E[E(Y |X)] = como fY |X=x (y) = fY X (x. −∞ −∞ temos que ∞ ∞ Z Z E[E(Y |X)] = yfY X (x.2. seja fX (x) a função de densidade marginal de X e.11 Variância Condicional Seja (X. mais geralmente: V ar(Y |X) = E{[Y − E(Y |X)]2 |X}. Dado um valor específico da variável aleatória X. mas agora todas as esperanças estão condicionadas no fato de X ser conhecida.10. Y ) um vetor bivariado de variáveis aleatórias. Exemplo 16 Encontre V ar(Y |X) no exemplo 2. que pode ser deduzida a partir de X. ou. −∞ Ou seja. 9 . a variância condicional de Y dado que X = x. Note que a definição de V ar(Y |X) e análoga à definição de variância usual já conhecida. E[E(Y |X)] = E(Y ). y) a função de densidade do vetor (X. Teorema 2 Para quaisquer variáveis aleatórias X e Y. A esperança condicional de Y dado X é denotada por E(Y |X) e é definida como uma função da v. Vejamos então como encontrar E[E(Y |X)].a. 2.y) fX (x) . que X e Y tenham uma distribuição conjunta contínua. seja fY |X=x (y) a função de densidade condicional de Y dado que X = x. Exemplo 15 Calcule V ar(Y |X = 0) para o exemplo 1. por conveniência.a. Y ). para qualquer valor de X tal que fX (x) > 0.a.

2. Obviamente X e Y são independentes e têm a mesma distribuição. 1. IMPORTANTE! Se X e Y forem independentes. Y ) 4. U e V não são independentes. Obs. X) = V ar(X) = σ 2 x 2. por exemplo. respectivamente. V ar(X ± Y ) = V ar(X) + V ar(Y ) ± 2Cov(X. 3. tais como esperança e variância.a. P (V = 4|U = 3) 6= P (V = 4) 2. Y ) surge a questão de como medir o grau de associação entre as variaveis X e Y. O coeficiente de correlação ρxy é um parâmetro que mede a associação entre X e Y e é definido por: ρxy = E{[X − E(X)][Y − E(Y )]} p V ar(X)V ar(Y ) (10) desde que as variâncias de X e de Y. U e V são não correlacionadas. mas a recíproca não é verdadeira. Y ) 10 . Y ) = E(XY ) − E(X)E(Y ) Prova: E{[X − E(X)][Y − E(Y )]} = E{XY − XE(Y ) − Y E(X) + E(X)E(Y )} = = E(XY ) − E(X)E(Y ) − E(Y )E(X) + E(X)E(Y ) = = E(XY ) − E(X)E(Y ).’s U = X − Y e V = X + Y Assim. Estes parâmetros medem certas características da distribuição. V ) = E[(X − Y )(X + Y )] = E[X 2 − Y 2 ] = 0.12 O Coeficiente de Correlação Até aqui estivemos tratando de parâmetros que tinham princípios semelhantes aos relacionados com a distribuição de variáveis aleatórias unidimensionais.a. Por outro lado. Veja o exemplo a seguir. então ρxy = 1. Correlação e Variância Considere as variáveis aleatórias X e Y e as constantes a e b. Se a > 0. bY ) = abCov(X. Exemplo 17 Considere o lançamento independente de dois dados. ou seja. Y ) = σ xy 3.2. O numerador de ρxy é chamado de covariância entre X e Y e será denotado por Cov(X. então ρ = 0. Cov(U. No caso de uma v. Se a < 0 então ρxy = −1. bidimensional (X.: 1. Cov(X. Sejam X e Y. O coeficiente de correlação ρ é um número adimensional entre -1 e 1. Defina as v. Cov(X. os números que aparecem no primeiro e no segundo dados. Cov(aX.12. com E(X) = E(Y ) e E(X 2 ) = E(Y 2 ). pois. respectivamente.1 Propriedades de Covariância. Se X e Y são tais que Y = aX + b. com a 6= 0. sejam não nulas.