Professional Documents
Culture Documents
ii
CONTEÚDO iii CONTEÚDO iv
primeira ordem.
µ∞ ¶
d P d
ri = (1 + r + r2 + r3 + r4 + · · · + rn + · · · )
dr i=0 dr
= 1 + 2r + 3r2 + 4r3 + · · · + nrn−1 + · · · =
£ ¤
Capítulo 1 =
=
1 + (r + r) + (r2 + 2r2 ) + (r3 + 3r3 ) + · · · rn−1 + (n − 1)rn−1 + · · ·
£
(1 + r + r2 + r3 + · · · + rn−1 + · · · ) + r + 2r2 + 3r3 + · · · + (n − 1)rn−1 + · · ·
¤
P∞ P∞
= ri + iri
Alguns Resultados de Cálculo i=0
P∞
i=1
P∞
= ri + iri
i=0 i=0
P∞
= (1 + i)ri
1.1 Séries geométricas i=0
Como a série geométrica é convergente para | r | < 1, podemos igualar as derivadas, isto é:
Recordemos inicialmente a progressão geométrica (pg) de razão r, dada por (1, r, r2 , r3 , . . . , rn ) .
µ∞ ¶ µ ¶
Para calcular a soma dos n primeiros termos de uma pg, note que, se r 6= 1, podemos escrever: P∞ d P d 1
(1 + i)ri = ri = se | r | < 1
i=0 dr i=0 dr 1 − r
(1 + r + r2 + . . . + rn )(1 − r) = (1 + r + r2 + . . . + rn ) − (r + r2 + . . . + rn+1 ) = 1 − rn+1
ou seja,
Logo, P
∞ 1
1 − rn+1 (1 + i)ri = se | r | < 1 (1.3)
(1 + r + r2 + . . . + rn ) = r 6= 1 i=0 (1 − r)2
1−r Mas podemos escrever µ ¶
Essa é a soma dos n termos de uma pg de razão r. (1 + i) × i! (1 + i)! 1+i
Se |r| < 1, lim rn+1 = 0. Logo, a soma dos termos da pg converge, quando n → ∞, isto é: (1 + i) = = =
n→∞ i! i! 1! i
resultando que µ ¶
X
∞
1 P∞ 1+i i 1
i
r = se | r | < 1. (1.1) r = se | r | < 1 (1.4)
i=0
1−r i=0 i (1 − r)2
P
∞ Consideremos a segunda derivada.
A série ri é chamada série geométrica de razão r. µ∞ ¶
i=0 d2 P d2
Note que podemos escrever (atenção aos índices dos somatórios!): ri = 2 (1 + r + r2 + r3 + r4 + · · · + rn−1 + rn + rn+1 · · · ) =
dr2 i=0 dr
P
∞ P
∞ 1 P∞ d ¡ ¢
ri = 1 + ri ⇒ =1+ ri se | r | < 1 = 1 + 2r + 3r2 + 4r3 · · · + (n − 1)rn−2 + nrn−1 + (n + 1)rn + · · · =
1−r dr
i=0 i=1 i=1
= 2 × 1 + 3 × 2 × r + 4 × 3 × r2 + · · · + (n − 1)(n − 2)rn−3 + n(n − 1)rn−2 + (n + 1)nrn−1 + · · ·
ou P
∞
P
∞ 1 r = (i + 2)(i + 1)ri
ri = 1 − = se | r | < 1 (1.2) i=0
i=1 1−r 1−r
Consideremos, agora, as derivadas da série geométrica. Vamos começar com a derivada de Igualando as derivadas, obtemos:
µ ¶ µ ¶
P
∞ d2 1 d 1 −2 × (1 − r)(−1)
(i + 2)(i + 1)ri = = =
i=0 dr2 1−r dr (1 − r)2 (1 − r)4
ou
P
∞ 2
(i + 2)(i + 1)ri = (1.5)
i=0 (1 − r)3
1
CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 3 CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 4
Esse resultado pode ser escrito de outra forma: 1.2 A função logarítmica natural
P
∞ 2
(i + 2)(i + 1)ri = ⇔ Define-se a função logarítmica natural, denotada por ln, como
i=0 (1 − r)3
P (i + 2)(i + 1) i
∞ 1 Rx 1
r = ⇔ ln x = 1 t
dt x>0
i=0 2 (1 − r)3
P∞ (i + 2)(i + 1)i! 1 A condição x > 0 é necessária pois, se tivéssemos x ≤ 0, o domínio de integração incluiria t = 0,
ri = ⇔ onde a função f (t) = 1t não está definida.
i=0 2 × i! (1 − r)3
P∞ (i + 2)! 1 Pelo teorema Fundamental do Cálculo, vemos que ln x é uma antiderivada de x1 , isto é
ri = ⇔
i=0 i! × 2! (1 − r)3 d 1
µ ¶ ln x = x>0
P∞ i+2 i 1 dx x
r =
i=0 2 (1 − r)3 Isso significa que ln x é diferenciável e sua derivada é positiva no seu domínio de definição. Resulta,
¡ ¢ ¡i+2¢
Pela propriedade das relações complementares, sabemos que i+2 = i e, portanto, resulta que então, que ln x é uma função contínua (porque ela é diferenciável) e crescente (porque sua derivada
2
µ ¶ µ ¶ é sempre positiva).
P∞ i+2 i P ∞ i+2 i 1 Da definição da função ln x seguem as seguintes propriedades:
r = r = (1.6)
i=0 2 i=0 i (1 − r)3
1. ln 1 = 0
Tomando a terceira derivada:
µ∞ ¶
d3 P d3 2. Se p > 0 e q > 0, então ln (pq) = ln p + ln q
3
ri = 3 (1 + r + r2 + r3 + r4 + r5 + · · · + rn−1 + rn + rn+1 · · · ) =
dr i=0 dr De fato:
d 1 1
d2 ¡ ¢ ln(px) = .p =
= 1 + 2r + 3r2 + 4r3 + 5r4 + · · · + (n − 1)rn−2 + nrn−1 + (n + 1)rn + · · · = dx px x
dr2∙ ¸ 1
d 2 × 1 + 3 × 2 × r + 4 × 3 × r2 + 5 × 4 × r3 + · · · + (n − 1)(n − 2)rn−3 Isso significa que ln(px) e ln(x) são ambas antiderivadas de x
e, portanto, diferem por uma
= n−2 n−1 cosntante, ou seja:
dr +n(n − 1)r + (n + 1)nr + ···
ln(px) = ln x + C
= 3 × 2 × 1 + 4 × 3 × 2 × r + 5 × 4 × 3 × r2 + · · · + (n − 1)(n − 2)(n − 3)rn−4 + · · ·
+n(n − 1)(n − 2)rn−3 + (n + 1)n(n − 1)rn−2 + · · · Fazendo x = 1, resulta que ln p = 0 + C e, portanto
P
∞
= (i + 3)(i + 2)(i + 1)ri ln(px) = ln x + ln p x > 0, p>0
i=0
Fazendo x = q, prova-se o resultado desejado.
Igualando as derivadas:
µ ¶ µ ¶ 3. Se p > 0, então ln( 1p ) = − ln p
P
∞ d3 1 d 2 −2 × 3 × (1 − r)2 × (−1) 3!
(i + 3)(i + 2)(i + 1)ri = = = =
i=0 dr3 1−r dr (1 − r)3 (1 − r)6 (1 − r)4 De fato:
1
Logo, Fazendo q = p
no resultado anterior obtemos:
P∞ (i + 3)(i + 2)(i + 1) 1 P∞ (i + 3)(i + 2)(i + 1)i! 1 µ ¶
ri = ⇒ ri = ⇒ 1 1
3! (1 − r)4 3! × i! (1 − r)4 ln p = ln 1 = ln p + ln
i=0 i=0 p p
µ ¶ µ ¶
P∞ 3+i i P ∞ 3+i i 1 Como ln(1) = 0, segue o resultado.
r = r = (1.7)
i=0 i i=0 3 (1 − r)4
4. Se p > 0 e q > 0, então ln pq = ln p − ln q
Continuando a derivar (note que podemos tomar derivadas de qualquer ordem!), obtém-se o
seguinte resultado geral: De fato: usando os resultados anteriores temos que
µ ¶ µ ¶ µ ¶
P∞ k+i i P ∞ k+i i 1 p 1 1
r = r = (1.8) ln = ln p = ln p + ln = ln(p) − ln(q)
i=0 i i=0 k (1 − r)k+1 q q q
CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 5 CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 6
5. Se p > 0 e r é um número racional qualquer, então ln(pr ) = r ln p e se M é um número racional positivo qualquer,
De fato: usando a regra da cadeia, temos que
M ln 4 > M =⇒ ln 4M > M
µ ¶
d 1 1 d d
ln (xr ) = r rxr−1 = r = r ln x = (r ln x) Tomando x > 4M , como ln x é uma função crescente, teremos
dx x x dx dx
Daí vê-se que ln(xr ) e r ln(x) têm a mesma derivada; logo ln x > ln 4M > M
ln(xr ) = r ln x + C Como M é qualquer racional positivo, da relação ln x > M resulta que podemos fazer ln x tão
grande quanto desejado, bastando para isso tomar x suficientemente grande, donde se conclui que
Fazendo x = 1 obtém-se que C = 0 e, portanto
lim (ln x) = ∞
ln(xr ) = r ln x x→∞
1
Figura 1.1: Gráfico da função f (x) = x
Figura 1.2: Gráfico da função f(x) = ln x
Logo,
ln 4 > 1
CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 7 CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 8
1.3 A função exponencial natural 1. Se p e q são números reais, então (exp p)(exp q) = exp(p + q)
De fato:
Definindo f(x) = ln x, vimos que f : R+ → R é uma função contínua estritamente crescente tal que
ln(exp p)(exp q) = ln exp p + ln exp q = p + q = ln exp(p + q)
lim ln x = ∞ e lim+ ln x = −∞. Com base nesses resultados, podemos provar o seguinte teorema:
x→∞ x→0
e o resultado segue do fato de a função exp ser bijetora.
Theorem 1 A cada número real x existe um único número real positivo y tal que ln y = x. exp p
2. Se p e q são números reais, então exp q
= exp(p − q)
Demonstração: De fato:
Se x = 0, então ln 1 = 0 e 1 é o único valor de y para o qual ln y = 0, uma vez que ln é exp p
ln = ln exp p − ln exp q = p − q = ln exp(p − q)
estritamente crescente. Se x > 0, como lim ln x = ∞, podemos escolher um número b tal que exp q
x→∞
ln 1 < x < ln b. Como ln é contínua, o Teorema do Valor Intermediário garante a existência de um e novamente o resultado segue do fato de a função exp ser bijetora.
número y entre 1 e b tal que ln y = x e esse número é único porque ln é crescente. Se x < 0, como 3. Se p é um número real e r é um número racional, então (exp p)r = exp(pr).
lim+ ln x = −∞, existe um número b > 0 tal que ln b < x < ln 1. Como antes, o Teorema do Valor
x→0 De fato:
Intermediário e a continuidade de ln garantem a existência de um único número y entre b e 1 tal ln (exp p)r = r ln exp p = rp = ln exp(pr)
que ln y = x.
e novamente o resultado segue do fato de a função exp ser bijetora.
O teorema acima nos permite definir uma função de R em R+ , uma vez que a cada x ∈ R
podemos associar um único número y ∈ R+ . Assim, define-se a função exponencial natural, denotada Temos o seguinte resultado: Se f é uma função diferenciável com inversa g e se f 0 (g(c)) 6= 0,
por exp, como 1
então g é diferenciável em c e g 0 (c) = f 0 (g(c)) .
exp x = y se e somente se ln y = x Aplicando este resultado para a função exponencial, temos que a função exponencial é a inversa
para todo x, onde y > 0. da função logarítmica natural f(x) = ln x, que é diferenciável com derivada positiva para todo
x > 0 . Segue, então, que a função g(x) = exp x também é diferenciável e sua derivada é dada por
Da definição das funções exp e ln, segue que exp é uma função biunívoca. De fato: se exp x1 =
exp x2 = b, então, por definição, ln b = x1 e ln b = x2 e, portanto, x1 = x2 . 1 1 1
g0 (x) = = 1 = 1 = exp x
Podemos ver também que f 0 (g(x)) g(x) exp x
exp(ln x) = y ⇐⇒ ln y = ln x ⇐⇒ y = x ⇐⇒ exp(ln x) = x ou seja, a função exponencial é sua própria derivada! Como exp x > 0, segue que as derivadas
ln(exp x) = y ⇐⇒ exp(y) = exp(x) ⇐⇒ y = x ⇐⇒ ln(exp x) = x primeira e segunda são positivas; logo, exp x é uma função crescente com concavidade para cima.
Além disso,
e isso nos diz que exp e ln são inversas uma da outra.
O número neperiano e (também conhecido como número de Euler, em homenagem ao matemátco x → ∞ =⇒ ln(exp x) → ∞ =⇒ exp x → ∞ =⇒ lim exp x = ∞
x→∞
suiço Leonard Euler) é definido como o o único número real positivo tal que x → −∞ =⇒ ln(exp x) → −∞ =⇒ exp x → 0 =⇒ lim exp x = 0
x→−∞
ln e = 1 O gráfico da função exp x está na Figura 1.3.
Usando a regra do trapezoidal, pode-se mostrar que Note que, como a função exp é a inversa da função ln, o gráfico da função exponencial é uma
reflexão do gráfico da função logarítmica através da reta y = x.
R 2,7 1 R 2,8 1
1
dx < 1 < 1 dx
x x
o que significa que 1.4 Funções pares e ímpares
ln(2, 7) < ln(e) < ln(2, 8)
Definição 1.1 Diz-se que uma função f é par se f (−x) = f (x) e que é ímpar se f (−x) = −f (x) .
e como ln é crescente, isso significa que
Z ∞ Z ∞
2, 7 < e < 2, 8 Teorema 1.1 (a) Se f é par, então f (x)dx = 2 f(x)dx. (b) Se f é ímpar, então
Z ∞ −∞ 0
Usando as definições e propriedades já vistas, pode mostrar as seguintes propriedades da função
exponencial natural: f (x)dx = 0.
−∞
CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 9 CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 10
Demonstração:
Z ∞ Z 0 Z ∞
f(x)dx = f (x)dx + f(x)dx
−∞ −∞ 0
= f (−t)dt + f(x)dx
0 0
= − f (t)dt + f(x)dx = 0
Figura 1.3: Gráfico da função exponencial natural f (x) = exp x 0 0
Para integrais duplas de funções definidas em coordenadas cartesianas, temos que ter a partição
Figura 1.4: Função exponencial e função logarítimica - reflexão através da reta y = x da região de definição R da função de duas variáveis f(x, y), conforme ilustrado na figura 1.8. Nesse
CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 11 CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 12
Figura 1.5: e é calculada através de integrais parciais, isto é, calcula-se primeiro a integral com respeito a y,
mantendo x constante, e depois integra-se o resultado com relação a x :
Z bZ d Z b ∙Z d ¸
P (r ,θ ) f(x, y)dydx = f(x, y)dy dx
a c a c
θ
O eixo polar
2πr2 1
a = x0 πr2 = = (2π) r2 ;
xi−1 xi xn = b 2 2
logo, a área de um setor circular correspondente a um ângulo ∆θ e raio r é
1
Figura 1.7: Partição do intervalo [a, b] (∆θ) r2
2
Então, a área da região polar elementar é
1 1 1 ¡ ¢ 1
∆A = (∆θ) r22 − (∆θ) r12 = (∆θ) r22 − r12 = (∆θ) (r1 + r2 ) (r2 − r1 )
2 2 2 2
CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 13 CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 14
Definindo
1
r = (r1 + r2 )
2
∆r = r2 − r1
podemos escrever:
∆A = r∆θ∆r
A integral em termos das coordenadas polares é, então:
Z Z
P
f(r, θ)dA = lim f(ri , θi )ri ∆θi ∆ri
kP k→0
R
e calculada como Z Z Z Z
f (r, θ)dA = f(r, θ)rdrdθ
R R
1.5.1 Exemplo
Z ∞ µ 2¶
t
Figura 1.9: Partição da região R - coordenadas polares Vamos calcular exp − dt. Aqui não podemos aplicar o Teorema Fundamental do Cálculo
−∞ 2
pois o integrando não possui antiderivada. Mas o integrando é uma função par; logo, a integral em
questão é igual a duas vezes a integral de 0 a ∞. Mas
∙Z ∞ µ 2 ¶ ¸2 µZ ∞ µ 2 ¶ ¶ µZ ∞ µ 2¶ ¶
t t u
exp − dt = exp − dt exp − du =
0 2 0 2 0 2
Z ∞Z ∞ µ 2 ¶
t + u2
= exp − dtdu
0 0 2
Consideremos agora, a região de integração em termos das coordenadas polares:
t = r cos θ u = r sen θ
dtdu = rdrdθ
r2 π
Como 0 < t < ∞ e 0 < u < ∞, então r > 0 e 0 < θ < . Como
2
Δθ t2 + u2 = r2
Δr
segue que
∙Z µ 2 ¶ ¸2 Z ∞ Z π µ 2¶
r1 ∞
t 2 r
exp − dt = exp − rdθdr
0 2 0 0 2
r2
Fazendo = w, então rdr = dw e
2
∙Z ∞ µ 2 ¶ ¸2 Z ∞Z π Z ∞ "Z π #
Figura 1.10: Região polar elementar t 2 2
exp − dt = exp (−w) dθdw = dθ exp (−w) dw =
0 2 0 0 0 0
Z ∞
π π ¡ −w ¢¯¯∞ π
= exp(−w)dw = −e 0
=
0 2 2 2
CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 15 CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 16
Provamos assim que Z µ 2¶ r onde |J| representa o valor absoluto do determinante da matriz jacobiana
∞
t π ∙ ∂x ∂x ¸
exp − dt = (1.10)
0 2 2 J = ∂u ∂v
∂y ∂y
e, portanto, Z µ 2¶ ∂u ∂v
∞
t √
exp − dt = 2π (1.11) Considere, como exemplo, as coordenadas polares definidas anteriormente: x = r cos θ e y =
−∞ 2 r sen θ :
ou ainda Z µ 2¶ ¯∙ ∂x ∂x ¸¯ ¯∙ ¸¯
1 ∞
t ¯ ¯ ¯ cos θ −r sen θ ¯ ¡ 2 ¢
√ exp − dt = 1 (1.12) J = ¯¯ ∂y
∂r ∂θ
∂y
¯ ¯ ¯ 2 2 2
¯ ¯ sen θ r cos θ ¯ = r cos θ + r sen θ = r cos θ + sen θ = r
=
2π −∞ 2 ∂r ∂θ
1.6 Mudança de variáveis em integrais duplas 1. Se u é um número real qualquer e a > 0, então ln au = u ln a
De fato: usando a definição da função exponencial com base a e propriedades já vistas da
No cálculo de integrais simples,
R b podemos usar mudança de variável para simplificar os cálculos. função exponencial natural, temos que
Assim, se queremos calcular a f(x)dx, sob condições adequadas, podemos definir x = g(u) e então
dx = g 0 (u)du e ln au = ln eu ln a = u ln a
Rb R
g(b)
f(x)dx = f (g(u))g0 (u)du
a g(a) 2. Se u e v são números reais quaisquer e a > 0, então au av = au+v .
O resultado análogo para funções de duas variáveis é o seguinte: se x = f(u, v) e y = g(u, v) é uma De fato: usando a definição da função exponencial com base a e propriedades já vistas da
transformação de variáveis, então função exponencial natural, temos que
RR RR
F (x, y)dxdy = F (f(u, v), g(u, v)) |J| dudv au av = eu ln a ev ln a = eu ln a+v ln a = e(u+v) ln a = au+v
R R
CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 17 CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 18
au
3. Se u e v são números reais quaisquer e a > 0, então av
= au−v .
De fato: usando a definição da função exponencial com base a e propriedades já vistas da
função exponencial natural, temos que
au eu ln a
v
= v ln a = eu ln a−v ln a = e(u−v) ln a = au−v
a e
Para calcular a derivada da função exponencial com base a, vamos usar a regra da cadeia e o
fato de a derivada da função exp ser a própria função:
d x d ¡ x ln a ¢ d
(a ) = e = ex ln a (x ln a) = (ln a) ex ln a
dx dx dx
ou seja
d x
(a ) = ax ln a Figura 1.11: f(x) = ax , a > 1 e g(x) = ax , a < 1
dx
Se a > 1, ln a > 0 e ax é uma função crescente para x ∈ R (note que ax > 0 para todo a, pela
definição). Se 0 < a < 1, ln a < 0 e ax é uma função decrescente para x ∈ R. Como y = loga x, segue que
Note também que, se a > 1 ln x
loga x =
ln a
lim ax = lim ex ln a = ∞
x→∞ x→∞ Usando essa relação podemos ver as seguintes propriedades da função logarítmica de base a.
lim ax = lim ex ln a = 0
x→−∞ x→−∞ 1. Se p > 0 e q > 0 são números reais, então loga pq = loga p + loga q.
e se 0 < a < 1 De fato:
ln pq ln p + ln q ln p ln q
x x ln a loga pq = = = + = loga p + loga q
lim a = lim e =0 ln a ln a ln a ln a
x→∞ x→∞
p
lim ax = lim ex ln a = ∞ 2. Se p > 0 e q > 0 são números reais, então loga q
= loga p − loga q.
x→−∞ x→−∞
De fato:
p ln pq ln p − ln q ln p ln q
Na Figura 1.11 ilustra-se o gráfico de f(x) = ax para a = 2 e a = 12 . O gráfico da função loga = = = − = loga p − loga q
exponencial com base a sempre terá essas formas, dependendo se a > 1 ou 0 < a < 1. q ln a ln a ln a ln a
3. Se p > 0 e x é número real qualquer, então loga px = x loga p.
Se a 6= 1, a função f (x) = ax é bijetora e, portanto, admite uma inversa. Essa inversa será
denotada por loga e, portanto De fato:
ln px x ln p
loga x = y ⇐⇒ x = ay loga px = = = x loga p
ln a ln a
A função g(x) = logx a é chamada função logarítmica com base a. Note que, quando a = e, temos
a função logarítmica natural. Vamos calcular a derivada de f (x) = loga x.
Temos que µ ¶
ln x ln x d d ln x 1 1
loga x = y ⇐⇒ x = ay ⇐⇒ ln x = y ln a ⇐⇒ y = loga x = =⇒ (loga x) = =
ln a ln a dx dx ln a ln a x
CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 19 CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 20
Vamos, agora, calcular alguns limites envolvendo o número neperiano e. Da definição de derivada Logo, ³ x ´n
da função f(x) = ln x, temos que
lim 1 + = ex (1.15)
n→∞ n
ln(x + h) − ln(x)
f 0 (x) = lim
h→0 h Vamos calcular alguns outros limites envolvendo a função exponencial que serão úteis no estudo
1 x+h de distribuições contínuas. O resultado crucial é
= lim ln
h→0 h x
µ ¶1 lim xk e−x = 0 (1.16)
x+h h x→ ∞
= lim ln
h→0 x
µ ¶1 Vamos mostrar esse resultado usando demonstração por indução e usando, também, a regra de
h h L´Hôpital. Consideremos o caso em que k = 1. Então
= lim ln 1 +
h→0 x
x
lim xe−x = lim
Como f 0 (x) = x1 , para x = 1 temos f 0 (1) = 1 e, portanto, x→ ∞ x→ ∞ ex
∞
1 que tem a forma ∞
e, portanto, podemos aplicar L´Hôpital, que diz que
1 = lim ln (1 + h) h
h→0
x x0 1
lim xe−x = lim = lim = lim =0
Mas 1
h 1
i x→ ∞ x→ ∞ ex x→ ∞ (ex )0 x→ ∞ ex
(1 + h) h = exp ln (1 + h) h
Logo, o resultado vale para k = 1. Suponhamos verdadeiro para qualquer k; vamos mostrar que
Como a função exponencial é contínua, vale para k + 1. De fato:
1 1 ¡ k+1 ¢0
lim (1 + h) h = lim exp ln (1 + h) h xk+1 x (k + 1) xk xk
h→0 h→0 lim xk+1 e−x = lim x = lim 0 = lim x
= (k + 1) lim x = (k + 1) × 0 = 0
1 x→ ∞ x→ ∞ e x→ ∞ (ex ) x→ ∞ e x→ ∞ e
= exp lim ln (1 + h) h
h→0
= exp(1) pela hipótese de indução. De maneira análoga, prova-se um resultado mais geral dado por:
= e lim xk e−λx = 0 ∀k > 0 e λ > 0 (1.17)
x→ ∞
ou seja,
1
lim (1 + h) h = e (1.13) Vamos ver, agora, a fórmula de Taylor para a função f(x) = ex . Lembrando que a derivada de
h→0
f(x) é a própria f(x) e que f(0) = 1, podemos escrever:
1
Fazendo h
= n na expressão acima, obtemos que x2 xn
µ ¶n ex = 1 + x + + ··· + + Rn+1
1 2! n!
lim 1 + =e (1.14)
n→∞ n onde
ez
Rn+1 = xn+1
³ (n + 1)!
x ´n x
A partir desses resultados, vamos calcular lim 1 + . Fazendo t = , resulta que para algum z entre 0 e x. Se x > 0, então 0 < z < x, o que implica que ez < ex e, portanto
n→∞ n n
³ x ´n x h ix ex
lim 1 + = lim (1 + t) t = lim (1 + t)1/t 0 < Rn+1 < xn+1
n→∞ n t→0 t→0 (n + 1)!
CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 21 CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 22
Figura 1.12: Transformação: (s, t) → (σ, τ ) Figura 1.13: Transformação de coordenadas: (σ, τ ) → (q, r)
B(x, y) =
Γ(x)Γ(y)
(1.23) = |a| e da |b|2y−1 e−b db
Γ(x + y) −∞ −∞
R ∞
∞ R 2x−1 2y−1 −(a2 +b2 )
= |a| |b| e dadb
Para obter uma outra expressão para a função beta, vamos calcular Γ(x)Γ(y) por meio de −∞ −∞
coordenadas polares.
µ∞ ¶ µ∞ ¶ Consideremos a seguinte mudança de coordenadas:
R x−1 −t R y−1 −s
Γ(x)Γ(y) = t e dt s e ds
0 0 a = r cos θ
Como t > 0 e s > 0, podemos considerar a seguinte mudança de variável: b = r sen θ
t = a2 =⇒ dt = 2ada
s = b2 =⇒ ds = 2bdb
CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 25
R
π/2 x 0 1
B(x, y) = 2 cos θ2x−1 sen θ2y−1 dθ (2.1)
Pr(X = x) 1 − p p
0
Obviamente, as condições definidoras de uma fdp são satisfeitas, uma vez que p > 0, 1 − p > 0 e
p+(1−p) = 1. O valor de p é o único valor que precisamos conhecer para determinar completamente
a distribuição; ele é, então, chamado parâmetro da distribuição de Bernoulli. Se X tem distribuição
de Bernoulli com parâmetro p vamos representar este fato por X ∼ Bern(p).
A distribuição de Bernoulli pode também ser escrita da seguinte forma:
26
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 27 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 28
e, portanto
Figura 2.1: Distribuição de Bernoulli com parâmetro p
E(X) = φ0X (0) = p
FDP da Bern(p) FDA da Bern(p)
E(X 2 ) = φ00X (0) = p
1 1
V ar(X) = E(X 2 ) − [E(X)]2 = p − p2 = p(1 − p)
p
ou Essa é a distribuição binomial; note que para determiná-la precisamos conhecer os valores de n e
φX (t) = 1 − p + pet p, que são os parâmetros da distribuição. Vamos usar a seguinte notação: X ∼ bin(n; p).
Para mostrar que (2.6) realmente define uma fdp falta mostrar que
Calculando as derivadas primeira e segunda, obtemos que
X
n
φ0X (t) = φ00X (t) = pet Pr(X = k) = 1.
k=0
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 29 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 30
já que, obviamente, Pr(X = k) ≥ 0. De fato: o teorema do binômio de Newton nos diz que, se x e No caso em que p = 0, 5, a distribuição será unimodal para n par e será bimodal para n ímpar.
y são números reais e n é um inteiro positivo, então Além disso, a distribuição é simétrica, pois
Xn µ ¶ ¡ ¢ ¡ n ¢
n k n−k Pr(X = k) = nk (0, 5)k (1 − 0, 5)n−k = n−k (0, 5)n−k (1 − 0, 5)n−(n−k) = Pr(X = n − k)
(x + y)n = x y . (2.7)
k=0
k
Na Figura 2.2 são exibidas as formas da distribuição binomial para alguns valores de n e p.
Fazendo x = p e y = 1 − p em (2.7), obtém-se:
Xn µ ¶ Xn n = 10; p=0,5 n = 7; p=0,5
n k
[p + (1 − p)]n = 1n = 1 = p (1 − p)n−k = Pr(X = k)
k=0
k k=0
0,3 0,3
0,2 0,2
o que prova o resultado.
Se X ∼ bin(n; p), então temos 0,1 0,1
0 0
n!
pk+1 (1 − p)n−k−1 0 1 2 3 4 5 6 7 8 7
P (X = k + 1) (k + 1)!(n − k − 1)!
=
P (X = k) n!
pk (1 − p)n−k n=8;p=0,2 n=8;p=0,7
k!(n − k)!
n−k p 0,4 0,4
= k = 0, 1, 2, . . . , n
(k + 1) 1 − p 0,3 0,3
0,2 0,2
Temos, assim, uma forma recursiva de calcular Pr(X = k). 0,1 0,1
Suponhamos, agora, que a probabilidade máxima ocorra em k0 ; então, usando o resultado acima, 0 0
temos que ter 0 1 2 3 4 5 6 7 8 0 1 2 3 4 5 6 7 8
P (X = k0 + 1) n − k0 p
≤ 1 =⇒ ≤ 1 =⇒ np − k0 p ≤ k0 − k0 p + 1 − p =⇒ n=9;p=0,3
P (X = k0 ) (k0 + 1) (1 − p)
np ≤ k0 + 1 − p =⇒ k0 ≥ p(n + 1) − 1 0,3
0,2
e também
0,1
P (X = k0 ) [n − (k0 − 1)] p
≥ 1 =⇒ · ≥ 1 =⇒ np − k0 p + p ≥ k0 − k0 p =⇒ 0
P (X = k0 − 1) k0 (1 − p) 0 1 2 3 4 5 6 7 8 9
k0 ≤ p(n + 1)
Vemos , então, que
p(n + 1) − 1 ≤ k0 ≤ p(n + 1) Figura 2.2: Gráfico da distribuição binomial para diferentes valores de n e p
e como k0 tem que ser inteiro, resulta que o ponto de máximo ocorre quando k0 = [p(n + 1)] ,
ou seja, a moda da distribução ocorre em k0 = [p(n + 1)] , onde [x] representa o maior inteiro
menor ou igual a x. Note que, se p(n + 1) for inteiro, então a distribuição é bimodal com moda em 2.2.2 Esperança
k0 = p(n + 1) e k0 = p(n + 1) − 1 pois
P [X = p(n + 1)] P (X = np + p) n − (np + p − 1) p X
n Xn µ ¶
= = · n k
P [X = p(n + 1) − 1] P (X = np + p − 1) np + p 1−p E (X) = k Pr (X = k) = k p (1 − p)n−k =
k=0 k=0
k
n − np − p + 1 p (n + 1) − p(n + 1)
= · = X
n
n!
p(n + 1) 1−p (n + 1)(1 − p) = k pk (1 − p)n−k
(n + 1)(1 − p) k=0
k! (n − k)!
= =1
(n + 1)(1 − p)
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 31 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 32
X
n
n! X n
n! X
n−1
(n − 1)!
E (X) = k pk (1 − p)n−k = k pk (1 − p)n−k = np (j + 1) pj (1 − p)n−j−1 =
k! (n − k)! k (k − 1)! (n − k)! j=0
j! (n − j − 1)!
k=1 k=1
X
n−1
(n − 1)! Xn−1
(n − 1)!
e como k 6= 0, podemos dividir o numerador e o denominadr por k, o que resulta na simplificação = np j pj (1 − p)n−j−1 + np pj (1 − p)n−j−1 =
j=0
j! (n − j − 1)! j=0
j! (n − 1 − j)!
X
n
n! Xn
n (n − 1)! ¡ ¢
E (X) = pk (1 − p)n−k = p × pk−1 (1 − p)n−k = n−1 µ
X ¶ n−1 µ
X ¶
(k − 1)! (n − k)! (k − 1)! (n − k)! n−1 j n−1 j
k=1 k=1 = np j p (1 − p)n−1−j + np p (1 − p)n−1−j
n µ ¶ j j
Xn
(n − 1)! n−k
X n − 1 k−1 j=0 j=0
= np k−1
p (1 − p) = np p (1 − p)n−k
k=1
(k − 1)! (n − k)! k=1
k − 1 Mas o primeiro somatório é a esperança de uma binomial com parâmetros (n − 1) e p; portanto,
pelo resultado (2.8), é igual a (n − 1) p. Já o segundo somatório é a soma das probabilidades dos
Fazendo j = k − 1, temos que valores de uma binomial com esses mesmos parâmetros (ou binômio de Newton); logo, é igual a 1.
Segue, então, que ¡ ¢
k = j+1 E X 2 = np (n − 1) p + np × 1 = n2 p2 − np2 + np
k = 1⇒j=0
e, portanto,
k = n⇒j =n−1
V ar (X) = E(X 2 ) − [E(X)]2 = n2 p2 − np2 + np − (np)2 = np − np2
Logo,
n−1 µ
X ¶ ou seja,
n−1 j
E (X) = np p (1 − p)n−1−j X ∼ bin(n, p) ⇒ V ar (X) = np (1 − p) (2.9)
j=0
j
Resumindo: ⎧
Mas nesse somatório temos as probabilidades de uma distribuição binomial com parâmetros (n − 1) ⎨ E (X) = np
e p; como estamos somando as probabilidades de todos os pontos do espaço amostral, segue que X ∼ bin(n, p) ⇒ (2.10)
esse somatório é igual a 1 (note que essa é a expressão do binômio de Newton para (x + y)n−1 com ⎩
V ar(X) = np(1 − p)
x = p e y = 1 − p) e, portanto,
2.2.4 Função geradora de momentos
X ∼ bin(n, p) ⇒ E (X) = np (2.8)
Por definição,
2.2.3 Variância P
n
φX (t) = E(etX ) = etk Pr(X = k)
2 k=0
Vamos calcular E (X ) . Usando raciocínio análogo ao usado no cálculo da esperança, temos que:
P
n ¡n¢ k Pn ¡ ¢¡
n
¢k
= etk
k
p (1 − p)n−k = k
pet (1 − p)n−k
Xn µ ¶ Xn k=0
£ ¤n k=0
¡ ¢ n k n!
E X2 = k2 p (1 − p)n−k = k2 pk (1 − p)n−k = = pet + (1 − p)
k=0
k k=1
k! (n − k)!
X
n pela fórmula do binômio de Newton. Logo,
n!
= k2 pk (1 − p)n−k = £ ¤n−1
k (k − 1)! (n − k)! φ0X (t) = npet pet + (1 − p)
k=1
£ ¤n−1 £ ¤n−2 t
X
n
n! φ00X (t) = npet pet + (1 − p) + n(n − 1)pet pet + (1 − p) pe
= k pk (1 − p)n−k = £ ¤n−1 £ ¤n−2
k=1
(k − 1)! (n − k)! = npet pet + (1 − p) + n(n − 1)p2 e2t pet + (1 − p)
X
n
n (n − 1)! ¡ ¢
= k p × pk−1 (1 − p)n−k = e, portanto
k=1
(k − 1)! (n − k)! E(X) = φ0X (0) = np [p + (1 − p)]n−1 = np
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 33 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 34
E(X 2 ) = φ00X (0) = np [p + (1 − p)]n−1 + n(n − 1)p2 [p + (1 − p)]n−2 2.3 Distribuição Geométrica
= np + n(n − 1)p2 = np + n2 p2 − np2
2.3.1 Definição
V ar(X) = E(X 2 ) − [E(X)]2 = np + n2 p2 − np2 − n2 p2 = np − np2 = np(1 − p)
Considere o seguinte experimento: uma moeda com probabilidade p de cara é lançada até que
apareça cara pela primeira vez. Para tal experimento, podemos definir a seguinte v.a. discreta
2.2.5 Exercícios resolvidos X = “número de repetições necessárias até a ocorrência da primeira cara”. Essa v.a. pode assumir
1. Um atirador acerta na mosca do alvo, 20% dos tiros. Se ele dá 10 tiros, qual a probabilidade os valores 1, 2, 3, . . . , ou seja, teoricamente, poderíamos ter que lançar a moeda infinitas vezes para
de ele acertar na mosca no máximo 1 vez? obter a primeira cara. Essa é uma situação em que é impossível encontrar algum paralelo na prática;
no entanto, o “infinito” na prática, em geral, é substituído por um “valor muito grande”. Considere
Solução:
uma população muito grande onde p% das pessoas sofrem de uma doença desconhecida. Precisa-se
Podemos pensar os tiros como experimentos de Bernoulli independentes, onde a probabilidade encontrar uma pessoa portadora da doença para que os médicos possam estudá-la. Quantas pessoas
de sucesso é 0,20. Então, o problema pede Pr(X ≤ 1), onde X = número de acertos em 10 teremos que examinar até encontrar uma portadora? Em ambas as situações, cada repetição do
tiros. Logo, X ∼ bin(10; 0, 20) e experimento (lançamento da moeda ou exame de uma pessoa) tem dois resultados possíveis (cara
µ ¶ µ ¶ ou coroa e Portadora ou não portadora da doença), ou seja, temos experimentos de Bernoulli e, de
10 10
Pr(X ≤ 1) = Pr(X = 0)+Pr(X = 1) = (0, 20)0 (0, 80)10 + (0, 20)1 (0, 80)9 = 0, 37581 um modo geral, podemos assumir que as repetições sejam independentes.
0 1
Consideremos, então, repetições independentes de um experimento de Bernoulli com parâmetro
2. Dois adversários A e B disputam uma série de 8 partidas de um determinado jogo. A proba- p. Vamos definir a seguinte v.a. associada a esse experimento aleatório:
bilidade de A ganhar uma partida é 0,6 e não há empate. Qual é a probabilidade de A ganhar
X = número de repetições necessárias para obtenção do primeiro sucesso (2.11)
a série?
Solução: Os valores possíveis de X são 1 (primeiro sucesso na primeira repetição), 2 (primeiro sucesso na
Note que só podem ocorrer vitórias ou derrotas, o que significa que temos repetições de um segunda repetição e, portanto, fracasso na primeira), 3 (primeiro sucesso na terceira repetição e,
experimento de Bernoulli com probabilidade 0,6 de sucesso (vitória). Assumindo a inde- portanto, fracasso nas duas primeiras), etc. Esse é um exemplo de v.a. discreta onde o espaço
pendência das provas, se definimos X = número de vitórias de A, então X ∼ bin(8; 0, 6) e o amostral, enumerável, é infinito.
problema pede Pr (X ≥ 5) , isto é, A ganha mais partidas que B. Para calcular a probabilidade de X = k, k = 1, 2, 3, . . . , devemos notar que tal evento corre-
sponde à ocorrência de fracassos nas k − 1 primeiras repetições e sucesso na k-ésima repetição.
Pr (X ≥ 5) = Pr (X = 5) + Pr (X = 6) + Pr (X = 7) + Pr (X = 8) = Denotando por Fi e Si a ocorrência de fracasso e sucesso na i-ésima repetição respectivamente,
µ ¶ µ ¶ µ ¶ µ ¶
8 8 8 8 temos a seguinte equivalência de eventos:
= (0, 6)5 (0, 4)3 + (0, 6)6 (0, 4) 2 + (0, 6)7 (0, 4)1 + (0, 6)8 (0, 4)0 =
5 6 7 8
= 0, 5940864 {X = k} = {F1 ∩ F2 ∩ · · · ∩ Fk−1 ∩ Sk }
ser satisfeita se cuidados na seleção da amostra não fossem tomados; por exemplo, poderia haver
um componente de hereditariedade.
Para mostrar que (2.12) realmente define uma fdp, temos que mostrar que a soma das prob-
abilidades, isto é, a probabilidade do espaço amostral é 1 (obviamente, Pr(X = k) ≥ 0). Temos
que:
X∞ X∞ X
∞
Pr(X = k) = (1 − p)k−1 p = p (1 − p)k−1 .
k=1 k=1 k=1
Fazendo a mudança de variável j = k − 1, temos que
k = j+1 Distribuição geométrica - p = 0,2
k = 1⇒j=0
0,3
k = ∞⇒j=∞
Portanto, 0,2
P(X = k)
X
∞ X
∞
Pr(X = k) = p (1 − p)j 0,1
k=1 j=0
Mas essa é a série geométrica de razão 1 − p; pelo resultado (1.1) do Capítulo 1, obtém-se que: 0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
X
∞
1 k
Pr(X = k) = p × = 1.
k=1
1 − (1 − p)
0,4
P(X = k)
Vamos usar novamente a seguinte notação: [x] representa o maior inteiro contido em x, isto é, o
0,3
maior inteiro menor ou igual a x. Então, para x < 1, F (x) = 0 e para x ≥ 1 temos que
0,2
[x] [x]
X X 0,1
F (x) = Pr(X ≤ x) = Pr(X = k) = p(1 − p)k−1 0
k=1 k=1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
k
Fazendo a mudança de variável j = k − 1, temos que
k = j+1
k = 1⇒j=0
k = [x] ⇒ j = [x] − 1 Figura 2.3: Distribuição geométrica - p = 0, 2 e p = 0, 5
e, portanto, se x ≥ 1
[x]−1
X 1 − (1 − p)[x]−1+1
F (x) = p(1 − p)j = p = 1 − (1 − p)[x]
j=0
1 − (1 − p)
Resumindo: ½
0 se x < 1
F (x) = (2.13)
1 − (1 − p)[x] se x ≥ 1
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 37 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 38
Calculando as derivadas primeira e segunda, temos que 2.3.7 Forma alternativa da distribuição geométrica
pet [1 − et (1 − p)] − pet [−et (1 − p)] pet − pe2t (1 − p) + pe2t (1 − p) pet Em vez de definir a variável geométrica como “número de repetições até primerio sucesso”, podemos
φ0X (t) = = = usar a seguinte definição alternativa:
[1 − et (1 − p)]2 [1 − et (1 − p)]2 [1 − et (1 − p)]2
Y = “número de fracassos antes do primeiro sucesso” (2.17)
t t 2 t t t
pe [1 − e (1 − p)] − 2pe [1 − e (1 − p)] [−e (1 − p)] Neste caso, a distribuição de Y é
φ00X (t) =
[1 − et (1 − p)]4
2
Pr(Y = k) = (1 − p)k p k = 0, 1, 2, . . . (2.18)
pet [1 − et (1 − p)] + 2pe2t [1 − et (1 − p)] (1 − p)
= Em termos da variável geométrica X definida anteriormente em (2.11), podemos ver que
[1 − et (1 − p)]4
Logo, Y =X −1
p p 1
E(X) = φ0X (0) = = 2 = e essa distribuição de probabilidade é às vezes chamada distribuição geométrica deslocada (em
[1 − (1 − p)]2 p p inglês, shifted geometric distribution).
e Foi visto que se U e V são variáveis aleatórias tais que U = aV + b então
p [1 − (1 − p)]2 + 2p [1 − (1 − p)] (1 − p) E(U) = aE(V ) + b
E(X 2 ) = φ00X (0) =
[1 − (1 − p)]4 V ar(U) = b2 V ar(V )
3 2
p + 2p (1 − p) 2p − p3
2
2−p φU (t) = ebt φV (at)
= 4
= =
p p4 p2
No caso da distribuição geométrica deslocada, temos que Y = X − 1; logo,
e, portanto
2−p 1 1−p 1 1−p
V ar(X) = − 2 = E(Y ) = E(X) − 1 = −1=
p2 p p2 p p
1−p
mesmos resultados obtidos anteriormente. V ar(Y ) = V ar(X) =
p2
pet p
2.3.6 Exercícios resolvidos φY (y) = e−t φX (t) = e−t = et (1 − p) < 1
1 − et (1 − p) 1 − et (1 − p)
1. Um atirador acerta na mosca do alvo, 20% dos tiros. Qual a probabilidade de ele acertar na
mosca pela primeira vez no 10o tiro? 2.3.8 Propriedade da falta de memória da geométrica
Solução: Seja X ∼ geom(p). Considere a seguinte probabilidade condicional Pr(X > m + n|X > n), cuja
Podemos pensar os tiros como experimentos independentes de Bernoulli (acerta ou não ac- interpretação é a seguinte: dado que já foram realizadas mais de n repetições do experimento de
erta). A probabilidade de sucesso (acertar no alvo) é p = 0, 20. Estamos querendo o número Bernoulli, qual é a probabilidade de serem necessárias mais de m repetições adicionais para se obter
de tiros até o primeiro acerto e calcular a probabilidade de que esse número seja 10. Seja X = o primeiro sucesso? Vamos calcular essa probabilidade; por definição de probabilidade condicional
número de tiros até primeiro acerto. Então, X ∼ Geom(0, 20) e Pr (X = 10) = 0, 89 × 0, 2 = temos que
0, 02684. Pr [(X > m + n) ∩ (X > n)] Pr(X > m + n)
Pr(X > m + n|X > n) = =
2. Joga-se um dado equilibrado. Qual é a probabilidade de serem necessários 10 lançamentos Pr(X > n) Pr(X > n)
até a primeira ocorrência de um seis? 1 − Pr(X ≤ m + n) 1 − [1 − (1 − p)m+n ] (1 − p)m+n
= = =
Solução: 1 − Pr(X ≤ n) −1 [1 − (1 − p)n ] (1 − p)n
m
= (1 − p) = Pr(X > m)
Nesse caso, sucesso é a ocorrência de face seis. Logo, Pr(sucesso) = p = 16 e Pr(fracasso)
¡ ¢ =
1 − p = 56 . Seja X = número de lançamentos até primeiro seis. Então, X ∼ geom 16 e o Note o resultado: a probabilidade de serem necessárias mais de m repetições do experimento é
¡ ¢9 ¡ 1 ¢
problema pede Pr (X = 10) = 56 = 0, 03230. a mesma, quer o sistema tenha ou não rodado n vezes. Isto é, o sistema “esquece” que já rodou n
6
vezes e, por isso, essa propriedade é chamada de “falta de memória” da geométrica.
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 41 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 42
¡k−1¢
2.4 Distribuição binomial negativa Mas existem r−1 maneiras de arrumar r − 1 sucessos em k − 1 posições e as seqüências resul-
tantes têm todas a probabilidade acima. Como elas constituem eventos mutuamente exclusivos, a
2.4.1 Definição probabilidade da união delas, que é Pr (X = k) , é a soma das probabilidades, ou seja:
Consideremos novamente repetições independentes de um experimento de Bernoulli com probabi- Pr (X = k) = pr (1 − p)k−r + pr (1 − p)k−r + · · · + pr (1 − p)k−r
lidade p de sucesso. Vamos considerar agora uma generalização da v.a. geométrica, no seguinte ¡ ¢
sentido: onde o número de parcelas é k−1
r−1
. Logo
µ ¶
X = número de repetições necessárias até a obtenção do r-ésimo sucesso, r ≥ 1 (2.19) k−1 r
Pr (X = k) = p (1 − p)k−r k≥r (2.20)
r−1
Quando r = 1 temos a distribuição geométrica.
Note que na distribuição binomial negativa, o número de lançamentos é variável e o número de Essa distribuição, caracterizada pelos parâmetros r e p, é chamada distribuição binomial negativa,
sucessos é um número fixo (pré-determinado); note o contraste com a distribuição binomial , em também conhecida como distribuição de Pascal. Se X tem tal distribuição, vamos representar tal
que o número de lançamentos é fixo e o número de sucessos é a variável de interesse; fato por X ∼ BinNeg(r, p).
Como Pr (X = k) ≥ 0, para mostrar que (2.20) realmente define uma fdp, fica faltando mostrar
Número de sucessos Número de repetições que µ ¶
Dist. binomial negativa fixo variável aleatória P
∞ P
∞ k−1 r
Pr (X = k) = p (1 − p)k−r = 1.
Dist. binomial variável aleatória fixo k=r k=r r − 1
Para definir os possíveis valores de X, devemos notar que para ter r sucessos, são necessários Fazendo k − r = j, temos que k = r ⇒ j = 0 e k = r + j. Logo
no mínimo r repetições. Logo, os possíveis valores de X são r, r + 1, r + 2, . . . . O evento X = k µ ¶ µ ¶
indica que foram necessárias k repetições para obter r sucessos e, portanto, k − r fracassos. Pela P∞ P∞ r+j−1 r P∞ r−1+j
Pr (X = k) = p (1 − p)j = pr (1 − p)j
definição da variável, a última repetição resultou em sucesso e os outros r − 1 sucessos podem estar k=r j=0 r−1 j=0 r−1
em quaisquer das k − 1 posições restantes (ver Figura 2.4).
Usando o resultado dado na equação (1.8) do Capítulo 1 com k = r − 1 e r = 1 − p, obtemos que:
daí o nome binomial negativa. Note que essa distribuição corresponde à variável Y =“número de X
∞
(r + j − 1)!
= (1 − p) (1 − p)j−1
fracassos antes do r-ésimo sucesso”. j=1
(r − 1)!(j − 1)!
2.4.4 Esperança
Por definição, temos que
X∞ µ ¶
k−1 r
E(X) = k p (1 − p)k−r =
k=r
r − 1
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 45 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 46
Fazendo j − 1 = n, temos que j = 1 ⇒ n = 0 e j = ∞ ⇒ n = ∞; logo: Usando os resultados (1.8) do Capítulo 1 com k = r − 1 e r = 1 − p e (2.24) anterior, temos que:
X∞ µ ¶ X∞
r−1+j (r + n)! µ ¶
j (1 − p)j = (1 − p) (1 − p)n = 1 r(1 − p) X∞
r−1 (r − 1)!n! 2 r−1+j
j=0 n=0 E(X 2 ) = r2 pr × + 2rpr
× + p r
j (1 − p)j
[1 − (1 − p)]r−1+1 pr+1 r−1
X∞
r(r + n)!
j=0
= (1 − p) (1 − p)n = X∞ µ ¶
r(r − 1)!n! 2r2 (1 − p) r−1+j
n=0 = r2 + + pr j2 (1 − p)j =
p r−1
X
∞
(r + n)! j=0
= r(1 − p) (1 − p)n X∞ µ ¶
r!n! 2r2 − r2 p r−1+j
n=0 = + pr j2 (1 − p)j (2.26)
X∞ µ ¶ p r−1
r+n j=0
= r(1 − p) (1 − p)n
n=0
n De modo análogo, esse somatório é calculado, notando inicialmente que, quando j = 0, a parcela
do somatório é nula; logo,
Usando novamente o resultado (1.8) do Capítulo 1 com r = 1 − p e k = r, otém-se que:
X∞ µ ¶ µ ¶
r−1+j 1 r(1 − p) X
∞
r−1+j X∞
(r − 1 + j)!
j (1 − p)j = r(1 − p) × r+1 = (2.24) j2 (1 − p)j = j2 × (1 − p)j
j=0
r − 1 [1 − (1 − p)] pr+1 r−1 (r − 1)!(r − 1 + j − r + 1)!
j=0 j=1
X
∞
(r − 1 + j)!
Substituindo em (2.23), obtemos que: = j2 × (1 − p)j =
j=1
(r − 1)!j (j − 1)!
r(1 − p) r(1 − p)
E(X) = pr × +r = +r X
∞
(r + j − 1)!
pr+1 p = (1 − p) j (1 − p)j−1 =
j=1
(r − 1)!(j − 1)!
Logo,
r
X ∼ BinNeg(r, p) ⇒ E(X) = (2.25) Fazendo j − 1 = n, obtemos que:
p
X∞ µ ¶ X∞
Com a forma alternativa, temos que Y = X − r e, portanto, r−1+j (r + n)!
j2 (1 − p)j = (1 − p) (n + 1) (1 − p)n =
r − 1 (r − 1)!n!
r r(1 − p) j=0 n=0
E(Y ) = E(X) − r = −r = X∞
p p r(r + n)!
= (1 − p) (n + 1) (1 − p)n =
n=0
r (r − 1)!n!
2.4.5 Variância X∞ X∞
(r + n)! (r + n)!
2
Vamos calcular E(X ). Como antes, vamos usar a mudança de variável k − r = j. = r(1 − p) n (1 − p)n + r(1 − p) (1 − p)n =
n=0
r!n! n=0
r!n!
µ ¶ X∞ µ ¶ X∞ µ ¶
X
∞
k−1 r r+n r+n
E(X 2 ) = k2 p (1 − p)k−r = = r(1 − p) n (1 − p)n + r(1 − p) (1 − p)n
r−1 n=0
r n=0
n
k=r
X ∞ µ ¶
r+j−1 Usando o resultado (2.24) com r no lugar de r − 1 e o resultado (1.8) do Capítulo 1, obtemos:
= pr (j + r)2 (1 − p)j =
j=0
r−1
X ∞ µ ¶
r−1+j
= pr (r2 + 2rj + j 2 ) (1 − p)j =
j=0
r−1
X∞ µ ¶ X∞ µ ¶ X∞ µ ¶
r−1+j r−1+j r−1+j
= r2 pr (1 − p)j + 2rpr j (1 − p)j + pr j2 (1 − p)j
j=0
r−1 j=0
r−1 j=0
r−1
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 47 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 48
2
φX (t) = E(etX ) = etk P (X = k)
(1 − p) r(r + 1) (1 − p)r k=r
= + µ ¶
pr+2 pr+1 P∞ k−1 r
= etk p (1 − p)k−r
(1 − 2p + p2 )(r2 + r) + pr(1 − p) k=r r−1
= = µ ¶
pr+2 P∞ r+j−1 r
= et(j+r) p (1 − p)j
r − 2pr + p r + r − 2pr + p r + pr − p2 r
2 2 2 2 2
j=0 r−1
= = µ ¶
pr+2 P∞ ¡ ¢r r + j − 1 £ t ¤j
r2 − 2pr2 + p2 r2 + r − pr = pet e (1 − p)
= j=0 r−1
pr+2 µ ¶
¡ ¢r P ∞ r+j−1 £ t ¤j
= pet e (1 − p)
Substituindo em (2.26), obtemos que: j=0 r−1
¡ ¢r 1
= pet
[1 − et (1 − p)]r
2r2 − r2 p r2 − 2pr2 + p2 r2 + r − pr ∙ ¸r
E(X 2 ) = + pr × = pet
p pr+2 = se et (1 − p) < 1
1 − et (1 − p)
2r2 − r2 p r2 − 2pr2 + p2 r2 + r − pr
= +
p p2 Aqui fez-se uso do resultado (1.8) do Capítulo 1.
2r p − r p + r − 2pr + p2 r2 + r − pr
2 2 2 2 2
Com a forma alternativa, temos que Y = X − r; logo,
= =
p2 ∙ ¸r ∙ ¸r
pet p
r2 + r − pr φY (t) = e−rt φX (t) = e−rt = se et (1 − p) < 1
= t
1 − e (1 − p) t
1 − e (1 − p)
p2
Logo, 2.4.7 Exercícios resolvidos
µ ¶2 1. Joga-se um dado equilibrado. Qual é a probabilidade de serem necessários 10 lançamentos
r2 + r − pr r r2 + r − pr − r2
V ar(X) = 2
− = até a terceira ocorrência de um seis?
p p p2
ou Solução:
r(1 − p)
X ∼ BinNeg(r, p) ⇒ V ar(X) = (2.27) Nesse caso, sucesso é a ocorrência de face seis. Logo, Pr(sucesso) = p = 16 e Pr(fracasso)
¡ ¢=
p2 1 − p = 56 . Seja X = número de lançamentos até terceiro seis. Então, X ∼ BinNeg 3; 16 e
Para a forma alternativa, como Y = X − r, resulta que ¡ ¢ ¡ ¢7 ¡ 1 ¢3
o problema pede Pr (X = 10) = 92 56 6
= 0, 046514.
r(1 − p) 2. Deseja-se produzir 5 peças boas, em uma máquina que dá 20% de peças defeituosas. Qual é
V ar(Y ) = V ar(X) =
p2 a probabilidade de ser necessário fabricar 8 peças para se conseguir as 5 peças boas?
Solução:
Seja X = número de peças fabricadas até a obtenção de 5 boas (sucesso). Temos que Pr(peça
boa) = 0, 80 e¡ Pr(peça
¢ defeituosa) = 0, 20. Logo, X ∼ BinNeg (5; 0, 80) . O problema pede
Pr(X = 8) = 74 (0, 80)5 (0, 20)3 = 0, 0917504.
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 49 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 50
Com essa convenção, podemos “esquecer” que o valor máximo de X é 2 e podemos trabalhar
com valores de X indo de 0 até o tamanho da amostra, como no caso mais favorável ¡ ¢ em que há
bolas suficientes de ambas as cores. O único cuidado é lembrar que, por definição, nk = 0 sempre
que k > n.
Consideremos uma urna com 11 bolas, das quais 9 são verdes e 2 são brancas. Dessa urna
iremos extrair 4 bolas sem reposição. Como só há 2 bolas brancas na urna, não podemos ter 0 ou
1 bolas verdes na amostra, uma vez que isso implicaria em 4 e 3 bolas brancas, repsectivamente.
Assim, o número mínimo possível de bolas verdes na amostra é 2, ou seja, os valores possíveis de
X neste caso são 2, 3, 4 e a probabilidade de cada um desses valores é
¡9¢¡ 2 ¢
k
Pr(X = k) = ¡114−k
¢ k = 2, 3, 4 (2.30)
4
Figura 2.5: Ilustração do experimento definidor da v.a. hipergeométrica
Como no caso anterior, os valores X = 0 e X = 1 são impossíveis e, portanto, Pr(X = 0) = 0 e
Pr(X = 1) = 0. Suponhamos que usássemos a fórmula (2.30) para calcular Pr(X = 0) neste caso;
Essa é a distribuição hipergeométrica com parâmetros N, r e n. Notação: X ∼ hiper(N, r, n).
isso resultaria em ¡ ¢¡ ¢9 2 Para provar que (2.31) realmente define uma função de distribuição de probabilidade, note
0
Pr(X = 0) = ¡114−0
¢ inicialmentePque Pr (X = k) ≥ 0. Temos que provar que a probabilidade do espaço amostral é 1,
4 isto é, que k Pr (X = k) = 1, ou seja
¡¢
Definindo 24 = 0, obtemos o resultado desejado: Pr(X = 0) = 0. Analogamente, se calculássemos µ ¶µ ¶
¡¢ r N −r
Pr(X = 1) com a fórmula (2.30), apareceria o número combinatório 23 e definindo esse número
Pn k n−k
como 0, obteríamos o resultado desejado: Pr(X = 1) = 0. µ ¶ =1
Como antes, podemos trabalhar com valores de X indo de 0 até o tamanho da amostra, como k=0 N
no caso mais favorável n
¡ ¢ em que há bolas suficientes de ambas as cores. O único cuidado é lembrar
que, por definição, nk = 0 sempre que k > n. e isso é equivalente a provar que
µ ¶µ ¶ µ ¶
P
n r N −r N
2.5.2 Definição = (2.32)
k=0 k n − k n
Em termos mais gerais, o exemplo acima descreve a seguinte situação: considere uma população de
Para tal, vamos recordar a fórmula de Euler, vista anteriormente:
tamanho N (a urna com as bolas) dividida em 2 classes (duas cores), uma composta de r “sucessos”
µ ¶µ ¶ µ ¶
e a outra composta de N −r “fracassos”. Dessa população, vamos extrair uma amostra de tamanho Ps m n m+n
n sem reposição (ver Figura 2.5). = (2.33)
k=0 k s−k s
Vamos considerar a seguinte v.a. para esse experimento: Podemos ver que a expressão (2.32) nada mais é que a fórmula de Euler com m = r, n = N − r e
s = n, o que resulta que
X = número de sucessos em uma amostra retirada sem reposição. µ ¶µ ¶ µ ¶ µ ¶
¡ ¢ Pn r N −r r+N −r N
Definindo nk = 0 sempre que k > n, define-se a função de distribuição de probabilidade da = =
k=0 k n−k n n
variável aleatória X como
µ ¶µ ¶ e isso completa a prova de que (2.31) realmente define uma função de probabilidade.
r N −r
k n−k
Pr (X = k) = µ ¶ k = 0, . . . , n (2.31) 2.5.3 Esperança
N
n Por definição,
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 53 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 54
µ ¶
P
r n−1 (r − 1)! N −r
µ ¶µ ¶ = µ ¶ (j + 1) = (j = k − 1)
r N −r N j=0 j! (r − 1 − j)! n − 1 − j
µ ¶µ ¶ n
Pn k n−k 1 P n r N −r µ ¶µ ¶
E (X) = k µ ¶ =µ ¶ k = (note o índice) P
r n−1 r−1 N −r
k=0 N N k=1 k n−k = µ ¶ (j + 1) =
n n N j=0 j n−1−j
µ ¶ n
1 P n r(r − 1)! N −r "
= µ ¶ k = (porque k 6= 0) µ ¶µ ¶ n−1 µ ¶µ ¶#
N k=1 k(k − 1)! (r − k)! n − k r P r−1
n−1 N −r P r−1 N −r
= µ ¶ j + =
n N j=0 j n−1−j j=0 j n−1−j
µ ¶
r P n (r − 1)! N −r n
= µ ¶ = (j = k − 1) µ ¶⎡ µ ¶µ ¶ µ ¶µ ¶⎤
N k=1 (k − 1)! (r − k)! n − k N −1 r − 1 N − 1 − (r − 1) r − 1 N − 1 − (r − 1)
r
n n − 1 ⎢n−1 P j n−1−j P
n−1 j n−1−j ⎥
µ ¶ = µ ¶ ⎢ ⎣ j=0 j µ ¶ + µ ¶ ⎥
⎦
P
r n−1 (r − 1)! N −r N N −1 j=0 N −1
= µ ¶ =
N j=0 j! (r − 1 − j)! n − 1 − j n n−1 n−1
n Mas o primeiro somatório é a esperança de uma hipergeométrica com parâmetros N −1, n−1 e r −1
µ ¶µ ¶
P r−1 N −r−1
r n−1 e o segundo somatório é a soma das probabilidades no espaço amostral de uma hipergeométrica
= µ ¶ = (por (2.33),com n = N − r, m = r − 1, s = n − 1)
N j=0 j n−1−j com os mesmos parâmetros. Segue, então, que
n
µ ¶ µ ¶
r N −1 N −1
= µ ¶ r ∙ ¸
N n−1 ¡ ¢ n−1 r−1
E X2 = µ ¶ (n − 1) +1 =
n N N −1
rn! (N − n)! (N − 1)! n
=
N! (n − 1)! (N − n)! rn (n − 1) (r − 1) + N − 1
= ×
rn(n − 1)! (N − 1)! N N −1
=
N(N − 1)! (n − 1)! e, portanto,
Logo, rn (n − 1) (r − 1) + N − 1 n2 r2
r Var (X) = × − 2
X ∼ hiper(N, r, n) ⇒ E (X) = n (2.34) N ∙ N −1 N ¸
N
rn (n − 1) (r − 1) + N − 1 nr
= × −
2.5.4 Variância N N −1 N
∙ ¸
rn nr − n − r + 1 + N − 1 nr
Vamos calcular E(X 2 ). = × −
µ ¶µ ¶ N N −1 N
r N −r ∙ ¸
µ ¶µ ¶ rn nr − n − r + N nr
¡ ¢ Pn k n−k 1 P n r N −r = × −
E X2 = k2 µ ¶ =µ ¶ k2 = (note o índice) N N −1 N
N N k=1 k n−k ∙ ¸
k=0 rn Nnr − nN − N r + N 2 − Nnr + nr
n n = ×
N N (N − 1)
µ ¶ ∙ ¸
1 P n r(r − 1)! N −r rn −nN − Nr + N 2 + nr
= µ ¶ k2 = = ×
N k=1 k(k − 1)! (r − k)! n − k N N (N − 1)
n r N (N − n) − r (N − n)
µ ¶ = n
r P n (r − 1)! N −r N N (N − 1)
= µ ¶ k = orque k 6= 0)
N k=1 (k − 1)! (r − k)! n − k r (N − n) (N − r)
= n
n N N (N − 1)
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 55 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 56
ou seja, se é encontrado pelo menos um espécime proibido. Qual dos dois fiscais é mais favorável para
r N −rN −n o caçador em questão?
X ∼ hiper(N, r, n) ⇒ V ar (X) = n (2.35)
N N N −1
Solução:
Não iremos calcular a função geradora de momentos da distribuição hipergeométrica, uma vez
que ela não tem muita utilidade. Seja X = número de aves proibidas (sucessos) encontradas por um ¡fiscal.
¢ No caso de Manoel,
temos que X ∼ hiper(7; 2; 3) e no caso do fiscal Pedro, X ∼ bin 2; 27 . Queremos calcular
Pr (multa) = Pr (X ≥ 1) = 1 − Pr (X = 0) .
2.5.5 Distribuição binomial versus distribuição hipergeométrica ¡2¢¡5¢
2 5 35
Vamos fazer agora algumas comparações entre as distribuições binomial e hipergeométrica através Manoel: Pr (multa) = 1 − Pr (X = 0) = 1 − 0¡7¢3 = 1 − = =
3
7 7 49
do seguinte exemplo. Considere uma urna r bolas verdes e N − r bolas brancas. Dessa urna extrai- µ ¶ µ ¶2
se uma amostra de n bolas e estamos interessados na variável aleatória X = “número de bolas 2 5 25 24
Pedro: Pr (multa) = 1 − Pr (X = 0) = 1 − =1− =
verdes na amostra”. 0 7 49 49
Se as extrações são feitas com reposição, então X tem distribuição binomial com parâmetros n Logo, a probabilidade de multa é maior no caso do fiscal Manoel, e, portanto, Pedro é o fiscal
e p = Nr . Se as extrações são feitas sem reposição, então X tem distribuição hipergeom´trica com mais favorável para o caçador.
parâmetros r, n, N.
A esperança da binomial é igual ao produto do tamanho da amostra pela probabilidade de 2. Entre os 16 programadores de uma empresa, 12 são do sexo masculino. A empresa decide
r r sortear 5 programadores para fazer um curso avançado de programação. Qual é a probabili-
sucesso e, nesse caso, é n . Na hipergeométrica, a esperança também é n , que é o produto do
N N dade dos 5 sorteados serem do sexo masculino?
tamanho da amostra pela probabilidade de sucesso na primeira extração.
A variância da binomial é igual ao produto do tamanho da amostra pelas probabilidades de Solução:
³ r ´ µN − r ¶
sucesso e fracasso e, nesse caso, é é n . Na hipergeométrica, a variância é igual a Sucesso = sexo masculino. Se X = número de homens sorteados, então X ∼ hiper(16; 12; 5)
N N e o problema pede
N −n ¡12¢
esse produto, mas corrigido pelo fator .
N −1 5 12 × 11 × 10 × 9 × 8 33
Em pesquisas estatísticas por amostragem, normalmente lidamos com amostragem sem reposição. Pr (X = 5) = ¡16 ¢= = = 0, 181319
5
16 × 15 × 14 × 13 × 12 14 × 13
No entanto, os resultados teóricos sobre amostragem com reposição são bem mais simples (como
você verá na segunda parte do curso, isso equivale a lidar com variáveis independentes); assim,
costuma-se usar uma aproximação, sempre que possível. Ou seja, quando a população (tamanho 2.6 Distribuição de Poisson
N) é suficientemente grande (de modo que podemos encará-la como uma população infinita) e o
tamanho da amostra é relativamente pequeno, podemos “ignorar” o fato de as extrações serem 2.6.1 Definição
feitas sem reposição. Lembre-se que a probabilidade em extrações sucessivas são N1 , N−1
1
, . . . , N 1−n .
A variável aleatória discreta X tem distribuição de Poisson com parâmetro λ se sua função de
Então, se N é “grande” e n é pequeno, temos que N ≈ N − 1 ≈ · · · ≈ N − n. Nessas condições,
distribuição de probabilidade é dada por
extrações com e sem reposição podem ser consideradas como equivalentes. O termo que aparece
na variância da hipergeométrica, N −n
N−1
, é chamado correção para populações finitas, exatamente λk −λ
porque, se a população é pequena, não podemos ignorar o fato de as extrações estarem sendo feitas Pr(X = k) = e k = 0, 1, 2, . . .
k!
sem reposição.
Para mostrar que a expressão acima realmente define uma função de distribuição de probabil-
P∞
2.5.6 Exercícios resolvidos idade, temos que mostrar que Pr(X = k) = 1, uma vez que é óbvio que Pr(X = k) > 0. De
k=0
1. Um caçador, após um dia de caça, verificou que matou 5 andorinhas e 2 aves de uma espécie fato:
P
∞ P∞ λk P∞ λk
rara, proibida de ser caçada. Como todos os espécimes tinham o mesmo tamanho, ele os colo- Pr(X = k) = e−λ = e−λ = e−λ eλ = 1
cou na mesma bolsa, pensando em dificultar o trabalho dos fiscais. No posto de fiscalização k=0 k=0 k! k=0 k!
há dois fiscais, Manoel e Pedro, que adotam diferentes métodos de inspeção. Manoel retira Aqui fez-se uso do resultado (??) do Capítulo 1.
três espécimes de cada bolsa dos caçadores. Pedro retira um espécime, classifica-o e o repõe
na bolsa, retirando em seguida um segundo espécime. Em qualquer caso, o caçador é multado
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 57 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 58
λk+1 −λ
e
P (X = k + 1) (k + 1)! λ
= k
= k = 0, 1, 2, . . .
P (X = k) λ −λ k+1
e
k!
Suponhamos que a probabilidade máxima ocorra em k0 ; então temos que ter (usando o resultado
anterior)
P (X = k0 + 1) λ
≤ 1 =⇒ ≤ 1 =⇒ k0 ≥ λ − 1
P (X = k0 ) k0 + 1
e também
P (X = k0 ) λ X ~ Poi(2)
≥ 1 =⇒ ≥ 1 =⇒ k0 ≤ λ
P (X = k0 − 1) k0 0,3
Vemos , então, que
0,2
λ − 1 ≤ k0 ≤ λ
e como k0 tem que ser inteiro, resulta que o ponto de máximo ocorre quando k0 = [λ] , ou seja, a 0,1
moda da distribução ocorre em k0 = [λ] . Note que, se λ é inteiro, então a distribuição é bimodal,
0
com modas em k0 = λ e k0 = λ − 1, pois neste caso
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
λλ λ · λλ−1 −λ λλ−1 −λ
P (X = λ) = e−λ = e = e = P (X = λ − 1)
λ! λ · (λ − 1)! (λ − 1)! X ~ Poi(4,3)
Na Figura 2.6 ilustram-se a distribuição de Poisson para dois valores do parâmetro; note que 0,3
quando λ = 2 há duas modas (x = 1 e x = 2) e para λ = 4, 3 a moda ocorre em x = 4.
0,2
P∞ λk P∞ λk
E(X) = k e−λ = e−λ k
k=0 k! k=1 k(k − 1)!
∞ λλk−1
P P∞ λk−1 Figura 2.6: Distribuição de Poisson para λ = 2 e λ = 4, 3
−λ
= e = λe−λ
k=1 (k − 1)! k=1 (k − 1)!
P∞ λj
−λ −λ λ
= λe = λe e
j−0 j!
k µ ¶n k
(λt) λt (λt) −λt
o que nos leva ao mesmo resultado anterior: = 1 × 1 × ··· × 1 × × lim 1 − ×1= e
k! n→∞ n k!
V ar(X) = λ Aqui fêz-se uso do resultado (1.15) do Capítulo 1. Provamos, assim, o seguinte resultado:
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 61
Teorema 2.1 Sejam eventos gerados de acordo com as hipóteses H1 a H3 acima. Se X é o número
de eventos em um intervalo de tempo de comprimento t, então a função de distribuição de
probabilidade de X é
(λt)k
Pr(X = k) = exp(−λt) k = 0, 1, 2, . . . (2.37)
k!
ou seja, X tem distribuição de Poisson com parâmetro λt : X ∼ P oi(λt). Capítulo 3
Pelos resultados anteriores, μ é o número médio de ocorrências do evento de interesse em um
intervalo unitário e o número de ocorrências num intervalo qualquer é proporcional ao comprimento
do intervalo. Algumas Distribuições Contínuas
A interpretação desses resultados nos dá que o número médio de ocorrências do evento em um
intervalo de comprimento t é λt, proporcional ao comprimento. Fazendo t = 1, obtém-se o número
médio de ocorrências em um intervalo unitário.
3.1 Distribuição uniforme
2.6.6 Exercícios resolvidos
Uma variável aleatória contínua X tem distribuição uniforme no intervalo [a, b] (finito) se sua função
1. Uma central telefônica recebe uma média de 5 chamadas por minuto. Supondo que as de densidade é constante nesse intervalo, ou seja, temos que ter
chamadas cheguem segundo uma distribuição de Poisson, qual é a probabilidade de a central
não receber nenhuma chamada em um minuto? e de receber no máximo 2 chamadas em 2 f(x) = k ∀x ∈ [a, b]
minutos?
Solução: Então, o gráfico da f.d.p. de X é como o ilustrado na Figura 3.1:
Seja X = número de chamadas por minuto. Então, X ∼ P oi(5). Logo,
50
Pr(X = 0) = exp(−5) = 0, 00673795
0!
Seja Y = número de chamadas em 2 minutos. Então, Y ∼ P oi(5 × 2). Logo,
Pr(Y ≤ 2) = Pr(Y = 0) + Pr(Y = 1) + Pr(Y = 2) =
µ 0 ¶
10 101 102
= exp(−10) + + =
0! 1! 2!
= 0, 00276940
2. (Bussab & Morettin) Em um certo tipo de fabricação de fita magnética, ocorrem cortes a uma
taxa de um corte por 2000 pés. Qual é a probabilidade de que um rolo com comprimento de
4000 pés apresente no máximo dois cortes? Pelo menos dois cortes?
Solução: Figura 3.1: Densidade uniforme no intervalo [a, b]
Seja Y = número de cortes num rolo de 4000 pés. Então, Y ∼ P oi(2).
Pr(no máximo 2 cortes) = Pr(Y ≤ 2) = Pr(Y = 0) + Pr(Y = 1) + Pr(Y = 2) = Para que tal função seja uma f.d.p., temos que ter k > 0 e a área do retângulo tem que ser 1,
µ 0 ¶
2 21 22 ou seja,
= exp(−2) + + = 5 exp(−2) = 0, 676676 1
0! 1! 2! (b − a) × k = 1 ⇒ k =
b−a
Pr(pelo menos 2 cortes) = Pr(Y ≥ 2) = 1 − Pr(Y < 2) = 1 − [Pr(Y = 0) + Pr(Y = 1)] = Logo, a função de densidade de uma v.a. uniforme no intervalo [a, b] é dada por
µ 0 ¶
2 21 ½ 1
= 1 − exp(−2) + = 1 − 3 exp(−2) = 0, 593994 se x ∈ [a, b]
0! 1! f (x) = b−a (3.1)
0 caso contrário
62
CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 63 CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 64
Os valores a e b são chamados parâmetros da distribuição uniforme; note que ambos têm que ser
finitos para que a integral seja igual a 1. Quando a = 0 e b = 1 temos a uniforme padrão, denotada
por U(0, 1).
Usando a integral:
Z ¯b
b
1 1 x2 ¯¯ b2 − a2 (b − a) (a + b)
E (X) = x dx = = =
a b−a b − a 2 ¯a 2 (b − a) 2 (b − a)
ou seja,
a+b
E (X) = (3.3)
2
Figura 3.2: Função de distribuição acumulada da densidade Unif [a, b] 3.1.3 Variância
Por definição, ¡ ¢
1
Essa é a área de um retângulo com base (x − a) e altura . Logo, V ar (X) = E X 2 − [E (X)]2 ;
b−a
2
⎧ Vamos calcular E (X ) . Temos que:
⎨ 0x − a se x < a
⎪
Z ¯b
F (x) = se a ≤ x ≤ b (3.2) ¡ ¢ b
1 1 x3 ¯¯ b3 − a3 (b − a) (b2 + ab + a2 )
⎪
⎩ b−a E X2 = x2 dx = = = (3.4)
1 se x > b a b−a b − a 3 ¯a 3 (b − a) 3 (b − a)
1
Figura 3.5: Função de distribuição acumulada da v.a. exponencial - β = 2
3.2.3 Esperança
O cálculo dos momentos da distribuição exponencial se faz com auxílio de integração por partes.
A esperança é:
Z∞
1
E(X) = x e−x/β dx
β
0
Definindo
• u = x ⇒ du = dx;
• dv = β1 e−x/β dx ⇒ v = −e−x/β
O método de integração por partes nos dá que:
Z Z
Figura 3.4: Densidade exponencial - β = 1 ¯∞ ∞
1 ∞¡ ¢
2 −xe−x/β ¯0 = x e−x/β dx + −e−x/β dx
0 β 0
Pelo resultado (1.16), o lado esquerdo desta última igualdade é zero. Logo,
3.2.2 Função de distribuição acumulada ¯∞
0 = E(X) + βe−x/β ¯0 ⇒ 0 = E(X) + (0 − β)
Temos que
Z Z
x x
1 −t/β ¯x ¡ ¢ ou seja,
F (x) = Pr (X ≤ x) = f (t) dt = e dt = −e−t/β ¯0 = − e−x/β − 1 E (X) = β (3.8)
0 0 β
CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 67 CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 68
x
(a) Pr(X > 1) Fazendo a mudança de variável = t resulta
β
Solução
x = βt
Pr(X > 1) = 1 − Pr(X ≤ 1) = 1 − F (1) = 1 − [1 − e−1/4 ] = e−0.25 = 0, 7788 dx = βdt
(b) Pr(1 ≤ X ≤ 2) x = 0⇒t=0
Solução x = ∞⇒t=∞
e, portanto,
Pr(1 ≤ X ≤ 2) = Pr(X ≤ 2) − Pr(X < 1) Z ∞ Z ∞
1
= Pr(X ≤ 2) − Pr(X ≤ 1) f(x)dx = α xα−1 e−x/β dx =
0 Γ(α)β
Z 0∞
= F (2) − F (1) = [1 − e−2/4 ] − [1 − e−1/4] 1
= (βt)α−1 e−t βdt
= e−0.25 − e−0.5 = 0, 17227 Γ(α)β α 0
Z ∞
1 α
= αβ tα−1 e−t dt
2. Seja X ∼ exp(β). Calcule Pr(X > β). Γ(α)β 0
Solução 1
= Γ(α) = 1
Γ(α)
£ ¤
Pr(X > β) = 1 − Pr(X ≤ β) = 1 − F (β) = 1 − 1 − e−β/β = e−1 Logo, as duas condições para uma função de densidade são satisfeitas. Usaremos a notação
Note que essa é a probabilidade de uma v.a. exponencial ser maior que o seu valor médio; o X ∼ gama(α; β) para indicar que a variável aleatória X tem distribuição gama com parâmetros
que mostramos é que essa probabilidade é constante, qualquer que seja β. α, β.
Logo, r1 = 0 r2
x = β(α − 1) é um ponto de máximo
Vamos, agora, analisar o sinal da derivada segunda da densidade gama, estudando o sinal do
discriminante da equação dada pela expressão de h(x), para analisar a concavidade da densidade Figura 3.6: Ilustração do sinal da derivada segunda da função de densidade gama
gama:
∆ = 4β 2 (α − 1)2 − 4β 2 (α − 2)(α − 1) = 4β 2 (α − 1) (α − 1 − α + 2) = 4β 2 (α − 1) ver que, se α > 2, a derivada segunda muda de sinal em dois pontos dentro do domínio de definição
da densidade gama. Isso não ocorre se α < 2 (ou α = 2), uma vez que, neste caso a menor raíz é
Se α < 1. o discrirminante é negativo e a equação não tem raízes reais e terá sempre o sinal do negativa (nula).
coeficiente do termo quadrático, que é 1. Assim, neste caso, a concavidade é para cima. Resumindo,
se α < 1 a densidade gama é decrescente com concavidade para cima. As mesmas observações valem Mais precisamente, se α > 2 temos a seguinte situação:
para o caso em que α = 1, quando o discriminante é nulo e a equação só tem uma raiz. √ ¡√ ¢ √ ¡√ ¢
Vamos analisar agora o caso em que α > 1 : neste caso, o discriminante é sempre positivo, ou f 00 (x) < 0 se β α − 1 α − 1 − 1 < x < β α − 1 α − 1 + 1
√ ¡√ ¢ √ ¡√ ¢
seja, temos duas raizes reais distintas, calculadas da seguinte forma: f 00 (x) > 0 se x > β α − 1 α − 1 + 1 ou x < β α − 1 α − 1 − 1
2 1 √ ¡√ ¢
(α − 2)(α − 1) − (α − 1)x + 2 x2 = 0 ⇐⇒ ou seja, a¡√função de ¢densidade é côncava para cima se¡√ se x > β ¢α − 1 α − 1 + 1¡√ou x < ¢
β β √ √ √
β α − 1 α − 1 − 1 e é côncava para baixo se β α − 1 α − 1 − 1 < x < β α − 1 α − 1 + 1 ,
β 2 (α − 2)(α − 1) − 2β(α − 1)x + x2 = 0 ⇐⇒ o que indica a ocorrência de dois pontos de inflexão.
√ Quando α ≤ 2
2β(α − 1) ±
x= ⇐⇒ √
p 2 f 00 (x) < 0 se 0 < x < β(α − 1) + β α − 1
2β(α − 1) ± 2β (α − 1)(α − 1 − α + 2) √
x= ⇐⇒ f 00 (x) > 0 se x > β(α − 1) + β α − 1
2 √
x = β(α − 1) ± β α − 1 ⇐⇒ √
√ ¡√ ¢ ou seja, a função de densidade gama é√côncava para cima se x > β(α − 1) + β α − 1 e é côncava
x=β α−1 α−1±1 para baixo se 0 < x < β(α − 1) + β α − 1, o que indica a ocorrência de apenas um ponto de
√ ¡√ ¢ √ ¡√ ¢ inflexão.
A raiz r2 = β α − 1 α − 1 + 1 é sempre positiva. Já a raiz r1 = β α − 1 α − 1 − 1 só Na Figura 3.7 ilustra-se o efeito do parâmetro α sobre a densidade gama. Aí o parâmetro β
√
será positiva se α − 1 − 1 > 0, ou seja, se α > 2. está fixo (β = 2) e temos o gráfico para diferentes valores de α. Note que, para α = 1, o gráfico é
Considerando a funçãode segundo grau h(x) que define o sinal da derivada segunda, vemos que da distribuição exponencial com parâmetro β = 2 e para qualquer valor de α < 1, o gráfico terá
o coeficiente do termo quadrático é 1; assim, a função é negativa (sinal oposto ao de a) para valores essa forma. Note que para α = 2 só há um ponto de inflexão; essa situação se repetirá para valores
de x entre as raízes, e positiva (mesmo sinal de a) fora das raízes. Veja a Figura 3.6; aí podemos de α no intervalo (1, 2]. Para valores de α maiores que 2, há dois pontos de inflexão.Na Figura
CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 73 CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 74
x
3.8 ilustra-se o efeito do parâmetro β sobre a densidade gama. Aí o parâmetro α está fixo (α = 2 Fazendo a mesma mudança de variável já usada anteriormente = t temos que
ou α = 3) e temos o gráfico para diferentes valores de β. Analisando essas duas figuras, vemos β
Z ∞
que o parâmetro α tem grande influência sobre a forma da distribuição, enquanto o parâmetro β 1
tem grande influência sobre a escala (ou dispersão) da distribuição. Dessa forma, o parâmetro α é E(X) = α (βt)α e−t βdt
Γ(α)β 0
chamado parâmetro de forma, enquanto o parâmetro β é chamado parâmetro de escala. Z ∞
1 α+1
= β tα e−t dt
Γ(α)β α 0
0,5 Z ∞
0,45
β =2 =
β
tα e−t dt
Γ(α) 0
0,4
α =1 β
= Γ(α + 1)
0,35
Γ(α)
0,3 β
= αΓ(α)
0,25 Γ(α)
0,2
α =2 ou seja,
0,15 α =4 X ∼ gama(α, β) ⇒ E(X) = αβ
α =5
0,1
Z ∞ Z ∞
1
E(X 2 ) = x2 f(x)dx = α x2 xα−1 e−x/β dx
Figura 3.7: Efeito do parâmetro de forma α sobre a densidade gama 0 Γ(α)β 0
Z ∞
1 α+1 −x/β
= x e dx
Γ(α)β α 0
3.3.3 Esperança x
Fazendo a mesma mudança de variável usada anteriormente = t temos que
Se X ∼ gama(α; β) , então β
Z ∞
Z ∞ Z ∞ 1
1 E(X 2 ) = (βt)α+1 e−t βdt
E(X) = xf (x)dx = xxα−1 e−x/β dx Γ(α)β α 0
0 Γ(α)β α 0 Z ∞
Z ∞ 1 α+2
1 = αβ tα+1 e−t dt
= xα e−x/β dx Γ(α)β 0
Γ(α)β α 0 Z ∞
β2
= tα+1 e−t dt
Γ(α) 0
α =2 α =3 β2
0,4 0,3
= Γ(α + 2)
β =1 β =1 Γ(α)
0,3
0,2 β = 1,5 β2
β = 1,5
0,2
β =2 = (α + 1)Γ(α + 1)
β =2 0,1 Γ(α)
0,1
β2
0,0 0,0 = (α + 1)αΓ(α)
0 2 4 6 8 10 12 14 0 2 4 6 8 10 12 14 Γ(α)
2
= β (α + 1)α
Logo,
Figura 3.8: Efeito do parâmetro de escala sobre a densidade gama V ar(X) = β 2 (α + 1)α − (αβ)2 = α2 β 2 + αβ 2 − α2 β 2 = αβ 2
CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 75 CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 76
Resumindo: ⎧ Se X tem distribuição qui-quadrado com n graus de liberdade, representaremos este fato por
⎨ E(X) = αβ X ∼ χ2 (n). Da esperança e da variância da gama resulta que, se X ∼ χ2 (n), então
X ∼ gama(α, β) =⇒ (3.16)
⎩ n
V ar(X) = αβ 2 E(X) = ×2=n
2
n
3.3.5 Função geradora de momentos V ar(X) = × 22 = 2n
2
Por definição
Z ∞
3.4 Distribuição de Weibull
1
φX (t) = E(etX ) = E(X 2 ) = etx xα−1 e−x/β dx
Γ(α)β α 0 3.4.1 Definição
Z ∞
1 1
= xα−1 e−x( β −t) dx Uma variável aleatória X tem distribuição de Weibull com parâmetros α > 0 e β > 0 se sua função
Γ(α)β α 0
de densidade de probabilidade é dada por
1
e essa integral será finita se β
− t > 0, ou seja, se t < β1 . Neste caso, fazendo a mudança de variável α α−1
x α
−
u = x( β1 − t) resulta que f(x) = x e β x>0 (3.18)
βα
Z !α−1
Ã
1 ∞
u 1 Note que podemos reescrever essa expressão como
φX (t) = e−u 1 du µ ¶α−1 x α
Γ(α)β α0 β
1
−t β
−t α x −
à !α Z f (x) = e β x>0 (3.19)
1 1 ∞ β β
= uα−1 e−u du
Γ(α)β α β1 − t 0 e alguns autores (ver Rohatgi, por exemplo) usam um novo parâmetro η em vez de β α . Para mostrar
µ ¶α
1 β que f define uma densidade, vamos mostrar que a integral é 1. Para tal, vamos fazer a seguinte
= Γ(α) mudança de variável:
Γ(α)β α 1 − βt
µ ¶α µ ¶α−1
ou seja, x α x
1 1 u = =⇒ du =
φX (t) = t< β β β
(1 − βt)α β x = 0 =⇒ u = 0; x = ∞ =⇒ u = ∞
Fazendo uα = t resulta que u = t1/α e αuα−1 du = dt; logo, Para mostrar que f (x) realmente define uma f.d.p. resta provar que a integral é 1, uma vez que
Z ∞ Z ∞ f(x) ≥ 0. ¯∞
¡ ¢r Z ∞ µ ¶α+1 Z ∞
E(X r ) = e−t β r t1/α dt = β r tr/α e−t dt α b x−α ¯¯
dx = αbα x−α−1 dx = αbα
0
Z ∞ Z 0∞ µ ¶ b b x b −α ¯b
r+α r+α
= βr tr/α+1−1 e−t dt = β r t α −1 e−t dt = β r Γ Essa integral converge apenas se −α < 0 ou equivalentemente, α > 0, pois nesse caso limx→∞ x−α =
α
0 0
limx→∞ x1α = 0. Satisfeita esta condição, temos que
Fazendo r = 1, obtemos que ¯∞
µ ¶ x−α ¯¯ b−α
α+1 αbα = 0 − αbα =1
E(X) = βΓ −α ¯b −α
α
Fazendo r = 2 obtemos que µ ¶ 3.5.2 Esperança
α+2
E(X 2 ) = β 2 Γ
α Se X ∼ P areto(α, b) então
e, portanto, Z µ ¶α+1 Z ¯∞
∙ µ ¶ µ ¶¸ ∞
α b ∞
x−α+1 ¯¯
α+2 α+1 E(X) = x dx = αbα x−α dx = αbα
V ar(X) = β 2 Γ − Γ2 b b x b −α + 1 ¯b
α α
Para que essa integral convirja, temos que ter −α + 1 < 0, ou α > 1. Satisfeita esta condição,
µ ¶
3.4.3 Função de distribuição acumulada b−α+1 −αbα−α+1 αb
E(X) = αbα 0 − = =
Por definição, −α + 1 1−α α−1
Z x µ ¶α−1 t α
α t −
F (x) = e β dt 3.5.3 Variância
0 β β
Fazendo a mudança de variável Se X ∼ P areto(α, b) então
µ ¶α µ ¶α−1 Z µ ¶α+1 Z ¯∞
x α x
∞
α b ∞
x−α+2 ¯¯
E(X 2 ) = x2 dx = αbα x−α+1 dx = αbα
u =
β
=⇒ du =
β β b b x b −α + 2 ¯b
µ ¶α
x Para que essa integral convirja, temos que ter −α + 2 < 0, ou α > 2. Satisfeita esta condição,
t = 0 =⇒ u = 0; t = x =⇒ u = µ ¶
β b−α+2 −αbα−α+2 αb2
E(X) = αbα 0 − = =
resulta −α + 2 2−α α−2
Z µ ¶α−1 t α Z ( x )α ∙µ ¶α ¸ Logo,
x
α t ¯ x α x
e−u du = −e−u ¯(0 β ) = 1 − exp
β
−
F (x) = e β dt = µ ¶2
0 β β 0 β αb2 αb αb2 (α − 1)2 − α2 b2 (α − 2)
V ar(X) = − =
α−2 α−1 (α − 1)2 (α − 2)
3.5 Distribuição de Pareto =
2 2
αb [α − 2α + 1 − α(α − 2)]
=
αb2 [α2 − 2α + 1 − α2 + 2α]
2
(α − 1) (α − 2) (α − 1)2 (α − 2)
3.5.1 Definição αb 2
=
Uma variável aleatória X tem distribuição de Pareto com parâmetros α > 0 e b > 0 se sua função (α − 1)2 (α − 2)
de densidade de probabilidade é dada por Resumindo:
⎧ µ ¶α+1 ⎧
⎨ α b ⎪
⎪ αb
se x ≥ b ⎨ E(X) = se α > 1
f(x) = α−1
⎩ b x X ∼ P areto(α, b) =⇒
⎪ αb2 (3.20)
0 se x < b ⎪
⎩ V ar(X) = se α > 2
(α − 1)2 (α − 2)
CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 79 CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 80
Então, se definirmos
1
f(x) = xα−1 (1 − x)β−1 0<x<1 (3.21)
B(α, β)
temos que f (x) > 0 e
R1 1 R1 α B(α, β)
f (x)dx = x (1 − x)β−1 dx = =1
0 B(α, β) 0 B(α, β)
ou seja, f (x) define uma função de densidade que é chamada densidade beta com parâmetros α e
β. Lembrando a relação entre a função gama e a função beta, podemos escrever
Γ(α + β) α−1
f(x) = x (1 − x)β−1 0<x<1
Γ(α)Γ(β)
A densidade beta assume várias formas, dependendo dos valores dos parâmetros α, β. Vamos
ver alguns casos:
• α=1
Neste caso,
Γ(β + 1)
f(x) = (1 − x)β−1 = β(1 − x)β−1
Γ(β)
Logo
f 0 (x) = −β(β − 1)(1 − x)β−2
f (x) = β(β − 1)(β − 2)(1 − x)β−2
00
— β=1
Neste caso, a densidade beta coincide com a uniforme padrão.
— β<1
Neste caso, β − 1 < 0 e β − 2 < 0. Logo, f 0 (x) > 0 e f 00 (x) > 0, ou seja, f é estritamente
crescente e estritamente convexa. Figura 3.9: Função de densidade beta - parâmetro α = 1
— 1<β<2
Neste caso, β − 1 > 0 e β − 2 < 0. Logo, f 0 (x) < 0 e f 00 (x) < 0, ou seja, f é estritamente
decrescente e estritamente côncava.
— β=2
Neste caso, f(x) = 2(1 − x), que é uma reta decrescente.
— β>2
Neste caso, β − 1 > 0 e β − 2 > 0. Logo, f 0 (x) < 0 e f 00 (x) > 0, ou seja, f é estritamente
decrescente e convexa.
Dada uma v.a. contínua X com função de densidade fX (x), muitas vezes estamos interessados em
4.2 Funções inversíveis
conhecer a densidade de uma outra v.a. Y = g(x) definida como uma função de X. Quando a função g é inversível, é possível obter uma expressão para a função de densidade de Y .
Teorema 4.1 Seja X uma v.a. contínua com função de densidade fX (x) e seja Y = g(x) uma
4.1 Exemplo outra v.a. Se a função g(x) é inversível e diferenciável, então a função de densidade de Y é dada
por: ¯ ¯
Se X ∼ Unif (−1, 1), calcule a densidade de Y = g(X) = X 2 e de W = h(X) = |X| . £ ¤ ¯ dg−1 (y) ¯
Solução: fY (y) = fX g−1 (y) ¯¯ ¯ (4.1)
dy ¯
Temos que ½ 1
2
−1<x<1 Demonstração:
fX (x) =
0 x ≤ −1 ou x ≥ 1 Esse resultado segue diretamente da relação entre as funções de densidade e de distribuição
½ acumulada dada na equação (4.2):
0 ≤ g(x) < 1 0
−1 < x < 1 ⇒ fX (x) = FX (x) (4.2)
0 ≤ h(x) < 1
Para calcular a fdp de Y = g(X) = X 2 devemos notar que Suponhamos inicialmente que g(x) seja crescente; nesse caso, g0 (x) > 0 e x1 < x2 ⇒ g (x1 ) < g (x2 ) .
Então, a função de distribuição acumulada de Y é:
FY (y) = Pr(Y ≤ y) = Pr(X 2 ≤ y)
√ √ FY (y) = Pr (Y ≤ y) = Pr (g(X) ≤ y)
= Pr (− y ≤ X ≤ y)
√ √
= FX ( y) − FX (− y) Mas, conforme ilustrado na Figura 4.1, g(X) ≤ y ⇔ X ≤ g−1 (y).
e, portanto
Logo, ¡ ¢ £ ¤
d √ d √ FY (y) = Pr (g(X) ≤ y) = Pr X ≤ g −1 (y) = FX g−1 (y)
fY (y) = [FX ( y)] − [FX (− y)]
dy dy
µ ¶ Da relação entre a fdp e a fda e da regra da cadeia, segue que:
√ 1 √ 1
= FX0 ( y) √ − FX0 (− y) − √
2 y 2 y 0 0 £ ¤ dg −1 (y) £ ¤ dg−1 (y)
fY (y) = FY (y) = FX g −1 (y) = fX g −1 (y) (4.3)
√ 1 √ 1 dy dy
= fX ( y) √ + fX (− y) √
2 y 2 y
¡√ ¢ ¡ √ ¢ dg −1 (y)
√ √ Como > 0, (4.3) pode ser reescrita como
Como 0 ≤ y < 1 e −1 < − y ≤ 0, resulta que fX y = fX − y = 12 . Logo dy
½ 1 ¯ ¯
√ se 0 ≤ y < 1 £ ¤ ¯ dg −1 (y) ¯
fY (y) = FY (y) = fX g−1 (y) ¯¯ ¯
2 y 0
fY (y) = (4.4)
0 caso contrário dy ¯
81
CAPÍTULO 4. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS 83 CAPÍTULO 4. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS 84
Quando g(x) é decrescente, vale notar que que g 0 (x) < 0 e, conforme ilustrado na Figura 4.2,
g(X) ≤ y ⇔ X ≥ g−1 (y).
y e, portanto
0 0 £ ¤ dg −1 (y) £ ¤ dg−1 (y)
fY (y) = FY (y) = −FX g −1 (y) = −fX g −1 (y) (4.5)
dy dy
g( X ) ≤ y dg −1 (y)
Como < 0 (lembre que estamos considerando g decrescente agora), resulta
dy
¯ ¯
dg −1 (y) ¯¯ dg −1 (y) ¯¯
− =¯
dy dy ¯
g −1 ( y )
X ≤ g −1 ( y ) e (4.5) pode ser reescrita como
¯ ¯
£ ¤ ¯ dg −1 (y) ¯
fY (y) = FY (y) = fX g−1 (y) ¯¯ ¯
0
(4.6)
Figura 4.1: Função inversa de uma função crescente dy ¯
Os resultados (4.4) e (4.6), para funções crescentes e decrescentes, podem ser reunidos para com-
pletar a prova do teorema.
Quando a função não é monotóna, não podemos aplicar o teorema acima e nem sempre con-
seguiremos obter uma expressão usando os recursos vistos neste curso.
4.2.1 Exemplo
Seja X ∼ Unif (0, 1), isto é:
½
1 se 0 < x < 1
y fX (x) =
0 se x ≤ 0 ou x ≥ 1
ou seja µ ¶2
4
y + 0, 6 1 3
fY (y) = 3 × = (y + 0, 6)2 se − 2, 6 ≤ y ≤ −0, 6
3
2 2 8
Z Z
2 −0,6
3 3 −0,6 ¡ 3 ¢
E(Y ) = y (y + 0, 6)2 dy = y + 1, 2y 2 + 0, 36y dy
−2,6 8 8 −2,6
1 ∙ ¸−0,6
3 y4 y3 y2
= + 1, 2 + 0, 36
0 8 4 3 2 −2,6
0 1 2 3 4 5 " #
(−0,6)4
-1
3 4
+ 0, 4 × (−0, 6)3 + 0, 18 × (−0, 6)2
= 4
8 − (−2,6) 4
− 0, 4 × (−2, 6)3 − 0, 18 × (−2, 6)2
-2 3
= [0, 0321 − 0, 0864 + 0, 0648 − 11, 4244 + 7, 0304 − 1, 2168]
8
= −2, 10
Figura 4.3: Gráfico da função Y = g(X) = − ln X
Z Z
−0,6
3 3 −0,6 ¡ 4 ¢
E(Y 2 ) = y 2 (y + 0, 6)2 dy = y + 1, 2y 3 + 0, 36y 2 dy
4.2.2 Transformação linear −2,6 8 8 −2,6
∙ ¸−0,6
3 y5 y4 y3
Consideremos a tranformação Y = aX + b, que define uma reta. Se X é uma v.a. contínua = + 1, 2 + 0, 36
com densidade fX (x), então podemos aplicar o Teorema 4.1 para calcular a densidade de Y. Se 8 5 4 3 −2,6
" #
Y = g(X) = aX + b, então a função inversa é (−0.6)5
3 5
+ 0, 3 × (−0, 6)4 + 0, 12 × (−0, 6)3
= 5
Y −b 8 − (−2,6) 5
− 0, 3 × (−2, 6)4 − 0, 12 × (−2, 6)3
X = g −1 (Y ) = 3
a = [−0, 01552 + 0, 03888 − 0, 02592 + 23, 762752 − 13, 70928 + 2, 10912]
8
cuja derivada é
dg −1 (y) 1 = 12, 160032 − (2, 10)2 = 7, 750032
=
dy a
Logo, a densidade de Y é µ ¶¯ ¯
y − b ¯¯ 1 ¯¯
fY (y) = fX ¯a¯ (4.7)
a
Exemplo
Se a função de densidade da variável aleatória X é dada por
½
3x2 se − 1 ≤ x ≤ 0
f(x) =
0 se x < −1 ou x > 0
Capítulo 5
A Distribuição Normal
5.1.2 Esperança
Seja Z ∼ N(0, 1). Por definição, a esperança de Z é:
Z ∞ Z ∞ µ 2¶
1 x
E(Z) = xϕ(x)dx = √ x exp − dx
−∞ 2π −∞ 2
Como ϕ(x) é simétrica em torno do ponto x = 0, sabemos que E(Z) = 0.
5.1.3 Variância
Como E(Z) = 0 se Z ∼ N(0; 1), então
Z +∞ µ 2¶ Z +∞ µ 2¶
1 x 2 x
V ar(Z) = E(Z 2 ) = x2 √ exp − dx = √ x2 exp − dx
−∞ 2π 2 2π 0 2
uma vez que o integrando é par. Esta integral é calculada usando o método de integração por
partes. Fazendo:
µ 2¶ µ 2¶
x x
• x exp − dx = dv ⇒ v = − exp −
2 2
88
CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 89 CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 90
• x = u ⇒ dx = du ou ainda: " µ ¶2 #
1 1 x−μ
resulta que: fX (x) = √ exp −
2πσ 2 2 σ
µ 2 ¶¯∞ Z ∙ µ 2 ¶¸ Z µ 2¶
x ¯¯ ∞
x ∞
x
−x exp − = − exp − dx + x2 exp − dx (5.2) e essa é a densidade da normal N(μ; σ 2 )
2 ¯0 0 2 0 2 Diz-se, então, que, uma variável aleatória contínua X, definida para todos os valores da reta
Pelos resultados (1.16) e (1.11) real, tem densidade normal com parâmetros μ e σ 2 , onde −∞ < μ < ∞ e 0 < σ 2 < ∞, se sua
r Z ∞ µ 2¶ Z µ 2¶ r função de densidade de probabilidade é dada por
∞
π x x π ∙ ¸
0=− + x2 exp − dx =⇒ x2 exp − dx = 1 (x − μ)2
2 0 2 0 2 2 f(x) = √ exp − −∞<x<∞ . (5.5)
2πσ 2 2σ 2
Logo, r
2 π Usaremos a seguinte notação para indicar que uma v.a. X tem distribuição normal com parâmetros
Var(Z) = √ × ⇒ Var(Z) = 1 (5.3) μ e σ 2 : X ∼ N(μ, σ2 ).
2π 2
5.2 Distribuição N(μ; σ 2) e assim, x = μ é um ponto crítico. Como f 0 (x) > 0 para x < μ e f 0 (x) < 0 para x > μ,
então f é crescente à esquerda de μ e decrescente à direita de μ. Segue, então, que x = μ é
Seja Z ∼ N(0; 1) e vamos definir uma nova v.a. por X = g(Z) = μ + σZ, em que σ > 0. Usando o um ponto de máximo e nesse ponto
resultado (4.7), temos que:
" 1
µ ¶ µ ¶2 # f(μ) = √ (5.8)
x−μ 1 1 1 x−μ 1 2πσ 2
fX (x) = fZ × = √ exp − ×
σ σ 2π 2 σ σ
CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 91 CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 92
¡ ¢
4. Pontos de inflexão 5.2.2 Parâmetros da N μ; σ2
Analisando a segunda derivada dada por (5.7), tem-se que: Se X ∼ N (μ; σ2 ) , então X = μ + σZ, em que Z ∼ N(0; 1). Vimos que E(Z) = 0 e V ar(Z) = 1.
½ Das propriedades de média e variância, sabemos que, se X é uma v.a. e k1 6= 0 e k2 são constantes
00 x=μ+σ
f (x) = 0 ⇔ (x − μ)2 = σ 2 ⇔ |x − μ| = σ ⇔ (5.9) quaisquer, então
x=μ−σ
Além disso, E(k1 X + k2 ) = k1 E(X) + k2 (5.12)
00
Var(k1 X + k2 ) = k12 Var (X)
f (x) > 0 ⇔ (x − μ)2 > σ 2 ⇔ |x − μ| > σ ⇔
⇔ x − μ > σ ou μ−x>σ (5.10) Resulta, então, que se X ∼ N (μ; σ 2 ) então
⇔ x > μ + σ ou x<μ−σ E(X) = μ + σE(Z) = μ + 0 ⇒ E (X) = μ (5.13)
e e
00 2 2
f (x) < 0 ⇔ (x − μ) < σ ⇔ |x − μ| < σ ⇔ Var (X) = σ2 Var (Z) = σ 2 × 1 ⇒ Var (X) = σ 2 (5.14)
½
x−μ<σ Resumindo: ½
⇔ ⇔μ−σ <x<μ+σ (5.11) ¡ ¢ E(X) = μ
μ−x<σ X ∼ N μ; σ 2 =⇒ (5.15)
V ar(X) = σ 2
Logo, f(x) é côncava para cima se x > μ + σ ou x < μ − σ e é côncava para baixo quando
μ − σ < x < μ + σ. Os parâmetros da densidade normal são, então, a média e a variância, que são medidas de
2
posição e dispersão respectivamente. Valores diferentes de μ deslocam o eixo de simetria da curva
Na Figura 5.1 é apresentado o gráfico da densidade normal no caso em que μ = 3 e σ = 1.Aí a e valores diferentes de σ 2 mudam a dispersão da curva. Quanto maior σ 2 , mais “espalhada” é a
linha pontilhada central representa o eixo de simetria e as linhas pontilhadas laterais passam pelos curva; mas o ponto de máximo, dado pela equação (5.8), é inversamente proporcional a σ 2 . Logo,
pontos de inflexão 3 ± 1. quanto maior σ 2 , mais “espalhada” e mais “achatada” é a curva. A questão é que a forma é sempre
a de um “sino”. Na Figura 5.2 temos exemplos de densidades normais com a mesma variância, mas
com médias diferentes. O efeito é o “delocamento” da densidade. Já na Figura 5.3, temos duas
0,5 densidades com a mesma média, mas variâncias diferentes. O efeito é que a densidade com maior
variância é mais dispersa e achatada.
0,4
N(3;1)
5.2.3 Função geradora de momentos
0,3
Se X ∼ N(μ; σ2 ) então X = σZ + μ, onde Z ∼ N (0; 1) com função geradora de mometnos dada
2
por φZ (t) = et /2 .
0,2
Como X é uma transformação linear de Z, resulta que a função geradora de momentos de X
é dada por
2 2
0,1 φX (t) = eμt φZ (σt) = eμt eσ t /2
ou seja, µ ¶
σ 2 t2
0,0 φX (t) = exp μt +
-5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10 2
Note que φX (0) = 1. Calculando a derivada primeira tem-se que
¡ ¢
φ0X (t) = φX (t) μ + tσ 2
Figura 5.1: Densidade normal com média μ = 3 e variância σ2 = 1
e, portanto,
E(X) = φ0X (0) = φX (0) (μ) = μ
CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 93 CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 94
0,2
5.3 Função de distribuição acumulada
A função de distribuição acumulada de qualquer v.a. X é definida por FX (X) = Pr (X ≤ x) . No
0,1 caso da densidade normal, essa função é dada pela integral
Z x " µ ¶2 #
1 1 t−μ
0,0 F (x) = √ exp − dt (5.16)
-5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10 −∞ 2πσ 2 2 σ
para a qual não existe uma antiderivada em forma de função elementar. Assim, a f.d.a. da normal é
calculada por integração numérica. Todos os pacotes estatísticos possuem rotinas especiais para esse
Figura 5.2: Exemplos de densidades normais com mesma variância e médias diferentes cálculo. No EXCEL, a função DIST.NORM calcula Pr (X ≤ x) para qualquer x e para quaisquer
valores dos parâmetros μ e σ. Com auxílio dessa função, obtemos os seguintes gráficos da f.d.a.
para as densidades N(0, 1), N(3, 1) e N(3, 2) ilustrados na Figura 5.4.
Vamos denotar por Φ(z) a f.d.a. da densidade normal padrão, isto é:
Z z Z z µ 2¶
1 t
Φ(z) = ϕ(t)dt = √ exp − dt (5.17)
−∞ 2π −∞ 2
0,5
Note que, pela simetria da densidade em torno da média μ, sempre teremos Φ(μ) = 0, 5.
0,4
N(3;1)
5.4 Tabulação da distribuição normal padrão
0,3
1,2
N(0;1)
1,0
0,8
N(3;2)
0,6
N(3;1)
0,4
0,2
0,0
-6 -4 -2 0 2 4 6 8 10
ter diferentes valores para os parâmetros μ e σ, seria necessária a geração de uma tabela para cada
par μ, σ. Mas isso não é preciso, pois o resultado a seguir garante que probabilidades de qualquer
variável normal podem ser calculadas a partir das probabilidades da normal padrão.
De fato, já foi visto que se X ∼ N (μ, σ2 ) , então X = μ + σZ, onde Z ∼ N(0, 1). Vamos ver
como utilizar esse resultado para calcular probabilidades da normal. Temos que
µ ¶ µ ¶ µ ¶
X −μ x−μ x−μ x−μ
Pr (X ≤ x) = Pr ≤ = Pr Z ≤ =Φ (5.18)
σ σ σ σ
Na Figura 5.5 ilustra-se esse fato, utilizando as densidades Z ∼ N(0; 1) e X ∼ N(3; 4). No
gráfico inferior a área sombreada representa Pr(X ≤ 5) e, no gráfico superior, a área sombreada
representa a probabilidade equivalente:
µ ¶
X −3 5−3
Pr(X ≤ 5) = Pr ≤ = Pr(Z ≤ 1)
2 2
Esse resultado mostra que probabilidades de qualquer variável normal podem ser obtidas a partir
de probabilidades da normal padrão e, assim, só é necessário tabular a distribuição normal padrão;
qualquer livro de estatística apresenta alguma versão de tal tabela e programas de computador
também podem ser usados para tal. No EXCEL, por exemplo, há duas funções para cálculo de
probabilidades de normais. A função DIST.NORMP lida com a normal padrão, enquanto a função
DIST.NORM lida com normais de parâmetros quaisquer. Essas rotinas foram utilizadas para Figura 5.5: Ilustração da propriedade (5.18)
construir os gráficos anteriores e também as tabelas do Anexo, que são as tabelas usuais para a
distribuição normal padrão. Na Tabela 1 é dada a distribuição acumulada: para cada valor de z,
tem-se o valor de Φ(z) = Pr(Z ≤ z). Na Tabela 2, usa-se o fato de a distribuição normal ser simétrica
para “economizar” no tamanho da tabela e apresenta-se, para cada z > 0, tab(z) = Pr(0 ≤ Z ≤ z).
CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 97 CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 98
A partir de qualquer uma delas é possível calcular a probabilidade de qualquer evento associado à
distribuição normal.
5.5 Exemplos
Seja Z ∼ N(0, 1). Calcule:
1. Pr (0 ≤ Z ≤ 1)
Essa probabilidade corresponde à área sombreada na Figura 5.6. Pela Tabela 1, temos:
Pr (0 ≤ Z ≤ 1) = tab(1) = 0, 34134
3. Pr(−1 ≤ Z ≤ 0)
Essa probabilidade corresponde à área sombreada na Figura 5.8. Pela Tabela 1, temos:
Pr (−1 < Z < 0) = Pr(−1 ≤ Z ≤ 0) = Φ(0) − Φ(−1) = 0, 5 − 0, 15866 = 0, 34134
Pela Tabela 2, temos que (note a simetria das áreas!)
Pr (−1 < Z < 0) = Pr(−1 ≤ Z ≤ 0) = Pr(0 ≤ Z ≤ 1) = tab(1) = 0, 34134
Quando a variável tem distribuição normal qualquer, basta usar o resultado (5.18).
7. Se X ∼ N (2, 4) calcule Pr (−1 ≤ X ≤ 5) . Temos que (veja Figura 5.12)
µ ¶
−1 − 2 X −2 5−2
Pr (−1 ≤ X ≤ 5) = Pr √ ≤ √ ≤ √ = Pr (−1, 5 ≤ Z ≤ 1, 5) =
4 4 4
= 2 Pr (0 ≤ Z ≤ 1, 5) = 2 × tab(1, 5) = 2 × 0, 43319 = 0, 86638
Figura 5.11: Cálculo de probabilidades normais - Exemplo 6 Figura 5.13: Cálculo de probabilidades normais - Exemplo 8
Figura 5.12: Cálculo de probabilidades normais - Exemplo 7 Figura 5.14: Cálculo de probabilidades normais - Exemplo 9
CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 103 CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 104
10. Se X ∼ N (μ, σ2 ) , calcule Pr (μ − 2σ ≤ X ≤ μ + 2σ) . Temos que (veja Figura 5.15): Então, na Tabela 2, temos que procurar, no corpo da tabela, a abscissa que corresponde à
µ ¶ área de 0,45. É fácil ver que essa abscissa é 1,64, ou seja:
μ − 2σ − μ μ + 2σ − μ
Pr (μ − 2σ ≤ X ≤ μ + 2σ) = Pr ≤Z≤ = k−2
σ σ = 1, 64 =⇒ k = 2 + 3 × 1.64 = 6, 92
3
= Pr (−2 ≤ Z ≤ 2) = 2 × Pr (0 ≤ Z ≤ 2) =
= 2 × tab(2, 0) = 2 × 0, 47725 = 0, 9545 ' 95%
Note que essa probabilidade não depende dos parâmetros μ e σ. Isso significa que a probabi-
lidade de uma v.a. normal estar compreendida entre dois desvios padrões em torno da média
é sempre 95%!
12. Se X ∼ N(2; 9), encontre o valor de k tal que Pr(X < k) = 0, 10.
Solução:
Figura 5.15: Cálculo de probabilidades normais - Exemplo 10 Como no exemplo anterior, dada a probabilidade de um evento, queremos encontrar a abscissa
correspondente. Nesse exemplo, podemos observar que a abscissa k tem que estar do lado
11. Se X ∼ N(2; 9), encontre o valor de k tal que Pr(X < k) = 0, 95. esquerdo da curva, ou seja, abaixo da média, uma vez que a probabilidade abaixo dela tem
Solução: que ser menor do que 0,5.
Aqui, estamos analisando um problema inverso: dada a probabilidade de um evento, queremos Em termos da probabilidade equivalente da normal padrão :
µ ¶ µ ¶
encontrar a abscissa correspondente. Nesse exemplo, podemos observar que a abscissa k tem X −2 k−2 k−2
Pr(X < k) = 0, 10 ⇐⇒ Pr < = 0, 10 ⇐⇒ Pr Z < = 0, 10
que estar do lado direito da curva, ou seja, acima da média, uma vez que a probabilidade 3 3 3
abaixo dela tem que ser maior do que 0,5.
Veja a Figura 5.17. Se abaixo da abscissa k−2 3
temos área de 0,10, pela simetria da curva,
Para resolver este problema, devemos, como antes, obter a probabilidade equivalente em
temso que ter área 0,10 acima da abscissa simétrica. Ou seja, acima de − k−2
3
temos área 0,10
termos da normal padrão (veja a Figura 5.16):
e, portanto, a área entre 0 e − k−2 tem que ser 0,40.
µ ¶ µ
3
¶ µ ¶
X −2 k−2 k−2 k−2
Pr(X < k) = 0, 95 ⇐⇒ Pr < = 0, 95 ⇐⇒ Pr Z < = 0, 10 ⇐⇒ Pr Z > − = 0, 10 ⇐⇒
3 3 3 3
µ ¶ µ ¶ µ ¶ µ ¶
k−2 k−2 k−2 k−2
Pr Z < = 0, 95 ⇐⇒ Pr(Z < 0) + Pr 0 ≤ Z < = 0, 95 ⇐⇒ Pr 0 ≤ Z ≤ − = 0, 40 ⇐⇒ tab − = 0, 40 ⇐⇒
3 3 3 3
µ ¶ µ ¶
k−2 k−2 k−2
0, 5 + tab = 0, 95 ⇐⇒ tab = 0, 45 − = 1, 28 ⇐⇒ −k + 2 = 3, 84 ⇐⇒ k = −1, 84
3 3 3
CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 105 CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 106
ou ainda: " µ ¶2 #
1 1 ln y − μ
fY (y) = √ exp − y>0
y 2πσ 2 2 σ
5.6.2 Esperança
A esperança de Y é:
Z " µ ¶2 #
∞
1 1 ln y − μ
E(Y ) = y √ exp − dy
0 y 2πσ 2 2 σ
• t = ln y
temos que
• y = 0 ⇒ t = −∞
• y=∞⇒t=∞
Figura 5.17: Determinação de abscissas de curvas normais - Exemplo 12
• dt = y1 dy
• y = et
5.6 A distribuição log-normal
e, portanto
5.6.1 Definição Z " µ ¶2 # Z ∞ " µ ¶2 #
∞
1 1 t−μ 1 1 t−μ
2 X
Seja X ∼ N(μ, σ ). Se definimos uma nova v.a. Y = e então diz-se que Y tem distribuição log- E(Y ) = √ et exp − dt = √ exp − + t dt
2πσ 2 −∞ 2 σ 2πσ 2 −∞ 2 σ
normal com parâmetros μ e σ 2 . Reciprocamente, se Y tem distribuição log-normal, então X = ln Y Z ∞ ∙ 2 ¸
2 2
tem distribuição N(μ, σ2 ). 1 t − 2tμ + μ − 2σ t
= √ exp − dt =
Vamos calcular a f.d.p. de uma v.a. log-normal a partir de sua função de distribuição acumulada. 2πσ 2 −∞ 2σ 2
Z ∞ ∙ 2 ¸
Note que Y só pode assumir valores positivos. Temos que: 1 t − 2t (μ + σ 2 ) + μ2
= √ exp − dt
¡ ¢ 2
2πσ −∞ 2σ 2
FY (y) = Pr (Y ≤ y) = Pr eX ≤ y = Pr (X ≤ ln y) = Z ∞ ∙ 2 ¸ µ ¶
µ ¶ µ ¶ 1 t − 2t (μ + σ 2 ) μ2
X −μ ln y − μ ln y − μ = √ exp − exp − dt =
= Pr ≤ = Pr Z ≤ 2πσ 2 −∞ 2σ 2 2σ 2
σ σ σ µ ¶ Z
∞ " #
µ ¶ μ2 1
2
t2 − 2t (μ + σ 2 ) + (μ + σ 2 ) − (μ + σ 2 )
2
ln y − μ = exp − 2 √ exp − dt
= Φ y>0 2σ 2σ 2
σ 2πσ 2
−∞
µ ¶ Z∞ ( ) Ã !
2 2
Sabemos que fY (y) = F 0 (y) e, também, no caso da normal padrão, Φ0 (z) = ϕ(z). Logo, pela μ2 1 [t − (μ + σ 2 )] (μ + σ2 )
regra da cadeia, = exp − 2 √ exp − exp dt
2σ 2πσ 2 2σ 2 2σ 2
µ ¶ µ ¶ −∞
ln y − μ 1 ln y − μ 1 Ã !⎡ Z∞ ( ) ⎤
fY (y) = Φ0 × =ϕ × = μ2
2
(μ + σ 2 ) ⎣ 1 [t − (μ + σ 2 )]
2
σ
"
σy σ σy = exp − 2 + √ exp − dt⎦
µ ¶2 # 2σ 2σ 2 2πσ 2 2σ 2
1 1 ln y − μ 1 −∞
= √ exp − ×
2π 2 σ σy
CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 107 CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 108
Mas o termo entre os colchetes externos é a integral de uma densidade normal com média e
λ = (μ + σ2 ) e variância σ 2 ; logo, essa integral é 1 e, portanto: ∙ µ ¶¸2
¡ ¢ σ2
à 2
! µ 2 ¶ Var(Y ) = exp 2μ + 2σ2 − exp μ + =
μ2 (μ + σ 2 ) −μ + μ2 + 2μσ2 + σ 4 2
E(Y ) = exp − 2 + = exp ⇒ ∙ µ ¶¸
2σ 2σ 2 2σ 2 ¡ ¢ σ 2
9 8 7 6 5 4 3 2 1 0
-3,5 0,00017 0,00017 0,00018 0,00019 0,00019 0,00020 0,00021 0,00022 0,00022 0,00023
-3,4 0,00024 0,00025 0,00026 0,00027 0,00028 0,00029 0,00030 0,00031 0,00032 0,00034
-3,3 0,00035 0,00036 0,00038 0,00039 0,00040 0,00042 0,00043 0,00045 0,00047 0,00048
-3,2 0,00050 0,00052 0,00054 0,00056 0,00058 0,00060 0,00062 0,00064 0,00066 0,00069
-3,1 0,00071 0,00074 0,00076 0,00079 0,00082 0,00084 0,00087 0,00090 0,00094 0,00097
-3,0 0,00100 0,00104 0,00107 0,00111 0,00114 0,00118 0,00122 0,00126 0,00131 0,00135
-2,9 0,00139 0,00144 0,00149 0,00154 0,00159 0,00164 0,00169 0,00175 0,00181 0,00187
-2,8 0,00193 0,00199 0,00205 0,00212 0,00219 0,00226 0,00233 0,00240 0,00248 0,00256
-2,7 0,00264 0,00272 0,00280 0,00289 0,00298 0,00307 0,00317 0,00326 0,00336 0,00347
-2,6 0,00357 0,00368 0,00379 0,00391 0,00402 0,00415 0,00427 0,00440 0,00453 0,00466
-2,5 0,00480 0,00494 0,00508 0,00523 0,00539 0,00554 0,00570 0,00587 0,00604 0,00621
-2,4 0,00639 0,00657 0,00676 0,00695 0,00714 0,00734 0,00755 0,00776 0,00798 0,00820
-2,3 0,00842 0,00866 0,00889 0,00914 0,00939 0,00964 0,00990 0,01017 0,01044 0,01072
-2,2 0,01101 0,01130 0,01160 0,01191 0,01222 0,01255 0,01287 0,01321 0,01355 0,01390
-2,1 0,01426 0,01463 0,01500 0,01539 0,01578 0,01618 0,01659 0,01700 0,01743 0,01786
-2,0 0,01831 0,01876 0,01923 0,01970 0,02018 0,02068 0,02118 0,02169 0,02222 0,02275
-1,9 0,02330 0,02385 0,02442 0,02500 0,02559 0,02619 0,02680 0,02743 0,02807 0,02872
-1,8 0,02938 0,03005 0,03074 0,03144 0,03216 0,03288 0,03362 0,03438 0,03515 0,03593
-1,7 0,03673 0,03754 0,03836 0,03920 0,04006 0,04093 0,04182 0,04272 0,04363 0,04457
-1,6 0,04551 0,04648 0,04746 0,04846 0,04947 0,05050 0,05155 0,05262 0,05370 0,05480
-1,5 0,05592 0,05705 0,05821 0,05938 0,06057 0,06178 0,06301 0,06426 0,06552 0,06681
-1,4 0,06811 0,06944 0,07078 0,07215 0,07353 0,07493 0,07636 0,07780 0,07927 0,08076
-1,3 0,08226 0,08379 0,08534 0,08692 0,08851 0,09012 0,09176 0,09342 0,09510 0,09680
-1,2 0,09853 0,10027 0,10204 0,10383 0,10565 0,10749 0,10935 0,11123 0,11314 0,11507
-1,1 0,11702 0,11900 0,12100 0,12302 0,12507 0,12714 0,12924 0,13136 0,13350 0,13567
-1,0 0,13786 0,14007 0,14231 0,14457 0,14686 0,14917 0,15151 0,15386 0,15625 0,15866
-0,9 0,16109 0,16354 0,16602 0,16853 0,17106 0,17361 0,17619 0,17879 0,18141 0,18406
-0,8 0,18673 0,18943 0,19215 0,19489 0,19766 0,20045 0,20327 0,20611 0,20897 0,21186
-0,7 0,21476 0,21770 0,22065 0,22363 0,22663 0,22965 0,23270 0,23576 0,23885 0,24196
-0,6 0,24510 0,24825 0,25143 0,25463 0,25785 0,26109 0,26435 0,26763 0,27093 0,27425
-0,5 0,27760 0,28096 0,28434 0,28774 0,29116 0,29460 0,29806 0,30153 0,30503 0,30854
-0,4 0,31207 0,31561 0,31918 0,32276 0,32636 0,32997 0,33360 0,33724 0,34090 0,34458
-0,3 0,34827 0,35197 0,35569 0,35942 0,36317 0,36693 0,37070 0,37448 0,37828 0,38209
-0,2 0,38591 0,38974 0,39358 0,39743 0,40129 0,40517 0,40905 0,41294 0,41683 0,42074
-0,1 0,42465 0,42858 0,43251 0,43644 0,44038 0,44433 0,44828 0,45224 0,45620 0,46017
0,0 0,46414 0,46812 0,47210 0,47608 0,48006 0,48405 0,48803 0,49202 0,49601 0,50000
CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 111 CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 112
Tabela 2
Tabela 1 Distribuição Normal Padrão Z ~N();1)
Função de Distribuição Acumulada
A tabela dá P(0 < Z < z)
Normal Padrão
Z ~ N (0;1)
Φ( z ) = Pr( Z ≤ z ) Casa
inteira e
Segunda casa decimal
primeira
0 1 2 3 4 5 6 7 8 9
decimal
0,0 0,0000 0,0040 0,0080 0,0120 0,0160 0,0199 0,0239 0,0279 0,0319 0,0359
0 1 2 3 4 5 6 7 8 9 0,1 0,0398 0,0438 0,0478 0,0517 0,0557 0,0596 0,0636 0,0675 0,0714 0,0753
0,0 0,50000 0,50399 0,50798 0,51197 0,51595 0,51994 0,52392 0,52790 0,53188 0,53586 0,2 0,0793 0,0832 0,0871 0,0910 0,0948 0,0987 0,1026 0,1064 0,1103 0,1141
0,1 0,53983 0,54380 0,54776 0,55172 0,55567 0,55962 0,56356 0,56749 0,57142 0,57535 0,3 0,1179 0,1217 0,1255 0,1293 0,1331 0,1368 0,1406 0,1443 0,1480 0,1517
0,2 0,57926 0,58317 0,58706 0,59095 0,59483 0,59871 0,60257 0,60642 0,61026 0,61409 0,4 0,1554 0,1591 0,1628 0,1664 0,1700 0,1736 0,1772 0,1808 0,1844 0,1879
0,3 0,61791 0,62172 0,62552 0,62930 0,63307 0,63683 0,64058 0,64431 0,64803 0,65173
0,5 0,1915 0,1950 0,1985 0,2019 0,2054 0,2088 0,2123 0,2157 0,2190 0,2224
0,4 0,65542 0,65910 0,66276 0,66640 0,67003 0,67364 0,67724 0,68082 0,68439 0,68793
0,6 0,2257 0,2291 0,2324 0,2357 0,2389 0,2422 0,2454 0,2486 0,2517 0,2549
0,5 0,69146 0,69497 0,69847 0,70194 0,70540 0,70884 0,71226 0,71566 0,71904 0,72240
0,7 0,2580 0,2611 0,2642 0,2673 0,2704 0,2734 0,2764 0,2794 0,2823 0,2852
0,6 0,72575 0,72907 0,73237 0,73565 0,73891 0,74215 0,74537 0,74857 0,75175 0,75490
0,7 0,75804 0,76115 0,76424 0,76730 0,77035 0,77337 0,77637 0,77935 0,78230 0,78524 0,8 0,2881 0,2910 0,2939 0,2967 0,2995 0,3023 0,3051 0,3078 0,3106 0,3133
0,8 0,78814 0,79103 0,79389 0,79673 0,79955 0,80234 0,80511 0,80785 0,81057 0,81327 0,9 0,3159 0,3186 0,3212 0,3238 0,3264 0,3289 0,3315 0,3340 0,3365 0,3389
0,9 0,81594 0,81859 0,82121 0,82381 0,82639 0,82894 0,83147 0,83398 0,83646 0,83891 1,0 0,3413 0,3438 0,3461 0,3485 0,3508 0,3531 0,3554 0,3577 0,3599 0,3621
1,0 0,84134 0,84375 0,84614 0,84849 0,85083 0,85314 0,85543 0,85769 0,85993 0,86214 1,1 0,3643 0,3665 0,3686 0,3708 0,3729 0,3749 0,3770 0,3790 0,3810 0,3830
1,1 0,86433 0,86650 0,86864 0,87076 0,87286 0,87493 0,87698 0,87900 0,88100 0,88298 1,2 0,3849 0,3869 0,3888 0,3907 0,3925 0,3944 0,3962 0,3980 0,3997 0,4015
1,2 0,88493 0,88686 0,88877 0,89065 0,89251 0,89435 0,89617 0,89796 0,89973 0,90147 1,3 0,4032 0,4049 0,4066 0,4082 0,4099 0,4115 0,4131 0,4147 0,4162 0,4177
1,3 0,90320 0,90490 0,90658 0,90824 0,90988 0,91149 0,91308 0,91466 0,91621 0,91774
1,4 0,4192 0,4207 0,4222 0,4236 0,4251 0,4265 0,4279 0,4292 0,4306 0,4319
1,4 0,91924 0,92073 0,92220 0,92364 0,92507 0,92647 0,92785 0,92922 0,93056 0,93189
1,5 0,4332 0,4345 0,4357 0,4370 0,4382 0,4394 0,4406 0,4418 0,4429 0,4441
1,5 0,93319 0,93448 0,93574 0,93699 0,93822 0,93943 0,94062 0,94179 0,94295 0,94408
1,6 0,4452 0,4463 0,4474 0,4484 0,4495 0,4505 0,4515 0,4525 0,4535 0,4545
1,6 0,94520 0,94630 0,94738 0,94845 0,94950 0,95053 0,95154 0,95254 0,95352 0,95449
1,7 0,95543 0,95637 0,95728 0,95818 0,95907 0,95994 0,96080 0,96164 0,96246 0,96327 1,7 0,4554 0,4564 0,4573 0,4582 0,4591 0,4599 0,4608 0,4616 0,4625 0,4633
1,8 0,96407 0,96485 0,96562 0,96638 0,96712 0,96784 0,96856 0,96926 0,96995 0,97062 1,8 0,4641 0,4649 0,4656 0,4664 0,4671 0,4678 0,4686 0,4693 0,4699 0,4706
1,9 0,97128 0,97193 0,97257 0,97320 0,97381 0,97441 0,97500 0,97558 0,97615 0,97670 1,9 0,4713 0,4719 0,4726 0,4732 0,4738 0,4744 0,4750 0,4756 0,4761 0,4767
2,0 0,97725 0,97778 0,97831 0,97882 0,97932 0,97982 0,98030 0,98077 0,98124 0,98169 2,0 0,4772 0,4778 0,4783 0,4788 0,4793 0,4798 0,4803 0,4808 0,4812 0,4817
2,1 0,98214 0,98257 0,98300 0,98341 0,98382 0,98422 0,98461 0,98500 0,98537 0,98574 2,1 0,4821 0,4826 0,4830 0,4834 0,4838 0,4842 0,4846 0,4850 0,4854 0,4857
2,2 0,98610 0,98645 0,98679 0,98713 0,98745 0,98778 0,98809 0,98840 0,98870 0,98899 2,2 0,4861 0,4864 0,4868 0,4871 0,4875 0,4878 0,4881 0,4884 0,4887 0,4890
2,3 0,98928 0,98956 0,98983 0,99010 0,99036 0,99061 0,99086 0,99111 0,99134 0,99158
2,3 0,4893 0,4896 0,4898 0,4901 0,4904 0,4906 0,4909 0,4911 0,4913 0,4916
2,4 0,99180 0,99202 0,99224 0,99245 0,99266 0,99286 0,99305 0,99324 0,99343 0,99361
2,4 0,4918 0,4920 0,4922 0,4925 0,4927 0,4929 0,4931 0,4932 0,4934 0,4936
2,5 0,99379 0,99396 0,99413 0,99430 0,99446 0,99461 0,99477 0,99492 0,99506 0,99520
2,5 0,4938 0,4940 0,4941 0,4943 0,4945 0,4946 0,4948 0,4949 0,4951 0,4952
2,6 0,99534 0,99547 0,99560 0,99573 0,99585 0,99598 0,99609 0,99621 0,99632 0,99643
2,7 0,99653 0,99664 0,99674 0,99683 0,99693 0,99702 0,99711 0,99720 0,99728 0,99736 2,6 0,4953 0,4955 0,4956 0,4957 0,4959 0,4960 0,4961 0,4962 0,4963 0,4964
2,8 0,99744 0,99752 0,99760 0,99767 0,99774 0,99781 0,99788 0,99795 0,99801 0,99807 2,7 0,4965 0,4966 0,4967 0,4968 0,4969 0,4970 0,4971 0,4972 0,4973 0,4974
2,9 0,99813 0,99819 0,99825 0,99831 0,99836 0,99841 0,99846 0,99851 0,99856 0,99861 2,8 0,4974 0,4975 0,4976 0,4977 0,4977 0,4978 0,4979 0,4979 0,4980 0,4981
3,0 0,99865 0,99869 0,99874 0,99878 0,99882 0,99886 0,99889 0,99893 0,99896 0,99900 2,9 0,4981 0,4982 0,4982 0,4983 0,4984 0,4984 0,4985 0,4985 0,4986 0,4986
3,1 0,99903 0,99906 0,99910 0,99913 0,99916 0,99918 0,99921 0,99924 0,99926 0,99929 3,0 0,4987 0,4987 0,4987 0,4988 0,4988 0,4989 0,4989 0,4989 0,4990 0,4990
3,2 0,99931 0,99934 0,99936 0,99938 0,99940 0,99942 0,99944 0,99946 0,99948 0,99950 3,1 0,4990 0,4991 0,4991 0,4991 0,4992 0,4992 0,4992 0,4992 0,4993 0,4993
3,3 0,99952 0,99953 0,99955 0,99957 0,99958 0,99960 0,99961 0,99962 0,99964 0,99965
3,2 0,4993 0,4993 0,4994 0,4994 0,4994 0,4994 0,4994 0,4995 0,4995 0,4995
3,4 0,99966 0,99968 0,99969 0,99970 0,99971 0,99972 0,99973 0,99974 0,99975 0,99976
3,3 0,4995 0,4995 0,4995 0,4996 0,4996 0,4996 0,4996 0,4996 0,4996 0,4997
3,5 0,99977 0,99978 0,99978 0,99979 0,99980 0,99981 0,99981 0,99982 0,99983 0,99983
3,4 0,4997 0,4997 0,4997 0,4997 0,4997 0,4997 0,4997 0,4997 0,4997 0,4998
3,5 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998
3,6 0,4998 0,4998 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999
3,7 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999
3,8 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999
3,9 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000
4,0 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000