You are on page 1of 58

Conteúdo

UNIVERSIDADE FEDERAL FLUMINENSE


1 Alguns Resultados de Cálculo 1
INSTITUTO DE MATEMÁTICA 1.1 Séries geométricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 A função logarítmica natural . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 A função exponencial natural . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Funções pares e ímpares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5 Integrais duplas com coordenadas polares . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5.1 Exemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5.2 Exercício resolvido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.6 Mudança de variáveis em integrais duplas . . . . . . . . . . . . . . . . . . . . . . . . 15
1.7 Funções exponencial e logarítmica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
DEPARTAMENTO DE ESTATÍSTICA 1.8 A função gama . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.9 A função beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2 Algumas Distribuições Discretas 26


2.1 Distribuição de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.1.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
Variáveis Aleatórias 2.1.2 Função de distribuição acumulada . . . . . . . . . . . . . . . . . . . . . . . . 26
Algumas Distribuições Discretas e Contínuas 2.1.3 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.4 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.5 Função geradora de momentos . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Ana Maria Lima de Farias 2.2 Distribuição Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2.2 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2.3 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.2.4 Função geradora de momentos . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2.5 Exercícios resolvidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.3 Distribuição Geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.3.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.3.2 Função de distribuição acumulada . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3.3 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
Junho de 2008 2.3.4 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.3.5 Função geradora de momentos . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.3.6 Exercícios resolvidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.3.7 Forma alternativa da distribuição geométrica . . . . . . . . . . . . . . . . . . 40
2.3.8 Propriedade da falta de memória da geométrica . . . . . . . . . . . . . . . . 40

ii
CONTEÚDO iii CONTEÚDO iv

2.4 Distribuição binomial negativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 3.4 Distribuição de Weibull . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76


2.4.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 3.4.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
2.4.2 Forma alternativa da distribuição binomial negativa . . . . . . . . . . . . . . 42 3.4.2 Esperança e variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
2.4.3 Por que binomial negativa? . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 3.4.3 Função de distribuição acumulada . . . . . . . . . . . . . . . . . . . . . . . . 77
2.4.4 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 3.5 Distribuição de Pareto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
2.4.5 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 3.5.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
2.4.6 Função geradora de momentos . . . . . . . . . . . . . . . . . . . . . . . . . . 48 3.5.2 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
2.4.7 Exercícios resolvidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 3.5.3 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
2.5 Distribuição hipergeométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 3.6 Distribuição beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
2.5.1 Exemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.5.2 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 4 Funções de Variáveis Aleatórias Contínuas 81
2.5.3 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 4.1 Exemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
2.5.4 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 4.2 Funções inversíveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
2.5.5 Distribuição binomial versus distribuição hipergeométrica . . . . . . . . . . . 55 4.2.1 Exemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
2.5.6 Exercícios resolvidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 4.2.2 Transformação linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
2.6 Distribuição de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.6.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 5 A Distribuição Normal 88
2.6.2 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 5.1 Distribuição normal padrão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
2.6.3 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 5.1.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
2.6.4 Função geradora de momentos . . . . . . . . . . . . . . . . . . . . . . . . . . 59 5.1.2 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
2.6.5 Aproximação da binomial pela Poisson . . . . . . . . . . . . . . . . . . . . . 60 5.1.3 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
2.6.6 Exercícios resolvidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 5.1.4 Função geradora de momentos . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.2 Distribuição N(μ; σ2 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3 Algumas Distribuições Contínuas 62 5.2.1 Características da curva normal . . . . . . . . . . . . . . . . . . . . . . . . . 90
3.1 Distribuição uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 5.2.2 Parâmetros da N (μ; σ2 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.1.1 Função de distribuição acumulada . . . . . . . . . . . . . . . . . . . . . . . . 63 5.2.3 Função geradora de momentos . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.1.2 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 5.3 Função de distribuição acumulada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.1.3 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 5.4 Tabulação da distribuição normal padrão . . . . . . . . . . . . . . . . . . . . . . . . 94
3.2 Distribuição exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 5.5 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.2.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 5.6 A distribuição log-normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
3.2.2 Função de distribuição acumulada . . . . . . . . . . . . . . . . . . . . . . . . 65 5.6.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
3.2.3 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 5.6.2 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
3.2.4 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 5.6.3 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
3.2.5 Função geradora de momentos . . . . . . . . . . . . . . . . . . . . . . . . . . 67 5.7 Exemplo: qui-quadrado e normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
3.2.6 Parametrização alternativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.2.7 Propriedade da falta de memória da exponencial . . . . . . . . . . . . . . . . 68
3.2.8 Exercícios resolvidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.3 Distribuição gama . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.3.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.3.2 O gráfico da distribuição gama . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.3.3 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.3.4 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.3.5 Função geradora de momentos . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.3.6 Distribuição de Erlang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.3.7 Distribuição qui-quadrado como caso particular da gama . . . . . . . . . . . 75
CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 2

primeira ordem.
µ∞ ¶
d P d
ri = (1 + r + r2 + r3 + r4 + · · · + rn + · · · )
dr i=0 dr
= 1 + 2r + 3r2 + 4r3 + · · · + nrn−1 + · · · =
£ ¤
Capítulo 1 =
=
1 + (r + r) + (r2 + 2r2 ) + (r3 + 3r3 ) + · · · rn−1 + (n − 1)rn−1 + · · ·
£
(1 + r + r2 + r3 + · · · + rn−1 + · · · ) + r + 2r2 + 3r3 + · · · + (n − 1)rn−1 + · · ·
¤

P∞ P∞
= ri + iri
Alguns Resultados de Cálculo i=0
P∞
i=1
P∞
= ri + iri
i=0 i=0
P∞
= (1 + i)ri
1.1 Séries geométricas i=0

Como a série geométrica é convergente para | r | < 1, podemos igualar as derivadas, isto é:
Recordemos inicialmente a progressão geométrica (pg) de razão r, dada por (1, r, r2 , r3 , . . . , rn ) .
µ∞ ¶ µ ¶
Para calcular a soma dos n primeiros termos de uma pg, note que, se r 6= 1, podemos escrever: P∞ d P d 1
(1 + i)ri = ri = se | r | < 1
i=0 dr i=0 dr 1 − r
(1 + r + r2 + . . . + rn )(1 − r) = (1 + r + r2 + . . . + rn ) − (r + r2 + . . . + rn+1 ) = 1 − rn+1
ou seja,
Logo, P
∞ 1
1 − rn+1 (1 + i)ri = se | r | < 1 (1.3)
(1 + r + r2 + . . . + rn ) = r 6= 1 i=0 (1 − r)2
1−r Mas podemos escrever µ ¶
Essa é a soma dos n termos de uma pg de razão r. (1 + i) × i! (1 + i)! 1+i
Se |r| < 1, lim rn+1 = 0. Logo, a soma dos termos da pg converge, quando n → ∞, isto é: (1 + i) = = =
n→∞ i! i! 1! i
resultando que µ ¶
X

1 P∞ 1+i i 1
i
r = se | r | < 1. (1.1) r = se | r | < 1 (1.4)
i=0
1−r i=0 i (1 − r)2
P
∞ Consideremos a segunda derivada.
A série ri é chamada série geométrica de razão r. µ∞ ¶
i=0 d2 P d2
Note que podemos escrever (atenção aos índices dos somatórios!): ri = 2 (1 + r + r2 + r3 + r4 + · · · + rn−1 + rn + rn+1 · · · ) =
dr2 i=0 dr
P
∞ P
∞ 1 P∞ d ¡ ¢
ri = 1 + ri ⇒ =1+ ri se | r | < 1 = 1 + 2r + 3r2 + 4r3 · · · + (n − 1)rn−2 + nrn−1 + (n + 1)rn + · · · =
1−r dr
i=0 i=1 i=1
= 2 × 1 + 3 × 2 × r + 4 × 3 × r2 + · · · + (n − 1)(n − 2)rn−3 + n(n − 1)rn−2 + (n + 1)nrn−1 + · · ·
ou P

P
∞ 1 r = (i + 2)(i + 1)ri
ri = 1 − = se | r | < 1 (1.2) i=0
i=1 1−r 1−r
Consideremos, agora, as derivadas da série geométrica. Vamos começar com a derivada de Igualando as derivadas, obtemos:
µ ¶ µ ¶
P
∞ d2 1 d 1 −2 × (1 − r)(−1)
(i + 2)(i + 1)ri = = =
i=0 dr2 1−r dr (1 − r)2 (1 − r)4
ou
P
∞ 2
(i + 2)(i + 1)ri = (1.5)
i=0 (1 − r)3

1
CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 3 CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 4

Esse resultado pode ser escrito de outra forma: 1.2 A função logarítmica natural
P
∞ 2
(i + 2)(i + 1)ri = ⇔ Define-se a função logarítmica natural, denotada por ln, como
i=0 (1 − r)3
P (i + 2)(i + 1) i
∞ 1 Rx 1
r = ⇔ ln x = 1 t
dt x>0
i=0 2 (1 − r)3
P∞ (i + 2)(i + 1)i! 1 A condição x > 0 é necessária pois, se tivéssemos x ≤ 0, o domínio de integração incluiria t = 0,
ri = ⇔ onde a função f (t) = 1t não está definida.
i=0 2 × i! (1 − r)3
P∞ (i + 2)! 1 Pelo teorema Fundamental do Cálculo, vemos que ln x é uma antiderivada de x1 , isto é
ri = ⇔
i=0 i! × 2! (1 − r)3 d 1
µ ¶ ln x = x>0
P∞ i+2 i 1 dx x
r =
i=0 2 (1 − r)3 Isso significa que ln x é diferenciável e sua derivada é positiva no seu domínio de definição. Resulta,
¡ ¢ ¡i+2¢
Pela propriedade das relações complementares, sabemos que i+2 = i e, portanto, resulta que então, que ln x é uma função contínua (porque ela é diferenciável) e crescente (porque sua derivada
2
µ ¶ µ ¶ é sempre positiva).
P∞ i+2 i P ∞ i+2 i 1 Da definição da função ln x seguem as seguintes propriedades:
r = r = (1.6)
i=0 2 i=0 i (1 − r)3
1. ln 1 = 0
Tomando a terceira derivada:
µ∞ ¶
d3 P d3 2. Se p > 0 e q > 0, então ln (pq) = ln p + ln q
3
ri = 3 (1 + r + r2 + r3 + r4 + r5 + · · · + rn−1 + rn + rn+1 · · · ) =
dr i=0 dr De fato:
d 1 1
d2 ¡ ¢ ln(px) = .p =
= 1 + 2r + 3r2 + 4r3 + 5r4 + · · · + (n − 1)rn−2 + nrn−1 + (n + 1)rn + · · · = dx px x
dr2∙ ¸ 1
d 2 × 1 + 3 × 2 × r + 4 × 3 × r2 + 5 × 4 × r3 + · · · + (n − 1)(n − 2)rn−3 Isso significa que ln(px) e ln(x) são ambas antiderivadas de x
e, portanto, diferem por uma
= n−2 n−1 cosntante, ou seja:
dr +n(n − 1)r + (n + 1)nr + ···
ln(px) = ln x + C
= 3 × 2 × 1 + 4 × 3 × 2 × r + 5 × 4 × 3 × r2 + · · · + (n − 1)(n − 2)(n − 3)rn−4 + · · ·
+n(n − 1)(n − 2)rn−3 + (n + 1)n(n − 1)rn−2 + · · · Fazendo x = 1, resulta que ln p = 0 + C e, portanto
P

= (i + 3)(i + 2)(i + 1)ri ln(px) = ln x + ln p x > 0, p>0
i=0
Fazendo x = q, prova-se o resultado desejado.
Igualando as derivadas:
µ ¶ µ ¶ 3. Se p > 0, então ln( 1p ) = − ln p
P
∞ d3 1 d 2 −2 × 3 × (1 − r)2 × (−1) 3!
(i + 3)(i + 2)(i + 1)ri = = = =
i=0 dr3 1−r dr (1 − r)3 (1 − r)6 (1 − r)4 De fato:
1
Logo, Fazendo q = p
no resultado anterior obtemos:
P∞ (i + 3)(i + 2)(i + 1) 1 P∞ (i + 3)(i + 2)(i + 1)i! 1 µ ¶
ri = ⇒ ri = ⇒ 1 1
3! (1 − r)4 3! × i! (1 − r)4 ln p = ln 1 = ln p + ln
i=0 i=0 p p
µ ¶ µ ¶
P∞ 3+i i P ∞ 3+i i 1 Como ln(1) = 0, segue o resultado.
r = r = (1.7)
i=0 i i=0 3 (1 − r)4
4. Se p > 0 e q > 0, então ln pq = ln p − ln q
Continuando a derivar (note que podemos tomar derivadas de qualquer ordem!), obtém-se o
seguinte resultado geral: De fato: usando os resultados anteriores temos que
µ ¶ µ ¶ µ ¶
P∞ k+i i P ∞ k+i i 1 p 1 1
r = r = (1.8) ln = ln p = ln p + ln = ln(p) − ln(q)
i=0 i i=0 k (1 − r)k+1 q q q
CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 5 CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 6

5. Se p > 0 e r é um número racional qualquer, então ln(pr ) = r ln p e se M é um número racional positivo qualquer,
De fato: usando a regra da cadeia, temos que
M ln 4 > M =⇒ ln 4M > M
µ ¶
d 1 1 d d
ln (xr ) = r rxr−1 = r = r ln x = (r ln x) Tomando x > 4M , como ln x é uma função crescente, teremos
dx x x dx dx
Daí vê-se que ln(xr ) e r ln(x) têm a mesma derivada; logo ln x > ln 4M > M

ln(xr ) = r ln x + C Como M é qualquer racional positivo, da relação ln x > M resulta que podemos fazer ln x tão
grande quanto desejado, bastando para isso tomar x suficientemente grande, donde se conclui que
Fazendo x = 1 obtém-se que C = 0 e, portanto
lim (ln x) = ∞
ln(xr ) = r ln x x→∞

Como ln x1 = − ln x, segue que ln x = − ln x1 e, portanto,


Como ln x é contínua e crescente e ln 1 = 0, resulta que para x > 1, ln x > 0 e para 0 < x < 1, µ ¶
ln x < 0. Além disso, 1
µ ¶ lim+ (ln x) = lim+ − ln
d2 d 1 1 x→0 x→0 x
ln(x) = =− 2 <0
dx2 dx x x 1
Mas quando x → 0+ , x
→ ∞ e, pelo resultado acima, ln x1 → ∞ e, portanto, − ln x1 → −∞. Isso
logo, a função ln x é côncava para baixo. Vamos ver, agora, o comportamento assintótico de ln x.
significa que
Para x > 0, a função f(x) = x1 é positiva e, portanto, a integral definida pode ser interpretada
lim (ln x) = −∞
como área sob a curva. Analisando a Figura 1.1, podemos ver que a área sob a curva entre 1 e 4 x→0+
é maior que as áreas dos três retângulos em cinza, cujos vértices superiores à direita estão sobre a Na Figura ?? temos o gráfico da função ln x.
curva. Isso significa que
R4 1 1 1 1 13
1
dt > + + = >1
t 2 3 4 12

1
Figura 1.1: Gráfico da função f (x) = x
Figura 1.2: Gráfico da função f(x) = ln x
Logo,
ln 4 > 1
CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 7 CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 8

1.3 A função exponencial natural 1. Se p e q são números reais, então (exp p)(exp q) = exp(p + q)
De fato:
Definindo f(x) = ln x, vimos que f : R+ → R é uma função contínua estritamente crescente tal que
ln(exp p)(exp q) = ln exp p + ln exp q = p + q = ln exp(p + q)
lim ln x = ∞ e lim+ ln x = −∞. Com base nesses resultados, podemos provar o seguinte teorema:
x→∞ x→0
e o resultado segue do fato de a função exp ser bijetora.
Theorem 1 A cada número real x existe um único número real positivo y tal que ln y = x. exp p
2. Se p e q são números reais, então exp q
= exp(p − q)
Demonstração: De fato:
Se x = 0, então ln 1 = 0 e 1 é o único valor de y para o qual ln y = 0, uma vez que ln é exp p
ln = ln exp p − ln exp q = p − q = ln exp(p − q)
estritamente crescente. Se x > 0, como lim ln x = ∞, podemos escolher um número b tal que exp q
x→∞
ln 1 < x < ln b. Como ln é contínua, o Teorema do Valor Intermediário garante a existência de um e novamente o resultado segue do fato de a função exp ser bijetora.
número y entre 1 e b tal que ln y = x e esse número é único porque ln é crescente. Se x < 0, como 3. Se p é um número real e r é um número racional, então (exp p)r = exp(pr).
lim+ ln x = −∞, existe um número b > 0 tal que ln b < x < ln 1. Como antes, o Teorema do Valor
x→0 De fato:
Intermediário e a continuidade de ln garantem a existência de um único número y entre b e 1 tal ln (exp p)r = r ln exp p = rp = ln exp(pr)
que ln y = x.
e novamente o resultado segue do fato de a função exp ser bijetora.
O teorema acima nos permite definir uma função de R em R+ , uma vez que a cada x ∈ R
podemos associar um único número y ∈ R+ . Assim, define-se a função exponencial natural, denotada Temos o seguinte resultado: Se f é uma função diferenciável com inversa g e se f 0 (g(c)) 6= 0,
por exp, como 1
então g é diferenciável em c e g 0 (c) = f 0 (g(c)) .
exp x = y se e somente se ln y = x Aplicando este resultado para a função exponencial, temos que a função exponencial é a inversa
para todo x, onde y > 0. da função logarítmica natural f(x) = ln x, que é diferenciável com derivada positiva para todo
x > 0 . Segue, então, que a função g(x) = exp x também é diferenciável e sua derivada é dada por
Da definição das funções exp e ln, segue que exp é uma função biunívoca. De fato: se exp x1 =
exp x2 = b, então, por definição, ln b = x1 e ln b = x2 e, portanto, x1 = x2 . 1 1 1
g0 (x) = = 1 = 1 = exp x
Podemos ver também que f 0 (g(x)) g(x) exp x

exp(ln x) = y ⇐⇒ ln y = ln x ⇐⇒ y = x ⇐⇒ exp(ln x) = x ou seja, a função exponencial é sua própria derivada! Como exp x > 0, segue que as derivadas
ln(exp x) = y ⇐⇒ exp(y) = exp(x) ⇐⇒ y = x ⇐⇒ ln(exp x) = x primeira e segunda são positivas; logo, exp x é uma função crescente com concavidade para cima.
Além disso,
e isso nos diz que exp e ln são inversas uma da outra.
O número neperiano e (também conhecido como número de Euler, em homenagem ao matemátco x → ∞ =⇒ ln(exp x) → ∞ =⇒ exp x → ∞ =⇒ lim exp x = ∞
x→∞
suiço Leonard Euler) é definido como o o único número real positivo tal que x → −∞ =⇒ ln(exp x) → −∞ =⇒ exp x → 0 =⇒ lim exp x = 0
x→−∞
ln e = 1 O gráfico da função exp x está na Figura 1.3.
Usando a regra do trapezoidal, pode-se mostrar que Note que, como a função exp é a inversa da função ln, o gráfico da função exponencial é uma
reflexão do gráfico da função logarítmica através da reta y = x.
R 2,7 1 R 2,8 1
1
dx < 1 < 1 dx
x x
o que significa que 1.4 Funções pares e ímpares
ln(2, 7) < ln(e) < ln(2, 8)
Definição 1.1 Diz-se que uma função f é par se f (−x) = f (x) e que é ímpar se f (−x) = −f (x) .
e como ln é crescente, isso significa que
Z ∞ Z ∞
2, 7 < e < 2, 8 Teorema 1.1 (a) Se f é par, então f (x)dx = 2 f(x)dx. (b) Se f é ímpar, então
Z ∞ −∞ 0
Usando as definições e propriedades já vistas, pode mostrar as seguintes propriedades da função
exponencial natural: f (x)dx = 0.
−∞
CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 9 CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 10

Demonstração:
Z ∞ Z 0 Z ∞
f(x)dx = f (x)dx + f(x)dx
−∞ −∞ 0

Fazendo x = −t na primeira integral, tem-se que:


Z ∞ Z 0 Z ∞ Z 0 Z ∞
f (x)dx = f(−t)(−dt) + f (x)dx = − f (−t)dt + f(x)dx
−∞
Z∞∞ Z ∞ 0 ∞ 0

= f (−t)dt + f(x)dx
0 0

Se a função é par, resulta que:


Z ∞ Z ∞ Z ∞ Z ∞ Z ∞ Z ∞
f (x)dx = f(−t)dt + f (x)dx = f (t)dt + f(x)dx = 2 f (x)dx (1.9)
−∞ 0 0 0 0 0

Se a função é ímpar, resulta que:


Z ∞ Z ∞ Z ∞ Z ∞ Z ∞
f (x)dx = f (−t)dt + f(x)dx = −f (t)dt + f (x)dx
−∞ 0
Z ∞ Z 0∞ 0 0

= − f (t)dt + f(x)dx = 0
Figura 1.3: Gráfico da função exponencial natural f (x) = exp x 0 0

1.5 Integrais duplas com coordenadas polares


No cálculo de integrais duplas, a utilização de coordenadas polares é bastante útil. No sistema
cartesiano, cada ponto do plano é representado pela sua abscissa e sua ordenada. No sistema de
coordenadas polares, em vez dos eixos x e y, trabalha-se com um polo ou origem, que é um ponto
fixo do plano, e um eixo polar, que é uma semi-reta orientada, conforme ilustrado na figura 1.6. As
coordenadas polares de um ponto P qualquer no plano são a distância r = d(O, P ) e o ângulo θ
determinado pelo eixo polar e o segmento OP. Em geral, a coordenada θ é considerada positiva se
é gerada por uma rotação anti-horária e negativa, caso contrário.

As coordenadas polares de¡ um¢ponto


¡ não ¢ são
¡ únicas,
¢ pois há vários ângulos com o mesmo lado
terminal OP. Por exemplo, 3, π4 , 3, 9π 4
e 3, − 7π
4
representam o mesmo ponto. Permite-se
também que a coordenada r seja negativa.
Se uma função de uma variável f está definida em um intervalo [a, b] , a definição de integral
(simples) requer a partição do intervalo [a, b] em subintervalos de comprimento ∆xi , conforme
ilustrado na figura 1.7. Se denotamos por P a partição {x0 , x1 , . . . , xn }, então a integral definida
de Riemann é definida como
Z b
P
f(x)dx = lim f (wi ) ∆xi
a kP k→0

Para integrais duplas de funções definidas em coordenadas cartesianas, temos que ter a partição
Figura 1.4: Função exponencial e função logarítimica - reflexão através da reta y = x da região de definição R da função de duas variáveis f(x, y), conforme ilustrado na figura 1.8. Nesse
CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 11 CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 12

caso, a integral dupla é definida como


Z Z
f (x, y)dA = lim f (ui , vi ) ∆Ai
kP k→0
R

Figura 1.5: e é calculada através de integrais parciais, isto é, calcula-se primeiro a integral com respeito a y,
mantendo x constante, e depois integra-se o resultado com relação a x :
Z bZ d Z b ∙Z d ¸
P (r ,θ ) f(x, y)dydx = f(x, y)dy dx
a c a c

θ
O eixo polar

Figura 1.6: Sistema de coordenadas polares

Figura 1.8: Partição da região R - coordenadas cartesianas

O cálculo de integrais duplas de funções parametrizadas em termos de coordenadas polares


requer que a partição da região de integração seja definida em termos de tais coordenadas, conforme
ilustrado na figura 1.9.

Vamos considerar uma região polar elementar (ver figura 1.10).


A área total de um círculo é dada por

2πr2 1
a = x0 πr2 = = (2π) r2 ;
xi−1 xi xn = b 2 2
logo, a área de um setor circular correspondente a um ângulo ∆θ e raio r é
1
Figura 1.7: Partição do intervalo [a, b] (∆θ) r2
2
Então, a área da região polar elementar é
1 1 1 ¡ ¢ 1
∆A = (∆θ) r22 − (∆θ) r12 = (∆θ) r22 − r12 = (∆θ) (r1 + r2 ) (r2 − r1 )
2 2 2 2
CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 13 CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 14

Definindo
1
r = (r1 + r2 )
2
∆r = r2 − r1
podemos escrever:
∆A = r∆θ∆r
A integral em termos das coordenadas polares é, então:
Z Z
P
f(r, θ)dA = lim f(ri , θi )ri ∆θi ∆ri
kP k→0
R

e calculada como Z Z Z Z
f (r, θ)dA = f(r, θ)rdrdθ
R R

1.5.1 Exemplo
Z ∞ µ 2¶
t
Figura 1.9: Partição da região R - coordenadas polares Vamos calcular exp − dt. Aqui não podemos aplicar o Teorema Fundamental do Cálculo
−∞ 2
pois o integrando não possui antiderivada. Mas o integrando é uma função par; logo, a integral em
questão é igual a duas vezes a integral de 0 a ∞. Mas
∙Z ∞ µ 2 ¶ ¸2 µZ ∞ µ 2 ¶ ¶ µZ ∞ µ 2¶ ¶
t t u
exp − dt = exp − dt exp − du =
0 2 0 2 0 2
Z ∞Z ∞ µ 2 ¶
t + u2
= exp − dtdu
0 0 2
Consideremos agora, a região de integração em termos das coordenadas polares:
t = r cos θ u = r sen θ
dtdu = rdrdθ
r2 π
Como 0 < t < ∞ e 0 < u < ∞, então r > 0 e 0 < θ < . Como
2
Δθ t2 + u2 = r2
Δr
segue que
∙Z µ 2 ¶ ¸2 Z ∞ Z π µ 2¶
r1 ∞
t 2 r
exp − dt = exp − rdθdr
0 2 0 0 2
r2
Fazendo = w, então rdr = dw e
2
∙Z ∞ µ 2 ¶ ¸2 Z ∞Z π Z ∞ "Z π #
Figura 1.10: Região polar elementar t 2 2
exp − dt = exp (−w) dθdw = dθ exp (−w) dw =
0 2 0 0 0 0
Z ∞
π π ¡ −w ¢¯¯∞ π
= exp(−w)dw = −e 0
=
0 2 2 2
CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 15 CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 16

Provamos assim que Z µ 2¶ r onde |J| representa o valor absoluto do determinante da matriz jacobiana

t π ∙ ∂x ∂x ¸
exp − dt = (1.10)
0 2 2 J = ∂u ∂v
∂y ∂y
e, portanto, Z µ 2¶ ∂u ∂v

t √
exp − dt = 2π (1.11) Considere, como exemplo, as coordenadas polares definidas anteriormente: x = r cos θ e y =
−∞ 2 r sen θ :
ou ainda Z µ 2¶ ¯∙ ∂x ∂x ¸¯ ¯∙ ¸¯
1 ∞
t ¯ ¯ ¯ cos θ −r sen θ ¯ ¡ 2 ¢
√ exp − dt = 1 (1.12) J = ¯¯ ∂y
∂r ∂θ
∂y
¯ ¯ ¯ 2 2 2
¯ ¯ sen θ r cos θ ¯ = r cos θ + r sen θ = r cos θ + sen θ = r
=
2π −∞ 2 ∂r ∂θ

1.5.2 Exercício resolvido e, portanto, dxdy = rdrdθ.

Calcule Γ (1/2) . Por definição,


Z ∞ Z ∞
1.7 Funções exponencial e logarítmica
e−x
Γ (1/2) = e−x x1/2−1 dx = √ dx
0 0 x Vimos que, se r é um número racional e a > 0, então
Vamos usar a seguinte transformação de variável:
ln ar = r ln a =⇒ ar = exp(r ln a)
2
t
x= Iremos usar este resultado para definir a função exponencial com base a, definida para qualquer x.
2
Se x é qualquer número real e a é qualquer número real positivo, então
Então,
dx = tdt ax = exp(x ln a)
x = 0⇒t=0 A função f(x) = ax é chamada função exponencial com base a. Note que, se a = e, então
x → ∞⇒t→∞
ex = exp(x ln e) = exp(x)
Logo, ⎛ ⎞
Z r
∞ −t2 /2 √ Z ∞ √ e, então, podemos escrever a função exponencial com base a como
Γ (1/2) = ⎝ eq ⎠ tdt = 2 e−t
2 /2
dt = 2×
π
0 t2 0 2
2 ax = ex ln a
ou seja: √ Com essa definição, podemos generalizar as propriedades das funções logarítmica e exponencial
Γ (1/2) = π
naturais vistas anteriormente.

1.6 Mudança de variáveis em integrais duplas 1. Se u é um número real qualquer e a > 0, então ln au = u ln a
De fato: usando a definição da função exponencial com base a e propriedades já vistas da
No cálculo de integrais simples,
R b podemos usar mudança de variável para simplificar os cálculos. função exponencial natural, temos que
Assim, se queremos calcular a f(x)dx, sob condições adequadas, podemos definir x = g(u) e então
dx = g 0 (u)du e ln au = ln eu ln a = u ln a
Rb R
g(b)
f(x)dx = f (g(u))g0 (u)du
a g(a) 2. Se u e v são números reais quaisquer e a > 0, então au av = au+v .
O resultado análogo para funções de duas variáveis é o seguinte: se x = f(u, v) e y = g(u, v) é uma De fato: usando a definição da função exponencial com base a e propriedades já vistas da
transformação de variáveis, então função exponencial natural, temos que
RR RR
F (x, y)dxdy = F (f(u, v), g(u, v)) |J| dudv au av = eu ln a ev ln a = eu ln a+v ln a = e(u+v) ln a = au+v
R R
CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 17 CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 18

au
3. Se u e v são números reais quaisquer e a > 0, então av
= au−v .
De fato: usando a definição da função exponencial com base a e propriedades já vistas da
função exponencial natural, temos que

au eu ln a
v
= v ln a = eu ln a−v ln a = e(u−v) ln a = au−v
a e

4. Se u e v são números reais quaisquer e a > 0, então (au )v = auv .


De fato: usando a definição da função exponencial com base a e propriedade 1 acima, temos
que
u
(au )v = ev ln a = evu ln a = auv

Para calcular a derivada da função exponencial com base a, vamos usar a regra da cadeia e o
fato de a derivada da função exp ser a própria função:
d x d ¡ x ln a ¢ d
(a ) = e = ex ln a (x ln a) = (ln a) ex ln a
dx dx dx
ou seja
d x
(a ) = ax ln a Figura 1.11: f(x) = ax , a > 1 e g(x) = ax , a < 1
dx
Se a > 1, ln a > 0 e ax é uma função crescente para x ∈ R (note que ax > 0 para todo a, pela
definição). Se 0 < a < 1, ln a < 0 e ax é uma função decrescente para x ∈ R. Como y = loga x, segue que
Note também que, se a > 1 ln x
loga x =
ln a
lim ax = lim ex ln a = ∞
x→∞ x→∞ Usando essa relação podemos ver as seguintes propriedades da função logarítmica de base a.
lim ax = lim ex ln a = 0
x→−∞ x→−∞ 1. Se p > 0 e q > 0 são números reais, então loga pq = loga p + loga q.
e se 0 < a < 1 De fato:
ln pq ln p + ln q ln p ln q
x x ln a loga pq = = = + = loga p + loga q
lim a = lim e =0 ln a ln a ln a ln a
x→∞ x→∞
p
lim ax = lim ex ln a = ∞ 2. Se p > 0 e q > 0 são números reais, então loga q
= loga p − loga q.
x→−∞ x→−∞
De fato:
p ln pq ln p − ln q ln p ln q
Na Figura 1.11 ilustra-se o gráfico de f(x) = ax para a = 2 e a = 12 . O gráfico da função loga = = = − = loga p − loga q
exponencial com base a sempre terá essas formas, dependendo se a > 1 ou 0 < a < 1. q ln a ln a ln a ln a
3. Se p > 0 e x é número real qualquer, então loga px = x loga p.
Se a 6= 1, a função f (x) = ax é bijetora e, portanto, admite uma inversa. Essa inversa será
denotada por loga e, portanto De fato:
ln px x ln p
loga x = y ⇐⇒ x = ay loga px = = = x loga p
ln a ln a
A função g(x) = logx a é chamada função logarítmica com base a. Note que, quando a = e, temos
a função logarítmica natural. Vamos calcular a derivada de f (x) = loga x.
Temos que µ ¶
ln x ln x d d ln x 1 1
loga x = y ⇐⇒ x = ay ⇐⇒ ln x = y ln a ⇐⇒ y = loga x = =⇒ (loga x) = =
ln a ln a dx dx ln a ln a x
CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 19 CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 20

ou seja, Como a função exponencial é contínua, resulta que


d 1 h ix h ix
(loga x) =
dx x ln a lim (1 + t)1/t = lim (1 + t)1/t = ex
t→0 t→0

Vamos, agora, calcular alguns limites envolvendo o número neperiano e. Da definição de derivada Logo, ³ x ´n
da função f(x) = ln x, temos que
lim 1 + = ex (1.15)
n→∞ n
ln(x + h) − ln(x)
f 0 (x) = lim
h→0 h Vamos calcular alguns outros limites envolvendo a função exponencial que serão úteis no estudo
1 x+h de distribuições contínuas. O resultado crucial é
= lim ln
h→0 h x
µ ¶1 lim xk e−x = 0 (1.16)
x+h h x→ ∞
= lim ln
h→0 x
µ ¶1 Vamos mostrar esse resultado usando demonstração por indução e usando, também, a regra de
h h L´Hôpital. Consideremos o caso em que k = 1. Então
= lim ln 1 +
h→0 x
x
lim xe−x = lim
Como f 0 (x) = x1 , para x = 1 temos f 0 (1) = 1 e, portanto, x→ ∞ x→ ∞ ex

1 que tem a forma ∞
e, portanto, podemos aplicar L´Hôpital, que diz que
1 = lim ln (1 + h) h
h→0
x x0 1
lim xe−x = lim = lim = lim =0
Mas 1
h 1
i x→ ∞ x→ ∞ ex x→ ∞ (ex )0 x→ ∞ ex
(1 + h) h = exp ln (1 + h) h
Logo, o resultado vale para k = 1. Suponhamos verdadeiro para qualquer k; vamos mostrar que
Como a função exponencial é contínua, vale para k + 1. De fato:
1 1 ¡ k+1 ¢0
lim (1 + h) h = lim exp ln (1 + h) h xk+1 x (k + 1) xk xk
h→0 h→0 lim xk+1 e−x = lim x = lim 0 = lim x
= (k + 1) lim x = (k + 1) × 0 = 0
1 x→ ∞ x→ ∞ e x→ ∞ (ex ) x→ ∞ e x→ ∞ e
= exp lim ln (1 + h) h
h→0
= exp(1) pela hipótese de indução. De maneira análoga, prova-se um resultado mais geral dado por:
= e lim xk e−λx = 0 ∀k > 0 e λ > 0 (1.17)
x→ ∞
ou seja,
1
lim (1 + h) h = e (1.13) Vamos ver, agora, a fórmula de Taylor para a função f(x) = ex . Lembrando que a derivada de
h→0
f(x) é a própria f(x) e que f(0) = 1, podemos escrever:
1
Fazendo h
= n na expressão acima, obtemos que x2 xn
µ ¶n ex = 1 + x + + ··· + + Rn+1
1 2! n!
lim 1 + =e (1.14)
n→∞ n onde
ez
Rn+1 = xn+1
³ (n + 1)!
x ´n x
A partir desses resultados, vamos calcular lim 1 + . Fazendo t = , resulta que para algum z entre 0 e x. Se x > 0, então 0 < z < x, o que implica que ez < ex e, portanto
n→∞ n n
³ x ´n x h ix ex
lim 1 + = lim (1 + t) t = lim (1 + t)1/t 0 < Rn+1 < xn+1
n→∞ n t→0 t→0 (n + 1)!
CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 21 CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 22

Mas Γ(2) = 1 × Γ(1) = 1 = 1!


ex xn+1
lim xn+1 = ex lim = ex × 0 = 0 Γ(3) = 2 × Γ(2) = 2 × 1 = 2!
n→∞ (n + 1)! n→∞ (n + 1)!
Γ(4) = 3 × Γ(3) = 3 × 2 × 1 = 3!
e, pelo teorema do sanduiche, lim Rn+1 = 0. Se x < 0, como z está entre x e 0, segue que z < 0;
Γ(5) = 4 × Γ(4) = 4 × 3 × 2 × 1 = 4!
logo, ez < 1 e ¯ ¯ ¯ n+1 ¯
¯ ez ¯ ¯ x ¯ Em geral, se n é inteiro,
0 < |Rn+1 | < ¯¯ xn+1 ¯¯ < ¯¯ ¯→0
(n + 1)! (n + 1)! ¯ Γ(n) = (n − 1)! (1.21)
Logo, também neste caso lim Rn+1 = 0.
n→∞
Segue, então, que f(x) = ex é representada pela série de Taylor, ou seja, podemos escrever 1.9 A função beta
P
∞ x k
A função beta é definida pela seguinte integral:
ex = (1.18)
k!
k=0 R1
B(x, y) = tx−1 (1 − t)y−1 dt x > 0, y > 0 (1.22)
0
1.8 A função gama
Note que essa é uma função de 2 variáveis!.
A função gama é definida pela seguinte integral: Vamos ver a relação entre a função gama e a função beta. Para isso vamos calcular Γ(x)Γ(y) usando
Z ∞ o teorema sobre mudança de variáveis em integrais duplas visto na seção 1.6.
Γ(α) = e−x xα−1 dx α≥1 (1.19) R
∞ R
∞ R∞
∞ R x−1 y−1 −(t+s)
0 Γ(x)Γ(y) = tx−1 e−t dt sy−1 e−s ds = t s e dsdt
0 0 0 0
A função gama tem a seguinte propriedade recursiva: Γ(α + 1) = αΓ(α). Para demonstrar esse Considere a seguinte transformação de variáveis:
resultado, iremos usar integração por partes.
Z ∞ σ = s + t =⇒ s = σ − τ
Γ(α + 1) = e−x xα dx τ = t =⇒ t = τ
0
Temos que ¯∙ ¸¯ ¯∙ ¸¯
Fazendo ¯ ∂s ∂s ¯ ¯ 1 −1 ¯
J = ¯¯ ∂σ
∂t
∂τ
∂t
¯=¯ ¯
¯ ¯ 0 1 ¯=1
∂σ ∂τ
• u = xα ⇒ du = αxα−1
e precisamos agora determinar os limites de integração no novo sistema de coordenadas. Nas
• dv = e−x dx ⇒ v = −e−x coordenadas (s, t) a região de integração é limitada pelas retas s = 0 e t = 0 que correspondem,
respectivamente, a σ = τ e τ = 0. Por outro lado, como s > 0 e t > 0, resulta que τ > 0 e σ > τ .
Logo, Veja Figura 1.12, onde se ilustram as regiões de integração nos dois sistemas de coordenadas.
Z Resulta o seguinte:
¯∞ ∞
µ ¶
Γ(α + 1) = −xα e−x ¯0 − −e−x αxα−1 dx =⇒ R∞
∞ R x−1 y−1 −(t+s) R Rσ x−1

Z 0 Γ(x)Γ(y) = t s e dsdt = τ (σ − τ )y−1 e−σ |1| dτ dσ


∞ 0 0 0 0
Γ(α + 1) = 0 + α e−x xα−1 dx =⇒ Ã µ ¶ !
0
R Rσ x−1 y−1 σ − τ y−1 −σ

= τ σ e dτ dσ
Γ(α + 1) = αΓ(α) (1.20) 0 0 σ
µ ¶
R Rσ x−1 y−1 ³
∞ τ ´y−1 −σ
Aqui usamos o resultado dado em (1.16). = τ σ 1− e dτ dσ
0 0 σ
Vamos trabalhar, agora, com α = n inteiro.
Z ∞ Z ∞ Consideremos mais uma mudança de coordenadas:
Γ(1) = e−x x1−1 dx = e−x dx = 1 τ
0 0 r = =⇒ τ = rq
σ
q = σ =⇒ σ = q
CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 23 CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 24

Figura 1.12: Transformação: (s, t) → (σ, τ ) Figura 1.13: Transformação de coordenadas: (σ, τ ) → (q, r)

para a qual temos ¯∙ ¸¯ ¯∙ ¸¯ Logo


¯ ∂τ ∂τ ¯ ¯ q r ¯
J = ¯¯ ∂r
∂σ
∂q
∂σ
¯=¯
¯ ¯ 0 1
¯ = |q| = q
¯ µ∞ ¶ µ∞ ¶
R R y−1 −s
∂r ∂q
Γ(x)Γ(y) = tx−1 e−t dt s e ds
Além disso, como τ > 0, σ > 0 e σ > τ resulta que q > 0 e 0 < r < 1. Veja a Figura 1.13. Logo, 0 0
µ ¶ µ∞ ¶ µ∞ ¶
R Rσ x−1 y−1 ³
∞ τ ´y−1 −σ R ¡ 2 ¢x−1 −a2 R ¡ 2 ¢y−1 −b2
Γ(x)Γ(y) = τ σ 1− e dτ dσ = a e 2ada b e 2bdb
0 0 σ µ 0∞ ¶µ ∞ 0 ¶
R R1
∞ R 2x−1 −a2 R 2

= (rq)x−1 q y−1 (1 − r)y−1 e−q qdrdq = 2 a e da 2 b2y−1 e−b db


0
0 0 µ ∞ ¶ µ0 ∞ ¶
R R1
∞ R 2 R 2

= qx+y−1 rx−1 (1 − r)y−1 e−q drdq = 2 |a|2x−1 e−a da 2 |b|2y−1 e−b db


0 0
0 0
µ∞ ¶µ1 ¶
R R x−1 Ambos os integrandos são funções pares; logo, pelo resultado (1.9), podemos escrever
= q x+y−1 e−q dq r (1 − r)y−1 dq
0 0 µ ∞ ¶µ ∞ ¶
R 2 R 2
= Γ(x + y)B(x, y) Γ(x)Γ(y) = 2 |a|2x−1 e−a da 2 |b|2y−1 e−b db
e, portanto, µ ∞0 ¶ µ ∞0 ¶
R 2x−1 −a2 R 2

B(x, y) =
Γ(x)Γ(y)
(1.23) = |a| e da |b|2y−1 e−b db
Γ(x + y) −∞ −∞
R ∞
∞ R 2x−1 2y−1 −(a2 +b2 )
= |a| |b| e dadb
Para obter uma outra expressão para a função beta, vamos calcular Γ(x)Γ(y) por meio de −∞ −∞
coordenadas polares.
µ∞ ¶ µ∞ ¶ Consideremos a seguinte mudança de coordenadas:
R x−1 −t R y−1 −s
Γ(x)Γ(y) = t e dt s e ds
0 0 a = r cos θ
Como t > 0 e s > 0, podemos considerar a seguinte mudança de variável: b = r sen θ
t = a2 =⇒ dt = 2ada
s = b2 =⇒ ds = 2bdb
CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 25

para a qual J = r e a2 + b2 = r2 . Então


R ∞
2π R 2
Γ(x)Γ(y) = |r cos θ|2x−1 |r sen θ|2y−1 e−r rdrdθ
0 0
µ∞ ¶ µ2π ¶
R 2x+2y−2 −r2 R
= r e rdr |cos θ|2x−1 |sen θ|2y−1 dθ
µ∞
0 0
¶ Ã π/2 ! Capítulo 2
R ¡ 2 ¢x+y−1 −r2 R
= r e rdr 4 cos θ2x−1 sen θ2y−1 dθ
0 0
Algumas Distribuições Discretas
Fazendo r2 = t, resulta que 2rdr = dt e, portanto
µ∞ ¶ Ã π/2 !
R x+y−1 −t 1
R 2x−1 2y−1
Γ(x)Γ(y) = t e dt 4 cos θ sen θ dθ
0 2 0 2.1 Distribuição de Bernoulli
µ∞ ¶ Ã π/2 !
R x+y−1 −t
R 2x−1 2y−1
= t e dt 2 cos θ sen θ dθ 2.1.1 Definição
0 0
à ! Considere o lançamento de uma moeda. A característica desse experimento aleatório é que ele
R
π/2
= Γ(x + y) 2 cos θ2x−1 sen θ2y−1 dθ possui apenas dois resultados possíveis. Uma situação análoga surge quando da extração da carta
0 de um baralho, onde o interesse está apenas na cor (preta ou vermelha) da carta sorteada.
Um experimento de Bernoulli é um experimento aleatório com apenas dois resultados possíveis;
de onde se conclui que
por convenção, um deles é chamado “sucesso” e o outro “fracasso”.
Γ(x)Γ(y) R
π/2
= 2 cos θ2x−1 sen θ2y−1 dθ A distribuição de Bernoulli é a distribuição de uma v.a. X associada a um experimento de
Γ(x + y) 0 Bernoulli, onde se define X = 1 se ocorre sucesso e X = 0 se ocorre fracasso. Chamando de p a
Usando (1.23) obtemos uma das expressões alternativas para a função beta: probabilidade de sucesso (0 < p < 1), a distribuição de Bernoulli é:

R
π/2 x 0 1
B(x, y) = 2 cos θ2x−1 sen θ2y−1 dθ (2.1)
Pr(X = x) 1 − p p
0

Obviamente, as condições definidoras de uma fdp são satisfeitas, uma vez que p > 0, 1 − p > 0 e
p+(1−p) = 1. O valor de p é o único valor que precisamos conhecer para determinar completamente
a distribuição; ele é, então, chamado parâmetro da distribuição de Bernoulli. Se X tem distribuição
de Bernoulli com parâmetro p vamos representar este fato por X ∼ Bern(p).
A distribuição de Bernoulli pode também ser escrita da seguinte forma:

X ∼ Bern(p) ⇐⇒ Pr(X = x) = px (1 − p)1−x x = 0, 1

2.1.2 Função de distribuição acumulada


A função de distribuição acumulada é dada por:

⎨ 0 se x < 0
FX (x) = 1 − p se 0 ≤ x < 1 (2.2)

1 se x ≥ 1

Na Figura 2.1 temos os gráficos da fdp e da fda de uma distribuição de Bernoulli.

26
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 27 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 28

e, portanto
Figura 2.1: Distribuição de Bernoulli com parâmetro p
E(X) = φ0X (0) = p
FDP da Bern(p) FDA da Bern(p)
E(X 2 ) = φ00X (0) = p
1 1
V ar(X) = E(X 2 ) − [E(X)]2 = p − p2 = p(1 − p)
p

2.2 Distribuição Binomial


1-p
1-p 2.2.1 Definição
0 0
Consideremos n repetições independentes de um experimento de Bernoulli com parâmetro p (pense
0 1 -2 -1 0 1 2 3 4 em n lançamentos de uma moeda com probabilidade p de cara). Vamos definir a seguinte v.a.
associada a este experimento:

X = número de sucessos obtidos nas n repetições (2.5)


2.1.3 Esperança
Os valores possíveis de X são 0 (só ocorrem fracassos), 1 (ocorre apenas 1 sucesso), 2 (ocorrem
Seja X ∼ Bern(p). Então, E(X) = 0 × (1 − p) + 1 × p. Logo, 2 sucessos), . . . , n (ocorrem apenas sucessos). Vamos calcular a probabilidade de X = k, onde
k = 0, 1, 2, . . . , n. O evento X = k equivale à ocorrência de k sucessos e, portanto, n − k fracassos.
X ∼ Bern(p) ⇒ E(X) = p (2.3) Consideremos uma situação específica: as k primeiras repetições são “sucesso”. Como as repetições
são independentes, temos a probabilidade da interseção de eventos independentes; logo,
2.1.4 Variância
Pr(S1 ∩ . . . ∩ Sk ∩ Fk+1 ∩ . . . ∩ Fn ) = Pr (S1 ) × · · · × Pr (Sk ) × Pr (Fk+1 ) × · · · × Pr (Fn ) =
Seja X ∼ Bern(p). Então,
= p × p × · · · × p × (1 − p) × (1 − p) × · · · × (1 − p) = pk (1 − p)n−k
E(X 2 ) = 02 × (1 − p) + 12 × p ⇒ E(X 2 ) = p ⇒ V ar(X) = p − p2
Mas essa é uma ordenação específica, em que os sucessos são os primeiros resultados. Na verdade, os
Logo, k sucessos podem estar em qualquer posição e ainda teremos X = k. O número de maneiras possíveis
X ∼ Bern(p) ⇒ V ar(X) = p(1 − p) (2.4) de obter k sucessos em µn repetições
¶ nada mais é que o número de combinações de n elementos
n
tomados k a k, ou seja, . Como cada uma dessas maneiras tem a mesma probabilidade acima
k
2.1.5 Função geradora de momentos e elas são eventos mutuamente exclusivos, resulta que
Por definição Pr(X = k) = pk (1 − p)n−k + pk (1 − p)n−k + · · · + pk (1 − p)n−k
φX (t) = E(etX )
¡ ¢
e se X ∼ Bern(p) então onde o número de parcelas é nk . Logo
µ ¶
P
1 1 ¡
P ¢x n k
φX (t) = etx px (1 − p)1−x = pet (1 − p)1−x Pr(X = k) = p (1 − p)n−k k = 0, 1, 2, . . . , n (2.6)
x=0 x=0
k

ou Essa é a distribuição binomial; note que para determiná-la precisamos conhecer os valores de n e
φX (t) = 1 − p + pet p, que são os parâmetros da distribuição. Vamos usar a seguinte notação: X ∼ bin(n; p).
Para mostrar que (2.6) realmente define uma fdp falta mostrar que
Calculando as derivadas primeira e segunda, obtemos que
X
n
φ0X (t) = φ00X (t) = pet Pr(X = k) = 1.
k=0
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 29 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 30

já que, obviamente, Pr(X = k) ≥ 0. De fato: o teorema do binômio de Newton nos diz que, se x e No caso em que p = 0, 5, a distribuição será unimodal para n par e será bimodal para n ímpar.
y são números reais e n é um inteiro positivo, então Além disso, a distribuição é simétrica, pois
Xn µ ¶ ¡ ¢ ¡ n ¢
n k n−k Pr(X = k) = nk (0, 5)k (1 − 0, 5)n−k = n−k (0, 5)n−k (1 − 0, 5)n−(n−k) = Pr(X = n − k)
(x + y)n = x y . (2.7)
k=0
k
Na Figura 2.2 são exibidas as formas da distribuição binomial para alguns valores de n e p.
Fazendo x = p e y = 1 − p em (2.7), obtém-se:
Xn µ ¶ Xn n = 10; p=0,5 n = 7; p=0,5
n k
[p + (1 − p)]n = 1n = 1 = p (1 − p)n−k = Pr(X = k)
k=0
k k=0
0,3 0,3

0,2 0,2
o que prova o resultado.
Se X ∼ bin(n; p), então temos 0,1 0,1

0 0
n!
pk+1 (1 − p)n−k−1 0 1 2 3 4 5 6 7 8 7
P (X = k + 1) (k + 1)!(n − k − 1)!
=
P (X = k) n!
pk (1 − p)n−k n=8;p=0,2 n=8;p=0,7
k!(n − k)!
n−k p 0,4 0,4
= k = 0, 1, 2, . . . , n
(k + 1) 1 − p 0,3 0,3

0,2 0,2
Temos, assim, uma forma recursiva de calcular Pr(X = k). 0,1 0,1
Suponhamos, agora, que a probabilidade máxima ocorra em k0 ; então, usando o resultado acima, 0 0
temos que ter 0 1 2 3 4 5 6 7 8 0 1 2 3 4 5 6 7 8

P (X = k0 + 1) n − k0 p
≤ 1 =⇒ ≤ 1 =⇒ np − k0 p ≤ k0 − k0 p + 1 − p =⇒ n=9;p=0,3
P (X = k0 ) (k0 + 1) (1 − p)
np ≤ k0 + 1 − p =⇒ k0 ≥ p(n + 1) − 1 0,3

0,2
e também
0,1
P (X = k0 ) [n − (k0 − 1)] p
≥ 1 =⇒ · ≥ 1 =⇒ np − k0 p + p ≥ k0 − k0 p =⇒ 0
P (X = k0 − 1) k0 (1 − p) 0 1 2 3 4 5 6 7 8 9
k0 ≤ p(n + 1)
Vemos , então, que
p(n + 1) − 1 ≤ k0 ≤ p(n + 1) Figura 2.2: Gráfico da distribuição binomial para diferentes valores de n e p
e como k0 tem que ser inteiro, resulta que o ponto de máximo ocorre quando k0 = [p(n + 1)] ,
ou seja, a moda da distribução ocorre em k0 = [p(n + 1)] , onde [x] representa o maior inteiro
menor ou igual a x. Note que, se p(n + 1) for inteiro, então a distribuição é bimodal com moda em 2.2.2 Esperança
k0 = p(n + 1) e k0 = p(n + 1) − 1 pois
P [X = p(n + 1)] P (X = np + p) n − (np + p − 1) p X
n Xn µ ¶
= = · n k
P [X = p(n + 1) − 1] P (X = np + p − 1) np + p 1−p E (X) = k Pr (X = k) = k p (1 − p)n−k =
k=0 k=0
k
n − np − p + 1 p (n + 1) − p(n + 1)
= · = X
n
n!
p(n + 1) 1−p (n + 1)(1 − p) = k pk (1 − p)n−k
(n + 1)(1 − p) k=0
k! (n − k)!
= =1
(n + 1)(1 − p)
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 31 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 32

Quando k = 0, a parcela correspondente no somatório é nula. Logo, podemos escrever (note o X


n
(n − 1)!
= np k pk−1 (1 − p)n−k =
índice do somatório!): (k − 1)! (n − k)!
k=1

X
n
n! X n
n! X
n−1
(n − 1)!
E (X) = k pk (1 − p)n−k = k pk (1 − p)n−k = np (j + 1) pj (1 − p)n−j−1 =
k! (n − k)! k (k − 1)! (n − k)! j=0
j! (n − j − 1)!
k=1 k=1
X
n−1
(n − 1)! Xn−1
(n − 1)!
e como k 6= 0, podemos dividir o numerador e o denominadr por k, o que resulta na simplificação = np j pj (1 − p)n−j−1 + np pj (1 − p)n−j−1 =
j=0
j! (n − j − 1)! j=0
j! (n − 1 − j)!
X
n
n! Xn
n (n − 1)! ¡ ¢
E (X) = pk (1 − p)n−k = p × pk−1 (1 − p)n−k = n−1 µ
X ¶ n−1 µ
X ¶
(k − 1)! (n − k)! (k − 1)! (n − k)! n−1 j n−1 j
k=1 k=1 = np j p (1 − p)n−1−j + np p (1 − p)n−1−j
n µ ¶ j j
Xn
(n − 1)! n−k
X n − 1 k−1 j=0 j=0
= np k−1
p (1 − p) = np p (1 − p)n−k
k=1
(k − 1)! (n − k)! k=1
k − 1 Mas o primeiro somatório é a esperança de uma binomial com parâmetros (n − 1) e p; portanto,
pelo resultado (2.8), é igual a (n − 1) p. Já o segundo somatório é a soma das probabilidades dos
Fazendo j = k − 1, temos que valores de uma binomial com esses mesmos parâmetros (ou binômio de Newton); logo, é igual a 1.
Segue, então, que ¡ ¢
k = j+1 E X 2 = np (n − 1) p + np × 1 = n2 p2 − np2 + np
k = 1⇒j=0
e, portanto,
k = n⇒j =n−1
V ar (X) = E(X 2 ) − [E(X)]2 = n2 p2 − np2 + np − (np)2 = np − np2
Logo,
n−1 µ
X ¶ ou seja,
n−1 j
E (X) = np p (1 − p)n−1−j X ∼ bin(n, p) ⇒ V ar (X) = np (1 − p) (2.9)
j=0
j
Resumindo: ⎧
Mas nesse somatório temos as probabilidades de uma distribuição binomial com parâmetros (n − 1) ⎨ E (X) = np
e p; como estamos somando as probabilidades de todos os pontos do espaço amostral, segue que X ∼ bin(n, p) ⇒ (2.10)
esse somatório é igual a 1 (note que essa é a expressão do binômio de Newton para (x + y)n−1 com ⎩
V ar(X) = np(1 − p)
x = p e y = 1 − p) e, portanto,
2.2.4 Função geradora de momentos
X ∼ bin(n, p) ⇒ E (X) = np (2.8)
Por definição,
2.2.3 Variância P
n
φX (t) = E(etX ) = etk Pr(X = k)
2 k=0
Vamos calcular E (X ) . Usando raciocínio análogo ao usado no cálculo da esperança, temos que:
P
n ¡n¢ k Pn ¡ ¢¡
n
¢k
= etk
k
p (1 − p)n−k = k
pet (1 − p)n−k
Xn µ ¶ Xn k=0
£ ¤n k=0
¡ ¢ n k n!
E X2 = k2 p (1 − p)n−k = k2 pk (1 − p)n−k = = pet + (1 − p)
k=0
k k=1
k! (n − k)!
X
n pela fórmula do binômio de Newton. Logo,
n!
= k2 pk (1 − p)n−k = £ ¤n−1
k (k − 1)! (n − k)! φ0X (t) = npet pet + (1 − p)
k=1
£ ¤n−1 £ ¤n−2 t
X
n
n! φ00X (t) = npet pet + (1 − p) + n(n − 1)pet pet + (1 − p) pe
= k pk (1 − p)n−k = £ ¤n−1 £ ¤n−2
k=1
(k − 1)! (n − k)! = npet pet + (1 − p) + n(n − 1)p2 e2t pet + (1 − p)
X
n
n (n − 1)! ¡ ¢
= k p × pk−1 (1 − p)n−k = e, portanto
k=1
(k − 1)! (n − k)! E(X) = φ0X (0) = np [p + (1 − p)]n−1 = np
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 33 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 34

E(X 2 ) = φ00X (0) = np [p + (1 − p)]n−1 + n(n − 1)p2 [p + (1 − p)]n−2 2.3 Distribuição Geométrica
= np + n(n − 1)p2 = np + n2 p2 − np2
2.3.1 Definição
V ar(X) = E(X 2 ) − [E(X)]2 = np + n2 p2 − np2 − n2 p2 = np − np2 = np(1 − p)
Considere o seguinte experimento: uma moeda com probabilidade p de cara é lançada até que
apareça cara pela primeira vez. Para tal experimento, podemos definir a seguinte v.a. discreta
2.2.5 Exercícios resolvidos X = “número de repetições necessárias até a ocorrência da primeira cara”. Essa v.a. pode assumir
1. Um atirador acerta na mosca do alvo, 20% dos tiros. Se ele dá 10 tiros, qual a probabilidade os valores 1, 2, 3, . . . , ou seja, teoricamente, poderíamos ter que lançar a moeda infinitas vezes para
de ele acertar na mosca no máximo 1 vez? obter a primeira cara. Essa é uma situação em que é impossível encontrar algum paralelo na prática;
no entanto, o “infinito” na prática, em geral, é substituído por um “valor muito grande”. Considere
Solução:
uma população muito grande onde p% das pessoas sofrem de uma doença desconhecida. Precisa-se
Podemos pensar os tiros como experimentos de Bernoulli independentes, onde a probabilidade encontrar uma pessoa portadora da doença para que os médicos possam estudá-la. Quantas pessoas
de sucesso é 0,20. Então, o problema pede Pr(X ≤ 1), onde X = número de acertos em 10 teremos que examinar até encontrar uma portadora? Em ambas as situações, cada repetição do
tiros. Logo, X ∼ bin(10; 0, 20) e experimento (lançamento da moeda ou exame de uma pessoa) tem dois resultados possíveis (cara
µ ¶ µ ¶ ou coroa e Portadora ou não portadora da doença), ou seja, temos experimentos de Bernoulli e, de
10 10
Pr(X ≤ 1) = Pr(X = 0)+Pr(X = 1) = (0, 20)0 (0, 80)10 + (0, 20)1 (0, 80)9 = 0, 37581 um modo geral, podemos assumir que as repetições sejam independentes.
0 1
Consideremos, então, repetições independentes de um experimento de Bernoulli com parâmetro
2. Dois adversários A e B disputam uma série de 8 partidas de um determinado jogo. A proba- p. Vamos definir a seguinte v.a. associada a esse experimento aleatório:
bilidade de A ganhar uma partida é 0,6 e não há empate. Qual é a probabilidade de A ganhar
X = número de repetições necessárias para obtenção do primeiro sucesso (2.11)
a série?
Solução: Os valores possíveis de X são 1 (primeiro sucesso na primeira repetição), 2 (primeiro sucesso na
Note que só podem ocorrer vitórias ou derrotas, o que significa que temos repetições de um segunda repetição e, portanto, fracasso na primeira), 3 (primeiro sucesso na terceira repetição e,
experimento de Bernoulli com probabilidade 0,6 de sucesso (vitória). Assumindo a inde- portanto, fracasso nas duas primeiras), etc. Esse é um exemplo de v.a. discreta onde o espaço
pendência das provas, se definimos X = número de vitórias de A, então X ∼ bin(8; 0, 6) e o amostral, enumerável, é infinito.
problema pede Pr (X ≥ 5) , isto é, A ganha mais partidas que B. Para calcular a probabilidade de X = k, k = 1, 2, 3, . . . , devemos notar que tal evento corre-
sponde à ocorrência de fracassos nas k − 1 primeiras repetições e sucesso na k-ésima repetição.
Pr (X ≥ 5) = Pr (X = 5) + Pr (X = 6) + Pr (X = 7) + Pr (X = 8) = Denotando por Fi e Si a ocorrência de fracasso e sucesso na i-ésima repetição respectivamente,
µ ¶ µ ¶ µ ¶ µ ¶
8 8 8 8 temos a seguinte equivalência de eventos:
= (0, 6)5 (0, 4)3 + (0, 6)6 (0, 4) 2 + (0, 6)7 (0, 4)1 + (0, 6)8 (0, 4)0 =
5 6 7 8
= 0, 5940864 {X = k} = {F1 ∩ F2 ∩ · · · ∩ Fk−1 ∩ Sk }

Como as repetições são independentes, segue que


3. Joga-se uma moeda não viciada. Qual é a probabilidade de serem obtidas 5 caras antes de 3
coroas? Pr (X = k) = Pr (F1 ∩ F2 ∩ · · · ∩ Fk−1 ∩ Sk ) = Pr (F1 ) × Pr (F2 ) × · · · × Pr (Fk−1 ) × Pr (Sk ) =
Solução: = (1 − p) × (1 − p) × · · · × (1 − p) × p
Vamos definir sucesso = cara e fracasso = coroa. Então, Pr(sucesso) = Pr(fracasso) = 0, 5
e temos repetições de um experimento de Bernoulli. A ocorrência de 5 sucessos antes de 3 ou seja,
fracassos só é possível se nas 7 primeiras repetições tivermos pelo menos 5 sucessos. Seja, Pr(X = k) = (1 − p)k−1 p k = 1, 2, 3, · · · (2.12)
então, X = número de sucessos em 7 repetições. Logo, X ∼ bin(7; 0, 5) e o problema pede Dizemos que X tem distribuição geométrica com parâmetro p (o único valor necessário para especi-
Pr(X ≥ 5). ficar completamente a fdp) e vamos representar tal fato por X ∼ Geom(p).
Pr (X ≥ 5) = Pr (X = 5) + Pr (X = 6) + Pr (X = 7) = As características definidoras desse modelo são: (i) repetições de um mesmo experimento de
µ ¶ µ ¶ µ ¶ Bernoulli, o que significa que em todas elas a probabilidade de sucesso (e, portanto, de fracasso)
7 7 7
= (0, 5)7 + (0, 5)7 + (0, 5)7 = é a mesma e (ii) as repetições são independentes. No caso do lançamento de uma moeda essas
5 6 7 hipóteses são bastante plausíveis, mas no caso da doença a hipótese de independência poderia não
= 0, 2265625
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 35 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 36

ser satisfeita se cuidados na seleção da amostra não fossem tomados; por exemplo, poderia haver
um componente de hereditariedade.
Para mostrar que (2.12) realmente define uma fdp, temos que mostrar que a soma das prob-
abilidades, isto é, a probabilidade do espaço amostral é 1 (obviamente, Pr(X = k) ≥ 0). Temos
que:
X∞ X∞ X

Pr(X = k) = (1 − p)k−1 p = p (1 − p)k−1 .
k=1 k=1 k=1
Fazendo a mudança de variável j = k − 1, temos que
k = j+1 Distribuição geométrica - p = 0,2
k = 1⇒j=0
0,3
k = ∞⇒j=∞
Portanto, 0,2

P(X = k)
X
∞ X

Pr(X = k) = p (1 − p)j 0,1
k=1 j=0

Mas essa é a série geométrica de razão 1 − p; pelo resultado (1.1) do Capítulo 1, obtém-se que: 0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
X

1 k
Pr(X = k) = p × = 1.
k=1
1 − (1 − p)

Na Figura 2.3 temos o gráfico da distribuição geométrica para p = 0, 2 e p = 0, 5. À medida que


Distribuição geométrica - p = 0,5
p aumenta o decaimento é muito mais rápido.
0,6

2.3.2 Função de distribuição acumulada 0,5

0,4

P(X = k)
Vamos usar novamente a seguinte notação: [x] representa o maior inteiro contido em x, isto é, o
0,3
maior inteiro menor ou igual a x. Então, para x < 1, F (x) = 0 e para x ≥ 1 temos que
0,2
[x] [x]
X X 0,1
F (x) = Pr(X ≤ x) = Pr(X = k) = p(1 − p)k−1 0
k=1 k=1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
k
Fazendo a mudança de variável j = k − 1, temos que
k = j+1
k = 1⇒j=0
k = [x] ⇒ j = [x] − 1 Figura 2.3: Distribuição geométrica - p = 0, 2 e p = 0, 5
e, portanto, se x ≥ 1
[x]−1
X 1 − (1 − p)[x]−1+1
F (x) = p(1 − p)j = p = 1 − (1 − p)[x]
j=0
1 − (1 − p)

Resumindo: ½
0 se x < 1
F (x) = (2.13)
1 − (1 − p)[x] se x ≥ 1
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 37 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 38

2.3.3 Esperança Fazendo a mudança de variável k − 2 = j no somatório, resulta que


X
∞ X
∞ X

E(X) = k Pr(X = k) = kp(1 − p)k−1 = p k(1 − p)k−1 k = j+2
k=1 k=1 k=1 k = 2⇒j=0
Fazendo a mesma mudança de variável k − 1 = j, resulta que k = ∞⇒j=∞
X

Portanto,
E(X) = p (j + 1)(1 − p)j X∞
1
j=0 E(X 2 ) = p(1 − p) (j + 2)(j + 1)(1 − p)j +
j=0
p
Usando o resultado (1.3) do Capítulo 1 com r = 1 − p, obtemos que:
Usando o resultado (1.5) do Capítulo 1 com r = 1 − p, obtemos que:
1 p 1
E(X) = p × = 2 = ¡ ¢
[1 − (1 − p)]2 p p 2 1
E X 2 = p(1 − p) × + =
[1 − (1 − p)]3 p
Logo,
1 2(1 − p) 1 2 − 2p + p 2 − p
X ∼ Geom(p) ⇒ E(X) = (2.14) = + = =
p p2 p p2 p2
Segue que:
2.3.4 Variância 2−p 1 1−p
V ar(X) = E(X 2 ) − [E(X)]2 = − 2 =
2
Para calcular a variância, temos que calcular E(X ). Por definição, p2 p p2
Logo,
X
∞ X

¡ 2 ¢ 1−p
2 2 k−1
E(X ) = k p(1 − p) =p k − k + k (1 − p)k−1 = X ∼ Geom(p) ⇒ V ar(X) = (2.15)
p2
k=1 k=1
X∞
¡ 2 ¢ X
∞ Resumindo: ⎧
= p k − k (1 − p)k−1 + p k(1 − p)k−1 ⎪ 1

⎪ E(X) =
k=1 k=1 ⎨ p
X∞ X
∞ X ∼ Geom(p) ⇒ (2.16)

⎪ 1−p
= p k(k − 1)(1 − p)k−1 + kp(1 − p)k−1 ⎪
⎩ V ar(X) =
k=1 k=1 p2
O segundo somatório é a esperança da distribuição geométrica com parâmetro p; logo, ele é igual
a 1p . Portanto, 2.3.5 Função geradora de momentos
X∞
1 Por definição,
E(X 2 ) = p k(k − 1)(1 − p)k−1 +
k=1
p P
∞ P
∞ P

φX (t) = E(etX ) = etk p(1 − p)k−1 = et(j+1) p(1 − p)j = pet etj (1 − p)j
No somatório acima, a parcela correspondente a k = 1 é nula, logo, podemos escrever (note o índice k=1 j=0 j=0
do somatório!): ∞ £
P ¤j
= pet et (1 − p)
j=0
X

1
E(X 2 ) = p k(k − 1)(1 − p)k−1 + Então, se
k=2
p et (1 − p) < 1
X∞
1 1
= p k(k − 1)(1 − p)k−2 (1 − p) + = isto é, para t < ln 1−p temos que
k=2
p
X
∞ 1 pet
1 φX (t) = pet =
= p(1 − p) k(k − 1)(1 − p)k−2 + 1 − et (1 − p) 1 − et (1 − p)
k=2
p
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 39 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 40

Calculando as derivadas primeira e segunda, temos que 2.3.7 Forma alternativa da distribuição geométrica
pet [1 − et (1 − p)] − pet [−et (1 − p)] pet − pe2t (1 − p) + pe2t (1 − p) pet Em vez de definir a variável geométrica como “número de repetições até primerio sucesso”, podemos
φ0X (t) = = = usar a seguinte definição alternativa:
[1 − et (1 − p)]2 [1 − et (1 − p)]2 [1 − et (1 − p)]2
Y = “número de fracassos antes do primeiro sucesso” (2.17)
t t 2 t t t
pe [1 − e (1 − p)] − 2pe [1 − e (1 − p)] [−e (1 − p)] Neste caso, a distribuição de Y é
φ00X (t) =
[1 − et (1 − p)]4
2
Pr(Y = k) = (1 − p)k p k = 0, 1, 2, . . . (2.18)
pet [1 − et (1 − p)] + 2pe2t [1 − et (1 − p)] (1 − p)
= Em termos da variável geométrica X definida anteriormente em (2.11), podemos ver que
[1 − et (1 − p)]4

Logo, Y =X −1
p p 1
E(X) = φ0X (0) = = 2 = e essa distribuição de probabilidade é às vezes chamada distribuição geométrica deslocada (em
[1 − (1 − p)]2 p p inglês, shifted geometric distribution).
e Foi visto que se U e V são variáveis aleatórias tais que U = aV + b então
p [1 − (1 − p)]2 + 2p [1 − (1 − p)] (1 − p) E(U) = aE(V ) + b
E(X 2 ) = φ00X (0) =
[1 − (1 − p)]4 V ar(U) = b2 V ar(V )
3 2
p + 2p (1 − p) 2p − p3
2
2−p φU (t) = ebt φV (at)
= 4
= =
p p4 p2
No caso da distribuição geométrica deslocada, temos que Y = X − 1; logo,
e, portanto
2−p 1 1−p 1 1−p
V ar(X) = − 2 = E(Y ) = E(X) − 1 = −1=
p2 p p2 p p
1−p
mesmos resultados obtidos anteriormente. V ar(Y ) = V ar(X) =
p2
pet p
2.3.6 Exercícios resolvidos φY (y) = e−t φX (t) = e−t = et (1 − p) < 1
1 − et (1 − p) 1 − et (1 − p)
1. Um atirador acerta na mosca do alvo, 20% dos tiros. Qual a probabilidade de ele acertar na
mosca pela primeira vez no 10o tiro? 2.3.8 Propriedade da falta de memória da geométrica
Solução: Seja X ∼ geom(p). Considere a seguinte probabilidade condicional Pr(X > m + n|X > n), cuja
Podemos pensar os tiros como experimentos independentes de Bernoulli (acerta ou não ac- interpretação é a seguinte: dado que já foram realizadas mais de n repetições do experimento de
erta). A probabilidade de sucesso (acertar no alvo) é p = 0, 20. Estamos querendo o número Bernoulli, qual é a probabilidade de serem necessárias mais de m repetições adicionais para se obter
de tiros até o primeiro acerto e calcular a probabilidade de que esse número seja 10. Seja X = o primeiro sucesso? Vamos calcular essa probabilidade; por definição de probabilidade condicional
número de tiros até primeiro acerto. Então, X ∼ Geom(0, 20) e Pr (X = 10) = 0, 89 × 0, 2 = temos que
0, 02684. Pr [(X > m + n) ∩ (X > n)] Pr(X > m + n)
Pr(X > m + n|X > n) = =
2. Joga-se um dado equilibrado. Qual é a probabilidade de serem necessários 10 lançamentos Pr(X > n) Pr(X > n)
até a primeira ocorrência de um seis? 1 − Pr(X ≤ m + n) 1 − [1 − (1 − p)m+n ] (1 − p)m+n
= = =
Solução: 1 − Pr(X ≤ n) −1 [1 − (1 − p)n ] (1 − p)n
m
= (1 − p) = Pr(X > m)
Nesse caso, sucesso é a ocorrência de face seis. Logo, Pr(sucesso) = p = 16 e Pr(fracasso)
¡ ¢ =
1 − p = 56 . Seja X = número de lançamentos até primeiro seis. Então, X ∼ geom 16 e o Note o resultado: a probabilidade de serem necessárias mais de m repetições do experimento é
¡ ¢9 ¡ 1 ¢
problema pede Pr (X = 10) = 56 = 0, 03230. a mesma, quer o sistema tenha ou não rodado n vezes. Isto é, o sistema “esquece” que já rodou n
6
vezes e, por isso, essa propriedade é chamada de “falta de memória” da geométrica.
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 41 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 42
¡k−1¢
2.4 Distribuição binomial negativa Mas existem r−1 maneiras de arrumar r − 1 sucessos em k − 1 posições e as seqüências resul-
tantes têm todas a probabilidade acima. Como elas constituem eventos mutuamente exclusivos, a
2.4.1 Definição probabilidade da união delas, que é Pr (X = k) , é a soma das probabilidades, ou seja:
Consideremos novamente repetições independentes de um experimento de Bernoulli com probabi- Pr (X = k) = pr (1 − p)k−r + pr (1 − p)k−r + · · · + pr (1 − p)k−r
lidade p de sucesso. Vamos considerar agora uma generalização da v.a. geométrica, no seguinte ¡ ¢
sentido: onde o número de parcelas é k−1
r−1
. Logo
µ ¶
X = número de repetições necessárias até a obtenção do r-ésimo sucesso, r ≥ 1 (2.19) k−1 r
Pr (X = k) = p (1 − p)k−r k≥r (2.20)
r−1
Quando r = 1 temos a distribuição geométrica.
Note que na distribuição binomial negativa, o número de lançamentos é variável e o número de Essa distribuição, caracterizada pelos parâmetros r e p, é chamada distribuição binomial negativa,
sucessos é um número fixo (pré-determinado); note o contraste com a distribuição binomial , em também conhecida como distribuição de Pascal. Se X tem tal distribuição, vamos representar tal
que o número de lançamentos é fixo e o número de sucessos é a variável de interesse; fato por X ∼ BinNeg(r, p).
Como Pr (X = k) ≥ 0, para mostrar que (2.20) realmente define uma fdp, fica faltando mostrar
Número de sucessos Número de repetições que µ ¶
Dist. binomial negativa fixo variável aleatória P
∞ P
∞ k−1 r
Pr (X = k) = p (1 − p)k−r = 1.
Dist. binomial variável aleatória fixo k=r k=r r − 1

Para definir os possíveis valores de X, devemos notar que para ter r sucessos, são necessários Fazendo k − r = j, temos que k = r ⇒ j = 0 e k = r + j. Logo
no mínimo r repetições. Logo, os possíveis valores de X são r, r + 1, r + 2, . . . . O evento X = k µ ¶ µ ¶
indica que foram necessárias k repetições para obter r sucessos e, portanto, k − r fracassos. Pela P∞ P∞ r+j−1 r P∞ r−1+j
Pr (X = k) = p (1 − p)j = pr (1 − p)j
definição da variável, a última repetição resultou em sucesso e os outros r − 1 sucessos podem estar k=r j=0 r−1 j=0 r−1
em quaisquer das k − 1 posições restantes (ver Figura 2.4).
Usando o resultado dado na equação (1.8) do Capítulo 1 com k = r − 1 e r = 1 − p, obtemos que:

Figura 2.4: Ilustração do evento {X = k} para a v.a. binomial negativa P


∞ 1
Pr (X = k) = pr × =1
k=r [1 − (1 − p)]r−1+1

k-1 repetições 2.4.2 Forma alternativa da distribuição binomial negativa


r-1 sucessos
Assim como no caso da distribuição geométrica, podemos definir a variável binomial negativa como
S
Y = “número de fracassos antes do r-ésimo sucesso” (2.21)

k repetições e, neste caso, µ ¶


k+r−1 r
Pr(Y = k) = p (1 − p)k k = 0, 1, 2, . . . (2.22)
r−1
Note a seguinte relação: se X tem distribuição dada por (2.20), então
Uma seqüência possível de resultados é ter os r − 1 sucessos nas primeiras posições, os k − r
fracassos nas posições seguintes e o último sucesso na última posição: S1 . . . Sr−1 Fr . . . Fk−1 Sk . A Y =X −r
probabilidade de tal seqüência é dada pelo produto das probabilidades, já que as repetições são
independentes, isto é: 2.4.3 Por que binomial negativa?
¡ ¢
Pr (S1 ∩ . . . ∩ Sr−1 ∩ Fr ∩ . . . Fk−1 ∩ Sk ) = Quando definimos o número binomial nk , supusemos que n > 0 e 0 < k < n e vimos que
= Pr (S1 ) × · · · × Pr (Sr−1 ) × Pr (Fr ) × · · · × Pr (Fk−1 ) × Pr (Sk ) µ ¶
n n! n(n − 1) · · · (n − k + 1)(n − k)! n(n − 1) · · · (n − k + 1)
= p × · · · × p × (1 − p) × · · · × (1 − p) × p = pr (1 − p)k−r = = =
k k!(n − k)! k!(n − k)! k!
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 43 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 44

De forma análoga, definimos Fazendo k − r = j, temos que k = r ⇒ j = 0 e k = r + j. Logo,


µ ¶ µ ¶
−n (−n)(−n − 1) · · · (−n − k + 1) X∞
r+j −1
= E(X) = pr (j + r) (1 − p)j =
k k! r−1
j=0
X∞ µ ¶ X∞ µ ¶
que pode ser escrito como r−1+j r−1+j
µ ¶ = pr j (1 − p)j + rpr (1 − p)j = (por 1.8 do Cap. 1)
r−1 r−1
−n [(−1)(n)] [(−1)(n + 1)] · · · [(−1)(n + k − 1)] j=0 j=0
= X∞ µ ¶
k k! r−1+j rpr
= pr j (1 − p)j + =
(−1)k n(n + 1) · · · (n + k − 1) r − 1 [1 − (1 − p)]r−1+1
= j=0
k! X∞ µ ¶
r−1+j
Vamos, agora, analisar a expressão (2.22): = pr j (1 − p)j + r (2.23)
j=0
r−1
µ ¶
k+r−1 r
Pr(Y = k) = p (1 − p)k Vamos calcular esse somatório. A primeira observação é que, quando j = 0, a parcela correspon-
r−1 dente no somatório é nula; logo, podemos começar o somatório de j = 1, ou seja:
µ ¶
k+r−1 r
= p (1 − p)k X ∞ µ ¶ X ∞ µ ¶
k r−1+j r−1+j
j (1 − p)j = j (1 − p)j =
(k + r − 1)! r r−1 r−1
= p (1 − p)k j=0 j=1
k!(r − 1)! X

(r − 1 + j)!
(k + r − 1)(k + r − 2) · · · (k + r − k + 1)(k + r − k)(k + r − k − 1)! r = j× (1 − p)j
= p (1 − p)k j=1
(r − 1)! (r − 1 + j − r + 1)!
k!(r − 1)!
(k + r − 1)(k + r − 2) · · · (k + r − k + 1)(k + r − k) r X

(r − 1 + j)!
= p (1 − p)k = j× (1 − p)j =
k! j=1
(r − 1)!j!
r(r + 1) · · · (r + k − 2)(r + k − 1) r
= p (1 − p)k X

(r − 1 + j)!
k! = j× (1 − p)j
[(−1)(−r)] [(−1)(−r − 1)] · · · [(−1)(−r − k + 1] r j=1
(r − 1)!j (j − 1)!
= p (1 − p)k
µ ¶ k!
−r r Como j 6= 0, podemos dividir o numerador e o denominador por j, o que resulta na simplificação:
= (−1)k p (1 − p)k
k X∞ µ ¶ X∞
r−1+j (r − 1 + j)!
j (1 − p)j = j× (1 − p)j
Logo, uma outra forma de escrever a distribuição binomial negativa é j=0
r−1 j=1
(r − 1)!j (j − 1)!
µ ¶ X

−r r (r + j − 1)!
Pr(Y = k) = (−1)k p (1 − p)k k = 0, 1, 2, . . . = (1 − p)j
k j=1
(r − 1)!(j − 1)!

daí o nome binomial negativa. Note que essa distribuição corresponde à variável Y =“número de X

(r + j − 1)!
= (1 − p) (1 − p)j−1
fracassos antes do r-ésimo sucesso”. j=1
(r − 1)!(j − 1)!

2.4.4 Esperança
Por definição, temos que
X∞ µ ¶
k−1 r
E(X) = k p (1 − p)k−r =
k=r
r − 1
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 45 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 46

Fazendo j − 1 = n, temos que j = 1 ⇒ n = 0 e j = ∞ ⇒ n = ∞; logo: Usando os resultados (1.8) do Capítulo 1 com k = r − 1 e r = 1 − p e (2.24) anterior, temos que:
X∞ µ ¶ X∞
r−1+j (r + n)! µ ¶
j (1 − p)j = (1 − p) (1 − p)n = 1 r(1 − p) X∞
r−1 (r − 1)!n! 2 r−1+j
j=0 n=0 E(X 2 ) = r2 pr × + 2rpr
× + p r
j (1 − p)j
[1 − (1 − p)]r−1+1 pr+1 r−1
X∞
r(r + n)!
j=0
= (1 − p) (1 − p)n = X∞ µ ¶
r(r − 1)!n! 2r2 (1 − p) r−1+j
n=0 = r2 + + pr j2 (1 − p)j =
p r−1
X

(r + n)! j=0
= r(1 − p) (1 − p)n X∞ µ ¶
r!n! 2r2 − r2 p r−1+j
n=0 = + pr j2 (1 − p)j (2.26)
X∞ µ ¶ p r−1
r+n j=0
= r(1 − p) (1 − p)n
n=0
n De modo análogo, esse somatório é calculado, notando inicialmente que, quando j = 0, a parcela
do somatório é nula; logo,
Usando novamente o resultado (1.8) do Capítulo 1 com r = 1 − p e k = r, otém-se que:

X∞ µ ¶ µ ¶
r−1+j 1 r(1 − p) X

r−1+j X∞
(r − 1 + j)!
j (1 − p)j = r(1 − p) × r+1 = (2.24) j2 (1 − p)j = j2 × (1 − p)j
j=0
r − 1 [1 − (1 − p)] pr+1 r−1 (r − 1)!(r − 1 + j − r + 1)!
j=0 j=1
X

(r − 1 + j)!
Substituindo em (2.23), obtemos que: = j2 × (1 − p)j =
j=1
(r − 1)!j (j − 1)!
r(1 − p) r(1 − p)
E(X) = pr × +r = +r X

(r + j − 1)!
pr+1 p = (1 − p) j (1 − p)j−1 =
j=1
(r − 1)!(j − 1)!
Logo,
r
X ∼ BinNeg(r, p) ⇒ E(X) = (2.25) Fazendo j − 1 = n, obtemos que:
p
X∞ µ ¶ X∞
Com a forma alternativa, temos que Y = X − r e, portanto, r−1+j (r + n)!
j2 (1 − p)j = (1 − p) (n + 1) (1 − p)n =
r − 1 (r − 1)!n!
r r(1 − p) j=0 n=0
E(Y ) = E(X) − r = −r = X∞
p p r(r + n)!
= (1 − p) (n + 1) (1 − p)n =
n=0
r (r − 1)!n!
2.4.5 Variância X∞ X∞
(r + n)! (r + n)!
2
Vamos calcular E(X ). Como antes, vamos usar a mudança de variável k − r = j. = r(1 − p) n (1 − p)n + r(1 − p) (1 − p)n =
n=0
r!n! n=0
r!n!
µ ¶ X∞ µ ¶ X∞ µ ¶
X

k−1 r r+n r+n
E(X 2 ) = k2 p (1 − p)k−r = = r(1 − p) n (1 − p)n + r(1 − p) (1 − p)n
r−1 n=0
r n=0
n
k=r
X ∞ µ ¶
r+j−1 Usando o resultado (2.24) com r no lugar de r − 1 e o resultado (1.8) do Capítulo 1, obtemos:
= pr (j + r)2 (1 − p)j =
j=0
r−1
X ∞ µ ¶
r−1+j
= pr (r2 + 2rj + j 2 ) (1 − p)j =
j=0
r−1
X∞ µ ¶ X∞ µ ¶ X∞ µ ¶
r−1+j r−1+j r−1+j
= r2 pr (1 − p)j + 2rpr j (1 − p)j + pr j2 (1 − p)j
j=0
r−1 j=0
r−1 j=0
r−1
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 47 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 48

2.4.6 Função geradora de momentos


X
∞ µ ¶
r−1+j (1 − p)(r + 1) 1 Por definição
j2 (1 − p)j = (1 − p)r × + (1 − p)r × =
j=0
r − 1 pr+2
[1 − (1 − p)]r+1 P

2
φX (t) = E(etX ) = etk P (X = k)
(1 − p) r(r + 1) (1 − p)r k=r
= + µ ¶
pr+2 pr+1 P∞ k−1 r
= etk p (1 − p)k−r
(1 − 2p + p2 )(r2 + r) + pr(1 − p) k=r r−1
= = µ ¶
pr+2 P∞ r+j−1 r
= et(j+r) p (1 − p)j
r − 2pr + p r + r − 2pr + p r + pr − p2 r
2 2 2 2 2
j=0 r−1
= = µ ¶
pr+2 P∞ ¡ ¢r r + j − 1 £ t ¤j
r2 − 2pr2 + p2 r2 + r − pr = pet e (1 − p)
= j=0 r−1
pr+2 µ ¶
¡ ¢r P ∞ r+j−1 £ t ¤j
= pet e (1 − p)
Substituindo em (2.26), obtemos que: j=0 r−1
¡ ¢r 1
= pet
[1 − et (1 − p)]r
2r2 − r2 p r2 − 2pr2 + p2 r2 + r − pr ∙ ¸r
E(X 2 ) = + pr × = pet
p pr+2 = se et (1 − p) < 1
1 − et (1 − p)
2r2 − r2 p r2 − 2pr2 + p2 r2 + r − pr
= +
p p2 Aqui fez-se uso do resultado (1.8) do Capítulo 1.
2r p − r p + r − 2pr + p2 r2 + r − pr
2 2 2 2 2
Com a forma alternativa, temos que Y = X − r; logo,
= =
p2 ∙ ¸r ∙ ¸r
pet p
r2 + r − pr φY (t) = e−rt φX (t) = e−rt = se et (1 − p) < 1
= t
1 − e (1 − p) t
1 − e (1 − p)
p2
Logo, 2.4.7 Exercícios resolvidos
µ ¶2 1. Joga-se um dado equilibrado. Qual é a probabilidade de serem necessários 10 lançamentos
r2 + r − pr r r2 + r − pr − r2
V ar(X) = 2
− = até a terceira ocorrência de um seis?
p p p2
ou Solução:
r(1 − p)
X ∼ BinNeg(r, p) ⇒ V ar(X) = (2.27) Nesse caso, sucesso é a ocorrência de face seis. Logo, Pr(sucesso) = p = 16 e Pr(fracasso)
¡ ¢=
p2 1 − p = 56 . Seja X = número de lançamentos até terceiro seis. Então, X ∼ BinNeg 3; 16 e
Para a forma alternativa, como Y = X − r, resulta que ¡ ¢ ¡ ¢7 ¡ 1 ¢3
o problema pede Pr (X = 10) = 92 56 6
= 0, 046514.
r(1 − p) 2. Deseja-se produzir 5 peças boas, em uma máquina que dá 20% de peças defeituosas. Qual é
V ar(Y ) = V ar(X) =
p2 a probabilidade de ser necessário fabricar 8 peças para se conseguir as 5 peças boas?
Solução:
Seja X = número de peças fabricadas até a obtenção de 5 boas (sucesso). Temos que Pr(peça
boa) = 0, 80 e¡ Pr(peça
¢ defeituosa) = 0, 20. Logo, X ∼ BinNeg (5; 0, 80) . O problema pede
Pr(X = 8) = 74 (0, 80)5 (0, 20)3 = 0, 0917504.
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 49 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 50

em que o símbolo # indica o número de elementos do evento (conjunto) e Ω representa o espaço


amostral. O espaço amostral de tal experimento consiste em todas as amostras de 4 bolas que
Resumo da distribuição geométrica
podemos retirar desta urna contendo 11 bolas. Logo,
X =“número de repetições até 1o. sucesso” Y =“número de fracassos antes do 1o. sucesso”
µ ¶
Y =X −1 11
Pr(X = k) = (1 − p)k−1 p k = 1, 2, . . . Pr(Y = k) = (1 − p)k p k = 0, 1, 2, . . . #Ω =
4
1 1−p ¡¢
E(X) = E(Y ) = E(X) − 1 =
p p X = 0 equivale à retirada de 4 bolas brancas; como temos 6 bolas brancas na urna, há 64 maneiras
1−p 1−p de retirar 4 bolas brancas. Logo,
V ar(X) = V ar(Y ) = V ar(X) = ¡¢ 6
p2 p2 4
pet p Pr(X = 0) = ¡11¢
φX (t) = et (1 − p) < 1 φY (t) = e−t φX (t) = et (1 − p) < 1 4
1 − et (1 − p) 1 − et (1 − p)
X = 1¡ equivale
¢ à retirada de 1 bola verde e 3 bolas brancas. Como temos 6 bolas
¡ ¢ brancas na
urna, há 63 maneiras de retirar 3 bolas brancas e como há 5 bolas verdes, há 51 maneiras de
Resumo da distribuição binomial negativa retirar 1 bola verde. Pelo princípio fundamental
¡ ¢ da¡ ¢multiplicação, o número total de maneiras de
X =“número de repetições até ro sucesso” Y =“número de fracassos antes do ro sucesso” retirarmos 1 bola verde e 3 bolas brancas é 51 × 63 . Logo,
Y =X −r µ ¶ ¡5¢¡6¢
µ ¶ k+r−1 r
k−1 r k−r Pr(Y = k) = p (1 − p)k Pr(X = 1) = 1¡11¢3
Pr(X = k) = p (1 − p) r−µ 1 ¶
r−1 −r r
4
k = r, r + 1, . . . = (−1)k p (1 − p)k De maneira geral, temos que
k
k = 0, 1, 2, . . . ¡5¢¡ 6
¢
r r(1 − p) Pr(X = k) = k
¡114−k
¢ k = 0, 1, 2, 3, 4 (2.28)
E(X) = E(Y ) = E(X) − r =
p µ ¶ µp ¶ 4
1−p 1−p
V ar(X) = r V ar(Y ) = V ar(X) = r • Caso 2: Não há bolas verdes (sucessos) suficientes
∙ p2 ¸r ∙ p2 ¸r
pet t −t p
φX (t) = e (1 − p) < 1 φ Y (t) = e φX (t) = et (1 − p) < 1 Consideremos uma urna com 11 bolas, das quais 2 são verdes e 9 são brancas. Dessa urna
1 − et (1 − p) 1 − et (1 − p) iremos extrair 4 bolas sem reposição. Como só há 2 bolas verdes na urna, não podemos ter 3 ou 4
bolas verdes na amostra, ou seja, o número máximo possível de bolas verdes na amostra é 2. Os
2.5 Distribuição hipergeométrica valores possíveis de X neste caso são 0, 1, 2 e a probabilidade de cada um desses valores é
¡2¢¡ 9 ¢
2.5.1 Exemplo Pr(X = k) = k
¡114−k
¢ k = 0, 1, 2 (2.29)
4
Iremos introduzir a distribuição hipergeométrica a partir do seguinte exemplo: de uma urna com
bolas verdes (Sucessos) e brancas (Fracassos), serão retiradas 4 bolas sem reposição e o interesse Como não podemos ter 3 nem 4 bolas verdes na amostra, os valores X = 3 e X = 4 são
está no número X de bolas verdes (Sucessos) retiradas. impossíveis e, portanto, Pr(X = 3) = 0 e Pr(X = 4) = 0. Suponhamos que usássemos a fórmula
(2.29) para calcular Pr(X = 3) neste caso; isso resultaria em
• Caso 1: Bolas suficientes de ambas as cores ¡2¢¡ 9 ¢
3
Consideremos uma urna com 11 bolas, das quais 5 são verdes e 6 são brancas. Dessa urna Pr(X = 3) = ¡114−3
¢
iremos extrair 4 bolas sem reposição. Como 4 < 5 e 4 < 6 temos bolas sufucientes de ambas as 4
cores, ou seja, na amostra podemos ter 0 bola verde, 1 bola verde, 2 bolas verdes, 3 bolas verdes e ¡2¢
4 bolas verdes. Logo, os possíveis valores de X são 0, 1, 2, 3, 4. ¡Note
n
¢ o número combinatório 3 ! No estudo da Análise¡2Combinatória,
¢ vimos que a definição
¡ ¢ de
requer que n ≥ k, ou seja, não é possível calcular 3 . No entanto, se “definirmos” 23 = 0
Vamos calcular a probabilidade de cada um destes valores, usando a definição clássica de pro- k
obtemos o resultado desejado: Pr(X = 3) = 0. Analogamente,
¡¢ se cálculássemos Pr(X = 4) com a
babilidade:
#A fórmula (2.29), apareceria o número combinatório 24 e definindo esse número como 0, obteríamos
Pr(A) = o resultado desejado: Pr(X = 4) = 0.
#Ω
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 51 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 52

Com essa convenção, podemos “esquecer” que o valor máximo de X é 2 e podemos trabalhar
com valores de X indo de 0 até o tamanho da amostra, como no caso mais favorável ¡ ¢ em que há
bolas suficientes de ambas as cores. O único cuidado é lembrar que, por definição, nk = 0 sempre
que k > n.

• Caso 3: Não bolas brancas (fracassos) suficientes

Consideremos uma urna com 11 bolas, das quais 9 são verdes e 2 são brancas. Dessa urna
iremos extrair 4 bolas sem reposição. Como só há 2 bolas brancas na urna, não podemos ter 0 ou
1 bolas verdes na amostra, uma vez que isso implicaria em 4 e 3 bolas brancas, repsectivamente.
Assim, o número mínimo possível de bolas verdes na amostra é 2, ou seja, os valores possíveis de
X neste caso são 2, 3, 4 e a probabilidade de cada um desses valores é
¡9¢¡ 2 ¢
k
Pr(X = k) = ¡114−k
¢ k = 2, 3, 4 (2.30)
4
Figura 2.5: Ilustração do experimento definidor da v.a. hipergeométrica
Como no caso anterior, os valores X = 0 e X = 1 são impossíveis e, portanto, Pr(X = 0) = 0 e
Pr(X = 1) = 0. Suponhamos que usássemos a fórmula (2.30) para calcular Pr(X = 0) neste caso;
Essa é a distribuição hipergeométrica com parâmetros N, r e n. Notação: X ∼ hiper(N, r, n).
isso resultaria em ¡ ¢¡ ¢9 2 Para provar que (2.31) realmente define uma função de distribuição de probabilidade, note
0
Pr(X = 0) = ¡114−0
¢ inicialmentePque Pr (X = k) ≥ 0. Temos que provar que a probabilidade do espaço amostral é 1,
4 isto é, que k Pr (X = k) = 1, ou seja
¡¢
Definindo 24 = 0, obtemos o resultado desejado: Pr(X = 0) = 0. Analogamente, se calculássemos µ ¶µ ¶
¡¢ r N −r
Pr(X = 1) com a fórmula (2.30), apareceria o número combinatório 23 e definindo esse número
Pn k n−k
como 0, obteríamos o resultado desejado: Pr(X = 1) = 0. µ ¶ =1
Como antes, podemos trabalhar com valores de X indo de 0 até o tamanho da amostra, como k=0 N
no caso mais favorável n
¡ ¢ em que há bolas suficientes de ambas as cores. O único cuidado é lembrar
que, por definição, nk = 0 sempre que k > n. e isso é equivalente a provar que
µ ¶µ ¶ µ ¶
P
n r N −r N
2.5.2 Definição = (2.32)
k=0 k n − k n
Em termos mais gerais, o exemplo acima descreve a seguinte situação: considere uma população de
Para tal, vamos recordar a fórmula de Euler, vista anteriormente:
tamanho N (a urna com as bolas) dividida em 2 classes (duas cores), uma composta de r “sucessos”
µ ¶µ ¶ µ ¶
e a outra composta de N −r “fracassos”. Dessa população, vamos extrair uma amostra de tamanho Ps m n m+n
n sem reposição (ver Figura 2.5). = (2.33)
k=0 k s−k s
Vamos considerar a seguinte v.a. para esse experimento: Podemos ver que a expressão (2.32) nada mais é que a fórmula de Euler com m = r, n = N − r e
s = n, o que resulta que
X = número de sucessos em uma amostra retirada sem reposição. µ ¶µ ¶ µ ¶ µ ¶
¡ ¢ Pn r N −r r+N −r N
Definindo nk = 0 sempre que k > n, define-se a função de distribuição de probabilidade da = =
k=0 k n−k n n
variável aleatória X como
µ ¶µ ¶ e isso completa a prova de que (2.31) realmente define uma função de probabilidade.
r N −r
k n−k
Pr (X = k) = µ ¶ k = 0, . . . , n (2.31) 2.5.3 Esperança
N
n Por definição,
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 53 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 54
µ ¶
P
r n−1 (r − 1)! N −r
µ ¶µ ¶ = µ ¶ (j + 1) = (j = k − 1)
r N −r N j=0 j! (r − 1 − j)! n − 1 − j
µ ¶µ ¶ n
Pn k n−k 1 P n r N −r µ ¶µ ¶
E (X) = k µ ¶ =µ ¶ k = (note o índice) P
r n−1 r−1 N −r
k=0 N N k=1 k n−k = µ ¶ (j + 1) =
n n N j=0 j n−1−j
µ ¶ n
1 P n r(r − 1)! N −r "
= µ ¶ k = (porque k 6= 0) µ ¶µ ¶ n−1 µ ¶µ ¶#
N k=1 k(k − 1)! (r − k)! n − k r P r−1
n−1 N −r P r−1 N −r
= µ ¶ j + =
n N j=0 j n−1−j j=0 j n−1−j
µ ¶
r P n (r − 1)! N −r n
= µ ¶ = (j = k − 1) µ ¶⎡ µ ¶µ ¶ µ ¶µ ¶⎤
N k=1 (k − 1)! (r − k)! n − k N −1 r − 1 N − 1 − (r − 1) r − 1 N − 1 − (r − 1)
r
n n − 1 ⎢n−1 P j n−1−j P
n−1 j n−1−j ⎥
µ ¶ = µ ¶ ⎢ ⎣ j=0 j µ ¶ + µ ¶ ⎥

P
r n−1 (r − 1)! N −r N N −1 j=0 N −1
= µ ¶ =
N j=0 j! (r − 1 − j)! n − 1 − j n n−1 n−1
n Mas o primeiro somatório é a esperança de uma hipergeométrica com parâmetros N −1, n−1 e r −1
µ ¶µ ¶
P r−1 N −r−1
r n−1 e o segundo somatório é a soma das probabilidades no espaço amostral de uma hipergeométrica
= µ ¶ = (por (2.33),com n = N − r, m = r − 1, s = n − 1)
N j=0 j n−1−j com os mesmos parâmetros. Segue, então, que
n
µ ¶ µ ¶
r N −1 N −1
= µ ¶ r ∙ ¸
N n−1 ¡ ¢ n−1 r−1
E X2 = µ ¶ (n − 1) +1 =
n N N −1
rn! (N − n)! (N − 1)! n
=
N! (n − 1)! (N − n)! rn (n − 1) (r − 1) + N − 1
= ×
rn(n − 1)! (N − 1)! N N −1
=
N(N − 1)! (n − 1)! e, portanto,
Logo, rn (n − 1) (r − 1) + N − 1 n2 r2
r Var (X) = × − 2
X ∼ hiper(N, r, n) ⇒ E (X) = n (2.34) N ∙ N −1 N ¸
N
rn (n − 1) (r − 1) + N − 1 nr
= × −
2.5.4 Variância N N −1 N
∙ ¸
rn nr − n − r + 1 + N − 1 nr
Vamos calcular E(X 2 ). = × −
µ ¶µ ¶ N N −1 N
r N −r ∙ ¸
µ ¶µ ¶ rn nr − n − r + N nr
¡ ¢ Pn k n−k 1 P n r N −r = × −
E X2 = k2 µ ¶ =µ ¶ k2 = (note o índice) N N −1 N
N N k=1 k n−k ∙ ¸
k=0 rn Nnr − nN − N r + N 2 − Nnr + nr
n n = ×
N N (N − 1)
µ ¶ ∙ ¸
1 P n r(r − 1)! N −r rn −nN − Nr + N 2 + nr
= µ ¶ k2 = = ×
N k=1 k(k − 1)! (r − k)! n − k N N (N − 1)
n r N (N − n) − r (N − n)
µ ¶ = n
r P n (r − 1)! N −r N N (N − 1)
= µ ¶ k = orque k 6= 0)
N k=1 (k − 1)! (r − k)! n − k r (N − n) (N − r)
= n
n N N (N − 1)
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 55 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 56

ou seja, se é encontrado pelo menos um espécime proibido. Qual dos dois fiscais é mais favorável para
r N −rN −n o caçador em questão?
X ∼ hiper(N, r, n) ⇒ V ar (X) = n (2.35)
N N N −1
Solução:
Não iremos calcular a função geradora de momentos da distribuição hipergeométrica, uma vez
que ela não tem muita utilidade. Seja X = número de aves proibidas (sucessos) encontradas por um ¡fiscal.
¢ No caso de Manoel,
temos que X ∼ hiper(7; 2; 3) e no caso do fiscal Pedro, X ∼ bin 2; 27 . Queremos calcular
Pr (multa) = Pr (X ≥ 1) = 1 − Pr (X = 0) .
2.5.5 Distribuição binomial versus distribuição hipergeométrica ¡2¢¡5¢
2 5 35
Vamos fazer agora algumas comparações entre as distribuições binomial e hipergeométrica através Manoel: Pr (multa) = 1 − Pr (X = 0) = 1 − 0¡7¢3 = 1 − = =
3
7 7 49
do seguinte exemplo. Considere uma urna r bolas verdes e N − r bolas brancas. Dessa urna extrai- µ ¶ µ ¶2
se uma amostra de n bolas e estamos interessados na variável aleatória X = “número de bolas 2 5 25 24
Pedro: Pr (multa) = 1 − Pr (X = 0) = 1 − =1− =
verdes na amostra”. 0 7 49 49
Se as extrações são feitas com reposição, então X tem distribuição binomial com parâmetros n Logo, a probabilidade de multa é maior no caso do fiscal Manoel, e, portanto, Pedro é o fiscal
e p = Nr . Se as extrações são feitas sem reposição, então X tem distribuição hipergeom´trica com mais favorável para o caçador.
parâmetros r, n, N.
A esperança da binomial é igual ao produto do tamanho da amostra pela probabilidade de 2. Entre os 16 programadores de uma empresa, 12 são do sexo masculino. A empresa decide
r r sortear 5 programadores para fazer um curso avançado de programação. Qual é a probabili-
sucesso e, nesse caso, é n . Na hipergeométrica, a esperança também é n , que é o produto do
N N dade dos 5 sorteados serem do sexo masculino?
tamanho da amostra pela probabilidade de sucesso na primeira extração.
A variância da binomial é igual ao produto do tamanho da amostra pelas probabilidades de Solução:
³ r ´ µN − r ¶
sucesso e fracasso e, nesse caso, é é n . Na hipergeométrica, a variância é igual a Sucesso = sexo masculino. Se X = número de homens sorteados, então X ∼ hiper(16; 12; 5)
N N e o problema pede
N −n ¡12¢
esse produto, mas corrigido pelo fator .
N −1 5 12 × 11 × 10 × 9 × 8 33
Em pesquisas estatísticas por amostragem, normalmente lidamos com amostragem sem reposição. Pr (X = 5) = ¡16 ¢= = = 0, 181319
5
16 × 15 × 14 × 13 × 12 14 × 13
No entanto, os resultados teóricos sobre amostragem com reposição são bem mais simples (como
você verá na segunda parte do curso, isso equivale a lidar com variáveis independentes); assim,
costuma-se usar uma aproximação, sempre que possível. Ou seja, quando a população (tamanho 2.6 Distribuição de Poisson
N) é suficientemente grande (de modo que podemos encará-la como uma população infinita) e o
tamanho da amostra é relativamente pequeno, podemos “ignorar” o fato de as extrações serem 2.6.1 Definição
feitas sem reposição. Lembre-se que a probabilidade em extrações sucessivas são N1 , N−1
1
, . . . , N 1−n .
A variável aleatória discreta X tem distribuição de Poisson com parâmetro λ se sua função de
Então, se N é “grande” e n é pequeno, temos que N ≈ N − 1 ≈ · · · ≈ N − n. Nessas condições,
distribuição de probabilidade é dada por
extrações com e sem reposição podem ser consideradas como equivalentes. O termo que aparece
na variância da hipergeométrica, N −n
N−1
, é chamado correção para populações finitas, exatamente λk −λ
porque, se a população é pequena, não podemos ignorar o fato de as extrações estarem sendo feitas Pr(X = k) = e k = 0, 1, 2, . . .
k!
sem reposição.
Para mostrar que a expressão acima realmente define uma função de distribuição de probabil-
P∞
2.5.6 Exercícios resolvidos idade, temos que mostrar que Pr(X = k) = 1, uma vez que é óbvio que Pr(X = k) > 0. De
k=0
1. Um caçador, após um dia de caça, verificou que matou 5 andorinhas e 2 aves de uma espécie fato:
P
∞ P∞ λk P∞ λk
rara, proibida de ser caçada. Como todos os espécimes tinham o mesmo tamanho, ele os colo- Pr(X = k) = e−λ = e−λ = e−λ eλ = 1
cou na mesma bolsa, pensando em dificultar o trabalho dos fiscais. No posto de fiscalização k=0 k=0 k! k=0 k!

há dois fiscais, Manoel e Pedro, que adotam diferentes métodos de inspeção. Manoel retira Aqui fez-se uso do resultado (??) do Capítulo 1.
três espécimes de cada bolsa dos caçadores. Pedro retira um espécime, classifica-o e o repõe
na bolsa, retirando em seguida um segundo espécime. Em qualquer caso, o caçador é multado
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 57 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 58

Se X ∼ P oi(λ), então temos

λk+1 −λ
e
P (X = k + 1) (k + 1)! λ
= k
= k = 0, 1, 2, . . .
P (X = k) λ −λ k+1
e
k!
Suponhamos que a probabilidade máxima ocorra em k0 ; então temos que ter (usando o resultado
anterior)
P (X = k0 + 1) λ
≤ 1 =⇒ ≤ 1 =⇒ k0 ≥ λ − 1
P (X = k0 ) k0 + 1
e também
P (X = k0 ) λ X ~ Poi(2)
≥ 1 =⇒ ≥ 1 =⇒ k0 ≤ λ
P (X = k0 − 1) k0 0,3
Vemos , então, que
0,2
λ − 1 ≤ k0 ≤ λ
e como k0 tem que ser inteiro, resulta que o ponto de máximo ocorre quando k0 = [λ] , ou seja, a 0,1
moda da distribução ocorre em k0 = [λ] . Note que, se λ é inteiro, então a distribuição é bimodal,
0
com modas em k0 = λ e k0 = λ − 1, pois neste caso
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16

λλ λ · λλ−1 −λ λλ−1 −λ
P (X = λ) = e−λ = e = e = P (X = λ − 1)
λ! λ · (λ − 1)! (λ − 1)! X ~ Poi(4,3)

Na Figura 2.6 ilustram-se a distribuição de Poisson para dois valores do parâmetro; note que 0,3
quando λ = 2 há duas modas (x = 1 e x = 2) e para λ = 4, 3 a moda ocorre em x = 4.
0,2

2.6.2 Esperança 0,1

Vamos agora calcular a esperança de tal distribuição. 0


0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16

P∞ λk P∞ λk
E(X) = k e−λ = e−λ k
k=0 k! k=1 k(k − 1)!
∞ λλk−1
P P∞ λk−1 Figura 2.6: Distribuição de Poisson para λ = 2 e λ = 4, 3
−λ
= e = λe−λ
k=1 (k − 1)! k=1 (k − 1)!
P∞ λj
−λ −λ λ
= λe = λe e
j−0 j!

onde, mais uma vez, usou-se o resultado (??) do Capítulo 1. Logo,

X ∼ P oi(λ) ⇒ E(X) = λ (2.36)


CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 59 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 60

2.6.3 Variância 2.6.5 Aproximação da binomial pela Poisson


O segundo momento é calculado de forma análoga como Suponha que estejamos observando um determinado fenômeno de interesse por um certo período
de tempo de comprimento t, com o intuito de contar o número de vezes X que determinado evento
λk −λ P
P
∞ ∞ λλk−1 −λ ocorre.
E(X 2 ) = e =k2 k2 e = Vamos fazer as seguintes hipóteses sobre a forma como esse evento ocorre:
k=0 k! k=1 k(k − 1)!
P∞ λk−1 H1) Em um intervalo de tempo suficientemente curto, apenas 0 ou 1 evento ocorre, ou seja, 2 ou
= λe−λ k mais ocorrências não podem acontecer simultaneamente. Então, em cada um desses intervalos
k=1 (k − 1)!
temos um experimento de Bernoulli.
−λ
P∞ λj
= λe (j + 1)
j−0 j! H2) A probabilidade de exatamente 1 ocorrência nesse pequeno intervalo de tempo, de compri-
P
∞ j
λ −λ P

λ j mento ∆t, é proporcional a esse comprimento, ou seja, é λ∆t. Logo, a ocorrência de nenhum
= λ j e + λe−λ evento é 1 − λ∆t.
j−0 j! j−0 j!
H3) As ocorrências em intervalos pequenos e disjuntos são experimentos de Bernoulli indepen-
O primeiro somatório é a esperança de uma distribuição de Poisson com parâmetro λ, que, como
dentes.
visto anteriormente, é λ. O segundo somatório é a série de Taylor da função ex em x = λ. Logo,
Estamos interessados na v.a. X = número de ocorrências do evento no intervalo (0, t]. Particio-
E(X 2 ) = λ2 + λe−λ eλ = λ2 + λ
nando esse intervalo em n subintervalos de comprimento suficientemente pequeno ∆t, temos que
Logo, o número total de ocorrências será a soma do número de ocorrências em cada subintervalo. Mas
V ar(X) = E(X 2 ) − [E(X)]2 = λ2 + λ − λ2 = λ em cada subintervalo podemos aplicar as hipóteses acima. Logo, X é uma variável binomial com
t t
Note que a esperança e a variância são iguais! parâmetros n = (note que ∆t = ) e probabilidade de sucesso igual a λ∆t pela hipótese 2
∆t n
acima. Então, para k = 0, 1, 2, . . . , n temos que:
2.6.4 Função geradora de momentos µ ¶ µ ¶ µ ¶k µ ¶n−k
n n λt λt
Pr(X = k) = (λ∆t)k (1 − λ∆t)n−k = 1− =
Por definição, k k n n
µ ¶n µ ¶−k
∞ (λet )k n! 1 λt λt
P
∞ λk −λ P∞ λk P t = × × (λt)k × 1 − × 1− =
φX (t) = E(etX ) = etk e = e−λ etk = e−λ = e−λ eλe k!(n − k)! nk n n
k=0 k! k=0 k! k=0 k! µ ¶n µ ¶−k
k
n(n − 1) · · · (n − k + 1)(n − k)! 1 (λt) λt λt
ou seja, se X ∼ P oi(λ), então sua função geradora de momentos é = × k× × 1− × 1− =
(n − k)! n k! n n
µ ¶ µ ¶
φX (t) = eλ(e −1)
t n −k
n(n − 1) · · · (n − k + 1) (λt)k λt λt
= × × 1− × 1− =
nk k! n n
Vamso calcular as derivadas de ordem primeira e ordem segunda para calcular os respectivos µ ¶n µ ¶−k
momentos: n n−1 n − k + 1 (λt)k λt λt
= × × ··· × × × 1− × 1−
n n n k! n n
φ0X (t) = eλ(e −1) λet = λet eλ(e −1) = λet+λ(e −1)
t t t

¡ ¢ Consideremos, agora, a situação em que ∆t → 0, ou equivalentemente, n → ∞. Nesse caso, a


φ00 (t) = λet+λ(e −1) 1 + λet
t
X v.a. X pode assumir qualquer valor inteiro não negativo e
Logo,
" µ ¶n µ ¶−k #
0+λ(e0 −1) n n−1 n − k + 1 (λt)k λt λt
E(X) = φ0X (0) = λe =λ lim Pr(X = k) = lim × × ··· × × × 1− × 1−
n→∞ n n n k! n n
) ¡1 + λe0 ¢ = λ(1 + λ) = λ2 + λ
n→∞
E(X 2 ) = φ00X (0) = λe0+λ(e
0 −1

k µ ¶n k
(λt) λt (λt) −λt
o que nos leva ao mesmo resultado anterior: = 1 × 1 × ··· × 1 × × lim 1 − ×1= e
k! n→∞ n k!
V ar(X) = λ Aqui fêz-se uso do resultado (1.15) do Capítulo 1. Provamos, assim, o seguinte resultado:
CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 61

Teorema 2.1 Sejam eventos gerados de acordo com as hipóteses H1 a H3 acima. Se X é o número
de eventos em um intervalo de tempo de comprimento t, então a função de distribuição de
probabilidade de X é
(λt)k
Pr(X = k) = exp(−λt) k = 0, 1, 2, . . . (2.37)
k!
ou seja, X tem distribuição de Poisson com parâmetro λt : X ∼ P oi(λt). Capítulo 3
Pelos resultados anteriores, μ é o número médio de ocorrências do evento de interesse em um
intervalo unitário e o número de ocorrências num intervalo qualquer é proporcional ao comprimento
do intervalo. Algumas Distribuições Contínuas
A interpretação desses resultados nos dá que o número médio de ocorrências do evento em um
intervalo de comprimento t é λt, proporcional ao comprimento. Fazendo t = 1, obtém-se o número
médio de ocorrências em um intervalo unitário.
3.1 Distribuição uniforme
2.6.6 Exercícios resolvidos
Uma variável aleatória contínua X tem distribuição uniforme no intervalo [a, b] (finito) se sua função
1. Uma central telefônica recebe uma média de 5 chamadas por minuto. Supondo que as de densidade é constante nesse intervalo, ou seja, temos que ter
chamadas cheguem segundo uma distribuição de Poisson, qual é a probabilidade de a central
não receber nenhuma chamada em um minuto? e de receber no máximo 2 chamadas em 2 f(x) = k ∀x ∈ [a, b]
minutos?
Solução: Então, o gráfico da f.d.p. de X é como o ilustrado na Figura 3.1:
Seja X = número de chamadas por minuto. Então, X ∼ P oi(5). Logo,
50
Pr(X = 0) = exp(−5) = 0, 00673795
0!
Seja Y = número de chamadas em 2 minutos. Então, Y ∼ P oi(5 × 2). Logo,
Pr(Y ≤ 2) = Pr(Y = 0) + Pr(Y = 1) + Pr(Y = 2) =
µ 0 ¶
10 101 102
= exp(−10) + + =
0! 1! 2!
= 0, 00276940
2. (Bussab & Morettin) Em um certo tipo de fabricação de fita magnética, ocorrem cortes a uma
taxa de um corte por 2000 pés. Qual é a probabilidade de que um rolo com comprimento de
4000 pés apresente no máximo dois cortes? Pelo menos dois cortes?
Solução: Figura 3.1: Densidade uniforme no intervalo [a, b]
Seja Y = número de cortes num rolo de 4000 pés. Então, Y ∼ P oi(2).
Pr(no máximo 2 cortes) = Pr(Y ≤ 2) = Pr(Y = 0) + Pr(Y = 1) + Pr(Y = 2) = Para que tal função seja uma f.d.p., temos que ter k > 0 e a área do retângulo tem que ser 1,
µ 0 ¶
2 21 22 ou seja,
= exp(−2) + + = 5 exp(−2) = 0, 676676 1
0! 1! 2! (b − a) × k = 1 ⇒ k =
b−a
Pr(pelo menos 2 cortes) = Pr(Y ≥ 2) = 1 − Pr(Y < 2) = 1 − [Pr(Y = 0) + Pr(Y = 1)] = Logo, a função de densidade de uma v.a. uniforme no intervalo [a, b] é dada por
µ 0 ¶
2 21 ½ 1
= 1 − exp(−2) + = 1 − 3 exp(−2) = 0, 593994 se x ∈ [a, b]
0! 1! f (x) = b−a (3.1)
0 caso contrário

62
CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 63 CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 64

Os valores a e b são chamados parâmetros da distribuição uniforme; note que ambos têm que ser
finitos para que a integral seja igual a 1. Quando a = 0 e b = 1 temos a uniforme padrão, denotada
por U(0, 1).

3.1.1 Função de distribuição acumulada


Por definição, temos que
F (x) = Pr (X ≤ x)
e essa probabilidade é dada pela área sob a curva de densidade à esquerda de x, conforme ilustrado
na Figura 3.2.

Figura 3.3: Função de distribuição acumulada da Unif[a, b]

Usando a integral:
Z ¯b
b
1 1 x2 ¯¯ b2 − a2 (b − a) (a + b)
E (X) = x dx = = =
a b−a b − a 2 ¯a 2 (b − a) 2 (b − a)

ou seja,
a+b
E (X) = (3.3)
2

Figura 3.2: Função de distribuição acumulada da densidade Unif [a, b] 3.1.3 Variância
Por definição, ¡ ¢
1
Essa é a área de um retângulo com base (x − a) e altura . Logo, V ar (X) = E X 2 − [E (X)]2 ;
b−a
2
⎧ Vamos calcular E (X ) . Temos que:
⎨ 0x − a se x < a

Z ¯b
F (x) = se a ≤ x ≤ b (3.2) ¡ ¢ b
1 1 x3 ¯¯ b3 − a3 (b − a) (b2 + ab + a2 )

⎩ b−a E X2 = x2 dx = = = (3.4)
1 se x > b a b−a b − a 3 ¯a 3 (b − a) 3 (b − a)

O gráfico dessa f.d.a. é dado na Figura 3.3. Logo,


No caso da U [0, 1] , temos que µ ¶2
⎧ (b2 + ab + a2 ) a+b (b2 + ab + a2 ) a2 + 2ab + b2
⎨ 0 se x < 0 V ar (X) = − = − =
3 2 3 4
F (x) = x se 0 ≤ x < 1 2 2 2 2 2 2
⎩ 4b + 4ab + 4a − 3a − 6ab − 3b a − 2ab + b
1 se x ≥ 1 = =
12 12
3.1.2 Esperança ou
(b − a)2
V ar (X) = (3.5)
Das propriedades da esperança e das características da densidade uniforme, sabemos que E(X) é 12
o ponto médio do intervalo [a, b], ou seja,
b−a a+b
E(X) = a + =
2 2
CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 65 CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 66

3.2 Distribuição exponencial ou seja ½


1 − e−x/β se x > 0
F (x) = (3.7)
3.2.1 Definição 0 se x ≤ 0
.
Da equação (??) do Capítulo 1, podemos ver que é possível definir uma função de densidade a
partir da função exponencial eλx , desde que nos limitemos ao domínio dos números reais negativos.
−λx
Mas
Z ∞ isso é equivalente a trabalhar com a função e para x positivo. Por outro
Z ∞ lado, como
e−λx dx = λ1 , podemos trabalhar com um novo parâmetro β = λ1 . Dessa forma, e−x/β dx = β.
0 0
Então, para que uma função exponencial do tipo e−x/β defina uma função de densidade, temos que
multiplicá-la por β1 para que a integral resultante dê 1.
Define-se, então, uma variável aleatória exponencial como sendo aquela cuja função de densidade
é dada por
1
f (x) = e−x/β , x > 0; β > 0 (3.6)
β
Como a f.d.p. exponencial depende apenas do valor de β, esse é o parâmetro da densidade exponen-
cial. Então, usaremos a notação X ∼ exp(β) para indicar o fato de que a v.a. X tem distribuição
exponencial com parâmetro β. Na Figura 3.4 temos o gráfico da f.d.p. para β = 12 .

1
Figura 3.5: Função de distribuição acumulada da v.a. exponencial - β = 2

3.2.3 Esperança
O cálculo dos momentos da distribuição exponencial se faz com auxílio de integração por partes.
A esperança é:
Z∞
1
E(X) = x e−x/β dx
β
0

Definindo

• u = x ⇒ du = dx;

• dv = β1 e−x/β dx ⇒ v = −e−x/β
O método de integração por partes nos dá que:

Z Z
Figura 3.4: Densidade exponencial - β = 1 ¯∞ ∞
1 ∞¡ ¢
2 −xe−x/β ¯0 = x e−x/β dx + −e−x/β dx
0 β 0

Pelo resultado (1.16), o lado esquerdo desta última igualdade é zero. Logo,
3.2.2 Função de distribuição acumulada ¯∞
0 = E(X) + βe−x/β ¯0 ⇒ 0 = E(X) + (0 − β)
Temos que
Z Z
x x
1 −t/β ¯x ¡ ¢ ou seja,
F (x) = Pr (X ≤ x) = f (t) dt = e dt = −e−t/β ¯0 = − e−x/β − 1 E (X) = β (3.8)
0 0 β
CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 67 CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 68

Desse resultado segue que As derivadas primeira e segunda são


Z ∞ Z ∞
1 β
x e−x/β dx = β ⇒ xe−x/β dx = β 2 (3.9) φ0X (t) =
0 β 0 (1 − βt)2
β × 2 (1 − βt) × (−β) 2β 2
3.2.4 Variância φ00X (t) = 4 =
(1 − βt) (1 − βt)2
Vamos calcular o segundo momento de uma v.a. exponencial.
Z ∞ e os momentos de ordem 1 e 2 são:
1
E(X 2 ) = x2 e−x/β dx
0 β E(X) = φ0X (0) = β
Seguindo raciocínio análogo ao empregado no cálculo da esperança, vamos definir: E(X 2 ) = φ00X (0) = 2β 2

• u = x2 ⇒ du = 2xdx; o que nos dá, como antes,


V ar(X) = β 2
• dv = β1 e−x/β dx ⇒ v = −e−x/β

Logo, 3.2.6 Parametrização alternativa


Z Z Z É possível parametrizar a densidade exponencial em termos de um parâmetro λ = β1 . Neste caso,
¯∞ ∞
1 ∞ ¡ ¢ ¡ ¢ ∞
−x2 e−x/β ¯0 = x2 e−x/β dx + −2xe−x/β dx ⇒ 0 = E X 2 − 2 xe−x/β dx
0 β 0 0
f (x) = λe−λx x > 0; λ > 0
Usando o resultado (3.9), resulta que ¡ ¢ λ
E X 2 = 2β 2 (3.10) φX (t) = t<λ
λ−t
e, portanto: 1
E(X) =
Var(X) = 2β 2 − β 2 ⇒ Var (X) = β 2 (3.11) λ
2
Resumindo: ½ E(X 2 ) = 2
E(X) = β λ
X ∼ exp(β) =⇒ (3.12) 1
V ar(X) = β 2 V ar(X) = 2
λ
3.2.5 Função geradora de momentos 3.2.7 Propriedade da falta de memória da exponencial
Por definição Z Z Assim como a geométrica, a distribuição exponencial também goza da propriedade da falta de
∞ ∞
1 1 −( β1 −t)x
φX (t) = E(etX ) = etx e−x/β dx = e dx memória. Seja X ∼ exp(β). Então
0 β 0 β
Para que essa integral exista, é necessário que Pr(X > p + q) 1 − Pr(X ≤ p + q)
Pr(X > p + q|X > p) = =
1 1 Pr(X > p) 1 − Pr(X ≤ p)
h ³ ´i ³ ´ ³ ´ ³ ´
− t > 0 ⇐⇒ t < p+q p+q
β β 1 − 1 − exp − β exp − β exp − βp exp − βq
³ ´ = h ³ ´i = ³ ´ = ³ ´
Neste caso, fazendo a mudança de variável u = β1 − t x resulta que 1 − 1 − exp − βp exp − βp exp − βp
µ ¶
Z ∞
q
1 1 1 = exp − = Pr(X > q)
e−( β −t)x dx =
1
φX (t) = 1
β
β 0 β β
−t

ou seja 3.2.8 Exercícios resolvidos


1 1
φX (t) = t< 1. Seja X ∼ exp(4). Calcule
1 − βt β
CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 69 CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 70

x
(a) Pr(X > 1) Fazendo a mudança de variável = t resulta
β
Solução
x = βt
Pr(X > 1) = 1 − Pr(X ≤ 1) = 1 − F (1) = 1 − [1 − e−1/4 ] = e−0.25 = 0, 7788 dx = βdt
(b) Pr(1 ≤ X ≤ 2) x = 0⇒t=0
Solução x = ∞⇒t=∞

e, portanto,
Pr(1 ≤ X ≤ 2) = Pr(X ≤ 2) − Pr(X < 1) Z ∞ Z ∞
1
= Pr(X ≤ 2) − Pr(X ≤ 1) f(x)dx = α xα−1 e−x/β dx =
0 Γ(α)β
Z 0∞
= F (2) − F (1) = [1 − e−2/4 ] − [1 − e−1/4] 1
= (βt)α−1 e−t βdt
= e−0.25 − e−0.5 = 0, 17227 Γ(α)β α 0
Z ∞
1 α
= αβ tα−1 e−t dt
2. Seja X ∼ exp(β). Calcule Pr(X > β). Γ(α)β 0
Solução 1
= Γ(α) = 1
Γ(α)
£ ¤
Pr(X > β) = 1 − Pr(X ≤ β) = 1 − F (β) = 1 − 1 − e−β/β = e−1 Logo, as duas condições para uma função de densidade são satisfeitas. Usaremos a notação
Note que essa é a probabilidade de uma v.a. exponencial ser maior que o seu valor médio; o X ∼ gama(α; β) para indicar que a variável aleatória X tem distribuição gama com parâmetros
que mostramos é que essa probabilidade é constante, qualquer que seja β. α, β.

3.3.2 O gráfico da distribuição gama


3.3 Distribuição gama
Para a construção do gráfico da densidade gama, devemos observar inicialmente que
A distribuição gama é uma generalização da distribuição exponencial.
lim f (x) = 0 e lim f(x) = 0
x→∞ x→0
3.3.1 Definição
Vamos, agora, calcular as derivadas primeira e segunda de f (x).
Diz-se que uma variável aleatória tem distribuição gama com parâmetros α e β se sua função de ∙ ¸
densidade de probabilidade é dada por 1 1
f 0 (x) = α (α − 1)x
α−2 −x/β
e − xα−1 e−x/β
⎧ Γ(α)β β
⎪ 1 ∙ µ ¶¸

⎨ xα−1 e−x/β se x > 0 1 ¡ α−2 −x/β ¢ 1
Γ(α)β α = α x e α−1− x (3.14)
f(x) = (3.13) Γ(α)β β


⎩ 0 se x ≤ 0
" #
Note que, quando α = 1, resulta a densidade exponencial com parâmetro β, ou seja, a dis- 00 1 (α − 2)(α − 1)xα−3 e−x/β − β1 (α − 1)xα−2 e−x/β − β1 (α − 1)xα−2 e−x/β
f (x) =
tribuição exponencial é um caso particular da densidade gama. Γ(α)β α + β12 xα−1 e−x/β
Para verificar que a função dada em (3.13) realmente define uma função de densidade, notemos ½ ∙ ¸¾
1 ¡ α−3 −x/β ¢ 2 1 2
inicialmente que f(x) ≥ 0. Além disso, = x e (α − 2)(α − 1) − (α − 1)x + x
Γ(α)β α β β2
Z ∞ Z ∞ Z ∞ (¡ ¢ )
1 α−1 −x/β 1 1 α−3 −x/β £
x e ¤
f (x)dx = α x e = xα−1 e−x/β dx = β 2
(α − 2)(α − 1) − 2β(α − 1)x + x 2
(3.15)
0 0 Γ(α)β Γ(α)β α 0 Γ(α)β α β2
CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 71 CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 72

O sinal da derivada primeira depende do sinal de α − 1 − β1 x e o sinal da derivada segunda


depende do sinal da expressão entre colchetes, que é uma função do segundo grau. Vamos denotar α >2
essa expressão por h(x), de modo que + - +
h(x) = x2 − 2β(α − 1)x + β 2 (α − 2)(α − 1) 0 r1 r2
0
Vamos analisar a derivada primeira. A primeira observação é que, se α ≤ 1, f (x) < 0, ou seja, α <2
se α ≤ 1 a densidade gama é uma função estritamente decrescente.
+ - - +
No caso em que α > 1, temos que
r1 0 r2
f 0 (x) = 0 ⇔ x = β(α − 1)
f 0 (x) < 0 ⇔ x > β(α − 1)
f 0 (x) > 0 ⇔ x < β(α − 1) α =2 + - +

Logo, r1 = 0 r2
x = β(α − 1) é um ponto de máximo
Vamos, agora, analisar o sinal da derivada segunda da densidade gama, estudando o sinal do
discriminante da equação dada pela expressão de h(x), para analisar a concavidade da densidade Figura 3.6: Ilustração do sinal da derivada segunda da função de densidade gama
gama:

∆ = 4β 2 (α − 1)2 − 4β 2 (α − 2)(α − 1) = 4β 2 (α − 1) (α − 1 − α + 2) = 4β 2 (α − 1) ver que, se α > 2, a derivada segunda muda de sinal em dois pontos dentro do domínio de definição
da densidade gama. Isso não ocorre se α < 2 (ou α = 2), uma vez que, neste caso a menor raíz é
Se α < 1. o discrirminante é negativo e a equação não tem raízes reais e terá sempre o sinal do negativa (nula).
coeficiente do termo quadrático, que é 1. Assim, neste caso, a concavidade é para cima. Resumindo,
se α < 1 a densidade gama é decrescente com concavidade para cima. As mesmas observações valem Mais precisamente, se α > 2 temos a seguinte situação:
para o caso em que α = 1, quando o discriminante é nulo e a equação só tem uma raiz. √ ¡√ ¢ √ ¡√ ¢
Vamos analisar agora o caso em que α > 1 : neste caso, o discriminante é sempre positivo, ou f 00 (x) < 0 se β α − 1 α − 1 − 1 < x < β α − 1 α − 1 + 1
√ ¡√ ¢ √ ¡√ ¢
seja, temos duas raizes reais distintas, calculadas da seguinte forma: f 00 (x) > 0 se x > β α − 1 α − 1 + 1 ou x < β α − 1 α − 1 − 1
2 1 √ ¡√ ¢
(α − 2)(α − 1) − (α − 1)x + 2 x2 = 0 ⇐⇒ ou seja, a¡√função de ¢densidade é côncava para cima se¡√ se x > β ¢α − 1 α − 1 + 1¡√ou x < ¢
β β √ √ √
β α − 1 α − 1 − 1 e é côncava para baixo se β α − 1 α − 1 − 1 < x < β α − 1 α − 1 + 1 ,
β 2 (α − 2)(α − 1) − 2β(α − 1)x + x2 = 0 ⇐⇒ o que indica a ocorrência de dois pontos de inflexão.
√ Quando α ≤ 2
2β(α − 1) ±
x= ⇐⇒ √
p 2 f 00 (x) < 0 se 0 < x < β(α − 1) + β α − 1
2β(α − 1) ± 2β (α − 1)(α − 1 − α + 2) √
x= ⇐⇒ f 00 (x) > 0 se x > β(α − 1) + β α − 1
2 √
x = β(α − 1) ± β α − 1 ⇐⇒ √
√ ¡√ ¢ ou seja, a função de densidade gama é√côncava para cima se x > β(α − 1) + β α − 1 e é côncava
x=β α−1 α−1±1 para baixo se 0 < x < β(α − 1) + β α − 1, o que indica a ocorrência de apenas um ponto de
√ ¡√ ¢ √ ¡√ ¢ inflexão.
A raiz r2 = β α − 1 α − 1 + 1 é sempre positiva. Já a raiz r1 = β α − 1 α − 1 − 1 só Na Figura 3.7 ilustra-se o efeito do parâmetro α sobre a densidade gama. Aí o parâmetro β

será positiva se α − 1 − 1 > 0, ou seja, se α > 2. está fixo (β = 2) e temos o gráfico para diferentes valores de α. Note que, para α = 1, o gráfico é
Considerando a funçãode segundo grau h(x) que define o sinal da derivada segunda, vemos que da distribuição exponencial com parâmetro β = 2 e para qualquer valor de α < 1, o gráfico terá
o coeficiente do termo quadrático é 1; assim, a função é negativa (sinal oposto ao de a) para valores essa forma. Note que para α = 2 só há um ponto de inflexão; essa situação se repetirá para valores
de x entre as raízes, e positiva (mesmo sinal de a) fora das raízes. Veja a Figura 3.6; aí podemos de α no intervalo (1, 2]. Para valores de α maiores que 2, há dois pontos de inflexão.Na Figura
CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 73 CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 74

x
3.8 ilustra-se o efeito do parâmetro β sobre a densidade gama. Aí o parâmetro α está fixo (α = 2 Fazendo a mesma mudança de variável já usada anteriormente = t temos que
ou α = 3) e temos o gráfico para diferentes valores de β. Analisando essas duas figuras, vemos β
Z ∞
que o parâmetro α tem grande influência sobre a forma da distribuição, enquanto o parâmetro β 1
tem grande influência sobre a escala (ou dispersão) da distribuição. Dessa forma, o parâmetro α é E(X) = α (βt)α e−t βdt
Γ(α)β 0
chamado parâmetro de forma, enquanto o parâmetro β é chamado parâmetro de escala. Z ∞
1 α+1
= β tα e−t dt
Γ(α)β α 0
0,5 Z ∞
0,45
β =2 =
β
tα e−t dt
Γ(α) 0
0,4
α =1 β
= Γ(α + 1)
0,35
Γ(α)
0,3 β
= αΓ(α)
0,25 Γ(α)
0,2
α =2 ou seja,
0,15 α =4 X ∼ gama(α, β) ⇒ E(X) = αβ
α =5
0,1

0,05 3.3.4 Variância


0
0 5 10 15 20 25 30
De modo análogo, vamos calcular o segundo momento da densidade gama.

Z ∞ Z ∞
1
E(X 2 ) = x2 f(x)dx = α x2 xα−1 e−x/β dx
Figura 3.7: Efeito do parâmetro de forma α sobre a densidade gama 0 Γ(α)β 0
Z ∞
1 α+1 −x/β
= x e dx
Γ(α)β α 0
3.3.3 Esperança x
Fazendo a mesma mudança de variável usada anteriormente = t temos que
Se X ∼ gama(α; β) , então β
Z ∞
Z ∞ Z ∞ 1
1 E(X 2 ) = (βt)α+1 e−t βdt
E(X) = xf (x)dx = xxα−1 e−x/β dx Γ(α)β α 0
0 Γ(α)β α 0 Z ∞
Z ∞ 1 α+2
1 = αβ tα+1 e−t dt
= xα e−x/β dx Γ(α)β 0
Γ(α)β α 0 Z ∞
β2
= tα+1 e−t dt
Γ(α) 0
α =2 α =3 β2
0,4 0,3
= Γ(α + 2)
β =1 β =1 Γ(α)
0,3
0,2 β = 1,5 β2
β = 1,5
0,2
β =2 = (α + 1)Γ(α + 1)
β =2 0,1 Γ(α)
0,1
β2
0,0 0,0 = (α + 1)αΓ(α)
0 2 4 6 8 10 12 14 0 2 4 6 8 10 12 14 Γ(α)
2
= β (α + 1)α
Logo,
Figura 3.8: Efeito do parâmetro de escala sobre a densidade gama V ar(X) = β 2 (α + 1)α − (αβ)2 = α2 β 2 + αβ 2 − α2 β 2 = αβ 2
CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 75 CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 76

Resumindo: ⎧ Se X tem distribuição qui-quadrado com n graus de liberdade, representaremos este fato por
⎨ E(X) = αβ X ∼ χ2 (n). Da esperança e da variância da gama resulta que, se X ∼ χ2 (n), então
X ∼ gama(α, β) =⇒ (3.16)
⎩ n
V ar(X) = αβ 2 E(X) = ×2=n
2
n
3.3.5 Função geradora de momentos V ar(X) = × 22 = 2n
2
Por definição
Z ∞
3.4 Distribuição de Weibull
1
φX (t) = E(etX ) = E(X 2 ) = etx xα−1 e−x/β dx
Γ(α)β α 0 3.4.1 Definição
Z ∞
1 1
= xα−1 e−x( β −t) dx Uma variável aleatória X tem distribuição de Weibull com parâmetros α > 0 e β > 0 se sua função
Γ(α)β α 0
de densidade de probabilidade é dada por
1
e essa integral será finita se β
− t > 0, ou seja, se t < β1 . Neste caso, fazendo a mudança de variável α α−1
 
x α

u = x( β1 − t) resulta que f(x) = x e β x>0 (3.18)
βα
Z !α−1
Ã
1 ∞
u 1 Note que podemos reescrever essa expressão como
φX (t) = e−u 1 du µ ¶α−1  x α
Γ(α)β α0 β
1
−t β
−t α x −
à !α Z f (x) = e β x>0 (3.19)
1 1 ∞ β β
= uα−1 e−u du
Γ(α)β α β1 − t 0 e alguns autores (ver Rohatgi, por exemplo) usam um novo parâmetro η em vez de β α . Para mostrar
µ ¶α
1 β que f define uma densidade, vamos mostrar que a integral é 1. Para tal, vamos fazer a seguinte
= Γ(α) mudança de variável:
Γ(α)β α 1 − βt
µ ¶α µ ¶α−1
ou seja, x α x
1 1 u = =⇒ du =
φX (t) = t< β β β
(1 − βt)α β x = 0 =⇒ u = 0; x = ∞ =⇒ u = ∞

3.3.6 Distribuição de Erlang Dessa forma, µ ¶α−1  x α


Z ∞ Z ∞
α x −
Quando o parâmetro de forma α é um inteiro positivo, a distribuição gama é conhecida como e β dx = e−u du = 1
0 β β 0
distribuição de Erlang.
3.4.2 Esperança e variância
3.3.7 Distribuição qui-quadrado como caso particular da gama
Vamos calcular o momento de ordem r :
Fazendo α = n2 , n inteiro, e β = 2 na densidade gama, obtemos a distribuição qui-quadrado com n Z µ ¶α−1  x α

graus de liberdade. A densidade qui-quadrado, então, é α x −
E(X r ) = e β xr dx
⎧ 0 β β
⎪ 1

⎨ xn/2−1 e−x/2 se x > 0 x
Γ( n2 )2n/2 Fazendo u = β
, resulta que x = βu e dx = βdu; logo
f (x) = (3.17)

⎪ Z µ ¶α−1  x α Z
⎩ ∞
α x ∞
α α−1 −uα r r
0 se x ≤ 0 −
E(X r ) = e β xr dx = u e β u βdu
0 β β 0 β
Z ∞
α
= αuα−1 e−u β r ur du
0
CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 77 CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 78

Fazendo uα = t resulta que u = t1/α e αuα−1 du = dt; logo, Para mostrar que f (x) realmente define uma f.d.p. resta provar que a integral é 1, uma vez que
Z ∞ Z ∞ f(x) ≥ 0. ¯∞
¡ ¢r Z ∞ µ ¶α+1 Z ∞
E(X r ) = e−t β r t1/α dt = β r tr/α e−t dt α b x−α ¯¯
dx = αbα x−α−1 dx = αbα
0
Z ∞ Z 0∞ µ ¶ b b x b −α ¯b
r+α r+α
= βr tr/α+1−1 e−t dt = β r t α −1 e−t dt = β r Γ Essa integral converge apenas se −α < 0 ou equivalentemente, α > 0, pois nesse caso limx→∞ x−α =
α
0 0
limx→∞ x1α = 0. Satisfeita esta condição, temos que
Fazendo r = 1, obtemos que ¯∞
µ ¶ x−α ¯¯ b−α
α+1 αbα = 0 − αbα =1
E(X) = βΓ −α ¯b −α
α
Fazendo r = 2 obtemos que µ ¶ 3.5.2 Esperança
α+2
E(X 2 ) = β 2 Γ
α Se X ∼ P areto(α, b) então
e, portanto, Z µ ¶α+1 Z ¯∞
∙ µ ¶ µ ¶¸ ∞
α b ∞
x−α+1 ¯¯
α+2 α+1 E(X) = x dx = αbα x−α dx = αbα
V ar(X) = β 2 Γ − Γ2 b b x b −α + 1 ¯b
α α
Para que essa integral convirja, temos que ter −α + 1 < 0, ou α > 1. Satisfeita esta condição,
µ ¶
3.4.3 Função de distribuição acumulada b−α+1 −αbα−α+1 αb
E(X) = αbα 0 − = =
Por definição, −α + 1 1−α α−1
Z x µ ¶α−1  t α
α t −
F (x) = e β dt 3.5.3 Variância
0 β β
Fazendo a mudança de variável Se X ∼ P areto(α, b) então
µ ¶α µ ¶α−1 Z µ ¶α+1 Z ¯∞
x α x

α b ∞
x−α+2 ¯¯
E(X 2 ) = x2 dx = αbα x−α+1 dx = αbα
u =
β
=⇒ du =
β β b b x b −α + 2 ¯b
µ ¶α
x Para que essa integral convirja, temos que ter −α + 2 < 0, ou α > 2. Satisfeita esta condição,
t = 0 =⇒ u = 0; t = x =⇒ u = µ ¶
β b−α+2 −αbα−α+2 αb2
E(X) = αbα 0 − = =
resulta −α + 2 2−α α−2
Z µ ¶α−1  t α Z ( x )α ∙µ ¶α ¸ Logo,
x
α t ¯ x α x
e−u du = −e−u ¯(0 β ) = 1 − exp
β

F (x) = e β dt = µ ¶2
0 β β 0 β αb2 αb αb2 (α − 1)2 − α2 b2 (α − 2)
V ar(X) = − =
α−2 α−1 (α − 1)2 (α − 2)
3.5 Distribuição de Pareto =
2 2
αb [α − 2α + 1 − α(α − 2)]
=
αb2 [α2 − 2α + 1 − α2 + 2α]
2
(α − 1) (α − 2) (α − 1)2 (α − 2)
3.5.1 Definição αb 2
=
Uma variável aleatória X tem distribuição de Pareto com parâmetros α > 0 e b > 0 se sua função (α − 1)2 (α − 2)
de densidade de probabilidade é dada por Resumindo:
⎧ µ ¶α+1 ⎧
⎨ α b ⎪
⎪ αb
se x ≥ b ⎨ E(X) = se α > 1
f(x) = α−1
⎩ b x X ∼ P areto(α, b) =⇒
⎪ αb2 (3.20)
0 se x < b ⎪
⎩ V ar(X) = se α > 2
(α − 1)2 (α − 2)
CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 79 CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 80

3.6 Distribuição beta


A função beta é definida por
R1
B(α, β) = tα−1 (1 − t)β−1 dt 0<x<1
0

Então, se definirmos
1
f(x) = xα−1 (1 − x)β−1 0<x<1 (3.21)
B(α, β)
temos que f (x) > 0 e
R1 1 R1 α B(α, β)
f (x)dx = x (1 − x)β−1 dx = =1
0 B(α, β) 0 B(α, β)
ou seja, f (x) define uma função de densidade que é chamada densidade beta com parâmetros α e
β. Lembrando a relação entre a função gama e a função beta, podemos escrever
Γ(α + β) α−1
f(x) = x (1 − x)β−1 0<x<1
Γ(α)Γ(β)
A densidade beta assume várias formas, dependendo dos valores dos parâmetros α, β. Vamos
ver alguns casos:
• α=1
Neste caso,
Γ(β + 1)
f(x) = (1 − x)β−1 = β(1 − x)β−1
Γ(β)
Logo
f 0 (x) = −β(β − 1)(1 − x)β−2
f (x) = β(β − 1)(β − 2)(1 − x)β−2
00

— β=1
Neste caso, a densidade beta coincide com a uniforme padrão.
— β<1
Neste caso, β − 1 < 0 e β − 2 < 0. Logo, f 0 (x) > 0 e f 00 (x) > 0, ou seja, f é estritamente
crescente e estritamente convexa. Figura 3.9: Função de densidade beta - parâmetro α = 1
— 1<β<2
Neste caso, β − 1 > 0 e β − 2 < 0. Logo, f 0 (x) < 0 e f 00 (x) < 0, ou seja, f é estritamente
decrescente e estritamente côncava.
— β=2
Neste caso, f(x) = 2(1 − x), que é uma reta decrescente.
— β>2
Neste caso, β − 1 > 0 e β − 2 > 0. Logo, f 0 (x) < 0 e f 00 (x) > 0, ou seja, f é estritamente
decrescente e convexa.

Na Figura 3.9 ilustram-se as formas da densidade beta quando α = 1.


CAPÍTULO 4. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS 82

De modo análogo, para 0 ≤ w < 1

FW (w) = Pr(W ≤ w) = Pr(|X| ≤ w) = Pr(−w ≤ X ≤ w) =


= FX (w) − FX (−w)
e, portanto
Capítulo 4 0
fW (w) = FW (w) = FX0 (w) − FX0 (−w)(−1) =
= fX (w) + fX (−w)
Funções de Variáveis Aleatórias Como 0 ≤ w < 1 e −1 < −w ≤ 0, resulta que fX (w) = fX (−w) = 12 . Logo
½
Contínuas fW (w) =
0
1 se 0 ≤ y < 1
caso contrário

Dada uma v.a. contínua X com função de densidade fX (x), muitas vezes estamos interessados em
4.2 Funções inversíveis
conhecer a densidade de uma outra v.a. Y = g(x) definida como uma função de X. Quando a função g é inversível, é possível obter uma expressão para a função de densidade de Y .

Teorema 4.1 Seja X uma v.a. contínua com função de densidade fX (x) e seja Y = g(x) uma
4.1 Exemplo outra v.a. Se a função g(x) é inversível e diferenciável, então a função de densidade de Y é dada
por: ¯ ¯
Se X ∼ Unif (−1, 1), calcule a densidade de Y = g(X) = X 2 e de W = h(X) = |X| . £ ¤ ¯ dg−1 (y) ¯
Solução: fY (y) = fX g−1 (y) ¯¯ ¯ (4.1)
dy ¯
Temos que ½ 1
2
−1<x<1 Demonstração:
fX (x) =
0 x ≤ −1 ou x ≥ 1 Esse resultado segue diretamente da relação entre as funções de densidade e de distribuição
½ acumulada dada na equação (4.2):
0 ≤ g(x) < 1 0
−1 < x < 1 ⇒ fX (x) = FX (x) (4.2)
0 ≤ h(x) < 1
Para calcular a fdp de Y = g(X) = X 2 devemos notar que Suponhamos inicialmente que g(x) seja crescente; nesse caso, g0 (x) > 0 e x1 < x2 ⇒ g (x1 ) < g (x2 ) .
Então, a função de distribuição acumulada de Y é:
FY (y) = Pr(Y ≤ y) = Pr(X 2 ≤ y)
√ √ FY (y) = Pr (Y ≤ y) = Pr (g(X) ≤ y)
= Pr (− y ≤ X ≤ y)
√ √
= FX ( y) − FX (− y) Mas, conforme ilustrado na Figura 4.1, g(X) ≤ y ⇔ X ≤ g−1 (y).
e, portanto
Logo, ¡ ¢ £ ¤
d √ d √ FY (y) = Pr (g(X) ≤ y) = Pr X ≤ g −1 (y) = FX g−1 (y)
fY (y) = [FX ( y)] − [FX (− y)]
dy dy
µ ¶ Da relação entre a fdp e a fda e da regra da cadeia, segue que:
√ 1 √ 1
= FX0 ( y) √ − FX0 (− y) − √
2 y 2 y 0 0 £ ¤ dg −1 (y) £ ¤ dg−1 (y)
fY (y) = FY (y) = FX g −1 (y) = fX g −1 (y) (4.3)
√ 1 √ 1 dy dy
= fX ( y) √ + fX (− y) √
2 y 2 y
¡√ ¢ ¡ √ ¢ dg −1 (y)
√ √ Como > 0, (4.3) pode ser reescrita como
Como 0 ≤ y < 1 e −1 < − y ≤ 0, resulta que fX y = fX − y = 12 . Logo dy
½ 1 ¯ ¯
√ se 0 ≤ y < 1 £ ¤ ¯ dg −1 (y) ¯
fY (y) = FY (y) = fX g−1 (y) ¯¯ ¯
2 y 0
fY (y) = (4.4)
0 caso contrário dy ¯

81
CAPÍTULO 4. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS 83 CAPÍTULO 4. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS 84

Quando g(x) é decrescente, vale notar que que g 0 (x) < 0 e, conforme ilustrado na Figura 4.2,
g(X) ≤ y ⇔ X ≥ g−1 (y).

Dessa forma, como X é uma v.a. contínua temos que


¡ ¢ £ ¤
FY (y) = Pr (Y ≤ y) = Pr (g(X) ≤ y) = Pr X ≥ g −1 (y) = 1 − Pr X < g −1 (y)
£ ¤ £ ¤
= 1 − Pr X ≤ g−1 (y) = 1 − FX g−1 (y)

y e, portanto
0 0 £ ¤ dg −1 (y) £ ¤ dg−1 (y)
fY (y) = FY (y) = −FX g −1 (y) = −fX g −1 (y) (4.5)
dy dy
g( X ) ≤ y dg −1 (y)
Como < 0 (lembre que estamos considerando g decrescente agora), resulta
dy
¯ ¯
dg −1 (y) ¯¯ dg −1 (y) ¯¯
− =¯
dy dy ¯
g −1 ( y )
X ≤ g −1 ( y ) e (4.5) pode ser reescrita como
¯ ¯
£ ¤ ¯ dg −1 (y) ¯
fY (y) = FY (y) = fX g−1 (y) ¯¯ ¯
0
(4.6)
Figura 4.1: Função inversa de uma função crescente dy ¯
Os resultados (4.4) e (4.6), para funções crescentes e decrescentes, podem ser reunidos para com-
pletar a prova do teorema.

Quando a função não é monotóna, não podemos aplicar o teorema acima e nem sempre con-
seguiremos obter uma expressão usando os recursos vistos neste curso.

4.2.1 Exemplo
Seja X ∼ Unif (0, 1), isto é:
½
1 se 0 < x < 1
y fX (x) =
0 se x ≤ 0 ou x ≥ 1

Defina Y = − ln X. Vamos calcular a f.d.p. de Y. A função g(x) = − ln x é estritamente decrescente


g(X ) ≤ y e podemos aplicar o Teorema 4.1. Então, como 0 < x < 1, segue que 0 < Y = − ln X < ∞ (ver
Figura 4.3).
Por outro lado, a inversa de y = g(x) = − ln x é g −1 (y) = e−y e, portanto,
dg −1 (y)
g −1 ( y ) X ≥ g −1 ( y ) = −e−y
dy
Como 0 < y < ∞, então 0 < e−y < 1 e a f.d.p. de Y é
£ ¤ ¯ ¯
Figura 4.2: Função inversa de uma função decrescente fY (y) = fX e−y × ¯−e−y ¯ = 1 × e−y ⇒ fY (y) = e−y

uma vez que fX (x) = 1 no intervalo (0, 1).


CAPÍTULO 4. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS 85 CAPÍTULO 4. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS 86

ou seja µ ¶2
4
y + 0, 6 1 3
fY (y) = 3 × = (y + 0, 6)2 se − 2, 6 ≤ y ≤ −0, 6
3
2 2 8

Z Z
2 −0,6
3 3 −0,6 ¡ 3 ¢
E(Y ) = y (y + 0, 6)2 dy = y + 1, 2y 2 + 0, 36y dy
−2,6 8 8 −2,6
1 ∙ ¸−0,6
3 y4 y3 y2
= + 1, 2 + 0, 36
0 8 4 3 2 −2,6
0 1 2 3 4 5 " #
(−0,6)4
-1
3 4
+ 0, 4 × (−0, 6)3 + 0, 18 × (−0, 6)2
= 4
8 − (−2,6) 4
− 0, 4 × (−2, 6)3 − 0, 18 × (−2, 6)2
-2 3
= [0, 0321 − 0, 0864 + 0, 0648 − 11, 4244 + 7, 0304 − 1, 2168]
8
= −2, 10
Figura 4.3: Gráfico da função Y = g(X) = − ln X
Z Z
−0,6
3 3 −0,6 ¡ 4 ¢
E(Y 2 ) = y 2 (y + 0, 6)2 dy = y + 1, 2y 3 + 0, 36y 2 dy
4.2.2 Transformação linear −2,6 8 8 −2,6
∙ ¸−0,6
3 y5 y4 y3
Consideremos a tranformação Y = aX + b, que define uma reta. Se X é uma v.a. contínua = + 1, 2 + 0, 36
com densidade fX (x), então podemos aplicar o Teorema 4.1 para calcular a densidade de Y. Se 8 5 4 3 −2,6
" #
Y = g(X) = aX + b, então a função inversa é (−0.6)5
3 5
+ 0, 3 × (−0, 6)4 + 0, 12 × (−0, 6)3
= 5

Y −b 8 − (−2,6) 5
− 0, 3 × (−2, 6)4 − 0, 12 × (−2, 6)3
X = g −1 (Y ) = 3
a = [−0, 01552 + 0, 03888 − 0, 02592 + 23, 762752 − 13, 70928 + 2, 10912]
8
cuja derivada é
dg −1 (y) 1 = 12, 160032 − (2, 10)2 = 7, 750032
=
dy a
Logo, a densidade de Y é µ ¶¯ ¯
y − b ¯¯ 1 ¯¯
fY (y) = fX ¯a¯ (4.7)
a

Exemplo
Se a função de densidade da variável aleatória X é dada por
½
3x2 se − 1 ≤ x ≤ 0
f(x) =
0 se x < −1 ou x > 0

calcule a função de densidade de Y = 2X − 35 , bem como sua esperança e sua variância.


Solução:
Temos que a = 2 e b = −0, 6. Como −1 ≤ x ≤ 0, resulta que −2, 6 ≤ y ≤ −0, 6. Logo,
µ ¶
y + 0, 6 1
fY (y) = fX × se − 2, 6 ≤ y ≤ −0, 6
2 2
CAPÍTULO 4. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS 87

Capítulo 5
A Distribuição Normal

5.1 Distribuição normal padrão


5.1.1 Definição
µ 2¶
1 t
Analisando a equação (1.12), vemos que a função √ exp − satisfaz as condições para ser
2π 2
uma função de densidade. Essa é, por definição, a densidade normal padrão ϕ(x) (note que ϕ(x) >
0) definida por: µ 2¶
1 x
ϕ(x) = √ exp − −∞<x<∞ (5.1)
2π 2
Vamos denotar por N(0; 1) a densidade normal padrão e, se uma v.a. Z é distribuída segundo
uma normal padrão, representaremos esse fato como Z ∼ N(0; 1).

5.1.2 Esperança
Seja Z ∼ N(0, 1). Por definição, a esperança de Z é:
Z ∞ Z ∞ µ 2¶
1 x
E(Z) = xϕ(x)dx = √ x exp − dx
−∞ 2π −∞ 2
Como ϕ(x) é simétrica em torno do ponto x = 0, sabemos que E(Z) = 0.

5.1.3 Variância
Como E(Z) = 0 se Z ∼ N(0; 1), então
Z +∞ µ 2¶ Z +∞ µ 2¶
1 x 2 x
V ar(Z) = E(Z 2 ) = x2 √ exp − dx = √ x2 exp − dx
−∞ 2π 2 2π 0 2
uma vez que o integrando é par. Esta integral é calculada usando o método de integração por
partes. Fazendo:
µ 2¶ µ 2¶
x x
• x exp − dx = dv ⇒ v = − exp −
2 2

88
CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 89 CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 90

• x = u ⇒ dx = du ou ainda: " µ ¶2 #
1 1 x−μ
resulta que: fX (x) = √ exp −
2πσ 2 2 σ
µ 2 ¶¯∞ Z ∙ µ 2 ¶¸ Z µ 2¶
x ¯¯ ∞
x ∞
x
−x exp − = − exp − dx + x2 exp − dx (5.2) e essa é a densidade da normal N(μ; σ 2 )
2 ¯0 0 2 0 2 Diz-se, então, que, uma variável aleatória contínua X, definida para todos os valores da reta
Pelos resultados (1.16) e (1.11) real, tem densidade normal com parâmetros μ e σ 2 , onde −∞ < μ < ∞ e 0 < σ 2 < ∞, se sua
r Z ∞ µ 2¶ Z µ 2¶ r função de densidade de probabilidade é dada por

π x x π ∙ ¸
0=− + x2 exp − dx =⇒ x2 exp − dx = 1 (x − μ)2
2 0 2 0 2 2 f(x) = √ exp − −∞<x<∞ . (5.5)
2πσ 2 2σ 2
Logo, r
2 π Usaremos a seguinte notação para indicar que uma v.a. X tem distribuição normal com parâmetros
Var(Z) = √ × ⇒ Var(Z) = 1 (5.3) μ e σ 2 : X ∼ N(μ, σ2 ).
2π 2

5.1.4 Função geradora de momentos 5.2.1 Características da curva normal


Por definição, 1. Simétrica em torno de μ; note que f (μ − x) = f (μ + x) .
Z ∞ Z ∞ ∙ µ 2 ¶¸
1 2 1 x − 2tx 2. Assíntotas: lim f (x) = lim f(x) = 0; esse resultado segue diretamente dos resultados
φZ (t) = √ etx e−x /2 dx = √ exp − dx x→−∞ x→∞
2π −∞ 2π −∞ 2
Z ∞ ∙ µ 2 ¶¸ sobre a função exponencial dados em (??).
1 x − 2tx + t2 − t2
= √ exp − dx
2π −∞ 2 3. Ponto de máximo
Z ∞ ∙ µ 2 ¶ µ ¶¸
1 x − 2tx + t2 t2 Para calcular a primeira e segunda derivadas de f (x), devemos lembrar que (ex )0 = ex e, pela
= √ exp − exp dx
2π −∞ 2 2 regra da cadeia, (eg(x) )0 = eg(x) g0 (x). Aplicando esses resultados à densidade normal, obtemos
µ 2¶ Z ∞ " # que:
t 1 (x − t)2 ∙ ¸∙ ¸ µ ¶
= exp √ exp − dx 1 (x − μ)2 1 x−μ
2 2π −∞ 2 f 0 (x) = √ exp − − 2(x − μ) = −f (x) (5.6)
2πσ 2 2σ 2 2σ 2 σ2
Fazendo a mudança de variável x − t = t, resulta que Derivando novamente, obtemos:
µ 2¶ Z ∞ µ 2¶ µ ¶ ∙ µ ¶¸ ∙ ¸
t 1 u x−μ 1 x−μ x−μ 1
φZ (t) = exp √ exp − du 00
f (x) = −f 0 (x) − f (x) = − −f(x) − f(x) 2 =
2 2π −∞ 2 σ2 σ2 σ2 σ2 σ
µ 2¶ ∙ ¸ ∙ ¸
t 1 √ (x − μ)2 1 (x − μ)2 − σ 2
= exp √ 2π = f(x) − f (x) 2 = f (x) (5.7)
2 2π σ 4 σ σ 4

pelo resultado (1.11). Logo, µ 2¶


t Analisando a equação (5.6) e lembrando que f (x) > 0, pode-se ver que:
φZ (t) = exp (5.4)
2
f 0 (x) = 0 ⇔ x = μ

5.2 Distribuição N(μ; σ 2) e assim, x = μ é um ponto crítico. Como f 0 (x) > 0 para x < μ e f 0 (x) < 0 para x > μ,
então f é crescente à esquerda de μ e decrescente à direita de μ. Segue, então, que x = μ é
Seja Z ∼ N(0; 1) e vamos definir uma nova v.a. por X = g(Z) = μ + σZ, em que σ > 0. Usando o um ponto de máximo e nesse ponto
resultado (4.7), temos que:
" 1
µ ¶ µ ¶2 # f(μ) = √ (5.8)
x−μ 1 1 1 x−μ 1 2πσ 2
fX (x) = fZ × = √ exp − ×
σ σ 2π 2 σ σ
CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 91 CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 92
¡ ¢
4. Pontos de inflexão 5.2.2 Parâmetros da N μ; σ2
Analisando a segunda derivada dada por (5.7), tem-se que: Se X ∼ N (μ; σ2 ) , então X = μ + σZ, em que Z ∼ N(0; 1). Vimos que E(Z) = 0 e V ar(Z) = 1.
½ Das propriedades de média e variância, sabemos que, se X é uma v.a. e k1 6= 0 e k2 são constantes
00 x=μ+σ
f (x) = 0 ⇔ (x − μ)2 = σ 2 ⇔ |x − μ| = σ ⇔ (5.9) quaisquer, então
x=μ−σ
Além disso, E(k1 X + k2 ) = k1 E(X) + k2 (5.12)
00
Var(k1 X + k2 ) = k12 Var (X)
f (x) > 0 ⇔ (x − μ)2 > σ 2 ⇔ |x − μ| > σ ⇔
⇔ x − μ > σ ou μ−x>σ (5.10) Resulta, então, que se X ∼ N (μ; σ 2 ) então
⇔ x > μ + σ ou x<μ−σ E(X) = μ + σE(Z) = μ + 0 ⇒ E (X) = μ (5.13)
e e
00 2 2
f (x) < 0 ⇔ (x − μ) < σ ⇔ |x − μ| < σ ⇔ Var (X) = σ2 Var (Z) = σ 2 × 1 ⇒ Var (X) = σ 2 (5.14)
½
x−μ<σ Resumindo: ½
⇔ ⇔μ−σ <x<μ+σ (5.11) ¡ ¢ E(X) = μ
μ−x<σ X ∼ N μ; σ 2 =⇒ (5.15)
V ar(X) = σ 2
Logo, f(x) é côncava para cima se x > μ + σ ou x < μ − σ e é côncava para baixo quando
μ − σ < x < μ + σ. Os parâmetros da densidade normal são, então, a média e a variância, que são medidas de
2
posição e dispersão respectivamente. Valores diferentes de μ deslocam o eixo de simetria da curva
Na Figura 5.1 é apresentado o gráfico da densidade normal no caso em que μ = 3 e σ = 1.Aí a e valores diferentes de σ 2 mudam a dispersão da curva. Quanto maior σ 2 , mais “espalhada” é a
linha pontilhada central representa o eixo de simetria e as linhas pontilhadas laterais passam pelos curva; mas o ponto de máximo, dado pela equação (5.8), é inversamente proporcional a σ 2 . Logo,
pontos de inflexão 3 ± 1. quanto maior σ 2 , mais “espalhada” e mais “achatada” é a curva. A questão é que a forma é sempre
a de um “sino”. Na Figura 5.2 temos exemplos de densidades normais com a mesma variância, mas
com médias diferentes. O efeito é o “delocamento” da densidade. Já na Figura 5.3, temos duas
0,5 densidades com a mesma média, mas variâncias diferentes. O efeito é que a densidade com maior
variância é mais dispersa e achatada.
0,4
N(3;1)
5.2.3 Função geradora de momentos
0,3
Se X ∼ N(μ; σ2 ) então X = σZ + μ, onde Z ∼ N (0; 1) com função geradora de mometnos dada
2
por φZ (t) = et /2 .
0,2
Como X é uma transformação linear de Z, resulta que a função geradora de momentos de X
é dada por
2 2
0,1 φX (t) = eμt φZ (σt) = eμt eσ t /2
ou seja, µ ¶
σ 2 t2
0,0 φX (t) = exp μt +
-5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10 2
Note que φX (0) = 1. Calculando a derivada primeira tem-se que
¡ ¢
φ0X (t) = φX (t) μ + tσ 2
Figura 5.1: Densidade normal com média μ = 3 e variância σ2 = 1
e, portanto,
E(X) = φ0X (0) = φX (0) (μ) = μ
CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 93 CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 94

Calculando a derivada segunda:


¡ ¢
φ00X (t) = φ0X (t) μ + tσ 2 + σ 2 φX (t)
0,5
Logo,
E(X 2 ) = φ00X (0) = φ0X (0) (μ) + σ 2 φX (0) = μ2 + σ 2
0,4
e, portanto
N(3;1) V ar(X) = σ 2
N(0;1) 0,3

0,2
5.3 Função de distribuição acumulada
A função de distribuição acumulada de qualquer v.a. X é definida por FX (X) = Pr (X ≤ x) . No
0,1 caso da densidade normal, essa função é dada pela integral
Z x " µ ¶2 #
1 1 t−μ
0,0 F (x) = √ exp − dt (5.16)
-5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10 −∞ 2πσ 2 2 σ

para a qual não existe uma antiderivada em forma de função elementar. Assim, a f.d.a. da normal é
calculada por integração numérica. Todos os pacotes estatísticos possuem rotinas especiais para esse
Figura 5.2: Exemplos de densidades normais com mesma variância e médias diferentes cálculo. No EXCEL, a função DIST.NORM calcula Pr (X ≤ x) para qualquer x e para quaisquer
valores dos parâmetros μ e σ. Com auxílio dessa função, obtemos os seguintes gráficos da f.d.a.
para as densidades N(0, 1), N(3, 1) e N(3, 2) ilustrados na Figura 5.4.
Vamos denotar por Φ(z) a f.d.a. da densidade normal padrão, isto é:
Z z Z z µ 2¶
1 t
Φ(z) = ϕ(t)dt = √ exp − dt (5.17)
−∞ 2π −∞ 2
0,5
Note que, pela simetria da densidade em torno da média μ, sempre teremos Φ(μ) = 0, 5.
0,4
N(3;1)
5.4 Tabulação da distribuição normal padrão
0,3

Para completar o estudo da distribuição normal, é necessário calcular probabilidades de quaisquer


0,2 N(3;4) eventos, tais como Pr (a ≤ X ≤ b) . Por definição da função de densidade, essa probabilidade, no
caso da normal, é dada por:
0,1 Z b " µ ¶2 #
1 1 x−μ
Pr(a ≤ X ≤ b) = √ exp − dx
0,0 a 2πσ 2 2 σ
-5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10
No entanto, tal integral, que dá a área sob a curva compreendida entre os pontos a e b, não pode
ser calculada pelos procedimentos usuais; a dificuldade está no fato de que aí não podemos aplicar
o Teorema
µ 2 ¶Fundamental do Cálculo, já que não existe uma função elementar cuja derivada seja
Figura 5.3: Exemplos de densidades normais com mesma média e variâncias diferentes x
exp − . Assim, para calcular probabilidades do tipo acima, é necessária a aplicação de métodos
2
numéricos, sendo possível, então, tabular Pr(X ≤ x) para qualquer valor de x. Mas como podemos
CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 95 CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 96

1,2

N(0;1)
1,0

0,8
N(3;2)
0,6
N(3;1)
0,4

0,2

0,0
-6 -4 -2 0 2 4 6 8 10

Figura 5.4: Função de distribuição acumulada de várias densidades normais

ter diferentes valores para os parâmetros μ e σ, seria necessária a geração de uma tabela para cada
par μ, σ. Mas isso não é preciso, pois o resultado a seguir garante que probabilidades de qualquer
variável normal podem ser calculadas a partir das probabilidades da normal padrão.
De fato, já foi visto que se X ∼ N (μ, σ2 ) , então X = μ + σZ, onde Z ∼ N(0, 1). Vamos ver
como utilizar esse resultado para calcular probabilidades da normal. Temos que
µ ¶ µ ¶ µ ¶
X −μ x−μ x−μ x−μ
Pr (X ≤ x) = Pr ≤ = Pr Z ≤ =Φ (5.18)
σ σ σ σ
Na Figura 5.5 ilustra-se esse fato, utilizando as densidades Z ∼ N(0; 1) e X ∼ N(3; 4). No
gráfico inferior a área sombreada representa Pr(X ≤ 5) e, no gráfico superior, a área sombreada
representa a probabilidade equivalente:
µ ¶
X −3 5−3
Pr(X ≤ 5) = Pr ≤ = Pr(Z ≤ 1)
2 2

O que o resultado diz é que essas áreas (probabilidades) são iguais.

Esse resultado mostra que probabilidades de qualquer variável normal podem ser obtidas a partir
de probabilidades da normal padrão e, assim, só é necessário tabular a distribuição normal padrão;
qualquer livro de estatística apresenta alguma versão de tal tabela e programas de computador
também podem ser usados para tal. No EXCEL, por exemplo, há duas funções para cálculo de
probabilidades de normais. A função DIST.NORMP lida com a normal padrão, enquanto a função
DIST.NORM lida com normais de parâmetros quaisquer. Essas rotinas foram utilizadas para Figura 5.5: Ilustração da propriedade (5.18)
construir os gráficos anteriores e também as tabelas do Anexo, que são as tabelas usuais para a
distribuição normal padrão. Na Tabela 1 é dada a distribuição acumulada: para cada valor de z,
tem-se o valor de Φ(z) = Pr(Z ≤ z). Na Tabela 2, usa-se o fato de a distribuição normal ser simétrica
para “economizar” no tamanho da tabela e apresenta-se, para cada z > 0, tab(z) = Pr(0 ≤ Z ≤ z).
CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 97 CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 98

A partir de qualquer uma delas é possível calcular a probabilidade de qualquer evento associado à
distribuição normal.

5.5 Exemplos
Seja Z ∼ N(0, 1). Calcule:

1. Pr (0 ≤ Z ≤ 1)
Essa probabilidade corresponde à área sombreada na Figura 5.6. Pela Tabela 1, temos:

Pr (0 ≤ Z ≤ 1) = Φ(1) − Φ(0) = 0, 84134 − 0, 5 = 0, 34134

Pela Tabela 2, temos que

Pr (0 ≤ Z ≤ 1) = tab(1) = 0, 34134

onde tab(z) representa o valor dado na Tabela 2 correspondente à abscissa z.


Figura 5.7: Cálculo de probabilidades normais - Exemplo 2

3. Pr(−1 ≤ Z ≤ 0)
Essa probabilidade corresponde à área sombreada na Figura 5.8. Pela Tabela 1, temos:
Pr (−1 < Z < 0) = Pr(−1 ≤ Z ≤ 0) = Φ(0) − Φ(−1) = 0, 5 − 0, 15866 = 0, 34134
Pela Tabela 2, temos que (note a simetria das áreas!)
Pr (−1 < Z < 0) = Pr(−1 ≤ Z ≤ 0) = Pr(0 ≤ Z ≤ 1) = tab(1) = 0, 34134

4. Pr (−1 < Z < 2)


Essa probabilidade corresponde à área sombreada na Figura 5.9. Pela Tabela 1, temos:
Pr (−1 < Z < 2) = Pr(−1 ≤ Z ≤ 2) = Φ(2, 0) − Φ(−1) = 0, 97725 − 0, 15866 = 0, 81859
Pela Tabela 2, temos que
Pr (−1 < Z < 2) = Pr (−1 ≤ Z ≤ 2) = Pr (−1 ≤ Z ≤ 0) + Pr (0 ≤ Z ≤ 2) =
Figura 5.6: Cálculo de probabilidades normais - Exemplo 1 = Pr (0 ≤ Z ≤ 1) + Pr (0 ≤ Z ≤ 2) =
= tab(1, 0) + tab(2, 0) = 0, 34134 + 0, 47725 = 0, 81859
2. Pr (1 ≤ Z < 2, 5)
5. Pr (Z > 2, 0)
Essa probabilidade corresponde à área sombreada na Figura 5.7. Pela Tabela 1, temos:
Essa probabilidade corresponde à área sombreada na Figura 5.10. Pela Tabela 1, temos:
Pr (1 ≤ Z ≤ 2, 5) = Φ(2, 5) − Φ(1) = 0, 99379 − 0, 84134 = 0, 15245
Pr (Z > 2) = 1 − Pr(Z ≤ 2) = 1 − Φ(2, 0) = 1 − 0, 97725 = 0, 02275
Pela Tabela 2, temos que
Pela Tabela 2, temos que
Pr (1 ≤ Z ≤ 2, 5) = tab(2, 5) − tab(1) = 0, 49379 − 0, 34134 = 0, 15245 Pr (Z > 2) = 0, 5 − Pr (0 ≤ Z ≤ 2) = 0, 5 − 0, 47725 = 0, 02275
CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 99 CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 100

Figura 5.10: Cálculo de probabilidades normais - Exemplo 5

Figura 5.8: Cálculo de probabilidades normais - Exemplo 3 6. Pr (Z < −1, 5)


Essa probabilidade corresponde à área sombreada na Figura 5.11. Pela Tabela 1, temos:
Pr (Z < −1, 5) = Pr(Z ≤ −1, 5) = Φ(−1, 5) = 0, 06681
Pela Tabela 2, temos que (note a simetria das áreas!)
Pr (Z < −2) = Pr(Z > 2) = 0, 5 − Pr (0 ≤ Z ≤ 2) = 0, 5 − 0, 47725 = 0, 02275

Quando a variável tem distribuição normal qualquer, basta usar o resultado (5.18).
7. Se X ∼ N (2, 4) calcule Pr (−1 ≤ X ≤ 5) . Temos que (veja Figura 5.12)
µ ¶
−1 − 2 X −2 5−2
Pr (−1 ≤ X ≤ 5) = Pr √ ≤ √ ≤ √ = Pr (−1, 5 ≤ Z ≤ 1, 5) =
4 4 4
= 2 Pr (0 ≤ Z ≤ 1, 5) = 2 × tab(1, 5) = 2 × 0, 43319 = 0, 86638

8. Se X ∼ N (−1, 9) calcule Pr (−1 ≤ X ≤ 5) . Temos que (veja Figura 5.13)


µ ¶
−1 − (−1) X − (−1) 5 − (−1)
Pr (−1 ≤ X ≤ 9) = Pr √ ≤ √ ≤ √ = Pr (0 ≤ Z ≤ 2) =
9 9 9
= tab(2, 0) = 0, 47725

9. Se X ∼ N (3, 4) calcule Pr (−7 ≤ X ≤ 5) . Temos que (veja Figura 5.14)


µ ¶
−7 − 3 X −3 5−3
Pr (−7 ≤ X ≤ 5) = Pr √ ≤ √ ≤ √ = Pr (−5 ≤ Z ≤ 1) =
Figura 5.9: Cálculo de probabilidades normais - Exemplo 4 4 4 4
= Pr (−5 ≤ Z ≤ 0) + Pr (0 ≤ Z ≤ 1) =
= Pr (0 ≤ Z ≤ 5) + tab(1, 0) = 0, 5 + 0, 34134 = 0, 84134
CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 101 CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 102

Figura 5.11: Cálculo de probabilidades normais - Exemplo 6 Figura 5.13: Cálculo de probabilidades normais - Exemplo 8

Figura 5.12: Cálculo de probabilidades normais - Exemplo 7 Figura 5.14: Cálculo de probabilidades normais - Exemplo 9
CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 103 CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 104

10. Se X ∼ N (μ, σ2 ) , calcule Pr (μ − 2σ ≤ X ≤ μ + 2σ) . Temos que (veja Figura 5.15): Então, na Tabela 2, temos que procurar, no corpo da tabela, a abscissa que corresponde à
µ ¶ área de 0,45. É fácil ver que essa abscissa é 1,64, ou seja:
μ − 2σ − μ μ + 2σ − μ
Pr (μ − 2σ ≤ X ≤ μ + 2σ) = Pr ≤Z≤ = k−2
σ σ = 1, 64 =⇒ k = 2 + 3 × 1.64 = 6, 92
3
= Pr (−2 ≤ Z ≤ 2) = 2 × Pr (0 ≤ Z ≤ 2) =
= 2 × tab(2, 0) = 2 × 0, 47725 = 0, 9545 ' 95%
Note que essa probabilidade não depende dos parâmetros μ e σ. Isso significa que a probabi-
lidade de uma v.a. normal estar compreendida entre dois desvios padrões em torno da média
é sempre 95%!

Figura 5.16: Determinação de abscissas de curvas normais - Exemplo 11

12. Se X ∼ N(2; 9), encontre o valor de k tal que Pr(X < k) = 0, 10.
Solução:
Figura 5.15: Cálculo de probabilidades normais - Exemplo 10 Como no exemplo anterior, dada a probabilidade de um evento, queremos encontrar a abscissa
correspondente. Nesse exemplo, podemos observar que a abscissa k tem que estar do lado
11. Se X ∼ N(2; 9), encontre o valor de k tal que Pr(X < k) = 0, 95. esquerdo da curva, ou seja, abaixo da média, uma vez que a probabilidade abaixo dela tem
Solução: que ser menor do que 0,5.
Aqui, estamos analisando um problema inverso: dada a probabilidade de um evento, queremos Em termos da probabilidade equivalente da normal padrão :
µ ¶ µ ¶
encontrar a abscissa correspondente. Nesse exemplo, podemos observar que a abscissa k tem X −2 k−2 k−2
Pr(X < k) = 0, 10 ⇐⇒ Pr < = 0, 10 ⇐⇒ Pr Z < = 0, 10
que estar do lado direito da curva, ou seja, acima da média, uma vez que a probabilidade 3 3 3
abaixo dela tem que ser maior do que 0,5.
Veja a Figura 5.17. Se abaixo da abscissa k−2 3
temos área de 0,10, pela simetria da curva,
Para resolver este problema, devemos, como antes, obter a probabilidade equivalente em
temso que ter área 0,10 acima da abscissa simétrica. Ou seja, acima de − k−2
3
temos área 0,10
termos da normal padrão (veja a Figura 5.16):
e, portanto, a área entre 0 e − k−2 tem que ser 0,40.
µ ¶ µ
3
¶ µ ¶
X −2 k−2 k−2 k−2
Pr(X < k) = 0, 95 ⇐⇒ Pr < = 0, 95 ⇐⇒ Pr Z < = 0, 10 ⇐⇒ Pr Z > − = 0, 10 ⇐⇒
3 3 3 3
µ ¶ µ ¶ µ ¶ µ ¶
k−2 k−2 k−2 k−2
Pr Z < = 0, 95 ⇐⇒ Pr(Z < 0) + Pr 0 ≤ Z < = 0, 95 ⇐⇒ Pr 0 ≤ Z ≤ − = 0, 40 ⇐⇒ tab − = 0, 40 ⇐⇒
3 3 3 3
µ ¶ µ ¶
k−2 k−2 k−2
0, 5 + tab = 0, 95 ⇐⇒ tab = 0, 45 − = 1, 28 ⇐⇒ −k + 2 = 3, 84 ⇐⇒ k = −1, 84
3 3 3
CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 105 CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 106

ou ainda: " µ ¶2 #
1 1 ln y − μ
fY (y) = √ exp − y>0
y 2πσ 2 2 σ

5.6.2 Esperança
A esperança de Y é:
Z " µ ¶2 #

1 1 ln y − μ
E(Y ) = y √ exp − dy
0 y 2πσ 2 2 σ

Fazendo a mudança de variável

• t = ln y
temos que

• y = 0 ⇒ t = −∞

• y=∞⇒t=∞
Figura 5.17: Determinação de abscissas de curvas normais - Exemplo 12
• dt = y1 dy

• y = et
5.6 A distribuição log-normal
e, portanto
5.6.1 Definição Z " µ ¶2 # Z ∞ " µ ¶2 #

1 1 t−μ 1 1 t−μ
2 X
Seja X ∼ N(μ, σ ). Se definimos uma nova v.a. Y = e então diz-se que Y tem distribuição log- E(Y ) = √ et exp − dt = √ exp − + t dt
2πσ 2 −∞ 2 σ 2πσ 2 −∞ 2 σ
normal com parâmetros μ e σ 2 . Reciprocamente, se Y tem distribuição log-normal, então X = ln Y Z ∞ ∙ 2 ¸
2 2
tem distribuição N(μ, σ2 ). 1 t − 2tμ + μ − 2σ t
= √ exp − dt =
Vamos calcular a f.d.p. de uma v.a. log-normal a partir de sua função de distribuição acumulada. 2πσ 2 −∞ 2σ 2
Z ∞ ∙ 2 ¸
Note que Y só pode assumir valores positivos. Temos que: 1 t − 2t (μ + σ 2 ) + μ2
= √ exp − dt
¡ ¢ 2
2πσ −∞ 2σ 2
FY (y) = Pr (Y ≤ y) = Pr eX ≤ y = Pr (X ≤ ln y) = Z ∞ ∙ 2 ¸ µ ¶
µ ¶ µ ¶ 1 t − 2t (μ + σ 2 ) μ2
X −μ ln y − μ ln y − μ = √ exp − exp − dt =
= Pr ≤ = Pr Z ≤ 2πσ 2 −∞ 2σ 2 2σ 2
σ σ σ µ ¶ Z
∞ " #
µ ¶ μ2 1
2
t2 − 2t (μ + σ 2 ) + (μ + σ 2 ) − (μ + σ 2 )
2
ln y − μ = exp − 2 √ exp − dt
= Φ y>0 2σ 2σ 2
σ 2πσ 2
−∞
µ ¶ Z∞ ( ) Ã !
2 2
Sabemos que fY (y) = F 0 (y) e, também, no caso da normal padrão, Φ0 (z) = ϕ(z). Logo, pela μ2 1 [t − (μ + σ 2 )] (μ + σ2 )
regra da cadeia, = exp − 2 √ exp − exp dt
2σ 2πσ 2 2σ 2 2σ 2
µ ¶ µ ¶ −∞
ln y − μ 1 ln y − μ 1 Ã !⎡ Z∞ ( ) ⎤
fY (y) = Φ0 × =ϕ × = μ2
2
(μ + σ 2 ) ⎣ 1 [t − (μ + σ 2 )]
2
σ
"
σy σ σy = exp − 2 + √ exp − dt⎦
µ ¶2 # 2σ 2σ 2 2πσ 2 2σ 2
1 1 ln y − μ 1 −∞
= √ exp − ×
2π 2 σ σy
CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 107 CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 108

Mas o termo entre os colchetes externos é a integral de uma densidade normal com média e
λ = (μ + σ2 ) e variância σ 2 ; logo, essa integral é 1 e, portanto: ∙ µ ¶¸2
¡ ¢ σ2
à 2
! µ 2 ¶ Var(Y ) = exp 2μ + 2σ2 − exp μ + =
μ2 (μ + σ 2 ) −μ + μ2 + 2μσ2 + σ 4 2
E(Y ) = exp − 2 + = exp ⇒ ∙ µ ¶¸
2σ 2σ 2 2σ 2 ¡ ¢ σ 2

µ ¶ = exp 2μ + 2σ2 − exp 2 μ + =


2
σ2 ¡ ¢ ¡ ¢
E(Y ) = exp μ + (5.19) = exp 2μ + 2σ2 − exp 2μ + σ 2
2 ∙ ¸
¡ ¢ exp (2μ + 2σ 2 )
= exp 2μ + σ 2 − 1 =
5.6.3 Variância exp (2μ + σ 2 )
¡ ¢ £ ¡ ¢ ¤
= exp 2μ + σ 2 exp 2μ + 2σ 2 − 2μ − σ 2 − 1 =
Vamos calcular de modo análogo E(Y 2 ), usando a mesma transformação: ¡ ¢ £ ¤
= exp 2μ + σ 2 exp σ 2 − 1
Z ∞ " µ ¶2 #
1 1 ln y − μ ³ ´
E(Y 2 ) = y2 √ exp − dy 2
Definindo m = E(X) = exp μ + σ2 , temos que m2 = exp (2μ + σ 2 ) . Logo,
0 y 2πσ 2 2 σ
Z ∞ " µ ¶2 # Z ∞ " µ ¶2 #
h 2i
1 1 t−μ 1 1 t−μ
= √ 2t
e exp − dt = √ exp − + 2t dt Var(Y ) = m2 eσ − 1 (5.20)
2πσ 2 −∞ 2 σ 2πσ 2 −∞ 2 σ
Z ∞ ∙ 2 ¸
1 t − 2tμ + μ2 − 4σ 2 t
= √
2
2πσ −∞
exp −
2σ 2
dt = 5.7 Exemplo: qui-quadrado e normal
Z ∞ ∙ 2 ¸
1 t − 2t (μ + 2σ 2 ) + μ2 Seja Z ∼ N(0; 1) e considere Y = Z 2 . Para y > 0 temos
= √ exp − dt
2
2πσ −∞ 2σ 2
Z ∞ ∙ 2 ¸ µ ¶ FY (y) = Pr(Y ≤ y) = Pr(Z 2 ≤ y)
1 t − 2t (μ + 2σ 2 ) μ2
= √ exp − exp − dt = √ √
2πσ 2 −∞ 2σ 2 2σ 2 = Pr (− y ≤ Z ≤ y)
" # √ √
µ ¶ Z

2 2 = FZ ( y) − FZ (− y)
μ2 1 t2 − 2t (μ + 2σ2 ) + (μ + 2σ 2 ) − (μ + 2σ2 ) √ √
= exp − 2 √ exp − dt = Φ ( y) − Φ (− y)
2σ 2πσ 2 2σ 2
−∞
µ ¶ Z∞ ( ) Ã ! e, portanto
2 2
μ2 1 [t − (μ + 2σ2 )] (μ + 2σ2 )
= exp − 2 √ exp − exp dt d √ d √
2σ 2πσ 2 2σ 2 2σ 2 fY (y) = [Φ ( y)] − [Φ (− y)]
−∞ dy dy
à 2
!⎡ Z∞ ( 2
) ⎤ µ ¶
μ2 (μ + 2σ 2 ) ⎣ 1 [t − (μ + 2σ2 )] √ 1 √ 1
= exp − 2 + √ exp − dt⎦ = Φ0 ( y) √ − Φ0 (− y) − √
2σ 2σ 2 2πσ 2 2σ 2 2 y 2 y
−∞ √ 1 √ 1
= ϕ ( y) √ + ϕ (− y) √
Como antes, o termo entre os colchetes externos é 1 porque é a integral de uma densidade normal 2 y 2 y
à ¡√ ¢2 ! à ¡ √ ¢2 !
com média μ + 2σ 2 e variância σ 2 . Logo, 1 y 1 1 − y 1
à ! = √ exp − √ + √ exp − √
2 µ 2 ¶ 2π 2 2 y 2π 2 2 y
μ2 (μ + 2σ 2 ) −μ + μ2 + 4μσ2 + 4σ 4 ∙ ³ y´ 1 ¸
E(Y 2 ) = exp − 2 + 2
= exp 2
⇒ 1
2σ 2σ 2σ = 2 × √ exp − √
¡ ¢ 2π 2 2 y
E(Y 2 ) = exp 2μ + 2σ 2 1 ³ y ´
= √ √ exp − y −1/2
π 2 2
1
= ¡ ¢ y 1/2−1 e−y/2
Γ 12 21/2
CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 109 CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 110

Comparando com a densidade qui-quadrado dada em (3.17)


1 Tabela 1
f(x) = xn/2−1 e−x/2 se x > 0 Função de Distribuição Acumulada
Γ( n2 )2n/2
Normal Padrão
vemos que fY (y) é uma qui-quadrado com 1 grau de liberdade, ou seja, se Z ∼ N(0; 1), então Z 2
Z ~ N (0;1)
∼ χ2 (1). Este resultado se generaliza da seguinte forma: se Z1 , Z2 , . . . , Zn são variáveis aleatórias
independentes, todas com distribuição normal padrão, então Y = Z12 +Z22 +. . .+Zn2 tem distribuição Φ( z ) = Pr( Z ≤ z )
qui-quadrado com n graus de liberdade.

9 8 7 6 5 4 3 2 1 0
-3,5 0,00017 0,00017 0,00018 0,00019 0,00019 0,00020 0,00021 0,00022 0,00022 0,00023
-3,4 0,00024 0,00025 0,00026 0,00027 0,00028 0,00029 0,00030 0,00031 0,00032 0,00034
-3,3 0,00035 0,00036 0,00038 0,00039 0,00040 0,00042 0,00043 0,00045 0,00047 0,00048
-3,2 0,00050 0,00052 0,00054 0,00056 0,00058 0,00060 0,00062 0,00064 0,00066 0,00069
-3,1 0,00071 0,00074 0,00076 0,00079 0,00082 0,00084 0,00087 0,00090 0,00094 0,00097
-3,0 0,00100 0,00104 0,00107 0,00111 0,00114 0,00118 0,00122 0,00126 0,00131 0,00135
-2,9 0,00139 0,00144 0,00149 0,00154 0,00159 0,00164 0,00169 0,00175 0,00181 0,00187
-2,8 0,00193 0,00199 0,00205 0,00212 0,00219 0,00226 0,00233 0,00240 0,00248 0,00256
-2,7 0,00264 0,00272 0,00280 0,00289 0,00298 0,00307 0,00317 0,00326 0,00336 0,00347
-2,6 0,00357 0,00368 0,00379 0,00391 0,00402 0,00415 0,00427 0,00440 0,00453 0,00466
-2,5 0,00480 0,00494 0,00508 0,00523 0,00539 0,00554 0,00570 0,00587 0,00604 0,00621
-2,4 0,00639 0,00657 0,00676 0,00695 0,00714 0,00734 0,00755 0,00776 0,00798 0,00820
-2,3 0,00842 0,00866 0,00889 0,00914 0,00939 0,00964 0,00990 0,01017 0,01044 0,01072
-2,2 0,01101 0,01130 0,01160 0,01191 0,01222 0,01255 0,01287 0,01321 0,01355 0,01390
-2,1 0,01426 0,01463 0,01500 0,01539 0,01578 0,01618 0,01659 0,01700 0,01743 0,01786
-2,0 0,01831 0,01876 0,01923 0,01970 0,02018 0,02068 0,02118 0,02169 0,02222 0,02275
-1,9 0,02330 0,02385 0,02442 0,02500 0,02559 0,02619 0,02680 0,02743 0,02807 0,02872
-1,8 0,02938 0,03005 0,03074 0,03144 0,03216 0,03288 0,03362 0,03438 0,03515 0,03593
-1,7 0,03673 0,03754 0,03836 0,03920 0,04006 0,04093 0,04182 0,04272 0,04363 0,04457
-1,6 0,04551 0,04648 0,04746 0,04846 0,04947 0,05050 0,05155 0,05262 0,05370 0,05480
-1,5 0,05592 0,05705 0,05821 0,05938 0,06057 0,06178 0,06301 0,06426 0,06552 0,06681
-1,4 0,06811 0,06944 0,07078 0,07215 0,07353 0,07493 0,07636 0,07780 0,07927 0,08076
-1,3 0,08226 0,08379 0,08534 0,08692 0,08851 0,09012 0,09176 0,09342 0,09510 0,09680
-1,2 0,09853 0,10027 0,10204 0,10383 0,10565 0,10749 0,10935 0,11123 0,11314 0,11507
-1,1 0,11702 0,11900 0,12100 0,12302 0,12507 0,12714 0,12924 0,13136 0,13350 0,13567
-1,0 0,13786 0,14007 0,14231 0,14457 0,14686 0,14917 0,15151 0,15386 0,15625 0,15866
-0,9 0,16109 0,16354 0,16602 0,16853 0,17106 0,17361 0,17619 0,17879 0,18141 0,18406
-0,8 0,18673 0,18943 0,19215 0,19489 0,19766 0,20045 0,20327 0,20611 0,20897 0,21186
-0,7 0,21476 0,21770 0,22065 0,22363 0,22663 0,22965 0,23270 0,23576 0,23885 0,24196
-0,6 0,24510 0,24825 0,25143 0,25463 0,25785 0,26109 0,26435 0,26763 0,27093 0,27425
-0,5 0,27760 0,28096 0,28434 0,28774 0,29116 0,29460 0,29806 0,30153 0,30503 0,30854
-0,4 0,31207 0,31561 0,31918 0,32276 0,32636 0,32997 0,33360 0,33724 0,34090 0,34458
-0,3 0,34827 0,35197 0,35569 0,35942 0,36317 0,36693 0,37070 0,37448 0,37828 0,38209
-0,2 0,38591 0,38974 0,39358 0,39743 0,40129 0,40517 0,40905 0,41294 0,41683 0,42074
-0,1 0,42465 0,42858 0,43251 0,43644 0,44038 0,44433 0,44828 0,45224 0,45620 0,46017
0,0 0,46414 0,46812 0,47210 0,47608 0,48006 0,48405 0,48803 0,49202 0,49601 0,50000
CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 111 CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 112

Tabela 2
Tabela 1 Distribuição Normal Padrão Z ~N();1)
Função de Distribuição Acumulada
A tabela dá P(0 < Z < z)
Normal Padrão

Z ~ N (0;1)
Φ( z ) = Pr( Z ≤ z ) Casa
inteira e
Segunda casa decimal
primeira
0 1 2 3 4 5 6 7 8 9
decimal
0,0 0,0000 0,0040 0,0080 0,0120 0,0160 0,0199 0,0239 0,0279 0,0319 0,0359
0 1 2 3 4 5 6 7 8 9 0,1 0,0398 0,0438 0,0478 0,0517 0,0557 0,0596 0,0636 0,0675 0,0714 0,0753
0,0 0,50000 0,50399 0,50798 0,51197 0,51595 0,51994 0,52392 0,52790 0,53188 0,53586 0,2 0,0793 0,0832 0,0871 0,0910 0,0948 0,0987 0,1026 0,1064 0,1103 0,1141
0,1 0,53983 0,54380 0,54776 0,55172 0,55567 0,55962 0,56356 0,56749 0,57142 0,57535 0,3 0,1179 0,1217 0,1255 0,1293 0,1331 0,1368 0,1406 0,1443 0,1480 0,1517
0,2 0,57926 0,58317 0,58706 0,59095 0,59483 0,59871 0,60257 0,60642 0,61026 0,61409 0,4 0,1554 0,1591 0,1628 0,1664 0,1700 0,1736 0,1772 0,1808 0,1844 0,1879
0,3 0,61791 0,62172 0,62552 0,62930 0,63307 0,63683 0,64058 0,64431 0,64803 0,65173
0,5 0,1915 0,1950 0,1985 0,2019 0,2054 0,2088 0,2123 0,2157 0,2190 0,2224
0,4 0,65542 0,65910 0,66276 0,66640 0,67003 0,67364 0,67724 0,68082 0,68439 0,68793
0,6 0,2257 0,2291 0,2324 0,2357 0,2389 0,2422 0,2454 0,2486 0,2517 0,2549
0,5 0,69146 0,69497 0,69847 0,70194 0,70540 0,70884 0,71226 0,71566 0,71904 0,72240
0,7 0,2580 0,2611 0,2642 0,2673 0,2704 0,2734 0,2764 0,2794 0,2823 0,2852
0,6 0,72575 0,72907 0,73237 0,73565 0,73891 0,74215 0,74537 0,74857 0,75175 0,75490
0,7 0,75804 0,76115 0,76424 0,76730 0,77035 0,77337 0,77637 0,77935 0,78230 0,78524 0,8 0,2881 0,2910 0,2939 0,2967 0,2995 0,3023 0,3051 0,3078 0,3106 0,3133
0,8 0,78814 0,79103 0,79389 0,79673 0,79955 0,80234 0,80511 0,80785 0,81057 0,81327 0,9 0,3159 0,3186 0,3212 0,3238 0,3264 0,3289 0,3315 0,3340 0,3365 0,3389
0,9 0,81594 0,81859 0,82121 0,82381 0,82639 0,82894 0,83147 0,83398 0,83646 0,83891 1,0 0,3413 0,3438 0,3461 0,3485 0,3508 0,3531 0,3554 0,3577 0,3599 0,3621
1,0 0,84134 0,84375 0,84614 0,84849 0,85083 0,85314 0,85543 0,85769 0,85993 0,86214 1,1 0,3643 0,3665 0,3686 0,3708 0,3729 0,3749 0,3770 0,3790 0,3810 0,3830
1,1 0,86433 0,86650 0,86864 0,87076 0,87286 0,87493 0,87698 0,87900 0,88100 0,88298 1,2 0,3849 0,3869 0,3888 0,3907 0,3925 0,3944 0,3962 0,3980 0,3997 0,4015
1,2 0,88493 0,88686 0,88877 0,89065 0,89251 0,89435 0,89617 0,89796 0,89973 0,90147 1,3 0,4032 0,4049 0,4066 0,4082 0,4099 0,4115 0,4131 0,4147 0,4162 0,4177
1,3 0,90320 0,90490 0,90658 0,90824 0,90988 0,91149 0,91308 0,91466 0,91621 0,91774
1,4 0,4192 0,4207 0,4222 0,4236 0,4251 0,4265 0,4279 0,4292 0,4306 0,4319
1,4 0,91924 0,92073 0,92220 0,92364 0,92507 0,92647 0,92785 0,92922 0,93056 0,93189
1,5 0,4332 0,4345 0,4357 0,4370 0,4382 0,4394 0,4406 0,4418 0,4429 0,4441
1,5 0,93319 0,93448 0,93574 0,93699 0,93822 0,93943 0,94062 0,94179 0,94295 0,94408
1,6 0,4452 0,4463 0,4474 0,4484 0,4495 0,4505 0,4515 0,4525 0,4535 0,4545
1,6 0,94520 0,94630 0,94738 0,94845 0,94950 0,95053 0,95154 0,95254 0,95352 0,95449
1,7 0,95543 0,95637 0,95728 0,95818 0,95907 0,95994 0,96080 0,96164 0,96246 0,96327 1,7 0,4554 0,4564 0,4573 0,4582 0,4591 0,4599 0,4608 0,4616 0,4625 0,4633
1,8 0,96407 0,96485 0,96562 0,96638 0,96712 0,96784 0,96856 0,96926 0,96995 0,97062 1,8 0,4641 0,4649 0,4656 0,4664 0,4671 0,4678 0,4686 0,4693 0,4699 0,4706
1,9 0,97128 0,97193 0,97257 0,97320 0,97381 0,97441 0,97500 0,97558 0,97615 0,97670 1,9 0,4713 0,4719 0,4726 0,4732 0,4738 0,4744 0,4750 0,4756 0,4761 0,4767
2,0 0,97725 0,97778 0,97831 0,97882 0,97932 0,97982 0,98030 0,98077 0,98124 0,98169 2,0 0,4772 0,4778 0,4783 0,4788 0,4793 0,4798 0,4803 0,4808 0,4812 0,4817
2,1 0,98214 0,98257 0,98300 0,98341 0,98382 0,98422 0,98461 0,98500 0,98537 0,98574 2,1 0,4821 0,4826 0,4830 0,4834 0,4838 0,4842 0,4846 0,4850 0,4854 0,4857
2,2 0,98610 0,98645 0,98679 0,98713 0,98745 0,98778 0,98809 0,98840 0,98870 0,98899 2,2 0,4861 0,4864 0,4868 0,4871 0,4875 0,4878 0,4881 0,4884 0,4887 0,4890
2,3 0,98928 0,98956 0,98983 0,99010 0,99036 0,99061 0,99086 0,99111 0,99134 0,99158
2,3 0,4893 0,4896 0,4898 0,4901 0,4904 0,4906 0,4909 0,4911 0,4913 0,4916
2,4 0,99180 0,99202 0,99224 0,99245 0,99266 0,99286 0,99305 0,99324 0,99343 0,99361
2,4 0,4918 0,4920 0,4922 0,4925 0,4927 0,4929 0,4931 0,4932 0,4934 0,4936
2,5 0,99379 0,99396 0,99413 0,99430 0,99446 0,99461 0,99477 0,99492 0,99506 0,99520
2,5 0,4938 0,4940 0,4941 0,4943 0,4945 0,4946 0,4948 0,4949 0,4951 0,4952
2,6 0,99534 0,99547 0,99560 0,99573 0,99585 0,99598 0,99609 0,99621 0,99632 0,99643
2,7 0,99653 0,99664 0,99674 0,99683 0,99693 0,99702 0,99711 0,99720 0,99728 0,99736 2,6 0,4953 0,4955 0,4956 0,4957 0,4959 0,4960 0,4961 0,4962 0,4963 0,4964
2,8 0,99744 0,99752 0,99760 0,99767 0,99774 0,99781 0,99788 0,99795 0,99801 0,99807 2,7 0,4965 0,4966 0,4967 0,4968 0,4969 0,4970 0,4971 0,4972 0,4973 0,4974
2,9 0,99813 0,99819 0,99825 0,99831 0,99836 0,99841 0,99846 0,99851 0,99856 0,99861 2,8 0,4974 0,4975 0,4976 0,4977 0,4977 0,4978 0,4979 0,4979 0,4980 0,4981
3,0 0,99865 0,99869 0,99874 0,99878 0,99882 0,99886 0,99889 0,99893 0,99896 0,99900 2,9 0,4981 0,4982 0,4982 0,4983 0,4984 0,4984 0,4985 0,4985 0,4986 0,4986
3,1 0,99903 0,99906 0,99910 0,99913 0,99916 0,99918 0,99921 0,99924 0,99926 0,99929 3,0 0,4987 0,4987 0,4987 0,4988 0,4988 0,4989 0,4989 0,4989 0,4990 0,4990
3,2 0,99931 0,99934 0,99936 0,99938 0,99940 0,99942 0,99944 0,99946 0,99948 0,99950 3,1 0,4990 0,4991 0,4991 0,4991 0,4992 0,4992 0,4992 0,4992 0,4993 0,4993
3,3 0,99952 0,99953 0,99955 0,99957 0,99958 0,99960 0,99961 0,99962 0,99964 0,99965
3,2 0,4993 0,4993 0,4994 0,4994 0,4994 0,4994 0,4994 0,4995 0,4995 0,4995
3,4 0,99966 0,99968 0,99969 0,99970 0,99971 0,99972 0,99973 0,99974 0,99975 0,99976
3,3 0,4995 0,4995 0,4995 0,4996 0,4996 0,4996 0,4996 0,4996 0,4996 0,4997
3,5 0,99977 0,99978 0,99978 0,99979 0,99980 0,99981 0,99981 0,99982 0,99983 0,99983
3,4 0,4997 0,4997 0,4997 0,4997 0,4997 0,4997 0,4997 0,4997 0,4997 0,4998
3,5 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998
3,6 0,4998 0,4998 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999
3,7 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999
3,8 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999
3,9 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000
4,0 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000

You might also like