Conteúdo

UNIVERSIDADE FEDERAL FLUMINENSE INSTITUTO DE MATEMÁTICA
1 Alguns Resultados de Cálculo 1.1 Séries geométricas . . . . . . . . . . . . . . 1.2 A função logarítmica natural . . . . . . . . 1.3 A função exponencial natural . . . . . . . 1.4 Funções pares e ímpares . . . . . . . . . . 1.5 Integrais duplas com coordenadas polares . 1.5.1 Exemplo . . . . . . . . . . . . . . . 1.5.2 Exercício resolvido . . . . . . . . . 1.6 Mudança de variáveis em integrais duplas . 1.7 Funções exponencial e logarítmica . . . . . 1.8 A função gama . . . . . . . . . . . . . . . 1.9 A função beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 4 7 8 10 14 15 15 16 21 22 26 26 26 26 27 27 27 28 28 30 31 32 33 34 34 35 37 37 38 39 40 40

DEPARTAMENTO DE ESTATÍSTICA

Variáveis Aleatórias Algumas Distribuições Discretas e Contínuas Ana Maria Lima de Farias

Junho de 2008

2 Algumas Distribuições Discretas 2.1 Distribuição de Bernoulli . . . . . . . . . . . . . . . . . 2.1.1 Definição . . . . . . . . . . . . . . . . . . . . . 2.1.2 Função de distribuição acumulada . . . . . . . . 2.1.3 Esperança . . . . . . . . . . . . . . . . . . . . . 2.1.4 Variância . . . . . . . . . . . . . . . . . . . . . 2.1.5 Função geradora de momentos . . . . . . . . . . 2.2 Distribuição Binomial . . . . . . . . . . . . . . . . . . . 2.2.1 Definição . . . . . . . . . . . . . . . . . . . . . 2.2.2 Esperança . . . . . . . . . . . . . . . . . . . . . 2.2.3 Variância . . . . . . . . . . . . . . . . . . . . . 2.2.4 Função geradora de momentos . . . . . . . . . . 2.2.5 Exercícios resolvidos . . . . . . . . . . . . . . . 2.3 Distribuição Geométrica . . . . . . . . . . . . . . . . . 2.3.1 Definição . . . . . . . . . . . . . . . . . . . . . 2.3.2 Função de distribuição acumulada . . . . . . . . 2.3.3 Esperança . . . . . . . . . . . . . . . . . . . . . 2.3.4 Variância . . . . . . . . . . . . . . . . . . . . . 2.3.5 Função geradora de momentos . . . . . . . . . . 2.3.6 Exercícios resolvidos . . . . . . . . . . . . . . . 2.3.7 Forma alternativa da distribuição geométrica . . 2.3.8 Propriedade da falta de memória da geométrica ii

CONTEÚDO 2.4 Distribuição binomial negativa . . . . . . . . . . . . . . . . . . . 2.4.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.2 Forma alternativa da distribuição binomial negativa . . . 2.4.3 Por que binomial negativa? . . . . . . . . . . . . . . . . 2.4.4 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.5 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.6 Função geradora de momentos . . . . . . . . . . . . . . . 2.4.7 Exercícios resolvidos . . . . . . . . . . . . . . . . . . . . 2.5 Distribuição hipergeométrica . . . . . . . . . . . . . . . . . . . . 2.5.1 Exemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5.2 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5.3 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5.4 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5.5 Distribuição binomial versus distribuição hipergeométrica 2.5.6 Exercícios resolvidos . . . . . . . . . . . . . . . . . . . . 2.6 Distribuição de Poisson . . . . . . . . . . . . . . . . . . . . . . . 2.6.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.2 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.3 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.4 Função geradora de momentos . . . . . . . . . . . . . . . 2.6.5 Aproximação da binomial pela Poisson . . . . . . . . . . 2.6.6 Exercícios resolvidos . . . . . . . . . . . . . . . . . . . . 3 Algumas Distribuições Contínuas 3.1 Distribuição uniforme . . . . . . . . . . . . . . . . . . . . . . . . 3.1.1 Função de distribuição acumulada . . . . . . . . . . . . . 3.1.2 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.3 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Distribuição exponencial . . . . . . . . . . . . . . . . . . . . . . 3.2.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.2 Função de distribuição acumulada . . . . . . . . . . . . . 3.2.3 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.4 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.5 Função geradora de momentos . . . . . . . . . . . . . . . 3.2.6 Parametrização alternativa . . . . . . . . . . . . . . . . . 3.2.7 Propriedade da falta de memória da exponencial . . . . . 3.2.8 Exercícios resolvidos . . . . . . . . . . . . . . . . . . . . 3.3 Distribuição gama . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.2 O gráfico da distribuição gama . . . . . . . . . . . . . . 3.3.3 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.4 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.5 Função geradora de momentos . . . . . . . . . . . . . . . 3.3.6 Distribuição de Erlang . . . . . . . . . . . . . . . . . . . 3.3.7 Distribuição qui-quadrado como caso particular da gama . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

iii 41 41 42 42 43 45 48 48 49 49 51 52 53 55 55 56 56 57 59 59 60 61 62 62 63 63 64 65 65 65 66 67 67 68 68 68 69 69 70 73 74 75 75 75

CONTEÚDO 3.4 Distribuição de Weibull . . . . . . . . . . 3.4.1 Definição . . . . . . . . . . . . . 3.4.2 Esperança e variância . . . . . . . 3.4.3 Função de distribuição acumulada 3.5 Distribuição de Pareto . . . . . . . . . . 3.5.1 Definição . . . . . . . . . . . . . 3.5.2 Esperança . . . . . . . . . . . . . 3.5.3 Variância . . . . . . . . . . . . . 3.6 Distribuição beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

iv 76 76 76 77 77 77 78 78 79 81 81 82 84 85 88 88 88 88 88 89 89 90 92 92 94 94 97 105 105 106 107 108

4 Funções de Variáveis Aleatórias Contínuas 4.1 Exemplo . . . . . . . . . . . . . . . . . . . . 4.2 Funções inversíveis . . . . . . . . . . . . . . 4.2.1 Exemplo . . . . . . . . . . . . . . . . 4.2.2 Transformação linear . . . . . . . . . 5 A Distribuição Normal 5.1 Distribuição normal padrão . . . . . . . 5.1.1 Definição . . . . . . . . . . . . . 5.1.2 Esperança . . . . . . . . . . . . . 5.1.3 Variância . . . . . . . . . . . . . 5.1.4 Função geradora de momentos . . 5.2 Distribuição N(μ; σ2 ) . . . . . . . . . . . 5.2.1 Características da curva normal . 5.2.2 Parâmetros da N (μ; σ2 ) . . . . . 5.2.3 Função geradora de momentos . . 5.3 Função de distribuição acumulada . . . . 5.4 Tabulação da distribuição normal padrão 5.5 Exemplos . . . . . . . . . . . . . . . . . 5.6 A distribuição log-normal . . . . . . . . 5.6.1 Definição . . . . . . . . . . . . . 5.6.2 Esperança . . . . . . . . . . . . . 5.6.3 Variância . . . . . . . . . . . . . 5.7 Exemplo: qui-quadrado e normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO primeira ordem. µ∞ ¶ d P i r = dr i=0 = = =

2

Capítulo 1 Alguns Resultados de Cálculo
1.1 Séries geométricas

d (1 + r + r2 + r3 + r4 + · · · + rn + · · · ) dr 1 + 2r + 3r2 + 4r3 + · · · + nrn−1 + · · · = £ ¤ 1 + (r + r) + (r2 + 2r2 ) + (r3 + 3r3 ) + · · · rn−1 + (n − 1)rn−1 + · · · £ ¤ (1 + r + r2 + r3 + · · · + rn−1 + · · · ) + r + 2r2 + 3r3 + · · · + (n − 1)rn−1 + · · · ∞ ∞ P i P i r + ir = = =
i=0 ∞ P i=0 ∞ P i=0

ri +

(1 + i)ri

i=1 ∞ P i=0

iri

Recordemos inicialmente a progressão geométrica (pg) de razão r, dada por (1, r, r2 , r3 , . . . , rn ) . Para calcular a soma dos n primeiros termos de uma pg, note que, se r 6= 1, podemos escrever: (1 + r + r2 + . . . + rn )(1 − r) = (1 + r + r2 + . . . + rn ) − (r + r2 + . . . + rn+1 ) = 1 − rn+1 Logo, 1 − rn+1 (1 + r + r2 + . . . + rn ) = r 6= 1 1−r Essa é a soma dos n termos de uma pg de razão r. Se |r| < 1, lim rn+1 = 0. Logo, a soma dos termos da pg converge, quando n → ∞, isto é:
n→∞ ∞ X i=0

Como a série geométrica é convergente para | r | < 1, podemos igualar as derivadas, isto é: µ∞ ¶ µ ¶ ∞ P 1 d d P i se | r | < 1 (1 + i)ri = r = dr i=0 dr 1 − r i=0 ou seja,
i=0 ∞ P

(1 + i)ri =

Mas podemos escrever

1 (1 − r)2

se | r | < 1 µ ¶ 1+i i

(1.3)

(1 + i) = resultando que

(1 + i) × i! (1 + i)! = = i! i! 1!

1 r = 1−r
i

se | r | < 1.

(1.1)

A série

i=0

Note que podemos escrever (atenção aos índices dos somatórios!):
∞ P

∞ P

ri é chamada série geométrica de razão r.

ri = 1 +
∞ P

i=0

i=1

ou

∞ P

ri ⇒

∞ P i 1 =1+ r 1−r i=1

se | r | < 1 (1.2)

i=1

ri = 1 −

Consideremos, agora, as derivadas da série geométrica. Vamos começar com a derivada de

1 r = 1−r 1−r

se | r | < 1

Igualando as derivadas, obtemos:
∞ P

µ ¶ ∞ P 1+i i 1 r = se | r | < 1 (1.4) i (1 − r)2 i=0 Consideremos a segunda derivada. µ∞ ¶ d2 P i d2 r = 2 (1 + r + r2 + r3 + r4 + · · · + rn−1 + rn + rn+1 · · · ) = dr2 i=0 dr ¢ d ¡ = 1 + 2r + 3r2 + 4r3 · · · + (n − 1)rn−2 + nrn−1 + (n + 1)rn + · · · = dr = 2 × 1 + 3 × 2 × r + 4 × 3 × r2 + · · · + (n − 1)(n − 2)rn−3 + n(n − 1)rn−2 + (n + 1)nrn−1 + · · · ∞ P (i + 2)(i + 1)ri =
i=0

(i + 2)(i + 1)ri =

i=0

d2 dr2
∞ P

µ

ou

1 1−r

=

d dr

µ

1 (1 − r)2

=

−2 × (1 − r)(−1) (1 − r)4 (1.5)

(i + 2)(i + 1)ri =

i=0

2 (1 − r)3

1

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO Esse resultado pode ser escrito de outra forma:

3

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO

4

1.2

A função logarítmica natural
ln x = Rx 1 dt 1 t x>0

2 (i + 2)(i + 1)ri = ⇔ (1 − r)3 i=0 ∞ (i + 2)(i + 1) P 1 ⇔ ri = 2 (1 − r)3 i=0 ∞ P (i + 2)(i + 1)i! i 1 r = ⇔ 2 × i! (1 − r)3 i=0 ∞ P (i + 2)! i 1 ⇔ r = (1 − r)3 i=0 i! × 2! µ ¶ ∞ P i+2 i 1 r = (1 − r)3 2 i=0 ¡ ¢ ¡ ¢ Pela propriedade das relações complementares, sabemos que i+2 = i+2 e, portanto, resulta que 2 i µ µ ¶ ¶ ∞ ∞ P i+2 i P i+2 i 1 (1.6) r = r = (1 − r)3 2 i i=0 i=0 Tomando a terceira derivada: µ∞ ¶ d3 d3 P i r = 3 (1 + r + r2 + r3 + r4 + r5 + · · · + rn−1 + rn + rn+1 · · · ) = 3 dr i=0 dr ¢ d2 ¡ = 1 + 2r + 3r2 + 4r3 + 5r4 + · · · + (n − 1)rn−2 + nrn−1 + (n + 1)rn + · · · = dr2∙ ¸ d 2 × 1 + 3 × 2 × r + 4 × 3 × r2 + 5 × 4 × r3 + · · · + (n − 1)(n − 2)rn−3 = n−2 n−1 +n(n − 1)r + (n + 1)nr + ··· dr

∞ P

Define-se a função logarítmica natural, denotada por ln, como

A condição x > 0 é necessária pois, se tivéssemos x ≤ 0, o domínio de integração incluiria t = 0, onde a função f (t) = 1 não está definida. t 1 Pelo teorema Fundamental do Cálculo, vemos que ln x é uma antiderivada de x , isto é d 1 ln x = dx x x>0

Isso significa que ln x é diferenciável e sua derivada é positiva no seu domínio de definição. Resulta, então, que ln x é uma função contínua (porque ela é diferenciável) e crescente (porque sua derivada é sempre positiva). Da definição da função ln x seguem as seguintes propriedades: 1. ln 1 = 0 2. Se p > 0 e q > 0, então ln (pq) = ln p + ln q De fato: d 1 1 ln(px) = .p = dx px x
1 x

Igualando as derivadas:
∞ P

= 3 × 2 × 1 + 4 × 3 × 2 × r + 5 × 4 × 3 × r2 + · · · + (n − 1)(n − 2)(n − 3)rn−4 + · · · +n(n − 1)(n − 2)rn−3 + (n + 1)n(n − 1)rn−2 + · · · ∞ P (i + 3)(i + 2)(i + 1)ri =
i=0

Isso significa que ln(px) e ln(x) são ambas antiderivadas de cosntante, ou seja: ln(px) = ln x + C Fazendo x = 1, resulta que ln p = 0 + C e, portanto ln(px) = ln x + ln p Fazendo x = q, prova-se o resultado desejado. 3. Se p > 0, então ln( 1 ) = − ln p p De fato: Fazendo q =
1 p

e, portanto, diferem por uma

x > 0,

p>0

(i + 3)(i + 2)(i + 1)ri =

i=0

d3 dr3

µ

1 1−r

=

d dr

µ

2 (1 − r)3

=

3! −2 × 3 × (1 − r)2 × (−1) = (1 − r)6 (1 − r)4

Logo,
∞ ∞ P (i + 3)(i + 2)(i + 1) i P (i + 3)(i + 2)(i + 1)i! i 1 1 r = r = ⇒ ⇒ 3! (1 − r)4 3! × i! (1 − r)4 i=0 i=0 µ µ ¶ ¶ ∞ ∞ P 3+i i P 3+i i 1 (1.7) r = r = (1 − r)4 i 3 i=0 i=0 Continuando a derivar (note que podemos tomar derivadas de qualquer ordem!), obtém-se o seguinte resultado geral: µ µ ¶ ¶ ∞ ∞ P k+i i P k+i i 1 (1.8) r = r = (1 − r)k+1 i k i=0 i=0

no resultado anterior obtemos: µ ¶ 1 1 ln p = ln 1 = ln p + ln p p

Como ln(1) = 0, segue o resultado. 4. Se p > 0 e q > 0, então ln p = ln p − ln q q

De fato: usando os resultados anteriores temos que µ ¶ 1 1 p = ln p + ln = ln(p) − ln(q) ln = ln p q q q

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 5. Se p > 0 e r é um número racional qualquer, então ln(pr ) = r ln p De fato: usando a regra da cadeia, temos que µ ¶ d 1 1 d d ln (xr ) = r rxr−1 = r = r ln x = (r ln x) dx x x dx dx Daí vê-se que ln(xr ) e r ln(x) têm a mesma derivada; logo ln(xr ) = r ln x + C Fazendo x = 1 obtém-se que C = 0 e, portanto ln(xr ) = r ln x

5

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO e se M é um número racional positivo qualquer, M ln 4 > M =⇒ ln 4M > M Tomando x > 4M , como ln x é uma função crescente, teremos ln x > ln 4M > M

6

Como M é qualquer racional positivo, da relação ln x > M resulta que podemos fazer ln x tão grande quanto desejado, bastando para isso tomar x suficientemente grande, donde se conclui que
x→∞

lim (ln x) = ∞

Como ln x é contínua e crescente e ln 1 = 0, resulta que para x > 1, ln x > 0 e para 0 < x < 1, ln x < 0. Além disso, µ ¶ d2 1 d 1 =− 2 <0 ln(x) = dx2 dx x x logo, a função ln x é côncava para baixo. Vamos ver, agora, o comportamento assintótico de ln x. 1 Para x > 0, a função f(x) = x é positiva e, portanto, a integral definida pode ser interpretada como área sob a curva. Analisando a Figura 1.1, podemos ver que a área sob a curva entre 1 e 4 é maior que as áreas dos três retângulos em cinza, cujos vértices superiores à direita estão sobre a curva. Isso significa que R4 1 1 1 1 13 dt > + + = >1 1 t 2 3 4 12

1 1 Como ln x = − ln x, segue que ln x = − ln x e, portanto, µ ¶ 1 lim (ln x) = lim − ln x→0+ x→0+ x

Mas quando x → 0+ , significa que

1 x

1 1 → ∞ e, pelo resultado acima, ln x → ∞ e, portanto, − ln x → −∞. Isso x→0+

lim (ln x) = −∞

Na Figura ?? temos o gráfico da função ln x.

Figura 1.1: Gráfico da função f (x) = Logo, ln 4 > 1

1 x

Figura 1.2: Gráfico da função f(x) = ln x

O número neperiano e (também conhecido como número de Euler. como lim ln x = ∞.8 1 R 2. uma vez que a cada x ∈ R podemos associar um único número y ∈ R+ . o Teorema do Valor Intermediário garante a existência de um número y entre 1 e b tal que ln y = x e esse número é único porque ln é crescente. exp x é uma função crescente com concavidade para cima. isso significa que 2. O teorema acima nos permite definir uma função de R em R+ . como a função exp é a inversa da função ln. portanto. Demonstração: Se x = 0. Podemos ver também que exp(ln x) = y ⇐⇒ ln y = ln x ⇐⇒ y = x ⇐⇒ exp(ln x) = x ln(exp x) = y ⇐⇒ exp(y) = exp(x) ⇐⇒ y = x ⇐⇒ ln(exp x) = x e isso nos diz que exp e ln são inversas uma da outra. segue que exp é uma função biunívoca. então. o Teorema do Valor + = exp(p − q) exp p = ln exp p − ln exp q = p − q = ln exp(p − q) exp q e novamente o resultado segue do fato de a função exp ser bijetora.CAPÍTULO 1.3 x→∞ A função exponencial natural x→0 Definindo f(x) = ln x. Se x < 0. (b) Se f é ímpar. Se p e q são números reais. existe um número b > 0 tal que ln b < x < ln 1. Note que. ALGUNS RESULTADOS DE CÁLCULO 7 CAPÍTULO 1. uma vez que ln é estritamente crescente. como exp x = y se e somente se ln y = x para todo x. pode-se mostrar que R 2. Se p é um número real e r é um número racional. Como ln é contínua. então (exp p)r = exp(pr). Da definição das funções exp e ln. De fato: se exp x1 = exp x2 = b. então. 1 então g é diferenciável em c e g 0 (c) = f 0 (g(c)) . De fato: ln (exp p)r = r ln exp p = rp = ln exp(pr) e novamente o resultado segue do fato de a função exp ser bijetora. Além disso. temos que a função exponencial é a inversa da função logarítmica natural f(x) = ln x. 7 < e < 2. Teorema 1. então De fato: ln exp p exp q 8 1. podemos escolher um número b tal que x→∞ ln 1 < x < ln b. segue que as derivadas primeira e segunda são positivas. Segue.1 Diz-se que uma função f é par se f (−x) = f (x) e que é ímpar se f (−x) = −f (x) . Temos o seguinte resultado: Se f é uma função diferenciável com inversa g e se f 0 (g(c)) 6= 0.7 1 dx < 1 < 1 dx 1 x x ln(2. x → ∞ =⇒ ln(exp x) → ∞ =⇒ exp x → ∞ =⇒ lim exp x = ∞ x→∞ x → −∞ =⇒ ln(exp x) → −∞ =⇒ exp x → 0 =⇒ lim exp x = 0 x→−∞ O gráfico da função exp x está na Figura 1. que é diferenciável com derivada positiva para todo x > 0 . −∞ ∞ −∞ f (x)dx = 2 ∞ 0 f(x)dx. podemos provar o seguinte teorema: + Theorem 1 A cada número real x existe um único número real positivo y tal que ln y = x.3. 8) e como ln é crescente. denotada por exp. então (exp p)(exp q) = exp(p + q) De fato: ln(exp p)(exp q) = ln exp p + ln exp q = p + q = ln exp(p + q) e o resultado segue do fato de a função exp ser bijetora. em homenagem ao matemátco suiço Leonard Euler) é definido como o o único número real positivo tal que ln e = 1 Usando a regra do trapezoidal. logo. a função exponencial é sua própria derivada! Como exp x > 0. como lim ln x = −∞. 3. Assim. Como antes. Aplicando este resultado para a função exponencial. 7) < ln(e) < ln(2. então Z ∞ f (x)dx = 0. ALGUNS RESULTADOS DE CÁLCULO 1. então . Se p e q são números reais. 2. ln b = x1 e ln b = x2 e. que a função g(x) = exp x também é diferenciável e sua derivada é dada por g0 (x) = 1 1 = 1 = f 0 (g(x)) g(x) 1 1 exp x x→0 Intermediário e a continuidade de ln garantem a existência de um único número y entre b e 1 tal que ln y = x. vimos que f : R+ → R é uma função contínua estritamente crescente tal que lim ln x = ∞ e lim ln x = −∞. Se x > 0. x1 = x2 .1 (a) Se f é par. então ln 1 = 0 e 1 é o único valor de y para o qual ln y = 0.4 Funções pares e ímpares Z Z Definição 1. por definição. define-se a função exponencial natural. pode mostrar as seguintes propriedades da função exponencial natural: = exp x ou seja. o que significa que 1. Com base nesses resultados. onde y > 0. 8 Usando as definições e propriedades já vistas. o gráfico da função exponencial é uma reflexão do gráfico da função logarítmica através da reta y = x.

a definição de integral (simples) requer a partição do intervalo [a. resulta que: Z ∞ Z ∞ Z ∞ Z Z ∞ f (x)dx = f (−t)dt + f(x)dx = −f (t)dt + −∞ 0 0 Z 0∞ Z ∞ f (t)dt + f(x)dx = 0 = − 0 0 ∞ 0 f (x)dx 1. Por exemplo. a coordenada θ é considerada positiva se é gerada por uma rotação anti-horária e negativa.CAPÍTULO 1. P ) e o ângulo θ determinado pelo eixo polar e o segmento OP. Se uma função de uma variável f está definida em um intervalo [a. 3. então a integral definida de Riemann é definida como Z b P f(x)dx = lim f (wi ) ∆xi a kP k→0 Figura 1. As coordenadas polares de um¢ponto não são únicas. b] . resulta que: Z ∞ Z ∞ Z f (x)dx = f(−t)dt + −∞ 0 ∞ 0 f (x)dx = Z ∞ f (t)dt + 0 Z ∞ 0 f(x)dx = 2 Z ∞ 0 f (x)dx (1. trabalha-se com um polo ou origem. . ALGUNS RESULTADOS DE CÁLCULO 9 CAPÍTULO 1.6. 9π e 3.3: Gráfico da função exponencial natural f (x) = exp x Se a função é ímpar. π . conforme ilustrado na figura 1.4: Função exponencial e função logarítimica . que é um ponto fixo do plano. conforme ilustrado na figura 1. No sistema cartesiano. y).8. Se denotamos por P a partição {x0 . b] em subintervalos de comprimento ∆xi . pois há vários ângulos com o mesmo lado ¡ ¡ ¢ ¡ ¢ terminal OP. As coordenadas polares de um ponto P qualquer no plano são a distância r = d(O.reflexão através da reta y = x Para integrais duplas de funções definidas em coordenadas cartesianas. . No sistema de coordenadas polares. caso contrário. x1 . conforme ilustrado na figura 1. 3. xn }. cada ponto do plano é representado pela sua abscissa e sua ordenada.7.5 Integrais duplas com coordenadas polares No cálculo de integrais duplas. ALGUNS RESULTADOS DE CÁLCULO Demonstração: Z ∞ −∞ 10 f(x)dx = Fazendo x = −t na primeira integral. em vez dos eixos x e y. Permite-se 4 4 4 também que a coordenada r seja negativa. a utilização de coordenadas polares é bastante útil. − 7π representam o mesmo ponto. . que é uma semi-reta orientada. Nesse . temos que ter a partição da região de definição R da função de duas variáveis f(x. Em geral. tem-se que: Z 0 Z ∞ Z 0 Z Z ∞ f (x)dx = f(−t)(−dt) + f (x)dx = − f (−t)dt + −∞ ∞ Z ∞ 0 Z∞ ∞ f (−t)dt + f(x)dx = 0 0 Z 0 f (x)dx + −∞ Z ∞ 0 f(x)dx ∞ 0 f(x)dx Se a função é par. e um eixo polar. .9) Figura 1.

y)dy dx a c a c r θ O eixo polar Figura 1.7: Partição do intervalo [a.coordenadas cartesianas O cálculo de integrais duplas de funções parametrizadas em termos de coordenadas polares requer que a partição da região de integração seja definida em termos de tais coordenadas. Vamos considerar uma região polar elementar (ver figura 1.9. ALGUNS RESULTADOS DE CÁLCULO caso. vi ) ∆Ai R kP k→0 12 Figura 1. a integral dupla é definida como Z Z f (x. y)dydx = f(x. A área total de um círculo é dada por a = x0 xi−1 xi xn = b πr2 = 2πr2 1 = (2π) r2 2 2 . a área da região polar elementar é ∆A = ¡ 2 ¢ 1 1 1 1 2 2 2 (∆θ) r2 − (∆θ) r1 = (∆θ) r2 − r1 = (∆θ) (r1 + r2 ) (r2 − r1 ) 2 2 2 2 . logo.10). conforme ilustrado na figura 1. calcula-se primeiro a integral com respeito a y.6: Sistema de coordenadas polares Figura 1. e depois integra-se o resultado com relação a x : ¸ Z b ∙Z d Z bZ d f(x.8: Partição da região R .CAPÍTULO 1. mantendo x constante. ALGUNS RESULTADOS DE CÁLCULO 11 CAPÍTULO 1.5: P (r . a área de um setor circular correspondente a um ângulo ∆θ e raio r é Figura 1. b] 1 (∆θ) r2 2 Então. y)dA = lim f (ui .θ ) e é calculada através de integrais parciais. isto é.

5. θ)dA = lim R kP k→0 14 e calculada como Z Z R f (r.10: Região polar elementar r2 Fazendo = w. Mas o integrando é uma função par.coordenadas polares µ 2¶ t dt. θ)dA = Z Z R f(r. a região de integração em termos das coordenadas polares: r2 Δθ r1 dtdu = rdrdθ π Como 0 < t < ∞ e 0 < u < ∞. ALGUNS RESULTADOS DE CÁLCULO Definindo 1 (r1 + r2 ) 2 ∆r = r2 − r1 r = podemos escrever: ∆A = r∆θ∆r A integral em termos das coordenadas polares é. Aqui não podemos aplicar o Teorema Fundamental do Cálculo exp − 2 −∞ pois o integrando não possui antiderivada. então r > 0 e 0 < θ < . a integral em questão é igual a duas vezes a integral de 0 a ∞. ALGUNS RESULTADOS DE CÁLCULO 13 CAPÍTULO 1. então rdr = dw e 2 ∙Z ∞ µ 2 ¶ ¸2 Z ∞Z π Z ∞ "Z π # 2 2 t exp − = exp (−w) dθdw = dθ exp (−w) dw = dt 2 0 0 0 0 0 Z ∞ π π ¡ −w ¢¯∞ π ¯ = exp(−w)dw = −e = 0 2 2 2 0 µ 2 ¶ ¸2 Z ∞ Z π µ 2¶ 2 t r dt = rdθdr exp − exp − 2 2 0 0 . logo. Como 2 t = r cos θ u = r sen θ Δr t2 + u2 = r2 segue que ∙Z ∞ 0 Figura 1. θi )ri ∆θi ∆ri f(r. Mas ∙Z ∞ µ 2 ¶ ¸2 µZ ∞ µ 2 ¶ ¶ µZ ∞ µ 2¶ ¶ t t u exp − = exp − exp − dt dt du = 2 2 2 0 0 0 ¶ µ 2 Z ∞Z ∞ t + u2 dtdu exp − = 2 0 0 Vamos calcular Z ∞ 1. θ)rdrdθ Figura 1.1 Exemplo Consideremos agora.CAPÍTULO 1. então: Z Z P f(ri .9: Partição da região R .

Z Considere. Se x é qualquer número real e a é qualquer número real positivo.2 Exercício resolvido Z ∞ e. ou ainda µ 2¶ √ t dt = 2π exp − 2 −∞ Z ∞ (1.12) 1. Se u é um número real qualquer e a > 0.7 Funções exponencial e logarítmica ln ar = r ln a =⇒ ar = exp(r ln a) Vimos que. sob condições adequadas. as coordenadas polares definidas anteriormente: x = r cos θ e y = r sen θ : ¯∙ ∂x ∂x ¸¯ ¯∙ ¸¯ ¯ ¯ ¯ cos θ −r sen θ ¯ ¡ 2 ¢ 2 2 2 ∂r ∂θ ¯ J = ¯ ∂y ∂y ¯ = ¯ ¯ ¯ ¯ sen θ r cos θ ¯ = r cos θ + r sen θ = r cos θ + sen θ = r ∂r ∂θ Calcule Γ (1/2) . v). podemos generalizar as propriedades das funções logarítmica e exponencial naturais vistas anteriormente.CAPÍTULO 1. podemos definir x = g(u) e então 0 dx = g (u)du e g(b) b R R f(x)dx = f (g(u))g0 (u)du a g(a) . temos que ln au = ln eu ln a = u ln a 2.11) 1 √ 2π µ 2¶ t dt = 1 exp − 2 −∞ (1. dxdy = rdrdθ. v)) |J| dudv R R No cálculo de integrais simples.6 Mudança de variáveis em integrais duplas O resultado análogo para funções de duas variáveis é o seguinte: se x = f(u. então ln au = u ln a De fato: usando a definição da função exponencial com base a e propriedades já vistas da função exponencial natural. ALGUNS RESULTADOS DE CÁLCULO onde |J| representa o valor absoluto do determinante da matriz jacobiana ∙ ∂x ∂x ¸ ∂v J = ∂u ∂y ∂y ∂u ∂v 16 ∞ (1. se r é um número racional e a > 0. ALGUNS RESULTADOS DE CÁLCULO Provamos assim que Z Z r µ 2¶ π t exp − dt = 2 2 15 CAPÍTULO 1. v) é uma transformação de variáveis. como exemplo. Γ (1/2) = e−x x1/2−1 dx = ∞ 0 0 e−x √ dx x 1. Γ (1/2) = ou seja: Z ∞ t 2 2 Iremos usar este resultado para definir a função exponencial com base a. g(u. portanto. Se u e v são números reais quaisquer e a > 0. então Vamos usar a seguinte transformação de variável: x= Então. se a = e. podemos usar mudança de variável para simplificar os cálculos. definida para qualquer x. então au av = au+v .5.10) 0 ∞ e. temos que au av = eu ln a ev ln a = eu ln a+v ln a = e(u+v) ln a = au+v Γ (1/2) = √ π 1. podemos escrever a função exponencial com base a como ax = ex ln a Com essa definição. Por definição. Note que. v) e y = g(u. então ax = exp(x ln a) A função f(x) = ax é chamada função exponencial com base a. então RR RR F (x. 1. y)dxdy = F (f(u. então. De fato: usando a definição da função exponencial com base a e propriedades já vistas da função exponencial natural. dx = tdt x = 0⇒t=0 x → ∞⇒t→∞ Logo. Rb Assim. então ex = exp(x ln e) = exp(x) 2 /2 0 ⎛ ⎝ eq −t2 /2 t2 2 ⎞ ⎠ tdt = √ Z 2 ∞ e−t dt = 0 √ 2× r π 2 e. portanto. se queremos calcular a f(x)dx.

ALGUNS RESULTADOS DE CÁLCULO 3. então loga pq = loga p + loga q.11: f(x) = ax . portanto. Na Figura 1. Essa inversa será denotada por loga e. De fato: loga pq = ln p + ln q ln p ln q ln pq = = + = loga p + loga q ln a ln a ln a ln a p q x→−∞ e se 0 < a < 1 x→∞ x→−∞ lim a x = x→∞ lim e x ln a =0 De fato: lim ax = x→−∞ lim ex ln a = ∞ 2. a > 1 e g(x) = ax . vamos usar a regra da cadeia e o fato de a derivada da função exp ser a própria função: d d x d ¡ x ln a ¢ (a ) = e = ex ln a (x ln a) = (ln a) ex ln a dx dx dx Figura 1.11 ilustra-se o gráfico de f(x) = ax para a = 2 e a = 1 . se a > 1 x→∞ x→−∞ ln x ln a lim ax = x→∞ lim ex ln a = ∞ lim ex ln a = 0 lim ax = Usando essa relação podemos ver as seguintes propriedades da função logarítmica de base a. dependendo se a > 1 ou 0 < a < 1. ALGUNS RESULTADOS DE CÁLCULO 18 De fato: usando a definição da função exponencial com base a e propriedades já vistas da função exponencial natural. Se a 6= 1. então (au )v = auv .CAPÍTULO 1. loga x = ln x d d =⇒ (loga x) = ln a dx dx ln x ln a = 1 1 ln a x . então loga px = x loga p. Se u e v são números reais quaisquer e a > 0. segue que loga x = ou seja d x (a ) = ax ln a dx Se a > 1. CAPÍTULO 1. ln a < 0 e ax é uma função decrescente para x ∈ R. loga px = x ln p ln px = = x loga p ln a ln a µ ¶ Vamos calcular a derivada de f (x) = loga x. portanto loga x = y ⇐⇒ x = ay A função g(x) = logx a é chamada função logarítmica com base a. a < 1 Como y = loga x. a função f (x) = ax é bijetora e. Se 0 < a < 1. 1. Note também que. admite uma inversa. Se p > 0 e q > 0 são números reais. temos que au eu ln a = v ln a = eu ln a−v ln a = e(u−v) ln a = au−v v a e 4. temos que u (au )v = ev ln a = evu ln a = auv Para calcular a derivada da função exponencial com base a. Se p > 0 e q > 0 são números reais. então au av 17 = au−v . temos a função logarítmica natural. então loga loga = loga p − loga q. quando a = e. Temos que ln x loga x = y ⇐⇒ x = ay ⇐⇒ ln x = y ln a ⇐⇒ y = ln a De fato: ln p ln p − ln q ln p ln q p q = = = − = loga p − loga q q ln a ln a ln a ln a 3. O gráfico da função 2 exponencial com base a sempre terá essas formas. Note que. pela definição). Se u e v são números reais quaisquer e a > 0. De fato: usando a definição da função exponencial com base a e propriedade 1 acima. ln a > 0 e ax é uma função crescente para x ∈ R (note que ax > 0 para todo a. Se p > 0 e x é número real qualquer.

portanto 0 < Rn+1 < . que diz que lim xe−x = lim x x0 1 = lim = lim =0 ex x→ ∞ (ex )0 x→ ∞ ex Mas Como a função exponencial é contínua. obtemos que µ ¶n 1 lim 1 + =e n→∞ n (1.CAPÍTULO 1. De maneira análoga. ALGUNS RESULTADOS DE CÁLCULO Como a função exponencial é contínua. portanto. lim xe−x = lim x→ ∞ x ex 1 = lim ln (1 + h) h h→0 1 que tem a forma ∞ ∞ e. prova-se um resultado mais geral dado por: x→ ∞ = exp(1) = e ou seja. Consideremos o caso em que k = 1. a fórmula de Taylor para a função f(x) = ex .16) Vamos mostrar esse resultado usando demonstração por indução e usando.17) lim (1 + h) h = e (1.14) onde Rn+1 = ³ x ´n x . ALGUNS RESULTADOS DE CÁLCULO ou seja. Lembrando que a derivada de f(x) é a própria f(x) e que f(0) = 1. h→0 1 h 1 lim xk e−λx = 0 ∀k > 0 e λ > 0 (1. então 0 < z < x. podemos aplicar L´Hôpital. também. portanto. O resultado crucial é x→ ∞ lim xk e−x = 0 (1. Se x > 0. Fazendo t = . Suponhamos verdadeiro para qualquer k. h→0 i h 1 1 (1 + h) h = exp ln (1 + h) h 1 1 x→ ∞ x→ ∞ lim (1 + h) h = lim exp ln (1 + h) h h→0 = exp lim ln (1 + h) h h→0 1 Logo. para x = 1 temos f 0 (1) = 1 e. Então x→ ∞ 1 Como f 0 (x) = x . calcular alguns limites envolvendo o número neperiano e.13) Vamos ver. vamos mostrar que vale para k + 1. resulta que h ix h ix lim (1 + t)1/t = lim (1 + t)1/t = ex t→0 t→0 20 Vamos. n→∞ ³ x ´n = ex lim 1 + n (1. vamos calcular lim 1 + n→∞ n n ³ h ix x x ´n lim 1 + = lim (1 + t) t = lim (1 + t)1/t n→∞ t→0 t→0 n para algum z entre 0 e x. o resultado vale para k = 1. temos que f 0 (x) = = = = ln(x + h) − ln(x) lim h→0 h 1 x+h lim ln h→0 h x ¶1 µ x+h h lim ln h→0 x µ ¶1 h h lim ln 1 + h→0 x Logo. Da definição de derivada da função f(x) = ln x. resulta que A partir desses resultados. agora. agora.15) Vamos calcular alguns outros limites envolvendo a função exponencial que serão úteis no estudo de distribuições contínuas. podemos escrever: ex = 1 + x + xn x2 + ··· + + Rn+1 2! n! ez xn+1 (n + 1)! ex xn+1 (n + 1)! Fazendo = n na expressão acima. d 1 (loga x) = dx x ln a 19 CAPÍTULO 1. a regra de L´Hôpital. De fato: ¡ k+1 ¢0 x xk+1 (k + 1) xk xk lim xk+1 e−x = lim x = lim = (k + 1) lim x = (k + 1) × 0 = 0 0 = lim x x→ ∞ x→ ∞ e x→ ∞ (ex ) x→ ∞ x→ ∞ e e pela hipótese de indução. o que implica que ez < ex e.

¯∞ Γ(α + 1) = −xα e−x ¯0 − Z Γ(α + 1) = 0 + α Z 0 ∞ 0 −e−x αxα−1 dx =⇒ ∞ e−x xα−1 dx =⇒ (1. logo. Por outro lado.CAPÍTULO 1. a σ = τ e τ = 0. agora. lim Rn+1 = 0. Z Z ∞ e−x x1−1 dx = Γ(1) = 0 e precisamos agora determinar os limites de integração no novo sistema de coordenadas. y > 0 (1. como z está entre x e 0.19) A função gama tem a seguinte propriedade recursiva: Γ(α + 1) = αΓ(α).9 A função beta 1 R 0 (1. ou seja. respectivamente. segue que z < 0. ez < 1 e ¯ ¯ n+1 ¯ ¯ ¯ ¯ ¯ x ¯ ez ¯ 0 < |Rn+1 | < ¯ xn+1 ¯ < ¯ ¯ ¯ (n + 1)! ¯ → 0 ¯ (n + 1)! Logo. com α = n inteiro. ALGUNS RESULTADOS DE CÁLCULO Γ(2) Γ(3) Γ(4) Γ(5) Em geral. ALGUNS RESULTADOS DE CÁLCULO Mas ex xn+1 xn+1 = ex lim = ex × 0 = 0 n→∞ (n + 1)! n→∞ (n + 1)! lim 21 CAPÍTULO 1.8 A função gama A função gama é definida pela seguinte integral: Z ∞ Γ(α) = e−x xα−1 dx 0 α≥1 (1.6.12. se n é inteiro.18) A função beta é definida pela seguinte integral: B(x. Se x < 0. iremos usar integração por partes. Para demonstrar esse resultado. Γ(n) = (n − 1)! = = = = 1 × Γ(1) = 1 = 1! 2 × Γ(2) = 2 × 1 = 2! 3 × Γ(3) = 3 × 2 × 1 = 3! 4 × Γ(4) = 4 × 3 × 2 × 1 = 4! 22 e. que f(x) = ex é representada pela série de Taylor. também neste caso lim Rn+1 = 0. Veja Figura 1. Para isso vamos calcular Γ(x)Γ(y) usando o teorema sobre mudança de variáveis em integrais duplas visto na seção 1. ∞ ∞ ∞∞ R R R R x−1 y−1 −(t+s) Γ(x)Γ(y) = tx−1 e−t dt sy−1 e−s ds = t s e dsdt 0 0 0 0 Considere a seguinte transformação de variáveis: σ = s + t =⇒ s = σ − τ τ = t =⇒ t = τ Temos que ¯∙ ¯ J =¯ ¯ ∂s ∂σ ∂t ∂σ ∂s ∂τ ∂t ∂τ Fazendo • u = xα ⇒ du = αxα−1 • dv = e−x dx ⇒ v = −e−x Logo. como s > 0 e t > 0. Nas coordenadas (s.21) Segue. onde se ilustram as regiões de integração nos dois sistemas de coordenadas.22) k=0 1. Resulta o seguinte: µ ¶ ∞∞ ∞ R R R x−1 y−1 −(t+s) R σ x−1 Γ(x)Γ(y) = t s e dsdt = τ (σ − τ )y−1 e−σ |1| dτ dσ 0 0 0 0 à ! µ ¶ ∞ R R σ x−1 y−1 σ − τ y−1 −σ τ σ e dτ dσ = σ 0 0 µ ¶ ∞ R R σ x−1 y−1 ³ τ ´y−1 −σ 1− τ σ e dτ dσ = σ 0 0 Consideremos mais uma mudança de coordenadas: τ =⇒ τ = rq r = σ q = σ =⇒ σ = q ¸¯ ¸¯ ¯∙ ¯ ¯ 1 −1 ¯ ¯ ¯=¯ ¯ ¯ 0 1 ¯=1 ∞ 0 e−x dx = 1 . resulta que τ > 0 e σ > τ . pelo teorema do sanduiche. Z ∞ Γ(α + 1) = e−x xα dx 0 Note que essa é uma função de 2 variáveis!.16). então.20) Γ(α + 1) = αΓ(α) Aqui usamos o resultado dado em (1. n→∞ (1. Vamos trabalhar. podemos escrever ex = ∞ Px k! k 1. Vamos ver a relação entre a função gama e a função beta. t) a região de integração é limitada pelas retas s = 0 e t = 0 que correspondem. y) = tx−1 (1 − t)y−1 dt x > 0.

µ ¶ ∞ R R σ x−1 y−1 ³ τ ´y−1 −σ Γ(x)Γ(y) = 1− τ σ e dτ dσ σ 0 0 ∞R R 1 = (rq)x−1 q y−1 (1 − r)y−1 e−q qdrdq = 0 0 ∞R R 1 0 0 0 ¸¯ ¯∙ ¯ ¯ q r ¯=¯ ¯ ¯ 0 1 ¸¯ ¯ ¯ = |q| = q ¯ µ∞ R = = Γ(x + y)B(x. Logo.23) Ambos os integrandos são funções pares. σ > 0 e σ > τ resulta que q > 0 e 0 < r < 1. ALGUNS RESULTADOS DE CÁLCULO 23 CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 24 Figura 1.CAPÍTULO 1. y) = µ∞ R qx+y−1 rx−1 (1 − r)y−1 e−q drdq ¶µ1 ¶ R x−1 q x+y−1 e−q dq r (1 − r)y−1 dq 0 Γ(x)Γ(y) Γ(x + y) (1. Veja a Figura 1. µ∞ ¶ µ∞ ¶ R x−1 −t R y−1 −s Γ(x)Γ(y) = t e dt s e ds 0 0 |a| 2x−1 |b| 2y−1 −(a2 +b2 ) e dadb Consideremos a seguinte mudança de coordenadas: a = r cos θ b = r sen θ .13: Transformação de coordenadas: (σ. como τ > 0.12: Transformação: (s.13. r) Logo Γ(x)Γ(y) = ¶ µ∞ ¶ R y−1 −s tx−1 e−t dt s e ds 0 0 ¶ µ∞ ¶ µ∞ R ¡ 2 ¢x−1 −a2 R ¡ 2 ¢y−1 −b2 e 2ada e 2bdb = a b ¶µ ∞ 0 ¶ µ 0∞ R 2x−1 −a2 R 2 e da 2 b2y−1 e−b db = 2 a 0 ¶ µ0 ∞ ¶ µ ∞ R R 2 2 2 |b|2y−1 e−b db = 2 |a|2x−1 e−a da 0 0 Além disso. t) → (σ.9). logo. podemos escrever µ ∞ ¶µ ∞ ¶ R R 2 2 Γ(x)Γ(y) = 2 |a|2x−1 e−a da 2 |b|2y−1 e−b db ¶ µ ∞0 ¶ µ ∞0 R R 2 2x−1 −a2 |a| e da |b|2y−1 e−b db = = −∞ −∞ −∞ ∞ ∞ R R −∞ Como t > 0 e s > 0. vamos calcular Γ(x)Γ(y) por meio de coordenadas polares. τ ) → (q. B(x. y) e. pelo resultado (1. τ ) para a qual temos ¯∙ ¯ J =¯ ¯ ∂τ ∂r ∂σ ∂r ∂τ ∂q ∂σ ∂q Figura 1. portanto. podemos considerar a seguinte mudança de variável: t = a2 =⇒ dt = 2ada s = b2 =⇒ ds = 2bdb Para obter uma outra expressão para a função beta.

1 Fazendo r2 = t. 1 − p > 0 e p+(1−p) = 1. Chamando de p a probabilidade de sucesso (0 < p < 1).a. então. ALGUNS RESULTADOS DE CÁLCULO para a qual J = r e a2 + b2 = r2 .1.1) cos θ2x−1 sen θ2y−1 dθ Obviamente. resulta que 2rdr = dt e. Um experimento de Bernoulli é um experimento aleatório com apenas dois resultados possíveis. ele é. X associada a um experimento de Bernoulli. Se X tem distribuição de Bernoulli com parâmetro p vamos representar este fato por X ∼ Bern(p). .1 temos os gráficos da fdp e da fda de uma distribuição de Bernoulli. uma vez que p > 0. as condições definidoras de uma fdp são satisfeitas.23) obtemos uma das expressões alternativas para a função beta: B(x. y) = 2 π/2 R 0 π/2 R Γ(x)Γ(y) = 2 cos θ2x−1 sen θ2y−1 dθ Γ(x + y) 0 Considere o lançamento de uma moeda. um deles é chamado “sucesso” e o outro “fracasso”.2 Função de distribuição acumulada A função de distribuição acumulada é dada por: ⎧ se x < 0 ⎨ 0 1 − p se 0 ≤ x < 1 FX (x) = ⎩ 1 se x ≥ 1 26 (2. A distribuição de Bernoulli pode também ser escrita da seguinte forma: X ∼ Bern(p) ⇐⇒ Pr(X = x) = px (1 − p)1−x x = 0.2) Na Figura 2.1. 1 2. Então Γ(x)Γ(y) = |r cos θ|2x−1 |r sen θ|2y−1 e−r rdrdθ 0 0 µ∞ ¶ µ2π ¶ R 2x+2y−2 −r2 R = r e rdr |cos θ|2x−1 |sen θ|2y−1 dθ 0 0 ! ¶ Ã π/2 µ∞ R ¡ 2 ¢x+y−1 −r2 R e rdr 4 cos θ2x−1 sen θ2y−1 dθ = r 0 0 2π ∞ R R 2 25 Capítulo 2 Algumas Distribuições Discretas 2. por convenção. chamado parâmetro da distribuição de Bernoulli. portanto Γ(x)Γ(y) = = µ∞ R 0 0 t x+y−1 −t 1 e µ∞ R ! ¶ Ã π/2 R 2x−1 2y−1 x+y−1 −t t e dt 2 cos θ sen θ dθ Ã 0 π/2 R 0 2 ! ¶ Ã π/2 R 2x−1 2y−1 dt 4 cos θ sen θ dθ 0 Distribuição de Bernoulli Definição = Γ(x + y) 2 de onde se conclui que cos θ2x−1 sen θ2y−1 dθ ! Usando (1.CAPÍTULO 1. Uma situação análoga surge quando da extração da carta de um baralho. a distribuição de Bernoulli é: x 0 1 Pr(X = x) 1 − p p (2. A característica desse experimento aleatório é que ele possui apenas dois resultados possíveis. onde o interesse está apenas na cor (preta ou vermelha) da carta sorteada. O valor de p é o único valor que precisamos conhecer para determinar completamente a distribuição. A distribuição de Bernoulli é a distribuição de uma v. onde se define X = 1 se ocorre sucesso e X = 0 se ocorre fracasso.1 2.

3) Os valores possíveis de X são 0 (só ocorrem fracassos). portanto E(X) = φ0X (0) = p E(X 2 ) = φ00 (0) = p X V ar(X) = E(X 2 ) − [E(X)]2 = p − p2 = p(1 − p) 28 FDA da Bern(p) p 2. obtemos que φ0X (t) = φ00 (t) = pet X Essa é a distribuição binomial. . ou seja. que são os parâmetros da distribuição. Logo. Pr(S1 ∩ . Então. ALGUMAS DISTRIBUIÇÕES DISCRETAS e.3 Esperança Seja X ∼ Bern(p). ∩ Fn ) = Pr (S1 ) × · · · × Pr (Sk ) × Pr (Fk+1 ) × · · · × Pr (Fn ) = = p × p × · · · × p × (1 − p) × (1 − p) × · · · × (1 − p) = pk (1 − p)n−k Mas essa é uma ordenação específica. ALGUMAS DISTRIBUIÇÕES DISCRETAS Figura 2.1: Distribuição de Bernoulli com parâmetro p FDP da Bern(p) 1 1 27 CAPÍTULO 2. . E(X) = 0 × (1 − p) + 1 × p. . . .6) realmente define uma fdp falta mostrar que n X k=0 Pr(X = k) = 1. Como cada uma dessas maneiras tem a mesma probabilidade acima k e elas são eventos mutuamente exclusivos. 2. Vamos calcular a probabilidade de X = k. 2. Então. . . 1.5 Função geradora de momentos φX (t) = E(etX ) Por definição e se X ∼ Bern(p) então φX (t) = ou x=0 1 P etx px (1 − p)1−x = x=0 1 P ¡ t ¢x pe (1 − p)1−x (2. associada a este experimento: X = número de sucessos obtidos nas n repetições (2. X ∼ Bern(p) ⇒ E(X) = p (2. Logo k µ ¶ n k k = 0.1.1. onde k = 0. 2 (ocorrem 2 sucessos). .2 1-p Distribuição Binomial Definição 1-p 2.6) φX (t) = 1 − p + pet Calculando as derivadas primeira e segunda. em que os sucessos são os primeiros resultados. O evento X = k equivale à ocorrência de k sucessos e.4) 2. . Na verdade. n. os k sucessos podem estar em qualquer posição e ainda teremos X = k. Vamos usar a seguinte notação: X ∼ bin(n. Como as repetições são independentes. . logo. 1.1 0 0 1 2 3 4 0 0 1 -2 -1 Consideremos n repetições independentes de um experimento de Bernoulli com parâmetro p (pense em n lançamentos de uma moeda com probabilidade p de cara). 1 (ocorre apenas 1 sucesso). Vamos definir a seguinte v. . note que para determiná-la precisamos conhecer os valores de n e p. temos a probabilidade da interseção de eventos independentes. portanto. O número de maneiras possíveis de obter k sucessos em µ repetições nada mais é que o número de combinações de n elementos n ¶ n tomados k a k.1.4 Variância E(X 2 ) = 02 × (1 − p) + 12 × p ⇒ E(X 2 ) = p ⇒ V ar(X) = p − p2 Seja X ∼ Bern(p). n (ocorrem apenas sucessos). resulta que Pr(X = k) = pk (1 − p)n−k + pk (1 − p)n−k + · · · + pk (1 − p)n−k ¡ ¢ onde o número de parcelas é n . p).5) 2. Logo.a.CAPÍTULO 2. n Pr(X = k) = p (1 − p)n−k k 2. . . . Para mostrar que (2. . X ∼ Bern(p) ⇒ V ar(X) = p(1 − p) (2. ∩ Sk ∩ Fk+1 ∩ . n − k fracassos. .2. . . Consideremos uma situação específica: as k primeiras repetições são “sucesso”.

7 3 4 5 6 7 8 n=9.7) k k=0 Fazendo x = p e y = 1 − p em (2. n (k + 1) 1 − p Temos.2 0.2 são exibidas as formas da distribuição binomial para alguns valores de n e p. Além disso. a moda da distribução ocorre em k0 = [p(n + 1)] . assim. Suponhamos. uma forma recursiva de calcular Pr(X = k). Se X ∼ bin(n.3 0.p=0. .2 0.1 0 0 1 2 3 4 5 6 7 8 0.2 0. .2: Gráfico da distribuição binomial para diferentes valores de n e p 2. então n X µn¶ (x + y)n = xk y n−k .3 0.7).1 0 0 1 2 3 4 5 6 7 8 9 Figura 2. 5)n−(n−k) = Pr(X = n − k) k Na Figura 2. n = 10. se p(n + 1) for inteiro.p=0.1 0 0 1 2 n=8.1 0 0 1 2 3 4 5 6 7 8 0. 5)k (1 − 0.2 0. então temos n! pk+1 (1 − p)n−k−1 P (X = k + 1) (k + 1)!(n − k − 1)! = n! P (X = k) pk (1 − p)n−k k!(n − k)! n−k p = k = 0.3 0.2. a distribuição será unimodal para n par e será bimodal para n ímpar.CAPÍTULO 2. (2. Note que. p=0. ALGUMAS DISTRIBUIÇÕES DISCRETAS 29 CAPÍTULO 2. obtém-se: [p + (1 − p)]n = 1n = 1 = o que prova o resultado.p=0. 1. usando o resultado acima.2 Esperança E (X) = = n X k=0 n X k=0 k Pr (X = k) = k n! pk (1 − p)n−k k! (n − k)! n X µn¶ k pk (1 − p)n−k = k k=0 . .3 0.2 0. então a distribuição é bimodal com moda em k0 = p(n + 1) e k0 = p(n + 1) − 1 pois P (X = np + p) n − (np + p − 1) p P [X = p(n + 1)] = = · P [X = p(n + 1) − 1] P (X = np + p − 1) np + p 1−p p (n + 1) − p(n + 1) n − np − p + 1 · = = p(n + 1) 1−p (n + 1)(1 − p) (n + 1)(1 − p) = =1 (n + 1)(1 − p) p(n + 1) − 1 ≤ k0 ≤ p(n + 1) n n X µn¶ X Pr(X = k) pk (1 − p)n−k = k k=0 k=0 No caso em que p = 0. a distribuição é simétrica.4 0. 5)n−k = n−k (0.5 n=8. . que a probabilidade máxima ocorra em k0 . Pr(X = k) ≥ 0. p).1 0 7 n = 7. então. temos que ter n − k0 p P (X = k0 + 1) ≤ 1 =⇒ ≤ 1 =⇒ np − k0 p ≤ k0 − k0 p + 1 − p =⇒ P (X = k0 ) (k0 + 1) (1 − p) np ≤ k0 + 1 − p =⇒ k0 ≥ p(n + 1) − 1 e também P (X = k0 ) [n − (k0 − 1)] p ≥ 1 =⇒ ≥ 1 =⇒ np − k0 p + p ≥ k0 − k0 p =⇒ · P (X = k0 − 1) k0 (1 − p) k0 ≤ p(n + 1) Vemos . agora. De fato: o teorema do binômio de Newton nos diz que.3 0. 5)n−k (1 − 0. 5. ALGUMAS DISTRIBUIÇÕES DISCRETAS 30 já que. pois ¡ n ¢ ¡ ¢ Pr(X = k) = n (0.2 0. que e como k0 tem que ser inteiro. então.5 0. resulta que o ponto de máximo ocorre quando k0 = [p(n + 1)] . 2. obviamente. ou seja. p=0. se x e y são números reais e n é um inteiro positivo.4 0.3 0. onde [x] representa o maior inteiro menor ou igual a x.

Já o segundo somatório é a soma das probabilidades dos valores de uma binomial com esses mesmos parâmetros (ou binômio de Newton). p) ⇒ ⇒ ⎧ ⎨ ⎩ V ar (X) = np (1 − p) E (X) = np (2. portanto. podemos escrever (note o índice do somatório!): X n! n! E (X) = k k pk (1 − p)n−k = pk (1 − p)n−k k! (n − k)! k (k − 1)! (n − k)! k=1 k=1 n n X k (n − 1)! pk−1 (1 − p)n−k = (k − 1)! (n − k)! (n − 1)! pj (1 − p)n−j−1 = j! (n − j − 1)! (j + 1) e como k 6= 0. a parcela correspondente no somatório é nula. p) X ∼ bin(n.8) 2. então. ¤n−1 £ φ0X (t) = npet pet + (1 − p) ¤n−1 ¤n−2 t £ £ φ00 (t) = npet pet + (1 − p) + n(n − 1)pet pet + (1 − p) pe X ¤n−1 ¤n−2 £ t £ t = npet pe + (1 − p) + n(n − 1)p2 e2t pe + (1 − p) e. podemos dividir o numerador e o denominadr por k.4 Função geradora de momentos n P Por definição. temos que: n n X µn¶ X ¡ ¢ n! pk (1 − p)n−k = pk (1 − p)n−k = k2 k2 E X2 = k k! (n − k)! k=0 k=1 k=0 n ¡n¢ k P ¡n¢ ¡ t ¢k p (1 − p)n−k = pe (1 − p)n−k k k k=0 k=0 £ ¤n = pet + (1 − p) etk = = = n X k=1 n X k=1 n X k=1 k2 k k n! pk (1 − p)n−k = k (k − 1)! (n − k)! n! pk (1 − p)n−k = (k − 1)! (n − k)! ¡ ¢ n (n − 1)! p × pk−1 (1 − p)n−k = (k − 1)! (n − k)! pela fórmula do binômio de Newton. Mas o primeiro somatório é a esperança de uma binomial com parâmetros (n − 1) e p. Segue. segue que esse somatório é igual a 1 (note que essa é a expressão do binômio de Newton para (x + y)n−1 com x = p e y = 1 − p) e.3 Variância 2 etk Pr(X = k) Vamos calcular E (X ) . pelo resultado (2. ALGUMAS DISTRIBUIÇÕES DISCRETAS = np = np n X k=1 n−1 X j=0 n−1 X 32 Quando k = 0. p) ⇒ E (X) = np (2.CAPÍTULO 2. é igual a 1. temos que k = j+1 k = 1⇒j=0 k = n⇒j =n−1 Logo. logo. Logo. φX (t) = E(etX ) = = n P 2. Resumindo: X ∼ bin(n. E (X) = np n−1 X µn − 1¶ pj (1 − p)n−1−j j j=0 e. portanto. ALGUMAS DISTRIBUIÇÕES DISCRETAS 31 CAPÍTULO 2. como estamos somando as probabilidades de todos os pontos do espaço amostral. X ∼ bin(n. portanto E(X) = φ0X (0) = np [p + (1 − p)]n−1 = np . que ¡ ¢ E X 2 = np (n − 1) p + np × 1 = n2 p2 − np2 + np V ar (X) = E(X 2 ) − [E(X)]2 = n2 p2 − np2 + np − (np)2 = np − np2 ou seja.8).9) Mas nesse somatório temos as probabilidades de uma distribuição binomial com parâmetros (n − 1) e p. é igual a (n − 1) p.2.10) V ar(X) = np(1 − p) (2. Logo. Usando raciocínio análogo ao usado no cálculo da esperança. portanto.2. o que resulta na simplificação E (X) = n X ¡ ¢ n! n (n − 1)! pk (1 − p)n−k = p × pk−1 (1 − p)n−k = (k − 1)! (n − k)! (k − 1)! (n − k)! k=1 k=1 n n X X µn − 1¶ (n − 1)! n−k k−1 pk−1 (1 − p)n−k p (1 − p) = np = np k−1 (k − 1)! (n − k)! k=1 k=1 n X = np n−1 X (n − 1)! (n − 1)! pj (1 − p)n−j−1 + np pj (1 − p)n−j−1 = j! (n − j − 1)! j! (n − 1 − j)! j=0 j=0 n−1 n−1 X µn − 1¶ X µn − 1¶ pj (1 − p)n−1−j j pj (1 − p)n−1−j + np = np j j j=0 j=0 j Fazendo j = k − 1.

CAPÍTULO 2.6 de sucesso (vitória). X ∼ bin(7. portanto. . 37581 0 1 2. enumerável.a. Joga-se uma moeda não viciada. Então. A ganha mais partidas que B. Qual é a probabilidade de serem obtidas 5 caras antes de 3 coroas? Solução: Vamos definir sucesso = cara e fracasso = coroa. 6)6 (0. Pr(sucesso) = Pr(fracasso) = 0. ALGUMAS DISTRIBUIÇÕES DISCRETAS 34 2. discreta X = “número de repetições necessárias até a ocorrência da primeira cara”. 5)7 = 5 6 7 = 0. 80)9 = 0. . . portanto. 0. Consideremos.3. 5) e o problema pede Pr(X ≥ 5). 2. Assumindo a independência das provas. Qual é a probabilidade de A ganhar a série? Solução: Note que só podem ocorrer vitórias ou derrotas. 3 (primeiro sucesso na terceira repetição e. o “infinito” na prática. 4)3 + (0. Essa v. 4)0 = 5 6 7 8 = 0. Para calcular a probabilidade de X = k. 2 (primeiro sucesso na segunda repetição e. Se ele dá 10 tiros. associada a esse experimento aleatório: X = número de repetições necessárias para obtenção do primeiro sucesso (2. então. Logo. então. 5 e temos repetições de um experimento de Bernoulli. é infinito. portanto. pode assumir os valores 1. 4) 2 + (0.5 Exercícios resolvidos 1. Pr (X ≥ 5) = Pr (X = 5) + Pr (X = 6) + Pr (X = 7) = µ ¶ µ ¶ µ ¶ 7 7 7 = (0. o que significa que temos repetições de um experimento de Bernoulli com probabilidade 0. X = número de sucessos em 7 repetições.1 Distribuição Geométrica Definição 2. 6)8 (0.a.12) Dizemos que X tem distribuição geométrica com parâmetro p (o único valor necessário para especificar completamente a fdp) e vamos representar tal fato por X ∼ Geom(p). Seja. · · · (2. 3. 5)7 + (0. 5940864 3. 0. ou seja. Então. onde X = número de acertos em 10 tiros. então X ∼ bin(8. A probabilidade de A ganhar uma partida é 0. A ocorrência de 5 sucessos antes de 3 fracassos só é possível se nas 7 primeiras repetições tivermos pelo menos 5 sucessos. onde a probabilidade de sucesso é 0.11) Os valores possíveis de X são 1 (primeiro sucesso na primeira repetição). em geral. é substituído por um “valor muito grande”. . 0. Um atirador acerta na mosca do alvo. . Pr(X = k) = (1 − p)k−1 p k = 1.2. Precisa-se encontrar uma pessoa portadora da doença para que os médicos possam estudá-la. 3.6 e não há empate. . As características definidoras desse modelo são: (i) repetições de um mesmo experimento de Bernoulli. o que significa que em todas elas a probabilidade de sucesso (e. 3. fracasso nas duas primeiras). Para tal experimento.20. 6) e o problema pede Pr (X ≥ 5) . . podemos definir a seguinte v. 4)1 + (0. cada repetição do experimento (lançamento da moeda ou exame de uma pessoa) tem dois resultados possíveis (cara ou coroa e Portadora ou não portadora da doença). etc. 6)7 (0. mas no caso da doença a hipótese de independência poderia não . 20)0 (0. 20% dos tiros. de um modo geral. 20)1 (0. isto é. . 5)7 + (0. 2265625 Considere o seguinte experimento: uma moeda com probabilidade p de cara é lançada até que apareça cara pela primeira vez. No caso do lançamento de uma moeda essas hipóteses são bastante plausíveis. 6)5 (0.a. 2. poderíamos ter que lançar a moeda infinitas vezes para obter a primeira cara. podemos assumir que as repetições sejam independentes. ALGUMAS DISTRIBUIÇÕES DISCRETAS E(X 2 ) = φ00 (0) = np [p + (1 − p)]n−1 + n(n − 1)p2 [p + (1 − p)]n−2 X = np + n(n − 1)p2 = np + n2 p2 − np2 V ar(X) = E(X 2 ) − [E(X)]2 = np + n2 p2 − np2 − n2 p2 = np − np2 = np(1 − p) 33 CAPÍTULO 2. X ∼ bin(10. segue que Pr (X = k) = Pr (F1 ∩ F2 ∩ · · · ∩ Fk−1 ∩ Sk ) = Pr (F1 ) × Pr (F2 ) × · · · × Pr (Fk−1 ) × Pr (Sk ) = = (1 − p) × (1 − p) × · · · × (1 − p) × p ou seja. Essa é uma situação em que é impossível encontrar algum paralelo na prática. Quantas pessoas teremos que examinar até encontrar uma portadora? Em ambas as situações. temos a seguinte equivalência de eventos: {X = k} = {F1 ∩ F2 ∩ · · · ∩ Fk−1 ∩ Sk } Como as repetições são independentes. de fracasso) é a mesma e (ii) as repetições são independentes. teoricamente. 2. devemos notar que tal evento corresponde à ocorrência de fracassos nas k − 1 primeiras repetições e sucesso na k-ésima repetição. discreta onde o espaço amostral. Esse é um exemplo de v. Pr (X ≥ 5) = Pr (X = 5) + Pr (X = 6) + Pr (X = 7) + Pr (X = 8) = µ ¶ µ ¶ µ ¶ µ ¶ 8 8 8 8 = (0. ou seja. temos experimentos de Bernoulli e. 20) e µ ¶ µ ¶ 10 10 Pr(X ≤ 1) = Pr(X = 0)+Pr(X = 1) = (0. Vamos definir a seguinte v. no entanto.3 2. Logo. o problema pede Pr(X ≤ 1). 80)10 + (0. Denotando por Fi e Si a ocorrência de fracasso e sucesso na i-ésima repetição respectivamente. se definimos X = número de vitórias de A. Considere uma população muito grande onde p% das pessoas sofrem de uma doença desconhecida. fracasso na primeira).a. k = 1. Dois adversários A e B disputam uma série de 8 partidas de um determinado jogo. repetições independentes de um experimento de Bernoulli com parâmetro p. qual a probabilidade de ele acertar na mosca no máximo 1 vez? Solução: Podemos pensar os tiros como experimentos de Bernoulli independentes.

0.6 Distribuição geométrica .1 Vamos usar novamente a seguinte notação: [x] representa o maior inteiro contido em x. 2 e p = 0.3. temos que mostrar que a soma das probabilidades.4 0. isto é.2 Função de distribuição acumulada P(X = k) 0.13) F (x) = 0 se x < 1 1 − (1 − p)[x] se x ≥ 1 . pelo resultado (1. À medida que p aumenta o decaimento é muito mais rápido.5 0.12) realmente define uma fdp.3: Distribuição geométrica . por exemplo. F (x) = 0 e para x ≥ 1 temos que F (x) = Pr(X ≤ x) = [x] X k=1 Pr(X = k) = Fazendo a mudança de variável j = k − 1. 5 F (x) = Resumindo: X j=0 p(1 − p)j = p ½ 1 − (1 − p)[x]−1+1 = 1 − (1 − p)[x] 1 − (1 − p) (2.1) do Capítulo 1. Pr(X = k) ≥ 0).p = 0. temos que k = j+1 k = 1⇒j=0 k = [x] ⇒ j = [x] − 1 e. temos que k = j+1 k = 1⇒j=0 k = ∞⇒j=∞ ∞ X k=1 ∞ X Pr(X = k) = p (1 − p)j j=0 P(X = k) Distribuição geométrica .2 0. poderia haver um componente de hereditariedade. Temos que: ∞ ∞ ∞ X X X Pr(X = k) = (1 − p)k−1 p = p (1 − p)k−1 . 2 e p = 0. Pr(X = k) = p × 1 − (1 − p) k=1 k Na Figura 2. portanto. isto é.CAPÍTULO 2. Para mostrar que (2.2 0. 5. se x ≥ 1 [x]−1 [x] X k=1 p(1 − p)k−1 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 k Figura 2.5 2. obtém-se que: ∞ X 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 1 = 1.3 Portanto. Então.p = 0.3 0. k=1 k=1 k=1 Fazendo a mudança de variável j = k − 1. a probabilidade do espaço amostral é 1 (obviamente.1 Mas essa é a série geométrica de razão 1 − p. 0.p = 0.3 temos o gráfico da distribuição geométrica para p = 0.2 0. ALGUMAS DISTRIBUIÇÕES DISCRETAS 36 ser satisfeita se cuidados na seleção da amostra não fossem tomados. para x < 1. o maior inteiro menor ou igual a x. ALGUMAS DISTRIBUIÇÕES DISCRETAS 35 CAPÍTULO 2.

logo.4 Variância 2 ∞ X ∞ X¡ ¢ =p k 2 − k + k (1 − p)k−1 = k=1 Segue que: V ar(X) = E(X 2 ) − [E(X)]2 = Logo. obtemos que: ¡ ¢ E X 2 = p(1 − p) × 1 2 + = [1 − (1 − p)]3 p 2(1 − p) 1 2 − 2p + p 2 − p = + = = p2 p p2 p2 2−p 1 1−p − 2 = p2 p p2 1−p p2 1 p (2.16) (2.CAPÍTULO 2. para t < ln 1−p temos que et (1 − p) < 1 pet 1 = 1 − et (1 − p) 1 − et (1 − p) = p(1 − p) k(k − 1)(1 − p)k−2 + φX (t) = pet . ALGUMAS DISTRIBUIÇÕES DISCRETAS 37 CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS Fazendo a mudança de variável k − 2 = j no somatório. Para calcular a variância. E(X ) = 2 = p k=1 ∞ X k=1 ∞ X k=1 k p(1 − p) 2 k−1 X ∼ Geom(p) ⇒ V ar(X) = Resumindo: X ∼ Geom(p) ⇒ ⎧ ⎪ ⎪ ⎪ ⎨ ∞ X ¡ 2 ¢ k − k (1 − p)k−1 + p k(1 − p)k−1 E(X) = = p k(k − 1)(1 − p)k−1 + k=1 ∞ X k=1 kp(1 − p)k−1 No somatório acima. podemos escrever (note o índice do somatório!): ∞ X k=2 ∞ X k=2 O segundo somatório é a esperança da distribuição geométrica com parâmetro p. temos que calcular E(X ).5) do Capítulo 1 com r = 1 − p. resulta que E(X) = p ∞ X (j + 1)(1 − p)j j=0 ∞ X k=1 kp(1 − p)k−1 = p ∞ X k=1 k(1 − p)k−1 k = j+2 k = 2⇒j=0 k = ∞⇒j=∞ Portanto.3. φX (t) = E(etX ) = = pet Então.15) 2. p ∞ X 1 E(X 2 ) = p k(k − 1)(1 − p)k−1 + p k=1 2. ele é igual a 1 . a parcela correspondente a k = 1 é nula.3.14) Usando o resultado (1.3 Esperança E(X) = ∞ X k=1 k Pr(X = k) = Fazendo a mesma mudança de variável k − 1 = j. E(X 2 ) = p(1 − p) ∞ X 1 (j + 2)(j + 1)(1 − p)j + p j=0 Usando o resultado (1.3) do Capítulo 1 com r = 1 − p.5 Função geradora de momentos ∞ P ⎪ ⎪ ⎪ V ar(X) = 1 − p ⎩ p2 Por definição. se etk p(1 − p)k−1 = ∞ P k=1 j=0 et(j+1) p(1 − p)j = pet j=0 j=0 E(X 2 ) = p = p k(k − 1)(1 − p)k−1 + 1 p 1 = p 1 p ∞ ¤j P£ t e (1 − p) ∞ P etj (1 − p)j k(k − 1)(1 − p)k−2 (1 − p) + ∞ X k=2 1 isto é. Por definição.3. obtemos que: E(X) = p × Logo. Portanto. resulta que 38 2. logo. X ∼ Geom(p) ⇒ E(X) = 1 p 1 = 2 = p p [1 − (1 − p)]2 1 p (2.

a distribuição de Y é Pr(Y = k) = (1 − p)k p Y =X −1 e essa distribuição de probabilidade é às vezes chamada distribuição geométrica deslocada (em inglês. temos que φ0X (t) = 39 CAPÍTULO 2. portanto V ar(X) = mesmos resultados obtidos anteriormente. temos que Y = X − 1. qual é a probabilidade de serem necessárias mais de m repetições adicionais para se obter o primeiro sucesso? Vamos calcular essa probabilidade. X ∼ geom 1 e o 6 6 ¡ 5 ¢9 ¡ 1 ¢ problema pede Pr (X = 10) = 6 = 0.6 Exercícios resolvidos 2.18) (2.7 Forma alternativa da distribuição geométrica pet [1 − et (1 − p)] − pet [−et (1 − p)] pet − pe2t (1 − p) + pe2t (1 − p) pet = = [1 − et (1 − p)]2 [1 − et (1 − p)]2 [1 − et (1 − p)]2 φ00 (t) = X pe [1 − e (1 − p)] − 2pe [1 − e (1 − p)] [−e (1 − p)] [1 − et (1 − p)]4 2 t t 2 t t t Em vez de definir a variável geométrica como “número de repetições até primerio sucesso”. 2. 1 1−p −1= p p 1−p V ar(Y ) = V ar(X) = p2 pet p φY (y) = e−t φX (t) = e−t = 1 − et (1 − p) 1 − et (1 − p) E(Y ) = E(X) − 1 = k = 0. Então. Um atirador acerta na mosca do alvo. logo. . Seja X = número de tiros até primeiro acerto. 03230. Joga-se um dado equilibrado. Pr(sucesso) = p = 1 e Pr(fracasso) = 6 ¡ ¢ 1 − p = 5 . Qual a probabilidade de ele acertar na mosca pela primeira vez no 10o tiro? Solução: Podemos pensar os tiros como experimentos independentes de Bernoulli (acerta ou não acerta).3. X ∼ Geom(0. . cuja interpretação é a seguinte: dado que já foram realizadas mais de n repetições do experimento de Bernoulli. Seja X = número de lançamentos até primeiro seis. quer o sistema tenha ou não rodado n vezes.3. 20) e Pr (X = 10) = 0. .3. Estamos querendo o número de tiros até o primeiro acerto e calcular a probabilidade de que esse número seja 10. por definição de probabilidade condicional temos que Pr(X > m + n|X > n) = Pr(X > m + n) Pr [(X > m + n) ∩ (X > n)] = Pr(X > n) Pr(X > n) 1 − [1 − (1 − p)m+n ] (1 − p)m+n 1 − Pr(X ≤ m + n) = = = 1 − Pr(X ≤ n) −1 [1 − (1 − p)n ] (1 − p)n m = (1 − p) = Pr(X > m) Note o resultado: a probabilidade de serem necessárias mais de m repetições do experimento é a mesma. o sistema “esquece” que já rodou n vezes e. podemos ver que p [1 − (1 − p)]2 + 2p [1 − (1 − p)] (1 − p) [1 − (1 − p)]4 3 2 2 p + 2p (1 − p) 2p − p3 2−p = = = 4 p p4 p2 1 1−p 2−p − 2 = p2 p p2 e. A probabilidade de sucesso (acertar no alvo) é p = 0. shifted geometric distribution). 6 Propriedade da falta de memória da geométrica Seja X ∼ geom(p). Qual é a probabilidade de serem necessários 10 lançamentos até a primeira ocorrência de um seis? Solução: Nesse caso. Foi visto que se U e V são variáveis aleatórias tais que U = aV + b então E(U) = aE(V ) + b V ar(U) = b2 V ar(V ) φU (t) = ebt φV (at) No caso da distribuição geométrica deslocada. E(X) = e E(X 2 ) = φ00 (0) = X φ0X (0) p p 1 = = 2 = p p [1 − (1 − p)]2 Em termos da variável geométrica X definida anteriormente em (2. Então. 2. 1. . 2. podemos usar a seguinte definição alternativa: Y = “número de fracassos antes do primeiro sucesso” Neste caso. Isto é. Considere a seguinte probabilidade condicional Pr(X > m + n|X > n).17) pet [1 − et (1 − p)] + 2pe2t [1 − et (1 − p)] (1 − p) = [1 − et (1 − p)]4 Logo. 02684. 2 = 0. ALGUMAS DISTRIBUIÇÕES DISCRETAS Calculando as derivadas primeira e segunda. Logo. por isso.8 et (1 − p) < 1 1. sucesso é a ocorrência de face seis.CAPÍTULO 2. 89 × 0. essa propriedade é chamada de “falta de memória” da geométrica. 20.11). 20% dos tiros. ALGUMAS DISTRIBUIÇÕES DISCRETAS 40 2. (2.

. Note que na distribuição binomial negativa. k=r k=r r − 1 Fazendo k − r = j. ∩ Sr−1 ∩ Fr ∩ .4. Vamos considerar agora uma generalização da v.20) Quando r = 1 temos a distribuição geométrica.20). a probabilidade da união delas. A probabilidade de tal seqüência é dada pelo produto das probabilidades.4: Ilustração do evento {X = k} para a v. . p). portanto. binomial negativa Essa distribuição. 2. .CAPÍTULO 2. Fk−1 Sk .2 Forma alternativa da distribuição binomial negativa Assim como no caso da distribuição geométrica. ALGUMAS DISTRIBUIÇÕES DISCRETAS ¡k−1¢ 42 2.8) do Capítulo 1 com k = r − 1 e r = 1 − p. caracterizada pelos parâmetros r e p. geométrica. em que o número de lançamentos é fixo e o número de sucessos é a variável de interesse. devemos notar que para ter r sucessos. . é chamada distribuição binomial negativa. ou seja: Pr (X = k) = pr (1 − p)k−r + pr (1 − p)k−r + · · · + pr (1 − p)k−r ¡ ¢ onde o número de parcelas é k−1 .21) k repetições k = 0. . note o contraste com a distribuição binomial .20) realmente define uma fdp. Sr−1 Fr .19) (2. . Dist. então Uma seqüência possível de resultados é ter os r − 1 sucessos nas primeiras posições. . neste caso. r + 1.a. obtemos que: k=r Pr (X = k) = pr × 1 =1 [1 − (1 − p)]r−1+1 k-1 repetições r-1 sucessos S 2. temos que k = r ⇒ j = 0 e k = r + j.4). binomial Número de sucessos Número de repetições fixo variável aleatória variável aleatória fixo Para definir os possíveis valores de X. . a última repetição resultou em sucesso e os outros r − 1 sucessos podem estar em quaisquer das k − 1 posições restantes (ver Figura 2. podemos definir a variável binomial negativa como Y = “número de fracassos antes do r-ésimo sucesso” e. .a. Como Pr (X = k) ≥ 0. 1. Como elas constituem eventos mutuamente exclusivos. supusemos que n > 0 e 0 < k < n e vimos que k µ ¶ n(n − 1) · · · (n − k + 1)(n − k)! n(n − 1) · · · (n − k + 1) n n! = = = k!(n − k)! k!(n − k)! k! k . . Pela definição da variável. os k − r fracassos nas posições seguintes e o último sucesso na última posição: S1 .4 2. O evento X = k indica que foram necessárias k repetições para obter r sucessos e. . (2.1 Distribuição binomial negativa Definição Mas existem r−1 maneiras de arrumar r − 1 sucessos em k − 1 posições e as seqüências resultantes têm todas a probabilidade acima. Figura 2. . também conhecida como distribuição de Pascal. Logo r−1 µ ¶ k−1 r k≥r Pr (X = k) = p (1 − p)k−r r−1 Consideremos novamente repetições independentes de um experimento de Bernoulli com probabilidade p de sucesso. Se X tem tal distribuição. ALGUMAS DISTRIBUIÇÕES DISCRETAS 41 CAPÍTULO 2. que é Pr (X = k) .4. é a soma das probabilidades. para mostrar que (2. k − r fracassos. . vamos representar tal fato por X ∼ BinNeg(r. . r + 2. já que as repetições são independentes. . isto é: Pr (S1 ∩ . Pr(Y = k) = µ ¶ k+r−1 r p (1 − p)k r−1 Y =X −r (2. fica faltando mostrar que µ ¶ ∞ ∞ P P k−1 r Pr (X = k) = p (1 − p)k−r = 1. binomial negativa Dist. são necessários no mínimo r repetições.22) Note a seguinte relação: se X tem distribuição dada por (2.3 Por que binomial negativa? ¡ ¢ Quando definimos o número binomial n . os possíveis valores de X são r. Fk−1 ∩ Sk ) = = Pr (S1 ) × · · · × Pr (Sr−1 ) × Pr (Fr ) × · · · × Pr (Fk−1 ) × Pr (Sk ) = p × · · · × p × (1 − p) × · · · × (1 − p) × p = pr (1 − p)k−r 2. Logo. no seguinte sentido: X = número de repetições necessárias até a obtenção do r-ésimo sucesso.4. r ≥ 1 (2. Logo µ µ ¶ ¶ ∞ ∞ ∞ P P r+j−1 r P r−1+j Pr (X = k) = p (1 − p)j = pr (1 − p)j r−1 r−1 j=0 j=0 k=r ∞ P Usando o resultado dado na equação (1. o número de lançamentos é variável e o número de sucessos é um número fixo (pré-determinado).

22): µ ¶ k+r−1 r Pr(Y = k) = p (1 − p)k r−1 µ ¶ k+r−1 r = p (1 − p)k k (k + r − 1)! r p (1 − p)k = k!(r − 1)! (k + r − 1)(k + r − 2) · · · (k + r − k + 1)(k + r − k)(k + r − k − 1)! r p (1 − p)k = k!(r − 1)! (k + r − 1)(k + r − 2) · · · (k + r − k + 1)(k + r − k) r p (1 − p)k = k! r(r + 1) · · · (r + k − 2)(r + k − 1) r = p (1 − p)k k! [(−1)(−r)] [(−1)(−r − 1)] · · · [(−1)(−r − k + 1] r p (1 − p)k = k! µ ¶ −r r p (1 − p)k = (−1)k k Logo. 1) (2. 1. .4 Esperança E(X) = ∞ X µk − 1¶ k pr (1 − p)k−r = r−1 k=r Por definição. ou seja: ∞ ∞ X µr − 1 + j ¶ X µr − 1 + j ¶ j (1 − p)j = j (1 − p)j = r−1 r−1 j=0 j=1 = = = ∞ X j=1 ∞ X j=1 ∞ X j=1 j× j× j× (r − 1 + j)! (1 − p)j (r − 1)! (r − 1 + j − r + 1)! (r − 1 + j)! (1 − p)j = (r − 1)!j! (r − 1 + j)! (1 − p)j (r − 1)!j (j − 1)! Como j 6= 0.CAPÍTULO 2. definimos µ ¶ −n (−n)(−n − 1) · · · (−n − k + 1) = k! k que pode ser escrito como µ ¶ −n [(−1)(n)] [(−1)(n + 1)] · · · [(−1)(n + k − 1)] = k! k (−1)k n(n + 1) · · · (n + k − 1) = k! Vamos. analisar a expressão (2. quando j = 0.23) Vamos calcular esse somatório.4. Pr(Y = k) = (−1)k k 43 CAPÍTULO 2. A primeira observação é que. 2. temos que . µ ¶ ∞ X r+j −1 E(X) = pr (j + r) (1 − p)j = r−1 j=0 ∞ ∞ X µr − 1 + j ¶ X µr − 1 + j ¶ (1 − p)j = j (1 − p)j + rpr = pr r−1 r−1 j=0 j=0 ∞ X µr − 1 + j ¶ rpr j (1 − p)j + = = pr r−1 [1 − (1 − p)]r−1+1 j=0 ∞ X µr − 1 + j ¶ j (1 − p)j + r = pr r−1 j=0 44 (por 1. temos que k = r ⇒ j = 0 e k = r + j. logo. = (1 − p) (r + j − 1)! (1 − p)j−1 (r − 1)!(j − 1)! 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS Fazendo k − r = j. . uma outra forma de escrever a distribuição binomial negativa é µ ¶ −r r p (1 − p)k k = 0. o que resulta na simplificação: ∞ ∞ X µr − 1 + j ¶ X (r − 1 + j)! j j× (1 − p)j (1 − p)j = (r − 1)!j (j − 1)! r−1 j=0 j=1 = ∞ X j=1 (r + j − 1)! (1 − p)j (r − 1)!(j − 1)! ∞ X j=1 daí o nome binomial negativa. podemos começar o somatório de j = 1.8 do Cap. agora. podemos dividir o numerador e o denominador por j. Logo. a parcela correspondente no somatório é nula. ALGUMAS DISTRIBUIÇÕES DISCRETAS De forma análoga. . Note que essa distribuição corresponde à variável Y =“número de fracassos antes do r-ésimo sucesso”.

esse somatório é calculado.5 Variância 2 Vamos calcular E(X ). vamos usar a mudança de variável k − r = j.26) = p r−1 j=0 ∞ X r(r + n)! (1 − p)n = r(r − 1)!n! n=0 ∞ X (r + n)! n=0 ∞ Xµ n=0 = r(1 − p) = r(1 − p) r!n! (1 − p)n ¶ r+n (1 − p)n n Usando novamente o resultado (1.24) com r no lugar de r − 1 e o resultado (1. E(Y ) = E(X) − r = r r(1 − p) −r = p p r(1 − p) r(1 − p) +r +r = pr+1 p r p (2. portanto.23). ALGUMAS DISTRIBUIÇÕES DISCRETAS Fazendo j − 1 = n. ∞ X j=0 (2. a parcela do somatório é nula. Como antes.25) j2 × = (1 − p) ∞ X j=1 (r − 1 + j)! (1 − p)j = (r − 1)!j (j − 1)! j (r + j − 1)! (1 − p)j−1 = (r − 1)!(j − 1)! Fazendo j − 1 = n.24) anterior.24) j2 µ ¶ ∞ X r−1+j (r − 1 + j)! (1 − p)j = (1 − p)j j2 × r−1 (r − 1)!(r − 1 + j − r + 1)! j=1 = ∞ X j=1 Substituindo em (2.CAPÍTULO 2. temos que: E(X 2 ) = r2 pr × ∞ X µr − 1 + j ¶ 1 r(1 − p) + 2rpr × + pr j2 (1 − p)j r−1+1 r+1 p r−1 [1 − (1 − p)] j=0 ∞ X µr − 1 + j ¶ 2r2 (1 − p) (1 − p)j = + pr = r2 + j2 r−1 p j=0 ∞ X µr − 1 + j ¶ 2r2 − r2 p + pr (1 − p)j j2 (2.8) do Capítulo 1 com r = 1 − p e k = r. logo: ∞ ∞ X µr − 1 + j ¶ X (r + n)! (1 − p)n = j (1 − p)j = (1 − p) (r − 1)!n! r−1 n=0 j=0 = (1 − p) 45 CAPÍTULO 2.8) do Capítulo 1 com k = r − 1 e r = 1 − p e (2. quando j = 0.8) do Capítulo 1. p) ⇒ E(X) = Com a forma alternativa. obtemos que: ∞ ∞ X µr − 1 + j ¶ X (r + n)! (1 − p)n = j2 (n + 1) (1 − p)j = (1 − p) (r − 1)!n! r−1 n=0 j=0 = (1 − p) 2. X ∼ BinNeg(r. obtemos: . temos que Y = X − r e. ALGUMAS DISTRIBUIÇÕES DISCRETAS 46 Usando os resultados (1. obtemos que: E(X) = pr × Logo.4. temos que j = 1 ⇒ n = 0 e j = ∞ ⇒ n = ∞. logo. notando inicialmente que. E(X 2 ) = ∞ X µ ¶ k−1 r p (1 − p)k−r = r−1 k=r µ ¶ ∞ X r+j−1 (1 − p)j = = pr (j + r)2 r−1 j=0 µ ¶ ∞ X r−1+j (r2 + 2rj + j 2 ) (1 − p)j = = pr r−1 j=0 ∞ ∞ ∞ X µr − 1 + j ¶ X µr − 1 + j ¶ X µr − 1 + j ¶ (1 − p)j + 2rpr (1 − p)j j (1 − p)j + pr j2 = r2 pr r−1 r−1 r−1 j=0 j=0 j=0 k2 ∞ ∞ X (r + n)! X (r + n)! (1 − p)n + r(1 − p) (1 − p)n = n r!n! r!n! n=0 n=0 ∞ ∞ X µr + n¶ X µr + n¶ = r(1 − p) n (1 − p)n (1 − p)n + r(1 − p) n r n=0 n=0 ∞ X r(r + n)! (1 − p)n = (n + 1) r (r − 1)!n! n=0 = r(1 − p) Usando o resultado (2. otém-se que: ∞ X µr − 1 + j ¶ 1 r(1 − p) j = (1 − p)j = r(1 − p) × pr+1 r−1 [1 − (1 − p)]r+1 j=0 De modo análogo.

temos que Y = X − r. 0. 80)5 (0. Qual é a probabilidade de serem necessários 10 lançamentos até a terceira ocorrência de um seis? Solução: Nesse caso. O problema pede ¡¢ Pr(X = 8) = 7 (0. ∙ ¸r ∙ ¸r pet p = φY (t) = e−rt φX (t) = e−rt t (1 − p) t (1 − p) 1−e 1−e se et (1 − p) < 1 Logo.27) 2.26). p) ⇒ V ar(X) = Para a forma alternativa.4. µ ¶2 r2 + r − pr r r2 + r − pr − r2 V ar(X) = − = 2 p p p2 X ∼ BinNeg(r. como Y = X − r. obtemos que: 2r2 − r2 p r2 − 2pr2 + p2 r2 + r − pr = + pr × p pr+2 2r2 − r2 p r2 − 2pr2 + p2 r2 + r − pr + = p p2 2 2 2 2 2 2r p − r p + r − 2pr + p2 r2 + r − pr = = p2 r2 + r − pr = p2 E(X 2 ) = Aqui fez-se uso do resultado (1. 20)3 = 0. X ∼ BinNeg (5. 80 e Pr(peça defeituosa) = 0.7 Exercícios resolvidos 1. 80) . logo. em uma máquina que dá 20% de peças defeituosas. Então. Joga-se um dado equilibrado. 046514. 1 e 6 6 ¡9¢ ¡ 5 ¢7 ¡ 1 ¢3 o problema pede Pr (X = 10) = 2 6 = 0. 0917504. 4 ou 2.CAPÍTULO 2. sucesso é a ocorrência de face seis. 20. 6 Solução: Seja X = número de peças fabricadas até a obtenção de 5 boas (sucesso). resulta que V ar(Y ) = V ar(X) = r(1 − p) p2 r(1 − p) p2 (2. Com a forma alternativa. Qual é a probabilidade de ser necessário fabricar 8 peças para se conseguir as 5 peças boas? . Logo. Seja X = número de lançamentos até terceiro seis. X ∼ BinNeg 3. Pr(sucesso) = p = 1 e Pr(fracasso)¢= 6 ¡ 1 − p = 5 . ALGUMAS DISTRIBUIÇÕES DISCRETAS 48 2. Temos que Pr(peça boa) = 0.4.8) do Capítulo 1. Deseja-se produzir 5 peças boas.6 ∞ X Função geradora de momentos ∞ P tk e P (X = k) φX (t) = E(etX ) = µ k=r ¶ ∞ P tk k − 1 r e = p (1 − p)k−r r−1 k=r µ ¶ ∞ P t(j+r) r + j − 1 r p (1 − p)j = e r−1 j=0 µ ¶ ∞ ¤j P ¡ t ¢r r + j − 1 £ t e (1 − p) = pe r−1 j=0 µ ¶ ∞ ¡ ¢r P r + j − 1 £ t ¤j e (1 − p) = pet r−1 j=0 ¡ ¢r 1 = pet [1 − et (1 − p)]r ∙ ¸r pet = se et (1 − p) < 1 1 − et (1 − p) µ ¶ r−1+j (1 − p)(r + 1) 1 j2 + (1 − p)r × = (1 − p)j = (1 − p)r × pr+2 r−1 [1 − (1 − p)]r+1 j=0 (1 − p) r(r + 1) (1 − p)r + pr+2 pr+1 (1 − 2p + p2 )(r2 + r) + pr(1 − p) = = pr+2 2 2 2 2 2 r − 2pr + p r + r − 2pr + p r + pr − p2 r = = pr+2 r2 − 2pr2 + p2 r2 + r − pr = pr+2 = 2 Por definição Substituindo em (2. Logo. ALGUMAS DISTRIBUIÇÕES DISCRETAS 47 CAPÍTULO 2.

1. ou seja. ALGUMAS DISTRIBUIÇÕES DISCRETAS 50 Resumo da distribuição geométrica X =“número de repetições até 1o.28) 2. 1. 3 bolas verdes e 4 bolas verdes. Como temos 6 bolas brancas na ¢ ¡¢ urna. se cálculássemos Pr(X = 4) com a ¡2¢ fórmula (2. O espaço amostral de tal experimento consiste em todas as amostras de 4 bolas que podemos retirar desta urna contendo 11 bolas.5 2. Analogamente. 4. há 5 maneiras de 3 1 retirar 1 bola verde. 2. . . obteríamos o resultado desejado: Pr(X = 4) = 0. o número máximo possível de bolas verdes na amostra é 2. Dessa urna iremos extrair 4 bolas sem reposição. . 1.29) para calcular Pr(X = 3) neste caso. isso resultaria em ¡2¢¡ 9 ¢ Pr(X = 3) = 3 4−k ¡11¢ 4 k = 0. vimos que a definição de ¡n¢ o número combinatório 3 ! No estudo da Análise¡2¢ ¡¢ requer que n ≥ k. 2. Pr(X = 3) = 0 e Pr(X = 4) = 0. ALGUMAS DISTRIBUIÇÕES DISCRETAS 49 CAPÍTULO 2. 2. ou seja. 2 e a probabilidade de cada um desses valores é ¡2¢¡ 9 ¢ Pr(X = k) = k 6 4−k ¡11¢ 4 ¢ k = 0. Logo. 1 1−p E(X) = E(Y ) = E(X) − 1 = p p 1−p 1−p V ar(X) = V ar(Y ) = V ar(X) = p2 p2 pet p φX (t) = φY (t) = e−t φX (t) = et (1 − p) < 1 et (1 − p) < 1 1 − et (1 − p) 1 − et (1 − p) Resumo da distribuição binomial negativa X =“número de repetições até ro sucesso” Y =“número de fracassos antes do ro sucesso” Y =X −r µ ¶ µ ¶ k+r−1 r k−1 r Pr(Y = k) = p (1 − p)k k−r Pr(X = k) = p (1 − p) r−1 ¶ µ r−1 −r r k = r. há 6 maneiras 4 de retirar 4 bolas brancas. usando a definição clássica de probabilidade: #A Pr(A) = #Ω Como não podemos ter 3 nem 4 bolas verdes na amostra. r + 1. sucesso” Y =X −1 Pr(X = k) = (1 − p)k−1 p k = 1. 2 bolas verdes. 3. portanto. sucesso” Y =“número de fracassos antes do 1o. Vamos calcular a probabilidade de cada um destes valores. não é possível calcular 3 . . Logo. 2. 1. Pelo princípio fundamental da¢multiplicação. 1 bola verde. . µ ¶ 11 #Ω = 4 ¡¢ X = 0 equivale à retirada de 4 bolas brancas. . há 6 maneiras de retirar 3 bolas brancas e como há 5 bolas verdes. Logo. os valores X = 3 e X = 4 são impossíveis e. Como 4 < 5 e 4 < 6 temos bolas sufucientes de ambas as cores. como temos 6 bolas brancas na urna. Dessa urna iremos extrair 4 bolas sem reposição.1 Distribuição hipergeométrica Exemplo Iremos introduzir a distribuição hipergeométrica a partir do seguinte exemplo: de uma urna com bolas verdes (Sucessos) e brancas (Fracassos).29) ¡2¢ Note Combinatória. • Caso 1: Bolas suficientes de ambas as cores Consideremos uma urna com 11 bolas. Pr(Y = k) = (1 − p)k p k = 0. ou seja.5. No entanto. ¡¢ 6 X = 1¡ equivale à retirada de 1 bola verde e 3 bolas brancas. 1.CAPÍTULO 2. os possíveis valores de X são 0. 4 (2. . das quais 5 são verdes e 6 são brancas. . . 2. 3. serão retiradas 4 bolas sem reposição e o interesse está no número X de bolas verdes (Sucessos) retiradas. . r r(1 − p) E(X) = E(Y ) = E(X) − r = p µ ¶ ¶ µp 1−p 1−p V ar(X) = r V ar(Y ) = V ar(X) = r p2 p2 ∙ ∙ ¸r ¸r pet p φX (t) = et (1 − p) < 1 φY (t) = e−t φX (t) = et (1 − p) < 1 1 − et (1 − p) 1 − et (1 − p) em que o símbolo # indica o número de elementos do evento (conjunto) e Ω representa o espaço amostral. . não podemos ter 3 ou 4 bolas verdes na amostra. Suponhamos que usássemos a fórmula (2. ¡5¢¡6¢ ¡ 3 Pr(X = 1) = 1 11¢ 4 4 Pr(X = 0) = ¡11¢ 4 De maneira geral. na amostra podemos ter 0 bola verde. 2 (2. Como só há 2 bolas verdes na urna. . temos que Pr(X = k) = ¡5¢¡ k • Caso 2: Não há bolas verdes (sucessos) suficientes Consideremos uma urna com 11 bolas. Logo. se “definirmos” 2 = 0 k 3 obtemos o resultado desejado: Pr(X = 3) = 0. p (1 − p)k = (−1)k k k = 0. 4−3 ¡11¢ 4 . Os valores possíveis de X neste caso são 0. o número total de maneiras de ¡5¢ ¡6 retirarmos 1 bola verde e 3 bolas brancas é 1 × 3 . 1.29). das quais 2 são verdes e 9 são brancas. apareceria o número combinatório 4 e definindo esse número como 0.

Analogamente.3 Esperança Por definição. se calculássemos 4 ¡¢ Pr(X = 1) com a fórmula (2. Notação: X ∼ hiper(N.5: Ilustração do experimento definidor da v. r e n. Vamos considerar a seguinte v. ¡ ¢ Definindo n = 0 sempre que k > n. Temos que provar que a probabilidade do espaço amostral é 1. n = 0 sempre k que k > n. Dessa população. das quais 9 são verdes e 2 são brancas. . . que k Pr (X = k) = 1. como no caso mais favorável em que há ¡ ¢ bolas suficientes de ambas as cores. 3.5). vamos extrair uma amostra de tamanho n sem reposição (ver Figura 2. para esse experimento: X = número de sucessos em uma amostra retirada sem reposição. podemos “esquecer” que o valor máximo de X é 2 e podemos trabalhar com valores de X indo de 0 até o tamanho da amostra. Para provar que (2.32) nada mais é que a fórmula de Euler com m = r.a. define-se a função de distribuição de probabilidade da k variável aleatória X como µ ¶µ ¶ r N −r k n−k µ ¶ k = 0.2 Definição (2. o número mínimo possível de bolas verdes na amostra é 2. podemos trabalhar com valores de X indo de 0 até o tamanho da amostra.32) Em termos mais gerais.31) realmente define uma função de distribuição de probabilidade. . 4 e a probabilidade de cada um desses valores é ¡9¢¡ 2 ¢ Pr(X = k) = k Como no caso anterior. repsectivamente. Como só há 2 bolas brancas na urna. hipergeométrica Essa é a distribuição hipergeométrica com parâmetros N.33) Podemos ver que a expressão (2. o que resulta que µ ¶µ ¶ µ ¶ µ ¶ n P r N −r r+N −r N = = n−k n n k=0 k e isso completa a prova de que (2. O único cuidado é lembrar ¡ ¢ que.31) realmente define uma função de probabilidade. P isto é. uma vez que isso implicaria em 4 e 3 bolas brancas.CAPÍTULO 2.5. k 2.30) Figura 2. • Caso 3: Não bolas brancas (fracassos) suficientes Consideremos uma urna com 11 bolas.31) Pr (X = k) = N n (2.5. Suponhamos que usássemos a fórmula (2. . como no caso mais favorável em que há bolas suficientes de ambas as cores. Pr(X = 0) = 0 e Pr(X = 1) = 0. 3. n = 0 sempre que k > n. apareceria o número combinatório 2 e definindo esse número 3 como 0. 2.30). . note inicialmente que Pr (X = k) ≥ 0. portanto. vamos recordar a fórmula de Euler. por definição. obtemos o resultado desejado: Pr(X = 0) = 0. n). vista anteriormente: µ ¶µ ¶ µ ¶ s P m n m+n = k s−k s k=0 n P ¡¢ Definindo 2 = 0. o exemplo acima descreve a seguinte situação: considere uma população de tamanho N (a urna com as bolas) dividida em 2 classes (duas cores). uma composta de r “sucessos” e a outra composta de N −r “fracassos”. r. não podemos ter 0 ou 1 bolas verdes na amostra. isso resultaria em ¡ ¢¡ ¢ Pr(X = 0) = 9 0 2 4−0 ¡11¢ 4 4−k ¡11¢ 4 k = 2. por definição. os valores X = 0 e X = 1 são impossíveis e.30) para calcular Pr(X = 0) neste caso. n = N − r e s = n. obteríamos o resultado desejado: Pr(X = 1) = 0. ALGUMAS DISTRIBUIÇÕES DISCRETAS 51 CAPÍTULO 2. Dessa urna iremos extrair 4 bolas sem reposição. Assim.a. ALGUMAS DISTRIBUIÇÕES DISCRETAS 52 Com essa convenção. Como antes. O único cuidado é lembrar que. ou seja. n (2. ou seja µ ¶µ ¶ r N −r n P k n−k µ ¶ =1 N k=0 n e isso é equivalente a provar que µ ¶µ ¶ µ ¶ r N −r N = k n−k n k=0 Para tal. os valores possíveis de X neste caso são 2. 4 (2.

4 Variância µ ¶µ ¶ r N −r µ ¶µ ¶ n n ¡ ¢ P 2 k N −r 1 P 2 r n−k µ ¶ E X2 = = k k =µ ¶ N N k=1 k n−k k=0 n n µ ¶ n r(r − 1)! N −r 1 P 2 = k = µ ¶ N k=1 k(k − 1)! (r − k)! n − k n µ ¶ n r P (r − 1)! N −r = µ ¶ k = N k=1 (k − 1)! (r − k)! n − k n Vamos calcular E(X 2 ). portanto. s = n − 1) N j=0 j n−1−j n µ ¶ r N −1 µ ¶ N n−1 n (N − 1)! rn! (N − n)! N! (n − 1)! (N − n)! rn(n − 1)! (N − 1)! N(N − 1)! (n − 1)! X ∼ hiper(N. ALGUMAS DISTRIBUIÇÕES DISCRETAS P N −r (r − 1)! r n−1 = (j = k − 1) (j + 1) = µ ¶ N j=0 j! (r − 1 − j)! n − 1 − j n µ ¶µ ¶ P r n−1 r−1 N −r = µ ¶ (j + 1) = N j=0 j n−1−j n " ¶µ ¶# µ ¶µ ¶ n−1 µ n−1 P r−1 P r−1 N −r N −r r = j + = µ ¶ N j n−1−j j n−1−j j=0 j=0 n µ µ µ ¶µ ¶µ ¶⎡ ¶ ¶⎤ r − 1 N − 1 − (r − 1) r − 1 N − 1 − (r − 1) N −1 r n−1 ⎥ P P j j n − 1 ⎢n−1 n−1−j n−1−j ⎥ µ ¶ ⎢ j µ µ ¶ ¶ + = ⎣ j=0 ⎦ N N −1 N −1 j=0 n n−1 n−1 µ ¶ 54 E (X) = = = = = = = = Logo. ALGUMAS DISTRIBUIÇÕES DISCRETAS 53 CAPÍTULO 2.5. (note o índice) = = = orque k 6= 0) = . então.CAPÍTULO 2.33).34) Mas o primeiro somatório é a esperança de uma hipergeométrica com parâmetros N −1. que µ ¶ N −1 ∙ ¸ ¡ ¢ r−1 n−1 µ ¶ (n − 1) +1 = E X2 = N N −1 n rn (n − 1) (r − 1) + N − 1 = × N N −1 r Var (X) = = = = rn (n − 1) (r − 1) + N − 1 n2 r2 × − 2 N ∙ N −1 N ¸ (n − 1) (r − 1) + N − 1 nr rn × − N N −1 N ∙ ¸ rn nr − n − r + 1 + N − 1 nr × − N N −1 N ∙ ¸ nr rn nr − n − r + N × − N N −1 N ∙ ¸ Nnr − nN − N r + N 2 − Nnr + nr rn × N N (N − 1) ∙ ¸ −nN − Nr + N 2 + nr rn × N N (N − 1) r N (N − n) − r (N − n) n N N (N − 1) r (N − n) (N − r) n N N (N − 1) e. n) ⇒ E (X) = n r N (2. m = r − 1. Segue. µ ¶µ ¶ r N −r µ ¶µ ¶ n n P r 1 P N −r k n−k µ ¶ k k =µ ¶ = (note o índice) N N k=1 k n−k k=0 n n µ ¶ n N −r r(r − 1)! 1 P µ ¶ = (porque k 6= 0) k N k=1 k(k − 1)! (r − k)! n − k n µ ¶ n (r − 1)! N −r r P µ ¶ = (j = k − 1) N k=1 (k − 1)! (r − k)! n − k n µ ¶ P N −r r n−1 (r − 1)! µ ¶ = N j=0 j! (r − 1 − j)! n − 1 − j n µ ¶µ ¶ P r n−1 r − 1 N − r − 1 µ ¶ = (por (2. 2. r.com n = N − r. n−1 e r −1 e o segundo somatório é a soma das probabilidades no espaço amostral de uma hipergeométrica com os mesmos parâmetros.

A variância da binomial é igual ao produto do tamanho da amostra pelas probabilidades de ³ r ´ µN − r ¶ sucesso e fracasso e. 12. se N é “grande” e n é pequeno. . Um caçador. Pedro é o fiscal mais favorável para o caçador. quando a população (tamanho N) é suficientemente grande (de modo que podemos encará-la como uma população infinita) e o tamanho da amostra é relativamente pequeno. . que adotam diferentes métodos de inspeção. e.6. Lembre-se que a probabilidade em extrações sucessivas são N . n) ⇒ V ar (X) = n se é encontrado pelo menos um espécime proibido. é n . 2. a probabilidade de multa é maior no caso do fiscal Manoel. a esperança também é n . após um dia de caça. pensando em dificultar o trabalho dos fiscais. mas corrigido pelo fator .6 Exercícios resolvidos idade. X ∼ hiper(N. X ∼ bin 2.CAPÍTULO 2. os resultados teóricos sobre amostragem com reposição são bem mais simples (como você verá na segunda parte do curso. 5) e o problema pede ¡12¢ 33 12 × 11 × 10 × 9 × 8 5 = = 0. 2. Se as extrações são feitas sem reposição. Nessas condições. costuma-se usar uma aproximação. .6 Distribuição de Poisson Definição 2. então X tem distribuição hipergeom´trica com parâmetros r. Se as extrações são feitas com reposição. não podemos ignorar o fato de as extrações estarem sendo feitas sem reposição. n. . Ou seja.5. . 2. temos que mostrar que fato: ∞ P 1. Considere uma urna r bolas verdes e N − r bolas brancas. ¡2¢¡5¢ 5 35 2 Manoel: Pr (multa) = 1 − Pr (X = 0) = 1 − 0¡7¢3 = 1 − = = 7 7 49 3 µ ¶ µ ¶2 25 24 2 5 =1− = Pedro: Pr (multa) = 1 − Pr (X = 0) = 1 − 7 49 49 0 Logo. Na hipergeométrica. podemos “ignorar” o fato de as extrações serem 1 1 feitas sem reposição. Em qualquer caso. Como todos os espécimes tinham o mesmo tamanho. o caçador é multado Para mostrar que a expressão acima realmente define uma função de distribuição de probabil∞ P Pr(X = k) = 1. A esperança da binomial é igual ao produto do tamanho da amostra pela probabilidade de r r sucesso e. uma vez que ela não tem muita utilidade. proibida de ser caçada. normalmente lidamos com amostragem sem reposição. classifica-o e o repõe na bolsa. 2. N −n . extrações com e sem reposição podem ser consideradas como equivalentes. r. Se X = número de homens sorteados. . N 1 . então X tem distribuição binomial com parâmetros n r e p = N . No posto de fiscalização há dois fiscais. isso equivale a lidar com variáveis independentes). . se a população é pequena. Dessa urna extraise uma amostra de n bolas e estamos interessados na variável aleatória X = “número de bolas verdes na amostra”. De k=0 Pr(X = k) = k=0 Aqui fez-se uso do resultado (??) do Capítulo 1.1 A variável aleatória discreta X tem distribuição de Poisson com parâmetro λ se sua função de distribuição de probabilidade é dada por Pr(X = k) = λk −λ e k! k = 0. 2 . 3) e no caso do fiscal Pedro. Qual é a probabilidade dos 5 sorteados serem do sexo masculino? Solução: Sucesso = sexo masculino. ALGUMAS DISTRIBUIÇÕES DISCRETAS 56 r N −rN −n (2. que é o produto do N N tamanho da amostra pela probabilidade de sucesso na primeira extração. −n Então.5. Manoel e Pedro. Qual dos dois fiscais é mais favorável para o caçador em questão? Solução: Seja X = número de aves proibidas (sucessos) encontradas por um ¡ ¢ No caso de Manoel. 55 CAPÍTULO 2. é chamado correção para populações finitas. N −1 Em pesquisas estatísticas por amostragem. nesse caso. ele os colocou na mesma bolsa. temos que N ≈ N − 1 ≈ · · · ≈ N − n. ∞ ∞ P λk −λ P λk e = e−λ = e−λ eλ = 1 k=0 k! k=0 k! . uma vez que é óbvio que Pr(X = k) > 0. nesse caso. 181319 Pr (X = 5) = ¡16¢ = 16 × 15 × 14 × 13 × 12 14 × 13 5 2. A empresa decide sortear 5 programadores para fazer um curso avançado de programação. então X ∼ hiper(16. No entanto.35) N N N −1 Não iremos calcular a função geradora de momentos da distribuição hipergeométrica. Na hipergeométrica.5 Distribuição binomial versus distribuição hipergeométrica Vamos fazer agora algumas comparações entre as distribuições binomial e hipergeométrica através do seguinte exemplo. a variância é igual a N N N −n esse produto. 1. Manoel retira três espécimes de cada bolsa dos caçadores. N. assim. 2. Entre os 16 programadores de uma empresa. é é n . fiscal. temos que X ∼ hiper(7. N−1 . sempre que possível. verificou que matou 5 andorinhas e 2 aves de uma espécie rara. portanto. 12 são do sexo masculino. Pedro retira um espécime. O termo que aparece na variância da hipergeométrica. Queremos calcular 7 Pr (multa) = Pr (X ≥ 1) = 1 − Pr (X = 0) . exatamente N−1 porque. retirando em seguida um segundo espécime. ALGUMAS DISTRIBUIÇÕES DISCRETAS ou seja.

2 0. 3 onde. .1 0 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 Vemos . 2. se λ é inteiro. então temos que ter (usando o resultado anterior) λ P (X = k0 + 1) ≤ 1 =⇒ ≤ 1 =⇒ k0 ≥ λ − 1 P (X = k0 ) k0 + 1 e também P (X = k0 ) λ ≥ 1 =⇒ k0 ≤ λ ≥ 1 =⇒ P (X = k0 − 1) k0 λ − 1 ≤ k0 ≤ λ e como k0 tem que ser inteiro.2 Esperança 0. Suponhamos que a probabilidade máxima ocorra em k0 . com modas em k0 = λ e k0 = λ − 1. ou seja. ALGUMAS DISTRIBUIÇÕES DISCRETAS Se X ∼ P oi(λ). 1. resulta que o ponto de máximo ocorre quando k0 = [λ] .3) 2.3 0.2 X ~ Poi(2) 0.6 ilustram-se a distribuição de Poisson para dois valores do parâmetro.6: Distribuição de Poisson para λ = 2 e λ = 4.CAPÍTULO 2.1 0 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 Vamos agora calcular a esperança de tal distribuição. Note que. que X ~ Poi(4.6.36) . 3 a moda ocorre em x = 4. 0. pois neste caso λ · λλ−1 −λ λλ−1 −λ λλ e = e = P (X = λ − 1) P (X = λ) = e−λ = λ! λ · (λ − 1)! (λ − 1)! Na Figura 2. então. então temos λk+1 −λ e P (X = k + 1) λ (k + 1)! = = k P (X = k) k+1 λ −λ e k! 57 CAPÍTULO 2. a moda da distribução ocorre em k0 = [λ] . Logo. X ∼ P oi(λ) ⇒ E(X) = λ (2. então a distribuição é bimodal. usou-se o resultado (??) do Capítulo 1. . . note que quando λ = 2 há duas modas (x = 1 e x = 2) e para λ = 4. ∞ ∞ P λk −λ P λk k e = e−λ k k=0 k! k=1 k(k − 1)! ∞ ∞ P λλk−1 P λk−1 −λ = e = λe−λ k=1 (k − 1)! k=1 (k − 1)! ∞ P λj −λ −λ λ = λe = λe e j−0 j! E(X) = Figura 2.3 0. ALGUMAS DISTRIBUIÇÕES DISCRETAS 58 k = 0. mais uma vez.

Logo. ALGUMAS DISTRIBUIÇÕES DISCRETAS 59 CAPÍTULO 2. φX (t) = E(etX ) = etk k=0 ou seja. o seguinte resultado: " = λ j−0 O primeiro somatório é a esperança de uma distribuição de Poisson com parâmetro λ.15) do Capítulo 1. n → ∞. apenas 0 ou 1 evento ocorre. Nesse caso. O segundo somatório é a série de Taylor da função ex em x = λ. que.3 Variância 2. X é uma variável binomial com t t parâmetros n = (note que ∆t = ) e probabilidade de sucesso igual a λ∆t pela hipótese 2 ∆t n acima. Mas em cada subintervalo podemos aplicar as hipóteses acima. Logo. como visto anteriormente. de comprimento ∆t.5 Aproximação da binomial pela Poisson O segundo momento é calculado de forma análoga como E(X 2 ) = ∞ λk −λ P 2 λλk−1 −λ k e = e = k! k(k − 1)! k=0 k=1 ∞ P λk−1 = λe−λ k k=1 (k − 1)! ∞ P λj −λ = λe (j + 1) j! j−0 ∞ P k2 Suponha que estejamos observando um determinado fenômeno de interesse por um certo período de tempo de comprimento t. X = número de ocorrências do evento no intervalo (0.a.a.6. . com o intuito de contar o número de vezes X que determinado evento ocorre. temos que o número total de ocorrências será a soma do número de ocorrências em cada subintervalo.6. E(X 2 ) = λ2 + λe−λ eλ = λ2 + λ Logo. a ocorrência de nenhum evento é 1 − λ∆t. Então. 2. Estamos interessados na v. . é λ∆t. Logo. . Então. Particionando esse intervalo em n subintervalos de comprimento suficientemente pequeno ∆t. Provamos. t]. . a v. X pode assumir qualquer valor inteiro não negativo e µ ¶n µ ¶−k # n n−1 n − k + 1 (λt)k λt λt lim Pr(X = k) = lim × × ··· × × × 1− × 1− n→∞ n→∞ n n n k! n n µ ¶n k k λt (λt) (λt) −λt × lim 1 − e = 1 × 1 × ··· × 1 × ×1= n→∞ k! n k! Aqui fêz-se uso do resultado (1. então sua função geradora de momentos é φX (t) = eλ(e −1) t Vamso calcular as derivadas de ordem primeira e ordem segunda para calcular os respectivos momentos: t t t φ0X (t) = eλ(e −1) λet = λet eλ(e −1) = λet+λ(e −1) ¢ t −1 ¡ φ00 (t) = λet+λ(e ) 1 + λet X Logo. H2) A probabilidade de exatamente 1 ocorrência nesse pequeno intervalo de tempo. n temos que: µ ¶ ¶n−k µ ¶ µ ¶k µ n λt n λt Pr(X = k) = (λ∆t)k (1 − λ∆t)n−k = 1− = k n n k ¶n µ ¶−k µ 1 λt λt n! × × (λt)k × 1 − × 1− = = k!(n − k)! nk n n µ ¶n µ ¶−k k n(n − 1) · · · (n − k + 1)(n − k)! (λt) λt 1 λt = × 1− = × k× × 1− (n − k)! n k! n n µ ¶n µ ¶−k λt λt n(n − 1) · · · (n − k + 1) (λt)k × 1− × × 1− = = nk k! n n µ ¶n µ ¶−k n − k + 1 (λt)k λt λt n n−1 × × ··· × × × 1− × 1− = n n n k! n n Consideremos.CAPÍTULO 2. a situação em que ∆t → 0. ou equivalentemente. 1. ou seja. ou seja. H3) As ocorrências em intervalos pequenos e disjuntos são experimentos de Bernoulli independentes. é λ. é proporcional a esse comprimento. Note que a esperança e a variância são iguais! V ar(X) = E(X 2 ) − [E(X)]2 = λ2 + λ − λ2 = λ ∞ P j λ −λ λ e + λe−λ j! j−0 j! j ∞ P j 2.6.4 Função geradora de momentos ∞ P ∞ ∞ P tk λk P (λet )k λk −λ t e = e−λ = e−λ = e−λ eλe e k! k! k! k=0 k=0 Por definição. ALGUMAS DISTRIBUIÇÕES DISCRETAS 60 2. 2 ou mais ocorrências não podem acontecer simultaneamente. em cada um desses intervalos temos um experimento de Bernoulli. Vamos fazer as seguintes hipóteses sobre a forma como esse evento ocorre: H1) Em um intervalo de tempo suficientemente curto. E(X) = φ0X (0) = λe 0+λ(e0 −1) 0 −1 E(X 2 ) = φ00 (0) = λe0+λ(e X o que nos leva ao mesmo resultado anterior: =λ ) ¡1 + λe0 ¢ = λ(1 + λ) = λ2 + λ V ar(X) = λ . para k = 0. agora. assim. se X ∼ P oi(λ).

1 Distribuição uniforme Pelos resultados anteriores. 1.d. então a função de distribuição de probabilidade de X é (λt)k exp(−λt) k = 0. b] é dada por ½ 1 se x ∈ [a. obtém-se o número médio de ocorrências em um intervalo unitário. ALGUMAS DISTRIBUIÇÕES DISCRETAS 61 Teorema 2.1) 0 caso contrário 62 Pr(pelo menos 2 cortes) = Pr(Y ≥ 2) = 1 − Pr(Y < 2) = 1 − [Pr(Y = 0) + Pr(Y = 1)] = ¶ µ 0 21 2 + = 1 − 3 exp(−2) = 0. Então. Logo.p.6. μ é o número médio de ocorrências do evento de interesse em um intervalo unitário e o número de ocorrências num intervalo qualquer é proporcional ao comprimento do intervalo. 593994 = 1 − exp(−2) 0! 1! . temos que ter f(x) = k ∀x ∈ [a.p. A interpretação desses resultados nos dá que o número médio de ocorrências do evento em um intervalo de comprimento t é λt. b] b−a f (x) = (3. de X é como o ilustrado na Figura 3. Pr(no máximo 2 cortes) = Pr(Y ≤ 2) = Pr(Y = 0) + Pr(Y = 1) + Pr(Y = 2) = µ 0 ¶ 2 21 22 = exp(−2) + + = 5 exp(−2) = 0. Y ∼ P oi(2). qual é a probabilidade de a central não receber nenhuma chamada em um minuto? e de receber no máximo 2 chamadas em 2 minutos? Solução: 50 exp(−5) = 0. ou seja. Qual é a probabilidade de que um rolo com comprimento de 4000 pés apresente no máximo dois cortes? Pelo menos dois cortes? Solução: Seja Y = número de cortes num rolo de 4000 pés. Pr(X = 0) = Pr(Y ≤ 2) = Pr(Y = 0) + Pr(Y = 1) + Pr(Y = 2) = µ 0 ¶ 10 101 102 = exp(−10) + + = 0! 1! 2! = 0.d. Então. . . Então. ou seja. X tem distribuição de Poisson com parâmetro λt : X ∼ P oi(λt). b] Para que tal função seja uma f. 00673795 0! Seja Y = número de chamadas em 2 minutos. ocorrem cortes a uma taxa de um corte por 2000 pés.a. Então. b] 1. 2. o gráfico da f. Supondo que as chamadas cheguem segundo uma distribuição de Poisson.1: 2. 00276940 Seja X = número de chamadas por minuto. uniforme no intervalo [a. b] (finito) se sua função de densidade é constante nesse intervalo. Y ∼ P oi(5 × 2). k! ou seja. Se X é o número de eventos em um intervalo de tempo de comprimento t. a função de densidade de uma v.1: Densidade uniforme no intervalo [a. (Bussab & Morettin) Em um certo tipo de fabricação de fita magnética.37) Capítulo 3 Algumas Distribuições Contínuas 3. Logo. 2. Pr(X = k) = (2. 676676 0! 1! 2! Figura 3. proporcional ao comprimento. Fazendo t = 1. X ∼ P oi(5). .1 Sejam eventos gerados de acordo com as hipóteses H1 a H3 acima. Uma central telefônica recebe uma média de 5 chamadas por minuto. temos que ter k > 0 e a área do retângulo tem que ser 1.6 Exercícios resolvidos Uma variável aleatória contínua X tem distribuição uniforme no intervalo [a.. 1 (b − a) × k = 1 ⇒ k = b−a Logo.CAPÍTULO 2.

1] .2 Esperança ou Das propriedades da esperança e das características da densidade uniforme. b] Essa é a área de um retângulo com base (x − a) e altura 1 . Por definição.3.3) Figura 3.1. ¯b 3 3 2 2 1 1 x3 ¯ ¯ = b − a = (b − a) (b + ab + a ) dx = b−a b − a 3 ¯a 3 (b − a) 3 (b − a) (3. temos que e essa probabilidade é dada pela área sob a curva de densidade à esquerda de x.3 Variância ¡ ¢ V ar (X) = E X 2 − [E (X)]2 . ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 63 CAPÍTULO 3. b] Usando a integral: E (X) = ou seja. Logo. No caso da U [0. b−a (3. denotada por U(0. 1). 2 O gráfico dessa f. temos que ⎧ ⎨ 0 se x < 0 x se 0 ≤ x < 1 F (x) = ⎩ 1 se x ≥ 1 ⎧ ⎪ 0 ⎨ x − a se x < a se a ≤ x ≤ b F (x) = ⎪ b−a ⎩ 1 se x > b Vamos calcular E (X ) .4) V ar (X) = µ ¶2 a+b (b2 + ab + a2 ) a2 + 2ab + b2 (b2 + ab + a2 ) − − = = 3 2 3 4 2 2 2 2 2 2 4b + 4ab + 4a − 3a − 6ab − 3b a − 2ab + b = = 12 12 V ar (X) = (b − a)2 12 (3. ou seja. Quando a = 0 e b = 1 temos a uniforme padrão. Z b x a ¯b 2 2 1 x2 ¯ 1 ¯ = b − a = (b − a) (a + b) dx = b−a b − a 2 ¯a 2 (b − a) 2 (b − a) E (X) = a+b 2 (3. note que ambos têm que ser finitos para que a integral seja igual a 1.1.3: Função de distribuição acumulada da Unif[a.CAPÍTULO 3. E(X) = a + b−a a+b = 2 2 .1. sabemos que E(X) é o ponto médio do intervalo [a.2) 3.2.5) 3. é dado na Figura 3.1 Função de distribuição acumulada F (x) = Pr (X ≤ x) Por definição. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 64 Os valores a e b são chamados parâmetros da distribuição uniforme. conforme ilustrado na Figura 3. Temos que: ¡ ¢ E X2 = Z b x2 a Logo.d. b].a. 3.2: Função de distribuição acumulada da densidade Unif [a. Figura 3.

5: Função de distribuição acumulada da v.16). esse é o parâmetro da densidade exponencial. exponencial .p. para que uma função exponencial do tipo e−x/β defina uma função de densidade.2 Função de distribuição acumulada Z x Temos que F (x) = Pr (X ≤ x) = f (t) dt = Z x 0 0 ¯x ¡ ¢ 1 −t/β e dt = −e−t/β ¯0 = − e−x/β − 1 β Pelo resultado (1.4 temos o gráfico da f. então.7) Então.a. Então.d.2 3. podemos ver que é possível definir uma função de densidade a partir da função exponencial eλx . Por outro lado. como Z ∞ Z ∞ 1 1 e−λx dx = λ .2. 1 • dv = β e−x/β dx ⇒ v = −e−x/β O método de integração por partes nos dá que: ¯∞ −xe−x/β ¯0 = Z ∞ Figura 3.d. desde que nos limitemos ao domínio dos números reais negativos. β > 0 (3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 65 CAPÍTULO 3. E (X) = β Z 0 ∞¡ ¢ −e−x/β dx (3. A esperança é: Z∞ 1 E(X) = x e−x/β dx β 0 Definindo • u = x ⇒ du = dx. X tem distribuição exponencial com parâmetro β.3 Esperança O cálculo dos momentos da distribuição exponencial se faz com auxílio de integração por partes. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS ou seja F (x) = . 2 Da equação (??) do Capítulo 1. e−x/β dx = β.2.4: Densidade exponencial . Mas isso é equivalente a trabalhar com a função e−λx para x positivo. usaremos a notação X ∼ exp(β) para indicar o fato de que a v. temos que 1 multiplicá-la por β para que a integral resultante dê 1.CAPÍTULO 3. ½ 66 3.a. β Como a f. ¯∞ 0 = E(X) + βe−x/β ¯0 ⇒ 0 = E(X) + (0 − β) ou seja.β = 1 2 0 1 x e−x/β dx + β 3. para β = 1 . exponencial depende apenas do valor de β.1 Distribuição exponencial Definição 1 − e−x/β 0 se x > 0 se x ≤ 0 (3.6) f (x) = e−x/β .β = 1 2 3. Define-se. podemos trabalhar com um novo parâmetro β = λ .8) . o lado esquerdo desta última igualdade é zero. 0 0 Figura 3. Na Figura 3. Logo.2.p. Dessa forma. uma variável aleatória exponencial como sendo aquela cuja função de densidade é dada por 1 x > 0.

12) f (x) = λe−λx λ φX (t) = λ−t 1 E(X) = λ 2 E(X 2 ) = 2 λ 1 V ar(X) = 2 λ x > 0. resulta que e.6 Z ∞ Parametrização alternativa 0 1 x2 e−x/β dx + β 0 Usando o resultado (3. λ > 0 t<λ 3.7 Z ∞ 0 1 1 −( β −t)x dx e β Propriedade da falta de memória da exponencial Por definição 1 etx e−x/β dx = β 0 Para que essa integral exista. a distribuição exponencial também goza da propriedade da falta de memória.2. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS Desse resultado segue que Z ∞ 67 CAPÍTULO 3.a.10) (3. fazendo a mudança de variável u = β − t x resulta que φX (t) = ou seja 1 β Z ∞ 0 e−( β −t)x dx = 1 1 β 1 β 1 −t 3. ¯∞ −x2 e−x/β ¯0 = Z ∞ 3.2.4 Variância Vamos calcular o segundo momento de uma v. portanto: Resumindo: ¡ ¢ ¡ ¢ −2xe−x/β dx ⇒ 0 = E X 2 − 2 Z ∞ xe−x/β dx 1 É possível parametrizar a densidade exponencial em termos de um parâmetro λ = β . ALGUMAS DISTRIBUIÇÕES CONTÍNUAS As derivadas primeira e segunda são 68 0 1 x e−x/β dx = β ⇒ β Z ∞ xe−x/β dx = β 2 (3. como antes.9). Seja X ∼ exp(β). V ar(X) = β 2 Logo. exponencial. é necessário que Assim como a geométrica.9) 0 3. Calcule .11) (3.CAPÍTULO 3.2.2. 0 Var(X) = 2β 2 − β 2 ⇒ Var (X) = β 2 X ∼ exp(β) =⇒ ½ E(X) = β V ar(X) = β 2 ¡ ¢ E X 2 = 2β 2 (3. Seja X ∼ exp(4). Então Pr(X > p + q) 1 − Pr(X ≤ p + q) Pr(X > p + q|X > p) = = Pr(X > p) 1 − Pr(X ≤ p) h ³ ³ ³ ´ ´i ´ ³ ´ p+q p+q p q 1 − 1 − exp − β exp − β exp − β exp − β h ³ ´i = ³ ´ = ³ ´ = p p p 1 − 1 − exp − β exp − β exp − β µ ¶ q = exp − = Pr(X > q) β 1 1 − t > 0 ⇐⇒ t < β β ´ ³ 1 Neste caso.5 Função geradora de momentos φX (t) = E(etX ) = Z ∞ 3.2. Neste caso. 1 • dv = β e−x/β dx ⇒ v = −e−x/β β (1 − βt)2 β × 2 (1 − βt) × (−β) 2β 2 φ00 (t) = = X 4 (1 − βt) (1 − βt)2 φ0X (t) = e os momentos de ordem 1 e 2 são: E(X) = φ0X (0) = β E(X 2 ) = φ00 (0) = 2β 2 X o que nos dá.8 Exercícios resolvidos 1 φX (t) = 1 − βt 1 t< β 1. vamos definir: • u = x2 ⇒ du = 2xdx. Z ∞ 1 x2 e−x/β dx E(X 2 ) = β 0 Seguindo raciocínio análogo ao empregado no cálculo da esperança.

x→∞ lim f (x) = 0 e x→0 lim f(x) = 0 3. Além disso. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS Fazendo a mudança de variável x = t resulta β x dx x x e.1 Definição Diz-se que uma variável aleatória tem distribuição gama com parâmetros α e β se sua função de densidade de probabilidade é dada por ⎧ 1 ⎪ ⎪ xα−1 e−x/β se x > 0 ⎨ Γ(α)β α f(x) = (3. β. o que mostramos é que essa probabilidade é constante.3. 3. β) para indicar que a variável aleatória X tem distribuição gama com parâmetros α. agora. Calcule Pr(X > β). notemos inicialmente que f(x) ≥ 0.2 O gráfico da distribuição gama Para a construção do gráfico da densidade gama. exponencial ser maior que o seu valor médio. Solução £ ¤ Pr(X > β) = 1 − Pr(X ≤ β) = 1 − F (β) = 1 − 1 − e−β/β = e−1 Z ∞ 1 xα−1 e−x/β dx = α Γ(α)β Z 0 ∞ 1 (βt)α−1 e−t βdt = α Γ(α)β 0 Z ∞ 1 α = tα−1 e−t dt αβ Γ(α)β 0 1 Γ(α) = 1 = Γ(α) Note que essa é a probabilidade de uma v. qualquer que seja β.25 = 0. as duas condições para uma função de densidade são satisfeitas. ∙ ¸ 1 1 α−2 −x/β f 0 (x) = e − xα−1 e−x/β α (α − 1)x Γ(α)β β ∙ ¶¸ µ ¡ α−2 −x/β ¢ 1 1 x e α−1− x = α Γ(α)β β 1 f (x) = Γ(α)β α 00 (3.3. ou seja.14) # 1 1 (α − 2)(α − 1)xα−3 e−x/β − β (α − 1)xα−2 e−x/β − β (α − 1)xα−2 e−x/β + β12 xα−1 e−x/β ½ ¸¾ ∙ ¡ α−3 −x/β ¢ 1 2 1 x e (α − 2)(α − 1) − (α − 1)x + 2 x2 = Γ(α)β α β β (¡ ) ¢ ¤ xα−3 e−x/β £ 2 1 β (α − 2)(α − 1) − 2β(α − 1)x + x2 (3.a. Z ∞ Z ∞ Z ∞ 1 1 f (x)dx = xα−1 e−x/β = xα−1 e−x/β dx α Γ(α)β α 0 0 0 Γ(α)β Vamos. 7788 (b) Pr(1 ≤ X ≤ 2) Solução 69 CAPÍTULO 3. calcular as derivadas primeira e segunda de f (x). Usaremos a notação X ∼ gama(α. Logo. resulta a densidade exponencial com parâmetro β. quando α = 1. 17227 ∞ 0 f(x)dx = 2. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS (a) Pr(X > 1) Solução Pr(X > 1) = 1 − Pr(X ≤ 1) = 1 − F (1) = 1 − [1 − e−1/4 ] = e−0.15) = Γ(α)β α β2 " .25 − e−0. Seja X ∼ exp(β).CAPÍTULO 3.3 Distribuição gama 3. Para verificar que a função dada em (3.13) realmente define uma função de densidade. devemos observar inicialmente que A distribuição gama é uma generalização da distribuição exponencial. a distribuição exponencial é um caso particular da densidade gama.5 = 0. portanto.13) ⎪ ⎪ ⎩ 0 se x ≤ 0 Note que. Z = = = = βt βdt 0⇒t=0 ∞⇒t=∞ 70 Pr(1 ≤ = = = X ≤ 2) = Pr(X ≤ 2) − Pr(X < 1) Pr(X ≤ 2) − Pr(X ≤ 1) F (2) − F (1) = [1 − e−2/4 ] − [1 − e−1/4] e−0.

Veja a Figura 3. ou seja. As mesmas observações valem para o caso em que α = 1. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 71 CAPÍTULO 3. o que indica a ocorrência de dois pontos de inflexão. que é uma função do segundo grau.6.6: Ilustração do sinal da derivada segunda da função de densidade gama ver que. Note que para α = 2 só há um ponto de inflexão. a função de densidade gama é√ côncava para cima se x > β(α − 1) + β α − 1 e é côncava para baixo se 0 < x < β(α − 1) + β α − 1. A primeira observação é que. 2]. neste caso a menor raíz é negativa (nula). o gráfico é da distribuição exponencial com parâmetro β = 2 e para qualquer valor de α < 1.Na Figura . Resumindo. neste caso. Mais precisamente. analisar o sinal da derivada segunda da densidade gama. Já a raiz r1 = β α − 1 α − 1 − 1 só √ será positiva se α − 1 − 1 > 0. de modo que α >2 + 0 r1 r2 + h(x) = x2 − 2β(α − 1)x + β 2 (α − 2)(α − 1) Vamos analisar a derivada primeira. o discriminante é sempre positivo.CAPÍTULO 3. a função de ¢ densidade é côncava para cima se¡√ x > β ¢ − 1 α − 1 + 1 ou x < ¢ se ¡√ ¡√ √ √ √ β α − 1 α − 1 − 1 e é côncava para baixo se β α − 1 α − 1 − 1 < x < β α − 1 α − 1 + 1 . f (x) < 0. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 72 1 O sinal da derivada primeira depende do sinal de α − 1 − β x e o sinal da derivada segunda depende do sinal da expressão entre colchetes. a função é negativa (sinal oposto ao de a) para valores de x entre as raízes. se α > 2. Para valores de α maiores que 2. x = β(α − 1) é um ponto de máximo Vamos. Na Figura 3. há dois pontos de inflexão. calculadas da seguinte forma: 2 1 (α − 1)x + 2 x2 = 0 ⇐⇒ β β β 2 (α − 2)(α − 1) − 2β(α − 1)x + x2 = 0 ⇐⇒ √ 2β(α − 1) ± x= ⇐⇒ p 2 2β(α − 1) ± 2β (α − 1)(α − 1 − α + 2) ⇐⇒ x= 2 √ x = β(α − 1) ± β α − 1 ⇐⇒ √ ¡√ ¢ x=β α−1 α−1±1 ¡√ ¢ ¡√ ¢ √ √ A raiz r2 = β α − 1 α − 1 + 1 é sempre positiva. o gráfico terá essa forma. se α ≤ 1. temos que f 0 (x) = 0 ⇔ x = β(α − 1) f 0 (x) < 0 ⇔ x > β(α − 1) f 0 (x) > 0 ⇔ x < β(α − 1) Logo. se α > 2. Assim. ou seja. quando o discriminante é nulo e a equação só tem uma raiz. vemos que o coeficiente do termo quadrático é 1. assim. se α < 1 a densidade gama é decrescente com concavidade para cima. temos duas raizes reais distintas. agora. que é 1. e positiva (mesmo sinal de a) fora das raízes. Vamos analisar agora o caso em que α > 1 : neste caso. aí podemos (α − 2)(α − 1) − 0 α <2 + r1 0 r2 + α =2 + r1 = 0 r2 + Figura 3. para analisar a concavidade da densidade gama: ∆ = 4β 2 (α − 1)2 − 4β 2 (α − 2)(α − 1) = 4β 2 (α − 1) (α − 1 − α + 2) = 4β 2 (α − 1) Se α < 1. o que indica a ocorrência de apenas um ponto de inflexão. No caso em que α > 1. Note que. a concavidade é para cima.7 ilustra-se o efeito do parâmetro α sobre a densidade gama. uma vez que. Aí o parâmetro β está fixo (β = 2) e temos o gráfico para diferentes valores de α. estudando o sinal do discriminante da equação dada pela expressão de h(x). se α ≤ 1 a densidade gama é uma função estritamente decrescente. Isso não ocorre se α < 2 (ou α = 2). a derivada segunda muda de sinal em dois pontos dentro do domínio de definição da densidade gama. essa situação se repetirá para valores de α no intervalo (1. se α > 2 temos a seguinte situação: √ √ ¡√ ¢ ¡√ ¢ f 00 (x) < 0 se β α − 1 α − 1 − 1 < x < β α − 1 α − 1 + 1 √ √ ¡√ ¢ ¡√ ¢ f 00 (x) > 0 se x > β α − 1 α − 1 + 1 ou x < β α − 1 α − 1 − 1 ¡√ ¢ √ α ou seja. o discrirminante é negativo e a equação não tem raízes reais e terá sempre o sinal do coeficiente do termo quadrático. para α = 1. Vamos denotar essa expressão por h(x). ou seja. Considerando a funçãode segundo grau h(x) que define o sinal da derivada segunda. Quando α ≤ 2 √ f 00 (x) < 0 se 0 < x < β(α − 1) + β α − 1 √ f 00 (x) > 0 se x > β(α − 1) + β α − 1 √ ou seja.

45 β =2 = = = 0. o parâmetro α é chamado parâmetro de forma.0 6 8 10 12 14 0 2 4 6 8 10 12 14 Z ∞ 1 (βt)α+1 e−t βdt Γ(α)β α 0 Z ∞ 1 α+2 tα+1 e−t dt αβ Γ(α)β 0 Z ∞ β2 tα+1 e−t dt Γ(α) 0 β2 Γ(α + 2) Γ(α) β2 (α + 1)Γ(α + 1) Γ(α) β2 (α + 1)αΓ(α) Γ(α) 2 β (α + 1)α Figura 3. enquanto o parâmetro β é chamado parâmetro de escala.4 0 5 10 15 20 25 30 Variância Z 1 x2 f(x)dx = α Γ(α)β 0 Z ∞ 1 α+1 −x/β x e dx = Γ(α)β α 0 ∞ 0 De modo análogo.25 0. 0. β) ⇒ E(X) = αβ 0.0 0 2 4 0. 0.3. vemos que o parâmetro α tem grande influência sobre a forma da distribuição.7: Efeito do parâmetro de forma α sobre a densidade gama x2 xα−1 e−x/β dx 3. Dessa forma. α =5 X ∼ gama(α.2 Fazendo a mesma mudança de variável usada anteriormente Z ∞ Se X ∼ gama(α.CAPÍTULO 3. E(X 2 ) = Z ∞ 0 Figura 3. enquanto o parâmetro β tem grande influência sobre a escala (ou dispersão) da distribuição.05 3.4 α =1 0.2 0.2 0.5 β =2 0.5 0.15 α =2 α =4 Z ∞ 1 (βt)α e−t βdt α Γ(α)β 0 Z ∞ 1 β α+1 tα e−t dt Γ(α)β α 0 Z ∞ β tα e−t dt Γ(α) 0 β Γ(α + 1) Γ(α) β αΓ(α) Γ(α) ou seja.3 0.4 0.8: Efeito do parâmetro de escala sobre a densidade gama V ar(X) = β 2 (α + 1)α − (αβ)2 = α2 β 2 + αβ 2 − α2 β 2 = αβ 2 .3 0. Aí o parâmetro α está fixo (α = 2 ou α = 3) e temos o gráfico para diferentes valores de β. então x = t temos que β Z ∞ 0 xxα−1 e−x/β dx E(X 2 ) = = = 0. Analisando essas duas figuras.8 ilustra-se o efeito do parâmetro β sobre a densidade gama. vamos calcular o segundo momento da densidade gama.35 0.3.1 0. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 73 CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS Fazendo a mesma mudança de variável já usada anteriormente E(X) = = x = t temos que β 74 3.3 α =3 β =1 β = 1.1 0.1 0.5 = β =2 = = = Logo.3 Esperança 1 E(X) = xf (x)dx = Γ(α)β α 0 Z ∞ 1 = xα e−x/β dx Γ(α)β α 0 α =2 β =1 β = 1. β) .

se t < β . representaremos este fato por X ∼ χ2 (n). vamos fazer a seguinte mudança de variável: µ ¶α µ ¶α−1 x α x u = =⇒ du = β β β x = 0 =⇒ u = 0. por exemplo) usam um novo parâmetro η em vez de β α . a distribuição gama é conhecida como distribuição de Erlang.7 Distribuição qui-quadrado como caso particular da gama 3. Para mostrar que f define uma densidade. resulta que x = βu e dx = βdu.4.CAPÍTULO 3. se X ∼ χ2 (n).4 etx xα−1 e−x/β dx Distribuição de Weibull Definição 3.2 Esperança e variância ∞ 0 Fazendo α = n . Z ∞ 0 3. então n ×2=n 2 n × 22 = 2n V ar(X) = 2 E(X) = 3. Neste caso. β) =⇒ ⎧ ⎨ ⎩ 75 CAPÍTULO 3.17) ⎪ ⎪ ⎩ 0 se x ≤ 0 Vamos calcular o momento de ordem r : Z E(X r ) = Z α β µ ¶α−1 x e β − x β α xr dx x Fazendo u = β . ou seja. é ⎧ 1 ⎪ ⎪ xn/2−1 e−x/2 se x > 0 ⎨ Γ( n )2n/2 2 f (x) = (3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 76 E(X) = αβ (3.4. fazendo a mudança de variável x>0 (3.3. vamos mostrar que a integral é 1. A densidade qui-quadrado.6 Distribuição de Erlang Quando o parâmetro de forma α é um inteiro positivo. n inteiro. Para tal.1 Uma variável aleatória X tem distribuição de Weibull com parâmetros α > 0 e β > 0 se sua função de densidade de probabilidade é dada por f(x) = α α−1 x e βα − x β α 1 − t > 0.16) V ar(X) = αβ 2 Se X tem distribuição qui-quadrado com n graus de liberdade.18) φX (t) = !α−1 1 u du e−u 1 1 −t −t 0 β β !α Z Ã ∞ 1 1 uα−1 e−u du = 1 Γ(α)β α β − t 0 µ ¶α β 1 Γ(α) = Γ(α)β α 1 − βt 1 Γ(α)β α Z ∞ Ã Note que podemos reescrever essa expressão como µ ¶α−1 α x e f (x) = β β − x β α x>0 (3. então. α β µ ¶α−1 x e β − x β α dx = Z ∞ 0 e−u du = 1 3.19) ou seja. Da esperança e da variância da gama resulta que.5 Função geradora de momentos Por definição 1 φX (t) = E(etX ) = E(X 2 ) = Γ(α)β α Z ∞ 1 1 xα−1 e−x( β −t) dx = Γ(α)β α 0 e essa integral será finita se 1 u = x( β − t) resulta que 1 β Z ∞ 0 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS Resumindo: X ∼ gama(α.3. φX (t) = 1 (1 − βt)α t< 1 β e alguns autores (ver Rohatgi. e β = 2 na densidade gama. logo ∞ 0 ∞ 0 E(X r ) = = Z α β µ ¶α−1 x e β α − x β α xr dx = Z ∞ 0 α α−1 −uα r r u e β u βdu β αuα−1 e−u β r ur du . obtemos a distribuição qui-quadrado com n 2 graus de liberdade.3. x = ∞ =⇒ u = ∞ Dessa forma.

obtemos que E(X) = βΓ Fazendo r = 2 obtemos que µ α+1 α ¶ ¶ 77 CAPÍTULO 3. t = x =⇒ u = β resulta F (x) = Z x 0 Se X ∼ P areto(α. Z ∞ Z ∞ ¡ ¢r e−t β r t1/α dt = β r tr/α e−t dt E(X r ) = 0 ¶ µ Z ∞ Z 0∞ r+α r+α tr/α+1−1 e−t dt = β r t α −1 e−t dt = β r Γ = βr α 0 0 Fazendo r = 1. ou α > 1. pois nesse caso limx→∞ x−α = limx→∞ x1α = 0. α β Fazendo a mudança de variável µ ¶α−1 t e β − t β α Para que essa integral convirja.5 3. µ α+2 α Essa integral converge apenas se −α < 0 ou equivalentemente. portanto. µ ¶ b−α+2 −αbα−α+2 αb2 E(X) = αbα 0 − = = −α + 2 2−α α−2 Logo.5. ¶ µ −αbα−α+1 αb b−α+1 E(X) = αbα 0 − = = −α + 1 1−α α−1 ¯∞ x−α+1 ¯ ¯ −α + 1 ¯b dt 3. ¯∞ Z ∞ µ ¶α+1 Z ∞ α b x−α ¯ ¯ dx = αbα x−α−1 dx = αbα x −α ¯b b b b 3. Satisfeita esta condição. Satisfeita esta condição.5. b) =⇒ αb2 ⎪ V ar(X) = ⎪ ⎩ (α − 1)2 (α − 2) .2 Esperança ¶ ¶¸ ∙ µ µ α+2 α+1 V ar(X) = β 2 Γ − Γ2 α α Se X ∼ P areto(α.4. temos que ¯∞ −α x−α ¯ ¯ = 0 − αbα b = 1 αbα −α ¯b −α Para mostrar que f (x) realmente define uma f. temos que ter −α + 2 < 0. uma vez que f(x) ≥ 0.5.d. b) então Z E(X 2 ) = x2 α b µ ¶α+1 Z b dx = αbα x ∞ b x−α+1 dx = αbα α β µ ¶α−1 t e β − t β α dt = Z ( x )α β 0 3.20) se α > 2 ¯∞ x−α+2 ¯ ¯ −α + 2 ¯b Uma variável aleatória X tem distribuição de Pareto com parâmetros α > 0 e b > 0 se sua função de densidade de probabilidade é dada por ⎧ µ ¶α+1 ⎨ α b se x ≥ b f(x) = ⎩ b x 0 se x < b Resumindo: X ∼ P areto(α. Satisfeita esta condição. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS Fazendo uα = t resulta que u = t1/α e αuα−1 du = dt.3 Variância ∞ b µ ¶α−1 µ ¶α α x x =⇒ du = u = β β β µ ¶α x t = 0 =⇒ u = 0. b) então Z E(X) = ∞ b x α b µ ¶α+1 Z b dx = αbα x ∞ b x−α dx = αbα 3. resta provar que a integral é 1. logo. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 78 E(X 2 ) = β 2 Γ e.p. V ar(X) = µ ¶2 αb2 αb2 (α − 1)2 − α2 b2 (α − 2) αb = − α−2 α−1 (α − 1)2 (α − 2) 2 2 αb [α − 2α + 1 − α(α − 2)] αb2 [α2 − 2α + 1 − α2 + 2α] = = 2 (α − 1) (α − 2) (α − 1)2 (α − 2) 2 αb = (α − 1)2 (α − 2) ⎧ ⎪ ⎪ ⎨ E(X) = αb α−1 se α > 1 (3. temos que ter −α + 1 < 0. α > 0. ou α > 2.CAPÍTULO 3.3 Função de distribuição acumulada F (x) = Z x 0 Por definição.1 Distribuição de Pareto Definição ¯ x α e−u du = −e−u ¯( β ) = 1 − exp 0 ∙µ ¶α ¸ x β Para que essa integral convirja.

Logo. — β=2 Neste caso. Na Figura 3. f (x) define uma função de densidade que é chamada densidade beta com parâmetros α e β. podemos escrever f(x) = Γ(α + β) α−1 x (1 − x)β−1 Γ(α)Γ(β) 0<x<1 1 R α 1 B(α. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 80 3. f 0 (x) > 0 e f 00 (x) > 0. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 79 CAPÍTULO 3. β) A densidade beta assume várias formas. Logo. f 0 (x) < 0 e f 00 (x) < 0. β − 1 < 0 e β − 2 < 0. ou seja. f é estritamente decrescente e convexa. f é estritamente decrescente e estritamente côncava. a densidade beta coincide com a uniforme padrão. β) 0<x<1 (3. Lembrando a relação entre a função gama e a função beta. — 1<β<2 Neste caso. Vamos ver alguns casos: • α=1 Neste caso. ou seja. β) = 1 R 0 A função beta é definida por tα−1 (1 − t)β−1 dt 0<x<1 Então.9 ilustram-se as formas da densidade beta quando α = 1. β) x (1 − x)β−1 dx = =1 B(α. β − 1 > 0 e β − 2 < 0. que é uma reta decrescente. Figura 3.6 Distribuição beta B(α. β. β − 1 > 0 e β − 2 > 0. — β>2 Neste caso. Logo. dependendo dos valores dos parâmetros α.21) f (x)dx = ou seja. f é estritamente crescente e estritamente convexa. f(x) = Logo f (x) = β(β − 1)(β − 2)(1 − x)β−2 00 Γ(β + 1) (1 − x)β−1 = β(1 − x)β−1 Γ(β) f 0 (x) = −β(β − 1)(1 − x)β−2 — β=1 Neste caso. f 0 (x) < 0 e f 00 (x) > 0.parâmetro α = 1 . f(x) = 2(1 − x). se definirmos f(x) = temos que f (x) > 0 e 1 R 0 1 xα−1 (1 − x)β−1 B(α.9: Função de densidade beta . ou seja.CAPÍTULO 3. — β<1 Neste caso. β) 0 B(α.

muitas vezes estamos interessados em conhecer a densidade de uma outra v. então a função de densidade de Y é dada por: ¯ ¯ ¤ ¯ dg−1 (y) ¯ £ ¯ (4.3) Da relação entre a fdp e a fda e da regra da cadeia.a. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS De modo análogo.2 Funções inversíveis Quando a função g é inversível. resulta que fX (w) = fX (−w) = 1 . g0 (x) > 0 e x1 < x2 ⇒ g (x1 ) < g (x2 ) . portanto d d √ √ [FX ( y)] − [FX (− y)] dy dy ¶ µ 1 1 √ 0 √ 0 = FX ( y) √ − FX (− y) − √ 2 y 2 y 1 1 √ √ = fX ( y) √ + fX (− y) √ 2 y 2 y ¡√ ¢ ¡ √ ¢ √ √ y = fX − y = 1 .2): 0 fX (x) = FX (x) (4. Então. portanto 0 0 0 fW (w) = FW (w) = FX (w) − FX (−w)(−1) = = fX (w) + fX (−w) Como 0 ≤ w < 1 e −1 < −w ≤ 0.2) 4. para 0 ≤ w < 1 FW (w) = Pr(W ≤ w) = Pr(|X| ≤ w) = Pr(−w ≤ X ≤ w) = = FX (w) − FX (−w) 82 Capítulo 4 Funções de Variáveis Aleatórias Contínuas Dada uma v.a. conforme ilustrado na Figura 4. Y = g(x) definida como uma função de X.4) . Logo. Solução: Temos que ½ 1 −1<x<1 2 fX (x) = 0 x ≤ −1 ou x ≥ 1 ½ 0 ≤ g(x) < 1 −1 < x < 1 ⇒ 0 ≤ h(x) < 1 Para calcular a fdp de Y = g(X) = X 2 devemos notar que FY (y) = Pr(Y ≤ y) = Pr(X 2 ≤ y) √ √ = Pr (− y ≤ X ≤ y) √ √ = FX ( y) − FX (− y) e. nesse caso.1 Exemplo Se X ∼ Unif (−1. Logo Como 0 ≤ y < 1 e −1 < − y ≤ 0. g(X) ≤ y ⇔ X ≤ g−1 (y). a função de distribuição acumulada de Y é: FY (y) = Pr (Y ≤ y) = Pr (g(X) ≤ y) Mas.1) fY (y) = fX g−1 (y) ¯ ¯ dy ¯ Demonstração: Esse resultado segue diretamente da relação entre as funções de densidade e de distribuição acumulada dada na equação (4. é possível obter uma expressão para a função de densidade de Y . resulta que fX 2 ½ 1 √ se 0 ≤ y < 1 2 y fY (y) = 0 caso contrário fY (y) = 81 Suponhamos inicialmente que g(x) seja crescente. (4.a. contínua com função de densidade fX (x) e seja Y = g(x) uma outra v. e. segue que: Como dg −1 (y) > 0. contínua X com função de densidade fX (x).1. Se a função g(x) é inversível e diferenciável. 1).CAPÍTULO 4. Logo 2 ½ 1 se 0 ≤ y < 1 fW (w) = 0 caso contrário 4. Teorema 4. calcule a densidade de Y = g(X) = X 2 e de W = h(X) = |X| . ¡ ¢ ¤ £ FY (y) = Pr (g(X) ≤ y) = Pr X ≤ g −1 (y) = FX g−1 (y) (4.a.1 Seja X uma v.3) pode ser reescrita como dy ¤ dg −1 (y) ¤ dg−1 (y) £ 0 0 £ fY (y) = FY (y) = FX g −1 (y) = fX g −1 (y) dy dy ¯ ¯ ¤ ¯ dg −1 (y) ¯ £ 0 ¯ fY (y) = FY (y) = fX g−1 (y) ¯ ¯ dy ¯ (4.

FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS 84 Quando g(x) é decrescente. a inversa de y = g(x) = − ln x é g −1 (y) = e−y e. g(X) ≤ y ⇔ X ≥ g−1 (y). para funções crescentes e decrescentes. segue que 0 < Y = − ln X < ∞ (ver Figura 4. contínua temos que ¡ ¢ £ ¤ FY (y) = Pr (Y ≤ y) = Pr (g(X) ≤ y) = Pr X ≥ g −1 (y) = 1 − Pr X < g −1 (y) ¤ £ −1 ¤ £ = 1 − Pr X ≤ g−1 (y) = 1 − FX g (y) e.a. isto é: y fX (x) = g(X ) ≤ y Defina Y = − ln X.d. 4. Por outro lado.5) pode ser reescrita como dg −1 (y) < 0 (lembre que estamos considerando g decrescente agora). vale notar que que g 0 (x) < 0 e. de Y é ¯ £ ¤ ¯ fY (y) = fX e−y × ¯−e−y ¯ = 1 × e−y ⇒ fY (y) = e−y uma vez que fX (x) = 1 no intervalo (0. portanto.1.2.1: Função inversa de uma função crescente Os resultados (4. como X é uma v.5) y g( X ) ≤ y Como X ≤ g −1 ( y ) g −1 ( y ) e (4. então 0 < e−y < 1 e a f.1 Exemplo ½ 1 se 0 < x < 1 0 se x ≤ 0 ou x ≥ 1 Seja X ∼ Unif (0.6) Figura 4. Dessa forma. de Y. como 0 < x < 1. Então. Figura 4. conforme ilustrado na Figura 4. Quando a função não é monotóna. 1).4) e (4.p. g −1 ( y ) X ≥ g −1 ( y ) dg −1 (y) = −e−y dy Como 0 < y < ∞.2: Função inversa de uma função decrescente . podem ser reunidos para completar a prova do teorema.CAPÍTULO 4. não podemos aplicar o teorema acima e nem sempre conseguiremos obter uma expressão usando os recursos vistos neste curso.d.3).p. 1).2.6). A função g(x) = − ln x é estritamente decrescente e podemos aplicar o Teorema 4. resulta dy ¯ ¯ dg −1 (y) ¯ dg −1 (y) ¯ ¯ − =¯ ¯ dy ¯ dy ¯ ¯ ¤ ¯ dg −1 (y) ¯ £ 0 ¯ fY (y) = FY (y) = fX g−1 (y) ¯ ¯ dy ¯ (4. Vamos calcular a f. portanto ¤ dg −1 (y) ¤ dg−1 (y) £ 0 0 £ fY (y) = FY (y) = −FX g −1 (y) = −fX g −1 (y) dy dy (4. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS 83 CAPÍTULO 4.

resulta que −2.2. 4 × (−2.a. 6)3 5 3 [−0. que define uma reta. 6. 6 ≤ y ≤ −0. 2 + 0. Como −1 ≤ x ≤ 0. 0321 − 0. 10 4. Se Y = g(X) = aX + b. 6 ≤ y ≤ −0. 6. 6)2 dy = y + 1. 6 E(Y ) = 1 0 0 -1 -2 1 2 3 4 5 = = = = Figura 4. 2 + 0.6 # " (−0. 2y 2 + 0. 4 × (−0. contínua com densidade fX (x). 4244 + 7. 6)3 − 0.6 ¡ 4 y 2 (y + 0. 6 ≤ y ≤ −0.CAPÍTULO 4. 36y 2 dy 8 8 −2. 6)4 − 0.6 ∙ ¸−0. 0648 − 11.6 y3 y2 3 y4 + 1. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS ou seja µ Z ¶2 86 4 fY (y) = 3 3 2 y + 0. 6)2 4 3 [0.3: Gráfico da função Y = g(X) = − ln X Z Z ¢ 3 3 −0.6)5 3 + 0.6)4 3 + 0. 2y 3 + 0. 750032 −0. 02592 + 23.6) − 0. 6 fY (y) = fX 2 2 . Se X é uma v. 2168] 8 −2. µ ¶ 1 y + 0. então a função inversa é X = g −1 (Y ) = cuja derivada é 1 dg −1 (y) = dy a Logo. 3 × (−2. 10912] 8 12. 6)3 5 5 8 − (−2. 12 × (−0. 6)4 + 0. Logo. bem como sua esperança e sua variância. 6 2 −0. então podemos aplicar o Teorema 4. 6)3 + 0. 10)2 = 7. 6)2 2 8 se − 2.6 −2.1 para calcular a densidade de Y. 0304 − 1. 36 8 4 3 2 −2.6 −2. 01552 + 0. 36 8 5 4 3 −2. 3 × (−0. 03888 − 0. a densidade de Y é fY (y) = fX Exemplo µ ¶¯ ¯ y − b ¯1¯ ¯ ¯ ¯a¯ a (4.6 × 1 3 = (y + 0. 762752 − 13. 18 × (−2. 0864 + 0.2 Transformação linear E(Y 2 ) = = = Consideremos a tranformação Y = aX + b. 6)2 4 4 8 − (−2. 5 Solução: Temos que a = 2 e b = −0. 18 × (−0.6 Se a função de densidade da variável aleatória X é dada por ½ 3x2 se − 1 ≤ x ≤ 0 f(x) = 0 se x < −1 ou x > 0 calcule a função de densidade de Y = 2X − 3 . 6)2 dy = y + 1.6 ¡ 3 y (y + 0.6 y4 y3 3 y5 + 1.6 # " (−0. 6 × se − 2.6 ∙ ¸−0. 160032 − (2.6) − 0. 12 × (−2.7) Y −b a = = Z ¢ 3 3 −0. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS 85 CAPÍTULO 4. 36y dy 8 8 −2. 70928 + 2.

87 Capítulo 5 A Distribuição Normal 5. 5. 1). vemos que a função √ exp − 2 2π uma função de densidade.12).3 Variância +∞ 0 Como E(Z) = 0 se Z ∼ N(0. Fazendo: µ 2¶ µ 2¶ x x • x exp − dx = dv ⇒ v = − exp − 2 2 88 . a esperança de Z é: µ 2¶ Z ∞ Z ∞ 1 x dx E(Z) = xϕ(x)dx = √ x exp − 2 2π −∞ −∞ Como ϕ(x) é simétrica em torno do ponto x = 0. 1).1.1 Distribuição normal padrão Definição µ 2¶ 1 t satisfaz as condições para ser Analisando a equação (1.1) 2 2π Vamos denotar por N(0.a.1 5. por definição.1. Por definição. então µ 2¶ Z +∞ Z 1 2 x dx = √ x2 √ exp − V ar(Z) = E(Z 2 ) = 2 2π 2π −∞ µ 2¶ x dx x2 exp − 2 uma vez que o integrando é par. a densidade normal padrão ϕ(x) (note que ϕ(x) > 0) definida por: µ 2¶ 1 x ϕ(x) = √ exp − −∞<x<∞ (5. Essa é. Esta integral é calculada usando o método de integração por partes.CAPÍTULO 4.2 Esperança Seja Z ∼ N(0. sabemos que E(Z) = 0. se uma v. Z é distribuída segundo uma normal padrão. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS . 1).1. 1) a densidade normal padrão e. 5. representaremos esse fato como Z ∼ N(0.

4) Analisando a equação (5.1. Segue. X tem distribuição normal com parâmetros μ e σ 2 : X ∼ N(μ. obtemos que: ¸∙ ¶ ∙ ¸ µ 1 1 (x − μ)2 x−μ f 0 (x) = √ − 2 2(x − μ) = −f (x) (5.5) exp − f(x) = √ 2σ 2 2πσ 2 Usaremos a seguinte notação para indicar que uma v.4 Função geradora de momentos ∙ µ 2 ¶¸ Z ∞ Z ∞ 1 1 x − 2tx 2 √ etx e−x /2 dx = √ exp − dx 2 2π −∞ 2π −∞ ¶¸ ∙ µ 2 Z ∞ x − 2tx + t2 − t2 1 √ dx exp − 2 2π −∞ ¶ µ 2 ¶¸ ∙ µ 2 Z ∞ 1 t x − 2tx + t2 √ exp dx exp − 2 2 2π −∞ # " µ 2¶ Z ∞ 1 (x − t)2 t √ dx exp − exp 2 2 2π −∞ 5. σ 2 ) Diz-se.CAPÍTULO 5. então. 2. φZ (t) = = = = 1.a. 3. por X = g(Z) = μ + σZ.1 Características da curva normal lim f (x) = lim f(x) = 0. esse resultado segue diretamente dos resultados x→∞ Por definição. que x = μ é um ponto de máximo e nesse ponto 1 f(μ) = √ 2πσ 2 (5. π ⇒ Var(Z) = 1 2 5. devemos lembrar que (ex )0 = ex e. Assíntotas: x→−∞ sobre a função exponencial dados em (??). 2 Var(Z) = √ × 2π r r µ 2¶ x π dx = x2 exp − 2 2 (5. temos que: " µ ¶ µ ¶2 # 1 x−μ 1 1 1 x−μ × × = √ exp − fX (x) = fZ σ σ 2 σ σ 2π . resulta que µ 2¶ µ 2¶ Z ∞ 1 t u √ du φZ (t) = exp exp − 2 2 2π −∞ µ 2¶ t 1 √ √ = exp 2π 2 2π pelo resultado (1.7).6) e lembrando que f (x) > 0.7) 4 4 σ σ σ (5. 1) e vamos definir uma nova v. (eg(x) )0 = eg(x) g0 (x). A DISTRIBUIÇÃO NORMAL ou ainda: " µ ¶2 # 1 1 x−μ fX (x) = √ exp − 2 σ 2πσ 2 90 ∙ µ 2 ¶¸ Z x − exp − dx + 2 ∞ 0 ∞ 0 µ 2¶ x x2 exp − dx 2 (5.6) exp − 2σ 2 2σ σ2 2πσ 2 Derivando novamente. Aplicando esses resultados à densidade normal.2.2 Distribuição N(μ. σ2 ). φZ (t) = exp µ 2¶ t 2 5. pode-se ver que: f 0 (x) = 0 ⇔ x = μ e assim.16) e (1. então.3) e essa é a densidade da normal N(μ. tem densidade normal com parâmetros μ e σ 2 . obtemos: ¶ ¶¸ ∙ ¸ µ ∙ µ 1 x−μ 1 x−μ x−μ 00 − f (x) 2 = − −f(x) − f(x) 2 = f (x) = −f 0 (x) σ2 σ σ2 σ2 σ ∙ ¸ ¸ ∙ (x − μ)2 1 (x − μ)2 − σ 2 = f(x) − f (x) 2 = f (x) (5. uma variável aleatória contínua X. definida para todos os valores da reta real.a. Simétrica em torno de μ. (5.2) Pelos resultados (1. Como f 0 (x) > 0 para x < μ e f 0 (x) < 0 para x > μ. pela regra da cadeia. em que σ > 0. Ponto de máximo Para calcular a primeira e segunda derivadas de f (x). x = μ é um ponto crítico.11) r µ 2¶ Z ∞ Z x π + dx =⇒ x2 exp − 0=− 2 2 0 Logo. σ 2) Seja Z ∼ N(0. onde −∞ < μ < ∞ e 0 < σ 2 < ∞. Logo. então f é crescente à esquerda de μ e decrescente à direita de μ.8) Fazendo a mudança de variável x − t = t.11). que. Usando o resultado (4. se sua função de densidade de probabilidade é dada por ¸ ∙ (x − μ)2 1 −∞<x<∞ . A DISTRIBUIÇÃO NORMAL • x = u ⇒ dx = du resulta que: µ 2 ¶¯∞ Z x ¯ ¯ = −x exp − 2 ¯0 ∞ 0 89 CAPÍTULO 5. note que f (μ − x) = f (μ + x) .

A DISTRIBUIÇÃO NORMAL 92 5. que são medidas de posição e dispersão respectivamente. f (x) > 0 ⇔ (x − μ)2 > σ 2 ⇔ |x − μ| > σ ⇔ ⇔ x − μ > σ ou μ−x>σ ⇔ x > μ + σ ou x<μ−σ e f (x) < 0 ⇔ (x − μ) < σ ⇔ |x − μ| < σ ⇔ ½ x−μ<σ ⇔ ⇔μ−σ <x<μ+σ μ−x<σ 00 00 00 91 CAPÍTULO 5. f(x) é côncava para cima se x > μ + σ ou x < μ − σ e é côncava para baixo quando μ − σ < x < μ + σ. O efeito é que a densidade com maior variância é mais dispersa e achatada. mas variâncias diferentes.13) (5. Na Figura 5.14) (5.a.4 N(3.2 temos exemplos de densidades normais com a mesma variância.2. mais “espalhada” e mais “achatada” é a curva.2 0. portanto.Aí a linha pontilhada central representa o eixo de simetria e as linhas pontilhadas laterais passam pelos pontos de inflexão 3 ± 1. resulta que a função geradora de momentos de X é dada por 2 2 φX (t) = eμt φZ (σt) = eμt eσ t /2 ou seja. A questão é que a forma é sempre a de um “sino”. tem-se que: f (x) = 0 ⇔ (x − μ)2 = σ 2 ⇔ |x − μ| = σ ⇔ Além disso.3 Função geradora de momentos 0. em que Z ∼ N(0. que se X ∼ N (μ.1 Se X ∼ N(μ. Logo. então. Vimos que E(Z) = 0 e V ar(Z) = 1.CAPÍTULO 5. Das propriedades de média e variância. σ 2 ) então E(X) = μ + σE(Z) = μ + 0 ⇒ E (X) = μ e Var (X) = σ2 Var (Z) = σ 2 × 1 ⇒ Var (X) = σ 2 (5. σ2 ) . Valores diferentes de μ deslocam o eixo de simetria da curva e valores diferentes de σ 2 mudam a dispersão da curva. σ2 ) então X = σZ + μ. sabemos que. 1). é inversamente proporcional a σ 2 . σ2 (5. mas com médias diferentes.3 0. se X é uma v. temos duas densidades com a mesma média.8).12) ¢ ¡ Parâmetros da N μ. mais “espalhada” é a curva. O efeito é o “delocamento” da densidade. µ ¶ σ 2 t2 φX (t) = exp μt + 2 0. e k1 6= 0 e k2 são constantes quaisquer.5 2 ¢ ¡ X ∼ N μ. quanto maior σ 2 . 0. dado pela equação (5. σ 2 =⇒ ½ E(X) = μ V ar(X) = σ 2 Os parâmetros da densidade normal são. então X = μ + σZ.9) Se X ∼ N (μ. Na Figura 5.11) Resumindo: Logo. Note que φX (0) = 1.7). A DISTRIBUIÇÃO NORMAL 4. Como X é uma transformação linear de Z.15) 2 2 (5. Já na Figura 5. 1) com função geradora de mometnos dada 2 por φZ (t) = et /2 .3. mas o ponto de máximo. então.0 -5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10 Figura 5.10) Resulta. a média e a variância. onde Z ∼ N (0.1 é apresentado o gráfico da densidade normal no caso em que μ = 3 e σ = 1.1: Densidade normal com média μ = 3 e variância σ2 = 1 e. 0. Quanto maior σ 2 .2. então E(k1 X + k2 ) = k1 E(X) + k2 2 Var(k1 X + k2 ) = k1 Var (X) (5.2 ½ x=μ+σ x=μ−σ (5.1) 5. Calculando a derivada primeira tem-se que ¢ ¡ φ0X (t) = φX (t) μ + tσ 2 E(X) = φ0X (0) = φX (0) (μ) = μ . Pontos de inflexão Analisando a segunda derivada dada por (5.

1) e N(3. A DISTRIBUIÇÃO NORMAL 93 CAPÍTULO 5.16) exp − F (x) = 2 σ 2πσ 2 −∞ para a qual não existe uma antiderivada em forma de função elementar. para calcular probabilidades do tipo acima. no caso da normal.4 N(3. 5. da normal é calculada por integração numérica. Vamos denotar por Φ(z) a f.1) 5.1) V ar(X) = σ 2 0. essa probabilidade. é necessária a aplicação de métodos 2 numéricos. X é definida por FX (X) = Pr (X ≤ x) .a. essa função é dada pela integral " µ ¶2 # Z x 1 t−μ 1 √ dt (5.4 0. Com auxílio dessa função.3: Exemplos de densidades normais com mesma média e variâncias diferentes .4) 0.2 5. para as densidades N(0.d. 0. tabular Pr(X ≤ x) para qualquer valor de x. 2) ilustrados na Figura 5. Todos os pacotes estatísticos possuem rotinas especiais para esse cálculo. Assim. 1).4.2: Exemplos de densidades normais com mesma variância e médias diferentes 0.d. Por definição da função de densidade.3 Função de distribuição acumulada 0.1) 0.1 0. sendo possível. é dada por: " µ ¶2 # Z b 1 1 x−μ √ dx exp − Pr(a ≤ X ≤ b) = 2 σ 2πσ 2 a No entanto.1 0.a. que dá a área sob a curva compreendida entre os pontos a e b.3 0. portanto 94 0. é necessário calcular probabilidades de quaisquer eventos.a.2 Tabulação da distribuição normal padrão N(3.NORM calcula Pr (X ≤ x) para qualquer x e para quaisquer valores dos parâmetros μ e σ. Figura 5.CAPÍTULO 5. a função DIST. sempre teremos Φ(μ) = 0. então.3 N(3. obtemos os seguintes gráficos da f. Mas como podemos Figura 5. No caso da densidade normal. tais como Pr (a ≤ X ≤ b) .d.5 0. não pode ser calculada pelos procedimentos usuais.0 -5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10 Para completar o estudo da distribuição normal.0 -5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10 A função de distribuição acumulada de qualquer v.4 N(0. a dificuldade está no fato de que aí não podemos aplicar o Teorema Fundamental do Cálculo. já que não existe uma função elementar cuja derivada seja µ 2¶ x exp − . da densidade normal padrão. pela simetria da densidade em torno da média μ.17) 2 2π −∞ −∞ Note que. A DISTRIBUIÇÃO NORMAL Calculando a derivada segunda: ¡ ¢ φ00 (t) = φ0X (t) μ + tσ 2 + σ 2 φX (t) X E(X 2 ) = φ00 (0) = φ0X (0) (μ) + σ 2 φX (0) = μ2 + σ 2 X e. a f. No EXCEL. tal integral. N(3. Assim.a. isto é: µ 2¶ Z z Z z 1 t Φ(z) = ϕ(t)dt = √ exp − dt (5.5 Logo.

no gráfico superior. A DISTRIBUIÇÃO NORMAL 1. tem-se o valor de Φ(z) = Pr(Z ≤ z). De fato. já foi visto que se X ∼ N (μ. utilizando as densidades Z ∼ N(0. que são as tabelas usuais para a distribuição normal padrão.1) 1. Na Tabela 1 é dada a distribuição acumulada: para cada valor de z.CAPÍTULO 5. para cada z > 0. só é necessário tabular a distribuição normal padrão. assim. tab(z) = Pr(0 ≤ Z ≤ z). seria necessária a geração de uma tabela para cada par μ. Essas rotinas foram utilizadas para construir os gráficos anteriores e também as tabelas do Anexo. No gráfico inferior a área sombreada representa Pr(X ≤ 5) e.0 -6 -4 -2 0 2 4 6 8 10 Figura 5.0 N(3. Figura 5. a área sombreada representa a probabilidade equivalente: ¶ µ 5−3 X −3 ≤ = Pr(Z ≤ 1) Pr(X ≤ 5) = Pr 2 2 O que o resultado diz é que essas áreas (probabilidades) são iguais.NORMP lida com a normal padrão. 1) e X ∼ N(3.1) 0. A função DIST.5 ilustra-se esse fato.2 0. σ2 ) . por exemplo. então X = μ + σZ. Na Tabela 2. 4).5: Ilustração da propriedade (5.6 N(3.4 0. A DISTRIBUIÇÃO NORMAL 96 N(0. onde Z ∼ N(0. há duas funções para cálculo de probabilidades de normais.2) 0. Vamos ver como utilizar esse resultado para calcular probabilidades da normal. enquanto a função DIST.NORM lida com normais de parâmetros quaisquer. Esse resultado mostra que probabilidades de qualquer variável normal podem ser obtidas a partir de probabilidades da normal padrão e. 1). usa-se o fato de a distribuição normal ser simétrica para “economizar” no tamanho da tabela e apresenta-se. pois o resultado a seguir garante que probabilidades de qualquer variável normal podem ser calculadas a partir das probabilidades da normal padrão. Mas isso não é preciso. Temos que µ ¶ µ ¶ µ ¶ X −μ x−μ x−μ x−μ Pr (X ≤ x) = Pr ≤ = Pr Z ≤ =Φ (5. qualquer livro de estatística apresenta alguma versão de tal tabela e programas de computador também podem ser usados para tal.18) σ σ σ σ Na Figura 5.8 0.2 95 CAPÍTULO 5.18) . No EXCEL. σ.4: Função de distribuição acumulada de várias densidades normais ter diferentes valores para os parâmetros μ e σ.

5 Exemplos Seja Z ∼ N(0. Pela Tabela 1. Figura 5. temos que Pr (1 ≤ Z ≤ 2. 34134 Pela Tabela 2. 5) = tab(2. 5 − Pr (0 ≤ Z ≤ 2) = 0. 34134 + 0. 34134 Pela Tabela 2. 97725 − 0. Pr (−1 < Z < 2) Essa probabilidade corresponde à área sombreada na Figura 5. temos que (note a simetria das áreas!) Pr (−1 < Z < 0) = Pr(−1 ≤ Z ≤ 0) = Pr(0 ≤ Z ≤ 1) = tab(1) = 0. 5) − Φ(1) = 0. 15866 = 0. Pr(−1 ≤ Z ≤ 0) Essa probabilidade corresponde à área sombreada na Figura 5.6: Cálculo de probabilidades normais . Pela Tabela 1.9. 97725 = 0. Pela Tabela 1. 5 = 0. 15245 Pr (Z > 2) = 1 − Pr(Z ≤ 2) = 1 − Φ(2. 47725 = 0. temos que Pr (Z > 2) = 0. 02275 Figura 5. temos: . 5 − 0.Exemplo 1 2. temos: Pr (0 ≤ Z ≤ 1) = Φ(1) − Φ(0) = 0. 0) − Φ(−1) = 0.6. 5. Pr (Z > 2. 5) Essa probabilidade corresponde à área sombreada na Figura 5. 49379 − 0. Pela Tabela 1. 0) = 0.10. temos que Pr (0 ≤ Z ≤ 1) = tab(1) = 0. 5 − 0.7: Cálculo de probabilidades normais . 81859 Pela Tabela 2. Pr (1 ≤ Z < 2. 15866 = 0. 15245 Pela Tabela 2. temos: Pr (1 ≤ Z ≤ 2. Calcule: 1. 99379 − 0. Pr (0 ≤ Z ≤ 1) Essa probabilidade corresponde à área sombreada na Figura 5. A DISTRIBUIÇÃO NORMAL 97 CAPÍTULO 5. 1). 0) Essa probabilidade corresponde à área sombreada na Figura 5. 02275 Pela Tabela 2. 34134 onde tab(z) representa o valor dado na Tabela 2 correspondente à abscissa z. 84134 = 0. 5) − tab(1) = 0.7. 0) + tab(2. 47725 = 0. temos: Pr (−1 < Z < 2) = Pr(−1 ≤ Z ≤ 2) = Φ(2. 81859 5. 5) = Φ(2. 0) = 1 − 0. Pela Tabela 1.Exemplo 2 3.8. temos: Pr (−1 < Z < 0) = Pr(−1 ≤ Z ≤ 0) = Φ(0) − Φ(−1) = 0. 34134 = 0. 34134 4. temos que Pr (−1 < Z < 2) = Pr (−1 ≤ Z ≤ 2) = Pr (−1 ≤ Z ≤ 0) + Pr (0 ≤ Z ≤ 2) = = Pr (0 ≤ Z ≤ 1) + Pr (0 ≤ Z ≤ 2) = = tab(1. 84134 − 0.CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 98 A partir de qualquer uma delas é possível calcular a probabilidade de qualquer evento associado à distribuição normal.

5) = ≤ √ ≤ √ Pr (−1 ≤ X ≤ 5) = Pr 4 4 4 = 2 Pr (0 ≤ Z ≤ 1.8: Cálculo de probabilidades normais . 02275 Quando a variável tem distribuição normal qualquer. A DISTRIBUIÇÃO NORMAL 100 Figura 5. 86638 8. 4) calcule Pr (−1 ≤ X ≤ 5) .18). 5) = 0. Pela Tabela 1. 7. 5 + 0.Exemplo 4 . A DISTRIBUIÇÃO NORMAL 99 CAPÍTULO 5. Temos que (veja Figura 5.14) µ ¶ −7 − 3 X −3 5−3 √ Pr (−7 ≤ X ≤ 5) = Pr ≤ √ ≤ √ = Pr (−5 ≤ Z ≤ 1) = 4 4 4 = Pr (−5 ≤ Z ≤ 0) + Pr (0 ≤ Z ≤ 1) = = Pr (0 ≤ Z ≤ 5) + tab(1. 5 ≤ Z ≤ 1. Temos que (veja Figura 5. Pr (Z < −1. Se X ∼ N (3. Temos que (veja Figura 5. Se X ∼ N (2. 47725 9. temos: Pr (Z < −1.Exemplo 3 6.13) ¶ µ −1 − (−1) X − (−1) 5 − (−1) √ √ √ = Pr (0 ≤ Z ≤ 2) = Pr (−1 ≤ X ≤ 9) = Pr ≤ ≤ 9 9 9 = tab(2. Se X ∼ N (−1. 43319 = 0. 47725 = 0. 5) Essa probabilidade corresponde à área sombreada na Figura 5.12) ¶ µ X −2 5−2 −1 − 2 √ = Pr (−1. 9) calcule Pr (−1 ≤ X ≤ 5) . 84134 Figura 5. 5) = 2 × tab(1. 5) = Pr(Z ≤ −1. 4) calcule Pr (−7 ≤ X ≤ 5) .CAPÍTULO 5.Exemplo 5 Figura 5. 5 − Pr (0 ≤ Z ≤ 2) = 0. 0) = 0. temos que (note a simetria das áreas!) Pr (Z < −2) = Pr(Z > 2) = 0. 5) = Φ(−1. 5 − 0. 34134 = 0.10: Cálculo de probabilidades normais . basta usar o resultado (5.9: Cálculo de probabilidades normais . 0) = 0. 06681 Pela Tabela 2.11. 5) = 2 × 0.

Exemplo 8 Figura 5. A DISTRIBUIÇÃO NORMAL 102 Figura 5.CAPÍTULO 5.13: Cálculo de probabilidades normais . A DISTRIBUIÇÃO NORMAL 101 CAPÍTULO 5.11: Cálculo de probabilidades normais .12: Cálculo de probabilidades normais .14: Cálculo de probabilidades normais .Exemplo 9 .Exemplo 7 Figura 5.Exemplo 6 Figura 5.

15: Cálculo de probabilidades normais . Se X ∼ N(2. 10 ⇐⇒ Pr Z > − = 0. 40 ⇐⇒ Pr 0 ≤ Z ≤ − 3 3 k−2 − = 1. Temos que (veja Figura 5. Se X ∼ N(2. 10.Exemplo 10 11. acima da média. no corpo da tabela. portanto. 10 ⇐⇒ Pr < = 0. devemos. 95 ⇐⇒ 3 3 µ ¶ µ ¶ k−2 k−2 Pr Z < = 0. Nesse exemplo. 95 ⇐⇒ Pr(Z < 0) + Pr 0 ≤ Z < = 0. queremos encontrar a abscissa correspondente. 3 µ ¶ µ ¶ k−2 k−2 Pr Z < = 0. podemos observar que a abscissa k tem que estar do lado esquerdo da curva. A DISTRIBUIÇÃO NORMAL 10. 10 ⇐⇒ 3 3 ¶ µ ¶ µ k−2 k−2 = 0. Isso significa que a probabilidade de uma v. Solução: Figura 5. Em termos da probabilidade equivalente da normal padrão : µ ¶ µ ¶ X −2 k−2 k−2 Pr(X < k) = 0. 0) = 2 × 0. abaixo da média.64.10.10 acima da abscissa simétrica. acima de − k−2 temos área 0. 10 ⇐⇒ Pr Z < = 0. calcule Pr (μ − 2σ ≤ X ≤ μ + 2σ) . ou seja: k−2 = 1. 84 ⇐⇒ k = −1. 9). Ou seja. Se X ∼ N (μ. ou seja.Exemplo 11 12. ou seja. a abscissa que corresponde à área de 0.10 3 e. encontre o valor de k tal que Pr(X < k) = 0.a. na Tabela 2. 95 ⇐⇒ Pr < = 0.5. 95. 92 3 Note que essa probabilidade não depende dos parâmetros μ e σ. obter a probabilidade equivalente em termos da normal padrão (veja a Figura 5. queremos encontrar a abscissa correspondente.15): ¶ µ μ + 2σ − μ μ − 2σ − μ ≤Z≤ = Pr (μ − 2σ ≤ X ≤ μ + 2σ) = Pr σ σ = Pr (−2 ≤ Z ≤ 2) = 2 × Pr (0 ≤ Z ≤ 2) = = 2 × tab(2. Solução: Aqui. Se abaixo da abscissa k−2 temos área de 0. 84 3 . 5 + tab = 0. 28 ⇐⇒ −k + 2 = 3. como antes. temos que procurar. A DISTRIBUIÇÃO NORMAL 104 Então.64 = 6. normal estar compreendida entre dois desvios padrões em torno da média é sempre 95%! Figura 5. 45 3 3 Como no exemplo anterior. σ2 ) . Nesse exemplo.16): µ ¶ X −2 k−2 Pr(X < k) = 0. 9545 ' 95% 103 CAPÍTULO 5. 64 =⇒ k = 2 + 3 × 1. É fácil ver que essa abscissa é 1.CAPÍTULO 5. 40 ⇐⇒ tab − = 0.5. pela simetria da curva. estamos analisando um problema inverso: dada a probabilidade de um evento. 3 temso que ter área 0. a área entre 0 e − k−2 tem que ser 0. dada a probabilidade de um evento.40. 95 ⇐⇒ tab = 0. 9). Para resolver este problema. encontre o valor de k tal que Pr(X < k) = 0. 47725 = 0. 10 3 3 3 Veja a Figura 5. 95 ⇐⇒ 3 3 µ ¶ µ ¶ k−2 k−2 0. podemos observar que a abscissa k tem que estar do lado direito da curva. uma vez que a probabilidade abaixo dela tem que ser menor do que 0.16: Determinação de abscissas de curvas normais . uma vez que a probabilidade abaixo dela tem que ser maior do que 0.45.17.

se Y tem distribuição log-normal. Temos que: ¡ ¢ FY (y) = Pr (Y ≤ y) = Pr eX ≤ y = Pr (X ≤ ln y) = µ ¶ µ ¶ X −μ ln y − μ ln y − μ = Pr ≤ = Pr Z ≤ σ σ σ µ ¶ ln y − μ = Φ y>0 σ Sabemos que fY (y) = F 0 (y) e. Vamos calcular a f. também.p.a.17: Determinação de abscissas de curvas normais . µ ¶ µ ¶ ln y − μ 1 ln y − μ 1 =ϕ = × × fY (y) = Φ0 σ σy σ σy " µ ¶2 # 1 1 ln y − μ 1 × = √ exp − 2 σ σy 2π et exp − " 1 2 µ t−μ σ ¶2 # ) Ã ! ( ∞ µ ¶ Z 2 2 μ2 (μ + σ2 ) 1 [t − (μ + σ 2 )] = exp − 2 √ exp dt exp − 2σ 2σ 2 2σ 2 2πσ 2 −∞ !⎡ ) ⎤ Ã ( ∞ Z 2 2 μ2 (μ + σ 2 ) ⎣ 1 [t − (μ + σ 2 )] √ dt⎦ = exp − 2 + exp − 2σ 2σ 2 2σ 2 2πσ 2 −∞ −∞ . no caso da normal padrão. pela regra da cadeia.6 5.6. então X = ln Y tem distribuição N(μ.2 Esperança Z " µ ¶2 # 1 1 ln y − μ dy y √ exp − 2 σ y 2πσ 2 A esperança de Y é: E(Y ) = Fazendo a mudança de variável • t = ln y ∞ 0 temos que • y = 0 ⇒ t = −∞ Figura 5.6. Note que Y só pode assumir valores positivos. portanto 1 E(Y ) = √ 2πσ 2 = = = = " # µ ¶2 Z ∞ 1 1 t−μ dt = √ exp − + t dt 2 σ 2πσ 2 −∞ −∞ ∙ 2 ¸ Z ∞ 2 2 t − 2tμ + μ − 2σ t 1 √ exp − dt = 2σ 2 2πσ 2 −∞ ¸ ∙ 2 Z ∞ 1 t − 2t (μ + σ 2 ) + μ2 √ dt exp − 2 2σ 2 2πσ −∞ ¸ µ ¶ ∙ 2 Z ∞ 1 μ2 t − 2t (μ + σ 2 ) √ exp − 2 dt = exp − 2σ 2 2σ 2πσ 2 −∞ # " ∞ ¶ µ Z 2 2 2 2 1 t − 2t (μ + σ 2 ) + (μ + σ 2 ) − (μ + σ 2 ) μ dt exp − exp − 2 √ 2σ 2σ 2 2πσ 2 Z ∞ Seja X ∼ N(μ. Se definimos uma nova v. Y = e então diz-se que Y tem distribuição lognormal com parâmetros μ e σ 2 . σ ). log-normal a partir de sua função de distribuição acumulada.CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL ou ainda: " µ ¶2 # 1 1 ln y − μ fY (y) = √ exp − 2 σ y 2πσ 2 106 y>0 5. Reciprocamente.d. Φ0 (z) = ϕ(z). de uma v.1 A distribuição log-normal Definição 2 X • y = et e.a. σ2 ).Exemplo 12 • y=∞⇒t=∞ 1 • dt = y dy 5. A DISTRIBUIÇÃO NORMAL 105 CAPÍTULO 5. Logo.

1) e considere Y = Z 2 . logo. portanto: ! à µ 2 ¶ 2 −μ + μ2 + 2μσ2 + σ 4 (μ + σ 2 ) μ2 = exp ⇒ E(Y ) = exp − 2 + 2σ 2σ 2 2σ 2 ¶ µ σ2 (5. A DISTRIBUIÇÃO NORMAL 107 CAPÍTULO 5. Logo.19) E(Y ) = exp μ + 2 5.3 Variância Vamos calcular de modo análogo E(Y 2 ).6. portanto fY (y) = = = = = = = √ √ d d [Φ ( y)] − [Φ (− y)] dy dy ¶ µ 1 1 √ √ Φ0 ( y) √ − Φ0 (− y) − √ 2 y 2 y 1 1 √ √ ϕ ( y) √ + ϕ (− y) √ 2 y 2 y à ¡√ ¢2 ! à ¡ √ ¢2 ! − y y 1 1 1 1 √ exp − √ + √ exp − √ 2 2 y 2 2 y 2π 2π ∙ ³ y´ 1 ¸ 1 2 × √ exp − √ 2 2 y 2π ³ y´ 1 √ √ exp − y −1/2 2 π 2 1 ¡ ¢ y 1/2−1 e−y/2 Γ 1 21/2 2 Como antes.CAPÍTULO 5. h 2i Var(Y ) = m2 eσ − 1 108 Mas o termo entre os colchetes externos é a integral de uma densidade normal com média λ = (μ + σ2 ) e variância σ 2 . ! à µ 2 ¶ 2 μ2 (μ + 2σ 2 ) −μ + μ2 + 4μσ2 + 4σ 4 = exp ⇒ E(Y 2 ) = exp − 2 + 2 2 2σ 2σ 2σ ¡ ¢ E(Y 2 ) = exp 2μ + 2σ 2 . temos que m2 = exp (2μ + σ 2 ) .20) 5. essa integral é 1 e. Logo. A DISTRIBUIÇÃO NORMAL e ¶¸2 ∙ µ ¡ ¢ σ2 Var(Y ) = exp 2μ + 2σ2 − exp μ + = 2 ¶¸ ∙ µ 2 ¢ ¡ σ = = exp 2μ + 2σ2 − exp 2 μ + 2 ¡ ¢ ¡ ¢ = exp 2μ + 2σ2 − exp 2μ + σ 2 ¸ ∙ ¡ ¢ exp (2μ + 2σ 2 ) = exp 2μ + σ 2 −1 = exp (2μ + σ 2 ) ¡ ¢£ ¡ ¢ ¤ 2 = exp 2μ + σ exp 2μ + 2σ 2 − 2μ − σ 2 − 1 = ¤ ¢£ ¡ = exp 2μ + σ 2 exp σ 2 − 1 ³ ´ 2 Definindo m = E(X) = exp μ + σ2 . o termo entre os colchetes externos é 1 porque é a integral de uma densidade normal com média μ + 2σ 2 e variância σ 2 .7 Exemplo: qui-quadrado e normal FY (y) = = = = Pr(Y ≤ y) = Pr(Z 2 ≤ y) √ √ Pr (− y ≤ Z ≤ y) √ √ FZ ( y) − FZ (− y) √ √ Φ ( y) − Φ (− y) Seja Z ∼ N(0. Para y > 0 temos e. usando a mesma transformação: " µ ¶2 # Z ∞ 1 1 ln y − μ dy y2 √ exp − E(Y 2 ) = 2 σ y 2πσ 2 0 # " " # µ ¶2 µ ¶2 Z ∞ Z ∞ 1 1 t−μ 1 t−μ 1 2t dt = √ e exp − exp − + 2t dt = √ 2 σ 2 σ 2πσ 2 −∞ 2πσ 2 −∞ ¸ ∙ 2 Z ∞ t − 2tμ + μ2 − 4σ 2 t 1 dt = exp − = √ 2 2σ 2 2πσ −∞ ¸ ∙ 2 Z ∞ 1 t − 2t (μ + 2σ 2 ) + μ2 = √ dt exp − 2 2σ 2 2πσ −∞ ¸ µ ¶ ∙ 2 Z ∞ 1 μ2 t − 2t (μ + 2σ 2 ) = √ exp − 2 dt = exp − 2σ 2 2σ 2πσ 2 −∞ # " ∞ ¶ µ Z 2 2 2 2 1 t − 2t (μ + 2σ2 ) + (μ + 2σ 2 ) − (μ + 2σ2 ) μ dt exp − = exp − 2 √ 2σ 2σ 2 2πσ 2 ) à ! ( ∞ ¶ µ Z 2 2 (μ + 2σ2 ) 1 μ2 [t − (μ + 2σ2 )] exp dt = exp − 2 √ exp − 2σ 2σ 2 2σ 2 2πσ 2 −∞ !⎡ ) ⎤ à ( ∞ Z 2 2 μ2 (μ + 2σ 2 ) ⎣ 1 [t − (μ + 2σ2 )] √ dt⎦ = exp − 2 + exp − 2σ 2σ 2 2σ 2 2πσ 2 −∞ −∞ (5.

1 -3.02330 0.10204 0.02743 0.00094 0.00866 0.08851 0.24825 0.00022 0.7 -2.23270 0. 1).7 -1.13350 0.45620 0.00029 0.00604 0.00212 0.21770 0.14007 0.17619 0.00734 0.34090 0.01539 0.5 -0.00022 0.00118 0.02385 0.2 -0.07493 0.26109 0.5 -2.44433 0.03288 0.00695 0. A DISTRIBUIÇÃO NORMAL Comparando com a densidade qui-quadrado dada em (3.30854 0.07780 0.06552 0.03593 0.00914 0.03673 0.05592 0.02500 0.00027 0.00064 0.32276 0.20327 0.39743 0.01831 0.00964 0.43251 0.00090 0.30153 0.00639 0.00336 0.08692 0.00048 0.18141 0.00019 0.00508 0.28096 0.10935 0.01255 0.00047 0.17106 0. então Z 2 ∼ χ2 (1).00181 0.00379 0.00453 0.00326 0.35942 0.00307 0.07078 0.05370 0.38591 0.00139 0.02938 0.06301 0.04846 0.6 -2.00990 0.00676 0.34827 0.17879 0.00248 0.28434 0.02222 0.48006 4 0.06681 0.00391 0.14231 0.00219 0.34458 0.01876 0.39358 0.00126 0.08226 0.00226 0.04093 0.11702 0.14686 0.00035 0.02680 0.00554 0.00017 0.03836 0.38974 0.45224 0.00199 0.11314 0.01578 0.00045 0.05938 0.46812 7 0.19489 0.36317 0.30503 0.0 -1.01017 0.46017 0.00107 0.00097 0.8 -0.00135 0.00440 0.18673 0.09510 0.2 -1.04648 0.00032 0.00159 0.00019 0.09853 0.00714 0.38209 0.07215 0.00523 0.00368 0.46414 Z ~ N (0.00820 0.40129 0.00256 0. .CAPÍTULO 5.16354 0.48803 2 0.01287 0.04551 0.9 -2.05262 0.27093 0.15151 0.00357 0.00038 0.00842 0.01321 0.5 -1.00036 0.36693 0.00104 0.13136 0.9 -1.13786 0.00149 0.+Zn tem distribuição qui-quadrado com n graus de liberdade.00060 0.12100 0.03754 0.00264 0.00657 0.06811 0.01500 0.00240 0.10027 0.41294 0.03438 0.01072 0.01044 0.03144 0.00066 0.03362 0.1 -2.3 -3.29806 0.31918 0.00071 0.37828 0.11123 0.00050 0.01130 0.00043 0.00154 0.19766 0.08534 0.00755 0.27760 0.42074 0.25785 0.00076 0.00939 0.11900 0.48405 3 0.4 -3.12714 0. .3 -0. Zn são variáveis aleatórias 2 2 2 independentes.00021 0.00233 0.44038 0.03005 0.00347 0.12507 0.15625 0.33724 0.14457 0.00289 0.00111 0.6 -0.4 -2. .09680 0.1 0.33360 0. se Z ∼ N(0.00079 0.22965 0.00054 0.00058 0.24196 0.00062 0.02442 0.22363 0.00082 0.23576 0.00889 0.06944 0.09176 0.00018 0.16853 0.04746 0.0 0.16602 0. Este resultado se generaliza da seguinte forma: se Z1 .32997 0.00025 0.17361 0.00114 0.27425 0.41683 0.18406 0.07353 0.02619 0.18943 0.7 -0. .01101 0.42858 0.00427 0.6 -1.10383 0.28774 0.40517 0.01160 0.22065 0.24510 0.00026 0.03216 0.1 -1.37070 0.05705 0.5 -3.00587 0.00798 0.2 -3.4 -1.00131 0.16109 0.04272 0.00169 0. .11507 0.25463 0.00280 0.00023 0.05155 0.00100 0.2 -2.01191 0.15866 0.31207 0.8 -1.26435 0.02018 0.44828 0.40905 0.12302 0.01700 0.05821 0.03074 0.0 -0.43644 0.25143 0.00494 0. então Y = Z1 +Z2 +.01659 0.01786 0.05480 0. Z2 .00466 0.00039 0.0 -2.4 -0.00031 0.37448 0.00776 0.00415 0.00034 0.49601 0 0.15386 0.23885 0.3 -1.02169 0. .31561 0.09342 0.04457 0.00175 0.14917 0.20897 0.13567 0.02275 0.20611 0.01970 0.00028 0.01618 0.00317 0.00164 0.04947 0.06426 0.00480 0.08076 0.01222 0.05050 0.29116 0.35197 0.04182 0.00122 0.00017 0.21476 0.20045 0. ou seja.47210 6 0.21186 0.47608 5 0.50000 .00084 0. A DISTRIBUIÇÃO NORMAL 110 Tabela 1 Função de Distribuição Acumulada Normal Padrão vemos que fY (y) é uma qui-quadrado com 1 grau de liberdade.02068 0.29460 0.00024 0.07636 0.01390 0.00193 0.19215 0.22663 0.1) Φ( z ) = Pr( Z ≤ z ) 8 0.07927 0.49202 1 0.03920 0.03515 0.10749 0.00144 0.00539 0.00040 0.17) f(x) = 1 xn/2−1 e−x/2 Γ( n )2n/2 2 se x > 0 109 CAPÍTULO 5.9 -0.09012 0.00187 0.00621 0.02807 0.06178 0.26763 0.02118 0.02872 0.00087 0.32636 0.00298 0.00069 0.01426 0.00056 0.00402 0.10565 0.00030 0. todas com distribuição normal padrão.00074 0.42465 0.00052 0.02559 0. 9 -3.00042 0.08379 0.8 -2.04006 0.00570 0.06057 0.00272 0.01463 0.00205 0.01743 0.35569 0.01355 0.04363 0.01923 0.12924 0.00020 0.3 -2.

1179 0.4986 0.4817 0.99492 0.99573 0.4990 0.98956 0.93056 0.95053 0.99813 0.6 3.92922 0.65173 0.0080 0.97128 0.4994 0.3554 0.4131 0.88877 0.3869 0.4997 0.4222 0.91924 0.4999 0.1141 0.91774 0.3461 0.79103 0.85543 0.0120 0.4115 0.4671 0.3907 0.81859 0.5 0.99976 0.0279 0.55172 0.2611 0.72907 0.97932 0.1700 0.77035 0.7 1.4988 0.90658 0.1844 0.99983 9 0.93189 0.4932 0.87286 0.99957 0.78814 0.4345 0.2734 0.6 2.99430 0.55567 0.1664 0.4999 0.4573 0.4999 0.59871 0.4664 0.99926 0.3810 0.4986 0.4946 0.99916 0.95449 0.4989 0.3023 0.4564 0.98574 0.50000 0.4382 0.78230 0.3531 0.2967 0.60257 0.4991 0.97558 0.4955 0.4756 0.99918 0.8 0.3686 0.4999 0.98537 0.7 2.4965 0.7 2.99856 0.0793 0.4925 0.1 3.3849 0.4429 0.4998 0.99972 0.99807 0.51994 0.4995 0.1) A tabela dá P(0 < Z < z) 112 Tabela 1 Função de Distribuição Acumulada Normal Padrão Z ~ N (0.61409 0.1255 0.4890 0.6 1.99266 0.99598 0.4996 0.4931 0.99111 0.4545 0.3438 0.56749 0.0557 0.99861 0.4750 0.69146 0.4838 0.4997 0.79673 0.98214 0.2517 0.0832 0.99286 0.3106 0.2704 0.4842 0.97670 0.91466 0.92073 0.4881 0.94845 0.96327 0.4505 0.4850 0.96485 0.4394 0.92647 0.66276 0.95543 0.99711 0.98461 0.71904 0.4936 0.4998 0.1217 0.81594 0.94950 0.4 2.4 0.99934 0.98928 0.4992 0.4992 0.97882 0.4861 0.4961 0.61791 0.4999 0.4989 0.98422 0.4788 0.4656 0.98870 0.4973 0.3078 0.4236 0.93574 0.4706 0.4920 0.4864 0.4887 0.CAPÍTULO 5.4997 0.52790 0.2 2.4015 0.4995 0.4767 0.4960 0.4591 0.96784 0.4625 0.4999 0.87493 0.4998 0.99202 0.81057 0.2881 0.95154 0.2257 0.1985 0.4999 0.4 2.4995 0.4463 0.99224 0.4977 0.4830 0.99931 0.4987 0.2673 0.4989 0.5000 0.99180 0.58317 0.4901 0.4082 0. A DISTRIBUIÇÃO NORMAL Tabela 2 Distribuição Normal Padrão Z ~N().97257 0.89065 0.4738 0.1915 0.98300 0.4998 0.97193 0.3485 0.66640 0.4896 0.4732 0.99893 0.4980 0.3 1.2054 0.99520 0.4761 0.5000 0.99874 0.4998 0.59095 0.54776 0.84375 0.95254 0.2 2.3749 0.83147 0.88298 0.75490 0.4975 0.9 3.4982 0.2852 0.4959 0.83398 0.89435 0.4999 0.0000 0.99940 0.99975 0.4793 0.82639 0.4998 0.98713 0.96562 0.1 0.4994 0.2 3.94062 0.2224 0.51595 0.3413 0.4554 0.4999 0.4998 0.99477 0.4251 0.62172 0.99795 0.8 1.4066 0.76730 0.4279 0.75175 0.0987 0.4032 0.99896 0.98983 0.2 0.88493 0.4949 0.63307 0.4370 0.98500 0.97725 0.4992 0.3830 0.77337 0.4999 0.8 3.4999 0.58706 0.51197 0.77935 0.6 2.99929 0.96712 0.4922 0.99683 0.0910 0.0517 0.73891 0.99962 0.99825 0.4970 0.74857 0.2190 0.99560 0.98030 0.99952 0.2454 0.4999 0.9 4.4292 0.98610 0.4909 0.2422 0.0319 0.83646 0.99413 0.3051 0.4719 0.99924 0.4996 0.95994 0.4962 0.99534 0.87076 0.3944 0.3729 0.4911 0.5 0.4969 0.68793 0.3997 0.99981 6 0.4904 0.99978 3 0.4812 0.89973 0.2823 0.67003 0.64058 0.93448 0.5000 0.2291 0.4357 0.4913 0.4951 0.4927 0.96995 0.4990 0.3708 0.3577 0.99981 7 0.99938 0.2580 0.94738 0.73237 0.99760 0.3340 0.2642 0.70194 0.4772 0.4952 0.92507 0.1 2.4147 0.4984 0.4983 0.93319 0.95818 0.7 0.4993 0.4846 0.99664 0.0948 0.4993 0.99968 0.4929 0.98124 0.6 0.3159 0.99643 0.89251 0.4868 0.99396 0.86433 0.4306 0.61026 0.99910 0.4495 0.99506 0.4099 0.1950 0.99158 0.4 3.4871 0.4977 0.3 0.99953 0.99970 0.4971 0.96638 0.3508 0.93699 0.0438 0.4049 0.7 1.99921 0.4744 0.99752 0.3770 0.4582 0.98809 0.3599 0.0359 0.4633 0.4941 0.99653 0.99245 0.1293 0.4981 0.3 3.57535 0.4987 0.69497 0.2910 0.99973 0.1) Φ( z ) = Pr( Z ≤ z ) Casa inteira e primeira decimal 0.2019 0.4474 0.82381 0.98077 0.3790 0.88686 0.92364 0.99788 0.4999 0.0753 0.8 2.54380 0.4978 0.1 1.4713 0.2157 0.97831 0.82894 0.4991 0.4999 0.53983 0.5 0.0 2. A DISTRIBUIÇÃO NORMAL 111 CAPÍTULO 5.4406 0.99869 0.73565 0.4878 0.99974 0.72240 0.4699 0.4995 0.4 1.0 1.3 2.4332 0.95728 0.5000 1 0.4998 0.5000 0 0.4999 0.99720 0.3 3.4 1.4535 0.62552 0.4693 0.76115 0.94295 0.5000 3 0.0 Segunda casa decimal 0 0.4177 0.50399 0.94408 0.3133 0.67364 0.4 3.87698 0.65542 0.8 0.1 1.99609 0.4997 0.4994 0.1517 0.99978 2 0.4990 0.99944 0.50798 0.86650 0.85993 0.71566 0.8 2.0160 0.4963 0.69847 0.3621 0.5000 0.1 3.84849 0.98257 0.1879 0.86864 0.5000 9 0.80785 0.99982 8 0.90988 0.0 0.4966 0.4783 0.85314 0.99886 0.4974 0.2324 0.99010 0.99966 0.96856 0.3 1.99882 0.1026 0.99851 0.5000 4 0.89617 0.99379 0.5000 0.3289 0.55962 0.2357 0.4192 0.4821 0.99693 0.84614 0.4998 0.4997 0.4916 0.2486 0.99061 0.99889 0.98382 0.1368 0.4972 0.82121 0.99831 0.98778 0.4997 0.93822 0.4968 0.99971 0.64431 0.2088 0.60642 0.3 2.4999 0.4441 0.3962 0.97320 0.90824 0.99906 0.4976 0.0596 0.90320 0.5 3.88100 0.99736 0.4991 0.4996 0.99767 0.83891 0.2389 0.99819 0.4641 0.67724 0.4162 0.98645 0.5000 5 0.4987 0.0 1.99913 0.99965 0.96926 0.99343 0.1554 0.99942 0.75804 0.87900 0.1808 0.99836 0.98679 0.2 1.4319 0.5000 7 0.99964 0.77637 0.56356 0.4999 0.3365 0.4967 0.7 0.1 0.4964 0.4985 0.2 3.2 0.4956 0.4999 0.1103 0.4484 0.4981 0.4994 0.3389 0.98840 0.4798 0.4525 0.4953 0.99878 0.3925 0.86214 0.1443 0.85769 0.99547 0.99846 0.3186 0.99903 0.4999 0.4918 0.79389 0.99979 4 0.99961 0.4265 0.9 2.4875 0.4992 0.64803 0.4999 0.99086 0.9 2.4999 0.0 3.4988 0.4999 0.4997 0.4996 0.62930 0.99461 0.4997 0.5000 0.99960 0.4808 0.52392 0.94630 0.5000 8 0.6 1.4778 0.2 1.95352 0.2123 0.4940 0.70540 0.99841 0.4995 0.1064 0.99865 0.98899 0.92220 0.4997 0.99674 0.4974 0.99728 0.3238 0.99305 0.2794 0.0 3.4857 0.94179 0.4996 0.90147 0.4943 0.57142 0.99955 0.74215 0.5000 0.5000 0.99801 0.74537 0.81327 0.7 3.4998 0.72575 0.4999 0.97062 0.97778 0.4 0.6 0.4649 0.4898 0.4599 0.9 1.78524 0.4948 0.80511 0.4826 0.96164 0.4938 0.5 1.99958 0.4999 0.53586 0.57926 0.70884 0.0199 0.5 2.4993 0.1 2.4999 0.2549 0.2995 0.4906 0.4452 0.92785 0.97500 0.91308 0.4995 0.5000 0.96080 0.84134 0.91149 0.1591 0.97441 0.4998 0.4608 0.96407 0.99977 1 0.2764 0.3315 0.99632 0.85083 0.4207 0.91621 0.1736 0.4686 0.99969 0.0239 0.4945 0.4996 0.76424 0.90490 0.4999 0.95637 0.4803 0.4997 0.89796 0.4998 0.4957 0.99036 0.4834 0.96246 0.5 1.9 3.99324 0.95907 0.80234 0.3643 0.0 2.0675 0.4979 0.4998 0.93943 0.3665 0.4994 0.0714 0.99781 0.97615 0.4985 0.1331 0.4982 0.71226 0.99946 0.59483 0.99900 0.9 1.99134 0.8 1.4854 0.4418 0.3888 0.1406 0.4984 0.4616 0.4893 0.4884 0.5000 0.1628 0.0040 0.4726 0.0 .99702 0.99744 0.3264 0.3212 0.99774 0.5000 6 0.0478 0.99585 0.99980 5 0.99983 0.4934 0.97381 0.0398 0.2939 0.99948 0.99950 0.0636 0.4515 0.68439 0.4999 0.68082 0.98745 0.97982 0.4993 0.65910 0.99361 0.5 2.99621 0.98341 0.3 0.1480 0.0871 0.63683 0.99446 0.94520 0.4999 0.99936 0.79955 0.4678 0.1772 0.5000 2 0.3980 0.4979 0.53188 0.98169 0.

Sign up to vote on this title
UsefulNot useful