P. 1
LIVRO

LIVRO

|Views: 23|Likes:
Published by Jonathas de Melo

More info:

Published by: Jonathas de Melo on Mar 10, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

03/10/2011

pdf

text

original

Heleno Bolfarine

Mˆonica Carneiro Sandoval
INTRODUC¸
˜
AO
`
A INFER
ˆ
ENCIA
ESTAT
´
ISTICA
V
VI
CONTE
´
UDO
PREF
´
ACIO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iv
CAP
´
ITULO 1. ELEMENTOS B
´
ASICOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1. Alguns Modelos Especiais. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1. O modelo normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1
1.1.2. O modelo exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.3. O modelo binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.4. O modelo de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.5. O modelo uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Tipos de Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3. Amostras, Estat´ısticas e Estimadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4. Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
CAP
´
ITULO 2. ESTIMADORES EFICIENTES E ESTAT
´
ISTICAS
SUFICIENTES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.1. Estimadores Eficientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2. Estat´ısticas Suficientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3. Estat´ısticas Conjuntamente Suficientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.4. Fam´ılias Exponenciais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.5. Estimadores Baseados em Estat´ısticas Suficientes . . . . . . . . . . . . . . . . . 39
2.6. Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
CAP
´
ITULO 3. M
´
ETODOS DE ESTIMAC¸
˜
AO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.1. O M´etodo de M´axima Verossimilhan¸ ca . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.2. Propriedades dos Estimadores de M´axima Verossimilhan¸ ca . . . . . . . . 55
3.2.1. Invariˆancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.2.2. Distribui¸ c˜ao em grandes amostras . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.3. Verossimilhan¸ ca para Amostras Independentes . . . . . . . . . . . . . . . . . . . . 59
3.4. O Caso Multiparam´etrico. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.5. Fam´ılia Exponencial e o M´etodo de M´axima Verossimilhan¸ ca . . . . . . 64
3.6. O M´etodo dos Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.7. Estimadores Consistentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.8. Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
CAP
´
ITULO 4. INTRODUC¸
˜
AO
`
A TEORIA DAS DECIS
˜
OES.
OS PRINC
´
IPIOS MINIMAX E DE BAYES . . . . . . . . . . . . . . . . . . . 74
4.1. Os Elementos B´asicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2. O Princ´ıpio Minimax . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.3. O Princ´ıpio de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.4. Estimadores de Bayes com Perda Quadr´atica . . . . . . . . . . . . . . . . . . . . . 54
VII
4.5. Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
CAP
´
ITULO 5. ESTIMAC¸
˜
AO POR INTERVALO . . . . . . . . . . . . . . . . . . . . . . . . 96
5.1. Amostras de Popula¸ c˜oes Normais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
5.2. O M´etodo da Quantidade Pivotal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.3. Intervalos para Popula¸ c˜oes Normais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.3.1. O caso de uma ´ unica amostra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
5.3.2. Duas amostras independentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
5.4. Intervalos de Confian¸ ca Aproximados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
5.5. Intervalos de Confian¸ ca Bayesianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
5.6. Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
CAP
´
ITULO 6. TESTES DE HIP
´
OTESES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6.1. Id´eias B´asicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6.2. Formula¸ c˜ao Estat´ıstica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
6.3. Hip´otese Nula Simples contra Alternativa Simples.
Testes Mais Poderosos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
6.4. Testes Uniformemente Mais Poderosos . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
6.4.1. Hip´otese nula simples contra alternativa composta . . . . . . . . . . 130
6.4.2. Hip´oteses compostas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
6.5. Testes da Raz˜ao de Verossimilhan¸ cas Generalizada. . . . . . . . . . . . . . . . 134
6.6. Testes Bayesianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
6.7. Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
REFER
ˆ
ENCIAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
´
INDICE REMISSIVO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
VIII
PREF
´
ACIO
O objetivo principal deste texto ´e propiciar aos estudantes um material
b´asico para um curso introdut´orio de Inferˆencia Estat´ıstica usualmente minis-
trado em programas de bacharelado em Estat´ıstica. Lecionando h´a v´arios anos
a referida disciplina em cursos de bacharelado e de p´os gradua¸ c˜ao no Departa-
mento de Estat´ıstica do Instituto de Matem´atica e Estat´ıstica da Universidade
de S˜ao Paulo, experimentamos v´arias alternativas did´aticas, mas sempre nos
ressentimos da ausˆencia de textos adequados em portuguˆes e at´e mesmo em
inglˆes para o n´ıvel em quest˜ao. E foi pensando em preencher essa lacuna que
resolvemos elaborar este trabalho, destinado aos estudantes com conhecimentos
b´asicos de probabilidade e c´alculo.
O texto est´a elaborado para um curso de um semestre com seis horas sema-
nais, duas das quais devem ser reservadas para exerc´ıcios.
´
E dividido em seis
cap´ıtulos, tendo no final de cada um uma s´erie de exerc´ıcios.
O Cap´ıtulo 1 ´e dedicado `a descri¸ c˜ao de alguns modelos comumente uti-
lizados em situa¸ c˜oes pr´aticas. S˜ao apresentados m´etodos de compara¸ c˜ao entre
estimadores, com ˆenfase especial ao m´etodo do Erro Quadr´atico M´edio m´ınimo.
O Cap´ıtulo 2 apresenta `a obten¸ c˜ ao de estimadores eficientes, utilizando a
desigualdade da informa¸ c˜ao, a partir da qual se obt´em o limite inferior da
variˆancia dos estimadores n˜ao viciados. Usando esses resultados em alguns
modelos importantes, ´e poss´ıvel a obten¸ c˜ao de estimadores ´otimos, ou seja,
de menor variˆancia. Uma fam´ılia importante em que tais estimadores s˜ao obti-
dos ´e a bem conhecida fam´ılia exponencial de distribui¸ c˜ oes, apresentada no
texto com algum detalhe. A utiliza¸ c˜ao de estat´ısticas suficientes, no sentido de
apresentarem um resumo dos dados sem perda de informa¸ c˜ao, ´e tamb´em consi-
derada nesse cap´ıtulo. Mostra-se tamb´em que estimadores que n˜ao s˜ao fun¸ c˜oes
de estat´ısticas suficientes podem ser melhorados por meio do conhecido Teo-
rema de Rao-Blackwell.
O Cap´ıtulo 3 ´e dedicado a t´ecnicas de obten¸ c˜ao de estimadores, dentre
as quais destacamos os m´etodos de m´axima verossimilhan¸ ca e dos momen-
tos. Propriedades dos estimadores de m´axima verossimilhan¸ ca em grandes
amostras s˜ao tamb´em consideradas. Essas propriedades permitem a realiza¸ c˜ao
de inferˆencias em modelos mais complexos que s˜ao comumente utilizados em
situa¸ c˜oes pr´aticas.
No Cap´ıtulo 4 consideramos as id´eias b´asicas da teoria das decis˜oes, en-
fatizando a importˆancia da fun¸ c˜ao de risco como um meio de obten¸ c˜ao de
bons estimadores. A utiliza¸ c˜ao da fun¸ c˜ao de risco permite a deriva¸ c˜ao de es-
timadores do tipo minimax e tamb´em de estimadores de Bayes, incorporando
uma distribui¸ c˜ao a priori para descrever conhecimentos subjetivos a cerca dos
parˆametros de interesse.
A constru¸ c˜ao de intervalos de confian¸ ca com coeficientes de confian¸ ca exa-
tos e aproximados ´e considerada no Cap´ıtulo 5. Um m´etodo importante de
IX
constru¸ c˜ao de intervalos ´e o uso de quantidades pivotais. Tal enfoque propicia a
constru¸ c˜ao de intervalos exatos para v´ arios modelos importantes e aproximados
em situa¸ c˜oes mais complexas. Intervalos Bayesianos baseados na distribui¸ c˜ao a
posteriori s˜ao tamb´em considerados.
O Cap´ıtulo 6 ´e dedicado `a constru¸ c˜ao de testes de hip´oteses. Testes ´otimos
para o caso de hip´otese nula simples contra alternativa simples s˜ao derivados
a partir do Lema de Neyman-Pearson. Algumas generaliza¸ c˜oes para hip´oteses
compostas s˜ao tamb´em consideradas. Problemas mais complexos que podem
envolver hip´oteses bilaterais s˜ao tratados utilizando a estat´ıstica da raz˜ao de
verossimilhan¸ cas generalizada que, apesar de n˜ao possuir propriedades ´otimas,
leva em geral a bons procedimentos que n˜ao apresentam muita dificuldade de
implementa¸ c˜ao.
N˜ao inclu´ımos no texto tabelas estat´ısticas, pois a ˆenfase maior ´e dada
a problemas te´oricos. No caso de haver necessidade de utiliza¸ c˜ao de tabelas,
sugerimos aos estudantes utilizar as tabelas em Bussab e Morettin (1987).
Agradecemos `as colegas Elisete da Concei¸ c˜ao Quintaneiro Aubin, M´arcia
D’Elia Branco e Silvia Lopes de Paula Ferrari que leram as vers˜oes preliminares
e contribu´ıram com v´arias sugest˜oes. Agradecemos tamb´em `a aluna Jacqueline
Sant’Eufemia David pela elabora¸ c˜ao das figuras.
S˜ao Paulo, setembro de 2000
Heleno Bolfarine e Mˆonica C. Sandoval
1. Elementos B´asicos
1.1 Alguns Modelos Especiais
Nesta se¸ c˜ao consideramos alguns modelos probabil´ısticos que s˜ao comumente
utilizados na an´alise de dados em problemas pr´aticos. O modelo probabil´ısti-
co (ou estat´ıstico) ´e de suma importˆ ancia para inferir resultados da amostra
para a popula¸ c˜ao toda.
´
E importante que, na sele¸ c˜ao do modelo a ser utilizado,
o estat´ıstico tenha em mente que o modelo deve representar, na medida do
poss´ıvel, a complexidade que envolve o mundo real da popula¸ c˜ao em estudo.
Entre os modelos mais utilizados, temos
1.1.1 O modelo normal
Dizemos que X tem distribui¸ c˜ao normal com m´edia µ e variˆancia σ
2
, que
denotamos por X ∼ N(µ, σ
2
), se a fun¸ c˜ao de densidade de probabilidade de X
´e dada por
f(x|µ, σ
2
) =
1

2πσ
e

(x−µ)
2

2
, −∞< x < ∞,
em que −∞< µ < ∞e σ
2
> 0. Nesse caso, µ e σ
2
s˜ao denominados parˆametros
da distribui¸ c˜ao e o suporte de X, isto ´e, A(x) = {x, f(x) > 0}, ´e a reta toda.
Notemos tamb´em que
E[X] = µ e V ar[X] = σ
2
.
Situa¸ c˜oes pr´aticas em que o modelo normal ´e comumente utilizado incluem
caracter´ısticas populacionais, tais como: peso, altura, press˜ao arterial, quociente
de inteligˆencia, etc.
1.1.2 O modelo exponencial
Dizemos que X tem distribui¸ c˜ao exponencial com parˆametro θ, que denotamos
por X ∼ Exp(θ), quando a fun¸ c˜ao de densidade de probabilidade de X ´e dada
por
2 1. Elementos B´asicos
f(x|θ) = θe
−θx
, x > 0,
em que θ > 0. Nesse caso, A(x) = {x, x > 0}. Notemos tamb´em que
E[X] =
1
θ
e V ar[X] =
1
θ
2
.
O modelo exponencial ´e comumente empregado para descrever tempo de vida
de equipamentos. Lembremos que o modelo exponencial tem a bem conhecida
propriedade da falta de mem´oria, ou seja, se o tempo de vida de um equipa-
mento segue a distribui¸ c˜ao exponencial, ent˜ao, em qualquer instante, o equipa-
mento ´e como se fosse novo, n˜ao importando o quanto ele j´a tenha sido utilizado.
1.1.3 O modelo binomial
Dizemos que a vari´avel aleat´oria X tem distribui¸ c˜ao binomial, com parˆametros
n e θ, que denotamos por X ∼ Binomial (n, θ), se sua fun¸ c˜ao de probabilidade
´e dada por
f(x|θ) =

n
x

θ
x
(1 −θ)
n−x
, x = 0, 1, . . . , n,
em que 0 < θ < 1. Nesse caso, o suporte de X ´e discreto e ´e dado por A(x) =
{x, x = 0, 1, . . . , n}. Temos tamb´em que
E[X] = nθ e V ar[X] = nθ(1 −θ).
Lembremos que, se X tem distribui¸ c˜ao Binomial(n, θ), ent˜ao, podemos escre-
ver X = Y
1
+. . . +Y
n
, sendo Y
1
, . . . , Y
n
n vari´aveis aleat´orias independentes e
de Bernoulli, ou seja, a fun¸ c˜ao de probabilidade de Y
i
´e dada por
f(y
i
|θ) = θ
yi
(1 −θ)
1−yi
, y
i
= 0, 1,
i = 1, . . . , n. O modelo binomial (ou de Bernoulli) ´e comumente empregado
em situa¸ c˜oes em que associamos a cada observa¸ c˜ao da amostra dois tipos de
resposta (como, por exemplo, sim e n˜ao, ou sucesso e fracasso) aos quais as-
sociamos os valores 0 e 1. Tais situa¸ c˜oes envolvem, por exemplo, pesquisas
eleitorais, em que os indiv´ıduos na popula¸ c˜ao s˜ao ou n˜ao favor´aveis a determi-
nado partido ou candidato; propor¸ c˜ao de pe¸ cas defeituosas produzidas em uma
linha de produ¸ c˜ao e assim por diante.
1.1.4 O modelo de Poisson
Um outro modelo comumente empregado na pr´atica ´e o modelo de Poisson.
Dizemos que a vari´avel aleat´oria X tem distribui¸ c˜ao de Poisson com parˆametro
1.1 Alguns Modelos Especiais 3
θ, que denotamos por X ∼ Poisson(θ), quando a fun¸ c˜ao de probabilidade ´e
dada por
f(x|θ) =
e
−θ
θ
x
x!
, x = 0, 1, . . . ,
em que θ > 0. Nesse caso, o suporte de X ´e o conjunto A(x) = {x, x = 0, 1, ...}.
Temos tamb´em que,
E[X] = V ar[X] = θ.
O modelo de Poisson ´e bastante utilizado para descrever situa¸ c˜oes que en-
volvem, por exemplo, o n´ umero de chamadas que chegam a uma central
telefˆonica, o n´ umero de part´ıculas α emitidas por uma fonte radioativa ou
o n´ umero de pessoas que chegam a determinada fila, sempre em um intervalo
de tempo fixado.
1.1.5 O modelo uniforme
O modelo uniforme ´e bastante importante do ponto de vista te´orico. Dizemos
que X tem distribui¸ c˜ao uniforme no intervalo (0, θ), que denotamos por X ∼
U(0, θ), se a fun¸ c˜ao de densidade de X ´e dada por
f(x|θ) =

1
θ
, 0 < x < θ,
0, caso contr´ario,
=
1
θ
I
(0,θ)
(x),
θ > 0, em que
I
(0,θ)
(x) =

1, 0 < x < θ,
0, caso contr´ario,
ou seja, I
(0,θ)
(x) ´e a fun¸ c˜ao indicadora do intervalo (0, θ). Notemos que, nesse
caso, A(x) = {x, 0 < x < θ}, ou seja, o suporte da vari´avel X (ou de f(x|θ))
depende do parˆametro θ. No caso dos modelos normal, exponencial, binomial
e de Poisson, isso n˜ao acontece, ou seja, nesses casos, o suporte da distribui¸ c˜ao
de X ´e independente de θ. Temos tamb´em que, se X ∼ U(0, θ), ent˜ao,
E[X] =
θ
2
e V ar[X] =
θ
2
12
.
No decorrer do texto, outros modelos param´etricos, como por exemplo, o mo-
delo uniforme discreto e o modelo gama, ser˜ao apresentados. Veremos tamb´em
que os modelos normal, exponencial, binomial e de Poisson s˜ ao membros de
uma fam´ılia bastante geral de modelos, que ´e a fam´ılia exponencial.
4 1. Elementos B´asicos
1.2 Tipos de Problemas
No presente texto, vamos nos ater exclusivamente a problemas de estima¸ c˜ao e
de testes de hip´oteses.
Defini¸ c˜ao 1.2.1. Seja X uma vari´ avel aleat´ oria com fun¸c˜ ao de densidade (ou
de probabilidade) que abreviamos por f.d.p. (f.p.) e que denotamos por f(x|θ),
em que θ ´e um parˆ ametro desconhecido. Chamamos de inferˆencia estat´ıstica o
problema que consiste em especificar um ou mais valores para θ, baseado em
um conjunto de valores observados de X.
Vamos assumir que a distribui¸ c˜ao da vari´avel aleat´oria X pertence a certa
fam´ılia de distribui¸ c˜oes em que um particular elemento ´e especificado, quando
o valor do parˆametro θ ´e especificado.
No caso de um problema de estima¸ c˜ao, o objetivo ´e procurar, segundo al-
gum crit´erio especificado, valores que representem adequadamente os parˆametros
desconhecidos. No caso de problemas de testes de hip´oteses, o objetivo ´e ver-
ificar a validade de afirma¸ c˜oes sobre um valor (ou valores) do(s) parˆametro(s)
desconhecido(s). Por exemplo, quando o interesse ´e verificar se a propor¸ c˜ao θ
de eleitores de determinado candidato ´e maior que 1/2 (ou 50%), as hip´oteses
a serem testadas s˜ao H
0
: θ ≤ 1/2 versus H
1
: θ > 1/2. Quando estamos
interessados em verificar se o peso m´edio, µ, de pacotes de um quilograma
empacotados por determinada m´aquina realmente ´e um quilograma, ent˜ao, as
hip´oteses a serem testadas podem ser representadas por H
0
: µ = 1 versus
H
1
: µ = 1.
1.3 Amostras, Estat´ısticas e Estimadores
Nesta se¸ c˜ao os conceitos de estat´ıstica e estimador s˜ao introduzidos. Crit´erios
para a compara¸ c˜ao de estimadores s˜ao tamb´em considerados.
Defini¸ c˜ao 1.3.1. O conjunto de valores de uma caracter´ıstica (observ´ avel)
associada a uma cole¸c˜ ao de indiv´ıduos ou objetos de interesse ´e dito ser uma
popula¸c˜ ao.
Qualquer parte (ou subconjunto) de uma popula¸ c˜ao ´e denominada uma
amostra. De maneira mais formal, temos
Defini¸ c˜ao 1.3.2. Uma sequˆencia X
1
, . . . , X
n
de n vari´ aveis aleat´ orias indepen-
dentes e identicamente distribu´ıdas (i.i.d.) com fun¸c˜ ao de densidade (f.d.p.) ou,
no caso discreto, fun¸c˜ ao de probabilidade (f.p.) f(x|θ) ´e dita ser uma amostra
aleat´ oria de tamanho n da distribui¸c˜ ao de X. Nesse caso, temos,
1.3 Amostras, Estat´ısticas e Estimadores 5
(1.3.1) f(x
1
, . . . , x
n
|θ) =
n
¸
i=1
f(x
i
|θ) = f(x
1
|θ) . . . f(x
n
|θ).
Conclu´ımos, a partir da Defini¸ c˜ao 1.3.2, que usamos a amostra X
1
, . . . , X
n
para obter informa¸ c˜ao sobre o parˆametro θ. A fun¸ c˜ao de densidade (ou de
probabilidade) conjunta dada em (1.3.1) ´e denominada fun¸ c˜ao de verossimi-
lhan¸ ca de θ, correspondente `a amostra observada x = (x
1
, . . . , x
n
)

e ser´a
denotada por
L(θ; x) =
n
¸
i=1
f(x
i
|θ).
Defini¸ c˜ao 1.3.3. Qualquer fun¸c˜ ao da amostra que n˜ ao depende de parˆ ametros
desconhecidos ´e denominada uma estat´ıstica.
No exemplo que apresentamos a seguir, consideramos v´arias estat´ısticas que
ser˜ao utilizadas com freq¨ uˆencia nos cap´ıtulos seguintes.
Exemplo 1.3.1. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria
X, com f.d.p. ou f.p. f(x|θ). Exemplos de estat´ısticas s˜ao
(i) X
(1)
= min(X
1
, . . . , X
n
),
(ii) X
(n)
= max(X
1
, . . . , X
n
),
(iii)
˜
X = med(X
1
, . . . , X
n
),
(iv) X =
1
n
¸
n
i=1
X
i
,
(v) ˆ σ
2
=
1
n
¸
n
i=1
(X
i
−X)
2
.
Em (i), (ii) e (iii) acima, min(.), max(.) e med(.) denotam, respectivamente,
o m´ınimo, o m´aximo e a mediana amostral observada. Por outro lado, X e ˆ σ
2
denotam, respectivamente, a m´edia e a variˆancia amostrais.
Defini¸ c˜ao 1.3.4. O conjunto Θ em que θ toma valores ´e denominado espa¸co
param´etrico.
Exemplo 1.3.2. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria
X ∼ N(µ, σ
2
).
(i) Se σ
2
= 1, ent˜ao θ = µ ´e o parˆametro desconhecido e
Θ = {µ, −∞< µ < ∞};
(ii) Se µ = 0, ent˜ao θ = σ
2
´e o parˆametro desconhecido e
Θ = {σ
2
, σ
2
> 0};
6 1. Elementos B´asicos
(iii) Se µ e σ
2
s˜ao desconhecidos ent˜ao θ = (µ, σ
2
) e
Θ = {(µ, σ
2
), −∞< µ < ∞ e σ
2
> 0}.
Defini¸ c˜ao 1.3.5. Qualquer estat´ıstica que assuma valores em Θ ´e um esti-
mador para θ.
Em muitas situa¸ c˜oes, o interesse ´e estimar uma fun¸ c˜ao g(θ). Suponha, por
exemplo, que no caso (iii) do exemplo anterior, o objetivo ´e estimar somente
µ, sendo σ
2
um parˆametro de pertuba¸ c˜ao. Nesse caso, g(θ) = µ.
Defini¸ c˜ao 1.3.6. Qualquer estat´ıstica que assuma valores somente no conjunto
dos poss´ıveis valores de g(θ) ´e um estimador para g(θ).
Um dos grandes problemas da estat´ıstica ´e o de encontrar um estimador
razo´avel para o parˆametro desconhecido θ ou para uma fun¸ c˜ao g(θ). Um dos
procedimentos comumente utilizados para se avaliar o desempenho de um es-
timador ´e o seu erro quadr´atico m´edio que ´e considerado a seguir.
Defini¸ c˜ao 1.3.7. O erro quadr´ atico m´edio (EQM) de um estimador
ˆ
θ do
parˆ ametro θ ´e dado por
EQM[
ˆ
θ] = E[(
ˆ
θ −θ)
2
].
Pode-se mostrar (ver Exerc´ıcio 1.1) que
(1.3.2) EQM[
ˆ
θ] = V ar[
ˆ
θ] +B
2
(
ˆ
θ),
em que
B(
ˆ
θ) = E[
ˆ
θ] −θ
´e denominado o v´ıcio do estimador
ˆ
θ. Dizemos que um estimador
ˆ
θ ´e n˜ao
viciado para θ se
E[
ˆ
θ] = θ,
para todo θ ∈ Θ, ou seja B(
ˆ
θ) = 0, para todo θ ∈ Θ. Se lim
n→∞
B(
ˆ
θ) = 0 para
todo θ ∈ Θ, dizemos que o estimador
ˆ
θ ´e assintoticamente n˜ao viciado para
θ. No caso em que
ˆ
θ ´e um estimador n˜ao viciado para θ, temos que
EQM[
ˆ
θ] = V ar[
ˆ
θ],
ou seja, o erro quadr´atico m´edio de
ˆ
θ se reduz `a sua variˆancia. Um outro conceito
importante em grandes amostras (n →∞) ´e a propriedade de consistˆencia que
ser´a considerada na Se¸ c˜ao 3.7.
Exemplo 1.3.3. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria
X com E[X] = µ e V ar[X] = σ
2
. Temos, ent˜ao, que
1.3 Amostras, Estat´ısticas e Estimadores 7
E[X] = E
¸
1
n
n
¸
i=1
X
i
¸
=
1
n
n
¸
i=1
E[X
i
] = µ
e
V ar[X] =
1
n
2
n
¸
i=1
V ar[X
i
] =
σ
2
n
.
Portanto X ´e um estimador n˜ao viciado para µ. Com rela¸ c˜ao `a variˆancia
amostral, temos
E[ˆ σ
2
] =
1
n
E
n
¸
i=1
(X
i
−X)
2
=
1
n
n
¸
i=1
E[(X
i
−X)
2
]
=
1
n
n
¸
i=1
E{[(X
i
−µ) −(X −µ)]
2
}
(1.3.3) =
(n −1)
n
σ
2
.
Portanto ˆ σ
2
´e viciado para σ
2
, mas ´e assintoticamente n˜ao viciado, ou seja, `a
medida que o tamanho da amostra aumenta, o v´ıcio diminui.
O erro quadr´atico m´edio ´e comumente empregado na compara¸ c˜ao de esti-
madores. Dizemos, ent˜ao, que
ˆ
θ
1
´e melhor que
ˆ
θ
2
se
(1.3.4) EQM[
ˆ
θ
1
] ≤ EQM[
ˆ
θ
2
],
para todo θ, com ≤ substitu´ıdo por < pelo menos para um valor de θ. Nesse
caso, o estimador
ˆ
θ
2
´e dito ser inadmiss´ıvel. Se existir um estimador
ˆ
θ

tal
que para todo estimador
ˆ
θ de θ com
ˆ
θ =
ˆ
θ

(1.3.5) EQM[
ˆ
θ

] ≤ EQM[
ˆ
θ],
para todo θ com ≤ substitu´ıdo por < para pelo menos um θ, ent˜ao
ˆ
θ

´e dito
ser ´otimo para θ. Notemos que, se em (1.3.5) os estimadores s˜ao n˜ao viciados,
ent˜ao
ˆ
θ

´e dito ser o estimador n˜ao viciado de variˆancia uniformemente m´ınima,
se
V ar[
ˆ
θ

] ≤ V ar[
ˆ
θ],
para todo θ, com ≤ substitu´ıdo por < para pelo menos um θ.
Exemplo 1.3.4. Sejam X
1
, X
2
, X
3
uma amostra aleat´oria da vari´avel aleat´oria
X com E[X] = θ e V ar[X] = 1. Consideremos os estimadores
ˆ
θ
1
= X =
X
1
+X
2
+X
3
3
e
ˆ
θ
2
=
1
2
X
1
+
1
4
X
2
+
1
4
X
3
.
8 1. Elementos B´asicos
Como no Exemplo 1.3.3,
E[
ˆ
θ
1
] = θ e V ar[
ˆ
θ
1
] =
1
3
.
Temos tamb´em (ver Exerc´ıcio 1.3) que
(1.3.6) E[
ˆ
θ
2
] = θ e V ar[
ˆ
θ
2
] =
6
16
.
Como
ˆ
θ
1
e
ˆ
θ
2
s˜ao ambos n˜ao viciados, segue de (1.3.4) que X ´e melhor que
ˆ
θ
2
,
pois V ar[X] < V ar[
ˆ
θ
2
], para todo θ.
Exemplo 1.3.5. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria
X com E[X] = θ e V ar[X] = σ
2
, em que σ
2
´e conhecido. Consideramos agora
os estimadores lineares
X
L
=
n
¸
i=1
l
i
X
i
,
em que l
i
≥ 0, i = 1, . . . , n s˜ao constantes conhecidas. Como
E[X
L
] = E
¸
n
¸
i=1
l
i
X
i
¸
=
n
¸
i=1
l
i
E[X
i
] = θ
n
¸
i=1
l
i
,
temos que X
L
´e um estimador n˜ao viciado para θ se e somente se
(1.3.7)
n
¸
i=1
l
i
= 1.
O estimador X
L
com a condi¸ c˜ao (1.3.7) ´e ent˜ao uma combina¸ c˜ao linear con-
vexa de X
1
, . . . , X
n
. Notemos que
ˆ
θ
1
e
ˆ
θ
2
considerados no Exemplo 1.3.4 s˜ao
combina¸ c˜oes lineares convexas de X
1
, X
2
, X
3
. Temos tamb´em que
(1.3.8) V ar[X
L
] =
n
¸
i=1
l
2
i
V ar[X
i
] = σ
2
n
¸
i=1
l
2
i
.
Portanto o estimador X
L
, que ´e n˜ao viciado e apresenta a menor variˆancia,
´e obtido minimizando-se (1.3.8) sujeito `a condi¸ c˜ao (1.3.7). Para atingir tal
objetivo, sendo l =
¸
n
i=1
l
i
/n = 1/n a m´edia dos l
i
’s, temos que
n
¸
i=1
(l
i
−l)
2
=
n
¸
i=1
l
2
i
−nl
2
=
n
¸
i=1
l
2
i
−1/n,
de modo que
1.3 Amostras, Estat´ısticas e Estimadores 9
V ar[X
L
] = σ
2
n
¸
i=1
l
2
i
(1.3.9) = σ
2

n
¸
i=1

l
i

1
n

2
+
1
n
¸
.
Assim, a express˜ao (1.3.9) ser´a m´ınima quando l
i
= 1/n, ou seja o estimador
X
L
com menor variˆancia ´e a m´edia amostral X. Portanto, dentre todos os
estimadores lineares n˜ao viciados X
L
, o que apresenta a menor variˆancia ´e a
m´edia amostral X. De (1.3.9) segue tamb´em que V ar[X] = σ
2
/n. Uma outra
forma de minimizar a variˆancia (1.3.8), sob a condi¸ c˜ao (1.3.7), ´e feita utilizando-
se de multiplicadores de Lagrange. Nesse caso, temos o ”Lagrangeano”
L(λ) = σ
2
n
¸
i=1
l
2
i
−λ

n
¸
i=1
l
i
−1

.
Derivando sucessivamente com rela¸ c˜ao a l
1
, . . . , l
n
, temos as equa¸ c˜oes

2
l
1
−λ = 0, . . . , 2σ
2
l
n
−λ = 0,
de modo que
2l
i
σ
2
= 2l
n
σ
2
,
logo
l
i
= l
n
,
i = 1, . . . , n. Sendo
¸
n
i=1
l
i
= 1, segue que l
i
= 1/n, i = 1, . . . , n, como
conclu´ıdo acima.
Exemplo 1.3.6. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria
X ∼ N(µ, σ
2
). Conforme visto no Exemplo 1.3.3, ˆ σ
2
´e um estimador viciado
para σ
2
. De (1.3.3) segue que
S
2
=
n
n −1
ˆ σ
2
=
1
n −1
n
¸
i=1
(X
i
−X)
2
´e um estimador n˜ao viciado para σ
2
. Por outro lado, temos (ver Exerc´ıcio 1.4)
que
(1.3.10) EQM[S
2
] = V ar[S
2
] =

4
n −1
,
e que
(1.3.11) EQM[ˆ σ
2
] =

4
(n −1)
¸
1 −
(3n −1)
2n
2

.
10 1. Elementos B´asicos
Notemos que ˆ σ
2
, apesar de viciado, apresenta um EQM menor que o EQM
do estimador S
2
.
Exemplo 1.3.7. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da
vari´avel aleat´oria X, com distribui¸ c˜ao de Bernoulli com parˆametro θ, ou seja
Binomial(1, θ). Conforme visto no modelo binomial, Y = X
1
+ . . . + X
n
tem
distribui¸ c˜ao Binomial(n, θ). Consideremos os estimadores
ˆ
θ
1
= X =
Y
n
e
ˆ
θ
2
=
Y +

n/2
n +

n
.
Como E[X] = θ, temos que
EQM[
ˆ
θ
1
] = V ar[X] =
θ(1 −θ)
n
.
Por outro lado,
E[
ˆ
θ
2
] = E
¸
Y +

n/2
n +

n

=
nθ +

n/2
n +

n
=
n
n +

n
θ +

n/2
n +

n
,
de modo que
ˆ
θ
2
´e um estimador viciado para θ. Notemos que, na verdade, o
v´ıcio ´e uma fun¸ c˜ao linear de θ. Portanto
EQM[
ˆ
θ
2
] = E
¸

Y +

n/2
n +

n
−θ

2
¸
=
1
(n +

n)
2
E

¸
(Y −nθ) +

n

1
2
−θ

2
¸
=
1
(n +

n)
2

V ar[Y ] +n

1
2
−θ

2
¸
=
n
4(n +

n)
2
.
Um fato importante a ser notado ´e que o EQM do estimador
ˆ
θ
2
´e independente
de θ. O EQM dos dois estimadores ´e representado graficamente na Figura 1.1,
para n = 9.
Temos, ent˜ao, que nenhum dos estimadores ´e melhor uniformemente, isto ´e,
para todo θ. Para c
1
< θ < c
2
, EQM[
ˆ
θ
2
] < EQM[
ˆ
θ
1
], ou seja,
ˆ
θ
2
´e melhor que
ˆ
θ
1
. Por outro lado, para θ < c
1
ou θ > c
2
, temos que EQM[
ˆ
θ
1
] < EQM[
ˆ
θ
2
],
ou seja,
ˆ
θ
1
´e melhor que
ˆ
θ
2
. Para o c´alculo de c
1
e c
2
, ver Exerc´ıcio 1.5.
1.3 Amostras, Estat´ısticas e Estimadores 11
Figura 1.1. EQM de δ
1
=
ˆ
θ
1
e δ
2
=
ˆ
θ
2
0 1/2 1
1/64
1/36


EQM
θ
c
1
δ
1
c
2
δ
2
Exemplo 1.3.8. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria
X ∼ U(0, θ). Vamos considerar
ˆ
θ
1
= X e
ˆ
θ
2
= X
(n)
como estimadores de θ.
Como E[X] = θ/2 e V ar[X] = θ
2
/12 (ver o modelo (1.1.4)), temos que
(1.3.12) E[
ˆ
θ
1
] = E[X] =
θ
2
,
e
(1.3.13) V ar[
ˆ
θ
1
] =
θ
2
12n
.
Portanto o estimador
ˆ
θ
1
´e viciado para θ. Combinando (1.3.12) e (1.3.13) em
(1.3.2), temos que
EQM[
ˆ
θ
1
] =
θ
2
12n
+

θ
2
−θ

2
=
(1 + 3n)
12n
θ
2
.
Por outro lado, a fun¸ c˜ao de densidade de X
(n)
(ver Exerc´ıcio 1.6) ´e dada por
(1.3.14) f
X
(n)
(x|θ) =
nx
n−1
θ
n
, 0 < x < θ,
logo
(1.3.15) E[X
(n)
] =
n
n + 1
θ e V ar[X
(n)
] =

2
(n + 1)
2
(n + 2)
.
Portanto
EQM[
ˆ
θ
2
] =

2
(n + 1)
2
(n + 2)
+
θ
2
(n + 1)
2
=

2
(n + 1)(n + 2)
.
12 1. Elementos B´asicos
A Tabela 1.1 mostra o valor do EQM dos dois estimadores para v´arios va-
lores de n. Notemos tamb´em que, quando n → ∞, EQM[
ˆ
θ
1
] → θ
2
/4 e que
EQM[
ˆ
θ
2
] →0.
Tabela 1.1. EQM de
ˆ
θ
1
e
ˆ
θ
2
n EQM[
ˆ
θ
1
] EQM[
ˆ
θ
2
] EQM[
ˆ
θ
2
]/EQM[
ˆ
θ
1
]
3 5θ
2
/18 θ
2
/10 0,27
5 4θ
2
/15 θ
2
/21 0,12
10 31θ
2
/120 θ
2
/662 0,04
20 61θ
2
/240 θ
2
/2312 0,01
Portanto X
(n)
´e melhor que X para todo θ e n > 1.
Exemplo 1.3.9. Consideremos uma urna com N bolas idˆenticas marcadas
com os n´ umeros 1, . . . , N. O objetivo ´e a estima¸ c˜ao de N, o n´ umero de bolas
numeradas na urna. Esse problema est´a muitas vezes associado ao problema
da estima¸ c˜ao do n´ umero N de t´axis em uma cidade, em que os t´axis est˜ao
numerados de 1 a N. Portanto uma determinada quantidade (n) de bolas (t´axis)
´e observada, com reposi¸ c˜ao. Associada `a i-´esima observa¸ c˜ao, temos a vari´avel
aleat´oria
X
i
: n´ umero da i-´esima bola (t´axi) retirada da urna,
i = 1, . . . , n. Nesse caso,
P[X
i
= k] =
1
N
, k = 1, . . . , N.
Portanto a distribui¸ c˜ao de X
i
´e uniforme discreta, pois a distribui¸ c˜ao de X
i
associa a mesma probabilidade a todos os poss´ıveis valores de X
i
, i = 1, . . . , n.
Como poss´ıveis estimadores de N, consideremos inicialmente
ˆ
N
1
= X e
ˆ
N
2
=
X
(n)
. N˜ao ´e dif´ıcil verificar que
(1.3.16) E[
ˆ
N
1
] = E[X] =
N + 1
2
.
Por outro lado, desde que
P[X
(n)
= k] = P[X
(n)
≤ k] −P[X
(n)
≤ k −1] =

k
N

n

k −1
N

n
,
temos que
E[X
(n)
] = N
−n
¸
N
n+1

N
¸
k=1
(k −1)
n
¸
.
1.4 Exerc´ıcios 13
Usando a aproxima¸ c˜ao (Feller, 1976),
N
¸
k=1
(k −1)
n
= 1
n
+. . . + (N −1)
n

=

N
0
y
n
dy =
N
n+1
n + 1
,
(para N grande), temos que
(1.3.17) E[
ˆ
N
2
] = E[X
(n)
]

= N
−n
¸
N
n+1

N
n+1
n + 1

=
n
n + 1
N.
De (1.3.16) e (1.3.17), podemos definir novos estimadores. Por exemplo,
ˆ
N
3
= 2X −1,
que ´e n˜ao viciado e
ˆ
N
4
=
n + 1
n
X
(n)
,
que ´e aproximadamente n˜ao viciado. Se n = 8 bolas s˜ao retiradas com reposi¸ c˜ao
da caixa e os n´ umeros observados s˜ao: 124, 212, 315, 628, 684, 712, 782, 926,
ent˜ao,
ˆ
N
1
= X = 547, 875,
ˆ
N
3
= 2X − 1 = 1095,
ˆ
N
2
= X
(n)
= 926, e
ˆ
N
4
= 1042. Podemos considerar tamb´em o estimador
ˆ
N
5
=
X
n+1
(n)
−(X
(n)
−1)
n+1
X
n
(n)
−(X
(n)
−1)
n
,
que ´e um estimador n˜ao viciado para N (ver Exerc´ıcio 1.7).
1.4 Exerc´ıcios
1.1. Verifique a validade da express˜ao (1.3.2).
1.2. Verifique a validade da express˜ao (1.3.3).
1.3. Verifique a validade da express˜ao (1.3.6).
1.4. Verifique a validade das express˜oes (1.3.10) e (1.3.11).
1.5. Encontre c
1
e c
2
na Figura 1.1. que s˜ao os pontos de intersec¸ c˜ao dos erros
quadr´aticos m´edios de
ˆ
θ
1
e
ˆ
θ
2
.
1.6. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X ∼
U(0, θ). Mostre que a fun¸ c˜ao de densidade de probabilidade de X
(n)
´e como
dada em (1.3.14), com esperan¸ ca e variˆancia como dadas em (1.3.15).
14 1. Elementos B´asicos
1.7. Mostre que o
ˆ
N
5
no Exemplo 1.3.9 ´e um estimador n˜ao viciado para N.
1.8. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da distribui¸ c˜ao da
vari´avel aleat´oria X, em que X ∼ N(µ, 1). Considere os estimadores ˆ µ
1
= X e
ˆ µ
2
= 10. Encontre o EQM de ˆ µ
1
e de ˆ µ
2
como fun¸ c˜ao de µ. Fa¸ ca um gr´afico
do EQM para n = 10.
1.9. Seja X uma ´ unica vari´avel aleat´oria com distribui¸ c˜ao de Bernoulli com
parˆametro θ. Sejam
ˆ
θ
1
= X e
ˆ
θ
2
= 1/2 dois estimadores de θ.
(i) Verifique se
ˆ
θ
1
e
ˆ
θ
2
s˜ao n˜ao viciados para θ.
(ii) Compare os EQMs. Fa¸ ca um gr´afico dos EQMs como fun¸ c˜ao de θ.
1.10. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da distribui¸ c˜ao
da vari´avel aleat´oria X com f.d.p. dada por
f(x|θ) = e
−(x−θ)
, x > θ, θ > 0.
(i) Especifique o espa¸ co param´etrico e o suporte associado `a distribui¸ c˜ao de X.
(ii) Verifique se
ˆ
θ
1
= X e
ˆ
θ
2
= X
(1)
s˜ao estimadores n˜ao viciados para θ.
(iii) Encontre e compare os EQMs dos dois estimadores. Fa¸ ca um gr´afico como
fun¸ c˜ao de θ.
1.11. Sejam X
1
, . . . , X
n
um amostra aleat´oria de tamanho n da distribui¸ c˜ao
da vari´avel aleat´oria X com f.d.p. dada por
f(x|θ) =
2x
θ
2
, 0 < x < θ, θ > 0.
(i) Especifique o espa¸ co param´etrico e o suporte associado `a distribui¸ c˜ao de X.
(ii) Verifique se
ˆ
θ
1
= X e
ˆ
θ
2
= X
(n)
s˜ao n˜ao viciados para θ.
(iii) Encontre e compare os EQMs dos dois estimadores. Fa¸ ca um gr´afico dos
EQMs como fun¸ c˜ao de θ.
1.12. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da distribui¸ c˜ao
de uma vari´avel aleat´oria X ∼ U(0, θ). Considere os estimadores
ˆ
θ
1
= c
1
X e
ˆ
θ
2
= c
2
X
(n)
.
(i) Encontre c
1
e c
2
que tornam os estimadores n˜ao viciados.
(ii) Encontre e compare os EQMs dos dois estimadores.
1.13. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da distribui¸ c˜ao
da vari´avel aleat´oria X ∼ N(0, σ
2
). Seja S
2
=
¸
n
i=1
X
2
i
. Considere os esti-
madores
ˆ σ
2
c
= cS
2
.
(i) Encontre o EQM do estimador acima.
(ii) Encontre o valor de c que minimiza o EQM em (i).
2. Estimadores Eficientes e Estat´ısticas
Suficientes
Neste cap´ıtulo ser´a apresentada a no¸ c˜ao de estimador eficiente, como sendo
aquele que atinge o limite inferior da variˆancia dos estimadores n˜ao viciados.
Estimadores eficientes s˜ao obtidos apenas para distribui¸ c˜oes que s˜ao membros
de uma classe especial, que ´e a fam´ılia exponencial de distribui¸ c˜oes. Veremos
tamb´em que todo estimador para ser ´otimo, segundo o crit´erio do menor erro
quadr´atico m´edio, deve ser fun¸ c˜ao de uma estat´ıstica suficiente. De modo in-
formal, estat´ısticas suficientes para um parˆametro (ou para uma distribui¸ c˜ao)
s˜ao aquelas que condensam os dados sem perder nenhuma informa¸ c˜ao contida
nos mesmos. Ou seja, elas s˜ao t˜ao informativas para o parˆametro (ou para a
distribui¸ c˜ao) quanto a amostra toda.
2.1 Estimadores Eficientes
Eficiˆencia de um estimador
ˆ
θ de um parˆametro θ ´e definida a seguir.
Defini¸ c˜ao 2.1.1. Chamamos de eficiˆencia de um estimador
ˆ
θ, n˜ ao viciado para
o parˆ ametro θ, o quociente
e(
ˆ
θ) =
LI(θ)
V ar[
ˆ
θ]
,
onde LI(θ) ´e o limite inferior da variˆ ancia dos estimadores n˜ ao viciados de θ.
Conv´em notar que:
(i) e(
ˆ
θ) = 1 quando LI(θ) = V ar[
ˆ
θ], ou seja, quando a variˆancia de
ˆ
θ
coincide com o limite inferior da variˆancia dos estimadores n˜ao viciados de θ.
Nesse caso,
ˆ
θ ´e dito ser eficiente;
(ii) como veremos no teorema seguinte,
(2.1.1) LI(θ) =
1
nE
¸

∂ log f(X|θ)
∂θ

2
,
quando certas condi¸ c˜oes de regularidade est˜ao satisfeitas;
16 2. Estimadores Eficientes e Estat´ısticas Suficientes
(iii) as condi¸ c˜oes de regularidade a que nos referimos no item (ii) s˜ao basi-
camente duas, isto ´e, que o suporte A(x) = {x, f(x|θ) > 0} seja independente
de θ e que seja poss´ıvel a troca das ordens das opera¸ c˜oes de deriva¸ c˜ao e de
integra¸ c˜ao sob a distribui¸ c˜ao da vari´avel aleat´oria X;
(iv) a n˜ao ser que mencionado o contr´ario, todo logaritmo utilizado no texto
´e calculado na base e.
Exemplo 2.1.1. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria
X ∼ N(µ, σ
2
), em que σ
2
´e conhecido. Temos que
f(x|µ) =
1

2πσ
e

(x−µ)
2

2
, −∞< x < ∞,
e
log f(x|µ) = −log

2π −
1
2
log σ
2

(x −µ)
2

2
.
Portanto
(2.1.2)
∂ log f(x|µ)
∂µ
=
(x −µ)
σ
2
.
Assim,
E
¸

∂ log f(X|µ)
∂µ

2
¸
= E
¸
(X −µ)
2
σ
4

=
1
σ
4
E[(X −µ)
2
] =
1
σ
2
,
logo conclu´ımos, juntamente com (2.1.1), que
LI(µ) =
σ
2
n
.
Conforme visto no Exemplo 1.3.3, temos que
V ar[X] =
σ
2
n
= LI(µ),
de modo que X ´e um estimador eficiente para µ. De (2.1.2), temos tamb´em que
(2.1.3) E
¸
∂ log f(X|µ)
∂µ

=
1
σ
2
E[X −µ] = 0.
Defini¸ c˜ao 2.1.2. A quantidade
∂ log f(X|θ)
∂θ
´e chamada fun¸c˜ ao escore.
2.1 Estimadores Eficientes 17
O resultado (2.1.3) na verdade vale em geral quando valem as condi¸ c˜oes de
regularidade, ou seja,
(2.1.4) E
¸
∂ log f(X|θ)
∂θ

= 0.
Portanto o valor esperado da fun¸ c˜ao escore ´e sempre igual a zero.
Defini¸ c˜ao 2.1.3. A quantidade
I
F
(θ) = E
¸

∂ log f(X|θ)
∂θ

2
¸
,
´e denominada informa¸c˜ ao de Fisher de θ.
Como consequˆencia de (2.1.4) temos que
I
F
(θ) = V ar
¸
∂ log f(X|θ)
∂θ

,
pois para uma vari´avel aleat´oria X qualquer com E[X] = 0, V ar[X] = E[X
2
].
Um resultado importante (veja o Exerc´ıcio 2.6) estabelece que
E
¸

∂ log f(X|θ)
∂θ

2
¸
= −E
¸

2
log f(X|θ)
∂θ
2

.
Uma outra propriedade importante estabelece que para uma amostra aleat´oria,
X
1
, . . . , X
n
, da vari´avel aleat´oria X com f.d.p (ou f.p.) f(x|θ) e informa¸ c˜ao
de Fisher I
F
(θ), a informa¸ c˜ao total de Fisher de θ correspondente `a amostra
observada ´e a soma da informa¸ c˜ao de Fisher das n observa¸ c˜oes da amostra, ou
seja, sendo
(2.1.5) L(θ; x) = f(x
1
, . . . , x
n
|θ) =
n
¸
i=1
f(x
i
|θ),
a densidade conjunta de X
1
, . . . , X
n
, temos que
E
¸

∂ log L(θ; X)
∂θ

2
¸
= −E
¸

2
log L(θ; X)
∂θ
2

(2.1.6) = −E
¸
n
¸
i=1

2
log f(X
i
|θ)
∂θ
2
¸
=
n
¸
i=1
E
¸


2
log f(X
i
|θ)
∂θ
2

= nI
F
(θ),
18 2. Estimadores Eficientes e Estat´ısticas Suficientes
pois X
i
, i = 1, . . . , n tˆem a mesma informa¸ c˜ao que X. Lembremos que, sendo
X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X, ent˜ao X
1
, . . . , X
n
s˜ao independentes e identicamente distribu´ıdas com a mesma distribui¸ c˜ao que
X.
Teorema 2.1.1. Desigualdade da Informa¸ c˜ao. Quando as condi¸c˜ oes de
regularidade est˜ ao satisfeitas, a variˆ ancia de qualquer estimador n˜ ao viciado
ˆ
θ
do parˆ ametro θ satisfaz a desigualdade
V ar[
ˆ
θ] ≥
1
nI
F
(θ)
.
Prova. Vamos considerar o caso em que X ´e uma vari´avel aleat´oria cont´ınua.
Sendo X
1
, . . . , X
n
uma amostra aleat´ oria da vari´avel aleat´oria X, temos que
(2.1.7)


−∞
. . .


−∞
L(θ; x)dx
1
. . . dx
n
= 1,
onde L(θ; x) ´e dada em (2.1.5). Desde que
ˆ
θ ´e n˜ao viciado, ou seja, E[
ˆ
θ] = θ,
temos tamb´em que
(2.1.8)


−∞
. . .


−∞
ˆ
θL(θ; x)dx
1
. . . dx
n
= θ.
Derivando ambos os lados de (2.1.7) com rela¸ c˜ao a θ, temos que

∂θ


−∞
. . .


−∞
L(θ; x)dx
1
. . . dx
n
=


−∞
. . .


−∞
∂L(θ; x)
∂θ
dx
1
. . . dx
n
= 0.
Por outro lado, de (2.1.8), temos que

∂θ


−∞
. . .


−∞
ˆ
θL(θ; x)dx
1
. . . x
n
=


−∞
. . .


−∞
ˆ
θ
∂L(θ; x)
∂θ
dx
1
. . . dx
n
= 1.
Como
∂L(θ; x)
∂θ
= t(θ; x)L(θ; x),
onde
t(θ; x) =
∂ log L(θ; x)
∂θ
,
temos das express˜oes acima que
E[t(θ; X)] = 0,
e
2.1 Estimadores Eficientes 19
E[
ˆ
θt(θ; X)] = 1.
Como
ρ
ˆ
θt
=
E[
ˆ
θt(θ; X)] −E[
ˆ
θ]E[t(θ; X)]

V ar[
ˆ
θ]V ar[t(θ; X)]
,
onde ρ
ˆ
θt
denota o coeficiente de correla¸ c˜ao entre
ˆ
θ e t, de tal forma que ρ
2
ˆ
θt
≤ 1,
temos que
V ar[
ˆ
θ] ≥
1
V ar[t(θ; X)]
.
Como as vari´aveis X
1
, . . . , X
n
s˜ao independentes e identicamente distribu´ıdas
com densidade f(x|θ), temos de (2.1.5) e de (2.1.6) que
V ar[t(θ; X)] = V ar
¸
∂ log L(θ; X)
∂θ

= nI
F
(θ),
o que prova o resultado.
Exemplo 2.1.2. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da
vari´avel aleat´oria X ∼ Poisson(θ), com fun¸ c˜ao de probabilidade dada por
f(x|θ) =
e
−θ
θ
x
x!
, x = 0, 1, . . . ,
Nesse caso, temos que
log f(x|θ) = −log x! +xlog θ −θ,
de modo que
∂ log f(x|θ)
∂θ
=
x
θ
−1,
ou seja,
E
¸

2
log f(X|θ)
∂θ
2

= −
1
θ
.
Portanto
LI(θ) =
θ
n
.
Como V ar[X] = θ/n, conclu´ımos que X ´e um estimador eficiente para θ.
Enfatizamos que a desigualdade da informa¸ c˜ao (inicialmente chamada de
Cram´er-Rao) n˜ao ´e um m´etodo de constru¸ c˜ao de estimadores. Ela apenas possi-
bilita verificar se determinado estimador ´e ou n˜ao eficiente.
´
E ent˜ao importante
que sejam estabelecidos m´etodos para constru¸ c˜ao de estimadores que tenham
alguma propriedade interessante, ou que levem a estimadores com “boas” pro-
priedades. Contudo, antes de estabelecermos tais m´etodos (ou crit´erios), vamos
considerar estat´ısticas que reduzam (condensem) os dados sem que haja perda
de informa¸ c˜ao. Tais estat´ısticas s˜ao conhecidas como estat´ısticas suficientes.
20 2. Estimadores Eficientes e Estat´ısticas Suficientes
2.2 Estat´ısticas Suficientes
Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X com fun¸ c˜ao
de densidade ou de probabilidade f(x|θ). Quando resumimos a informa¸ c˜ao que
os dados contˆem sobre θ, utilizando uma estat´ıstica, ´e importante que n˜ao haja
perda de informa¸ c˜ao sobre θ. Ou seja, a estat´ıstica a ser considerada deve,
dentro do poss´ıvel, conter toda a informa¸ c˜ao sobre θ presente na amostra. Em
outras palavras, se pudermos usar uma estat´ıstica T = T(X
1
, . . . , X
n
) para ex-
trairmos toda informa¸ c˜ao que a amostra X
1
, . . . , X
n
cont´em sobre θ, ent˜ao dize-
mos que T (que pode ser um vetor) ´e suficiente para θ. Desse modo, o conhec-
imento apenas de T (e n˜ao necessariamente da amostra completa X
1
, . . . , X
n
)
´e suficiente para que sejam feitas inferˆencias sobre θ. A seguir apresentamos a
defini¸ c˜ao formal.
Defini¸ c˜ao 2.2.1. Dizemos que a estat´ıstica T = T(X
1
, . . . , X
n
) ´e suficiente
para θ, quando a distribui¸c˜ ao condicional de X
1
, . . . , X
n
dado T for indepen-
dente de θ.
Os exemplos a seguir ilustram a obten¸ c˜ao de estat´ısticas suficientes pela
utiliza¸ c˜ao da Defini¸ c˜ao 2.2.1.
Exemplo 2.2.1. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da distribui¸ c˜ao
Binomial(1, θ), ou seja, de Bernoulli(θ). Vamos verificar se a estat´ıstica
T =
¸
n
i=1
X
i
´e suficiente para θ. De acordo com a Defini¸ c˜ao 2.2.1, T ´e su-
ficiente para θ, se a probabilidade condicional P[X
1
= x
1
, . . . , X
n
= x
n
|T = t]
for independente de θ. Temos, para x
1
, . . . , x
n
= 0 ou 1 e t = 0, . . . , n,
P[X
1
= x
1
, . . . , X
n
= x
n
|T = t] =

0,
¸
n
i=1
x
i
= t,
P[X1=x1,...,Xn=xn,T=t]
P[T=t]
,
¸
n
i=1
x
i
= t;
ou seja, sendo
¸
n
i=1
x
i
= t, temos que
P[X
1
= x
1
, . . . , X
n
= x
n
|T = t] =
P[X
1
= x
1
, . . . , X
n
= x
n
, T = t]
P[T = t]
=
P[X
1
= x
1
, . . . , X
n
= x
n
]

n
t

θ
t
(1 −θ)
n−t
=
P[X
1
= x
1
] . . . P[X
n
= x
n
]

n
t

θ
t
(1 −θ)
n−t
=
θ
x1
(1 −θ)
1−x1
. . . θ
xn
(1 −θ)
1−xn

n
t

θ
t
(1 −θ)
n−t
=
θ
t
(1 −θ)
n−t

n
t

θ
t
(1 −θ)
n−t
=
1

n
t
,
pois sabemos que T ∼ Binomial(n, θ). Portanto
P[X
1
= x
1
, . . . , X
n
= x
n
|T = t] =

0,
¸
n
i=1
x
i
= t,
1
(
n
t
)
,
¸
n
i=1
x
i
= t,
2.2 Estat´ısticas Suficientes 21
de modo que, pela Defini¸ c˜ao 2.2.1, T =
¸
n
i=1
X
i
´e suficiente para θ.
Exemplo 2.2.2. Consideremos novamente a situa¸ c˜ao do Exemplo 2.2.1, com
n = 3 e T = X
1
+ 2X
2
+ X
3
. Vamos verificar se T ´e suficiente. Notemos que
para X
1
= 1, X
2
= 0, X
3
= 1, temos que T = 2. Logo
(2.2.1) P[X
1
= 1, X
2
= 0, X
3
= 1|T = 2] =
P[X
1
= 1, X
2
= 0, X
3
= 1]
P[X
1
+ 2X
2
+X
3
= 2]
=
P[X
1
= 1]P[X
2
= 0]P[X
3
= 1]
P[X
1
= 1, X
2
= 0, X
3
= 1] +P[X
1
= 0, X
2
= 1, X
3
= 0]
=
θ
2
(1 −θ)
θ
2
(1 −θ) + (1 −θ)
2
θ
= θ.
Portanto, como a probabilidade (2.2.1) depende de θ, conclu´ımos que T n˜ao
´e suficiente para θ, pois, nesse caso, a distribui¸ c˜ao condicional de X
1
, . . . , X
n
dado T depende de θ.
Exemplo 2.2.3. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da distribui¸ c˜ao de
Poisson com parˆametro θ. Vamos verificar se T =
¸
n
i=1
X
i
´e suficiente para
θ. Sabemos que T =
¸
n
i=1
X
i
tem distribui¸ c˜ao de Poisson com parˆametro nθ.
Assim, para x
i
= 0, 1, 2, ..., i = 1, . . . , n e t = 0, 1, ..., temos
P[X
1
= x
1
, . . . , X
n
= x
n
|T = t] =

0,
¸
n
i=1
x
i
= t,
P[X1=x1,...,Xn=xn]
P[T=t]
;
¸
n
i=1
x
i
= t;
de modo que se
¸
n
i=1
x
i
= t, ent˜ao,
P[X
1
= x
1
, . . . , X
n
= x
n
|T = t] =
P[X
1
= x
1
] . . . P[X
n
= x
n
]
P[T = t]
=
e
−θ
θ
x1
x
1
!
. . .
e
−θ
θ
xn
x
n
!
t!
e
−nθ
(nθ)
t
=
t!
x
1
!, . . . , x
n
!
1
n
t
,
que ´e independente de θ. Segue, ent˜ao, da Defini¸ c˜ao 2.2.1 que
¸
n
i=1
X
i
´e sufi-
ciente para θ.
Notemos que a Defini¸ c˜ao 2.2.1 permite, apenas, que possamos verificar se
determinada estat´ıstica ´e ou n˜ao suficiente. Contudo n˜ao pode ser utilizada
como um m´etodo para obten¸ c˜ao de estat´ısticas suficientes. Um procedimento
para a obten¸ c˜ao de estat´ısticas suficientes ´e o crit´erio da fatora¸ c˜ao que apre-
sentamos a seguir.
22 2. Estimadores Eficientes e Estat´ısticas Suficientes
Teorema 2.2.1. (Crit´erio da Fatora¸c˜ ao de Neyman) Sejam X
1
, . . . , X
n
uma
amostra aleat´ oria da distribui¸c˜ ao da vari´ avel aleat´ oria X com fun¸c˜ ao de densi-
dade (ou de probabilidade) f(x|θ) e fun¸c˜ ao de verossimilhan¸ca L(θ; x). Temos,
ent˜ ao, que a estat´ıstica T = T(X
1
, . . . , X
n
) ´e suficiente para θ, se e somente
se pudermos escrever
(2.2.2) L(θ; x) = h(x
1
, . . . , x
n
)g
θ
(T(x
1
, . . . , x
n
)),
onde h(x
1
, . . . , x
n
) ´e uma fun¸c˜ ao que depende apenas de x
1
, . . . , x
n
(n˜ ao de-
pende de θ) e g
θ
(T(x
1
, . . . , x
n
)) depende de θ e de x
1
, . . . , x
n
somente atrav´es
de T.
Prova. Vamos provar o teorema apenas para o caso discreto. Nesse caso,
L(θ; x) = P
θ
[X = x]. Suponhamos em primeiro lugar que (2.2.2) esteja verifi-
cada e ent˜ao,
P
θ
[X = x] = f(x|θ) = h(x)g
θ
(T(x)).
Como
P[X = x|T(X) = t] =

0; T(x) = t
P
θ
[X=x,T(X)=t]
P
θ
[T(X)=t]
; T(x) = t,
quando T(x) = t, P[X = x|T(x) = t] = 0, que ´e independente de θ, logo a
condi¸ c˜ao da Defini¸ c˜ao 2.2.1 est´a verificada. Quando T(x) = t, o evento {X =
x, T(X) = t} est´a contido no evento {T(x) = t}, ent˜ao
P
θ
[X = x, T(X) = t]
P
θ
[T = t]
=
P
θ
[X = x]
P
θ
[T = t]
=
h(x)g
θ
(t)
¸
{x;T(x)=t}
h(x)g
θ
(t)
=
h(x)
¸
{x;T(x)=t}
h(x)
,
que ´e independente de θ, portanto T = T(X) ´e suficiente para θ.
Suponhamos agora que T = T(X) seja suficiente, de modo que a distribui¸ c˜ao
condicional de X dado T ´e independente de θ. Sendo T(x) = t, temos que
f(x|θ) = P
θ
[X = x] = P
θ
[X = x, T(x) = t]
= P[X = x|T(x) = t]P
θ
[T(X) = t] = h(x)g
θ
(t),
de modo que (2.2.2) est´a provada.
Exemplo 2.2.4. Consideremos novamente o modelo de Poisson do Exemplo
2.2.3. Temos, ent˜ao, que
L(θ; x) =
n
¸
i=1
f(x
i
|θ)
=
e
−θ
θ
x1
x
1
!
. . .
e
−θ
θ
xn
x
n
!
=
1
x
1
! . . . x
n
!
e
−nθ
θ
x1+...+xn
.
2.3 Estat´ısticas Conjuntamente Suficientes 23
Portanto, tomando
h(x
1
, . . . , x
n
) =
1
¸
n
i=1
x
i
!
n
¸
i=1
I
{0,1,2,...}
(x
i
) e g
θ
(T(x)) = e
−nθ
θ
¸
n
i=1
xi
,
temos, pelo crit´erio da fatora¸ c˜ao, que T(X) =
¸
n
i=1
X
i
´e suficiente para θ,
onde X = (X
1
, . . . , X
n
).
Exemplo 2.2.5. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria
X ∼ U(0, θ). Conforme visto no Cap´ıtulo 1, temos que (veja o Modelo 1.1.5)
f(x|θ) =
1
θ
I
[0,θ]
(x).
Temos ent˜ao
L(θ; x) =
1
θ
I
[0,θ]
(x
1
) . . .
1
θ
I
[0,θ]
(x
n
)
=
1
θ
n
I
[0,θ]
(x
(n)
)I
[0,x
(n)
]
(x
(1)
),
de modo que, pelo crit´erio da fatora¸ c˜ao, X
(n)
´e uma estat´ıstica suficiente para
θ.
Exemplo 2.2.6. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da distribui¸ c˜ao
N(µ, 1). Temos, ent˜ao, que
L(µ; x) =
1


e

(x
1
−µ)
2
2
. . .
1


e

(xn−µ)
2
2
=

1

n
e

¸
n
i=1
(x
i
−µ)
2
2
=

1

n
e

¸
n
i=1
x
2
i
2
e


2
2

¸
n
i=1
xi
.
Portanto, pelo crit´erio da fatora¸ c˜ao, T(X) =
¸
n
i=1
X
i
´e uma estat´ıstica sufi-
ciente para µ.
2.3 Estat´ısticas Conjuntamente Suficientes
Na se¸ c˜ao anterior vimos o caso uniparam´etrico, ou seja, a distribui¸ c˜ao dos
dados depende de um ´ unico parˆametro θ. Nesta se¸ c˜ao consideramos o caso
multiparam´etrico em que θ ´e um vetor de parˆametros, que denotamos por θ.
Em muitas situa¸ c˜oes, o modelo estat´ıstico depende de mais de um parˆametro.
´
E o caso do modelo N(µ, σ
2
), em que θ = (µ, σ
2
), sendo µ e σ
2
desconhecidos.
24 2. Estimadores Eficientes e Estat´ısticas Suficientes
´
E o caso tamb´em do modelo Gama(α, β), em que α e β s˜ao desconhecidos e,
portanto, θ = (α, β).
Teorema 2.3.1. (Crit´erio da fatora¸c˜ ao. Caso Multiparam´etrico) Sejam X
1
, . . .,
X
n
uma amostra aleat´ oria da distribui¸c˜ ao da vari´ avel aleat´ oria X, com fun¸c˜ ao
de densidade (ou de probabilidade) f(x|θ). Temos, ent˜ ao, que a estat´ıstica r-
dimensional T = (T
1
, . . . , T
r
), T
i
= T
i
(X) ´e conjuntamente suficiente para θ
se
L(θ; x) = f(x
1
, . . . , x
n
|θ) =
n
¸
i=1
f(x
i
|θ) = h(x
1
, . . . , x
n
)g
θ
(T
1
(x), . . . , T
r
(x)),
onde h(x
1
, . . . , x
n
) ´e uma fun¸c˜ ao que n˜ ao depende de θ e g
θ
(T
1
(x), . . . , T
r
(x))
depende de θ e de x = (x
1
, . . . , x
n
) somente por meio de (T
1
(x), . . . , T
r
(x)).
No caso do Teorema 2.3.1, dizemos que a estat´ıstica suficiente ´e de dimens˜ao
r, que em muitos casos ´e tamb´em a dimens˜ao do espa¸ co param´etrico Θ. Mas
existem situa¸ c˜oes em que tal fato n˜ao ocorre, ou seja, a dimens˜ao de Θ ´e menor
que r.
Exemplo 2.3.1. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da
vari´avel aleat´oria X ∼ N(µ, σ
2
), onde µ e σ
2
s˜ao desconhecidos. Temos, ent˜ao,
que θ = (µ, σ
2
). Nesse caso, a fun¸ c˜ao de verossimilhan¸ ca pode ser escrita como
L(θ; x) =

1

2πσ

n
e

¸
n
i=1
(x
i
−µ)
2

2
=

1

n
1
σ
n
e

1

2
¸
n
i=1
x
2
i
+
µ
σ
2
¸
n
i=1
xi−n
µ
2

2
,
com −∞< µ < ∞ e σ
2
> 0. Tomando h(x
1
, . . . , x
n
) = 1/(

2π)
n
e
g
θ
(t
1
(x), t
2
(x)) =
1
σ
n
e

1

2
¸
n
i=1
x
2
i
+
µ
σ
2
¸
n
i=1
xi−n
µ
2

2
,
temos, de acordo com o crit´erio da fatora¸ c˜ao, que T = (
¸
n
i=1
X
i
,
¸
n
i=1
X
2
i
) ´e
conjuntamente suficiente para (µ, σ
2
).
Defini¸ c˜ao 2.3.1. Dizemos que duas estat´ısticas T
1
e T
2
s˜ ao equivalentes se
existir uma rela¸c˜ ao 1:1 entre elas.
Em outra palavras, T
1
e T
2
s˜ao equivalentes se T
1
puder ser obtida a partir
de T
2
e vice-versa. Nesse caso, temos que, se T
1
´e suficiente para θ, ent˜ao T
2
tamb´em ´e suficiente para θ. Esse resultado vale tamb´em para o caso multidi-
mensional.
2.4 Fam´ılias Exponenciais 25
Exemplo 2.3.2. Consideremos novamente a situa¸ c˜ao do Exemplo 2.2.6. Vi-
mos que T
1
=
¸
n
i=1
X
i
´e suficiente para µ. Como T
1
´e equivalente a T
2
=
¸
n
i=1
X
i
/n = X, temos que T
2
= X tamb´em ´e suficiente para µ.
Exemplo 2.3.3. Consideremos novamente a situa¸ c˜ao do Exemplo 2.3.1. N˜ao ´e
dif´ıcil verificar que T
1
= (
¸
n
i=1
X
i
,
¸
n
i=1
X
2
i
) e T
2
= (X, S
2
) s˜ao equivalentes.
Como T
1
´e suficiente para θ (Exemplo 2.3.1), temos que T
2
tamb´em ´e suficiente
para θ = (µ, σ
2
).
Exemplo 2.3.4. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria
X com distribui¸ c˜ao Gama(α, β). Dizemos que X ∼ Gama(α, β), se sua f.d.p.
´e dada por
f(x|α, β) =
β
α
x
α−1
e
−βx
Γ(α)
, x > 0, α, β > 0.
onde Γ(.) ´e a fun¸ c˜ao gama definida por Γ(t) =


0
x
t−1
e
−x
dx, para t > 0.
Ent˜ao, θ = (α, β). Temos que a fun¸ c˜ao de verossimilhan¸ ca correspondente `a
amostra observada ´e dada por
L(θ; x) =
β

Γ
n
(α)
n
¸
i=1
x
α−1
i
e
−β
¸
n
i=1
xi
I
(0,∞)
(x),
α > 0, β > 0. Portanto, pelo crit´erio da fatora¸ c˜ao, temos que T
1
=
(
¸
n
i=1
X
i
,
¸
n
i=1
X
i
) ´e conjuntamente suficiente para θ. Notemos que a es-
tat´ıstica T
2
= (
¸
n
i=1
log X
i
, X) ´e equivalente a T
1
.
2.4 Fam´ılias Exponenciais
Muitos dos modelos estat´ısticos considerados nas se¸ c˜oes anteriores podem ser
considerados como casos especiais de uma fam´ılia mais geral de distribui¸ c˜oes .
Defini¸ c˜ao 2.4.1. Dizemos que a distribui¸c˜ ao da vari´ avel aleat´ oria X pertence
` a fam´ılia exponencial unidimensional de distribui¸c˜ oes, se pudermos escrever
sua f.p. ou f.d.p. como
(2.4.1) f(x|θ) = e
c(θ)T(x)+d(θ)+S(x)
, x ∈ A
onde c, d s˜ ao fun¸c˜ oes reais de θ; T, S s˜ ao fun¸c˜ oes reais de x e A n˜ ao depende
de θ.
Notemos que no caso em que X ´e cont´ınua, para que f(x|θ) em (2.4.1) seja
uma fun¸ c˜ao de densidade, ´e necess´ario que

A
e
c(θ)T(x)+d(θ)+S(x)
dx = 1,
26 2. Estimadores Eficientes e Estat´ısticas Suficientes
ou seja,

A
e
c(θ)T(x)+S(x)
dx = e
−d(θ)
,
de modo que d(θ) est´a associado `a constante de normaliza¸ c˜ao da densidade.
Resultado similar vale para o caso em que X ´e uma vari´avel aleat´oria discreta.
Exemplo 2.4.1. Seja X uma vari´avel aleat´oria com distribui¸ c˜ao de Bernoul-
li(θ). Ent˜ao, podemos escrever
f(x|θ) = θ
x
(1 −θ)
1−x
=

θ
1 −θ

x
(1 −θ) = e
x log(
θ
1−θ
)+log(1−θ)
, x = {0, 1}.
Portanto a distribui¸ c˜ao de X pertence `a fam´ılia exponencial unidimensional
com
c(θ) = log

θ
1 −θ

, d(θ) = log(1 −θ),
T(x) = x, S(x) = 0, A = {0, 1}.
Exemplo 2.4.2. Seja X uma vari´avel aleat´oria com distribui¸ c˜ao N(µ, 1).
Temos, ent˜ao, que
f(x|µ) =
1


e

(x−µ)
2
2
= e
µx−
µ
2
2

x
2
2
−log


.
Portanto a distribui¸ c˜ao da vari´avel aleat´oria X pertence `a fam´ılia exponencial
unidimensional com
c(µ) = µ, d(µ) = −
µ
2
2
,
T(x) = x e S(x) = −
x
2
2
−log

2π, A = IR.
Outras distribui¸ c˜oes que podem ser colocadas na forma da fam´ılia exponen-
cial unidimensional s˜ao, por exemplo, binomial, de Poisson e exponencial. O
pr´oximo resultado estabelece que amostras aleat´orias de fam´ılias exponenciais
unidimensionais s˜ao tamb´em membros da fam´ılia exponencial unidimensional.
Teorema 2.4.1. Sejam X
1
, . . . , X
n
uma amostra aleat´ oria de tamanho n da
vari´ avel aleat´ oria X, com fun¸c˜ ao de densidade (ou de probabilidade) dada por
(2.4.1). Ent˜ ao, a distribui¸c˜ ao conjunta de X
1
, . . . , X
n
´e dada por
(2.4.2) f(x
1
, . . . , x
n
|θ) = e
c

(θ)
¸
n
i=1
T(xi)+d

(θ)+S

(x)
, x ∈ A
n
,
que tamb´em ´e da fam´ılia exponencial com T(x) =
¸
n
i=1
T(x
i
), c

(θ) = c(θ),
d

(θ) = nd(θ), e S

(x) =
¸
n
i=1
S(x
i
).
2.4 Fam´ılias Exponenciais 27
Notemos de (2.4.2) que considerando
h(x
1
, . . . , x
n
) = e
¸
n
i=1
S(xi)
n
¸
i=1
I
A
(x
i
), e g
θ
(T) = e
c(θ)
¸
n
i=1
T(xi)+nd(θ)
,
temos, pelo crit´erio da fatora¸ c˜ao, que a estat´ıstica T(X) =
¸
n
i=1
T(X
i
) ´e sufi-
ciente para θ.
Defini¸ c˜ao 2.4.2. Dizemos que a distribui¸c˜ ao da vari´ avel aleat´ oria (ou de um
vetor aleat´ orio) X pertence ` a fam´ılia exponencial de dimens˜ ao k se a fun¸c˜ ao
de densidade (ou de probabilidade) de X ´e dada por
(2.4.3) f(x|θ) = e
¸
k
j=1
cj(θ)Tj(x)+d(θ)+S(x)
, x ∈ A,
onde c
j
, T
j
, d e S s˜ ao fun¸c˜ oes reais, j = 1, . . . , k, e como no caso unidimen-
sional, d(θ) est´ a associado ` a constante de normaliza¸c˜ ao de (2.4.3) e A n˜ ao
depende de θ.
Tamb´em, no caso de dimens˜ao k, amostras de fam´ılias exponenciais de di-
mens˜ao k tˆem distribui¸ c˜oes que s˜ao membros da fam´ılia exponencial de di-
mens˜ao k. Para uma amostra X
1
, . . . , X
n
de uma vari´avel aleat´oria com fun¸ c˜ao
de densidade (ou de probabilidade) dada por (2.4.3), temos que a fun¸ c˜ao de
densidade (ou de probabilidade) conjunta de X
1
, . . . , X
n
´e dada por
f(x
1
, . . . , x
n
|θ) = e
¸
k
j=1
c

j
(θ)
¸
n
i=1
Tj(x
i
)+d

(θ)+S

(x)
,
onde
T

j
(x) =
n
¸
i=1
T
j
(x
i
), c

j
(θ) = c
j
(θ),
S

(x) =
n
¸
i=1
S(x
i
), d

(θ) = nd(θ).
Nesse caso, (T

1
, . . . , T

k
) ´e conjuntamente suficiente para θ.
Exemplo 2.4.3. Consideremos mais uma vez a situa¸ c˜ao do Exemplo 2.3.1.
Nesse caso, temos que θ = (µ, σ
2
), com
(2.4.4) f(x|θ) =
1

2πσ
e

(x−µ)
2

2
,
= e

1

2
x
2
+
µ
σ
2
x−
µ
2

2

1
2
log σ
2
−log


,
que ´e da fam´ılia exponencial bidimensional com
28 2. Estimadores Eficientes e Estat´ısticas Suficientes
T
1
(x) = x, T
2
(x) = x
2
, c
1
(θ) =
µ
σ
2
, c
2
(θ) = −
1

2
,
d(θ) = −
µ

2

1
2
log σ
2
, S(x) = −log

2π, A = IR.
A distribui¸ c˜ao de uma amostra aleat´oria da densidade (2.4.4) ´e tamb´em da
fam´ılia exponencial com T
1
(X) =
¸
n
i=1
X
i
e T
2
(X) =
¸
n
i=1
X
2
i
, que s˜ao con-
juntamente suficientes para (µ, σ
2
).
Exemplo 2.4.4. Vamos considerar agora o caso em que o vetor (X, Y ) ´e dis-
tribu´ıdo de acordo com a distribui¸ c˜ao normal bivariada com θ = (µ
x
, µ
y
, σ
2
x
, σ
2
y
,
ρ), que denotamos por

X
Y

∼ N
2

µ
x
µ
y

;

σ
2
x
ρσ
x
σ
y
ρσ
x
σ
y
σ
2
y

,
e com densidade
(2.4.5) f(x, y|θ) =
σ
−1
x
σ
−1
y

2π(1 −ρ
2
)
e

1
2(1−ρ
2
)

(x−µx)
2
σ
2
x


σxσy
(x−µx)(y−µy)+
(y−µy)
2
σ
2
y

.
A densidade pode ser escrita como
f(x, y|θ) = e
1
(1−ρ
2
)

µx
σ
2
x

ρµy
σxσy

x+
1
(1−ρ
2
)

µy
σ
2
y

ρµx
σxσy

y
e

1
2(1−ρ
2

2
x
x
2

1
2(1−ρ
2

2
y
y
2
+
ρ
(1−ρ
2
)σxσy
xy
e

µ
2
x
2(1−ρ
2

2
x

µ
2
y
2(1−ρ
2

2
y
+
ρµxµy
(1−ρ
2
)σxσy
−log σxσy

1−ρ
2
−log 2π
,
que corresponde a uma densidade na forma da fam´ılia exponencial de dimens˜ao
5, em que
c
1
(θ) =
1
(1 −ρ
2
)
¸
µ
x
σ
2
x

ρµ
y
σ
x
σ
y

, T
1
(x, y) = x,
c
2
(θ) =
1
(1 − ρ
2
)
¸
µ
y
σ
2
y

ρµ
x
σ
x
σ
y

, T
2
(x, y) = y,
c
3
(θ) = −
1
2(1 −ρ
2

2
x
, T
3
(x, y) = x
2
,
c
4
(θ) = −
1
2(1 −ρ
2

2
y
, T
4
(x, y) = y
2
,
c
5
(θ) =
ρ
(1 −ρ
2

x
σ
y
, T
5
(x, y) = xy.
2.5 Estimadores Baseados em Estat´ısticas Suficientes 29
As fun¸ c˜oes d(θ) e S(x, y) s˜ao obtidas de maneira similar.
Consideremos uma amostra aleat´ oria (X
1
, Y
1
), . . . , (X
n
, Y
n
) da densidade
normal bivariada (2.4.5). Temos, portanto, que a estat´ıstica
T
1
=

n
¸
i=1
X
i
,
n
¸
i=1
Y
i
,
n
¸
i=1
X
2
i
,
n
¸
i=1
Y
2
i
,
n
¸
i=1
X
i
Y
i

´e conjuntamente suficiente para θ = (µ
x
, µ
y
, σ
2
x
, σ
2
y
, ρ). Notemos que a es-
tat´ıstica
T
2
= (X, Y , S
2
x
, S
2
y
, S
xy
),
onde S
2
x
=
¸
n
i=1
(X
i
− X)
2
/n, S
2
y
=
¸
n
i=1
(Y
i
− Y )
2
/n e S
xy
=
¸
n
i=1
(X
i

X)(Y
i
− Y )/n ´e equivalente a T
1
e, portanto, ´e tamb´em conjuntamente sufi-
ciente para θ. Estimadores comumente considerados para θ e que s˜ao fun¸ c˜oes
de T
2
s˜ao
(2.4.6) ˆ µ
x
= X, ˆ µ
y
= Y , ˆ σ
2
x
=
n
¸
i=1
(X
i
−X)
2
/n, ˆ σ
2
y
=
n
¸
i=1
(Y
i
−Y )
2
/n,
e
(2.4.7) ˆ ρ =
¸
n
i=1
(X
i
−X)(Y
i
−Y )

¸
n
i=1
(X
i
−X)
2
¸
n
i=1
(Y
i
−Y )
2
.
O estimador ˆ ρ ´e conhecido como coeficiente de correla¸ c˜ao de Pearson. Podemos
mostrar que os estimadores de θ dados por (2.4.6) e (2.4.7) s˜ao estimadores de
m´axima verossimilhan¸ ca.
2.5 Estimadores Baseados em Estat´ısticas Suficientes
Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X com fun¸ c˜ao
de densidade (ou de probabilidade) f(x|θ). Seja T = T(X
1
, . . . , X
n
) uma es-
tat´ıstica suficiente para θ e S = S(X
1
, . . . , X
n
) um estimador de θ que n˜ao ´e
fun¸ c˜ao da estat´ıstica suficiente T. Ent˜ao,
(2.5.1)
ˆ
θ = E[S|T],
´e um estimador de θ, ou seja, ´e uma fun¸ c˜ao de T que n˜ao depende de θ,
pois, sendo T suficiente, a distribui¸ c˜ao condicional de X
1
, . . . , X
n
dado T ´e
independente de θ. Notemos que S = S(X
1
, . . . , X
n
) ´e uma fun¸ c˜ao apenas de
X
1
, . . . , X
n
. Temos, tamb´em, que se S ´e um estimador n˜ao viciado de θ, ent˜ao
ˆ
θ ´e tamb´em n˜ao viciado para θ (veja o Exerc´ıcio 2.8). Contudo o resultado mais
30 2. Estimadores Eficientes e Estat´ısticas Suficientes
importante, conhecido como Teorema de Rao-Blackwell, estabelece que, se S ´e
um estimador n˜ao viciado de θ, ent˜ao,
(2.5.2) V ar[
ˆ
θ] ≤ V ar[S],
para todo θ. Para provar esse resultado, notemos que
V ar[S] = E{V ar[S|T]} +V ar{E[S|T]}
≥ V ar{E[S|T]} = V ar[
ˆ
θ],
pois E{V ar[S|T]} ≥ 0. Portanto temos de (2.5.2) que o estimador
ˆ
θ baseado
na estat´ıstica suficiente T apresenta uma variˆancia menor (ou igual) que a
variˆancia do estimador n˜ao viciado S. Desse modo, qualquer estimador S que
n˜ao ´e fun¸ c˜ao de uma estat´ıstica suficiente pode ser melhorado pelo procedi-
mento (2.5.1).
Exemplo 2.5.1. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria
X ∼ Poisson(θ). Queremos estimar P(X = 0) = τ = e
−θ
. Temos que a
estat´ıstica T =
¸
n
i=1
X
i
´e suficiente para θ. Consideremos
S =

1, X
1
= 0,
0, caso contr´ario.
Temos que E(S) = P(X
1
= 0) = e
−θ
, logo S ´e n˜ao viciado para e
−θ
. Notemos
que, para t = 0, 1, 2, ...,
E[S|T = t] = P(X
1
= 0|T = t) =
P(
¸
n
i=2
X
i
= t)P(X
1
= 0)
P(
¸
n
i=1
X
i
= t)
=
e
−(n−1)θ
((n −1)θ)
t
t!
e
−θ
t!
e
−nθ
(nθ)
t
=

n −1
n

t
,
portanto de acordo com (2.5.1) temos que o estimador
ˆ τ =

n −1
n

¸
n
i=1
Xi
´e n˜ao viciado e ´e melhor que o estimador S, pois apresenta EQM menor.
A seguir apresentamos a defini¸ c˜ao de estat´ıstica completa que, em conjunto
com a defini¸ c˜ao de suficiˆencia, possibilita a obten¸ c˜ao do estimador ´otimo, isto
´e, o estimador n˜ao viciado de variˆancia uniformemente m´ınima.
Defini¸ c˜ao 2.5.1. Uma estat´ıstica T = T(X
1
, . . . , X
n
) ´e dita ser completa em
rela¸c˜ ao ` a fam´ılia f(x|θ) : θ ∈ Θ, se a ´ unica fun¸c˜ ao real g, definida no dom´ınio
2.5 Estimadores Baseados em Estat´ısticas Suficientes 31
de T, tal que E[g(T)] = 0, para todo θ ´e a fun¸c˜ ao nula, isto ´e, g(T) = 0 com
probabilidade 1.
Exemplo 2.5.2. Consideremos novamente o Exemplo 2.2.1. Temos que
E[g(T)] =
n
¸
x=0
g(x)

n
x

θ
x
(1 −θ)
n−x
= 0 para todo θ,
se e somente se
(2.5.3)
n
¸
x=0
g(x)

n
x

ρ
x
= 0, para todo ρ
onde ρ = θ/(1 − θ). Como o lado esquerdo de (2.5.3) ´e um polinˆomio em ρ de
grau n temos que g(x) = 0 para todo x. Portanto T =
¸
n
i=1
X
i
´e completa em
rela¸ c˜ao `a fam´ılia Binomial.
Exemplo 2.5.3. Sejam X
1
, X
2
uma amostra aleat´oria da vari´avel X ∼
Bernoulli(θ). Seja T = X
1
− X
2
. Temos que E(T) = E(X
1
− X
2
) = 0, logo
existe a fun¸ c˜ao g(T) = T tal que E(g(T)) = 0, mas g(T) = 0 com probabilidade
1. Portanto T = X
1
−X
2
n˜ao ´e completa.
A demonstra¸ c˜ao do teorema a seguir pode ser encontrada em Lehmann
(1986).
Teorema 2.5.2. Suponha que X tenha distribui¸c˜ ao da fam´ılia exponencial k-
dimensional (como definida em 2.4.2). Ent˜ ao, a estat´ıstica
T(X) =

n
¸
i=1
T
1
(X
i
), . . . ,
n
¸
i=1
T
k
(X
i
)

´e suficiente para θ. T(X) ser´ a tamb´em completa desde que o dom´ınio de
varia¸c˜ ao de (c
1
(θ), . . . , c
k
(θ)) contenha um retˆ angulo k-dimensional.
No caso uniparam´etrico, ´e necess´ario que o dom´ınio de varia¸ c˜ao de c(θ)
contenha um intervalo da reta. No caso bidimensional, um quadrado e assim
por diante.
Teorema 2.5.3. (Lehmann-Scheff´e) Sejam X
1
, . . . , X
n
uma amostra aleat´ oria
da vari´ avel aleat´ oria X com f.d.p. (ou f.p.), f(x|θ). Seja T uma estat´ıstica
suficiente e completa. Seja S um estimador n˜ ao viciado de θ. Ent˜ ao
ˆ
θ = E(S|T)
´e o ´ unico estimador n˜ ao viciado de θ baseado em T e ´e o estimador n˜ ao viciado
de variˆ ancia uniformemente m´ınima (ENVVUM) para θ.
Prova. De (2.5.1) e (2.5.2) temos que
ˆ
θ ´e um estimador n˜ao viciado de θ e que,
na procura de ENVVUM’s para θ, basta procurar entre os que s˜ao fun¸ c˜ao de
32 2. Estimadores Eficientes e Estat´ısticas Suficientes
T (pois os que n˜ao s˜ao podem ser melhorados). Falta provar, ent˜ao, que h´a um
´ unico estimador n˜ao viciado de θ que ´e fun¸ c˜ao de T. Para isso, suponha que
existam
ˆ
θ
1
e
ˆ
θ
2
, ambos fun¸ c˜oes de T, tais que
E(
ˆ
θ
1
) = E(
ˆ
θ
2
) = θ,
de modo que E(
ˆ
θ
1

ˆ
θ
2
) = 0 e como T ´e completa,
ˆ
θ
1

ˆ
θ
2
= 0, e portanto
ˆ
θ
1
=
ˆ
θ
2
com probabilidade 1.
Exemplo 2.5.4. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da distribui¸ c˜ao de
Poisson com parˆametro θ. Pelos Exemplos 2.2.4 e 2.5.2 temos que T =
¸
n
i=1
X
i
´e uma estat´ıstica suficiente e completa. Como X ´e um estimador n˜ao viciado
de θ e ´e fun¸ c˜ao de T, ´e o ENVVUM.
2.6 Exerc´ıcios
2.1. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X ∼
N(0, σ
2
).
(i) Encontre o limite inferior da variˆancia dos estimadores n˜ao viciados de σ
2
.
(ii) Encontre uma estat´ıstica suficiente para σ
2
.
(iii) Obtenha a partir desta estat´ıstica um estimador n˜ao viciado para σ
2
.
(iv) Verifique se este estimador ´e eficiente.
2.2. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X ∼
Binomial(2, θ).
(i) Encontre o limite inferior da variˆancia dos estimadores n˜ao viciados de θ.
(ii) Encontre uma estat´ıstica suficiente para θ.
(iii) Obtenha um estimador n˜ao viciado para θ que seja fun¸ c˜ao da estat´ıstica
suficiente.
(iv) Verifique se o estimador ´e eficiente.
2.3. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da distribui¸ c˜ao da vari´avel
aleat´oria X com fun¸ c˜ao densidade de probabilidade dada por
f(x|θ) = θx
θ−1
, 0 < x < 1, θ > 0.
(i) Mostre que a f.d.p. pertence `a fam´ılia exponencial.
(ii) Encontre o limite inferior da variˆ ancia dos estimadores n˜ao viciados de θ.
(iii) Encontre uma estat´ıstica suficiente para θ e sua distribui¸ c˜ao.
(iv) Sugira um estimador n˜ao viciado para θ que seja fun¸ c˜ao da estat´ıstica
suficiente e verifique se ´e eficiente.
2.4. SejamX
1
, X
2
uma amostra aleat´ oria da vari´avel aleat´oria X ∼ Poisson(θ).
Mostre que T = X
1
+ 2X
2
n˜ao ´e suficiente para θ.
2.6 Exerc´ıcios 33
2.5. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X com
fun¸ c˜ao de densidade (ou de probabilidade) f(x|θ) para a qual as condi¸ c˜oes
de regularidade est˜ao satisfeitas. Seja ˆ γ um estimador n˜ao viciado para g(θ).
Mostre que
V ar(ˆ γ) ≥
(g

(θ))
2
nE
¸

∂ log f(X|θ)
∂θ

2
.
2.6. Seja f(x|θ) uma fun¸ c˜ao densidade para a qual as condi¸ c˜oes de regularidade
est˜ao satisfeitas. Mostre que
E
¸

∂ log f(X|θ)
∂θ

2
¸
= −E
¸

2
log f(X|θ)
∂θ
2

.
2.7. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X com
f.d.p. dada por
f(x|θ) = e
−(x−θ)
, x > θ, θ > 0.
(i) Encontre uma estat´ıstica suficiente para θ.
(ii) Baseado nesta estat´ıstica, obtenha um estimador n˜ao viciado para θ.
2.8. Mostre que se S ´e um estimador n˜ao viciado de θ, ent˜ao
ˆ
θ dado por (2.5.1)
tamb´em ´e n˜ao viciado para θ.
2.9. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X ∼
N(µ, 1).
(i) Mostre que o estimador ˆ γ = X
2
−1/n ´e n˜ao viciado para g(µ) = µ
2
.
(ii) Existe ENVVUM para µ
2
?
(iii) Encontre o limite inferior da variˆancia dos estimadores n˜ao viciados de
g(µ) = µ
2
e verifique se ˆ γ ´e eficiente.
2.10. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria. X ∼
Bernoulli(θ). Obtenha o ENVVUM para θ(1 −θ).
Sugest˜ao: verifique se S
2
=
n
(n−1)
X(1 −X) ´e n˜ao viciado para θ(1 −θ).
2.11. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X com
distribui¸ c˜ao geom´etrica com parˆametro θ, isto ´e,
f(x|θ) = θ(1 −θ)
x
, x = 0, 1, 2, ..., 0 < θ < 1.
Encontre o ENVVUM para 1/θ.
2.12. SejamY
1
, . . . , Y
n
vari´aveis aleat´orias independentes onde Y
i
∼ N(βx
i
, σ
2
),
onde x
i
´e conhecido, i = 1, . . . , n. Note que, neste caso, as vari´aveis Y
i
n˜ao s˜ao
identicamente distribu´ıdas.
34 2. Estimadores Eficientes e Estat´ısticas Suficientes
(i) Encontre uma estat´ıstica conjuntamente suficiente para β e σ
2
.
(ii) Baseado nessa estat´ıstica, obtenha os ENVVUM para β e para σ
2
.
3. M´etodos de Estima¸c˜ao
No cap´ıtulo anterior consideramos um crit´erio para verificar se determinado
estimador ´e ou n˜ao eficiente. Contudo tal procedimento n˜ao ´e um m´etodo que
possibilita, em geral, a obten¸ c˜ao de estimadores em situa¸ c˜oes espec´ıficas. Vimos
tamb´em que todo bom estimador deve ser fun¸ c˜ao de uma estat´ıstica suficiente.
Neste cap´ıtulo vamos considerar alguns m´etodos que possibilitam a obten¸ c˜ao
de estimadores em situa¸ c˜oes espec´ıficas. O primeiro m´etodo que consideramos ´e
o m´etodo de m´axima verossimilhan¸ ca em que estimadores s˜ao obtidos a partir
da maximiza¸ c˜ao da fun¸ c˜ao de verossimilhan¸ ca. O segundo m´etodo considerado
´e o m´etodo dos momentos em que estimadores s˜ao obtidos igualando-se os
momentos amostrais aos correspondentes momentos populacionais.
3.1 O M´etodo de M´axima Verossimilhan¸ca
O conceito de fun¸ c˜ao de verossimilhan¸ ca, enunciado a seguir, ´e central na teoria
da verossimilhan¸ ca.
Defini¸ c˜ao 3.1.1. Sejam X
1
, . . . , X
n
uma amostra aleat´ oria de tamanho n da
vari´ avel aleat´ oria X com fun¸c˜ ao de densidade (ou de probabilidade) f(x|θ),
com θ ∈ Θ, onde Θ ´e o espa¸co param´etrico. A fun¸c˜ ao de verossimilhan¸ca de θ
correspondente ` a amostra aleat´ oria observada ´e dada por
(3.1.1) L(θ; x) =
n
¸
i=1
f(x
i
|θ).
Defini¸ c˜ao 3.1.2. O estimador de m´ axima verossimilhan¸ca de θ ´e o valor
ˆ
θ ∈ Θ
que maximiza a fun¸c˜ ao de verossimilhan¸ca L(θ; x).
O logaritmo natural da fun¸ c˜ao de verossimilhan¸ ca de θ ´e denotado por
(3.1.2) l(θ; x) = log L(θ; x).
N˜ao ´e dif´ıcil verificar que o valor de θ que maximiza a fun¸ c˜ao de verossimi-
lhan¸ ca L(θ; x), tamb´em maximiza l(θ; x) dada por (3.1.2). Al´em disso, no caso
36 3. M´etodos de Estima¸c˜ao
uniparam´etrico onde Θ ´e um intervalo da reta e l(θ; x) ´e deriv´avel, o estimador
de m´axima verossimilhan¸ ca pode ser encontrado como a raiz da equa¸ c˜ao de
verossimilhan¸ ca
(3.1.3) l

(θ; x) =
∂l(θ; x)
∂θ
= 0.
Em alguns exemplos simples, a solu¸ c˜ao da equa¸ c˜ao de verossimilhan¸ ca pode ser
obtida explicitamente. Em situa¸ c˜oes mais complicadas, a solu¸ c˜ao da equa¸ c˜ao
(3.1.3) ser´a em geral obtida por procedimentos num´ericos. Para se concluir que
a solu¸ c˜ao da equa¸ c˜ao (3.1.3) ´e um ponto de m´aximo, ´e necess´ario verificar se
(3.1.4) l
′′
(
ˆ
θ; x) =

2
log L(θ; x)
∂θ
2
|
θ=
ˆ
θ
< 0.
Em situa¸ c˜oes em que Θ ´e discreto ou em que o m´aximo de l(θ; x) ocorre na
fronteira de Θ (Exemplo 1.3.8), o estimador de m´axima verossimilhan¸ ca n˜ao
pode ser obtido a partir da solu¸ c˜ao de (3.1.3). Em tais situa¸ c˜oes, o m´aximo ´e
obtido a partir da inspe¸ c˜ao da fun¸ c˜ao de verossimilhan¸ ca.
Exemplo 3.1.1. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da distribui¸ c˜ao da
vari´avel aleat´oria X ∼ N(µ, 1). Nesse caso, a fun¸ c˜ao de verossimilhan¸ ca ´e dada
por
L(µ; x) =

1

n
e

1
2
¸
n
i=1
(xi−µ)
2
,
com Θ = {µ; −∞< µ < ∞}. Como
l(µ; x) = −nlog

2π −
1
2
n
¸
i=1
(x
i
−µ)
2
,
segue de (3.1.3) que a equa¸ c˜ao de verossimilhan¸ ca ´e dada por
n
¸
i=1
(x
i
− ˆ µ) = 0,
logo o estimador de m´axima verossimilhan¸ ca de µ ´e dado por
ˆ µ =
1
n
n
¸
i=1
X
i
= X.
N˜ao ´e dif´ıcil verificar nesse caso que (3.1.4) est´a satisfeita.
Ent˜ao X, al´em de ser eficiente (Exemplo 2.1.1) e fun¸ c˜ao da estat´ıstica sufi-
ciente, ´e tamb´em estimador de m´axima verossimilhan¸ ca.
3.1 O M´etodo de M´axima Verossimilhan¸ca 37
Exemplo 3.1.2. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria
X ∼ Bernoulli(θ). Nesse caso, a fun¸ c˜ ao de verossimilhan¸ ca de θ ´e dada por
L(θ; x) = θ
¸
n
i=1
xi
(1 −θ)
n−
¸
n
i=1
xi
,
com Θ = {θ; 0 < θ < 1}. De modo que
l(θ; x) =
n
¸
i=1
x
i
log θ +

n −
n
¸
i=1
x
i

log(1 −θ).
Portanto segue de (3.1.3) que a equa¸ c˜ao de verossimilhan¸ ca de θ ´e dada por
¸
n
i=1
x
i
ˆ
θ

(n −
¸
n
i=1
x
i
)
1 −
ˆ
θ
= 0,
logo o estimador de m´axima verossimilhan¸ ca de θ ´e dado por
ˆ
θ =
1
n
n
¸
i=1
X
i
,
pois neste caso, (3.1.4) tamb´em est´a verificada.
O exemplo a seguir ilustra uma situa¸ c˜ao em que a equa¸ c˜ao (3.1.3) n˜ao pode
ser utilizada.
Exemplo 3.1.3. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria
X ∼ U(0, θ). Conforme visto no Exemplo 2.2.5, podemos escrever a fun¸ c˜ao de
verossimilhan¸ ca como
(3.1.5) L(θ; x) =
1
θ
n
I
[0,θ]
(x
(n)
)I
[0,x
(n)
]
(x
(1)
),
onde Θ = {θ; θ > 0}. Nesse caso, a equa¸ c˜ao de verossimilhan¸ ca (3.1.3) n˜ao leva
a nenhum estimador para θ. Por outro lado, o gr´afico da fun¸ c˜ao de verossimi-
lhan¸ ca de θ ´e dado pela Figura 3.1.
Como a fun¸ c˜ao de verossimilhan¸ ca (3.1.5) ´e nula para θ < x
(n)
e vale 1/θ
n
para θ ≥ X
(n)
, temos que o m´aximo de L(θ; x) ´e dado por
ˆ
θ = X
(n)
, que ´e uma
estat´ıstica suficiente para θ. Nesse caso o estimador de m´axima verossimilhan¸ ca
de θ ´e viciado (ver Exemplo 1.3.8.).
38 3. M´etodos de Estima¸c˜ao
Figura 3.1. Fun¸ c˜ ao de Verossimilhan¸ ca
0
L(θ,x)
n
n
x
) (
1
) (n
x
θ
No caso discreto, o estimador de m´axima verossimilhan¸ ca de θ,
ˆ
θ, pode ser
interpretado como o valor de θ que maximiza a probabilidade de se observar a
amostra que foi selecionada. O exemplo a seguir ilustra bem esse fato.
Exemplo 3.1.4. Temos uma caixa com bolas brancas e vermelhas. Sabe-se
que a propor¸ c˜ao θ de bolas vermelhas na caixa ´e 1/3 ou 2/3. Portanto Θ =
{1/3, 2/3}. Para obtermos informa¸ c˜ao sobre θ, uma amostra de n = 3 bolas
´e observada com reposi¸ c˜ao e apresenta bola vermelha na primeira extra¸ c˜ao e
branca na segunda e na terceira extra¸ c˜oes. Definindo
X
i
=

1, se a i-´esima retirada apresenta bola vermelha
0, se a i-´esima retirada apresenta bola branca,
para i = 1, 2, 3, temos que a fun¸ c˜ao de verossimilhan¸ ca de θ associada `a amostra
observada ´e dada por
L(θ; x) = P
θ
[X
1
= 1, X
2
= 0, X
3
= 0] = θ(1 −θ)(1 −θ) = θ(1 −θ)
2
.
Como
L

1
3
; x

=
1
3

2
3

2
=
4
27
e
L

2
3
; x

=
2
3

1
3

2
=
2
27
,
3.1 O M´etodo de M´axima Verossimilhan¸ca 39
temos que a estimativa de m´axima verossimilhan¸ ca de θ ´e dada por
ˆ
θ = 1/3,
pois
L

1
3
; x

> L

2
3
; x

.
O exemplo que apresentamos a seguir ilustra uma situa¸ c˜ao em que o esti-
mador de m´axima verossimilhan¸ ca n˜ao ´e ´ unico.
Exemplo 3.1.5. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da distribui¸ c˜ao da
vari´avel aleat´oria X ∼ U(θ −1/2, θ + 1/2), isto ´e
f(x|θ) = I
[θ−1/2;θ+1/2]
(x),
θ > 0. Temos, ent˜ao, que
L(θ; x) = I
[θ−1/2;θ+1/2]
(x
1
) . . . I
[θ−1/2;θ+1/2]
(x
n
)
= I
[x
(n)
−1/2;x
(1)
+1/2]
(θ),
pois
θ −1/2 ≤ x
i
≤ θ + 1/2, i = 1, . . . , n,
se e somente se
θ ≤ x
(1)
+ 1/2 e x
(n)
−1/2 ≤ θ.
A Figura 3.2 apresenta o gr´afico da fun¸ c˜ao L(θ; x).
Figura 3.2. Fun¸ c˜ ao de Verossimilhan¸ ca
0
1


L(θ,x)
x
(n)
-1/2
x
(1)
+1/2 θ
40 3. M´etodos de Estima¸c˜ao
Como L(θ; x) ´e nula para θ < x
(n)
−1/2 e para θ > x
(1)
+ 1/2 e constante
no intervalo [x
(n)
− 1/2; x
(1)
+ 1/2], temos que qualquer ponto desse intervalo
´e um estimador de m´axima verossimilhan¸ ca de θ. Em particular,
ˆ
θ =
X
(1)
+X
(n)
2
´e um estimador de m´axima verossimilhan¸ ca de θ.
Em alguns casos, principalmente quando a verossimilhan¸ ca est´a associada
a modelos mais complexos, a fun¸ c˜ao de verossimilhan¸ ca n˜ao apresenta solu¸ c˜ao
anal´ıtica expl´ıcita. Em tais casos, os estimadores de m´axima verossimilhan¸ ca
podem ser obtidos por meio de m´etodos num´ericos. Vamos denotar por U(θ) a
fun¸ c˜ao escore, ou seja,
U(θ) =
∂ log L(θ; x)
∂θ
,
temos que, para o estimador de m´axima verossimilhan¸ ca
ˆ
θ,
U(
ˆ
θ) = 0,
de modo que, expandindo U(
ˆ
θ) em s´erie de Taylor em torno de um ponto θ
0
,
obtemos
0 = U(
ˆ
θ)

= U(θ
0
) + (
ˆ
θ −θ
0
)U


0
),
ou seja, chegamos a equa¸ c˜ao
(3.1.6)
ˆ
θ

= θ
0

U(θ
0
)
U


0
)
.
Da equa¸ c˜ao (3.1.6), obtemos o procedimento iterativo (Newton-Raphson)
(3.1.7) θ
j+1
= θ
j

U(θ
j
)
U


j
)
,
que ´e iniciado com o valor θ
0
e ent˜ao um novo valor θ
1
´e obtido a partir de
(3.1.7) e assim por diante, at´e que o processo se estabilize, ou seja, para um
dado ǫ pequeno, |θ
j+1
− θ
j
| < ǫ. Nesse caso, o ponto
ˆ
θ em que o processo
se estabiliza ´e tomado como o estimador de m´axima verossimilhan¸ ca de θ.
Em alguns casos, a substitui¸ c˜ao de U


j
) em (3.1.7) por E[U


j
)], ou seja, a
informa¸ c˜ao de Fisher em θ
j
correspondente `a amostra observada multiplicada
por −1, apresenta significativa simplifica¸ c˜ao no procedimento. Esse m´etodo ´e
conhecido como m´etodo do escore. O exemplo a seguir ilustra uma aplica¸ c˜ao
de tal procedimento.
Exemplo 3.1.6. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da distribui¸ c˜ao da
vari´avel aleat´oria X com fun¸ c˜ao de densidade dada por
3.1 O M´etodo de M´axima Verossimilhan¸ca 41
(3.1.8) f(x|θ) =
1
2
(1 +θx); −1 ≤ x ≤ 1, −1 ≤ θ ≤ 1.
Nesse caso,
L(θ; x) =
1
2
n
n
¸
i=1
(1 +θx
i
),
de modo que
U(θ) =
∂ log L(θ; x)
∂θ
=
n
¸
i=1
x
i
1 +θx
i
.
Assim
U

(θ) = −
n
¸
i=1
x
2
i
(1 +θx
i
)
2
,
de modo que o procedimento iterativo (3.1.7) se reduz a
(3.1.9) θ
j+1
= θ
j
+
¸
n
i=1
xi
1+θjxi
¸
n
i=1
x
2
i
(1+θjxi)
2
.
Podemos verificar que a informa¸ c˜ao de Fisher de θ ´e dada, para θ = 0, por
I
F
(θ) =
1

3

log

1 + θ
1 − θ

−2θ

,
de modo que um procedimento alternativo a (3.1.9) ´e dado por
(3.1.10) θ
j+1
= θ
j

¸
n
i=1
xi
1+θjxi
nI
F

j
)
.
Uma amostra de tamanho n = 20 ´e gerada a partir da densidade (3.1.8) com
θ = 0, 4. Os dados foram gerados a partir do m´etodo da fun¸ c˜ao de distribui¸ c˜ao,
ou seja, sendo F(X) = U, temos que U ∼ U(0, 1). Nesse caso, como
F(x) =

x
−1
1
2
(1 +θy)dy =
x + 1
2
+
θ(x
2
−1)
4
,
temos que se U ∼ U(0, 1), ent˜ao,
(3.1.11) x =
−1 + 2

1/4 −θ(1/2 −θ/4 −u)
θ
tem distribui¸ c˜ao com fun¸ c˜ao de densidade dada por (3.1.8), ou seja, para u
gerado a partir da U(0, 1), x obtido a partir de (3.1.11) ´e um valor gerado a
partir da distribui¸ c˜ao com fun¸ c˜ao de densidade dada por (3.1.8). As observa¸ c˜oes
geradas s˜ao dadas na Tabela 3.1.
42 3. M´etodos de Estima¸c˜ao
Tabela 3.1. n = 20 observa¸ c˜oes da densidade (3.1.8) com θ = 0, 4
0,3374 0,9285 0,6802 -0,2139 0,1052
-0,9793 -0,2623 -0,1964 0,5234 -0,0349
-0,6082 0,7509 0,3424 -0,7010 -0,2605
0,4077 -0,7435 0,9862 0,9704 0,5313
Escrevendo um programa em Fortran (outra linguagem poderia tamb´em ser
facilmente utilizada) para calcular o estimador de m´axima verossimilhan¸ ca,
obtemos, ap´os 10 itera¸ c˜oes do programa, a Tabela 3.2 em que a segunda coluna
corresponde ao procedimento dado em (3.1.9) e a terceira coluna corresponde
ao procedimento (3.1.10). Como valor inicial para o procedimento iterativo foi
usado θ
0
= X = 0, 1282.
Tabela 3.2. Valores de
ˆ
θ obtidos nas 10 itera¸ c˜oes
Itera¸ c˜ao Usando (3.1.9) Usando (3.1.10)
1 0,128188 0,128188
2 0,358745 0,371861
3 0,351170 0,349163
4 0,351140 0,351328
5 0,351140 0,351123
6 0,351140 0,351142
7 0,351140 0,351140
8 0,351140 0,351140
9 0,351140 0,351140
10 0,351140 0,351140
3.2 Propriedades dos Estimadores de M´axima
Verossimilhan¸ca
O teorema a seguir apresenta uma propriedade importante dos estimadores de
m´axima verossimilhan¸ ca, estabelecendo que o estimador de m´axima verossimi-
lhan¸ ca ´e fun¸ c˜ao de uma estat´ıstica suficiente.
Teorema 3.2.1. Sejam X
1
, . . . , X
n
uma amostra aleat´ oria da vari´ avel aleat´ oria
X com fun¸c˜ ao de densidade (ou de probabilidade) f(x|θ). Seja T = T(X
1
, . . . ,
X
n
) uma estat´ıstica suficiente para θ. Ent˜ ao o estimador de m´ axima verossi-
milhan¸ca
ˆ
θ (se existir) ´e fun¸c˜ ao de T.
Prova. De acordo com o crit´erio da fatora¸ c˜ao, temos que se T ´e suficiente para
θ, ent˜ao,
L(θ; x) = h(x)g
θ
(T(x)),
3.2 Propriedades dos Estimadores de M´axima Verossimilhan¸ca 43
onde g
θ
(T(x)) depende de x somente atrav´es de T. Como h(x) ´e constante
com rela¸ c˜ao a θ, temos que maximar L(θ; x) com rela¸ c˜ao a θ ´e equivalente a
maximizar g
θ
(T(x)) com rela¸ c˜ao a θ. Como g
θ
(T(x)) depende de x somente
atrav´es de T, temos que
ˆ
θ ser´a obrigatoriamente uma fun¸ c˜ao de T. Outras
propriedades s˜ao apresentadas nas subse¸ c˜oes seguintes.
3.2.1 Invariˆancia
A seguir apresentamos uma propriedade bastante importante do m´etodo de
m´axima verossimilhan¸ ca. Seja g(.) uma fun¸ c˜ao real 1 : 1 (invers´ıvel) definida
em Θ.
Teorema 3.2.2. (O princ´ıpio da invariˆ ancia.) Sejam X
1
, . . . , X
n
uma amostra
aleat´ oria da vari´ avel aleat´ oria X com fun¸c˜ ao de densidade (ou de probabilidade)
f(x|θ). Se
ˆ
θ ´e um estimador de m´ axima verossimilhan¸ca de θ, ent˜ ao g(
ˆ
θ) ´e um
estimador de m´ axima verossimilhan¸ca de g(θ).
Prova. Provamos o resultado para o caso em que g ´e 1:1. Sendo g(.) uma
fun¸ c˜ao 1 : 1, temos que g(.) ´e invers´ıvel, de modo que θ = g
−1
(g(θ)). Assim
(3.2.1) L(θ; x) = L(g
−1
(g(θ)); x),
de modo que
ˆ
θ maximiza os dois lados de (3.2.1). Logo
ˆ
θ = g
−1
(
¯
g(θ)),
portanto
¯
g(θ) = g(
ˆ
θ),
ou seja, o estimador de m´axima verossimilhan¸ ca de g(θ) ´e g(
ˆ
θ).
Exemplo 3.2.1. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da
vari´avel aleat´oria X ∼ Bernoulli(θ). Nesse caso, o parˆametro de interesse ´e
g(θ) = θ(1−θ). De acordo com o princ´ıpio da invariˆancia, temos que o estimador
de m´axima verossimilhan¸ ca de g(θ) ´e dado por
(3.2.2) g(
ˆ
θ) = X(1 −X).
De acordo com o Exerc´ıcio 2.10 temos que o estimador dado em (3.2.2) ´e viciado
para g(θ). Por outro lado, usando o Exerc´ıcio 2.10, temos que
E[g(
ˆ
θ)] −g(θ) =
1
n
θ(1 −θ),
que decresce `a medida que n aumenta.
44 3. M´etodos de Estima¸c˜ao
Exemplo 3.2.2. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da distribui¸ c˜ao da
vari´avel aleat´oria X ∼ N(µ, 1). Vimos que ˆ µ = X ´e o estimador de m´axima
verossimilhan¸ ca de µ. Suponhamos que queremos estimar
g(µ) = P
µ
[X ≤ 0] = Φ(−µ).
Pelo princ´ıpio da invariˆancia, temos que
g(ˆ µ) = Φ(−X)
´e o estimador de m´axima verossimilhan¸ ca de g(µ).
Exemplo 3.2.3. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da distribui¸ c˜ao da
vari´avel aleat´oria X ∼ Exp(θ) com densidade
f(x|θ) = θe
−θx
,
θ > 0 e x > 0. Nesse caso,
ˆ
θ = X
−1
´e o estimador de m´axima verossimilhan¸ ca
de θ. Suponhamos que ´e de interesse estimar
g(θ) = P
θ
[X > 1] = e
−θ
.
De acordo com o princ´ıpio da invariˆ ancia, temos que o estimador de m´axima
verossimilhan¸ ca ´e
g(
ˆ
θ) = e
−1/X
.
Nos trˆes exemplos acima, vimos situa¸ c˜oes em que o estimador de m´axima
verossimilhan¸ ca ´e uma fun¸ c˜ao complicada da amostra observada. Certamente,
n˜ao ´e uma tarefa f´acil encontrar a distribui¸ c˜ao do estimador Φ(−X), por exem-
plo. Contudo, se o tamanho da amostra for grande, o estimador de m´axima
verossimilhan¸ ca apresentar´a uma distribui¸ c˜ao aproximadamente normal, como
veremos adiante. Al´em disso, veremos que o estimador de m´axima verossimi-
lhan¸ ca ´e eficiente, em grandes amostras.
3.2.2 Distribui¸ c˜ao em grandes amostras
No caso em que o tamanho da amostra ´e grande, e as condi¸ c˜oes de regularidade,
especificadas no Cap´ıtulo 2, est˜ao satisfeitas, temos que
(3.2.3)

n(
ˆ
θ −θ)
a
∼ N

0,
1
I
F
(θ)

,
e
(3.2.4)

n(g(
ˆ
θ) −g(θ))
a
∼ N

0,
(g

(θ))
2
I
F
(θ)

,
3.3 Verossimilhan¸ca para Amostras Independentes 45
onde ”
a
∼”significa distribui¸ c˜ao assint´otica. Temos ent˜ao que, para amostras
grandes, os estimadores de m´axima verossimilhan¸ ca de θ e g(θ) s˜ao aproxi-
madamente n˜ao viciados, cujas variˆancias coincidem com os correspondentes
limites inferiores das variˆancias dos estimadores n˜ao viciados de θ e g(θ). Por-
tanto, em grandes amostras, temos que o estimador de m´axima verossimilhan¸ ca
´e eficiente.
Exemplo 3.2.4. Considere o modelo do Exemplo 3.2.1. De acordo com (3.2.4),
temos que a distribui¸ c˜ao do estimador de m´axima verossimilhan¸ ca (3.2.2) ´e
dada por

n(g(
ˆ
θ) −θ(1 −θ))
a
∼ N

0, (1 −2θ)
2
θ(1 −θ)

,
pois g

(θ) = 1 −2θ.
Exemplo 3.2.5. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria
X ∼ Poisson(θ). Nesse caso, temos que o estimador de m´axima verossimi-
lhan¸ ca de θ ´e
ˆ
θ = X (verifique!). De acordo com o princ´ıpio da invariˆancia,
temos que o estimador de m´axima verossimilhan¸ ca de e
−θ
´e dado por
g(
ˆ
θ) = e
−X
.
Do resultado (3.2.4), temos que

n(g(
ˆ
θ) −e
−θ
)
a
∼ N(0, θe
−2θ
).
3.3 Verossimilhan¸ca para Amostras Independentes
Existem situa¸ c˜oes em que temos duas ou mais amostras independentes de dis-
tribui¸ c˜oes que dependem de um parˆametro θ de interesse. No caso de duas
amostras aleat´orias independentes, X
1
, . . . , X
n
e Y
1
, . . . , Y
n
, podemos escrever
(3.3.1) L(θ; x, y) = L(θ; x)L(θ; y),
devido `a independˆencia entre as amostras. Portanto a verossimilhan¸ ca conjunta
´e igual ao produto da verossimilhan¸ ca correspondente `a amostra X
1
, . . . , X
n
pela verossimilhan¸ ca correspondente `a amostra Y
1
, . . . , Y
n
. De (3.3.1), podemos
escrever
l(θ; x, y) = l(θ; x) +l(θ; y),
de modo que o logaritmo da verossimilhan¸ ca conjunta ´e igual `a soma do logari-
tmo das verossimilhan¸ cas correspondentes a cada uma das amostras. O exemplo
que apresentamos a seguir ilustra uma tal situa¸ c˜ao.
Exemplo 3.3.1. Sejam X
1
, . . . , X
n
uma amostra aleat´oria correspondente a
X ∼ N(µ, 4) e Y
1
, . . . , Y
n
uma amostra aleat´oria correspondente a Y ∼ N(µ, 9).
46 3. M´etodos de Estima¸c˜ao
Assumindo que as duas amostras s˜ao independentes, temos que a verossimi-
lhan¸ ca correspondente `a amostra conjunta ´e dada por
(3.3.2) L(µ; x, y) = L(µ; x)L(µ; y)
=

1
2

n
e

¸
n
i=1
(x
i
−µ)
2
8

1
3

m
e

¸
m
i=1
(y
i
−µ)
2
18
=

1
2

n

1
3

m
e

¸
n
i=1
(x
i
−µ)
2
8

¸
m
i=1
(y
i
−µ)
2
18
.
Usando o crit´erio da fatora¸ c˜ao, n˜ao ´e dif´ıcil verificar que uma estat´ıstica sufi-
ciente para µ ´e dada por
(3.3.3) T(x, y) =
¸
n
i=1
X
i
4
+
¸
m
i=1
Y
i
9
.
Al´em disso, o logaritmo da verossimilhan¸ ca (3.3.2) pode ser escrito como
l(µ; x, y) = −
n
2
log 8π −
m
2
log 18π −
n
¸
i=1
(x
i
−µ)
2
8

m
¸
i=1
(y
i
−µ)
2
18
,
de modo que
∂ log L(µ; x, y)
∂µ
=
n
¸
i=1
(x
i
− ˆ µ)
4
+
m
¸
i=1
(y
i
− ˆ µ)
9
= 0,
cuja solu¸ c˜ao ´e dada por
ˆ µ =
1
4
¸
n
i=1
X
i
+
1
9
¸
m
i=1
Y
i
n
4
+
m
9
.
Podemos notar que o estimador de m´axima verossimilhan¸ ca ´e fun¸ c˜ao da es-
tat´ıstica suficiente dada em (3.3.3).
3.4 O Caso Multiparam´etrico
Nas se¸ c˜oes anteriores discutimos a obten¸ c˜ao dos estimadores de m´axima
verossimilhan¸ ca e estudamos suas propriedades no caso em que a fun¸ c˜ao de
verossimilhan¸ ca depende apenas de um parˆametro. Nesta se¸ c˜ao vamos consi-
derar situa¸ c˜oes em que θ = (θ
1
, . . . , θ
r
), ou seja, a verossimilhan¸ ca depende de
dois ou mais parˆametros. O espa¸ co param´etrico ser´a denotado por Θ. Nos casos
em que as condi¸ c˜oes de regularidade est˜ao satisfeitas, os estimadores de m´axima
verossimilhan¸ ca de θ
1
, . . . , θ
r
podem ser obtidos como solu¸ c˜ao das equa¸ c˜oes
3.4 O Caso Multiparam´etrico 47
∂ log L(θ; x)
∂θ
i
= 0,
i = 1, . . . , r. Nos casos em que o suporte da distribui¸ c˜ao de X depende de θ ou
o m´aximo ocorre na fronteira de Θ, o estimador de m´axima verossimilhan¸ ca ´e
em geral obtido inspecionando o gr´afico da fun¸ c˜ao de verossimilhan¸ ca, como no
caso uniparam´etrico. Nos casos em que a fun¸ c˜ao de verossimilhan¸ ca depende
de dois parˆametros, θ
1
e θ
2
, utilizando a equa¸ c˜ao
∂ log L(θ
1
, θ
2
; x)
∂θ
1
= 0,
obtemos uma solu¸ c˜ao para θ
1
como fun¸ c˜ao de θ
2
, que podemos denotar por
ˆ
θ
1

2
). Substituindo a solu¸ c˜ao para θ
1
na verossimilhan¸ ca conjunta, temos agora
uma fun¸ c˜ao apenas de θ
2
, ou seja,
g(θ
2
; x) = l(
ˆ
θ
1

2
), θ
2
; x),
conhecida como verossimilhan¸ ca perfilada de θ
2
que pode ser usada para que o
estimador de m´axima verossimilhan¸ ca de θ
2
possa ser obtido. A maximiza¸ c˜ao
de g(θ
2
; x) pode, ent˜ao, ser feita de maneira usual, ou seja, atrav´es de deriva¸ c˜ao,
quando poss´ıvel.
Exemplo 3.4.1. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria
X ∼ N(µ, σ
2
), onde µ e σ
2
s˜ao desconhecidos. Temos, ent˜ao, que θ = (µ, σ
2
),
com
L(θ; x) =

1
2πσ
2

n/2
e

¸
n
i=1
(x
i
−µ)
2

2
,
de modo que
l(µ, σ
2
; x) = −
n
2
log 2πσ
2

n
¸
i=1
(x
i
−µ)
2

2
.
Assim
∂l(µ, σ
2
; x)
∂µ
= 2
n
¸
i=1
(x
i
− ˆ µ)

2
= 0
que leva ao estimador ˆ µ = X. Portanto o logaritmo da verossimilhan¸ ca perfilada
de σ
2
´e dada por
g(σ
2
; x) = −
n
2
log 2πσ
2

1

2
n
¸
i=1
(x
i
−x)
2
,
logo o estimador de m´axima verossimilhan¸ ca de σ
2
´e obtido como solu¸ c˜ao da
equa¸ c˜ao
48 3. M´etodos de Estima¸c˜ao
∂g(σ
2
; x)
∂σ
2
= −
n
2ˆ σ
2
+
n
¸
i=1
(x
i
−x)
2
2ˆ σ
4
= 0
que leva ao estimador
ˆ σ
2
=
1
n
n
¸
i=1
(X
i
−X)
2
,
de modo que os estimadores de m´axima verossimilhan¸ ca de µ e σ
2
s˜ao dados,
respectivamente, por
ˆ µ = X =
1
n
n
¸
i=1
X
i
e ˆ σ
2
=
1
n
n
¸
i=1
(X
i
−X)
2
.
No caso multiparam´etrico, as mesmas propriedades como invariˆancia, fun¸ c˜ao
da estat´ıstica suficiente e outras, continuam valendo. O mesmo se aplica ao
caso de v´arias amostras independentes, conforme ilustra o exemplo a seguir.
Exemplo 3.4.2. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de X ∼ N(µ
x
, σ
2
)
e Y
1
, . . . , Y
m
uma amostra aleat´oria de Y ∼ N(µ
y
, σ
2
). Nesse caso, θ =

x
, µ
y
, σ
2
). Portanto a verossimilhan¸ ca correspondente `a amostra observada ´e
dada por
L(θ; x, y) =

1

2πσ

n

1

2πσ

m
e

1

2
¸
n
i=1
(xi−µx)
2

1

2
¸
m
i=1
(yi−µy)
2
,
logo
l(θ; x, y) = −
(n +m)
2
log 2π−
(m +n)
2
log σ
2

n
¸
i=1
(x
i
−µ
x
)
2

2

m
¸
i=1
(y
i
− µ
y
)
2

2
.
Derivando l(θ; x, y) com rela¸ c˜ao a µ
x
, µ
y
e σ
2
, chegamos `as equa¸ c˜oes
∂l(θ; x, y)
∂µ
x
=
n
¸
i=1
(x
i
− ˆ µ
x
) = 0,
∂l(θ; x, y)
∂µ
y
=
m
¸
j=1
(y
i
− ˆ µ
y
) = 0
e
∂l(θ; x, y)
∂σ
2
= −
(m+n)
2
1
ˆ σ
2
+
1
2ˆ σ
4

n
¸
i=1
(x
i
− ˆ µ
x
)
2
+
m
¸
j=1
(y
j
− ˆ µ
y
)
2

= 0,
cuja solu¸ c˜ao apresenta os estimadores
3.5 Fam´ılia Exponencial e o M´etodo de M´axima Verossimilhan¸ca 49
ˆ µ
x
= X, ˆ µ
y
= Y
e
ˆ σ
2
=
¸
n
i=1
(X
i
−X)
2
+
¸
m
j=1
(Y
j
−Y )
2
m +n
.
3.5 Fam´ılia Exponencial e o M´etodo de M´axima
Verossimilhan¸ca
Se a distribui¸ c˜ao da vari´avel aleat´oria X pertence `a fam´ılia exponencial unidi-
mensional de distribui¸ c˜oes, ent˜ao o estimador de m´axima verossimilhan¸ ca de θ
baseado na amostra X = (X
1
, . . . , X
n
) ´e solu¸ c˜ao da equa¸ c˜ao
(3.5.1) E[T(X)] = T(X),
desde que a solu¸ c˜ao perten¸ ca ao espa¸ co param´etrico correspondente ao parˆa-
metro θ. Esse resultado pode ser estendido para o caso k-param´etrico em que
os estimadores de m´axima verossimilhan¸ ca de θ
1
, . . . , θ
k
seguem como solu¸ c˜oes
das equa¸ c˜oes
(3.5.2) E[T
j
(X)] = T
j
(X),
j = 1, . . . , k.
Exemplo 3.5.1. Consideremos uma popula¸ c˜ao com 3 tipos de indiv´ıduos de-
nominados (rotulados) 1, 2, e 3, ocorrendo nas propor¸ c˜oes de Hardy-Weinberg
p(1; θ) = θ
2
, p(2; θ) = 2θ(1 −θ), p(3; θ) = (1 −θ)
2
,
0 < θ < 1. Por exemplo, p(1; θ) = θ
2
significa que a probabilidade de se observar
um indiv´ıduo do tipo 1 ´e θ
2
. Para uma amostra de n = 3 indiv´ıduos, se x
1
= 1,
x
2
= 2 e x
3
= 1, onde x
1
= 1 significa que o primeiro indiv´ıduo observado ´e do
tipo 1, x
2
= 2 significa que o segundo indiv´ıduo observado ´e do tipo 2 e x
3
= 1
significa que o terceiro indiv´ıduo observado ´e do tipo 1, temos que a fun¸ c˜ao de
verossimilhan¸ ca correspondente ´e dada por
L(θ; x) = p(1; θ)p(2; θ)p(1; θ) = 2θ
5
(1 −θ),
de modo que de (3.1.3),
l

(θ; x) =
5
ˆ
θ

1
1 −
ˆ
θ
= 0
leva ao estimador
ˆ
θ = 5/6 (verifique que l
′′
(
ˆ
θ; x) < 0). Em geral, para
uma amostra de n indiv´ıduos, sendo n
1
, n
2
, n
3
o n´ umero de elementos de
{x
1
, . . . , x
n
} iguais a 1, 2 e 3, respectivamente, temos que
50 3. M´etodos de Estima¸c˜ao
L(θ; x) = 2
n2
θ
2n1+n2
(1 −θ)
2n3+n2
= 2
n2

θ
1 −θ

2n1+n2
(1 −θ)
2n
.
Ent˜ao c(θ) = log(θ/(1 −θ)) e T(X) = 2N
1
+N
2
de modo que
E[T(X)] = E[2N
1
+N
2
] = 2nθ
2
+ 2nθ(1 −θ) = 2nθ.
Assim a equa¸ c˜ao (3.5.1) torna-se
2N
1
+ N
2
= 2n
ˆ
θ
que produz o estimador
ˆ
θ = (2N
1
+N
2
)/2n.
Exemplo 3.5.2. Consideremos (X
1
, Y
1
), . . . , (X
n
, Y
n
) uma amostra aleat´oria
da distribui¸ c˜ao normal bivariada dada no Exemplo 2.4.4, em que ´e obtida a
estat´ıstica suficiente T = (T
1
, T
2
, T
3
, T
4
, T
5
), com T
1
=
¸
n
i=1
X
i
, T
2
=
¸
n
i=1
Y
i
,
T
3
=
¸
n
i=1
X
2
i
, T
4
=
¸
n
i=1
Y
2
i
, T
5
=
¸
n
i=1
X
i
Y
i
, para θ = (µ
x
, µ
y
, σ
2
x
, σ
2
y
, ρ).
Como E[X
i
] = µ
x
, E[Y
i
] = µ
y
, E[X
2
i
] = µ
2
x

2
x
, E[Y
2
i
] = µ
2
y

2
y
e E[X
i
Y
i
] =
µ
x
µ
y
+ ρσ
x
σ
y
, i = 1, . . . , n, segue que E[T
1
] = nµ
x
, E[T
2
] = nµ
y
, E[T
3
] =

2
x
+ nσ
2
x
, E[T
4
] = nµ
2
y
+ nσ
2
y
e E[T
5
] = nµ
x
µ
y
+ nρσ
x
σ
y
, ent˜ao de (3.5.2),
temos que o estimador de m´axima verossimilhan¸ ca de θ tem componentes dadas
pelas express˜oes (2.4.6) e (2.4.7).
3.6 O M´etodo dos Momentos
O m´etodo dos momentos ´e um dos m´etodos de estima¸ c˜ao mais simples e antigos.
Esse m´etodo tem sido utilizado desde o s´eculo XVIII. Seja
m
r
=
1
n
n
¸
i=1
X
r
i
,
r ≥ 1, o r-´esimo momento amostral de uma amostra aleat´oria X
1
, . . . , X
n
. Seja
µ
r
= E[X
r
],
r ≥ 1, o r-´esimo momento populacional. O m´etodo dos momentos consiste na
obten¸ c˜ao de estimadores para θ = (θ
1
, . . . , θ
k
) resolvendo-se as equa¸ c˜oes
m
r
= µ
r
,
r = 1, . . . , k.
Exemplo 3.6.1. Consideremos novamente o problema da estima¸ c˜ao do n´ umero
de t´axis em uma cidade. Sendo N o n´ umero de t´axis, vimos que
3.6 O M´etodo dos Momentos 51
P[X
i
= k] =
1
N
, k = 1, . . . , N,
onde X
i
´e o n´ umero do i-´esimo t´axi observado. Como o primeiro momento
populacional ´e dado por
µ
1
= E[X] =
N + 1
2
,
temos que um estimador para N, utilizando-se os primeiros momentos popula-
cional e amostral, ´e dado pela solu¸ c˜ao da equa¸ c˜ao
ˆ
N + 1
2
= X,
de onde segue que
ˆ
N = 2X −1.
Notemos que, nesse caso, o estimador obtido pelo m´etodo dos momentos n˜ao ´e
fun¸ c˜ao da estat´ıstica suficiente X
(n)
.
Exemplo 3.6.2. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da distribui¸ c˜ao da
vari´avel aleat´oria X, com densidade gama com parˆametros α e β dados por
f(x|α, β) =
β
α
x
α−1
e
−βx
Γ(α)
, x > 0, α > 0, β > 0.
Como
E[X] =
α
β
e V ar[X] =
α
β
2
,
temos que estimadores para α e β s˜ao obtidos como solu¸ c˜ao das equa¸ c˜oes
ˆ α
ˆ
β
=
1
n
n
¸
i=1
X
i
e
ˆ α
2
ˆ
β
2
+
ˆ α
ˆ
β
2
=
1
n
n
¸
i=1
X
2
i
que fornece os estimadores
(3.6.1) ˆ α =
X
2
ˆ σ
2
, e
ˆ
β =
X
ˆ σ
2
,
onde ˆ σ
2
=
¸
n
i=1
(X
i
− X)
2
/n, como antes. Nesse caso, n˜ao ´e poss´ıvel obter-
mos estimadores de m´axima verossimilhan¸ ca expl´ıcitos para α e β. M´etodos
computacionais como o m´etodo do escore considerado na Se¸ c˜ao 3.1 devem ser
utilizados. Como valores iniciais para esses m´etodos computacionais, podemos
utilizar os estimadores dados por (3.6.1). Notemos tamb´em que os estimadores
dados por (3.6.1) n˜ao s˜ao fun¸ c˜oes da estat´ıstica conjuntamente suficiente, que
nesse caso ´e dada por (
¸
n
i=1
X
i
,
¸
n
i=1
X
i
).
52 3. M´etodos de Estima¸c˜ao
3.7 Estimadores Consistentes
Os m´etodos de estima¸ c˜ao considerados nesta se¸ c˜ao produzem, em geral, esti-
madores consistentes, ou seja, `a medida que o tamanho da amostra aumenta, os
estimadores ficam t˜ao pr´oximos do parˆametro que est´a sendo estimado quanto
desejado. Consistˆencia est´a ligada ao conceito de convergˆencia em probabilida-
de (veja James, 1981).
Defini¸ c˜ao 3.7.1. Sejam X
1
, . . . , X
n
uma amostra aleat´ oria da distribui¸c˜ ao da
vari´ avel aleat´ oria X que depende do parˆ ametro θ. Dizemos que o estimador
ˆ
θ =
ˆ
θ(X
1
, . . . , X
n
) ´e consistente para o parˆ ametro θ, se,
lim
n→∞
P(|
ˆ
θ −θ| > ǫ) = 0.
Em geral, usamos a desigualdade de Chebyshev (veja James,1981) para a veri-
fica¸ c˜ao dessa propriedade.
Exemplo 3.7.1. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da
distribui¸ c˜ao da vari´avel aleat´oria X com m´edia θ e variˆancia σ
2
. Temos, usando
a desigualdade de Chebyshev, que
P(|X −θ| > ǫ) ≤
σ
2

2
,
de modo que
lim
n→∞
P(|X −θ| > ǫ) = 0,
e portanto X ´e consistente para θ.
3.8 Exerc´ıcios
3.1. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X com
fun¸ c˜ao de densidade de probabilidade
f(x|θ) =
θ
x
2
, x ≥ θ, θ > 0.
Encontre o estimador de m´axima verossimilhan¸ ca de θ e de E
θ
[1/X].
3.2. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da vari´avel
aleat´oria X com fun¸ c˜ao de densidade de probabilidade dada por
f(x|θ) = θx
θ−1
, 0 < x < 1, θ > 0.
(i) Encontre os estimadores de m´axima verossimilhan¸ ca de θ e de g(θ) = θ/(1+
θ). (ii) Encontre a distribui¸ c˜ao aproximada dos estimadores em (i) quando n ´e
grande.
3.8 Exerc´ıcios 53
3.3. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X ∼
N(µ, 1). Encontre o estimador de m´axima verossimilhan¸ ca de g(µ) = P
µ
[X > 0]
e sua distribui¸ c˜ao aproximada quando n ´e grande.
3.4. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da vari´avel
aleat´oria X com fun¸ c˜ao de densidade de probabilidade dada por
f(x|θ) =
x
θ
2
e
−x/θ
, x ≥ 0, θ > 0.
(i) Encontre o estimador de m´axima verossimilhan¸ ca de θ e verifique se ele ´e
eficiente.
(ii) Encontre o estimador de m´axima verossimilhan¸ ca de V ar[X] e encontre
sua distribui¸ c˜ao aproximada em grandes amostras.
3.5. Encontre a distribui¸ c˜ao aproximada para grandes amostras do estimador
de m´axima verossimilhan¸ ca de Φ(−θ), considerado no Exemplo 3.2.2.
3.6. Encontre o estimador de m´axima verossimilhan¸ ca de θ
2
no Exerc´ıcio 2.9
e compare seu erro quadr´atico m´edio com o do estimador eficiente ˆ γ dado no
Exerc´ıcio 2.9, (i).
3.7. Considere uma amostra aleat´oria de tamanho n da distribui¸ c˜ao da vari´avel
aleat´oria X onde cada observa¸ c˜ao apresenta um de trˆes resultados poss´ıveis (por
exemplo, favor´avel, contra e indiferente), que denotamos por “0”, “1” e “2”.
Suponhamos que a probabilidade de “0” ´e p
1
= (1 −θ)/2, a probabilidade da
ocorrˆencia do resultado “1” ´e p
2
= 1/2 e do resultado “2” ´e p
3
= θ/2. Seja n
1
:
o n´ umero de vezes que “0” ocorre, n
2
: o n´ umero de vezes que “1” ocorre e n
3
:
o n´ umero de vezes que o “2” ocorre.
(i) Encontre, como fun¸ c˜ao de n
1
, n
2
, n
3
, uma estat´ıstica suficiente para θ.
(ii) Encontre o estimador de m´axima verossimilhan¸ ca de θ.
3.8. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da vari´avel
aleat´oria X com fun¸ c˜ao de densidade de probabilidade dada por
f(x|θ) = θ(θ + 1)x
θ−1
(1 −x), 0 ≤ x ≤ 1, θ > 0.
(i) Encontre, usando o m´etodo dos momentos, um estimador para θ.
(ii) Encontre o estimador de m´axima verossimilhan¸ ca de θ e sua distribui¸ c˜ao
aproximada em grandes amostras.
3.9. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da vari´avel X com
fun¸ c˜ao de densidade de probabilidade dada por
f(x|θ) =
1
β
e

(x−α)
β
e
−e

(x−α)
β
, −∞< x < ∞, −∞< α < ∞, β > 0.
54 3. M´etodos de Estima¸c˜ao
(i) Encontre a distribui¸ c˜ao de Y = e
X
.
(ii) Discuta a obten¸ c˜ao do estimador de m´axima verossimilhan¸ ca para β,
quando α = 0.
(iii) Encontre estat´ısticas conjuntamente suficientes para α e β.
(iv) Discuta a obten¸ c˜ao dos estimadores de m´axima verossimilhan¸ ca para α e
β e verifique se s˜ao fun¸ c˜oes das estat´ısticas obtidas em (iii).
(v) Usando (i), gere uma amostra aleat´oria de tamanho n =20 da vari´avel
aleat´oria Y . A partir desta amostra, obtenha uma amostra de tamanho n=20
para a vari´avel aleat´oria X e usando um programa de computador, obtenha os
estimadores de m´axima verossimilhan¸ ca de α e β.
3.10. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da vari´avel
aleat´oria X com fun¸ c˜ao de densidade de probabilidade
f(x|θ) =
(x + 1)
θ(θ + 1)
e
−x/θ
, x > 0, θ > 0.
(i) Encontre o estimador de m´axima verossimilhan¸ ca para θ e sua distribui¸ c˜ao
em grandes amostras.
(ii) Obtenha um estimador para θ usando o m´etodo dos momentos.
3.11. Refa¸ ca o Exerc´ıcio 3.7 supondo agora que p
1
= θ
2
, p
2
= 2θ(1 − θ) e
p
3
= (1 −θ)
2
.
3.12. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da distribui¸ c˜ao
N(0, σ
2
). Encontre o estimador de m´axima verossimilhan¸ ca de σ e sua dis-
tribui¸ c˜ao em grandes amostras.
3.13. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X com
distribui¸ c˜ao exponencial com parˆametro θ. Encontre o estimador de m´axima
verossimilhan¸ ca de g(θ) = P[X > 1] e sua distribui¸ c˜ao aproximada quando n
for grande.
3.14. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X com
fun¸ c˜ao de densidade de probabilidade Weibull dada por
f(x|θ, a) = θax
a−1
e
−θx
a
; x, a, θ > 0.
(i) Suponha que a seja conhecido. Encontre o estimador de m´axima verossimi-
lhan¸ ca de θ e sua distribui¸ c˜ao aproximada para quando n for grande.
(ii) Suponha agora que θ e a s˜ao desconhecidos. Encontre as equa¸ c˜oes de
verossimilhan¸ ca para os dois parˆametros. Proponha um procedimento iterativo
para encontrar os estimadores de m´axima verossimilhan¸ ca dos dois parˆametros.
Discuta a implementa¸ c˜ao do procedimento no computador.
(iii) Gere uma amostra com n = 10 elementos da distribui¸ c˜ao de X assumindo
que a = θ = 1. Usando o procedimento iterativo em (ii), obtenha estimadores
3.8 Exerc´ıcios 55
de m´axima verossimilhan¸ ca de a e de θ. Compare as estimativas com os valores
usados para simular a amostra.
3.15. Obtenha a informa¸ c˜ao de Fisher I
F
(θ) no Exemplo 3.1.6.
3.16. Obtenha os estimadores de m´axima verossimilhan¸ ca de β e σ
2
no modelo
de regress˜ao dado no Exerc´ıcio 2.12.
3.17. Verifique se os estimadores obtidos nos Exemplos 3.1.2, 3.1.3, 3.2.1, 3.2.3
e 3.6.2 s˜ao consistentes.
3.18. Sejam Y
1
, . . . , Y
n
vari´aveis aleat´orias independentes com Y
i
∼ N(α +
βx
i
, σ
2
), onde x
i
´e conhecido, i = 1, . . . , n. Encontre os estimadores de m´axima
verossimilhan¸ ca de α, β e σ
2
.
3.19. Sejam Y
1
, . . . , Y
n
vari´aveis aleat´orias independentes com Y
i
∼ N(βx
i
,
σ
2
x
i
), onde x
i
> 0 ´e conhecido, i = 1, . . . , n. Encontre os estimadores de
m´axima verossimilhan¸ ca de β e σ
2
.
3.20. No caso do modelo do Exerc´ıcio 3.18, os estimadores de α e β obtidos
atrav´es do m´etodo de m´ınimos quadrados minimizam a soma de quadrados
¸
n
i=1
(Y
i
− α − βx
i
)
2
. Verifique que os estimadores de m´ınimos quadrados co-
incidem com os estimadores de m´axima verossimilhan¸ ca de α e β.
3.21. Defina o crit´erio correspondente para obter os estimadores de m´ınimos
quadrados para o modelo do Exerc´ıcio 3.19.
4. Introdu¸c˜ao `a Teoria das Decis˜oes.
Os Princ´ıpios Minimax e de Bayes
Neste cap´ıtulo apresentamos uma breve introdu¸ c˜ao `a teoria das decis˜oes. Os
problemas usuais de estima¸ c˜ao e testes de hip´oteses s˜ao vistos pela ´otica da teo-
ria dos jogos, em que os advers´arios s˜ao o estat´ıstico e a natureza. Em primeiro
lugar, apresentamos os elementos b´asicos da teoria das decis˜oes, sendo o obje-
tivo principal a minimiza¸ c˜ao da fun¸ c˜ao de risco. Como, em geral, n˜ao ´e poss´ıvel
a obten¸ c˜ao de um procedimento que minimize a fun¸ c˜ao de risco uniformemente
em θ, outros crit´erios para a obten¸ c˜ao de procedimentos ´otimos s˜ao necess´arios.
Dois desses procedimentos s˜ao discutidos neste cap´ıtulo. O primeiro ´e o pro-
cedimento minimax, em que o estat´ıstico procura precaver-se contra o risco
m´aximo. A seguir apresentamos o princ´ıpio de Bayes em que a caracter´ıstica
principal ´e a formula¸ c˜ao do problema de decis˜ao, assumindo que a natureza
utiliza um procedimento aleat´orio, representado por uma distribui¸ c˜ao de pro-
babilidade, para escolher um valor para θ. Solu¸ c˜oes gerais s˜ao apresentadas
para o estimador de Bayes com respeito a alguns tipos especiais de fun¸ c˜oes de
perda, dentre as quais destacamos a perda quadr´atica.
4.1 Os Elementos B´asicos
Os elementos b´asicos de um problema de decis˜ao s˜ao:
(i) um conjunto n˜ao vazio Θ dos poss´ıveis estados da natureza que na verdade
representa o espa¸ co param´etrico. A natureza escolhe para θ um valor nesse
conjunto;
(ii) um conjunto n˜ao vazio A das poss´ıveis ac˜oes que podem ser tomadas pelo
estat´ıstico. No caso de problemas de estima¸ c˜ao, A = Θ, em geral. No caso de
problemas de testes de hip´oteses, geralmente A consiste nas a¸ c˜oes de se aceitar
ou rejeitar uma hip´otese formulada;
(iii) uma fun¸ c˜ao d : X → A, denominada fun¸ c˜ao de decis˜ao, em que X ´e o
espa¸ co amostral associado a uma vari´avel aleat´oria X correspondente a um ex-
perimento idealizado pelo estat´ıstico para “espionar” (obter informa¸ c˜oes) sobre
a escolha de θ feita pela natureza. Seja D o conjunto (ou classe) das poss´ıveis
fun¸ c˜oes de decis˜ao. Nessa classe, o estat´ıstico procura um procedimento que
seja “melhor”, segundo algum crit´erio;
58 4. Introdu¸c˜ao `a Teoria das Decis˜oes
(iv) uma fun¸ c˜ao real l(θ, a), definida em Θ × A, que ser´a chamada de fun¸ c˜ao
de perda e que satisfaz `as seguintes propriedades:
(a) l(θ, a) ≥ 0, para todo θ ∈ Θ, a ∈ A,
e
(b) l(θ, a) = 0, quando a = θ,
ou seja, quando a a¸ c˜ao correta ´e tomada.
Portanto a fun¸ c˜ao l(θ, a) representa a perda incorrida pelo estat´ıstico ao
tomar a a¸ c˜ao a quando θ ´e a escolha feita pela natureza. Algumas fun¸ c˜oes
de perda comumente empregadas em problemas de decis˜ao s˜ao: (i) l(θ, a) =
(θ − a)
2
, comumente conhecida como perda quadr´atica; (ii) l(θ, a) = |θ − a|,
conhecida como perda do valor absoluto e (iii) l(θ, a) = c(θ)|θ −a|
r
, c(θ) > 0,
r > 0, que ´e uma perda mais geral, tendo as perdas em (i) e (ii) como casos
particulares.
Como n˜ao ´e poss´ıvel a implementa¸ c˜ao de procedimentos que minimizem
diretamente a fun¸ c˜ao de perda, pois essa depende de θ, que ´e desconhecido, o
estat´ıstico procura minimizar a fun¸ c˜ao de risco, definida a seguir.
Defini¸ c˜ao 4.1.1. A fun¸c˜ ao de risco correspondente ao procedimento (fun¸c˜ ao
de decis˜ ao) d e a fun¸c˜ ao de perda l(θ, a) ´e dada por
(4.1.1) R(θ, d) = E[l(θ, d(X))] =
¸
{x∈X}
l(θ, d(x))f(x|θ),
no caso discreto. No caso cont´ınuo, o somat´ orio na express˜ ao acima ´e sub-
stitu´ıdo por uma integral definida em X.
Em (4.1.1), f(x|θ) corresponde `a fun¸ c˜ao de verossimilhan¸ ca da amostra
observada (ver Defini¸ c˜ao 3.1.1). Portanto a fun¸ c˜ao de risco nada mais ´e do
que a perda m´edia sobre o espa¸ co amostral X, e ´e fun¸ c˜ao do parˆametro θ.
Podemos ent˜ao comparar procedimentos mediante `a utiliza¸ c˜ao da fun¸ c˜ao de
risco, conforme definido a seguir.
Defini¸ c˜ao 4.1.2. Dizemos que um procedimento d
1
´e melhor que um procedi-
mento d
2
, quando
(4.1.2) R(θ, d
1
) ≤ R(θ, d
2
),
para todo θ, e
(4.1.3) R(θ, d
1
) < R(θ, d
2
),
para algum θ.
No caso em que (4.1.2) e (4.1.3) est˜ao satisfeitas para todos os procedi-
mentos d
2
em uma certa classe D de procedimentos, ent˜ao dizemos que d
1
´e o
4.1 Os Elementos B´asicos 59
melhor procedimento em D. Al´em disso, estando as condi¸ c˜oes (4.1.2) e (4.1.3)
satisfeitas, temos que o procedimento d
2
´e dito ser inadmiss´ıvel. Graficamente,
temos a situa¸ c˜ao da Figura 4.1.
Figura 4.1 Figura 4.2


0
R(θ,d)
d
2
R(θ,d)
0


d
1
θ


0
d
2
d
1
R(θ,d)
θ
Contudo, em geral, ocorre a situa¸ c˜ ao da Figura 4.2, em que o procedimento
d
1
´e prefer´ıvel para alguns valores de θ, enquanto que para outros valores de θ,
d
2
´e prefer´ıvel. Portanto, em geral, n˜ao existe um procedimento que seja melhor
para todos os valores de θ. Em situa¸ c˜ oes como essa, outros crit´erios devem ser
utilizados para se decidir sobre um procedimento em certa classe D. O exemplo
que apresentamos a seguir ilustra uma tal situa¸ c˜ao.
Exemplo 4.1.1. Suponha que uma moeda apresenta cara com probabilidade
θ igual a 1/3 ou 2/3, ou seja, Θ = {1/3, 2/3}.
´
E ent˜ao adequado tomar como
espa¸ co das a¸ c˜oes A = {1/3, 2/3}. Para obter informa¸ c˜ao sobre θ, o estat´ıstico
faz um lan¸ camento da moeda e observa a vari´avel aleat´oria X que denota
o n´ umero de caras obtidas no lan¸ camento. O espa¸ co amostral associado ao
experimento ´e, portanto, X = {0, 1}. Nesse caso, podemos definir ent˜ao quatro
fun¸ c˜oes de decis˜ao, d
1
, d
2
, d
3
e d
4
, que s˜ao dadas por
d
1
(0) = 1/3, d
2
(0) = 1/3, d
3
(0) = 2/3, d
4
(0) = 2/3,
d
1
(1) = 2/3, d
2
(1) = 1/3, d
3
(1) = 2/3, d
4
(1) = 1/3.
Considerando a fun¸ c˜ao de perda do valor absoluto l(θ, a) = |θ − a|, e como a
distribui¸ c˜ao de X ´e discreta, temos que,
R(θ, d) = l(θ, d(0))P
θ
[X = 0] +l(θ, d(1))P
θ
[X = 1],
onde P
θ
[X = 1] = θ = 1 −P
θ
[X = 0]. Portanto, para θ = 1/3, temos que
60 4. Introdu¸c˜ao `a Teoria das Decis˜oes
R(1/3, d
1
) = l(1/3, d
1
(0)).2/3 +l(1/3, d
1
(1)).1/3
= 0.2/3 + 1/3.1/3 = 1/9,
R(1/3, d
2
) = 0.2/3 + 0.1/3 = 0,
R(1/3, d
3
) = 1/3.2/3 + 1/3.1/3 = 1/3,
R(1/3, d
4
) = 1/3.2/3 + 0.1/3 = 2/9.
Por outro lado, para θ = 2/3, de maneira similar, temos que
R(2/3, d
1
) = l(2/3, d
1
(0)).1/3 +l(2/3, d
1
(1)).2/3
= 1/3.1/3 + 0.2/3 = 1/9,
R(2/3, d
2
) = 1/3.1/3 + 1/3.2/3 = 1/3,
R(2/3, d
3
) = 0.1/3 + 0.2/9 = 0,
R(2/3, d
4
) = 0.1/3 + 1/3.2/3 = 2/9.
Resumindo os c´alculos acima, temos a Tabela 4.1.
Tabela 4.1. Riscos de d
1
, d
2
, d
3
, d
4
d θ = 1/3 θ = 2/3 maxR(θ; d)
d
1
1/9 1/9 1/9
d
2
0 1/3 1/3
d
3
1/3 0 1/3
d
4
2/9 2/9 2/9
Da Tabela 4.1 podemos concluir que R(θ, d
1
) < R(θ, d
4
), para θ = 1/3 e
θ = 2/3, de modo que d
4
´e inadmiss´ıvel. Com rela¸ c˜ao a d
1
, d
2
e d
3
, temos a
situa¸ c˜ao da Figura 4.2, em que nenhum procedimento ´e melhor para todo θ.
4.2 O Princ´ıpio Minimax
Conforme mencionado na introdu¸ c˜ao, o procedimento minimax ´e o procedi-
mento que protege o estat´ıstico contra o risco m´aximo.
Defini¸ c˜ao 4.2.1. Dizemos que o procedimento d
0
´e um procedimento minimax
numa classe D de procedimentos, se
sup
θ∈Θ
R(θ, d
0
) = inf
d∈D
sup
θ∈Θ
R(θ, d).
Conforme notamos a partir da Defini¸ c˜ao 4.2.1, o princ´ıpio minimax compara
simplesmente o m´aximo dos riscos dos procedimentos.
4.3 O Princ´ıpio de Bayes 61
Exemplo 4.2.1. Consideremos novamente a situa¸ c˜ao do Exemplo 4.1.1. Vimos
que o procedimento d
4
´e inadmiss´ıvel. Com rela¸ c˜ao aos procedimentos d
1
, d
2
e
d
3
, temos da Tabela 4.1 que o procedimento d
1
apresenta o menor risco m´aximo
e, portanto, ´e o procedimento minimax nesse caso.
Exemplo 4.2.2. Seja X uma ´ unica observa¸ c˜ao de uma vari´avel aleat´oria X
com distribui¸ c˜ao de Poisson com parˆametro θ. Portanto consideramos A = Θ =
(0, ∞), com X = {0, 1, 2, . . .}. Considerando a classe das fun¸ c˜oes de decis˜ao
D = {d; d(X) = cX}, onde c ´e uma constante, temos, para um procedimento d
em D, com rela¸ c˜ao a fun¸ c˜ao de perda
l(θ, a) =
(θ −a)
2
θ
,
que
R(θ, d) = E[l(θ, d(X))]
= E
¸
(θ −cX)
2
θ

=
1
θ
E[c(X −θ) +θ(c −1)]
2
(4.2.1) = c
2
+θ(c −1)
2
.
Como R(θ, d) dado em (4.2.1) ´e uma fun¸ c˜ao linear em θ e θ > 0, temos que
R(θ, d) tem m´aximo finito somente quando c = 1, pois, nesse caso, R(θ, d) = 1,
para todo θ, ou seja, quando c = 1,
max
θ∈Θ
R(θ, d) = 1.
Portanto, na classe D, d(X) = X ´e o procedimento minimax.
4.3 O Princ´ıpio de Bayes
Nesta se¸ c˜ao consideramos que a natureza utiliza um mecanismo aleat´orio para
escolher um valor para o parˆametro θ. Esse procedimento aleat´orio ´e repre-
sentado por uma distribui¸ c˜ao de probabilidade que chamamos de distribui¸ c˜ao
a priori com fun¸ c˜ao de densidade de probabilidade (ou fun¸ c˜ao de probabili-
dade, no caso discreto), representada por π(θ). Com rela¸ c˜ao a priori π, temos
a seguinte defini¸ c˜ao.
Defini¸ c˜ao 4.3.1. O risco de Bayes do procedimento d, com rela¸c˜ ao ` a perda
l(θ, d) ´e dado por
r(π, d) = E
π
[R(θ, d)]
62 4. Introdu¸c˜ao `a Teoria das Decis˜oes
(4.3.1) =
¸
{θ∈Θ}
R(θ, d)π(θ),
no caso discreto. No caso em que Θ ´e cont´ınuo, o somat´ orio em (4.3.1) ´e
substitu´ıdo pela integral correspondente, ou seja,
r(π, d) =

Θ
R(θ, d)π(θ)dθ.
Notemos que se R(θ, d) ´e constante (isto ´e, independente de θ), ent˜ao r(π, d) =
R(θ, d).
Defini¸ c˜ao 4.3.2. Uma fun¸c˜ ao de decis˜ ao d
B
´e chamada uma fun¸c˜ ao de decis˜ ao
de Bayes com respeito a priori π e a classe D das fun¸c˜ oes de decis˜ ao, se
r(π, d
B
) = min
d∈D
r(π, d).
Exemplo 4.3.1. Consideremos mais uma vez a situa¸ c˜ao do Exemplo 4.2.1,
sendo π(1/3) = p e π(2/3) = 1−p. De acordo com a Defini¸ c˜ao 4.3.1, temos que
r(π, d
1
) =
1
9
π(1/3) +
1
9
π(2/3) =
1
9
p +
1
9
(1 −p) = 1/9,
r(π, d
2
) = 0p +
1
3
(1 −p) =
1 −p
3
e
r(π, d
3
) =
1
3
p + 0(1 −p) =
p
3
.
Portanto temos que, se p < 1/3, d
3
´e a solu¸ c˜ao de Bayes. Se p = 1/3, ent˜ao d
1
e d
3
s˜ao solu¸ c˜oes de Bayes. Notemos que nesse caso a solu¸ c˜ao de Bayes n˜ao ´e
´ unica. Se 1/3 < p < 2/3, ent˜ao d
1
´e a solu¸ c˜ao de Bayes. Se p = 2/3, ent˜ao d
1
e
d
2
s˜ao solu¸ c˜oes de Bayes, de modo que nesse caso tamb´em a solu¸ c˜ao de Bayes
n˜ao ´e ´ unica. Se p > 2/3, ent˜ao a solu¸ c˜ao de Bayes ´e d
2
.
Exemplo 4.3.2. Com rela¸ c˜ao ao Exemplo 4.2.2, vimos que d(X) = X ´e a
solu¸ c˜ao minimax com rela¸ c˜ao a perda l(θ, a) = (θ − a)
2
/θ. Considerando a
priori exponencial com parˆametro um para θ, ou seja,
π(θ) = e
−θ
, θ > 0,
temos que
r(π, d) = E
π
[R(θ, d)] = E
π
[c
2
+θ(c −1)
2
]
= c
2
+ (c −1)
2
E
π
[θ]
= c
2
+ (c −1)
2
.
4.4 Estimadores de Bayes com Perda Quadr´atica 63
Como
∂r(π, d)
∂c
= 2c + 2(c −1) = 0,
temos que r(π, d) ´e m´ınimo quando c = 1/2, ou seja, com rela¸ c˜ao a priori e `a
perda acima, o estimador de Bayes na classe D ´e dado por d
B
(X) = X/2.
4.4 Estimadores de Bayes com Perda Quadr´atica
Com rela¸ c˜ao `a perda quadr´atica, ´e poss´ıvel a caracteriza¸ c˜ao dos estimadores
na classe D de todas as fun¸ c˜oes de decis˜ao. Notemos que no Exemplo 4.3.2,
o estimador de Bayes foi obtido numa particular classe de estimadores, ou
seja, D = {d; d(X) = cX}. Contudo a fun¸ c˜ao de perda n˜ao era quadr´atica. O
resultado para perda quadr´atica ´e enunciado e provado a seguir para o caso em
que X ´e uma vari´avel aleat´oria cont´ınua.
Teorema 4.4.1. Sejam X
1
, . . . , X
n
uma amostra aleat´ oria da distribui¸c˜ ao da
vari´ avel aleat´ oria X, com fun¸c˜ ao de densidade de probabilidade f(x|θ). Consi-
deremos para θ a distribui¸c˜ ao a priori com fun¸c˜ ao de densidade de probabilidade
π(θ). Ent˜ ao, com rela¸c˜ ao ` a perda quadr´ atica, o procedimento (estimador) de
Bayes na classe D de todas as fun¸c˜ oes de decis˜ ao ´e dado por
d
B
(X) = E[θ|X],
ou seja, ´e o valor esperado de θ calculado na distribui¸c˜ ao condicional de θ dado
X
1
, . . . , X
n
, que ´e denominada “distribui¸c˜ ao a posteriori de θ”.
Prova. Com rela¸ c˜ao `a perda quadr´atica, a fun¸ c˜ao de risco de um procedimento
qualquer d(X) ´e dada por
(4.4.1) R(θ, d) =

X
(θ −d(x)
2
)f(x|θ)dx,
onde x = (x
1
, . . . , x
n
), X ´e o espa¸ co amostral e f(x|θ) =
¸
n
i=1
f(x
i
|θ) ´e a
fun¸ c˜ao de verossimilhan¸ ca correspondente `a amostra observada. Com rela¸ c˜ao a
priori π, temos de (4.4.1) que o risco de Bayes do procedimento d(X) ´e dado
por
r(π, d) =

Θ
¸
X
(d(x) −θ)
2
f(x|θ)dx

π(θ)dθ
(4.4.2) =

Θ

X
(d(x) −θ)
2
f(x|θ)π(θ)dxdθ.
Como
64 4. Introdu¸c˜ao `a Teoria das Decis˜oes
(4.4.3) f(x|θ)π(θ) = f(x; θ) = π(θ|x)g(x),
temos de (4.4.2) que
r(π, d) =

Θ

X
(d(x) −θ)
2
π(θ|x)g(x)dxdθ
(4.4.4) =

X
¸
Θ
(d(x) −θ)
2
π(θ|x)dθ

g(x)dx.
De acordo com a Defini¸ c˜ao 4.3.2, temos que o procedimento de Bayes ´e o
procedimento que minimiza (4.4.4), ou seja, para cada x, ´e o procedimento que
minimiza
(4.4.5)

Θ
(d(x) −θ)
2
π(θ|x)dθ = E[(d(X) −θ)
2
|X].
Derivando (4.4.5) com rela¸ c˜ao a d(X) e igualando a derivada a zero, chegamos
ao procedimento
d
B
(X) = E[θ|X],
que ´e a forma geral do estimador de Bayes com rela¸ c˜ao `a perda quadr´atica.
De (4.4.3) temos que
(4.4.6) π(θ|x) =
f(x|θ)
g(x)
=
f(x|θ)π(θ)
g(x)
,
onde
(4.4.7) g(x) =

Θ
f(x|θ)π(θ)dθ
´e a densidade marginal de x = (x
1
, . . . , x
n
). A densidade π(θ|x) ´e denominada
fun¸ c˜ao de densidade de probabilidade a posteriori e pode ser interpretada di-
retamente a partir do Teorema de Bayes, ou seja, a densidade (ou fun¸ c˜ao de
probabilidade) condicional ´e igual `a densidade (ou fun¸ c˜ao de probabilidade)
conjunta dividida pela densidade (ou fun¸ c˜ao de probabilidade) marginal de x.
O Teorema 4.4.1 pode ser generalizado para o caso de uma fun¸ c˜ao qualquer de
θ, τ(θ), ou seja, o estimador de Bayes de τ(θ) com rela¸ c˜ao `a perda quadr´atica
´e dado por
d
B
(x) = E[τ(θ)|X] =

Θ
τ(θ)π(θ|x)dθ.
Notemos, portanto, que os estimadores de Bayes n˜ao s˜ao invariantes, como
s˜ao os estimadores de m´axima verossimilhan¸ ca no sentido de que sendo
ˆ
θ um
4.4 Estimadores de Bayes com Perda Quadr´atica 65
estimador de Bayes de θ, τ(
ˆ
θ) n˜ao ´e necessariamente um estimador de Bayes
de τ(θ).
Exemplo 4.4.1. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da
vari´avel aleat´oria X com distribui¸ c˜ao de Bernoulli com parˆametro θ. Conside-
remos para θ a fun¸ c˜ao de densidade a priori
π(θ) =
Γ[a +b]
Γ[a]Γ[b]
θ
a−1
(1 −θ)
b−1
,
0 < θ < 1, a, b > 0, usualmente conhecida como densidade beta com parˆametros
a e b, que denotamos por Beta(a, b) e onde Γ[a] ´e a fun¸ c˜ao gama avaliada no
ponto a, ou seja,
(4.4.8) Γ[a] =


0
x
a−1
e
−x
dx.
Como
f(x|θ) =
n
¸
i=1
f(x
i
|θ) = θ
¸
n
i=1
xi
(1 −θ)
n−
¸
n
i=1
xi
,
temos de (4.4.7) que,
g(x) =

1
0
θ
¸
n
i=1
xi
(1 −θ)
n−
¸
n
i=1
xi
Γ[a +b]
Γ[a]Γ[b]
θ
a−1
(1 −θ)
b−1

=
Γ[a +b]
Γ[a]Γ[b]

1
0
θ
¸
n
i=1
xi+a−1
(1 −θ)
n−
¸
n
i=1
xi+b−1

=
Γ[a +b]
Γ[a]Γ[b]
Γ [
¸
n
i=1
x
i
+a] Γ[n −
¸
n
i=1
x
i
+b]
Γ[n +a +b]
.
Portanto de (4.4.6) temos que
π(θ|x) =
Γ[a+b]
Γ[a]Γ[b]
θ
¸
n
i=1
xi+a−1
(1 −θ)
n−
¸
n
i=1
xi+b−1
Γ[a+b]
Γ[a]Γ[b]
Γ[
¸
n
i=1
xi+a]Γ[n−
¸
n
i=1
xi+b]
Γ[n+a+b]
=
Γ[n +a +b]
Γ[
¸
n
i=1
x
i
+a]Γ[n −
¸
n
i=1
x
i
+b]
θ
¸
n
i=1
xi+a−1
(1 −θ)
n−
¸
n
i=1
xi+b−1
,
ou seja, a distribui¸ c˜ao a posteriori de θ dado X ´e uma distribui¸ c˜ao beta com
parˆametros
¸
n
i=1
x
i
+a e n −
¸
n
i=1
x
i
+b que denotamos por
θ|X ∼ Beta

n
¸
i=1
x
i
+a; n −
n
¸
i=1
x
i
+b

.
66 4. Introdu¸c˜ao `a Teoria das Decis˜oes
Ent˜ao, o estimador de Bayes de θ com rela¸ c˜ao `a perda quadr´atica ´e dado por
(4.4.9) d
B
(X) = E[θ|X] =
¸
n
i=1
x
i
+a
n +a +b
.
Notemos, dos c´alculos acima, que as distribui¸ c˜oes a priori e a posteriori per-
tencem `a mesma fam´ılia de distribui¸ c˜oes, ou seja, no caso em que a distribui¸ c˜ao
de X ´e Bernoulli e a distribui¸ c˜ao a priori ´e da fam´ılia Beta, a distribui¸ c˜ao a
posteriori ´e tamb´em da fam´ılia Beta. Dizemos, ent˜ao, que a distribui¸ c˜ao Beta ´e
conjugada para a Bernoulli.
´
E tamb´em verdade que a distribui¸ c˜ao Beta ´e conju-
gada para as distribui¸ c˜oes Binomial e Binomial Negativa. Os parˆametros a e b
da priori beta devem ser escolhidos de modo que π(θ) expresse o conhecimento
a priori que o estat´ıstico tem sobre θ. No caso particular em que a = b = 1,
temos que
(4.4.10) π(θ) = 1, 0 < θ < 1,
ou seja, nesse caso a distribui¸ c˜ao U(0, 1) ´e escolhida como priori para θ. No
caso da priori uniforme, temos de (4.4.9) que
(4.4.11) d
B
(X) =
¸
n
i=1
X
i
+ 1
n + 2
.
A priori uniforme indica que, inicialmente, o estat´ıstico tem pouca informa¸ c˜ao
sobre θ, pois com rela¸ c˜ao a essa priori, qualquer intervalo de mesmo compri-
mento tem a mesma ´area (probabilidade).
Para calcularmos o risco de Bayes do estimador (4.4.11) com rela¸ c˜ao a priori
uniforme, temos que
R(θ, d) = E
¸
¸
n
i=1
X
i
+ 1
n + 2
−θ

2
¸
=
1
(n + 2)
2
E

n
¸
i=1
X
i
−nθ + 1 −2θ

2
¸
¸
=
1
(n + 2)
2
[(4 −n)θ
2
−(4 −n)θ + 1].
Com rela¸ c˜ao a priori uniforme dada em (4.4.10), temos que E
π
[θ] = 1/2,
V ar
π
[θ] = 1/12 e E
π

2
] = 1/3, de modo que
r(π, d) =
1
(n + 2)
2
¸
(4 −n)
3

(4 −n)
2
+ 1

4.4 Estimadores de Bayes com Perda Quadr´atica 67
=
1
6(n + 2)
.
Certamente, o estimador de Bayes em (4.4.11) tem risco de Bayes menor, com
rela¸ c˜ao a priori uniforme acima, que o risco de Bayes do estimador de m´axima
verossimilhan¸ ca
ˆ
θ = X.
Exemplo 4.4.2. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da distribui¸ c˜ao da
vari´avel aleat´oria Xcom distribui¸ c˜ao de Poisson(θ). Consideremos para θ a
distribui¸ c˜ao a priori com fun¸ c˜ao de densidade de probabilidade
(4.4.12) π(θ) =
b
a
θ
a−1
e
−θb
Γ[a]
,
θ > 0, a > 0, b > 0, ou seja, gama com parˆametros a e b, que denotamos por
Gama(a, b). Em (4.4.12), Γ[a] ´e como definido em (4.4.8). Como
f(x|θ)π(θ) =
e
−nθ
θ
¸
n
i=1
x
i
¸
n
i=1
xi!
θ
a−1
e
−θb
b
a
Γ[a]
=
b
a
e
−θ(n+b)
θ
¸
n
i=1
xi+a−1
¸
n
i=1
x
i
!Γ[a]
,
θ > 0, temos que
g(x) =


0
b
a
e
−θ(n+b)
θ
¸
n
i=1
xi+a−1
¸
n
i=1
x
i
!Γ[a]

=
b
a
¸
n
i=1
x
i
!Γ[a]
Γ[
¸
n
i=1
x
i
+ a]
(n +b)
¸
n
i=1
xi+a
.
Portanto
π(θ|x) =
e
−θ(n+b)
θ
¸
i=1
xi+a−1
Γ[
¸
n
i=1
xi+a]
(n+b)
¸
n
i=1
x
i
+a
,
ou seja, a distribui¸ c˜ao a posteriori de θ dado X ´e uma distribui¸ c˜ao gama com
parˆametros
¸
n
i=1
x
i
+a e n +b que denotamos por
θ|X ∼ Γ
¸
n
¸
i=1
x
i
+a; n +b
¸
.
Assim,
E[θ|X] =
¸
n
i=1
x
i
+a
n +b
.
68 4. Introdu¸c˜ao `a Teoria das Decis˜oes
Al´em disso, no caso da Poisson, como visto acima, priori gama leva a uma
posteriori gama, de modo que a distribui¸ c˜ao gama ´e conjugada para a Poisson.
Ap´os algumas manipula¸ c˜oes alg´ebricas, n˜ao ´e dif´ıcil verificar que (ver Exerc´ıcio
4.5)
R(θ, d) = E
¸
¸
n
i=1
x
i
+a
n +b
−θ

2
¸
=
1
(n +b)
2
[a
2
+b
2
θ
2
+θ(n −2ab)],
de modo que
r(π, d) = E
π
[R(θ, d)] =
a
b(n +b)
.
Exemplo 4.4.3. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da
vari´avel aleat´oria X com distribui¸ c˜ao N(µ, σ
2
0
), onde σ
2
0
´e conhecido. Conside-
remos para µ a priori N(a, b
2
), ou seja,
π(µ) =
1

2πb
e

(µ−a)
2
2b
2
,
onde a e b s˜ao conhecidos. A priori N(a, b
2
) expressa o fato de que a ´e um valor
razo´avel para µ enquanto que b
2
(ou b) quantifica a confian¸ ca (ou certeza) de
que a ´e um valor razo´avel para µ. Quanto maior b
2
(ou b), mais incerto o
estat´ıstico est´a com rela¸ c˜ao a escolha feita pela natureza com rela¸ c˜ao a µ. Ap´os
uma s´erie de manipula¸ c˜oes alg´ebricas (verifique!), temos que
f(x|µ)π(µ) =

1

2πσ
0

n
1

2πb
e

¸
n
i=1
(x
i
−µ)
2

2
0

(µ−a)
2
2b
2
=

1

2πσ
0

n
1

2πb
e

¸
n
i=1
x
2
i

2
0

a
2
2b
2
+

¸
n
i=1
x
i
σ
2
0
+
a
b
2

2
2

n
σ
2
0
+
1
b
2

×
×e

1
2

n
σ
2
0
+
1
b
2

µ−
¸
n
i=1
x
i
σ
2
0
+
a
b
2
n
σ
2
0
+
1
b
2

2
,
e
g(x) =

1

2πσ
0

n
1
b

1
n
σ
2
0
+
1
b
2
e

¸
n
i=1
x
2
i

2
0

a
2
2b
2
+

¸
n
i=1
x
i
σ
2
0
+
a
b
2

2
2

n
σ
2
0
+
1
b
2

,
4.4 Estimadores de Bayes com Perda Quadr´atica 69
de modo que (verifique!)
π(µ|x) =
1

1
n
σ
2
o
+
1
b
2
e

1
2

n
σ
2
0
+
1
b
2

¸
¸
µ−
¸
n
i=1
x
i
σ
2
0
+
a
b
2
n
σ
2
0
+
1
b
2
¸

2
,
ou seja, a distribui¸ c˜ao a posteriori de µ dado X
1
, . . . , X
n
´e normal com m´edia
(
¸
n
i=1
x
i

2
0
+a/b
2
)/(n/σ
2
0
+1/b
2
) e variˆancia 1/(n/σ
2
0
+1/b
2
), que denotamos
por
µ|X ∼ N
¸
n
i=1
xi
σ
2
o
+
a
b
2
n
σ
2
0
+
1
b
2
;
1
n
σ
2
o
+
1
b
2

.
Temos, portanto, que a priori normal ´e conjugada para a distribui¸ c˜ao normal
quando queremos estimar µ com variˆancia σ
2
0
conhecida. Com rela¸ c˜ao a perda
quadr´atica, temos, ent˜ao, que
d
B
=
¸
n
i=1
Xi
σ
2
0
+
a
b
2
n
σ
2
0
+
1
b
2
=
n
σ
2
0
n
σ
2
0
+
1
b
2
X +
1
b
2
n
σ
2
0
+
1
b
2
a,
de modo que o estimador de Bayes de µ ´e uma combina¸ c˜ao linear convexa (co-
eficientes somam um) entre a m´edia amostral X (que ´e o estimador eficiente
e de m´axima verossimilhan¸ ca de µ) e a m´edia a priori a. Notemos que quanto
maior n, maior o peso atribu´ıdo a X. Portanto para n grande a distribui¸ c˜ao a
priori tem pouca influˆencia na distribui¸ c˜ao a posteriori. Por outro lado, valores
pequenos de b aumentam a contribui¸ c˜ao de a no estimador d
B
acima. Lem-
bramos que b pequeno indica uma maior confian¸ ca do estat´ıstico de que a ´e um
valor razo´avel para µ. Temos tamb´em que (verifique!)
R(µ, d
B
) = E

¸
nX
σ
2
0
+
a
b
2
n
σ
2
0
+
1
b
−µ
¸

2
¸
¸
¸ =
n
σ
2
0
+
(a−µ)
2
b
4

n
σ
2
0
+
1
b
2

2
e
r(π, d) =
1
n
σ
2
0
+
1
b
2
.
Al´em disso,
R(µ, d
B
) →
σ
2
0
n
,
quando b →∞, ou seja, a informa¸ c˜ao a priori ´e pouco precisa.
70 4. Introdu¸c˜ao `a Teoria das Decis˜oes
Para finalizar o cap´ıtulo, apresentamos a seguir um resultado importante,
relacionando os estimadores de Bayes a uma estat´ıstica suficiente.
Teorema 4.4.2. Sejam X
1
, . . . , X
n
uma amostra aleat´ oria de tamanho n da
distribui¸ c˜ ao da vari´ avel aleat´ oria X com fun¸c˜ ao de densidade (ou de proba-
bilidade) f(x|θ). Seja T = T(X
1
, . . . , X
n
) uma estat´ıstica suficiente para θ.
Consideremos para θ a fun¸c˜ ao de densidade (ou de probabilidade) π(θ). Ent˜ ao,
o estimador de Bayes de θ com rela¸c˜ ao ` a perda quadr´ atica ´e fun¸c˜ ao de T.
Prova. Vamos considerar a demostra¸ c˜ao apenas para o caso em que X e θ
s˜ao vari´aveis aleat´orias cont´ınuas. Sendo T uma estat´ıstica suficiente para θ,
usando o Crit´erio da Fatora¸ c˜ao, podemos escrever
f(x|θ) = h(x)g
θ
(t(x)),
ou seja, g
θ
(t(x)) depende de x somente por t(x). Podemos, ent˜ao, escrever a
fun¸ c˜ao de densidade (ou de probabilidade) a posteriori como
π(θ|x) =
f(x|θ)π(θ)

Θ
f(x|θ)πθdθ
h(x)g
θ
(t(x))π(θ)

Θ
h(x)g
θ
(t(x))π(θ)dθ
=
g
θ
(t(x))π(θ)

Θ
g
θ
(t(x))π(θ)dθ
,
de modo que a fun¸ c˜ao de densidade a posteriori depende de x somente atrav´es
de T = T(x). Como o estimador de Bayes de θ com rela¸ c˜ao `a perda quadr´atica
´e a m´edia da posteriori, ele depender´ a de X somente atrav´es de T.
O resultado do Teorema 4.4.2 vale na verdade em situa¸ c˜oes mais gerais no
que diz respeito `a fun¸ c˜ao de perda. Na verdade qualquer que seja a fun¸ c˜ao
de perda considerada, o estimador de Bayes s´o depender´a de X atrav´es de
T = T(X
1
, . . . , X
n
), pois qualquer que seja a fun¸ c˜ao de perda, o estimador de
Bayes ´e obtido utilizando a distribui¸ c˜ao a posteriori π(θ|x).
4.5 Exerc´ıcios
4.1. Seja X uma ´ unica observa¸ c˜ao da distribui¸ c˜ao N(µ, 1), onde −∞< µ < ∞.
Considere a perda quadr´atica.
(i) Encontre o risco R(µ, d) para a classe D = {d; d(x) = cX}.
(ii) Encontre, na classe D, o estimador minimax de µ.
(iii) Encontre em D o estimador de Bayes de µ com rela¸ c˜ao a priori π(µ) =
1/2; −1 ≤ µ ≤ 1.
4.2. Seja X uma ´ unica observa¸ c˜ao da vari´avel aleat´oria X com fun¸ c˜ao de
probabilidade
4.5 Exerc´ıcios 71
f(x|θ) =
2!
x!(2 −x)!
θ
x
(1 − θ)
2−x
, x = 0, 1, 2,
onde 0 < θ < 1. Considere os estimadores d
1
(X) = X/2 e d
2
(X) = (X + 1)/4
e fun¸ c˜ao de perda quadr´atica.
(i) Verifique se existe um estimador uniformemente melhor (melhor para todo
θ), ou seja, verifique se um dos estimadores ´e inadmiss´ıvel.
(ii) Qual dos estimadores ´e minimax?
4.3. Considere uma ´ unica observa¸ c˜ao da vari´avel aleat´oria X ∼ Binomial(m, θ).
Seja l(θ, d) = (θ −d)
2
.
(i) Encontre o risco de d(X) = X/m.
(ii) Encontre o risco de Bayes de d(X) em (i), com rela¸ c˜ao a priori π(θ) =
1, 0 ≤ θ ≤ 1.
4.4. Refa¸ ca o Exerc´ıcio 4.3., considerando agora a perda l(θ, d) = (θ −
a)
2
/θ(1 −θ).
4.5. Seja uma ´ unica observa¸ c˜ao da distribui¸ c˜ao Poisson(θ). Encontre o risco
de Bayes do estimador d(X) = X, com rela¸ c˜ao `a perda quadr´atica e a priori
Gama(α, β).
4.6. Considere o problema de se estimar θ ∈ Θ = {0, 1}, baseado em uma ´ unica
observa¸ c˜ao da vari´avel aleat´oria X, com densidade
f(x|θ) = 2
−(x+θ)
, x = 1 −θ, 2 −θ, 3 −θ, ...
Considere a perda 0-1, ou seja,
l(0, 0) = l(1, 1) = 0 e l(0, 1) = l(1, 0) = 1.
Considere tamb´em os estimadores
d
1
(X) =

1, X = 0,
0, X > 0,
e d
2
(X) =

0, X ≤ 1,
1, X > 1,
(i) Encontre R(θ, d
i
(X)), i = 1, 2.
(ii) Qual dos estimadores ´e minimax? Alguns dos estimadores ´e inadmiss´ıvel?
4.7. Seja X uma ´ unica observa¸ c˜ao da distribui¸ c˜ao U(0, θ), onde θ ´e uma vari´avel
aleat´oria com densidade
π(θ) = θe
−θ
, θ > 0.
(i) Encontre a densidade a posteriori de θ.
(ii) Encontre o estimador de Bayes de θ com respeito `a perda quadr´atica.
72 4. Introdu¸c˜ao `a Teoria das Decis˜oes
4.8. Seja X o tempo de vida de uma lˆampada (em mil horas) fabricada por
certa companhia. Considera-se que X ´e uma vari´avel aleat´oria com densidade
f(x|θ) = θe
−θx
, x > 0.
Considere para θ a priori
π(θ) = 16θe
−4θ
, θ > 0.
(i) Encontre a distribui¸ c˜ao a posteriori de θ.
(ii) Encontre o estimador de Bayes de E(X) e V ar(X) com rela¸ c˜ao `a perda
quadr´atica.
4.9. Em uma ´area de reflorestamento, o n´ umero de ´arvores de determinada
esp´ecie, por hectare, com certa doen¸ ca tem uma distribui¸c˜ao Poisson(θ). A
distribui¸ c˜ao a priori de θ ´e exponencial com m´edia igual a 1. Encontre o esti-
mador de Bayes de P
θ
(X = 0) com rela¸ c˜ao `a perda quadr´atica..
4.10. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da distribui¸ c˜ao U(0, θ). Supo-
nhamos que θ seja uma vari´avel aleat´oria com fun¸ c˜ao de densidade de proba-
bilidade (Pareto)
π(θ) =

ba
b

b+1
, θ ≥ a,
0, θ < a,
Encontre a distribui¸ c˜ao a posteriori de θ e o estimador de Bayes de θ com
rela¸ c˜ao `a perda quadr´atica.
4.11. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X ∼
Bernoulli(θ). Considere para θ a priori
π(θ) =

2θ, 0 < θ < 1,
0, caso contr´ario,
Encontre o estimador de Bayes de θ com rela¸ c˜ao `a perda quadr´atica e seu risco
de Bayes.
4.12. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da densidade
f(x|θ) = θx
θ−1
, 0 < x < 1, θ > 0.
Vamos assumir para θ a priori gama
π(θ) = λ
r
θ
r−1
e
−θλ
/Γ(r),
onde r e λ s˜ao conhecidos. Encontre a distribui¸ c˜ao a posteriori de θ e o estimador
de Bayes de θ com rela¸ c˜ao `a perda quadr´atica.
5. Estima¸c˜ao por Intervalo
Neste cap´ıtulo consideramos o problema de estima¸ c˜ao de parˆametros utilizando
intervalos de confian¸ ca. Os intervalos cl´assicos s˜ao obtidos a partir de vari´aveis
aleat´orias especiais que denominamos quantidades pivotais. Os intervalos de
confian¸ ca Bayesianos s˜ao obtidos utilizando a distribui¸ c˜ao a posteriori. Em
primeiro lugar, discutimos propriedades da m´edia e da variˆancia amostrais
quando as amostras s˜ao obtidas a partir de popula¸ c˜oes normais. A seguir in-
troduzimos os m´etodos de constru¸ c˜ao de intervalos.
5.1 Amostras de Popula¸c˜oes Normais
Os resultados que apresentamos a seguir s˜ao utilizados com bastante freq¨ uˆencia
na constru¸ c˜ao de intervalos de confian¸ ca e testes de hip´oteses para popula¸ c˜oes
normais.
Teorema 5.1. Sejam X
1
, . . . , X
n
uma amostra aleat´ oria de tamanho n da
distribui¸ c˜ ao N(µ, σ
2
). Ent˜ ao
(i) X e S
2
s˜ ao independentes;
(ii)
(n−1)S
2
σ
2
∼ χ
2
n−1
;
(iii)

n(X−µ)
S
∼ t
n−1
;
onde χ
2
ν
denota uma vari´ avel aleat´ oria com distribui¸c˜ ao quiquadrado com ν
graus de liberdade, isto ´e, com f.d.p. dada por
f(y|ν) =
1
2
ν/2
Γ(ν/2)
y
ν/2−1
e
−y/2
, y > 0;
t
ν
denota uma vari´ avel aleat´ oria com distribui¸c˜ ao t de Student com ν graus de
liberdade,isto ´e, com f.d.p. dada por
f(y|ν) =
Γ((ν + 1)/2)
Γ(ν/2)
(1 +t
2
/ν)
−(ν+1)/2
, −∞< t < ∞;
74 5. Estima¸c˜ao por Intervalo
e como antes, X =
¸
n
i=1
X
i
/n e S
2
=
¸
n
i=1
(X
i
−X)
2
/(n −1).
Prova. (i) Temos que
X ∼ N(µ, σ
2
/n),
enquanto que X
i
−X ∼ N

0, σ
2
(n−1)
n

. Por outro lado, a fun¸ c˜ao geradora de
momentos (James, 1981) de Y
1
= X e Y
2
= X
i
−X ´e dada por
M
Y1,Y2
(s
1
, s
2
) = E

e
s1X+s2(Xi−X)

= E

e
s2Xi+X(s1−s2)

= E
¸
e
(s2+
(s
1
−s
2
)
n
)Xi+
(s
1
−s
2
)
n
¸
n
j=i
Xj

= E

e
(s2+
(s
1
−s
2
)
n
)Xi

E
¸
e
(s
1
−s
2
)
n
¸
n
j=i
Xj

.
Como X
i
∼ N(µ, σ
2
) e
¸
n
j=i
X
j
∼ N((n −1)µ; (n −1)σ
2
), temos que
M
Y1,Y2
(s
1
, s
2
) = e
µ

s2+
(s
1
−s
2
)
n

+
σ
2
2

s2+
(s
1
−s
2
)
n

2
×e
(n−1)
n
(s1−s2)µ+
1
2
¸
(
s
1
−s
2
n
)
2
(n−1)σ
2
¸
= e
µs1+
s
2
1
σ
2
2n
e
s
2
2
(n−1)σ
2
2n
que ´e o produto das fun¸ c˜oes geradoras de momentos das distribui¸ c˜oes de X e
X
i
−X. Portanto temos que X
i
−X e X s˜ao independentes, pois a fun¸ c˜ao gera-
dora da distribui¸ c˜ao conjunta ´e o produto das fun¸ c˜oes geradoras de momentos
das distribui¸ c˜oes marginais. Como
¸
n
i=1
(X
i
− X)
2
´e fun¸ c˜ao de X
i
− X que ´e
independente de X, temos que S
2
´e independente de X.
(ii) N˜ao ´e dif´ıcil verificar que
(5.1.1)
n
¸
i=1
(X
i
−µ)
2
σ
2
=
n
¸
i=1
(X
i
−X)
2
σ
2
+n
(X −µ)
2
σ
2
.
Como (X
i
− µ)/σ ∼ N(0, 1), temos que (X
i
− µ)
2

2
∼ χ
2
1
, i = 1, . . . , n, de
modo que
Y
1
=
n
¸
i=1
(X
i
−µ)
2
σ
2
∼ χ
2
n
.
Tamb´em n(X − µ)
2

2
∼ χ
2
1
. Como a fun¸ c˜ao geradora de momentos da dis-
tribui¸ c˜ao quiquadrado com g graus de liberdade ´e dada por
M
g
(s) = (1 −2s)
−g/2
,
5.2 O M´etodo da Quantidade Pivotal 75
temos que as fun¸ c˜oes geradoras das distribui¸ c˜oes quiquadrado com g = 1 e
g = n graus de liberdade s˜ao dadas respectivamente por
(5.1.2) M
1
(s) = (1 −2s)
−1/2
e M
n
(s) = (1 −2s)
−n/2
.
Al´em disso, como X e S
2
s˜ao independentes, temos que os dois termos do lado
direito de (5.1.1) que denotamos por Y
2
e Y
3
, respectivamente, s˜ao indepen-
dentes, de modo que
M
Y1
(s) = M
Y2
(s)M
Y3
(s),
ou seja, de (5.1.2) segue que
M
Y2
(s) =
M
Y1
(s)
M
Y3
(s)
= (1 −2s)
−(n−1)/2
,
logo a distribui¸ c˜ao de Y
2
= (n − 1)S
2

2
´e quiquadrado com n − 1 graus de
liberdade.
(iii) Note que podemos escrever
(5.1.3)

n
(X −µ)
S
=

n
(X−µ)
σ

(n−1)S
2
(n−1)σ
2
que corresponde ao quociente entre duas vari´aveis aleat´orias independentes
em que o numerador ´e uma vari´avel aleat´oria com distribui¸ c˜ao N(0, 1) e o
denominador ´e a raiz quadrada de uma vari´avel aleat´oria com distribui¸ c˜ao
quiquadrado com n − 1 graus de liberdade (veja (ii)) dividido pelo n´ umero de
graus de liberdade, de modo que a vari´avel (5.1.3) tem distribui¸ c˜ao t de Student
com n −1 graus de liberdade.
5.2 O M´etodo da Quantidade Pivotal
A constru¸ c˜ao de intervalos utilizando quantidades pivotais ´e considerada a
seguir.
Defini¸ c˜ao 5.2.1. Uma vari´ avel aleat´ oria Q(X
1
, . . . , X
n
; θ) = Q(X; θ) ´e dita ser
uma quantidade pivotal para o parˆ ametro θ se sua distribui¸c˜ ao for independente
de θ.
Notemos que uma quantidade pivotal n˜ao ´e uma estat´ıstica, pois ela depende
de um parˆametro θ desconhecido. Podemos, ent˜ao, para cada γ = 1 −α fixado,
encontrar λ
1
e λ
2
na distribui¸ c˜ao de Q(X; θ) de modo que
(5.2.1) P[λ
1
≤ Q(X; θ) ≤ λ
2
] = γ.
76 5. Estima¸c˜ao por Intervalo
Sendo a distribui¸ c˜ao de Q(X; θ) independente de θ, λ
1
e λ
2
tamb´em n˜ao de-
pendem de θ. Al´em disso, se para cada X existirem t
1
(X) e t
2
(X) tais que
λ
1
≤ Q(X; θ) ≤ λ
2
se e somente se t
1
(X) ≤ θ ≤ t
2
(X)
e ent˜ao de (5.2.1),
(5.2.2) P[t
1
(X) ≤ θ ≤ t
2
(X)] = γ,
de modo que [t
1
(X); t
2
(X)] ´e um intervalo (aleat´orio) que cont´em θ com proba-
bilidade (coeficiente de confian¸ ca) γ = 1 − α. Nos casos em que a distribui¸ c˜ao
da vari´avel aleat´oria X ´e discreta, em geral, n˜ao se consegue determinar λ
1
e λ
2
de tal forma que (5.2.1) esteja satisfeita exatamente. Em tais casos, podemos
escolher λ
1
e λ
2
tal que (5.2.1) esteja satisfeita para um coeficiente de con-
fian¸ ca maior ou igual a γ (o mais pr´oximo poss´ıvel). Quando n ´e razoavelmente
grande, uma alternativa seria considerar os intervalos de confian¸ ca baseados
na distribui¸ c˜ao do estimador de m´axima verossimilhan¸ ca que consideramos na
Se¸ c˜ao 3.5. Um outro ponto a salientar ´e que, na maioria dos casos, existem
muitos pares (λ
1
, λ
2
) satisfazendo (5.2.1). Sempre que poss´ıvel, devemos esco-
lher (λ
1
, λ
2
) que produz o intervalo de menor comprimento. Tal procedimento
´e facilitado em situa¸ c˜oes em que a distribui¸ c˜ao de Q(X; θ) ´e sim´etrica, como
no caso da distribui¸ c˜ao normal.
Exemplo 5.2.1. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da distribui¸ c˜ao da
vari´avel aleat´oria X, com densidade
(5.2.3) f(x|θ) = θe
−θx
, θ > 0, x > 0.
Como vimos no Cap´ıtulo 2, a estat´ıstica T =
¸
n
i=1
X
i
´e suficiente para θ. Mas,
como a distribui¸ c˜ao de T ´e Gama(n; θ), temos que T n˜ao ´e uma quantidade
pivotal para θ. Por outro lado, a densidade de Q(X; θ) = 2θ
¸
n
i=1
X
i
´e dada
por
(5.2.4) f
Q
(y) =
y
n−1
e
−y/2
2
n
Γ[n]
, y > 0
que corresponde a densidade de uma distribui¸ c˜ao quiquadrado com 2n graus de
liberdade, que denotamos por χ
2
2n
. Portanto Q(X; θ) pode ser considerada como
uma quantidade pivotal, pois sua distribui¸ c˜ao ´e independente de θ. Ent˜ao, dado
o coeficiente de confian¸ ca γ = 1 −α, obtemos λ
1
e λ
2
na tabela da distribui¸ c˜ao
χ
2
2n
, de modo que
(5.2.5) P
¸
λ
1
≤ 2θ
n
¸
i=1
X
i
≤ λ
2
¸
= γ,
5.2 O M´etodo da Quantidade Pivotal 77
logo um intervalo de confian¸ ca para θ com coeficiente de confian¸ ca γ ´e dado
por
(5.2.6)
¸
λ
1
2
¸
n
i=1
X
i
;
λ
2
2
¸
n
i=1
X
i

.
Conforme enfatizado anteriormente, existem infinitos pares (λ
1
, λ
2
) para os
quais (5.2.5) est´a verificada. Sempre que poss´ıvel, (λ
1
, λ
2
) devem ser escolhidos
de modo que o intervalo (5.2.6) seja de comprimento m´ınimo. Tal intervalo
existe, mas (λ
1
, λ
2
) deve ser obtido por m´etodos computacionais. Uma alterna-
tiva ´e considerarmos intervalos sim´etricos em que (λ
1
, λ
2
) s˜ao obtidos a partir
da distribui¸ c˜ao χ
2
2n
, de modo que a ´area `a esquerda de λ
1
seja igual `a ´area `a
direita de λ
2
e igual a α/2. Ver Figura 5.1.
Figura 5.1. Determina¸ c˜ao de λ
1
e λ
2


0
λ
2
λ
1 x
f(x)
α/2
α/2
Denotando estes pontos por q
1
e q
2
, temos que o intervalo sim´etrico ´e dado
por
(5.2.7)
¸
q
1
2
¸
n
i=1
X
i
;
q
2
2
¸
n
i=1
X
i

.
A n˜ao ser que o tamanho da amostra n seja muito pequeno, o intervalo (5.2.7) ´e
bastante pr´oximo do intervalo de comprimento m´ınimo. Consideramos a seguir
n = 20 observa¸ c˜oes simuladas a partir da distribui¸ c˜ao exponencial com θ = 2.
Como
F(x) = 1 −e
−θx
78 5. Estima¸c˜ao por Intervalo
e como qualquer que seja a fun¸ c˜ao de distribui¸ c˜ao F(x)
U = F(X) ∼ U(0, 1),
ou seja, a distribui¸ c˜ao de F(X) ´e uniforme no intervalo (0, 1), gerando ob-
serva¸ c˜oes u a partir da distribui¸ c˜ao U(0, 1), temos que
(5.2.8) x = −
1
θ
log(1 −u)
´e uma observa¸ c˜ao simulada da distribui¸ c˜ao exponencial com parˆametro θ e com
densidade dada em (5.2.3). As n = 20 observa¸ c˜oes simuladas a partir da U(0, 1)
s˜ao dadas na Tabela 5.1 abaixo.
Tabela 5.1. n = 20 observa¸ c˜oes da U(0, 1)
0,659 0,591 0,381 0,658 0,012
0,469 0,017 0,128 0,328 0,166
0,353 0,594 0,051 0,757 0,045
0,847 0,749 0,535 0,700 0,781
Usando os valores da Tabela 5.1 na rela¸ c˜ao (5.2.8) temos na Tabela 5.2 as
n = 20 observa¸ c˜oes simuladas da distribui¸ c˜ao exponencial (5.2.3) com θ = 2.
Tabela 5.2. n = 20 observa¸ c˜oes da distribui¸ c˜ao Exp(2)
0,5380 0,4470 0,2398 0,5365 0.0061
0,3165 0,0086 0,0064 0,1995 0,9008
0,2177 0,4507 0,0262 0,7073 0,0230
0,9339 0,6912 0,3829 0,6020 0,7593
Considerando as primeiras n = 10 observa¸ c˜oes na Tabela 5.2, temos que
¸
10
i=1
X
i
= 3, 1992. Tomando α = 0, 05, temos da tabela da distribui¸ c˜ao qui-
quadrado com 20 graus de liberdade que q
1
= 9, 59 e q
2
= 34, 17, ent˜ao de
(5.2.7) segue que o intervalo [1, 50; 5, 34] ´e um intervalo de confian¸ ca para
θ com coeficiente de confian¸ ca γ = 0, 95. Considerando n = 20, temos que
¸
20
i=1
X
i
= 7, 9934 e usando a aproxima¸ c˜ao normal para a distribui¸ c˜ao qui-
quadrado (a maioria das tabelas da distribui¸ c˜ao quiquadrado n˜ao trazem per-
centis para 40 graus de liberdade), ou seja,
χ
2
2n
−E[χ
2
2n
]

V ar[χ
2
2n
]
a
∼ N(0, 1)
temos, usando a tabela da distribui¸ c˜ao N(0, 1), que
q
1
= −1, 96

80 + 40 e q
2
= 1, 96

80 + 40,
5.2 O M´etodo da Quantidade Pivotal 79
de modo que, nesse caso, o intervalo ´e dado por [1, 41; 3, 60] que, conforme era
esperado, tem comprimento bem menor que o comprimento do correspondente
intervalo com n = 10.
Exemplo 5.2.2. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da
vari´avel aleat´oria X com distribui¸ c˜ao uniforme no intervalo (0, θ), ou seja, X ∼
U(0, θ). Vimos no Cap´ıtulo 2 que uma estat´ıstica suficiente para θ ´e dada por
Y = X
(n)
= max{X
1
, . . . , X
n
}, com fun¸ c˜ao de densidade dada por
f
Y
(y) =
ny
n−1
θ
n
I
[0,θ]
(y)I
[0,∞)
(θ).
Logo X
(n)
n˜ao ´e uma quantidade pivotal j´a que sua distribui¸ c˜ao depende de θ.
Por outro lado, a distribui¸ c˜ao da quantidade Q(X; θ) = X
(n)
/θ ´e dada por
(5.2.9) f
Q
(q) = nq
n−1
I
[0,1]
(q)
que n˜ao depende de θ. Portanto a vari´avel aleat´oria Q(X; θ) ´e uma quantidade
pivotal, de modo que dado γ = 1−α, podemos encontrar λ
1
e λ
2
na distribui¸ c˜ao
de Q, tal que
(5.2.10)

λ2
λ1
f
Q
(q)dq = γ = 1 −α.
Como existem infinitos pares (λ
1
, λ
2
) satisfazendo (5.2.10), consideramos o
intervalo sim´etrico, ou seja, consideramos o intervalo satisfazendo
(5.2.11)

λ1
0
f
Q
(q)dq =
α
2
e

1
λ2
f
Q
(q)dq =
α
2
.
Resolvendo as equa¸ c˜oes (5.2.11), chegamos a
λ
1
=

α
2

1/n
e λ
2
=

1 −
α
2

1/n
,
de modo que
P
¸
λ
1

X
(n)
θ
≤ λ
2

= P
¸
X
(n)
λ
2
≤ θ ≤
X
(n)
λ
1

= 1 −α
que leva ao intervalo
(5.2.12)
¸
X
(n)
(1 −α/2)
1/n
;
X
(n)
(α/2)
1/n
¸
.
80 5. Estima¸c˜ao por Intervalo
Considerando as primeiras n = 10 observa¸ c˜oes da Tabela 5.1 e γ = 0, 95, temos
que o intervalo (5.2.12) se reduz a [0, 659/(0, 975)
1/10
; 0, 659/(0, 025)
1/10
], ou
seja, [0, 661; 0, 953]. Considerando as n = 20 observa¸ c˜oes da Tabela 5.1, o in-
tervalo se reduz a (0,848;1,019). Notemos que θ = 1 n˜ao est´a contido no in-
tervalo com n = 10, mas est´a contido no intervalo com n = 20. Como a dis-
tribui¸ c˜ao de Q n˜ao ´e sim´etrica, o intervalo (5.2.12) n˜ao ´e o de menor compri-
mento para um dado γ. No Exerc´ıcio 5.3 apresentamos um intervalo de menor
comprimento que o do intervalo (5.2.12).
´
E importante ressaltar que o coefi-
ciente de confian¸ ca γ est´a associado ao intervalo aleat´orio que segue de (5.2.2).
Quanto ao intervalo num´erico que segue do intervalo aleat´ orio, afirma¸ c˜oes do
tipo P[0, 848 ≤ θ ≤ 1, 019] n˜ao s˜ao apropriadas, pois n˜ao existem quantidades
aleat´orias associadas `a desigualdade 0, 848 ≤ θ ≤ 1, 019. O que se aplica no
caso num´erico ´e a interpreta¸ c˜ao freq¨ uentista, ou seja, para cada 100 intervalos
num´ericos constru´ıdos a partir do intervalo aleat´orio, aproximadamente 100γ%
deles v˜ao conter θ. Para um problema particular, o intervalo que constru´ımos
a partir de uma amostra observada pode ser ou n˜ao um daqueles 100(1 −γ)%
que n˜ao cont´em θ. Mas n˜ao temos condi¸ c˜oes de sabˆe-lo.
5.3 Intervalos para Popula¸c˜oes Normais
Consideremos em primeiro lugar (Se¸ c˜ao 5.3.1) o caso de uma ´ unica amostra. A
seguir, na Se¸ c˜ao 5.3.2, abordamos o caso de duas amostras.
5.3.1 O caso de uma ´ unica amostra
SejamX
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da distribui¸ c˜ao N(µ, σ
2
).
Assumindo σ
2
conhecido, temos que uma quantidade pivotal para µ, baseada
na estat´ıstica suficiente
¸
n
i=1
X
i
= nX ´e dada por
Q(X; µ) =
X −µ
σ/

n
que tem distribui¸ c˜ao N(0, 1). Portanto, dado o coeficiente de confian¸ ca γ, de-
terminamos λ
1
e λ
2
de modo que
(5.3.1) P
¸
λ
1

X −µ
σ/

n
≤ λ
2

= γ.
Conforme enfatizado anteriormente, existem infinitos pares (λ
1
, λ
2
) que satis-
fazem (5.3.1). Como a distribui¸ c˜ao N(0, 1) ´e sim´etrica, o intervalo de menor
comprimento ´e o intervalo sim´etrico, ou seja, aquele em que a ´area `a direita de
λ
2
´e igual a ´area `a esquerda de λ
1
que ´e igual a α/2. Sejam ent˜ao λ
1
= −z
α/2
e
5.3 Intervalos para Popula¸c˜oes Normais 81
λ
2
= z
α/2
, onde P(Z ≤ z
α/2
) = 1 −α/2, Z ∼ N(0, 1) de modo que o intervalo
de menor comprimento ´e dado por
(5.3.2)
¸
X −z
α/2
σ

n
; X +z
α/2
σ

n

.
Por outro lado, sendo σ
2
desconhecido, temos pelo Teorema 5.1. (iii), que
Q(X, µ) =
X −µ
S/

n
∼ t
n−1
que nesse caso ´e uma quantidade pivotal. Ent˜ao, dado γ, existem λ
1
e λ
2
na
distribui¸ c˜ao t
n−1
de modo que
P
¸
λ
1

X −µ
S/

n
≤ λ
2

= γ.
Como a distribui¸ c˜ao da quantidade pivotal Q ´e sim´etrica, devemos escolher λ
1
e λ
2
de modo que a ´area `a direita de λ
2
seja igual a ´area `a esquerda de λ
1
, ou
seja λ
1
= −t
α/2
e λ
2
= t
α/2
, onde P(T ≤ t
α/2
) = 1 − α/2, T ∼ t
n−1
de modo
que o intervalo de menor comprimento ´e dado por
¸
X −t
α/2
S

n
; X +t
α/2
S

n

.
Quanto a σ
2
, considerando µ desconhecido, temos, de acordo com o Teorema
5.1. (ii), que
Q(X, σ
2
) =
(n − 1)S
2
σ
2
∼ χ
2
n−1
´e uma quantidade pivotal para σ
2
. Portanto, dado γ, podemos determinar λ
1
e λ
2
de modo que
(5.3.3) P
¸
λ
1

(n −1)S
2
σ
2
≤ λ
2

= γ.
Considerando o intervalo sim´etrico, ou seja, λ
1
= q
1
e λ
2
= q
2
, onde P[χ
2
n−1

q
2
] = P[χ
2
n−1
≤ q
1
] = α/2, temos de (5.3.3), o intervalo
¸
(n −1)S
2
q
2
;
(n −1)S
2
q
1

.
82 5. Estima¸c˜ao por Intervalo
5.3.2 Duas amostras independentes
Vamos considerar o caso em que temos X
1
, . . . , X
n
, uma amostra aleat´oria
da vari´avel aleat´oria X ∼ N(µ
1
, σ
2
) e Y
1
, . . . , Y
m
, uma amostra aleat´oria da
vari´avel aleat´oria Y ∼ N(µ
2
, σ
2
), onde X e Y s˜ao independentes. Sabemos que
X −Y ∼ N

µ
1
−µ
2
, σ
2

1
n
+
1
m

de modo que, sendo θ = µ
1
−µ
2
, consideramos a quantidade pivotal
Q(X, Y, θ) =
X −Y −(µ
1
−µ
2
)
σ

1
n
+
1
m
∼ N(0, 1).
Sendo σ
2
conhecido, temos, como na se¸ c˜ao anterior, o intervalo
¸
X −Y −z
α/2
σ

1
n
+
1
m
; X −Y +z
α/2
σ

1
n
+
1
m
¸
onde z
α/2
´e obtido como em (5.3.2). Sendo σ
2
desconhecido, temos que uma
quantidade pivotal ´e dada por
(5.3.4) Q(X, Y, θ) =
X −Y −(µ
1
−µ
2
)
S
p

1
n
+
1
m
∼ t
n+m−2
onde
S
2
p
=
(n −1)S
2
x
+ (m−1)S
2
y
(n +m−2)
, S
2
x
=
1
n −1
n
¸
i=1
(X
i
−X)
2
e S
2
y
=
1
m−1
m
¸
i=1
(Y
i
−Y )
2
.
Como
(n −1)S
2
x
σ
2
∼ χ
2
n−1
e
(m−1)S
2
y
σ
2
∼ χ
2
m−1
,
e, pela independˆencia de S
2
x
e S
2
y
, temos que
(5.3.5)
(n +m−2)S
2
p
σ
2
=
(n −1)S
2
x
+ (m−1)S
2
y
σ
2
∼ χ
2
n+m−2
.
Ent˜ao do Teorema 5.1, (iii) segue o resultado (5.3.4). Um intervalo de confian¸ ca
para θ = µ
1
−µ
2
, com coeficiente de confian¸ ca γ ´e, ent˜ao, dado por
5.4 Intervalos de Confian¸ca Aproximados 83
¸
X −Y −t
α/2
S
p

1
n
+
1
m
; X −Y +t
α/2
S
p

1
n
+
1
m
¸
,
onde t
α/2
´e obtido na tabela da distribui¸ c˜ao t com n+m−2 graus de liberdade.
Para construirmos um intervalo de confian¸ ca para σ
2
, podemos considerar a
quantidade pivotal (5.3.5).
No caso em que X ∼ N(µ
1
, σ
2
1
) e Y ∼ N(µ
2
, σ
2
2
) e o interesse ´e a constru¸ c˜ao
de um intervalo de confian¸ ca para σ
2
1

2
2
, notando que
(n −1)S
2
x
σ
2
1
∼ χ
2
n−1
e
(m−1)S
2
y
σ
2
2
∼ χ
2
m−1
,
temos que
Q(X, Y, θ) =
(m−1)S
2
y

2
2
(m−1)
(n −1)S
2
x

2
1
(n −1)
∼ F
m−1,n−1
,
onde F
m−1,n−1
denota a distribui¸ c˜ao F com m−1 e n−1 graus de liberdade, ´e
uma quantidade pivotal para θ. Ent˜ao, dado γ, obtemos λ
1
e λ
2
na distribui¸ c˜ao
F
m−1,n−1
, de modo que
P
¸
λ
1

σ
2
1
S
2
y
σ
2
2
S
2
x
≤ λ
2
¸
= γ
Considerando o intervalo sim´etrico, ou seja, λ
1
= F
1
e λ
2
= F
2
, de modo que
P[F
m−1,n−1
≥ F
2
] = P[F
m−1,n−1
≤ F
1
] = α/2,
onde F
1
e F
2
s˜ao obtidos na tabela da distribui¸ c˜ao F com m−1 e n −1 graus
de liberdade, temos o intervalo
¸
F
1
S
2
x
S
2
y
; F
2
S
2
x
S
2
y

.
5.4 Intervalos de Confian¸ca Aproximados
Nesta se¸ c˜ao consideramos intervalos de confian¸ ca aproximados para um parˆa-
metro θ baseados na distribui¸ c˜ao assint´otica do estimador de m´ axima verossi-
milhan¸ ca
ˆ
θ de θ. De acordo com (3.2.3), temos que
ˆ
θ −θ

(nI
F
(θ))
−1
a
∼ N(0, 1).
84 5. Estima¸c˜ao por Intervalo
Como, I
F
(θ) pode depender de θ, que n˜ao ´e conhecido, substituindo I
F
(θ) por
I
F
(
ˆ
θ), temos que
(5.4.1) Q(X, θ) =
ˆ
θ −θ

(nI
F
(
ˆ
θ))
−1
a
∼ N(0, 1),
de modo que Q(X, θ) ´e uma quantidade pivotal com distribui¸ c˜ao aproximada-
mente igual a distribui¸ c˜ao N(0, 1) em grandes amostras. Com rela¸ c˜ao a uma
fun¸ c˜ao g(θ), podemos considerar a vari´avel aleat´oria
(5.4.2) Q(X, g(θ)) =
g(
ˆ
θ) −g(θ)

(g

(
ˆ
θ))
2
nIF (
ˆ
θ)
a
∼ N(0, 1),
que para amostras grandes ´e uma quantidade pivotal.
Exemplo 5.4.1. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria
X ∼ Bernoulli(θ). Como o estimador de m´axima verossimilhan¸ ca de θ ´e
ˆ
θ = X
e I
F
(θ) = 1/θ(1 −θ), de (5.4.1), temos que uma quantidade pivotal para θ ´e
dada por
Q(X, θ) =
X −θ

X(1−X)
n
a
∼ N(0, 1),
de modo que para valores grandes de n, um intervalo de confian¸ ca para θ com
coeficiente de confian¸ ca aproximadamente γ ´e dado por

X −z
α/2

X(1 −X)
n
; X +z
α/2

X(1 −X)
n
¸
¸
.
Suponhamos agora, que seja de interesse a obten¸ c˜ao de um intervalo de
confian¸ ca para g(θ) = θ(1 − θ). Como g

(θ) = 1 − 2θ e I
F
(θ) = 1/θ(1 − θ),
temos de (5.4.2) que uma quantidade pivotal para g(θ) ´e dada por
Q(X, θ) =
ˆ
θ(1 −
ˆ
θ) −θ(1 −θ)

ˆ
θ(1−
ˆ
θ)(1−2
ˆ
θ)
2
n
a
∼ N(0, 1),
de modo que um intervalo de confian¸ ca aproximado para g(θ) = θ(1−θ) ´e dado
por
¸
X(1 −X) −z
α/2

X(1 −X)(1 −2X)
2
n
; X(1 −X) + z
α/2

X(1 −X)(1 −2X)
2
n
¸
,
5.5 Intervalos de Confian¸ca Bayesianos 85
onde z
α/2
´e obtido na tabela da distribui¸ c˜ao N(0, 1).
Exemplo 5.4.2. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da
vari´avel aleat´oria X ∼ Exp(θ) , com fun¸ c˜ao densidade
f(x|θ) = θe
−θx
; x > 0, θ > 0.
Como I
−1
F
(θ) = θ
2
e
ˆ
θ = 1/X, segue de (5.4.1) que uma quantidade pivotal
para θ ´e dada por
Q(X, θ) =
1/X −θ

ˆ
θ
2
/n
a
∼ N(0, 1),
de modo que um intervalo de confian¸ ca com coeficiente de confian¸ ca aproximado
γ = 1 −α ´e dado por
(5.4.3)
¸
1
X
−z
α/2

1
nX
2
;
1
X
+z
α/2

1
nX
2
¸
.
Considerando a amostra da Tabela 5.2, temos que para n = 10 o intervalo
(5.4.3) se reduz a (1,189;5,063) e para n = 20, temos o intervalo (1,405;3,599).
Notemos que o intervalo aproximado para θ comn = 20 coincide com o intervalo
exato obtido no Exemplo 5.2.1.
5.5 Intervalos de Confian¸ca Bayesianos
Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da vari´avel aleat´oria
X com fun¸ c˜ao densidade de probabilidade (ou fun¸ c˜ao de probabilidade) f(x|θ).
Consideremos para θ a fun¸ c˜ao de densidade a priori π(θ). Portanto a fun¸ c˜ao de
densidade a posteriori para θ, ´e, de acordo com (4.4.6), dada por
π(θ|X) =
¸
n
i=1
f(x
i
|θ)π(θ)

Θ
¸
n
i=1
f(x
i
|θ)π(θ)dθ
.
Defini¸ c˜ao 5.5.1. Dizemos que [t
1
; t
2
] ´e um intervalo de confian¸ca Bayesiano
para θ, com coeficiente de confian¸ca γ = 1 −α se
(5.5.1)

t2
t1
π(θ|X)dθ = γ.
Como no caso cl´assico existem, em geral, infinitos intervalos [t
1
; t
2
] satis-
fazendo (5.5.1). Sempre que poss´ıvel, o comprimento do intervalo [t
1
; t
2
] deve
ser m´ınimo. Nos casos em que a fun¸ c˜ ao de densidade a posteriori ´e sim´etrica,
86 5. Estima¸c˜ao por Intervalo
os intervalos sim´etricos s˜ao em geral os de menor comprimento. O intervalo
Bayesiano de menor comprimento ´e usualmente conhecido como o intervalo
de densidade a posteriori m´axima “highest posterior density (HPD) interval”.
M´etodos computacionais s˜ao em geral necess´arios para a obten¸ c˜ao do intervalo
HPD.
Exemplo 5.5.1. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da
distribui¸ c˜ao N(µ, 1). Consideremos para µ a distribui¸ c˜ao a priori N(µ
0
, 1).
Do Exemplo 4.4.3, temos que a distribui¸ c˜ao a posteriori de µ dado X que
denotamos por µ|X, ´e dada por
µ|X ∼ N
¸
n
i=1
X
i

0
n + 1
,
1
n + 1

.
Sendo γ = 0, 95, temos ent˜ao de (5.5.1) e da tabela da distribui¸ c˜ao N(0, 1) que
[t
1
; t
2
] deve ser escolhido de modo que
t
1

¸
n
i=1
Xi+µ0
n+1

1
n+1
= −1, 96 e
t
2

¸
n
i=1
Xi+µ0
n+1

1
n+1
= 1, 96,
ou seja,
t
1
=
¸
n
i=1
X
i

0
n + 1
−1, 96

1
n + 1
e t
2
=
¸
n
i=1
X
i

0
n + 1
+ 1, 96

1
n + 1
,
logo o intervalo Bayesiano de menor comprimento (HPD) para µ com coeficiente
de confian¸ ca γ = 0, 95 ´e dado por
¸
¸
n
i=1
X
i

0
n + 1
−1, 96

1
n + 1
;
¸
n
i=1
X
i

0
n + 1
+ 1, 96

1
n + 1
¸
.
Exemplo 5.5.2. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da
vari´avel aleat´oria X ∼ U(0, θ). Consideremos para θ a priori com densidade
(Pareto)
π(θ) =
ba
b
θ
b+1
I
(a,∞)
(θ).
Do Exerc´ıcio 4.10, temos que a densidade a posteriori de θ dado X
1
, . . . , X
n
´e
dada por
(5.5.2) h(θ|X) =
(n +b)(max(a, X
(n)
))
n+b
θ
n+b+1
I
(max(a,X
(n)
);∞)
(θ).
Ent˜ao, temos de (5.5.1) que o intervalo Bayesiano “sim´etrico” para θ, com
coeficiente de confian¸ ca γ = 1 −α ´e obtido pela solu¸ c˜ao das equa¸ c˜oes
5.6 Exerc´ıcios 87

t1
max(a,X
(n)
)
(n +b)max(a, X
(n)
)
n+b
θ
n+b+1
dθ =
α
2
e


t2
(n +b)max(a, X
(n)
)
n+b
θ
n+b+1
dθ =
α
2
,
o que leva a
t
1
=
max(a, X
(n)
)
(1 −α/2)
1/n+b
e t
2
=
max(a, X
(n)
)
(α/2)
1/n+b
,
de modo que o intervalo Bayesiano sim´etrico para θ, com coeficiente de con-
fian¸ ca γ = 1 −α, ´e dado por
(5.5.3)
¸
max(a, X
(n)
)
(1 −α/2)
1/n+b
;
max(a, X
(n)
)
α/2
1/n+b
¸
.
Desde que a densidade a posteriori (5.5.2) n˜ao ´e sim´etrica, temos que o intervalo
(5.5.3) n˜ao ´e o HPD que nesse caso deve ser obtido numericamente.
5.6 Exerc´ıcios
5.1. Verifique a validade da express˜ao (5.1.1).
5.2. Considere o Exemplo 5.2.1. Mostre que a distribui¸ c˜ao da quantidade pi-
votal
Q(X, θ) = 2θ
n
¸
i=1
X
i
´e quiquadrado com 2n graus de liberdade com densidade dada por (5.2.4).
5.3. Considere o Exemplo 5.2.2. Mostre que a distibui¸ c˜ao de Q(X, θ) = X
(n)

´e dada por (5.2.9). Considere o intervalo
(5.6.1)
¸
X
(n)
;
X
(n)
α
1/n

.
Encontre seu coeficiente de confian¸ ca, compare seu comprimento com o do
intervalo obtido no Exemplo 5.2.2, e mostre que o intervalo (5.6.1) ´e o de menor
comprimento dentre todos os intervalos com coeficiente de confian¸ ca γ = 1−α.
5.4. Seja X uma ´ unica observa¸ c˜ao da densidade
f(x|θ) = θx
θ−1
0 < x < 1, θ > 0.
88 5. Estima¸c˜ao por Intervalo
(i) Mostre que −θlog X ´e uma quantidade pivotal e use-a para construir um
intervalo de confian¸ ca para θ com coeficiente de confian¸ ca γ = 1 −α.
(ii) Seja Y = (−log X)
−1
. Encontre o coeficiente de confian¸ ca associado ao
intervalo (Y/2, Y ).
5.5. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X ∼
N(θ, θ). Sugira uma quantidade pivotal para construir um intervalo de con-
fian¸ ca para θ com γ = 1 −α.
5.6. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X com
fun¸ c˜ao de densidade de probabilidade dada por
f(x|θ) = I
(θ−1/2,θ+1/2)
(x).
Seja [X
(1)
; X
(n)
] um intervalo de confian¸ ca para θ. Calcule seu coeficiente de
confian¸ ca. Mostre que o resultado vale para qualquer distribui¸ c˜ao sim´etrica em
torno de θ.
5.7. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X com
fun¸ c˜ao densidade de probabilidade dada por
f(x|θ) = θe
−θx
; x > 0, θ > 0.
Encontre intervalos de confian¸ ca para E(X) e V ar(X) com coeficientes de
confian¸ ca γ = 1 −α.
5.8. SejamX
1
, X
2
uma amostra aleat´oria de tamanho 2 da distribui¸ c˜ao N(µ, 1).
Seja Y
1
< Y
2
a amostra ordenada correspondente.
(i) Encontre o coeficiente de confian¸ ca associado ao intervalo (Y
1
, Y
2
).
(ii) Considere o intervalo de confian¸ ca para µ baseado na quantidade pivotal
X−µ, onde X = (X
1
+X
2
)/2. Compare o comprimento esperado deste intervalo
com o comprimento esperado do intervalo em (i) usando o mesmo γ.
5.9. Sejam X
1
, . . . , X
n+1
, uma amostra aleat´oria de tamanho n+1 (n > 1) da
distribui¸ c˜ao N(µ, σ
2
), onde µ e σ
2
s˜ao desconhecidos.
(i) Encontre c tal que
c(X −X
n+1
)
S
∼ t
n−1
,
onde
X =
1
n
n
¸
i=1
X
i
e S
2
=
1
n
n
¸
i=1
(X
i
−X)
2
.
(ii) Se n = 8, encontre k de modo que
P[X −kS ≤ X
9
≤ X +kS] = 0, 80.
5.6 Exerc´ıcios 89
5.10. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X ∼
Exp(θ
1
) e Y
1
, . . . , Y
m
uma amostra aleat´oria da vari´avel aleat´oria Y ∼ Exp(θ
2
).
Assumindo que as duas amostras s˜ao independentes,
(i) obtenha uma quantidade pivotal para construir um intervalo de confian¸ ca
para θ
1

2
.
(ii) Suponha que θ
1
= 1, 5 e θ
2
= 2, 0. Simule uma amostra aleat´oria com
n = 10 da vari´avel Xe com m = 15 da vari´avel aleat´oria Y . Como fica o seu
intervalo obtido a partir da quantidade pivotal encontrada em (i)?
5.11. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da distribui¸ c˜ao
Poisson(θ), com priori
π(θ) = e
−θ
, θ > 0.
Construa um intervalo de confian¸ ca Bayesiano sim´etrico para θ com γ = 0, 95.
Se n = 10 e
¸
n
i=1
X
i
= 18, como fica o intervalo?
5.12. Considere o Exerc´ıcio 4.9. Obtenha um intervalo de confian¸ ca Bayesiano
para θ com coeficiente de confian¸ ca γ = 0, 95. Como fica seu intervalo se x = 4?
5.13. Considere o Exerc´ıcio 4.12. Construa um intervalo de confian¸ ca para θ
com coeficiente de confian¸ ca γ = 1 − α, sendo r = λ = 2. Considere θ = 2 e
simule uma amostra de X com n = 10. Como fica o intervalo com γ = 0, 95?
5.14. Usando a amostra de tamanho n = 20 no Exemplo 3.1.6, construa um
intervalo aproximado para θ, onde f(x|θ) ´e dada em (3.1.8).
6. Testes de Hip´oteses
Neste cap´ıtulo apresentamos a teoria de testes de hip´oteses em um n´ıvel bas-
tante introdut´orio. Testes ´otimos, como os testes mais poderosos para hip´otese
nula simples contra alternativa simples e testes uniformemente mais poderosos
para hip´oteses compostas, s˜ao obtidos utilizando o conhecido Lema de Neyman-
Pearson. Situa¸ c˜oes mais complexas, como o caso de hip´oteses bilaterais, s˜ao
tratadas utilizando-se a estat´ıstica da raz˜ao de verossimilhan¸ cas generalizada
que, apesar de n˜ao apresentar propriedades ´otimas, tem um comportamento
bastante satisfat´orio.
6.1 Id´eias B´asicas
Em muitas situa¸ c˜oes temos interesse em tomar a decis˜ao de aceitar ou rejeitar
determinada afirma¸ c˜ao baseando-se em um conjunto de evidˆencias. Um exem-
plo comum ´e o caso em que um indiv´ıduo est´a sendo julgado por determinado
delito. Com base nas evidˆencias (testemunhas, fatos, etc.), o j´ uri ter´a que de-
cidir pela culpa ou inocˆencia do indiv´ıduo. Podemos, ent˜ ao, concluir que o j´ uri
formula duas hip´oteses: “H
0
: o indiv´ıduo ´e inocente” e a alternativa “H
1
: o
indiv´ıduo ´e culpado”. Com base nas evidˆencias apresentadas, o j´ uri ter´a que
se decidir por H
0
ou por H
1
. Ao tomar, por exemplo, a decis˜ao de aceitar H
1
(ent˜ao rejeitar H
0
) como verdadeira, o j´ uri pode estar cometendo um erro, pois,
apesar das evidˆencias, o indiv´ıduo pode ser inocente. O mesmo pode acontecer
com rela¸ c˜ao `a aceita¸ c˜ao da hip´otese H
0
como verdadeira. Nesse caso, o j´ uri
estaria considerando como inocente um indiv´ıduo culpado.
Um problema mais pr´oximo da ´area de atua¸ c˜ao da estat´ıstica (apesar de que
muita estat´ıstica tem sido utilizada em problemas jur´ıdicos), ´e o problema de se
decidir sobre a eficiˆencia ou n˜ao de certa vacina utilizada no combate `a determi-
nada doen¸ ca. Os pesquisadores formulam ent˜ao as hip´oteses “H
0
: a vacina n˜ao
´e eficiente” e “H
1
: a vacina ´e eficiente”. Nesse caso, um experimento ´e plane-
jado, envolvendo um grupo possivelmente grande de indiv´ıduos em que uma
parte (escolhida ao acaso) recebe a vacina e o restante recebe uma substˆancia
in´oqua. Com base nos resultados desse experimento, os pesquisadores ter˜ao
92 6. Testes de Hip´oteses
ent˜ao que se decidir por H
0
ou H
1
. Novamente, n˜ao est´a descartada a possi-
bilidade de que erros sejam cometidos ao se considerar, por exemplo, a vacina
eficiente (H
0
falsa) quando, na verdade, ela n˜ao o ´e (H
0
´e verdadeira), o que
seria bastante prejudicial `a popula¸ c˜ao. O estat´ıstico envolvido na pesquisa deve
procurar utilizar t´ecnicas que tornem m´ınima a probabilidade de se cometer
erros.
6.2 Formula¸c˜ao Estat´ıstica
Nesta se¸ c˜ao os princ´ıpios b´asicos da teoria s˜ao especificados. Formalizamos a
seguir a no¸ c˜ao de hip´otese estat´ıstica.
Defini¸ c˜ao 6.2.1. Chamamos de hip´ otese estat´ıstica qualquer afirma¸c˜ ao acerca
da distribui¸c˜ ao de probabilidades de uma ou mais vari´ aveis aleat´ orias.
Denotamos por H
0
(hip´otese nula) a hip´otese de interesse. Caso H
0
seja re-
jeitada, aceitamos como verdadeira a hip´otese alternativa H
1
. Sendo a vari´avel
aleat´oria X distribu´ıda de acordo com a fun¸ c˜ao de densidade (ou de probabi-
lidade) f(x|θ), com θ ∈ Θ, dizemos que a distribui¸ c˜ao de X est´a totalmente
especificada quando conhecemos f(x|θ) e θ. A distribui¸ c˜ao de X ser´a dita estar
parcialmente especificada quando conhecemos a fun¸ c˜ao de densidade (ou de
probabilidade) f(x|θ), mas n˜ao θ. Associados `as hip´oteses H
0
e H
1
, definimos
os conjuntos Θ
0
e Θ
1
, ou seja, H
0
afirma que θ ∈ Θ
0
(nota¸ c˜ao: H
0
: θ ∈ Θ
0
) e
H
1
afirma que θ ∈ Θ
1
(nota¸ c˜ao: H
1
: θ ∈ Θ
1
). No caso em que Θ
0
= {θ
0
} dize-
mos que H
0
´e simples. Caso contr´ario, dizemos que H
0
´e composta. O mesmo
vale para a hip´otese alternativa H
1
.
Defini¸ c˜ao 6.2.2. Chamamos de teste de uma hip´ otese estat´ıstica a fun¸c˜ ao
de decis˜ ao d : X → {a
0
, a
1
}, em que a
0
corresponde ` a a¸c˜ ao de considerar a
hip´ otese H
0
como verdadeira e a
1
corresponde ` a a¸c˜ ao de considerar a hip´ otese
H
1
como verdadeira.
Na defini¸ c˜ao acima, X denota o espa¸ co amostral associado `a amostra
X
1
, . . . , X
n
. A fun¸ c˜ao de decis˜ao d divide o espa¸ co amostral X em dois conjun-
tos
A
0
= {(x
1
, . . . , x
n
) ∈ X; d(x
1
, . . . , x
n
) = a
0
}
e
A
1
= {(x
1
, . . . , x
n
) ∈ X; d(x
1
, . . . , x
n
) = a
1
},
onde A
0
∪ A
1
= X e A
0
∩ A
1
= ∅. Como em A
0
temos os pontos amostrais
x = (x
1
, . . . , x
n
) que levam `a aceita¸ c˜ao de H
0
, vamos chamar A
0
de regi˜ao de
aceita¸c˜ ao e, por analogia, A
1
de regi˜ao de rejei¸c˜ ao de H
0
, tamb´em chamada de
regi˜ ao cr´ıtica.
6.2 Formula¸c˜ao Estat´ıstica 93
Exemplo 6.2.1. Uma caixa cont´em duas moedas. Uma apresenta cara com
probabilidade p = 0, 5 (equilibrada) e a outra apresenta cara com probabili-
dade p = 0, 6. Uma moeda ´e escolhida aleatoriamente e lan¸ cada trˆes vezes.
Suponhamos que as hip´oteses de interesse s˜ao H
0
: p = 0, 5 e H
1
: p = 0, 6.
Seja X
i
a vari´avel de Bernoulli que assume o valor 1 se ocorre cara no i-´esimo
lan¸ camento e 0 caso contr´ario, i = 1, 2, 3. Nesse caso,
X = {(0, 0, 0), (1, 0, 0), (0, 1, 0), (0, 0, 1), (0, 1, 1), (1, 0, 1), (1, 1, 0), (1, 1, 1)}.
Podemos considerar, por exemplo, a regi˜ao cr´ıtica
A
1
= {(x
1
, x
2
, x
3
); x
1
+x
2
+x
3
≥ 2},
de modo que
A
0
= {(x
1
, x
2
, x
3
); x
1
+x
2
+x
3
< 2}.
Notemos que A
0
∪ A
1
= X e A
0
∩ A
1
= ∅.
No caso em que H
0
: θ = θ
0
(simples) e H
1
: θ = θ
1
(simples), considerando
a fun¸ c˜ao de perda l(θ, d) = 0 ou 1, se a decis˜ao correta ou incorreta, respecti-
vamente, ´e tomada, a fun¸ c˜ao de risco ´e, ent˜ao, dada por
R(θ
0
, d) = E[l(θ
0
, d)] = 0.P[X ∈ A
0

0
] + 1.P[X ∈ A
1

0
]
= P[X ∈ A
1

0
] = α = P
H0
[Rejeitar H
0
]
e
R(θ
1
, d) = E[l(θ
1
, d)] = 0.P[X ∈ A
1

1
] + 1.P[X ∈ A
0

1
]
= P[X ∈ A
0

1
] = β = P
H1
[aceitar H
0
].
Os riscos α e β s˜ao conhecidos na literatura como probabilidades dos erros
dos tipos I e II, respectivamente. Mais precisamente, o erro do tipo I ocorre
quando rejeitamos H
0
, sendo H
0
verdadeira, enquanto que o erro do tipo II
ocorre quando aceitamos H
0
, sendo H
0
falsa. A situa¸ c˜ao descrita acima est´a
ilustrada na Tabela 6.1 dada abaixo.
Tabela 6.1. Tipos de erros em testes de hip´oteses
Decis˜ao H
0
´e verdadeira H
0
´e falsa
Aceitar H
0
Decis˜ao correta Erro do tipo II
Rejeitar H
0
Erro do tipo I Decis˜ao correta
Defini¸ c˜ao 6.2.3. O poder do teste com regi˜ ao cr´ıtica A
1
para testar H
0
: θ = θ
0
contra H
1
: θ = θ
1
´e dado por
94 6. Testes de Hip´oteses
(6.2.1) π(θ
1
) = P
H1
[X ∈ A
1
] = P[X ∈ A
1

1
].
Notemos de (6.2.1) que π(θ
1
) = 1 −β, onde β ´e a probabilidade de se cometer
o erro do tipo II.
Exemplo 6.2.2. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da
distribui¸ c˜ao da vari´avel aleat´oria X ∼ N(µ, 1). Consideremos as hip´oteses H
0
:
µ = 0 e H
1
: µ = 1. Consideremos o teste com regi˜ao cr´ıtica A
1
= {x; x ≥ c},
onde, como nos cap´ıtulos anteriores, x = (x
1
+ . . . + x
n
)/n. Suponhamos que
n = 16 e que temos interesse em fixar α = 0, 05. Ent˜ao, para determinar c,
temos que resolver a equa¸ c˜ao α = P
H0
[X ≥ c], ou seja,
0, 05 = P
H0
[X ≥ c] = P[Z ≥ c

n],
onde Z = X

n ∼ N(0, 1). Ent˜ao, c

n = 1, 64, pois na distribui¸ c˜ao N(0, 1), o
valor 1, 64 ´e o percentil 95%. Logo c = 0, 41, de modo que A
1
= {x, x ≥ 0, 41}.
6.3 Hip´otese Nula Simples contra Alternativa Simples.
Testes Mais Poderosos
Nesta se¸ c˜ao, fixada a probabilidade do erro do tipo I, α, tamb´em conhecida
como n´ıvel do teste, procuramos a regi˜ao cr´ıtica A

1
que tenha a menor pro-
babilidade de erro do tipo II, ou seja, maior poder dentre todos os testes com
n´ıvel menor ou igual a α. Enfatizamos que, no caso discreto,
α(A
1
) = P
H0
[X ∈ A
1
] =
¸
x∈A1
f(x|θ
0
) e β(A
1
) =
¸
x∈A0
f(x|θ
1
),
onde A
0
= A
c
1
, conforme enfatizado anteriormente.
Exemplo 6.3.1. Consideremos o problema de se testar H
0
: θ = θ
0
versus H
1
:
θ = θ
1
, com uma ´ unica observa¸ c˜ao da vari´avel aleat´oria X, com distribui¸ c˜ao
de probabilidade dada na Tabela 6.2 abaixo.
Tabela 6.2. Fun¸ c˜ao de probabilidade da vari´avel aleat´oria
X sob H
0
e H
1
X 0 1 2 3 4 5
f(x|θ
0
) 0,02 0,03 0,05 0,05 0,35 0,50
f(x|θ
1
) 0,04 0,05 0,08 0,12 0,41 0,30
Notemos que as poss´ıveis regi˜oes cr´ıticas A
1
de n´ıvel α(A
1
) = 0, 05 com os
respectivos β = β(A
1
) s˜ao dadas na Tabela 6.3 abaixo.
6.3 Hip´otese Nula Simples contra Alternativa Simples. Testes Mais Poderosos 95
Tabela 6.3. Regi˜oes cr´ıticas A
1
com n´ıvel α(A
1
) = 0, 05
A
1
α A
0
β
{0, 1} 0,05 {2, 3, 4, 5} 0,91
{2} 0,05 {0, 1, 3, 4, 5} 0,92
{3} 0,05 {0, 1, 2, 4, 5} 0,88
Portanto, dentre todas as regi˜oes cr´ıticas de n´ıvel α = 0, 05, a mais poderosa
(menor β) ´e dada por A
1
= {3}.
O resultado que segue apresenta o teste que minimiza uma combina¸ c˜ao
linear dos erros, do tipo aα +bβ, com a e b conhecidos.
Lema 6.3.1. Consideremos o teste com regi˜ ao cr´ıtica
A

1
=

x;
L
1
(x)
L
0
(x)

a
b

,
onde a e b s˜ ao especificados e b > 0. Ent˜ ao, para qualquer outro teste com
regi˜ ao cr´ıtica A
1
, temos que
aα(A

1
) +bβ(A

1
) ≤ aα(A
1
) +bβ(A
1
),
onde
(6.3.1) L
1
(x) =
n
¸
i=1
f(x
i

1
) e L
0
(x) =
n
¸
i=1
f(x
i

0
).
Prova. Conforme visto acima, para qualquer teste com regi˜ao cr´ıtica A
1
, temos
que
α(A
1
) =
¸
x∈A1
f(x|θ
0
) e β(A
1
) =
¸
x∈A0
f(x|θ
1
),
para uma vari´avel aleat´oria X discreta. Ent˜ao,
aα(A
1
) +bβ(A
1
) = a
¸
x∈A1
f(x|θ
0
) +b
¸
x∈A0
f(x|θ
1
)
= a
¸
x∈A1
f(x|θ
0
) +b

1 −
¸
x∈A1
f(x|θ
1
)

= b +
¸
x∈A1
[af(x|θ
0
) −bf(x|θ
1
)].
Portanto a soma aα(A
1
) +bβ(A
1
) ser´a m´ınima quando a regi˜ao cr´ıtica incluir
somente os pontos amostrais x tais que af(x|θ
0
)−bf(x|θ
1
) ≤ 0, ou seja, quando
f(x|θ
1
)
f(x|θ
0
)
=
L
1
(x)
L
0
(x)

a
b
,
96 6. Testes de Hip´oteses
o que conclui a prova.
Para o caso em que X ´e uma vari´ avel aleat´oria cont´ınua, a demostra¸ c˜ao ´e
an´aloga, bastando substituir as somas por integrais correspondentes.
Exemplo 6.3.2. Consideremos o Exemplo 6.3.1 novamente. Temos que o teste
com α +β (a = b = 1) m´ınimo tem regi˜ao cr´ıtica dada por A

1
= {0, 1, 2, 3, 4},
de modo que α = 0, 5 e β = 0, 3 sendo α +β = 0, 80.
O resultado que apresentamos a seguir considera o teste mais poderoso
(M.P.) de n´ıvel α para testar H
0
: θ = θ
0
contra H
1
: θ = θ
1
.
Lema 6.3.2. (Lema de Neyman-Pearson) Consideremos o teste com regi˜ ao
cr´ıtica
(6.3.2) A

1
=

x;
L
1
(x)
L
0
(x)
≥ k

.
em que L
0
(x) e L
1
(x) s˜ ao dados em (6.3.1). Ent˜ ao A

1
´e a melhor regi˜ ao
cr´ıtica de n´ıvel α = α(A

1
) para testar H
0
: θ = θ
0
contra H
1
: θ = θ
1
, isto ´e,
β(A

1
) ≤ β(A
1
) para qualquer outro teste A
1
com α(A
1
) ≤ α.
Prova. Do Lema 6.3.1, temos que
(6.3.3) kα(A

1
) +β(A

1
) ≤ kα(A
1
) +β(A
1
),
para qualquer outra regi˜ao cr´ıtica A
1
. Como α(A
1
) ≤ α(A

1
), a desigualdade
(6.3.3) implica que β(A

1
) ≤ β(A
1
), o que conclui a prova.
O teste com regi˜ao cr´ıtica (6.3.2) ´e tamb´em conhecido como teste da raz˜ao
de verossimilhan¸ cas. Calculando a fun¸ c˜ao de verossimilhan¸ ca dada em (3.1.1)
sob H
0
(L
0
(x)) e sob H
1
(L
1
(x)), o teste mais poderoso rejeita H
0
quando
L
1
(x)/L
0
(x) ≥ k, ou seja, quando a evidˆencia em favor de H
1
(expressa por
L
1
(x)) ´e maior que a evidˆencia em favor de H
0
(expressa por L
0
(x)). Portanto,
a seguir, quando nos referimos ao teste M.P., nos referimos ` a regi˜ao cr´ıtica A

1
.
Exemplo 6.3.3. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da
distribui¸ c˜ao de X ∼ N(µ, 1). O objetivo ´e encontrar o teste M.P. para testar
H
0
: µ = 0 contra H
1
: µ = 1. Nesse caso, a fun¸ c˜ao de verossimilhan¸ ca ´e dada
por
L(µ; x) =

1

n
e

¸
n
i=1
(x
i
−µ)
2
2
,
de modo que o teste M.P. rejeita H
0
quando
L
1
(x)
L
0
(x)
=

1

n
e

¸
n
i=1
(xi−1)
2
/2

1

n
e

¸
n
i=1
x
2
i
/2
≥ k,
6.3 Hip´otese Nula Simples contra Alternativa Simples. Testes Mais Poderosos 97
ou seja, quando
e
¸
n
i=1
xi−
n
2
≥ k,
que ´e equivalente a rejeitar H
0
quando
¸
n
i=1
x
i
≥ log k + n/2 = c. Portanto a
regi˜ao cr´ıtica do teste M.P. ´e dada por
(6.3.4) A

1
=

x,
n
¸
i=1
x
i
≥ c
¸
.
Dado α = 0, 05, por exemplo, c ´e tal que
0, 05 = P
H0
¸
n
¸
i=1
X
i
≥ c
¸
.
Como, sob H
0
,
¸
n
i=1
X
i
∼ N(0, n), temos que c = 1, 64

n. Sendo n = 9, temos
que c = 4, 92, de modo que, de (6.3.4),
(6.3.5) A

1
=

x;
n
¸
i=1
x
i
≥ 4, 92
¸
.
Associada `a regi˜ao cr´ıtica (6.3.5), temos que
β = P
H1
¸
n
¸
i=1
X
i
< 4, 92
¸
= P
H1
¸¸
n
i=1
X
i
−n

n
<
4, 92 −n

n

,
e como n = 9, β = P

Z ≤ −
4,08
3

= 0, 09, onde Z ∼ N(0, 1). O poder do
teste ´e, ent˜ao, dado por π(θ
1
) = 1 −β = 0, 91. Sendo as hip´oteses de interesse
H
0
: µ = µ
0
e H
1
: µ = µ
1
> µ
0
, o teste M.P. tem regi˜ao cr´ıtica dada por
(6.3.4) com c dado por
c = 1, 64

n +nµ
0
.
Exemplo 6.3.4. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da
vari´avel aleat´oria X ∼ N(µ, σ
2
), onde µ ´e conhecido. Queremos o teste M.P.
para testar H
0
: σ
2
= σ
2
0
contra H
1
: σ
2
= σ
2
1
(> σ
2
0
). De acordo com o Lema
6.3.2, temos que o teste M.P. rejeita H
0
quando
L
1
(x)
L
0
(x)
=

1

2πσ
2
1

n
e

¸
n
i=1
(x
i
−µ)
2

2
1

1

2πσ
2
0

n
e

¸
n
i=1
(x
i
−µ)
2

2
0
≥ k,
que ´e equivalente a
98 6. Testes de Hip´oteses
n
¸
i=1
(x
i
−µ)
2

log(k(
σ1
σ0
)
n
)
1
2

1
σ
2
0

1
σ
2
1
= c.
Ent˜ao, a regi˜ao cr´ıtica do teste M.P. ´e dada por
(6.3.6) A

1
=

x;
n
¸
i=1
(x
i
−µ)
2
≥ c
¸
.
Fixando α, temos que o valor de c em (6.3.6) ´e dado pela solu¸ c˜ao da equa¸ c˜ao
α = P
H0
¸
n
¸
i=1
(X
i
−µ)
2
≥ c
¸
= P
¸
n
¸
i=1
(X
i
−µ)
2
σ
2
0

c
σ
2
0
¸
.
Mas, sob H
0
,
n
¸
i=1
(X
i
−µ)
2
σ
2
0
∼ χ
2
n
,
ent˜ao, sendo α = 0, 05, n = 10 e σ
2
0
= 8, temos
0, 05 = P

χ
2
10

c
8

onde χ
2
10
´e a vari´avel aleat´oria com distribui¸ c˜ao quiquadrado com 10 graus de
liberdade. Portanto temos que a regi˜ao cr´ıtica ´e dada por
(6.3.7) A

1
=

x;
10
¸
i=1
(x
i
−µ)
2
≥ 146, 456
¸
.
Nesse caso, sendo σ
2
1
= 10, 0 temos que
β = P
H1
¸
10
¸
i=1
(X
i
−µ)
2
< 146, 456
¸
= P

χ
2
10
≤ 14, 646

= 0, 85,
pois, sob H
1
,
10
¸
i=1
(X
i
−µ)
2
10
∼ χ
2
10
.
Assim, associado `a regi˜ao cr´ıtica (6.3.7) temos o poder π(σ
2
1
) = 1 −β = 0, 15.
Exemplo 6.3.5. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da
distribui¸ c˜ao da vari´avel aleat´oria X com distribui¸ c˜ao Bernoulli(θ). Conside-
remos o problema de testar H
0
: θ = θ
0
contra H
1
: θ = θ
1

1
> θ
0
). De
6.3 Hip´otese Nula Simples contra Alternativa Simples. Testes Mais Poderosos 99
acordo com o Lema de Neyman-Pearson e a fun¸ c˜ao de verossimilhan¸ ca dada
em (3.1.1), a regi˜ao cr´ıtica do teste M.P. rejeita H
0
quando
θ
¸
n
i=1
xi
1
(1 −θ
1
)
n−
¸
n
i=1
xi
θ
¸
n
i=1
xi
0
(1 −θ
0
)
n−
¸
n
i=1
xi
≥ k,
que pode ser escrita como

θ
1
(1 −θ
0
)
θ
0
(1 −θ
1
)

¸
n
i=1
xi
≥ k

1 −θ
0
1 −θ
1

n
,
que se reduz a
n
¸
i=1
x
i

log[k(
1−θ0
1−θ1
)
n
]
log[
θ1(1−θ0)
θ0(1−θ1)
]
= c.
Portanto a regi˜ao cr´ıtica do teste M.P. ´e dada por
A

1
=

x;
n
¸
i=1
x
i
≥ c
¸
.
Sob H
0
,
¸
n
i=1
X
i
∼ Binomial(n, θ
0
), ent˜ao sendo α = 0, 055, θ
0
= 0, 5, θ
1
=
0, 6 e n = 10, temos que
α = P
H0
¸
n
¸
i=1
X
i
≥ c
¸
,
leva `a regi˜ao cr´ıtica
(6.3.8) A

1
=

x;
10
¸
i=1
x
i
≥ 8
¸
.
Assim, associada `a regi˜ao cr´ıtica A

1
em (6.3.8), temos que
β = P
H1
¸
10
¸
i=1
X
i
≤ 7
¸
= 0, 833.
Portanto o poder associado `a regi˜ao cr´ıtica (6.3.8) ´e dado por π(0, 6) = 1 −
0, 833 = 0, 167. Sendo n grande (maior que 20, pelo menos), podemos usar a
aproxima¸ c˜ao normal, ou seja,
¸
n
i=1
X
i
−nθ

nθ(1 −θ)
a
∼ N(0, 1).
100 6. Testes de Hip´oteses
Dado α, podemos obter o valor de c na regi˜ao cr´ıtica (6.3.8), como solu¸ c˜ao da
equa¸ c˜ao
α = P
¸
Z ≥
c −nθ
0


0
(1 −θ
0
)
¸
,
onde Z ∼ N(0, 1).
Definimos a seguir n´ıvel descritivo que est´a associado ao valor efetivamente
observado da estat´ıstica do teste.
Defini¸ c˜ao 6.3.1. Consideramos como n´ıvel descritivo, que denotamos por ˆ α,
como o menor n´ıvel de significˆ ancia α para o qual a hip´ otese nula H
0
seria
rejeitada.
Notemos que, se α > ˆ α, rejeitamos H
0
e, se α < ˆ α, n˜ao rejeitamos H
0
, onde
α ´e o n´ıvel de significˆancia adotado.
Exemplo 6.3.6. Consideremos novamente o Exemplo 6.3.3 e suponhamos que
para uma amostra de n = 9 observa¸ c˜ oes, x = 0, 68. Portanto
ˆ α = P
H0
[X ≥ 0, 68] = P[Z ≥ 2, 04] = 0, 02,
onde Z ∼ N(0, 1). Nesse caso, tomando α = 0, 05, rejeitamos H
0
: µ = 0.
6.4 Testes Uniformemente Mais Poderosos
Na se¸ c˜ao anterior consideramos testes ´otimos (M.P.) para testar hip´oteses nu-
las simples contra alternativas simples. Nesta se¸ c˜ao generalizamos os resultados
da Se¸ c˜ao 6.3 para o caso de hip´oteses mais complexas. A Se¸c˜ao 6.4.1 apresenta
testes ´otimos para o caso em que temos hip´otese nula simples e alternativas com-
postas. Na Se¸ c˜ao 6.4.2, discutimos brevemente o caso em que as duas hip´oteses
s˜ao compostas.
6.4.1 Hip´otese nula simples contra alternativa composta
Consideremos que as hip´oteses de interesse s˜ao H
0
: θ = θ
0
contra H
1
: θ ∈ Θ
1
.
Defini¸ c˜ao 6.4.1. Um teste A

1
´e dito ser uniformemente mais poderoso
(U.M.P.) para testar H
0
: θ = θ
0
contra H
1
: θ ∈ Θ
1
, se ele ´e M.P. de
n´ıvel α para testar H
0
: θ = θ
0
contra H
1
: θ = θ
1
, qualquer que seja θ
1
∈ Θ
1
.
De acordo com a Defini¸ c˜ao 6.4.1, a regi˜ao cr´ıtica A

1
n˜ao pode depender
particularmente de θ
1
, para qualquer θ
1
∈ Θ
1
.
6.4 Testes Uniformemente Mais Poderosos 101
Exemplo 6.4.1. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da
distribui¸ c˜ao N(µ, 1). Consideremos as hip´oteses H
0
: µ = 0 contra H
1
: µ > 0.
Neste caso, Θ
1
= {µ; µ > 0}. Para testar H
0
: µ = 0 contra H
1
: µ = µ
1
> 0,
temos do Exemplo 6.3.3 que o teste M.P. tem regi˜ao cr´ıtica dada por A

1
=
{x;
¸
n
i=1
x
i
≥ c}. Como A

1
n˜ao depende do particular µ
1
especificado acima,
segue da Defini¸ c˜ao 6.4.1 que A

1
´e a regi˜ao cr´ıtica do teste U.M.P. para testar
H
0
: µ = 0 contra H
1
: µ > 0.
Exemplo 6.4.2. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da
distribui¸ c˜ao Bernoulli(θ). Consideremos as hip´oteses H
0
: θ = 0, 5 contra
H
1
: θ < 0, 5. Para testar H
0
: θ = 0, 5 contra H
1
: θ = θ
1
< 0, 5, temos que o
teste M.P. tem regi˜ao cr´ıtica dada por A

1
= {x,
¸
n
i=1
x
i
≤ c}. Como A

1
n˜ao
depende do particular valor de θ
1
especificado em H
1
, temos que A

1
´e a regi˜ao
cr´ıtica do teste U.M.P. para testar H
0
: θ = 0, 5 contra H
1
: θ < 0, 5.
Exemplo 6.4.3. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria
X ∼ N(µ, 1). Consideremos as hip´oteses H
0
: µ = 0 contra H
1
: µ = 0.
Para testar H
0
: µ = 0 contra H
1
: µ = 1, o teste M.P. ´e dado por A

1
=
{x,
¸
n
i=1
x
i
≥ c}. Por outro lado, para testar H
0
: µ = 0 contra H
1
: µ = −1,
o teste M.P. tem regi˜ao cr´ıtica dada por A

1
= {x;
¸
n
i=1
x
i
≤ c}. Portanto a
regi˜ao cr´ıtica do teste M.P. depende do particular valor de µ
1
escolhido para
H
1
, ou seja, a regi˜ao cr´ıtica n˜ao ´e ´ unica. Portanto n˜ao existe teste U.M.P. para
testar H
0
: µ = 0 contra H
1
: µ = 0.
Defini¸ c˜ao 6.4.2. A fun¸c˜ ao de poder π(θ) com regi˜ ao cr´ıtica A

1
para testar
H
0
: θ = θ
0
contra H
1
: θ ∈ Θ
1
´e dada por
π(θ) = P
θ
[X ∈ A

1
],
ou seja, ´e a probabilidade de rejeitar H
0
para θ ∈ Θ. Notemos que π(θ
0
) = α.
Exemplo 6.4.4. Sejam X
1
, . . . , X
n
, uma amostra aleat´oria de tamanho n da
distribui¸ c˜ao N(µ, 1). Consideremos o problema de testar H
0
: µ = 0 contra
H
1
: µ > 0. Conforme visto no Exemplo 6.4.1, a regi˜ao cr´ıtica do teste U.M.P.
´e dada por A

1
= {x,
¸
n
i=1
x
i
≥ c}. Sendo n = 9 e α = 0, 05, temos, como
no Exemplo 6.3.3, que c = 1, 64

9 = 4, 92, de modo que A

1
= {x;
¸
n
i=1
x
i

4, 92}. A fun¸ c˜ao de poder ´e, ent˜ao, dada por
(6.4.1) π(µ) = P
µ
¸
9
¸
i=1
X
i
≥ 4, 92
¸
= 1 −Φ

4, 92 −9µ
3

,
onde Φ(.) denota a fun¸ c˜ao de distribui¸ c˜ao acumulada da distribui¸ c˜ao N(0, 1).
Ent˜ao,
π(0, 3) = 1 −Φ(0, 74) = 1 −0, 77 = 0, 23.
102 6. Testes de Hip´oteses
De modo similar, π(0, 5) = 1 − Φ(0, 14) = 0, 44 e π(1, 0) = 0, 91 e π(0, 0) =
0, 05 = α. Graficamente, temos a Figura 6.1 que representa a fun¸ c˜ao poder do
teste.
Figura 6.1. Fun¸ c˜ao poder dada em (6.4.1)
0 0.5 1
0.05
0.5
1


µ
π(µ)
6.4.2 Hip´oteses compostas
Nesta se¸ c˜ao consideramos brevemente testes U.M.P. para situa¸ c˜oes onde as
hip´oteses nula e alternativa s˜ao compostas. Mais especificamente, consideramos
o problema de se testar as hip´oteses H
0
: θ ∈ Θ
0
contra H
1
: θ ∈ Θ
1
. O
resultado apresentado a seguir estabelece condi¸ c˜oes para que se tenha o teste
U.M.P. para testar as hip´oteses compostas acima. A demonstra¸ c˜ao pode ser
vista em De Groot (1975).
Teorema 6.4.1. No caso em que X
1
, . . . , X
n
seguem uma distribui¸c˜ ao da
fam´ılia exponencial (Se¸c˜ ao 2.4), temos que o teste U.M.P. para testar H
0
:
θ = θ
0
contra H
1
: θ > θ
0
´e tamb´em U.M.P. para testar H
0
: θ ≤ θ
0
contra
H
1
: θ > θ
0
. Tamb´em o teste U.M.P. para testar H
0
: θ = θ
0
contra H
1
: θ < θ
0
´e U.M.P. para testar H
0
: θ ≥ θ
0
contra H
1
: θ < θ
0
.
Exemplo 6.4.5. Sejam X
1
, . . . , X
n
uma amostra aleat´oria de tamanho n da
vari´avel aleat´oria X ∼ N(µ, 1). De acordo com o Teorema 6.4.1, temos do
Exemplo 6.4.1 que o teste U.M.P. para testar H
0
: µ ≤ 0 contra H
1
: µ > 0
tem regi˜ao cr´ıtica dada por A

1
= {x;
¸
n
=1
x
i
≥ c} .
Exemplo 6.4.6. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria
X ∼ Bernoulli(θ). De acordo com o Teorema 6.4.1 e Exemplo 6.4.2, segue que
6.5 Testes da Raz˜ao de Verossimilhan¸cas Generalizada 103
o teste U.M.P. para testar H
0
: θ ≥ 0, 5 contra H
1
: θ < 0, 5 ´e dada por
A

1
= {x,
¸
n
i=1
x
i
≤ c}.
A fun¸ c˜ao de poder do teste U.M.P., nesta situa¸ c˜ao mais geral, ´e tamb´em
como na Defini¸ c˜ao 6.4.2, ou seja, π(θ) = P
θ
[X ∈ A

1
], θ ∈ Θ.
6.5 Testes da Raz˜ao de Verossimilhan¸cas Generalizada
Na Se¸ c˜ao 6.4 vimos que os testes UMP existem apenas em situa¸ c˜oes especiais.
Essas situa¸ c˜oes compreendem o caso das fam´ılias exponenciais unidimensionais.
Vimos tamb´em que, em geral, n˜ao existem testes UMP para testar H
0
: θ = θ
0
versus H
1
: θ = θ
0
. Tamb´em n˜ao existe teste UMP na maioria dos casos em que
a distribui¸ c˜ao envolve mais de um parˆ ametro desconhecido como, por exemplo,
a N(µ, σ
2
) com µ e σ
2
desconhecidos. Um procedimento que produz testes
razo´aveis e que pode ser utilizado em muitos casos, sem muita dificuldade, ´e o
Teste da Raz˜ao de Verossimilhan¸ cas Generalizada (TRVG).
Consideremos uma situa¸ c˜ao bastante geral onde as hip´oteses de interesse
s˜ao
H
0
: θ ∈ Θ
0
versus H
1
: θ ∈ Θ
1
onde Θ = Θ
0
∪ Θ
1
, Θ
0
∩ Θ
1
= ∅, Θ
0
= ∅ e Θ
1
= ∅.
O TRVG pode ser definido como o teste com regi˜ao cr´ıtica dada por (ver
Bickel e Doksum(1976))
A

1
=

x;
sup
θ∈Θ1
L(θ; x)
sup
θ∈Θ0
L(θ; x)
≥ c

.
Podemos notar que, quando as hip´oteses s˜ao simples, ou seja, Θ
0
= {θ
0
} e
Θ
1
= {θ
1
}, o TRVG coincide com o LNP dado em (6.3.2).
Como
sup
θ∈Θ
L(θ; x)
sup
θ∈Θ0
L(θ; x)
= max

1,
sup
θ∈Θ1
L(θ; x)
sup
θ∈Θ0
L(θ; x)

,
por facilidades computacionais o TRVG pode tamb´em ser definido como
(6.5.1) A

1
=

x; λ(x) =
sup
θ∈Θ0
L(θ; x)
sup
θ∈Θ
L(θ; x)
≤ c

.
Observemos que 0 ≤ λ(x) ≤ 1, pois o numerador ´e o supremo com rela¸ c˜ao a θ
pertencente a um subconjunto de Θ (Θ
0
∈ Θ), enquanto que o denominador ´e
o supremo sobre todo conjunto Θ. Se a hip´otese H
0
for verdadeira, esperamos
que λ(x) esteja “pr´oximo” de 1, e se a hip´otese H
0
for falsa, esperamos que o
denominador seja grande em rela¸ c˜ao ao numerador, e, portanto, λ(x) deve ser
“pr´oximo” de zero.
104 6. Testes de Hip´oteses
Para determinar c em (6.5.1) temos que resolver a equa¸ c˜ao
α = sup
θ∈Θ0
P(λ(X) ≤ c).
Para isso, precisamos da distribui¸ c˜ao da estat´ıstica λ(X) que, em geral, n˜ao ´e
simples de ser obtida, ou, ent˜ao, podemos encontrar uma fun¸ c˜ao h estritamente
crescente no dom´ınio de λ(x) tal que h(λ(X)) tenha uma forma simples e uma
distribui¸ c˜ao conhecida e tabelada sob a hip´otese H
0
.
Para implementa¸ c˜ao do TRVG, os seguintes passos devem ser seguidos:
1) obter o estimador de m´axima verossimilhan¸ ca (EMV )
ˆ
θ de θ;
2) obter o EMV
ˆ
θ
0
de θ, quando θ ∈ Θ
0
;
3) calcular λ(X) =
L(
ˆ
θ0;X)
L(
ˆ
θ;X)
;
4) encontrar a fun¸ c˜ao h;
5) obter c, resolvendo a equa¸ c˜ao α = P
H0
(h(λ(X)) ≤ c).
A seguir apresentamos alguns exemplos.
Exemplo 6.5.1. Consideremos o Exemplo 6.3.3 novamente, mas agora o in-
teresse ´e testar H
0
: µ = µ
0
versus H
1
: µ = µ
0
. Conforme vimos no Exemplo
6.4.3 n˜ao existe teste UMP nesse caso. Pelo Exemplo 3.1.1, temos que o EMV
de µ ´e dado por ˆ µ = X. Como a hip´otese H
0
s´o especifica um ´ unico valor para
µ, o numerador de λ(x) em (6.5.1) ´e L(µ
0
; x) de modo que
λ(x) =
(2π)
−n/2
e

1
2
¸
(xi−µ0)
2
(2π)
−n/2
e

1
2
¸
(xi−x)
2
= e

1
2
[
¸
(xi−µ0)
2

¸
(xi−x)
2
]
.
Podemos simplificar λ(x) usando o fato de que
(6.5.2)
¸
(x
i
−µ
0
)
2
=
¸
(x
i
− x)
2
+n(x −µ
0
)
2
.
De (6.5.1) temos que o TRVG rejeita H
0
quando
e

n
2
(µ0−x)
2
≤ c,
que ´e equivalente a rejeitar H
0
quando
|x −µ
0
| ≥

−2logc/n.
Portanto a regi˜ao cr´ıtica do TRVG ´e dada por
A

1
= {x;

n|x −µ
0
| ≥ a}.
6.5 Testes da Raz˜ao de Verossimilhan¸cas Generalizada 105
Fixado α, obtemos a de forma que
α = P
H0
(

n|X −µ
0
| ≥ a)
Como sob H
0
,

n(X − µ
0
) ∼ N(0, 1), temos que a = z
α/2
. Sendo α = 0, 05
temos que A

1
= {x;

n|x − µ
0
| ≥ 1, 96}. Considerando µ
0
= 0, n = 9,
¸
n
i=1
x
i
= 3, 4, n˜ao rejeitamos H
0
pois

9|3, 4/9 − 0| < 1, 96. Nesse caso,
a fun¸ c˜ao de poder do teste ´e
π(µ) = P
µ
(

n|X| ≥ 1, 96) = 1−P(−1, 96−

nµ ≤

n(X−µ) ≤ 1, 96−

nµ)
= 1 − [Φ(1, 96 −

nµ) −Φ(−1, 96 −

nµ)],
pois temos que

n(X − µ) ∼ N(0, 1) quando µ ´e o verdadeiro valor do
parˆametro. A Figura 6.2 apresenta o gr´afico dessa fun¸ c˜ao poder para os da-
dos acima. Notemos que π(0) = 1 − P(−1, 96 ≤ Z ≤ 1, 96) = 0, 05, onde
Z ∼ N(0, 1). De maneira similar, π(0, 3) = π(−0, 3) = 0, 15, e assim por di-
ante.
Figura 6.2. Fun¸ c˜ao poder


-1 -0.5 0 0.5 1
0.5
1
π(µ)
µ
Exemplo 6.5.2. SejamX
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria
X ∼ N(µ, σ
2
) com µ e σ
2
desconhecidos. O interesse ´e testar H
0
: µ = µ
0
versus
H
1
: µ = µ
0
. Nesse caso,
Θ
0
= {(µ
0
, σ
2
); σ
2
> 0} e Θ = {(µ, σ
2
), −∞< µ < ∞, σ
2
> 0}
De acordo com o Exemplo 3.4.1, o EMV de (µ, σ
2
) em Θ ´e dado por ˆ µ = X
e ˆ σ
2
=
¸
(X
i
− X)
2
/n e em Θ
0
´e dado por ˆ µ
0
= µ
0
e ˆ σ
2
0
=
¸
(X
i
− µ
0
)
2
/n.
Logo a estat´ıstica do TRVG ´e dada por
106 6. Testes de Hip´oteses
λ(x) =
(2π)
−n/2
(ˆ σ
2
0
)
−n/2
e

1
2ˆ σ
2
0
¸
(xi−µ0)
2
(2π)
−n/2
(ˆ σ
2
)
−n/2
e

1
2ˆ σ
2
¸
(xi−x)
2
=

ˆ σ
2
ˆ σ
2
0

n/2
.
Usando (6.5.2), temos que o TRVG rejeita H
0
quando

¸
1
1 +
n(x−µ0)
2
¸
(xi−x)
2
¸

n/2
≤ c
que ´e equivalente a rejeitar H
0
quando

n|x −µ
0
|

¸
(xi−x)
2
n−1

(c
−2/n
−1)(n −1)
Portanto a regi˜ao cr´ıtica do TRVG ´e dada por
A

1
=

x;

n|x −µ
0
|
s
≥ a

onde s
2
=
¸
(xi−x)
2
n−1
. Sob a hip´otese H
0
,

n(X−µ0)
S
∼ t
n−1
e, ent˜ao, dado
α = 0, 05 e n = 9 obtemos, usando a tabela da distribui¸ c˜ao t com 8 graus de
liberdade, a = 2, 306. Se µ
0
= 0, x = 0, 68 e s = 1, 2, ent˜ao

n(x−µ0)
s
= 1, 7 de
modo que n˜ao rejeitamos H
0
.
Exemplo 6.5.3. Consideremos novamente o Exemplo 6.5.2, mas sendo que o
interesse ´e testar H
0
: σ
2
= σ
2
0
versus H
1
: σ
2
= σ
2
0
. Nesse caso,
Θ
0
= {(µ, σ
2
); −∞< µ < ∞, σ
2
= σ
2
0
}
e
Θ = {(µ, σ
2
), −∞< µ < ∞, σ
2
> 0}
Pelo Exemplo 3.4.1., o EMV de (µ, σ
2
) em Θ ´e dado por ˆ µ = X e ˆ σ
2
=
¸
(X
i
− X)
2
/n, enquanto que em Θ
0
´e dado por ˆ µ
0
= X e ˆ σ
2
0
= σ
2
0
. Logo, a
estat´ıstica do TRVG ´e dada por
λ(x) =
(2π)
−n/2

2
0
)
−n/2
e

1

2
0
¸
(xi−x)
2
(2π)
−n/2
(ˆ σ
2
)
−n/2
e

1
2ˆ σ
2
¸
(xi−x)
2
=

ˆ σ
2
σ
2
0

n/2
e

1

2
0
¸
(xi−x)
2
+n/2
.
Ent˜ao, temos que o TRVG rejeita H
0
quando
¸
(x
i
−x)
2
σ
2
0

n/2
e

¸
(x
i
−x)
2

2
0
≤ c.
6.5 Testes da Raz˜ao de Verossimilhan¸cas Generalizada 107
Notemos que se g(y) = y
n/2
e
−y/2
, y > 0 ent˜ao a fun¸ c˜ao log g(y) (e tamb´em
g(y)) ´e crescente para y < n, atingindo o ponto de m´aximo em y = n e ´e
decrescente para y > n, logo g(y) ≤ c se e somente se y ≤ c
1
ou y ≥ c
2
com
g(c
1
) = g(c
2
). Portanto o TRVG ´e equivalente a rejeitar H
0
quando
¸
(x
i
−x)
2
σ
2
0
≤ c
1
ou
¸
(x
i
−x)
2
σ
2
0
≥ c
2
.
Sob a hip´otese H
0
,
¸
(Xi−X)
2
σ
2
0
∼ χ
2
n−1
e, ent˜ao, dado α = 0, 05 e n = 9 obtemos,
usando a tabela da distribui¸ c˜ao quiquadrado com 8 graus de liberdade, c
1
=
2, 180 e c
2
= 17, 534 se considerarmos, como na Se¸ c˜ao 5.2, probabilidades iguais
para as duas caudas.
Exemplo 6.5.4. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´aval aleat´oria
X com fun¸ c˜ao densidade de probabilidade dada por
f(x|θ) =

e
−(x−θ)
, x ≥ θ
0, x < θ
onde −∞< θ < ∞. A fun¸ c˜ao de verossimilhan¸ ca pode ser escrita como
L(θ; x) =

e

¸
xi+nθ
, θ ≤ x
(1)
0, θ > x
(1)
.
Suponhamos que o interesse seja testar H
0
: θ ≤ θ
0
versus H
1
: θ > θ
0
onde θ
0
´e um valor especificado. Podemos verificar que L(θ; x) ´e uma fun¸ c˜ao crescente
em θ no intervalo −∞ < θ ≤ x
(1)
. Logo, em Θ, o EMV de θ ´e
ˆ
θ = X
(1)
e em
Θ
0
´e dado por
ˆ
θ = θ
0
se x
(1)
> θ
0
e
ˆ
θ = x
(1)
se x
(1)
≤ θ
0
. Portanto a estat´ıstica
do TRVG ´e dada por
λ(x) =

1, x
(1)
≤ θ
0
e
−n(x
(1)
−θ0)
, x
(1)
> θ
0
.
Portanto a regi˜ao cr´ıtica do TRVG pode ser escrita como
A
1
=

x, x
(1)
≥ θ
0

log c
n

.
Como mencionado anteriormente, a forma e a distribui¸ c˜ao de λ(X) po-
dem ser complicadas e nem sempre podemos encontrar uma fun¸ c˜ao h com
distribui¸ c˜ao conhecida. O Teorema a seguir fornece a distribui¸ c˜ao assint´otica
da estat´ıstica do TRVG, resolvendo esse problema pelo menos para o caso de
amostras grandes. A prova desse resultado envolve conhecimentos avan¸ cados
de probabilidade e pode ser encontrada em Sen e Singer (1993).
108 6. Testes de Hip´oteses
Teorema 6.5.1. Sejam X
1
, . . . , X
n
uma amostra aleat´ oria da vari´ avel aleat´ oria
X com f.d.p. f(x|θ). Sob as condi¸c˜ oes de regularidade, se θ ∈ Θ
0
, ent˜ ao a
distribui¸ c˜ ao da estat´ıstica −2logλ(X) converge para a distribui¸c˜ ao quiquadrado
quando o tamanho da amostra n tende ao infinito. O n´ umero de graus de
liberdade da distribui¸c˜ ao limite ´e a diferen¸ca entre o n´ umero de parˆ ametros
n˜ ao especificados em Θ e o n´ umero de parˆ ametros n˜ ao especificados em Θ
0
.
Exemplo 6.5.5. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria
X ∼ Poisson(θ). O interesse ´e testar H
0
: θ = 5 versus H
1
: θ = 5. Pelo
Exemplo 3.2.5 temos que o EMV de θ ´e dado por
ˆ
θ = X. Como a hip´otese H
0
s´o especifica um ´ unico valor para θ, o numerador de λ(x) em 6.5.1 ´e L(5, x) de
modo que
λ(x) =
e
−5n
5
¸
xi
¸
x
i
!
¸
x
i
!
e
−nx
x
¸
xi
= e
−n(5−x)
(5/x)
¸
xi
Pelo Teorema 6.5.1 temos que
−2logλ(x) = −2

−n(5 −x) +
¸
x
i
log(5/x)
¸
.
Portanto a regi˜ao cr´ıtica do TRVG ´e dada por
A

1
= {−2[−n(5 −x) +
¸
x
i
log5/x] ≥ c}
onde um valor aproximado para c ´e obtido de modo que P(χ
2
1
≥ c) = 0, 05, que
requer a utiliza¸ c˜ao da tabela da distribui¸ c˜ao quiquadrado.
A seguir apresentamos alguns exemplos onde o interesse ´e a compara¸ c˜ao de
duas popula¸ c˜oes.
Exemplo 6.5.6. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria
X ∼ N(µ
X
, σ
2
) e Y
1
, . . . , Y
m
uma amostra aleat´oria da vari´avel aleat´oria Y ∼
N(µ
Y
, σ
2
). Suponhamos que as amostras s˜ao independentes e que o interesse ´e
testar H
0
: µ
X
= µ
Y
versus H
1
: µ
X
= µ
Y
. Nesse caso
Θ
0
= {(µ
X
, µ
Y
, σ
2
); µ
X
= µ
Y
= µ, −∞< µ < ∞, σ
2
> 0}
e
Θ = {(µ
X
, µ
Y
, σ
2
), −∞< µ
X
< ∞, −∞< µ
Y
< ∞, σ
2
> 0}
Em Θ os EMV s s˜ao dados por
ˆ µ
X
= X , ˆ µ
Y
= Y
e
6.5 Testes da Raz˜ao de Verossimilhan¸cas Generalizada 109
ˆ σ
2
=
¸
(X
i
−X)
2
+
¸
(Y
i
−Y )
2
n +m
,
enquanto que em Θ
0
s˜ao dados por
ˆ µ
0
=
¸
X
i
+
¸
Y
i
n +m
e ˆ σ
2
0
=
¸
(X
i
− ˆ µ
0
)
2
+
¸
(y
i
− ˆ µ
0
)
2
n +m
.
Logo a estat´ıstica do TRVG pode ser escrita como
λ(x, y) =
(2π)
−(n+m)/2
(ˆ σ
2
0
)
−(n+m)/2
e

1
2ˆ σ
2
0
{
¸
(xi−ˆ µ0)
2
+
¸
(yi−ˆ µ
2
0
)}
(2π)
−(n+m)/2
(ˆ σ
2
)
−(n+m)/2
e

1
2ˆ σ
2
{
¸
(xi−x)
2
+
¸
(yi−y)
2
}
=

ˆ σ
2
ˆ σ
2
0

(n+m)/2
.
Usando (6.5.1), temos que o TRVG rejeita H
0
quando

¸
1
1 +
n(x−ˆ µ0)
2
+m(y−ˆ µ0)
2
¸
(xi−x)
2
+
¸
(yi−y)
2
¸

(n+m)/2
≤ c
que ´e equivalente a rejeitar H
0
quando
n(x − ˆ µ
0
)
2
+m(y − ˆ µ
0
)
2
s
2
p
≥ c
1
onde s
2
p
=
¸
(xi−x)
2
+
¸
(yi−y)
2
n+m−2
. Mas
x − ˆ µ
0
=
m
n +m
(x −y)
y − ˆ µ
0
=
n
n +m
(y −x),
portanto a regi˜ao cr´ıtica do TRVG ´e dada por
A

1
=

(x, y);
x −y
s
p

(
1
n
+
1
m
)
≤ c
1
ou
x −y
s
p

(
1
n
+
1
m
)
≥ c
2

Sob a hip´otese H
0
,
X−Y
Sp

1
n
+
1
m
∼ t
n+m−2
. Os valores de c
1
e c
2
s˜ao obtidos
utilizando a tabela da distribui¸ c˜ao t com n +m−2 graus de liberdade.
Exemplo 6.5.7. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria
X ∼ N(µ
X
, σ
2
X
) e Y
1
, . . . , Y
m
uma amostra aleat´oria da vari´avel aleat´oria Y ∼
110 6. Testes de Hip´oteses
N(µ
Y
, σ
2
Y
). Suponhamos que as amostras s˜ao independentes e que o interesse
´e testar H
0
: σ
2
X
= σ
2
Y
versus H
1
: σ
2
X
= σ
2
Y
. Nesse caso
Θ
0
= {(µ
X
, µ
Y
, σ
2
); −∞< µ
X
, µ
Y
< ∞, σ
2
> 0}
e
Θ = {(µ
X
, µ
Y
, σ
2
X
, σ
2
Y
), −∞< µ
X
, µ
Y
< ∞, σ
2
X
> 0, σ
2
Y
> 0}
Em Θ os EMV s dos parˆametros s˜ao dados por
ˆ µ
X
= X , ˆ µ
Y
= Y
e
ˆ σ
2
X
=
¸
(X
i
−X)
2
n
, ˆ σ
2
Y
=
¸
(Y
i
−Y )
2
m
enquanto que em Θ
0
s˜ao dados por
ˆ µ
X
= X, ˆ µ
Y
= Y , ˆ σ
2
=
¸
(X
i
−X)
2
+
¸
(y
i
−Y )
2
n +m
.
Logo a estat´ıstica do TRVG ´e
λ(x, y) =
(2π)
−(n+m)/2
(ˆ σ
2
)
−(n+m)/2
e

1
2ˆ σ
2
{
¸
(xi−x)
2
+
¸
(yi−y
2
}
(2πˆ σ
2
X
)
−n/2
e

1
2ˆ σ
2
X
¸
(xi−x)
2
(2πˆ σ
2
Y
)
−m/2
e

1
2ˆ σ
2
Y
¸
(yi−y)
2
=
(ˆ σ
2
X
)
n/2
(ˆ σ
2
Y
)
m/2
(ˆ σ
2
)
(n+m)/2
,
de modo que rejeitamos H
0
quando
g(F) =
(
m−1
n−1
F)
m/2
(1 +
m−1
n−1
F)
n+m/2
≤ c
onde F =
¸
(yi−y)
2
/(m−1)
¸
(xi−x)
2
/(n−1)
. Mas g(F) ≤ c se e somente se F ≤ c
1
ou F ≥ c
2
,
portanto a regi˜ao cr´ıtica do TRVG ´e dada por
A

1
= {(x, y); F ≤ c
1
ou F ≥ c
2
}
Sob a hip´otese H
0
, F ∼ F
m−1,n−1
e, ent˜ao, dado α = 0, 10, m = 9 e n = 8,
obtemos usando a tabela da distribui¸ c˜ao F com 8 e 7 graus de liberdade que
c
1
= 0, 27 e c
2
= 3, 5.
Exemplo 6.5.8. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria
X ∼ Bernoulli(θ
1
) e Y
1
, . . . , Y
m
uma amostra aleat´oria da vari´avel aleat´oria
6.5 Testes da Raz˜ao de Verossimilhan¸cas Generalizada 111
Y ∼ Bernoulli(θ
2
). Suponhamos que as amostras s˜ao independentes e que o
interesse ´e testar H
0
: θ
1
= θ
2
versus H
1
: θ
1
= θ
2
. Nesse caso
Θ
0
= {(θ
1
, θ
2
); θ
1
= θ
2
= θ, 0 < θ < 1}
e
Θ = {(θ
1
, θ
2
); 0 < θ
1
< 1, 0 < θ
2
< 1}
Em Θ os EMV s s˜ao dados por
ˆ
θ
1
= X e
ˆ
θ
2
= Y ,
enquanto que em Θ
0
´e dado por
ˆ
θ =
¸
x
i
+
¸
y
i
n +m
.
Logo
λ(x, y) =
ˆ
θ
(
¸
xi+
¸
yi)
(1 −
ˆ
θ)
(n+m−
¸
xi−
¸
yi)
ˆ
θ
¸
xi
1
(1 −
ˆ
θ
1
)
n−
¸
xi
ˆ
θ
¸
y2
2
(1 −
ˆ
θ
2
)
m−
¸
yi
Como n˜ao conseguimos explicitar a regi˜ao cr´ıtica atrav´es de uma estat´ıstica
com distribui¸ c˜ao conhecida, ent˜ao pelo Teorema 6.5.1, temos que
−2 log λ(x, y) = −2

¸
x
i
+
¸
y
i

log
ˆ
θ
+

m+n −
¸
x
i

¸
y
i

log(1 −
ˆ
θ)

¸
x
i
log
ˆ
θ
1

n −
¸
x
i

log(1 −
ˆ
θ
1
)

¸
y
i
log
ˆ
θ
2

m−
¸
y
i

log(1 −
ˆ
θ
2
)

tem distribui¸ c˜ao aproximadamente χ
2
1
. Logo, quando −2 log λ(x, y) ≥ c rejeita-
mos H
0
. Suponhamos que n = 400,
¸
x
i
= 60, m = 225,
¸
y
i
= 40. Assim,
ˆ
θ = 100/625 de modo que −2logλ(x, y) = 0, 82. Tomando α = 0, 05, temos que
c = 3, 841, portanto n˜ao rejeitamos H
0
.
Exemplo 6.5.9. Consideramos neste exemplo uma extens˜ao do modelo bino-
mial considerado no exemplo anterior. Suponhamos que os indiv´ıduos em uma
popula¸ c˜ao podem ser de trˆes tipos, que rotulamos por tipos 1, 2 e 3. No caso
de preferˆencia eleitoral, por exemplo, um indiv´ıduo ´e do tipo 1 se ele for eleitor
do partido A; do tipo 2 se for eleitor do partido B e do tipo 3 se for eleitor
de um outro partido, que n˜ao o A e ou o B. Suponhamos que a propor¸ c˜ao de
ind´ıviduos do tipo i seja θ
i
, i = 1, 2, 3, de modo que θ
1

2

3
= 1. Para uma
amostra de n indiv´ıduos observados na popula¸ c˜ao suponhamos que n
i
seja do
112 6. Testes de Hip´oteses
tipo i, i = 1, 2, 3, de modo que n
1
+n
2
+n
3
= n. A fun¸ c˜ao de verossimilhan¸ ca
pode ent˜ao ser escrita como
(6.5.4) L(θ, x) = θ
n1
1
θ
n2
2
(1 −θ
1
−θ
2
)
n−n1−n2
,
onde x = (x
1
, . . . , x
n
), com x
i
representando o r´otulo (1, 2 ou 3) do i-´esimo
indiv´ıduo observado na amostra. Portanto, como no Exemplo 3.5.1, n
1
, n
2
e n
3
representam o n´ umero de elementos de {x
1
, . . . , x
n
} iguais a 1, 2 ou 3, respec-
tivamente. Derivando-se o logaritmo da verossimilhan¸ ca (6.5.4) com rela¸ c˜ao a
θ
1
e a θ
2
, temos os estimadores de m´axima verossimilhan¸ ca
(6.5.5)
ˆ
θ
1
=
n
1
n
e
ˆ
θ
2
=
n
2
n
,
de modo que o estimador de m´axima verossimilhan¸ ca de θ
3
´e dado por
ˆ
θ
3
= n
3
/n (veja o Exerc´ıcio 6.13). A extens˜ao para o caso geral (caso multino-
mial, com k tipos diferentes de indiv´ıduos) pode ser feita de maneira similar.
Suponhamos agora que queremos testar a hip´otese de que os indiv´ıduos na po-
pula¸ c˜ao seguem o equil´ıbrio de Hardy-Weinberg, isto ´e, que H
0
: θ
1
= p(1; θ) =
θ
2
, θ
2
= p(2; θ) = 2θ(1 − θ), θ
3
= p(3; θ) = (1 − θ)
2
, para 0 < θ < 1. Sob o
modelo geral, ou seja, em Θ = {(θ
1
, θ
2
, θ
3
); θ
i
> 0, θ
1
+ θ
2
+ θ
3
= 1} os es-
timadores de m´axima verissimilhan¸ ca de θ = (θ
1
, θ
2
, θ
3
) s˜ao como dados em
(6.5.5). Sob a hip´otese H
0
, ou seja em Θ
0
(escreva!), temos que o estimador de
m´axima verossimilhan¸ ca de θ ´e obtido no Exemplo 3.5.1, ou seja, ´e dado por
ˆ
θ = (2n
1
+ n
2
)/2n. Temos, portanto, que a raz˜ao de verossimilhan¸ cas genera-
lizada ´e dada por
λ(x) =
(
2n1+n2
2n
)
2n1
(2
(2n1+n2)
2n
(1 −
2n1+n2
2n
))
n2
(1 −
2n1+n2
2n
)
2n3
(
n1
n
)
n1
(
n2
n
)
n2
(
n3
n
)
n3
,
de modo que
−2 log λ(x) = −2

(2n
1
+n
2
) log

2n
1
+n
2
2n

−n
1
log n
1
−n
2
log n
2
(6.5.6) +(n
2
+ 2n
3
) log

1 −
2n
1
+n
2
2n

−n
3
log n
3
+nlog n +n
2
log 2

,
que tem, aproximadamente, distribui¸ c˜ao χ
2
1
.
Uma estat´ıstica assintoticamente (em grandes amostras) equivalente (veja
Bickel e Doksun, 1977) `a estat´ıstica da raz˜ao de verossimilhan¸ cas generalizada,
calculada acima, ´e dada pela estat´ıstica quiquadrado de Pearson, que no caso
do modelo do equil´ıbrio de Hardy-Weinberg, ´e dada por
6.5 Testes da Raz˜ao de Verossimilhan¸cas Generalizada 113
(6.5.7) Q =
3
¸
i=1
(n
i
−np(i;
ˆ
θ))
2
np(i;
ˆ
θ)
=
(n
1
−n
ˆ
θ
2
)
2
n
ˆ
θ
2
+
(n
2
−n2
ˆ
θ(1 −
ˆ
θ))
2
n2
ˆ
θ(1 −
ˆ
θ)
+
(n
3
−n(1 −
ˆ
θ)
2
)
2
n(1 −
ˆ
θ)
2
,
que, para n grande, tem a mesma distribui¸ c˜ao que −2 log λ(x), ou seja, χ
2
1
.
Notemos que a estat´ıstica Q dada em (6.5.7) ´e, em geral, interpretada como
a soma do quadrado da diferen¸ ca entre o n´ umero observado (dado por n
i
) e
o n´ umero esperado (sob H
0
) de indiv´ıduos do tipo i na amostra, que ´e dado
por ng
i
(
ˆ
θ), dividido pelo n´ umero esperado (sob H
0
) de indiv´ıduos do tipo i na
amostra, para todos os tipos de indiv´ıduos na popula¸ c˜ao. No caso do equil´ıbrio
de Hardy-Weinberg, temos que p(1; θ) = θ
2
, p(2; θ) = 2θ(1 − θ) e p(3; θ) =
(1 − θ)
2
. A estat´ıstica Q pode tamb´em ser generalizada para situa¸ c˜oes mais
complexas que aquela considerada acima. Entre outras, citamos sua utiliza¸ c˜ao
em testes de independˆencia em tabelas de contigˆencia, discutido em textos
b´asicos de estat´ıstica como, por exemplo, em Bussab e Morettin (1987).
Vamos discutir brevemente as rela¸ c˜oes entre testes de hip´oteses e intervalos
de confian¸ ca. Consideremos o Exemplo 6.5.1 novamente. Nesse exemplo temos
que, para um n´ıvel α fixado, a hip´otese H
0
´e aceita se |x −µ
0
| ≤ z
α/2
/

n, ou
equivalentemente, se
x −
z
α/2

n
≤ µ
0
≤ x +
z
α/2

n
.
Como o teste tem n´ıvel α, a P(H
0
ser aceita|µ = µ
0
) = 1−α, ent˜ao podemos
escrever que
P

X −
z
α/2

n
≤ µ
0
≤ X +
z
α/2

n
|µ = µ
0

= 1 −α.
No entanto essa probabilidade deve valer para todo µ
0
, de modo que
P

X −
z
α/2

n
≤ µ ≤ X +
z
α/2

n

= 1 −α.
Portanto o intervalo

x −
z
α/2

n
; x +
z
α/2

n

obtido a partir da regi˜ao de aceita¸ c˜ao
do teste de n´ıvel α, ´e um intervalo de 100(1−α)% de confian¸ ca para µ e coincide
com o intervalo (5.3.2).
Por outro lado, a partir do intervalo de confian¸ ca, podemos construir um
teste bilateral (H
0
: θ = θ
0
versus H
1
: θ = θ
0
) onde
rejeitamos H
0
se θ
0
∈ I.C.
114 6. Testes de Hip´oteses
aceitamos H
0
se θ
0
∈ I.C.
Esse teste tem n´ıvel α, pois
P(H
0
ser rejeitada|θ = θ
0
) = P
θ0

0
∈ I.C) = α.
Conclu´ımos, ent˜ao, que podemos obter um intervalo de confian¸ ca a partir de
um teste de hip´otese e vice e versa.
6.6 Testes Bayesianos
O problema de testes de hip´oteses tamb´em pode ser formulado do ponto de
vista Bayesiano. Nesse caso, o teste ser´a baseado na distribui¸ c˜ao a posteriori.
Como vimos na se¸ c˜ao anterior existe uma rela¸ c˜ao entre testes de hip´oteses e
intervalos de confian¸ ca, ent˜ao uma maneira de se construir um teste Bayesiano
´e atrav´es da obten¸ c˜ao de um intervalo de confian¸ ca Bayesiano.
Suponhamos que o interesse seja testar H
0
: θ = θ
0
versus H
1
: θ = θ
0
.
Para isso, constru´ımos o intervalo Bayesiano para θ e, se θ
0
estiver contido no
intervalo, ent˜ao aceitamos H
0
e, se θ
0
estiver fora do intervalo, ent˜ao rejeitamos
H
0
.
Exemplo 6.6.1. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria
X ∼ N(µ, 1), e consideremos uma priori N(0, 1). O interesse ´e testar H
0
: µ = 0
versus H
1
: µ = 0. Do Exemplo 4.4.3 temos que a distribui¸ c˜ao a posteriori de
µ ´e N

nx
n+1
,
1
n+1

, ou seja,
µ −
nx
n+1

1
n+1
∼ N(0, 1).
Logo
P

¸
−z
α/2

µ −
nx
n+1

1
n+1
≤ z
α/2
¸

= γ
de modo que o intervalo Bayesiano (intervalo de credibilidade) com probabili-
dade γ ´e dado por
¸
nx
n + 1
−z
α/2

1
n + 1
,
nx
n + 1
+z
α/2

1
n + 1
¸
.
Suponhamos que n = 8,
¸
8
i=1
x
i
= 0, 57 e α = 0, 05. Logo o intervalo de
confian¸ ca Bayesiano ´e [-0,59;0,72]. Como o zero est´a contido no intervalo, n˜ao
rejeitamos a hip´otese H
0
, ao n´ıvel de α = 5%.
6.7 Exerc´ıcios 115
6.7 Exerc´ıcios
6.1. Seja X uma vari´avel aleat´oria com fun¸ c˜ao de densidade f(x|θ) = θ
2
xe
−θx
,
x > 0, θ > 0. Queremos testar H
0
: θ = 1 versus H
1
: θ = 2.
i) Qual ´e a regi˜ao cr´ıtica se n = 5 e α = 0, 05?
ii) Se n = 1, qual ´e o teste que minimiza α +β? E qual o valor de α +β?
6.2. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X ∼
N(µ, 1). Queremos testar H
0
: µ = 0 versus H
1
: µ = 1. Encontre n que
produz o teste mais poderoso com α = β = 0, 05.
6.3. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X com
fun¸ c˜ao de densidade dada por
f(x|θ) = θx
θ−1
, 0 < x < 1 , θ > 0.
i) Mostre que o teste mais poderoso para testar H
0
: θ = 1 versus H
1
: θ = 2,
rejeita H
0
, se e somente se,
¸
n
i=1
−logx
i
≤ a, onde a ´e uma constante.
ii) Sendo n = 2 e α = (1 −log2)/2, qual a regi˜ao cr´ıtica?
6.4. Seja X uma ´ unica observa¸ c˜ao da fun¸ c˜ao de densidade
f(x|θ) = (2θx + 1 −θ)I
(0,1)
(x)
Queremos testar H
0
: θ = 0 versus H
1
: θ = 1.
i) Obtenha o teste mais poderoso com n´ıvel de significˆancia α.
ii) Se α = 0, 05 e x = 0, 8, qual a sua conclus˜ao?
6.5. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X ∼
Poisson(θ).
i) Encontre o teste UMP para testar H
0
: θ = θ
0
versus H
1
: θ > θ
0
.
ii) Seja α = 0, 05, fa¸ ca o gr´afico da fun¸ c˜ao poder para θ
0
= 1 e n = 25 (use o
Teorema do limite central).
6.6. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X ∼
N(µ
X
, 1) e sejam Y
1
, . . . , Y
m
uma amostra aleat´oria da vari´avel aleat´oria
Y ∼ N(µ
Y
, 4) sendo as amostras independentes.
i) Determine o teste mais poderoso para testar
H
0
: µ
X
= µ
Y
= 0 versus H
1
: µ
X
= µ
Y
= 1
ii) Sendo n = 9,
¸
x
i
= 3, 95; m = 4;
¸
y
i
= 2, 03. Qual a sua conclus˜ao ao
n´ıvel de significˆancia de 5%? E qual o poder do teste?
6.7. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X com
f.d.p. dada por
116 6. Testes de Hip´oteses
f(x|θ) =
1
θ
x
(1−θ)/θ
, 0 < x < 1, θ > 0.
Queremos testar H
0
: θ ≤ θ
0
versus H
1
: θ > θ
0
.
i) Encontre o teste UMP de n´ıvel α (se existir).
ii) Se n = 2, θ
0
= 1 e α = 0, 05, encontre a regi˜ao cr´ıtica.
6.8. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X ∼
N(0, σ
2
).
i) Encontre o teste UMP para testar H
0
: σ
2
= σ
2
0
versus H
1
: σ
2
> σ
2
0
.
ii) Seja α = 0, 05, n = 9 e σ
2
0
= 9, fa¸ ca o gr´afico da fun¸ c˜ao poder.
6.9. SejamX
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X ∼ exp(θ).
i) Encontre o teste da raz˜ao de verossimilhan¸ cas generalizada para testar
H
0
: θ = 1 versus H
1
: θ = 1.
ii) Se vocˆe observar n = 5; x
1
= 0, 8; x
2
= 1, 3; x
3
= 1, 8; x
4
= 0, 9 e x
5
= 1, 0,
qual a sua decis˜ao ao n´ıvel de 5%?
6.10. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X ∼
N(µ
X
, 9) e seja Y
1
, . . . , Y
m
uma amostra aleat´oria da vari´avel aleat´oria Y ∼
N(µ
Y
, 25), sendo as amostras independentes.
i) Determine o teste da RVG para testar
H
0
: µ
X
= µ
Y
versus H
1
: µ
X
= µ
Y
ii) Sendo n = 9,
¸
x
i
= 3, 4, m = 16,
¸
y
i
= 4, 3. Qual a sua conclus˜ao a um
n´ıvel de significˆancia de 5%?
6.11. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X ∼
Poisson(θ
1
) e sejam Y
1
, . . . , Y
m
uma amostra aleat´oria da vari´avel aleat´oria
Y ∼ Poisson(θ
2
) sendo as amostras independentes.
i) Encontre o teste da RVG(aproximado) para testar H
0
: θ
1
= θ
2
versus H
1
:
θ
1
= θ
2
.
ii) Sendo n = 5,
¸
x
i
= 3, 8; m = 8;
¸
y
i
= 4, 8, qual a sua conclus˜ao a um
n´ıvel de significˆancia de 5%?
6.12. Sejam X
1
, . . . , X
n
uma amostra aleat´oria da vari´avel aleat´oria X ∼
exp(θ
1
) e sejam Y
1
, . . . , Y
n
uma amostra aleat´oria da vari´avel aleat´oria Y ∼
exp(θ
2
), sendo as amostras independentes.
i) Determine o teste mais poderoso para testar
H
0
: θ
1
= θ
2
= 1 versus H
1
: θ
1
= θ
2
= 2.
ii) Verifique se seu teste ´e UMP para testar
6.7 Exerc´ıcios 117
H
0
: θ
1
= θ
2
= 1 versus H
1
: θ
1
= θ
2
> 1.
iii) Se vocˆe observar n = 5, x = 1, 1; y = 0, 8, qual a sua decis˜ao ao n´ıvel de
5%?
iv) Determine o teste da RVG para testar H
0
: θ
1
= θ
2
versus H
1
: θ
1
= θ
2
.
v) Mostre que o teste acima ´e equivalente a um teste F exato.
6.13. Discuta a obten¸ c˜ao dos estimadores de m´axima verossimilhan¸ ca dados
em (6.5.5). Suponha que em uma popula¸ c˜ao com trˆes tipos de indiv´ıduos, temos
para uma amostra de n = 100 indiv´ıduos, n
1
= 26 do tipo 1, n
2
= 47 do tipo
2 e n
3
= 27 do tipo 3. Verifique ao n´ıvel de 5% se a distribui¸ c˜ao dos tipos de
indiv´ıduos na popula¸ c˜ao segue o equil´ıbrio de Hardy-Weinberg.
6.14. Discuta a implementa¸ c˜ao de um procedimento (teste) para verificar se
um dado ´e equilibrado, ou seja, para testar H
0
: θ
1
= . . . = θ
6
sendo que n
lan¸ camentos do dado apresenta n
i
ocorrˆencia da face i, i = 1, . . . , 6. Sendo
n = 120, n
1
= 23, n
2
= 18, n
3
= 15, n
4
= 21, n
5
= 27 e n
6
= 16, qual sua
decis˜ao ao n´ıvel de 5%?
6.15. Um modelo gen´etico para a distribui¸ c˜ao dos tipos de sangue 1, 2, 3 e 4,
especifica as propor¸ c˜oes θ
1
= p(1; θ) = (2 + θ)/4, θ
2
= p(2; θ) = (1 − θ)/4 =
θ
3
= p(3; θ) e θ
4
= p(4; θ) = θ/4. Uma amostra de n = 100 indiv´ıduos da
popula¸ c˜ao apresenta n
1
= 65, n
2
= 6, n
3
= 8 e n
4
= 21. Verifique se os dados
obtidos suportam o modelo gen´etico acima para a distribui¸ c˜ao dos tipos de
sangue na popula¸ c˜ao de onde foi selecionada a amostra.
6.16. Desenvolva o teste da raz˜ao de verossimilhan¸ cas generalizada para testar
H
0
: β = β
0
versus H
1
: β = β
0
no modelo de regress˜ao descrito no Exerc´ıcio
2.12.
6.17. O teste t pareado. Sejam (X
1
, Y
1
), . . . , (X
n
, Y
n
) uma amostra aleat´oria
da vari´avel aleat´oria bidimensional (X, Y ) com distribui¸ c˜ao normal bivariada
como dada no Exemplo 2.4.4. Mostre que para testar H
0
: µ
x
= µ
y
versus
H
1
: µ
x
= µ
y
, o teste da raz˜ao de verossimilhan¸ cas generalizado apresenta
regi˜ao cr´ıtica dada por
A

= {d;

n|d|
S
d
> c},
onde d =
¸
n
i=1
d
i
/n e S
2
d
=
¸
n
i=1
(d
i
−d)
2
/(n −1).
Referˆencias
1. BICKEL, P.J. e DOKSUM, K.A. (1977). Mathematical Statistical. Basic Ideas
and Selected Topics. Holden-Day.
2. BUSSAB, W.O. e MORETTIN, P.A. (1987). Estat´ıstica B´asica. S˜ao Paulo: Atual.
3. DEGROOT, M.H. (1989). Probability and Statistics. New York: Addison-Wesley.
4. FELLER, W. (1976). Probabilidades. S˜ao Paulo: Edgard Bl¨ ucher.
5. JAMES, B.R. (1981). Probabilidade: Um Curso em N´ıvel Intermedi´ario. Rio de
Janeiro: Livro T´ecnico.
6. LEHMANN, E.L. (1986). Testing Statistical Hypotheses. Wiley: New York.
7. SEN, P.K. e SINGER, J.M. (1993). Large Sample Methods in Statistics. An In-
troduction with Applications. Chapman and Hall.
120 Referˆencias

V

VI

´ CONTEUDO ´ PREFACIO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iv ´ CAP´ ITULO 1. ELEMENTOS BASICOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.1. Alguns Modelos Especiais. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1 1.1.1. O modelo normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1 1.1.2. O modelo exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.1.3. O modelo binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.1.4. O modelo de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.1.5. O modelo uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2. Tipos de Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.3. Amostras, Estat´ ısticas e Estimadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .5 1.4. Exerc´ ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 ITULO 2. ESTIMADORES EFICIENTES E ESTAT´ ISTICAS CAP´ SUFICIENTES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.1. 2.2. 2.3. 2.4. 2.5. 2.6. Estimadores Eficientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 Estat´ ısticas Suficientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 Estat´ ısticas Conjuntamente Suficientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 Fam´ ılias Exponenciais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 Estimadores Baseados em Estat´ ısticas Suficientes . . . . . . . . . . . . . . . . . 39 Exerc´ ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

´ CAP´ ITULO 3. METODOS DE ESTIMACAO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 ¸˜ 3.1. O M´todo de M´xima Verossimilhan¸a . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 e a c 3.2. Propriedades dos Estimadores de M´xima Verossimilhan¸a . . . . . . . . 55 a c 3.2.1. Invariˆncia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 a 3.2.2. Distribui¸˜o em grandes amostras . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 ca 3.3. Verossimilhan¸a para Amostras Independentes . . . . . . . . . . . . . . . . . . . . 59 c 3.4. O Caso Multiparam´trico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 e 3.5. Fam´ Exponencial e o M´todo de M´xima Verossimilhan¸a . . . . . .64 ılia e a c 3.6. O M´todo dos Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 e 3.7. Estimadores Consistentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 3.8. Exerc´ ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 ˜ CAP´ ITULO 4. INTRODUCAO A TEORIA DAS DECISOES. ¸˜ ` ´ . . . . . . . . . . . . . . . . . . . 74 OS PRINCIPIOS MINIMAX E DE BAYES 4.1. 4.2. 4.3. 4.4. Os Elementos B´sicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 a O Princ´ ıpio Minimax . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 O Princ´ ıpio de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 Estimadores de Bayes com Perda Quadr´tica . . . . . . . . . . . . . . . . . . . . . 54 a

. . . . . . . o Testes Mais Poderosos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Intervalos de Confian¸a Bayesianos . . . . . . . . 96 ¸˜ 5. . . . . .6. . . . . . . . . . . . . . . . . . . . Formula¸˜o Estat´ ca ıstica .6. .4. . . . . 107 5. . . . . . . . . . . . . . . . . . . . . . . . . . Intervalos para Popula¸˜es Normais . . . . . . Exerc´ ıcios . . . . . . . . . . . . . . .1. . . . . . . . . . Testes Bayesianos . . . . . . Id´ias B´sicas . . . . . . . .4. . . . . . . Testes da Raz˜o de Verossimilhan¸as Generalizada . . . . . 111 c 5. . . . . . . . . Hip´tese Nula Simples contra Alternativa Simples. . . . . . . . . . . . . . . Exerc´ ıcios . . . . . .4. . . . . . . . . . . . . . . . . . . . . . . .5. . . . . . . . . . . . . . . . . . . . 109 c 5. . . 130 o 6. . . . . . 118 e a 6. . . . . . . . . . . . . . . . . . . . . . . . 114 ´ CAP´ ITULO 6. . . . . . . . . . Duas amostras independentes . . . . . . . . . . . . . . . . . . . . . . . .1. . . . . . . . 118 6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .134 a c 6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150 ˆ REFERENCIAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3. . . . . . . . . . . . . . . . . . .2. . . . . . . . . . .VII 4. . . . TESTES DE HIPOTESES . . . . . . . . . . . . . . . . 130 6. . . . . . . . . . . . . . . Amostras de Popula¸˜es Normais . O caso de uma unica amostra . . . . . . . 123 6. . O M´todo da Quantidade Pivotal . . . . .7. . . . . . . . . . . . . . . 96 co 5. . . Hip´teses compostas . . . . 99 e 5. . . .3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hip´tese nula simples contra alternativa composta . . . . . . . . . . . . . .1. . . . . . . . . . . 61 CAP´ ITULO 5. Intervalos de Confian¸a Aproximados . . . .3. . . . . . . . .1. . . . . . . . . . . . . . . . . . . . . . . 149 6. .5. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2. . . . . . . . . . . . . . . . Exerc´ ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2. . . . . . . 155 ´ INDICE REMISSIVO . . . . . . . . . . . . . . . . . . . . . . . . 156 . . . . . . . . . . . . . . . . . . . . . . . . . . . . ESTIMACAO POR INTERVALO . . . . . . . . . . . . . . . . . .4. . . . . . . . . . . . . . . .3. . . . . . . . . . . . . . . . . . . . . . . . . . .5. . . . . . . . . Testes Uniformemente Mais Poderosos . . . . 133 o 6. . . . . . . . . . . . 106 ´ 5. . . . .2. . . . . . . 105 co 5. . . . . . . 119 6. . . . . . .

Um m´todo importante de e . dentre e e ca as quais destacamos os m´todos de m´xima verossimilhan¸a e dos momene a c tos. O Cap´ ıtulo 2 apresenta ` obten¸ao de estimadores eficientes. O Cap´ ıtulo 1 ´ dedicado ` descri¸˜o de alguns modelos comumente utie a ca lizados em situa¸˜es pr´ticas. O Cap´ ıtulo 3 ´ dedicado a t´cnicas de obten¸˜o de estimadores. E dividido em seis cap´ ıtulos. Lecionando h´ v´rios anos a a a referida disciplina em cursos de bacharelado e de p´s gradua¸˜o no Departao ca mento de Estat´ ıstica do Instituto de Matem´tica e Estat´ a ıstica da Universidade de S˜o Paulo. E foi pensando em preencher essa lacuna que e ıvel a resolvemos elaborar este trabalho. Uma fam´ importante em que tais estimadores s˜o obtia ılia a dos ´ a bem conhecida fam´ exponencial de distribui¸oes. a a O texto est´ elaborado para um curso de um semestre com seis horas semaa ´ nais. ene a o fatizando a importˆncia da fun¸˜o de risco como um meio de obten¸˜o de a ca ca bons estimadores. S˜o apresentados m´todos de compara¸˜o entre co a a e ca estimadores. A utiliza¸˜o de estat´ ca ısticas suficientes. Usando esses resultados em alguns a a modelos importantes. mas sempre nos a a a ressentimos da ausˆncia de textos adequados em portuguˆs e at´ mesmo em e e e inglˆs para o n´ em quest˜o. ´ poss´ e ıvel a obten¸˜o de estimadores ´timos. ca o de menor variˆncia. experimentamos v´rias alternativas did´ticas.VIII ´ PREFACIO O objetivo principal deste texto ´ propiciar aos estudantes um material e b´sico para um curso introdut´rio de Inferˆncia Estat´ a o e ıstica usualmente ministrado em programas de bacharelado em Estat´ ıstica. A utiliza¸˜o da fun¸˜o de risco permite a deriva¸˜o de esca ca ca timadores do tipo minimax e tamb´m de estimadores de Bayes. duas das quais devem ser reservadas para exerc´ ıcios. Mostra-se tamb´m que estimadores que n˜o s˜o fun¸˜es e a a co de estat´ ısticas suficientes podem ser melhorados por meio do conhecido Teorema de Rao-Blackwell. destinado aos estudantes com conhecimentos b´sicos de probabilidade e c´lculo. a A constru¸˜o de intervalos de confian¸a com coeficientes de confian¸a exaca c c tos e aproximados ´ considerada no Cap´ e ıtulo 5. Essas propriedades permitem a realiza¸˜o a e ca de inferˆncias em modelos mais complexos que s˜o comumente utilizados em e a situa¸˜es pr´ticas. com ˆnfase especial ao m´todo do Erro Quadr´tico M´dio m´ e e a e ınimo. incorporando e uma distribui¸˜o a priori para descrever conhecimentos subjetivos a cerca dos ca parˆmetros de interesse. ´ tamb´m consica e e derada nesse cap´ ıtulo. Propriedades dos estimadores de m´xima verossimilhan¸a em grandes a c amostras s˜o tamb´m consideradas. apresentada no e ılia c˜ texto com algum detalhe. utilizando a a c˜ desigualdade da informa¸˜o. a partir da qual se obt´m o limite inferior da ca e variˆncia dos estimadores n˜o viciados. no sentido de apresentarem um resumo dos dados sem perda de informa¸˜o. ou seja. tendo no final de cada um uma s´rie de exerc´ e ıcios. co a No Cap´ ıtulo 4 consideramos as id´ias b´sicas da teoria das decis˜es.

setembro de 2000 a Heleno Bolfarine e Mˆnica C. Agradecemos tamb´m ` aluna Jacqueline a o e a Sant’Eufemia David pela elabora¸˜o das figuras. M´rcia a ca a D’Elia Branco e Silvia Lopes de Paula Ferrari que leram as vers˜es preliminares o e contribu´ ıram com v´rias sugest˜es. pois a ˆnfase maior ´ dada e e a problemas te´ricos. No caso de haver necessidade de utiliza¸˜o de tabelas. apesar de n˜o possuir propriedades ´timas. Sandoval o . ca N˜o inclu´ a ımos no texto tabelas estat´ ısticas. Testes ´timos e a ca o o para o caso de hip´tese nula simples contra alternativa simples s˜o derivados o a a partir do Lema de Neyman-Pearson.IX constru¸˜o de intervalos ´ o uso de quantidades pivotais. ca S˜o Paulo. Tal enfoque propicia a ca e constru¸˜o de intervalos exatos para v´rios modelos importantes e aproximados ca a em situa¸˜es mais complexas. Problemas mais complexos que podem a e envolver hip´teses bilaterais s˜o tratados utilizando a estat´ o a ıstica da raz˜o de a verossimilhan¸as generalizada que. o ca sugerimos aos estudantes utilizar as tabelas em Bussab e Morettin (1987). Intervalos Bayesianos baseados na distribui¸˜o a co ca posteriori s˜o tamb´m considerados. c a o leva em geral a bons procedimentos que n˜o apresentam muita dificuldade de a implementa¸˜o. a e O Cap´ ıtulo 6 ´ dedicado ` constru¸˜o de testes de hip´teses. Algumas generaliza¸˜es para hip´teses co o compostas s˜o tamb´m consideradas. Agradecemos `s colegas Elisete da Concei¸˜o Quintaneiro Aubin.

E importante que. a complexidade que envolve o mundo real da popula¸˜o em estudo. Elementos B´sicos a 1. µ e σ 2 s˜o denominados parˆmetros a a da distribui¸˜o e o suporte de X.2 O modelo exponencial Dizemos que X tem distribui¸˜o exponencial com parˆmetro θ.1. quociente a de inteligˆncia.1. tais como: peso. que denotamos ca a por X ∼ Exp(θ). etc.1 Alguns Modelos Especiais Nesta se¸˜o consideramos alguns modelos probabil´ ca ısticos que s˜o comumente a utilizados na an´lise de dados em problemas pr´ticos. temos 1. isto ´. Nesse caso.1. O modelo probabil´ a a ıstico (ou estat´ ıstico) ´ de suma importˆncia para inferir resultados da amostra e a ´ ca para a popula¸˜o toda. A(x) = {x. ´ a reta toda. na medida do poss´ ıvel. ca Entre os modelos mais utilizados. altura.1 O modelo normal Dizemos que X tem distribui¸˜o normal com m´dia µ e variˆncia σ 2 . quando a fun¸˜o de densidade de probabilidade de X ´ dada ca e por . se a fun¸˜o de densidade de probabilidade de X ca ´ dada por e (x−µ)2 1 f (x|µ. que ca e a denotamos por X ∼ N (µ. Situa¸˜es pr´ticas em que o modelo normal ´ comumente utilizado incluem co a e caracter´ ısticas populacionais. e 1. press˜o arterial. σ 2 ) = √ e− 2σ2 . 2πσ em que −∞ < µ < ∞ e σ 2 > 0. ca e e Notemos tamb´m que e E[X] = µ e V ar[X] = σ 2 . σ 2 ). na sele¸˜o do modelo a ser utilizado. ca o estat´ ıstico tenha em mente que o modelo deve representar. −∞ < x < ∞. f (x) > 0}.

θ2 O modelo exponencial ´ comumente empregado para descrever tempo de vida e de equipamentos.2 1. θ). . podemos escreca a ver X = Y1 + . ca 1. n˜o importando o quanto ele j´ tenha sido utilizado. . e a a 1. . ou seja. que denotamos por X ∼ Binomial (n. A(x) = {x. n}. a e Dizemos que a vari´vel aleat´ria X tem distribui¸˜o de Poisson com parˆmetro a o ca a . x > 0}. x > 0. o equipaca a mento ´ como se fosse novo. em qualquer instante. Nesse caso. Nesse caso. x em que 0 < θ < 1. se o tempo de vida de um equipao mento segue a distribui¸˜o exponencial. propor¸˜o de pe¸as defeituosas produzidas em uma ca c linha de produ¸˜o e assim por diante. Tais situa¸˜es envolvem. se sua fun¸˜o de probabilidade ca ´ dada por e n x f (x|θ) = θ (1 − θ)n−x . se X tem distribui¸˜o Binomial(n. sim e n˜o. Lembremos que. com parˆmetros a o ca a n e θ.1. em que θ > 0. . pesquisas co eleitorais. O modelo binomial (ou de Bernoulli) ´ comumente empregado e em situa¸˜es em que associamos a cada observa¸˜o da amostra dois tipos de co ca resposta (como. sendo Y1 . . . . n. + Yn . Yn n vari´veis aleat´rias independentes e a o de Bernoulli. . ou sucesso e fracasso) aos quais asa sociamos os valores 0 e 1. . . ent˜o. Elementos B´sicos a f (x|θ) = θe−θx . i = 1. a fun¸˜o de probabilidade de Yi ´ dada por ca e f (yi |θ) = θyi (1 − θ)1−yi . . ou seja. 1. x = 0. por exemplo. . . . Temos tamb´m que E[X] = nθ e V ar[X] = nθ(1 − θ). . 1. . o suporte de X ´ discreto e ´ dado por A(x) = e e e {x. 1.4 O modelo de Poisson Um outro modelo comumente empregado na pr´tica ´ o modelo de Poisson.3 O modelo binomial Dizemos que a vari´vel aleat´ria X tem distribui¸˜o binomial. ent˜o. n. por exemplo. Lembremos que o modelo exponencial tem a bem conhecida propriedade da falta de mem´ria. . x = 0. em que os indiv´ ıduos na popula¸˜o s˜o ou n˜o favor´veis a determica a a a nado partido ou candidato. yi = 0.1. θ). . Notemos tamb´m que e E[X] = 1 θ e V ar[X] = 1 .

. x! em que θ > 0. isso n˜o acontece. o suporte da distribui¸˜o a ca de X ´ independente de θ. o moe delo uniforme discreto e o modelo gama.. Dizemos e o ca que X tem distribui¸˜o uniforme no intervalo (0.θ) (x). Nesse caso.}. e E[X] = V ar[X] = θ. se X ∼ U (0. 0 < x < θ. 0 < x < θ. 1 θ. Notemos que. 12 No decorrer do texto. ou seja. que ´ a fam´ exponencial.θ) (x) ´ a fun¸˜o indicadora do intervalo (0. e e a E[X] = θ 2 e V ar[X] = θ2 . A(x) = {x. binomial e de Poisson s˜o membros de a uma fam´ bastante geral de modelos. a 1 I(0. se a fun¸˜o de densidade de X ´ dada por ca e f (x|θ) = = θ > 0. . θ). caso contr´rio. a 0. ent˜o. e Temos tamb´m que. 1. em que I(0.5 O modelo uniforme O modelo uniforme ´ bastante importante do ponto de vista te´rico. Veremos tamb´m a e que os modelos normal. o suporte da vari´vel X (ou de f (x|θ)) a depende do parˆmetro θ. 0.1.θ) (x) = 1. por exemplo. que denotamos por X ∼ P oisson(θ). nesse e ca caso.1. 1. 1. No caso dos modelos normal. . . ou seja. 0 < x < θ}. I(0. nesses casos. sempre em um intervalo u de tempo fixado. como por exemplo. o suporte de X ´ o conjunto A(x) = {x. x = 0. θ). θ). o n´ mero de part´ o u ıculas α emitidas por uma fonte radioativa ou o n´ mero de pessoas que chegam a determinada fila. que denotamos por X ∼ U (0. . binomial a e de Poisson. exponencial.1 Alguns Modelos Especiais 3 θ. O modelo de Poisson ´ bastante utilizado para descrever situa¸˜es que ene co volvem. θ ou seja. caso contr´rio. ser˜o apresentados. x = 0. ılia e ılia . θ). o n´ mero de chamadas que chegam a uma central u telefˆnica. quando a fun¸˜o de probabilidade ´ ca e dada por e−θ θx f (x|θ) = . Temos tamb´m que. exponencial. outros modelos param´tricos..

De maneira mais formal.2. Vamos assumir que a distribui¸˜o da vari´vel aleat´ria X pertence a certa ca a o fam´ de distribui¸˜es em que um particular elemento ´ especificado. a e No caso de um problema de estima¸˜o.) e que denotamos por f (x|θ).d.p. quando o interesse ´ verificar se a propor¸˜o θ e ca de eleitores de determinado candidato ´ maior que 1/2 (ou 50%). Chamamos de inferˆncia estat´stica o e a e ı problema que consiste em especificar um ou mais valores para θ. vamos nos ater exclusivamente a problemas de estima¸˜o e ca de testes de hip´teses. o c˜ . o Defini¸˜o 1. c˜ Qualquer parte (ou subconjunto) de uma popula¸˜o ´ denominada uma ca e amostra. ı c˜ no caso discreto.2 Tipos de Problemas No presente texto. o objetivo ´ vero e a ificar a validade de afirma¸˜es sobre um valor (ou valores) do(s) parˆmetro(s) co desconhecido(s). o objetivo ´ procurar.) com fun¸ao de densidade (f. segundo alca e gum crit´rio especificado. . Quando estamos a interessados em verificar se o peso m´dio.p.) ou. . ca a e Defini¸˜o 1. . Seja X uma vari´vel aleat´ria com fun¸ao de densidade (ou ca a o c˜ de probabilidade) que abreviamos por f. temos e a o Defini¸˜o 1. quando ılia co e o valor do parˆmetro θ ´ especificado.p. as hip´teses e o a serem testadas s˜o H0 : θ ≤ 1/2 versus H1 : θ > 1/2.1. Uma sequˆncia X1 . Crit´rios a e para a compara¸˜o de estimadores s˜o tamb´m considerados. Por exemplo. fun¸ao de probabilidade (f. as a e a hip´teses a serem testadas podem ser representadas por H0 : µ = 1 versus o H1 : µ = 1. µ. O conjunto de valores de uma caracter´stica (observ´vel) ca ı a associada a uma cole¸ao de indiv´duos ou objetos de interesse ´ dito ser uma c˜ ı e popula¸ao. Estat´ ısticas e Estimadores Nesta se¸˜o os conceitos de estat´ ca ıstica e estimador s˜o introduzidos.3 Amostras. No caso de problemas de testes de hip´teses.4 1.) f (x|θ) ´ dita ser uma amostra c˜ e aleat´ria de tamanho n da distribui¸ao de X. (f. em que θ ´ um parˆmetro desconhecido. Nesse caso.d. temos. ent˜o. Elementos B´sicos a 1.i.d. . 1.1.3. valores que representem adequadamente os parˆmetros e a desconhecidos.2. Xn de n vari´veis aleat´rias indepenca dentes e identicamente distribu´das (i. baseado em um conjunto de valores observados de X.3.p. de pacotes de um quilograma e empacotados por determinada m´quina realmente ´ um quilograma.

e Exemplo 1. . (ii) e (iii) acima. o m´ ınimo. . Xn ). Estat´ ısticas e Estimadores n 5 (1. Xn ca para obter informa¸˜o sobre o parˆmetro θ. . .1) ´ denominada fun¸˜o de verossimie ca lhan¸a de θ. (ii) Se µ = 0. Exemplos de estat´ ısticas s˜o a (i) X(1) = min(X1 . xn )′ e ser´ c a a denotada por n L(θ.3.2. Xn ). . com f. . . . xn |θ) = i=1 f (xi |θ) = f (x1 |θ) . Sejam X1 . . Xn uma amostra aleat´ria da vari´vel aleat´ria o a o X. Conclu´ ımos. . Sejam X1 . a m´dia e a variˆncia amostrais. Defini¸˜o 1. que usamos a amostra X1 . . e a Defini¸˜o 1.3. (iv) X = (v) σ = ˆ 2 1 n 1 n n i=1 Xi . .1) f (x1 . consideramos v´rias estat´ a ısticas que ser˜o utilizadas com freq¨ˆncia nos cap´ a ue ıtulos seguintes. . (i) Se σ 2 = 1. (ii) X(n) = max(X1 . Xn uma amostra aleat´ria da vari´vel aleat´ria o a o X ∼ N (µ.3 Amostras. min(.3. Qualquer fun¸ao da amostra que n˜o depende de parˆmetros ca c˜ a a desconhecidos ´ denominada uma estat´stica.3. . ou f.3. . correspondente ` amostra observada x = (x1 . ˜ (iii) X = med(X1 . respectivamente. .p. Exemplo 1. max(. . . O conjunto Θ em que θ toma valores ´ denominado espa¸o ca e c param´trico. e ı No exemplo que apresentamos a seguir.1. ent˜o θ = µ ´ o parˆmetro desconhecido e a e a Θ = {µ.3. − X)2 .p. . −∞ < µ < ∞}. . Por outro lado. .4. . .1. . n i=1 (Xi Em (i).) e med(. Xn ). .d. ent˜o θ = σ 2 ´ o parˆmetro desconhecido e a e a Θ = {σ 2 . f (xn |θ). . X e σ 2 a ˆ denotam. .3. respectivamente. . σ 2 ). . a partir da Defini¸˜o 1. .3. . .) denotam. f (x|θ). .2. σ 2 > 0}.). x) = i=1 f (xi |θ). . A fun¸˜o de densidade (ou de ca a ca probabilidade) conjunta dada em (1. . o m´ximo e a mediana amostral observada.

Se limn→∞ B(θ) = 0 para ˆ ´ assintoticamente n˜o viciado para todo θ ∈ Θ.6. O erro quadr´tico m´dio (EQM) de um estimador θ do ca a e parˆmetro θ ´ dado por a e ˆ ˆ EQM [θ] = E[(θ − θ)2 ]. Elementos B´sicos a (iii) Se µ e σ 2 s˜o desconhecidos ent˜o θ = (µ. a ca Exemplo 1. o erro quadr´tico m´dio de θ se reduz ` sua variˆncia.3.5.3.2) em que ˆ ˆ ˆ EQM [θ] = V ar[θ] + B 2 (θ). ˆ ˆ B(θ) = E[θ] − θ ˆ ˆ e a ´ denominado o v´ e ıcio do estimador θ. ı e Um dos grandes problemas da estat´ ıstica ´ o de encontrar um estimador e razo´vel para o parˆmetro desconhecido θ ou para uma fun¸˜o g(θ). Pode-se mostrar (ver Exerc´ 1. Dizemos que um estimador θ ´ n˜o viciado para θ se ˆ E[θ] = θ. ou seja B(θ) = 0. Qualquer estat´stica que assuma valores em Θ ´ um estica ı e mador para θ. Xn uma amostra aleat´ria da vari´vel aleat´ria o a o a X com E[X] = µ e V ar[X] = σ 2 . −∞ < µ < ∞ e σ 2 > 0}. que no caso (iii) do exemplo anterior.3. . por co e ca exemplo. temos que a ˆ ˆ EQM [θ] = V ar[θ]. ent˜o. Um dos a a ca procedimentos comumente utilizados para se avaliar o desempenho de um estimador ´ o seu erro quadr´tico m´dio que ´ considerado a seguir. .7. Temos. Em muitas situa¸˜es. σ 2 ).1) que ıcio (1. Qualquer estat´stica que assuma valores somente no conjunto ca ı dos poss´veis valores de g(θ) ´ um estimador para g(θ). ˆ ˆ para todo θ ∈ Θ. Nesse caso. g(θ) = µ. ˆ ou seja. que . No caso em que θ ´ um estimador n˜o viciado para θ. Sejam X1 . a ca Defini¸˜o 1. Defini¸˜o 1. o objetivo ´ estimar somente e µ.7. σ 2 ) e a a Θ = {(µ. dizemos que o estimador θ e a ˆe θ. sendo σ 2 um parˆmetro de pertuba¸˜o.6 1.3. o interesse ´ estimar uma fun¸˜o g(θ). Um outro conceito a e a a importante em grandes amostras (n → ∞) ´ a propriedade de consistˆncia que e e ser´ considerada na Se¸˜o 3. para todo θ ∈ Θ.3. .3. . e a e e ˆ Defini¸˜o 1. Suponha.

5) os estimadores s˜o n˜o viciados.3 Amostras. Sejam X1 . 2 4 4 . com ≤ substitu´ por < pelo menos para um valor de θ.5) ˆ ˆ EQM [θ∗ ] ≤ EQM [θ]. n Portanto X ´ um estimador n˜o viciado para µ. Consideremos os estimadores X1 + X2 + X3 ˆ θ1 = X = 3 e 1 1 1 ˆ θ2 = X 1 + X 2 + X 3 .3. ıcio ca O erro quadr´tico m´dio ´ comumente empregado na compara¸˜o de estia e e ˆ e ˆ madores.3.1. para todo θ. o a a ent˜o θ∗ ´ dito ser o estimador n˜o viciado de variˆncia uniformemente m´ a ˆ e a a ınima. Nesse ıdo ˆ e ˆ caso. mas ´ assintoticamente n˜o viciado. ent˜o.3) Portanto σ 2 ´ viciado para σ 2 . que θ1 ´ melhor que θ2 se a (1. se ˆ ˆ V ar[θ∗ ] ≤ V ar[θ]. Com rela¸˜o ` variˆncia e a ca a a amostral. Estat´ ısticas e Estimadores 7 E[X] = E e 1 n n Xi = i=1 n 1 n n E[Xi ] = µ i=1 V ar[X] = 1 n2 V ar[Xi ] = i=1 σ2 . se em (1. o estimador θ2 ´ dito ser inadmiss´ ıvel.3. com ≤ substitu´ por < para pelo menos um θ. ent˜o θ∗ ´ dito ıdo a ˆ e ser ´timo para θ. ` ˆ e e a a medida que o tamanho da amostra aumenta. ıdo Exemplo 1. para todo θ. temos E[ˆ 2 ] = σ 1 1 E (Xi − X)2 = n i=1 n 1 n n i=1 n n i=1 E[(Xi − X)2 ] = E{[(Xi − µ) − (X − µ)]2 } = (n − 1) 2 σ . n (1.3. Dizemos. o v´ diminui.4) ˆ ˆ EQM [θ1 ] ≤ EQM [θ2 ]. Se existir um estimador θ∗ tal ˆ de θ com θ = θ∗ ˆ ˆ que para todo estimador θ (1. ou seja.3.4. X2 . X3 uma amostra aleat´ria da vari´vel aleat´ria o a o X com E[X] = θ e V ar[X] = 1. para todo θ com ≤ substitu´ por < para pelo menos um θ. Notemos que.

3. .3) que e ıcio (1.4) que X ´ melhor que θ2 . Para atingir tal e a ca n e objetivo. Como a n n n E[XL ] = E i=1 li Xi = i=1 li E[Xi ] = θ i=1 li .8 1.3. temos que n i=1 n (li − l)2 = i=1 2 li − nl = 2 n i=1 2 li − 1/n.7). .3. . Temos tamb´m que co n n 2 li V ar[Xi ] = σ 2 i=1 i=1 2 li . Notemos que θ1 e θ2 considerados no Exemplo 1. 3 Temos tamb´m (ver Exerc´ 1.3. X3 .3.3. n s˜o constantes conhecidas. em que li ≥ 0. . . que ´ n˜o viciado e apresenta a menor variˆncia. e a a ´ obtido minimizando-se (1. (1.8) V ar[XL ] = Portanto o estimador XL .7) ´ ent˜o uma combina¸˜o linear conca e a ca ˆ ˆ vexa de X1 .4 s˜o a e combina¸˜es lineares convexas de X1 .3. Elementos B´sicos a Como no Exemplo 1. em que σ 2 ´ conhecido.3. pois V ar[X] < V ar[θ Exemplo 1. .5. . . temos que XL ´ um estimador n˜o viciado para θ se e somente se e a n (1.7) i=1 li = 1.8) sujeito ` condi¸˜o (1. Sejam X1 . ˆ E[θ1 ] = θ e ˆ V ar[θ1 ] = 1 . a e ˆ2 ]. i = 1. Xn uma amostra aleat´ria da vari´vel aleat´ria o a o X com E[X] = θ e V ar[X] = σ 2 . sendo l = i=1 li /n = 1/n a m´dia dos li ’s. . .3. 16 ˆ ˆ a ˆ Como θ1 e θ2 s˜o ambos n˜o viciados. de modo que . Xn . O estimador XL com a condi¸˜o (1.3. para todo θ. Consideramos agora e os estimadores lineares n XL = i=1 li Xi . X2 .6) ˆ E[θ2 ] = θ e ˆ V ar[θ2 ] = 6 . . . segue de (1.3.

sob a condi¸˜o (1. a express˜o (1.9) segue tamb´m que V ar[X] = σ 2 /n. como Exemplo 1. Uma outra e e forma de minimizar a variˆncia (1. Derivando sucessivamente com rela¸˜o a l1 . . ou seja o estimador XL com menor variˆncia ´ a m´dia amostral X. o que apresenta a menor variˆncia ´ a a a e m´dia amostral X. Sendo conclu´ acima. . Nesse caso. 2σ 2 ln − λ = 0. n. .9) ser´ m´ a a ınima quando li = 1/n. Assim. .6. n. i = 1.3.3. Sejam X1 . (n − 1) 2n2 .3 Amostras. = 1. . Conforme visto no Exemplo 1. . ıdo n i=1 li . Xn uma amostra aleat´ria da vari´vel aleat´ria o a o X ∼ N (µ.3.. temos (ver Exerc´ 1. . de modo que 2li σ 2 = 2ln σ 2 . temos as equa¸˜es ca co 2σ 2 l1 − λ = 0. De (1.3.9) = σ2 i=1 li − 1 n 2 + 1 n . segue que li = 1/n.3. Por outro lado. .1. .3.4) e a ıcio que (1. . . dentre todos os a e e estimadores lineares n˜o viciados XL . . logo li = ln .10) e que (1. . n−1 2σ 4 (3n − 1) 1− .3. Estat´ ısticas e Estimadores n 9 V ar[XL ] = σ n 2 i=1 2 li (1. Portanto.3. . ln . i = 1.3. . σ 2 ).3.8).3) segue que S2 = n 1 σ2 = ˆ n−1 n−1 n i=1 (Xi − X)2 ´ um estimador n˜o viciado para σ 2 .3. temos o ”Lagrangeano” n n 2 li − λ i=1 L(λ) = σ 2 i=1 li − 1 .11) EQM [ˆ 2 ] = σ EQM [S 2 ] = V ar[S 2 ] = 2σ 4 . ´ feita utilizandoa ca e se de multiplicadores de Lagrange. . ..7). De (1. σ 2 ´ um estimador viciado ˆ e para σ 2 .

1. temos que EQM [θ1 ] < EQM [θ2 ]. . Y = X1 + . . + Xn tem distribui¸˜o Binomial(n. O EQM dos dois estimadores ´ representado graficamente na Figura 1.5. na verdade. Para o c´lculo de c1 e c2 .10 1. Temos. ver Exerc´ 1. 4(n + n)2 1 −θ 2 ˆ e Um fato importante a ser notado ´ que o EQM do estimador θ2 ´ independente e de θ. Para c1 < θ < c2 . . a e e ˆ ˆ ˆ e para todo θ. . θ2 ´ melhor que ˆ ˆ ˆ θ1 . = = n+ n n+ n n+ n n+ n θ(1 − θ) . . Conforme visto no modelo binomial. Consideremos os estimadores ca √ Y Y + n/2 ˆ ˆ √ . Sejam X1 . ou seja a o ca a Binomial(1. para θ < c1 ou θ > c2 . Portanto ıcio e ca ˆ EQM [θ2 ] = E 1 √ √ Y + n/2 √ −θ n+ n √ n 2 = (n + = E n)2 (Y − nθ) + 1 −θ 2 2 2 1 √ (n + n)2 = V ar[Y ] + n n √ . θ). isto ´. Por outro lado. Xn uma amostra aleat´ria de tamanho n da o vari´vel aleat´ria X. θ1 ´ melhor que θ2 . ent˜o. Elementos B´sicos a Notemos que σ 2 . ˆ E[θ2 ] = E √ √ √ Y + n/2 nθ + n/2 n n/2 √ √ √ θ+ √ . e para n = 9. a ıcio . ˆ e ˆ ou seja. apresenta um EQM menor que o EQM ˆ do estimador S 2 . apesar de viciado. Notemos que. θ). n ˆ e de modo que θ2 ´ um estimador viciado para θ. Exemplo 1. com distribui¸˜o de Bernoulli com parˆmetro θ. ou seja.3.7. EQM [θ2 ] < EQM [θ1 ]. θ1 = X = e θ2 = n n+ n Como E[X] = θ. temos que ˆ EQM [θ1 ] = V ar[X] = Por outro lado. . que nenhum dos estimadores ´ melhor uniformemente. o v´ ´ uma fun¸˜o linear de θ.

θ).1.3. 12n ˆ E[θ1 ] = E[X] = θ . θn 0 < x < θ. Sejam X1 .3. Estat´ ısticas e Estimadores 11 ˆ ˆ Figura 1.6) ´ dada por ca ıcio e (1.13) θ2 ˆ V ar[θ1 ] = . EQM de δ1 = θ1 e δ2 = θ2 EQM 1/36 δ1 1/64 δ2 0 c1 1/2 c2 1 θ Exemplo 1. (n + 1)2 (n + 2) (n + 1)2 (n + 1)(n + 2) E[X(n) ] = n θ n+1 e V ar[X(n) ] = nθ2 . Xn uma amostra aleat´ria da vari´vel aleat´ria o a o ˆ ˆ X ∼ U (0. Combinando (1.15) Portanto ˆ EQM [θ2 ] = nθ2 θ2 2θ2 + = .3.3.3 Amostras. temos que ˆ EQM [θ1 ] = θ2 + 12n θ −θ 2 2 = (1 + 3n) 2 θ . 12n Por outro lado.14) logo (1. a fun¸˜o de densidade de X(n) (ver Exerc´ 1. . .13) em (1. 2 ˆ e Portanto o estimador θ1 ´ viciado para θ.3.1.3.4)). Vamos considerar θ1 = X e θ2 = X(n) como estimadores de θ.12) e (1.1.3.2). . (n + 1)2 (n + 2) fX(n) (x|θ) = nxn−1 . Como E[X] = θ/2 e V ar[X] = θ2 /12 (ver o modelo (1.3. .12) e (1. temos que (1. .8.

. N . Consideremos uma urna com N bolas idˆnticas marcadas e com os n´ meros 1. . E[X(n) ] = N −n N n+1 − k=1 (k − 1)n . N k = 1. .01 Portanto X(n) ´ melhor que X para todo θ e n > 1.3.9. EQM de θ1 e θ2 ˆ ˆ ˆ ˆ n EQM [θ1 ] EQM [θ2 ] EQM [θ2 ]/EQM [θ1 ] 2 2 3 5θ /18 θ /10 0. Associada ` i-´sima observa¸˜o. N. u e a i = 1. .1. . N˜o ´ dif´ verificar que a e ıcil (1. P [Xi = k] = 1 . Notemos tamb´m que. em que os t´xis est˜o ca u a a a numerados de 1 a N . EQM [θ1 ] → θ2 /4 e que e ˆ EQM [θ2 ] → 0.16) Por outro lado. ˆ ˆ Como poss´ ıveis estimadores de N . i = 1. ˆ ˆ Tabela 1. . o n´ mero de bolas u e ca u numeradas na urna.27 5 4θ2 /15 θ2 /21 0. . . n. . Esse problema est´ muitas vezes associado ao problema a da estima¸˜o do n´ mero N de t´xis em uma cidade. temos a vari´vel e ca a e aleat´ria o Xi : n´ mero da i-´sima bola (t´xi) retirada da urna. com reposi¸˜o. Elementos B´sicos a A Tabela 1.12 1. . pois a distribui¸˜o de Xi ca e ca associa a mesma probabilidade a todos os poss´ ıveis valores de Xi . Portanto a distribui¸˜o de Xi ´ uniforme discreta.3.12 10 31θ2 /120 θ2 /662 0. e Exemplo 1. . . O objetivo ´ a estima¸˜o de N . consideremos inicialmente N1 = X e N2 = X(n) . 2 k N n − k−1 N n . . . . n. Portanto uma determinada quantidade (n) de bolas (t´xis) a ca a ´ observada. desde que P [X(n) = k] = P [X(n) ≤ k] − P [X(n) ≤ k − 1] = temos que N ˆ E[N1 ] = E[X] = N +1 .04 20 61θ2 /240 θ2 /2312 0.1 mostra o valor do EQM dos dois estimadores para v´rios vaa ˆ lores de n. Nesse caso. . quando n → ∞. .

1976). que ´ n˜o viciado e e a n+1 ˆ N4 = X(n) .4.3.6). a 1. com esperan¸a e variˆncia como dadas em (1.1. c a .11). N3 = 2X − 1 = 1095. Verifique a validade da express˜o (1.3.3. 212.3. 315. ˆ N3 = 2X − 1.3. a 1.3.15). Mostre que a fun¸˜o de densidade de probabilidade de X(n) ´ como ca e dada em (1. N2 = X(n) = 926. 875.4 Exerc´ ıcios 1.3. Por exemplo.4 Exerc´ ıcios 13 Usando a aproxima¸˜o (Feller. a e 1.3. temos que (1. u a ˆ ˆ ˆ ent˜o. Podemos considerar tamb´m o estimador e ˆ N5 = n+1 X(n) − (X(n) − 1)n+1 n X(n) − (X(n) − 1)n . 712. 782.2). N1 = X = 547. n que ´ aproximadamente n˜o viciado.17) N n+1 n ˆ = N.3. E[N2 ] = E[X(n) ] ∼ N −n N n+1 − = n+1 n+1 De (1. + (N − 1)n ∼ = N y n dy = 0 N n+1 . . Verifique a validade da express˜o (1.3). que ´ um estimador n˜o viciado para N (ver Exerc´ 1. Verifique a validade da express˜o (1. e a ıcio 1. e a ˆ N4 = 1042. 628. a 1.5.6. . n+1 (para N grande). 926.10) e (1. .14). . que s˜o os pontos de intersec¸˜o dos erros a ca ˆ ˆ quadr´ticos m´dios de θ1 e θ2 .1.1. . θ).7). . Xn uma amostra aleat´ria da vari´vel aleat´ria X ∼ o a o U (0. ca N k=1 (k − 1)n = 1n + . Encontre c1 e c2 na Figura 1.3.16) e (1. podemos definir novos estimadores.17). Se n = 8 bolas s˜o retiradas com reposi¸˜o e a a ca da caixa e os n´ meros observados s˜o: 124.2. o 1. Verifique a validade das express˜es (1. 684.3. Sejam X1 .

Fa¸a um gr´fico ˆ ˆ ˆ ca c a do EQM para n = 10. a ˆ ˆ a a (i) Verifique se θ1 e θ2 s˜o n˜o viciados para θ. Considere os estimadores µ1 = X e a o ˆ µ2 = 10. Encontre o EQM de µ1 e de µ2 como fun¸˜o de µ. Fa¸a um gr´fico como c a fun¸˜o de θ. (ii) Encontre o valor de c que minimiza o EQM em (i). . 1. . x > θ. c e a ca ˆ ˆ1 = X e θ2 = X(n) s˜o n˜o viciados para θ. 0 < x < θ. 1). . . dada por a o f (x|θ) = 2x . Mostre que o N5 no Exemplo 1. Xn um amostra aleat´ria de tamanho n da distribui¸˜o o ca da vari´vel aleat´ria X com f. Sejam X1 . θ). ˆ2 (i) Encontre o EQM do estimador acima. Sejam X1 . Xn uma amostra aleat´ria de tamanho n da distribui¸˜o o ca n da vari´vel aleat´ria X ∼ N (0. (i) Especifique o espa¸o param´trico e o suporte associado ` distribui¸˜o de X. (ii) Compare os EQM s. θ > 0. e a 1. a a (ii) Verifique se θ (iii) Encontre e compare os EQM s dos dois estimadores.p.14 1. . Considere os estimadores θ1 = c1 X e a o ˆ θ2 = c2 X(n) . Seja S 2 = a o Xi2 . . .d. c e a ca ˆ ˆ (ii) Verifique se θ1 = X e θ2 = X(1) s˜o estimadores n˜o viciados para θ. 1. Fa¸a um gr´fico dos EQM s como fun¸˜o de θ. .p.3. Sejam X1 . . a a (iii) Encontre e compare os EQM s dos dois estimadores.11. . . Elementos B´sicos a ˆ 1.13. . Xn uma amostra aleat´ria de tamanho n da distribui¸˜o o ca ˆ de uma vari´vel aleat´ria X ∼ U (0. dada por a o f (x|θ) = e−(x−θ) . . c a ca 1. Sejam θ1 = X e θ2 = 1/2 dois estimadores de θ. Considere os estii=1 madores σc = cS 2 .10.9. . θ > 0. θ2 (i) Especifique o espa¸o param´trico e o suporte associado ` distribui¸˜o de X.7. . Xn uma amostra aleat´ria de tamanho n da distribui¸˜o o ca da vari´vel aleat´ria X com f. Xn uma amostra aleat´ria de tamanho n da distribui¸˜o da o ca vari´vel aleat´ria X. a (ii) Encontre e compare os EQM s dos dois estimadores. . ca 1. em que X ∼ N (µ. σ 2 ). Sejam X1 .9 ´ um estimador n˜o viciado para N . .d. Fa¸a um gr´fico dos c a EQM s como fun¸˜o de θ. . . . ca 1. Seja X uma unica vari´vel aleat´ria com distribui¸˜o de Bernoulli com ´ a o ca ˆ ˆ parˆmetro θ.12. (i) Encontre c1 e c2 que tornam os estimadores n˜o viciados.8. . Sejam X1 .

deve ser fun¸˜o de uma estat´ a e ca ıstica suficiente. ˆ V ar[θ] onde LI(θ) ´ o limite inferior da variˆncia dos estimadores n˜o viciados de θ.1. estat´ ısticas suficientes para um parˆmetro (ou para uma distribui¸˜o) a ca s˜o aquelas que condensam os dados sem perder nenhuma informa¸˜o contida a ca nos mesmos. ca 2. segundo o crit´rio do menor erro e o e quadr´tico m´dio. a a ˆe Nesse caso. o quociente a LI(θ) ˆ e(θ) = . Estimadores Eficientes e Estat´ ısticas Suficientes Neste cap´ ıtulo ser´ apresentada a no¸˜o de estimador eficiente.2. (ii) como veremos no teorema seguinte. que ´ a fam´ exponencial de distribui¸˜es.1) LI(θ) = nE 1 ∂ log f (X|θ) ∂θ 2 . ou seja. e a e ˆ a Defini¸˜o 2.1 Estimadores Eficientes ˆ Eficiˆncia de um estimador θ de um parˆmetro θ ´ definida a seguir. e a a Conv´m notar que: e ˆ ˆ ˆ (i) e(θ) = 1 quando LI(θ) = V ar[θ]. Veremos e ılia co tamb´m que todo estimador para ser ´timo. como sendo a ca aquele que atinge o limite inferior da variˆncia dos estimadores n˜o viciados. Ou seja. co a . quando certas condi¸˜es de regularidade est˜o satisfeitas. (2. De modo informal.1. n˜o viciado para ca e o parˆmetro θ. elas s˜o t˜o informativas para o parˆmetro (ou para a a a a distribui¸˜o) quanto a amostra toda. a a Estimadores eficientes s˜o obtidos apenas para distribui¸˜es que s˜o membros a co a de uma classe especial. quando a variˆncia de θ a coincide com o limite inferior da variˆncia dos estimadores n˜o viciados de θ.1. θ ´ dito ser eficiente. Chamamos de eficiˆncia de um estimador θ.

4 σ σ σ logo conclu´ ımos. que o suporte A(x) = {x.1. .3. Temos que e (x−µ)2 1 f (x|µ) = √ e− 2σ2 . A quantidade ca ∂ log f (X|θ) ∂θ ´ chamada fun¸ao escore.1. Estimadores Eficientes e Estat´ ısticas Suficientes (iii) as condi¸˜es de regularidade a que nos referimos no item (ii) s˜o basico a camente duas.3. juntamente com (2. temos tamb´m que (2. que LI(µ) = σ2 .2).1. ca ca a o (iv) a n˜o ser que mencionado o contr´rio. . isto ´. n Conforme visto no Exemplo 1. 2 2σ 2 (x − µ) ∂ log f (x|µ) = .1. f (x|θ) > 0} seja independente e de θ e que seja poss´ ıvel a troca das ordens das opera¸˜es de deriva¸˜o e de co ca integra¸˜o sob a distribui¸˜o da vari´vel aleat´ria X. .2) Assim.2.1. temos que V ar[X] = σ2 = LI(µ). 2πσ −∞ < x < ∞.1.1.3) E ∂ log f (X|µ) 1 = 2 E[X − µ] = 0. e Exemplo 2.16 2. E ∂ log f (X|µ) ∂µ 2 √ 1 (x − µ)2 2π − log σ 2 − . ∂µ σ2 =E (X − µ)2 1 1 = 4 E[(X − µ)2 ] = 2 . . De (2. Sejam X1 . e c˜ . n e e de modo que X ´ um estimador eficiente para µ. e log f (x|µ) = − log Portanto (2. Xn uma amostra aleat´ria da vari´vel aleat´ria o a o X ∼ N (µ. todo logaritmo utilizado no texto a a ´ calculado na base e. em que σ 2 ´ conhecido. σ 2 ). ∂µ σ Defini¸˜o 2.1).

∂θ2 Uma outra propriedade importante estabelece que para uma amostra aleat´ria.d. ca e Defini¸˜o 2. o X1 . temos que E ∂ log L(θ. X) ∂θ n 2 = −E n i=1 ∂ 2 log L(θ.3.4) E ∂ log f (X|θ) = 0. xn |θ) = i=1 f (xi |θ).1. . da vari´vel aleat´ria X com f. e c˜ Como consequˆncia de (2. ou e ca co seja. (2. . . Xn . a densidade conjunta de X1 . .2.1.p.4) temos que e IF (θ) = V ar ∂ log f (X|θ) . .1 Estimadores Eficientes 17 O resultado (2.6) = −E i=1 ∂ 2 log f (Xi |θ) = ∂θ2 E − ∂ 2 log f (Xi |θ) = nIF (θ).p (ou f.1. . a o Um resultado importante (veja o Exerc´ 2. V ar[X] = E[X 2 ]. .3) na verdade vale em geral quando valem as condi¸˜es de co regularidade. x) = f (x1 . .1. ∂θ2 . Xn . sendo n (2. ou seja.1. ∂θ Portanto o valor esperado da fun¸˜o escore ´ sempre igual a zero. A quantidade ca IF (θ) = E ∂ log f (X|θ) ∂θ 2 . a informa¸˜o total de Fisher de θ correspondente ` amostra ca a observada ´ a soma da informa¸˜o de Fisher das n observa¸˜es da amostra.1.) f (x|θ) e informa¸˜o a o ca de Fisher IF (θ). . ∂θ pois para uma vari´vel aleat´ria X qualquer com E[X] = 0.5) L(θ. ´ denominada informa¸ao de Fisher de θ.6) estabelece que ıcio E ∂ log f (X|θ) ∂θ 2 = −E ∂ 2 log f (X|θ) . . X) ∂θ2 (2. . .

. ∞ −∞ ∂L(θ. . .8). x)dx1 . ∞ −∞ L(θ. .7) ∞ −∞ . . E[θ] = θ.5).18 2. e . x).. . . temos que (2. X)] = 0.8) ∞ −∞ .1. ent˜o X1 . . Lembremos que. Xn o a o a s˜o independentes e identicamente distribu´ a ıdas com a mesma distribui¸˜o que ca X.1. temos que ca ∂ ∂θ ∞ −∞ . x)L(θ. Estimadores Eficientes e Estat´ ısticas Suficientes pois Xi . Xn uma amostra aleat´ria da vari´vel aleat´ria X. x) = t(θ.1. ∞ −∞ L(θ. . ˆ ∂L(θ. . Desigualdade da Informa¸˜o. . . xn = ∞ −∞ . x)dx1 .. ˆe a ˆ onde L(θ.. ∂θ onde temos das express˜es acima que o E[t(θ.. . .. ∞ −∞ ˆ θL(θ. .. x) ´ dada em (2. o a o Sendo X1 . x) . . Desde que θ ´ n˜o viciado. ou seja. ∂θ Por outro lado. x) dx1 . a variˆncia de qualquer estimador n˜o viciado θ a a a do parˆmetro θ satisfaz a desigualdade a ˆ V ar[θ] ≥ 1 . i = 1. x) dx1 .. e temos tamb´m que e (2.7) com rela¸˜o a θ. . . Xn uma amostra aleat´ria da vari´vel aleat´ria X. . . Teorema 2. .1. . θ ∂θ −∞ ∞ ∂L(θ. Derivando ambos os lados de (2. dxn = ∞ −∞ . . x)dx1 . Quando as condi¸oes de ca c˜ ˆ regularidade est˜o satisfeitas. ..1. dxn = 1. temos que ∂ ∂θ Como ∞ −∞ . nIF (θ) Prova. Vamos considerar o caso em que X ´ uma vari´vel aleat´ria cont´ e a o ınua. de (2. . dxn = 1. x) = ∂ log L(θ. ∂θ t(θ.. . ∞ −∞ ˆ θL(θ. n tˆm a mesma informa¸˜o que X.1.1.. . . dxn = θ. sendo e ca X1 . x)dx1 . dxn = 0...

ou que levem a estimadores com “boas” propriedades. V ar[t(θ.1. E ent˜o importante e a a que sejam estabelecidos m´todos para constru¸˜o de estimadores que tenham e ca alguma propriedade interessante. X) = nIF (θ). . Contudo.5) e de (2.6) que V ar[t(θ. X)] Como as vari´veis X1 . vamos e e considerar estat´ ısticas que reduzam (condensem) os dados sem que haja perda de informa¸˜o. X)] . n Como V ar[X] = θ/n. . 1. temos de (2. .2.1 Estimadores Eficientes 19 ˆ E[θt(θ. X)] − E[θ]E[t(θ. ∂ log L(θ.2. de tal forma que ρθt ≤ 1. Tais estat´ ca ısticas s˜o conhecidas como estat´ a ısticas suficientes. ∂θ2 θ LI(θ) = e−θ θx . θ . .1. Xn uma amostra aleat´ria de tamanho n da vari´vel aleat´ria X ∼ P oisson(θ). de modo que ∂ log f (x|θ) x = − 1. Ela apenas possie a e e ca ´ bilita verificar se determinado estimador ´ ou n˜o eficiente. e Enfatizamos que a desigualdade da informa¸˜o (inicialmente chamada de ca Cram´r-Rao) n˜o ´ um m´todo de constru¸˜o de estimadores. 2 ˆ onde ρθt denota o coeficiente de correla¸˜o entre θ e t. ∂θ θ ou seja. ca ˆ ˆ temos que 1 ˆ V ar[θ] ≥ . . conclu´ ımos que X ´ um estimador eficiente para θ.1. . . ∂θ o Exemplo 2. . X)] = V ar o que prova o resultado. Como ρθt = ˆ ˆ ˆ E[θt(θ. x! x = 0. antes de estabelecermos tais m´todos (ou crit´rios). . . . . Sejam X1 . Xn s˜o independentes e identicamente distribu´ a a ıdas com densidade f (x|θ). . E Portanto 1 ∂ 2 log f (X|θ) =− . X)] = 1. X)] ˆ V ar[θ]V ar[t(θ. temos que log f (x|θ) = − log x! + x log θ − θ. com fun¸˜o de probabilidade dada por a o ca f (x|θ) = Nesse caso.

xi = t. . . . . Dizemos que a estat´stica T = T (X1 . . . .Xn =xn . 1 ( ) n t . Xn cont´m sobre θ.T =t] . T = t] P [T = t] P [X1 = x1 . A seguir apresentamos a e e defini¸˜o formal. . temos que P [X1 = x1 . Sejam X1 . . .2 Estat´ ısticas Suficientes Sejam X1 . . P [X1 = x1 . . . xi = t.2. se a probabilidade condicional P [X1 = x1 . . P [X1 =x1 . . Xn = xn . conter toda a informa¸˜o sobre θ presente na amostra. xi = t. . .. ca ca Exemplo 2. . . . xn = 0 ou 1 e t = 0. . θt (1 − θ)n−t t n i=1 n i=1 0. ou seja. T ´ sue ca e i=1 ficiente para θ. Em ca outras palavras. .. . de Bernoulli(θ). . . . . Ou seja. . Xn = xn |T = t] = = = pois sabemos que T ∼ Binomial(n. . . De acordo com a Defini¸˜o 2. xi = t.1. . Xn = xn |T = t] for independente de θ. . . Xn uma amostra aleat´ria da vari´vel aleat´ria X com fun¸˜o o a o ca de densidade ou de probabilidade f (x|θ). Xn dado T for indepenc˜ dente de θ. Xn ) a ´ suficiente para que sejam feitas inferˆncias sobre θ. Quando resumimos a informa¸˜o que ca os dados contˆm sobre θ.1. . . . sendo n i=1 0.2.1. P [Xn = xn ] = n t n t n−t n−t t θ (1 − θ) t θ (1 − θ) n t θt (1 − θ)n−t 1 = n . Xn uma amostra aleat´ria da distribui¸˜o o ca Binomial(1. ent˜o dizeca e a mos que T (que pode ser um vetor) ´ suficiente para θ.. Portanto P [X1 = x1 . . Xn ) para extrairmos toda informa¸˜o que a amostra X1 . . . utilizando uma estat´ e ıstica. se pudermos usar uma estat´ ıstica T = T (X1 . Xn = xn ] P [X1 = x1 ] . . quando a distribui¸ao condicional de X1 . Vamos verificar se a estat´ ıstica T = n Xi ´ suficiente para θ. . para x1 . . a estat´ ca ıstica a ser considerada deve. . . . . .2. .1.. Xn = xn |T = t] = ou seja.2. θ). dentro do poss´ ıvel. . . θxn (1 − θ)1−xn = n t n−t t θ (1 − θ) P [X1 = x1 . . n. Estimadores Eficientes e Estat´ ısticas Suficientes 2. ca Defini¸˜o 2. ´ importante que n˜o haja e a perda de informa¸˜o sobre θ. . o conhece imento apenas de T (e n˜o necessariamente da amostra completa X1 . . . . Xn = xn |T = t] = θx1 (1 − θ)1−x1 . . . . . . Xn ) ´ suficiente ca ı e para θ. Temos. . Os exemplos a seguir ilustram a obten¸˜o de estat´ ca ısticas suficientes pela utiliza¸˜o da Defini¸˜o 2. θ). . .20 2. . Desse modo. P [T =t] n i=1 n i=1 xi = t. .

. da Defini¸˜o 2. . nesse caso.2.2. X3 = 0] = θ2 (1 θ2 (1 − θ) = θ. P [T =t] n i=1 n i=1 xi = t. P [X1 =x1 . . temos que T = 2. Xn = xn |T = t] = de modo que se n i=1 0.. xn ! nt n i=1 que ´ independente de θ. Xn = xn |T = t] = = e−θ θx1 e−θ θxn t! . X2 = 0. ent˜o. 1.Xn =xn ] . .2..2. .1 permite. 1.3. conclu´ ımos que T n˜o a ´ suficiente para θ. . X3 = 1.2. . X2 = 0. . que possamos verificar se ca determinada estat´ ıstica ´ ou n˜o suficiente. X3 = 1|T = 2] = = P [X1 = 1. . X2 = 1. . Xn e ca dado T depende de θ. Xi ´ sufie Notemos que a Defini¸˜o 2. apenas.. Xn uma amostra aleat´ria da distribui¸˜o de o ca n Poisson com parˆmetro θ. .1 que e a ca ciente para θ. pela Defini¸˜o 2... pois. . a distribui¸˜o condicional de X1 . . Vamos verificar se T ´ suficiente.1.2 Estat´ ısticas Suficientes 21 de modo que.. ca a i=1 Assim.. . x1 ! xn ! e−nθ (nθ)t = t! 1 . Consideremos novamente a situa¸˜o do Exemplo 2. T = ca n i=1 Xi ´ suficiente para θ.. n e t = 0. Vamos verificar se T = i=1 Xi ´ suficiente para a e θ.2. . . . Sabemos que T = n Xi tem distribui¸˜o de Poisson com parˆmetro nθ.2. Segue.1) P [X1 = 1.. . . 2.1) depende de θ. e Exemplo 2. Contudo n˜o pode ser utilizada e a a como um m´todo para obten¸˜o de estat´ e ca ısticas suficientes. xi = t.. a P [X1 = x1 ] . Exemplo 2. ent˜o. − θ) + (1 − θ)2 θ Portanto. Logo (2.1. . . . . X2 = 0.2.2. .2. para xi = 0. x1 !. .. Um procedimento para a obten¸˜o de estat´ ca ısticas suficientes ´ o crit´rio da fatora¸˜o que apree e ca sentamos a seguir. . X2 = 0. xi = t. . i = 1. como a probabilidade (2. Notemos que e para X1 = 1. temos P [X1 = x1 . com ca n = 3 e T = X1 + 2X2 + X3 . . Sejam X1 . X3 = 1] P [X1 + 2X2 + X3 = 2] P [X1 = 1]P [X2 = 0]P [X3 = 1] P [X1 = 1. X3 = 1] + P [X1 = 0. P [Xn = xn ] P [T = t] P [X1 = x1 . ..

22 2. .2. Prova. .. que a n L(θ. . . de modo que (2. x). . Pθ [X=x.2. x) = h(x1 . xn )). . se e somente a ı e se pudermos escrever (2.+xn . Suponhamos em primeiro lugar que (2.T (x)=t} h(x)gθ (t) h(x) {x.1. . . T (x) = t] = P [X = x|T (x) = t]Pθ [T (X) = t] = h(x)gθ (t). c˜ c ent˜o. . . L(θ.4. . x) = Pθ [X = x]. .2. T (X) = t] Pθ [X = x] = Pθ [T = t] Pθ [T = t] = h(x)gθ (t) = {x. .2. portanto T = T (X) ´ suficiente para θ. Como P [X = x|T (X) = t] = 0. a Pθ [X = x] = f (x|θ) = h(x)gθ (T (x)). Consideremos novamente o modelo de Poisson do Exemplo 2. Nesse caso. Pθ [T (X)=t] T (x) = t T (x) = t.2) est´ provada. . Estimadores Eficientes e Estat´ ısticas Suficientes Teorema 2. Xn ) ´ suficiente para θ. xn )gθ (T (x1 .2. P [X = x|T (x) = t] = 0. . ent˜o a a Pθ [X = x. . xn ) ´ uma fun¸ao que depende apenas de x1 . Vamos provar o teorema apenas para o caso discreto. . quando T (x) = t. de modo que a distribui¸˜o ca condicional de X dado T ´ independente de θ. . xn ! . Temos. ent˜o. Quando T (x) = t. . . e e Suponhamos agora que T = T (X) seja suficiente. T (X) = t} est´ contido no evento {T (x) = t}..T (x)=t} h(x) . . x1 ! xn ! x1 ! . Sendo T (x) = t.2. que ´ independente de θ. que ´ independente de θ.2.3. . xn )) depende de θ e de x1 .T (X)=t] . xn (n˜o dee c˜ a pende de θ) e gθ (T (x1 . . o evento {X = ca ca a x. (Crit´rio da Fatora¸ao de Neyman) Sejam X1 . Xn uma e c˜ amostra aleat´ria da distribui¸ao da vari´vel aleat´ria X com fun¸ao de densio c˜ a o c˜ dade (ou de probabilidade) f (x|θ) e fun¸ao de verossimilhan¸a L(θ. . .2) L(θ. x) = i=1 f (xi |θ) = e−θ θx1 e−θ θxn 1 .1 est´ verificada. que a estat´stica T = T (X1 . xn somente atrav´s e de T . .2) esteja verificada e ent˜o. . . temos que e f (x|θ) = Pθ [X = x] = Pθ [X = x... onde h(x1 . . = e−nθ θx1 +. a Exemplo 2. . logo a e condi¸˜o da Defini¸˜o 2. . . Temos. . .

3 Estat´ ısticas Conjuntamente Suficientes Na se¸˜o anterior vimos o caso uniparam´trico. Sejam X1 .3 Estat´ ısticas Conjuntamente Suficientes 23 Portanto. e e a Em muitas situa¸˜es.2. . . σ 2 ). e Exemplo 2. xn ) = 1 n i=1 n xi ! i=1 I{0. 1). que denotamos por θ.θ] (x1 ) .. que a (x1 −µ)2 (xn −µ)2 1 1 . .2.2. Sejam X1 .x(n) ] (x(1) ). . θn de modo que. .1. temos. pelo crit´rio da fatora¸˜o. em que θ = (µ. . . Xn ).θ] (x). x) = = 1 I[0. . T (X) = e ca ciente para µ. pelo crit´rio da fatora¸˜o. o modelo estat´ co ıstico depende de mais de um parˆmetro. Nesta se¸˜o consideramos o caso ´ a ca multiparam´trico em que θ ´ um vetor de parˆmetros. pelo crit´rio da fatora¸˜o. . que T (X) = e ca onde X = (X1 . √ e− 2 L(µ. a ´ E o caso do modelo N (µ. I[0.. ent˜o. .θ] (xn ) θ θ 1 I[0. Xn uma amostra aleat´ria da distribui¸˜o o ca N (µ. . Conforme visto no Cap´ ıtulo 1.} (xi ) e gθ (T (x)) = e−nθ θ n i=1 n i=1 xi . X(n) ´ uma estat´ e ca e ıstica suficiente para θ. σ 2 ). θ 1 1 I[0. a distribui¸˜o dos ca e ca dados depende de um unico parˆmetro θ.6. . ou seja. . . Xi ´ uma estat´ e ıstica sufi- 2. x) = √ e− 2 2π 2π = = 1 √ 2π 1 √ 2π n n e− n i=1 x2 i 2 n i=1 (xi −µ)2 2 e− e− nµ2 2 +µ n i=1 n i=1 xi . Temos.θ] (x(n) )I[0. Portanto. . temos que (veja o Modelo 1.5. .. . sendo µ e σ 2 desconhecidos.2. . . .5) f (x|θ) = Temos ent˜o a L(θ. Xn uma amostra aleat´ria da vari´vel aleat´ria o a o X ∼ U (0.1. . Xi ´ suficiente para θ. θ). tomando h(x1 . Exemplo 2.

. xn ) somente por meio de (T1 (x). xn |θ) = i=1 f (xi |θ) = h(x1 . . . com fun¸ao o c˜ a o c˜ de densidade (ou de probabilidade) f (x|θ). Caso Multiparam´trico) Sejam X1 . Ti = Ti (X) ´ conjuntamente suficiente para θ e se n L(θ. .24 2. x) = 1 √ 2π n 1 √ 2πσ n n e− n i=1 (xi −µ)2 2σ2 = 1 − 12 e 2σ σn i=1 µ x2 + σ 2 i n i=1 µ xi −n 2σ2 2 .. Esse resultado vale tamb´m para o caso multidie e e mensional. . . xn )gθ (T1 (x). de acordo com o crit´rio da fatora¸˜o. n i=1 temos. . . .1. . . e a portanto. . a o a a que θ = (µ. Nesse caso. Exemplo 2. temos que. Xn uma amostra aleat´ria de tamanho n da o vari´vel aleat´ria X ∼ N (µ. . Tr (x)). . . Tr (x)). Tr ). . e c˜ a onde h(x1 . .3. . . . onde µ e σ 2 s˜o desconhecidos. xn ) ´ uma fun¸ao que n˜o depende de θ e gθ (T1 (x). . Temos.3. √ com −∞ < µ < ∞ e σ 2 > 0. . ent˜o. . . Mas e e a c e existem situa¸˜es em que tal fato n˜o ocorre. θ = (α. e c˜ e Xn uma amostra aleat´ria da distribui¸ao da vari´vel aleat´ria X. . que a estat´stica ra ı dimensional T = (T1 .3. . . σ 2 ). . . Dizemos que duas estat´sticas T1 e T2 s˜o equivalentes se ca ı a existir uma rela¸ao 1:1 entre elas. ent˜o T2 e a tamb´m ´ suficiente para θ.1. . . β). ou seja. σ 2 ). . σ 2 ). a fun¸˜o de verossimilhan¸a pode ser escrita como ca c L(θ. x) = f (x1 . que em muitos casos ´ tamb´m a dimens˜o do espa¸o param´trico Θ. (Crit´rio da fatora¸ao. que T = ( e ca conjuntamente suficiente para (µ. . . Sejam X1 . No caso do Teorema 2. se T1 ´ suficiente para θ. Xi2 ) ´ e Defini¸˜o 2. . . Tr (x)) depende de θ e de x = (x1 . xn ) = 1/( 2π)n e gθ (t1 (x).1. a dimens˜o de Θ ´ menor co a a e que r. n i=1 Xi .1.3. . Teorema 2. . dizemos que a estat´ ıstica suficiente ´ de dimens˜o e a r. Estimadores Eficientes e Estat´ ısticas Suficientes ´ E o caso tamb´m do modelo Gama(α. t2 (x)) = 1 − 12 e 2σ σn n i=1 x2 + i µ σ2 n i=1 xi −n µ2 2σ2 . Temos. . Nesse caso. . . . T1 e T2 s˜o equivalentes se T1 puder ser obtida a partir a de T2 e vice-versa. ent˜o. β). c˜ Em outra palavras. . Tomando h(x1 . em que α e β s˜o desconhecidos e. .

como (2. S s˜o fun¸oes reais de x e A n˜o depende a c˜ a c˜ a de θ.) ´ a fun¸˜o gama definida por Γ (t) = 0 xt−1 e−x dx. se pudermos escrever ` ı c˜ sua f.3. β).3. i=1 Xi ) ´ conjuntamente suficiente para θ.3. .3. Consideremos novamente a situa¸˜o do Exemplo 2.4. θ = (α. β). para que f (x|θ) em (2. σ 2 ).4.2. Sejam X1 .4. para t > 0.p. Γ (α) onde Γ (. pelo crit´rio da fatora¸˜o. β) = .4 Fam´ ılias Exponenciais 25 Exemplo 2. . i=1 Xi2 ) e T2 = (X. T .1. e ca Ent˜o. e 2. Dizemos que X ∼ Gama(α. x∈A onde c.d.3. ´ necess´rio que ca e a ec(θ)T (x)+d(θ)+S(x)dx = 1.2. ıcil a Como T1 ´ suficiente para θ (Exemplo 2.1). x) = β nα xα−1 e−β Γ n (α) i=1 i n n i=1 ∞ xi I(0. Exemplo 2. Consideremos novamente a situa¸˜o do Exemplo 2. temos que T2 tamb´m ´ suficiente e e e para θ = (µ.p. ou f. .p. e e i=1 Exemplo 2. Temos que a fun¸˜o de verossimilhan¸a correspondente ` a ca c a amostra observada ´ dada por e L(θ. X) ´ equivalente a T1 . α. d s˜o fun¸oes reais de θ. Como T1 ´ equivalente a T2 = e e i=1 n Xi /n = X.1) f (x|θ) = ec(θ)T (x)+d(θ)+S(x). α > 0. Portanto.4 Fam´ ılias Exponenciais Muitos dos modelos estat´ ısticos considerados nas se¸˜es anteriores podem ser co considerados como casos especiais de uma fam´ mais geral de distribui¸˜es . Vica n mos que T1 = Xi ´ suficiente para µ. Notemos que no caso em que X ´ cont´ e ınua.6. β). ılia co Defini¸˜o 2. A .d. β > 0. Notemos que a ese n tat´ ıstica T2 = ( i=1 log Xi . temos que T2 = X tamb´m ´ suficiente para µ.4. se sua f. S 2 ) s˜o equivalentes. ca ´ dada por e β α xα−1 e−βx f (x|α.1. Xn uma amostra aleat´ria da vari´vel aleat´ria o a o X com distribui¸˜o Gama(α. Dizemos que a distribui¸ao da vari´vel aleat´ria X pertence ca c˜ a o a fam´lia exponencial unidimensional de distribui¸oes. .3. temos que T1 = e ca n n ( i=1 Xi . β > 0.∞) (x).2. N˜o ´ ca a e n n dif´ verificar que T1 = ( i=1 Xi . x > 0.1) seja uma fun¸˜o de densidade.

de Poisson e exponencial.26 2. ec(θ)T (x)+S(x)dx = e−d(θ). 1). a e ılia o Teorema 2. . Ent˜o. θ x = {0. . Portanto a distribui¸˜o de X pertence ` fam´ exponencial unidimensional ca a ılia com θ c(θ) = log . que a √ (x−µ)2 µ2 x2 1 f (x|µ) = √ e− 2 = eµx− 2 − 2 −log 2π . A de modo que d(θ) est´ associado ` constante de normaliza¸˜o da densidade.4. Seja X uma vari´vel aleat´ria com distribui¸˜o N (µ.1. Ent˜o.2) f (x1 . Xn ´ dada por a c˜ e (2. 1−θ T (x) = x. Exemplo 2.4.4. Seja X uma vari´vel aleat´ria com distribui¸˜o de Bernoula o ca li(θ). . i=1 T (xi ). a distribui¸ao conjunta de X1 .4. com fun¸ao de densidade (ou de probabilidade) dada por a o c˜ (2. S(x) = 0. O a pr´ximo resultado estabelece que amostras aleat´rias de fam´ o o ılias exponenciais unidimensionais s˜o tamb´m membros da fam´ exponencial unidimensional. . . e a o Exemplo 2. A = IR. xn |θ) = ec ∗ (θ) n i=1 T (xi )+d∗ (θ)+S ∗ (x) n i=1 . Xn uma amostra aleat´ria de tamanho n da vari´vel aleat´ria X. 1}.4. 1}. 2 2 √ x T (x) = x e S(x) = − − log 2π. e S ∗ (x) = n S(xi ). . ent˜o. d(θ) = log(1 − θ). a a ca Resultado similar vale para o caso em que X ´ uma vari´vel aleat´ria discreta. . . podemos escrever a f (x|θ) = θx (1 − θ)1−x = θ 1−θ x (1 − θ) = ex log( 1−θ )+log(1−θ) .1). a o ca Temos. 2 Outras distribui¸˜es que podem ser colocadas na forma da fam´ exponenco ılia cial unidimensional s˜o. . . . Sejam X1 . binomial. A = {0. Estimadores Eficientes e Estat´ ısticas Suficientes ou seja.2. d(µ) = − . .1. por exemplo. x ∈ An . c∗ (θ) = c(θ). . que tamb´m ´ da fam´lia exponencial com T (x) = e e ı d∗ (θ) = nd(θ). 2π Portanto a distribui¸˜o da vari´vel aleat´ria X pertence ` fam´ exponencial ca a o a ılia unidimensional com µ2 c(µ) = µ.

.1. . j d∗ (θ) = nd(θ). temos que a fun¸˜o de ca densidade (ou de probabilidade) conjunta de X1 .4 Fam´ ılias Exponenciais 27 Notemos de (2. d e S s˜o fun¸oes reais. n i=1 e T (Xi ) ´ sufi- Defini¸˜o 2. . e gθ (T ) = ec(θ) n i=1 T (xi )+nd(θ) . . k. Para uma amostra X1 .4.2) que considerando n n S(xi ) i=1 h(x1 .2. Nesse caso. Xn ´ dada por e k f (x1 . xn |θ) = e onde Tj∗ (x) = i=1 n n j=1 c∗ (θ) j n i=1 Tj (xi )+d∗ (θ)+S ∗ (x) . com (2. que ´ da fam´ exponencial bidimensional com e ılia . . j = 1. d(θ) est´ associado a constante de normaliza¸ao de (2. S ∗ (x) = i=1 S(xi ). Xn de uma vari´vel aleat´ria com fun¸˜o a a o ca de densidade (ou de probabilidade) dada por (2.4.3. no caso de dimens˜o k. que a estat´ e ca ıstica T (X) = ciente para θ. . . . Tk ) ´ conjuntamente suficiente para θ. . x ∈ A. . .3. ∗ ∗ (T1 .4. Dizemos que a distribui¸ao da vari´vel aleat´ria (ou de um ca c˜ a o vetor aleat´rio) X pertence a fam´lia exponencial de dimens˜o k se a fun¸ao o ` ı a c˜ de densidade (ou de probabilidade) de X ´ dada por e k (2. .4.3) f (x|θ) = e j=1 cj (θ)Tj (x)+d(θ)+S(x) . xn ) = e i=1 IA (xi ). . Tamb´m.4) (x−µ)2 1 f (x|θ) = √ e− 2σ2 .4. .4. pelo crit´rio da fatora¸˜o. . e Exemplo 2. temos que θ = (µ. c∗ (θ) = cj (θ). onde cj . Tj (xi ). . temos.4. amostras de fam´ e a ılias exponenciais de dimens˜o k tˆm distribui¸˜es que s˜o membros da fam´ exponencial de dia e co a ılia mens˜o k. . . 2πσ 1 2 µ µ + σ2 x− 2σ2 − 1 log σ2 −log 2 2 = e− 2σ2 x √ 2π . e como no caso unidimena c˜ sional. ca Nesse caso.2. Consideremos mais uma vez a situa¸˜o do Exemplo 2. .3). . . . Tj . σ 2 ). .3) e A n˜o a ` c˜ a depende de θ. .

σ2 c2 (θ) = − 1 . µy .5) f (x. y|θ) = −1 −1 σx σy ∼ N2 µx µy . 2 σx ρσx σy ρσx σy 2 σy . y) = y. y) = x2 . y) = xy.4. T1 (x.4) ´ tamb´m da ca o e e n n fam´ exponencial com T1 (X) = i=1 Xi e T2 (X) = i=1 Xi2 . c3 (θ) = − c4 (θ) = − c5 (θ) = T3 (x. 2 2σ 2 A distribui¸˜o de uma amostra aleat´ria da densidade (2. Estimadores Eficientes e Estat´ ısticas Suficientes T1 (x) = x. 2 2(1 − ρ2 )σy . 2σ 2 √ µ 1 − log σ 2 . ρ . 2 (1 − ρ2 ) σy σx σy 1 . σx . A densidade pode ser escrita como 1 f (x. S(x) = − log 2π.4. T4 (x. σy . y|θ) = e (1−ρ e e − − 1 2 2(1−ρ2 )σx 2) µx 2 σx y 1 − σx σy x+ (1−ρ2 ) ρµ µy 2 σy ρµx − σx σy y x2 − 1 2 2(1−ρ2 )σy ρµ µ y 2 + (1−ρ2ρ )σ x σy xy µ2 x 2 2(1−ρ2 )σx − µ2 y 2 2(1−ρ2 )σy x + (1−ρ2 )σy σ −log σx σy x y √ 1−ρ2 −log 2π . que s˜o conılia a juntamente suficientes para (µ. em que 1 µx ρµy c1 (θ) = − . c1 (θ) = µ . y) = x. 2 2(1 − ρ2 )σx T2 (x. (1 − ρ2 )σx σy 1 . ıdo ca ρ). A = IR. σ 2 ).4. y) = y 2 . d(θ) = − T2 (x) = x2 . 2 (1 − ρ2 ) σx σx σy c2 (θ) = 1 µy ρµx − .4. que corresponde a uma densidade na forma da fam´ exponencial de dimens˜o ılia a 5. Exemplo 2. Vamos considerar agora o caso em que o vetor (X. que denotamos por X Y e com densidade (2. 2π(1 − ρ2 ) e 1 − 2(1−ρ2 ) (x−µx )2 2 σx 2ρ − σx σy (x−µx )(y−µy )+ (y−µy )2 2 σy . T5 (x. Y ) ´ dise 2 2 tribu´ de acordo com a distribui¸˜o normal bivariada com θ = (µx .28 2.

i=1 Xi Yi 2 2 ´ conjuntamente suficiente para θ = (µx .7) s˜o estimadores de a m´xima verossimilhan¸a. . . ρ= ˆ n i=1 (Xi n i=1 (Xi − X)(Yi − Y ) n i=1 (Yi . Xn . Xn uma amostra aleat´ria da vari´vel aleat´ria X com fun¸˜o o a o ca de densidade (ou de probabilidade) f (x|θ). . Sy . ent˜o e e a a ˆe θ ´ tamb´m n˜o viciado para θ (veja o Exerc´ 2. ´ um estimador de θ.4. . Xn ) ´ uma fun¸˜o apenas de e ca X1 . ´ uma fun¸˜o de T que n˜o depende de θ.5. tamb´m. portanto. Estimadores comumente considerados para θ e que s˜o fun¸˜es a co de T2 s˜o a n n n n n (2. e e ca a pois. Contudo o resultado mais e a ıcio . ρ).5 Estimadores Baseados em Estat´ ısticas Suficientes 29 As fun¸˜es d(θ) e S(x. . Xn ) um estimador de θ que n˜o ´ a e fun¸˜o da estat´ ca ıstica suficiente T . . i=1 Xi2 . . Sx . Y1 ). que se S ´ um estimador n˜o viciado de θ. . . Ent˜o. . portanto. a distribui¸ao condicional de X1 . . Seja T = T (X1 .4. . ˆ σx = ˆ2 i=1 (Xi − X)2 /n. . i=1 Yi .7) µy = Y . co a Consideremos uma amostra aleat´ria (X1 . . .4. Xn ) uma estat´ ıstica suficiente para θ e S = S(X1 .6) µx = X. . σy = ˆ2 i=1 (Yi − Y )2 /n.4. sendo T suficiente. a c 2. Notemos que a ese tat´ ıstica 2 2 T2 = (X. . . a (2. . . Xn dado T ´ c˜ e independente de θ. que a estat´ ıstica n n n n n T1 = i=1 Xi .5 Estimadores Baseados em Estat´ ısticas Suficientes Sejam X1 . i=1 Yi2 . − X)2 − Y )2 O estimador ρ ´ conhecido como coeficiente de correla¸˜o de Pearson. . σy . . ou seja. Temos. σx . Podemos ˆe ca mostrar que os estimadores de θ dados por (2.1) ˆ θ = E[S|T ]. ´ tamb´m conjuntamente sufie e e ciente para θ. Sxy ).6) e (2. . (Xn .4. Sy = i=1 (Yi − Y )2 /n e Sxy = i=1 (Xi − X)(Yi − Y )/n ´ equivalente a T1 e. . . Yn ) da densidade o normal bivariada (2.2.5). ˆ e (2. . Y . y) s˜o obtidas de maneira similar. . Temos. 2 2 onde Sx = i=1 (Xi − X)2 /n. .8). µy . Notemos que S = S(X1 .

. Xn ) ´ dita ser completa em ca ı e rela¸ao a fam´lia f (x|θ) : θ ∈ Θ. conhecido como Teorema de Rao-Blackwell. . o estimador n˜o viciado de variˆncia uniformemente m´ e a a ınima.5.5. Defini¸˜o 2. Desse modo. para t = 0. estabelece que. logo S ´ n˜o viciado para e−θ . . notemos que V ar[S] = E{V ar[S|T ]} + V ar{E[S|T ]} ˆ ≥ V ar{E[S|T ]} = V ar[θ]. Notemos e a que. Uma estat´stica T = T (X1 . Temos que a n estat´ ıstica T = i=1 Xi ´ suficiente para θ.1.2) ˆ V ar[θ] ≤ V ar[S]. . . 1.5. ent˜o. definida no dom´nio c˜ ` ı ´ c˜ ı .1) temos que o estimador τ= ˆ n−1 n i=1 Xi ´ n˜o viciado e ´ melhor que o estimador S.2) que o estimador θ baseado na estat´ ıstica suficiente T apresenta uma variˆncia menor (ou igual) que a a variˆncia do estimador n˜o viciado S.5.5. em conjunto com a defini¸˜o de suficiˆncia. possibilita a obten¸˜o do estimador ´timo. E[S|T = t] = P (X1 = 0|T = t) = P( n i=2 Xi = t)P (X1 = 0) P ( n Xi = t) i=1 n−1 n t = t! e−(n−1)θ ((n − 1)θ)t −θ e = t! e−nθ (nθ)t n . portanto de acordo com (2. se a unica fun¸ao real g. qualquer estimador S que a a n˜o ´ fun¸˜o de uma estat´ a e ca ıstica suficiente pode ser melhorado pelo procedimento (2.30 2. . Xn uma amostra aleat´ria da vari´vel aleat´ria o a o X ∼ P oisson(θ). Portanto temos de (2.. ˆ pois E{V ar[S|T ]} ≥ 0. Sejam X1 . Queremos estimar P (X = 0) = τ = e−θ ..1. a Temos que E(S) = P (X1 = 0) = e−θ . Consideremos e S= 1. isto ca e ca o ´. caso contr´rio. X1 = 0. . para todo θ. Estimadores Eficientes e Estat´ ısticas Suficientes importante. e a e A seguir apresentamos a defini¸˜o de estat´ ca ıstica completa que.5. 2. Para provar esse resultado. Exemplo 2. a a (2. .. . se S ´ e um estimador n˜o viciado de θ. pois apresenta EQM menor. 0.1).

mas g(T ) = 0 com probabilidade ca 1. .5. No caso bidimensional. . ca a ılia Exemplo 2. ck (θ)) contenha um retˆngulo k-dimensional. Teorema 2.5. logo existe a fun¸˜o g(T ) = T tal que E(g(T )) = 0. (ou f. Seja T uma estat´stica a o ı suficiente e completa. se e somente se n (2.p. f (x|θ). Teorema 2.5 Estimadores Baseados em Estat´ ısticas Suficientes 31 de T . a estat´stica a ı n n T (X) = i=1 T1 (Xi ). ´ necess´rio que o dom´ e e a ınio de varia¸˜o de c(θ) ca contenha um intervalo da reta. Seja S um estimador n˜o viciado de θ. Suponha que X tenha distribui¸ao da fam´lia exponencial kc˜ ı dimensional (como definida em 2. Sejam X1 . tal que E[g(T )] = 0.1.4. . .2). Portanto T = i=1 Xi ´ completa em e rela¸˜o ` fam´ Binomial.3) ´ um polinˆmio em ρ de e o n grau n temos que g(x) = 0 para todo x.3. x para todo ρ onde ρ = θ/(1 − θ). X2 uma amostra aleat´ria da vari´vel X ∼ o a Bernoulli(θ). basta procurar entre os que s˜o fun¸˜o de a ca . Temos que n E[g(T )] = x=0 g(x) n x n−x θ (1 − θ) =0 x para todo θ. . .2) temos que θ ´ um estimador n˜o viciado de θ e que. Ent˜o θ = E(S|T ) a a ˆ ´ o unico estimador n˜o viciado de θ baseado em T e ´ o estimador n˜o viciado e ´ a e a de variˆncia uniformemente m´nima (ENVVUM) para θ.d. isto ´.5. a na procura de ENVVUM’s para θ. c˜ a No caso uniparam´trico.2.p. T (X) ser´ tamb´m completa desde que o dom´nio de e a e ı varia¸ao de (c1 (θ). Seja T = X1 − X2 .5. i=1 Tk (Xi ) ´ suficiente para θ. .3) x=0 g(x) n x ρ = 0. (Lehmann-Scheff´) Sejam X1 . a e A demonstra¸˜o do teorema a seguir pode ser encontrada em Lehmann ca (1986).3. Portanto T = X1 − X2 n˜o ´ completa.5.2. . Exemplo 2. Ent˜o. De (2.1) e (2. Como o lado esquerdo de (2. para todo θ ´ a fun¸ao nula.2. a ı ˆe Prova.).5. Temos que E(T ) = E(X1 − X2 ) = 0.2.5. . . Consideremos novamente o Exemplo 2. Xn uma amostra aleat´ria e o da vari´vel aleat´ria X com f. .5. g(T ) = 0 com e c˜ e probabilidade 1. . um quadrado e assim por diante.

σ 2 ). Falta provar.2. Para isso. θ > 0. e 2. . . ca (iv) Sugira um estimador n˜o viciado para θ que seja fun¸˜o da estat´ a ca ıstica suficiente e verifique se ´ eficiente. .5.4. Xn uma amostra aleat´ria da distribui¸˜o de o ca n Poisson com parˆmetro θ. Xn uma amostra aleat´ria da distribui¸˜o da vari´vel o ca a aleat´ria X com fun¸˜o densidade de probabilidade dada por o ca f (x|θ) = θxθ−1 . pertence ` fam´ exponencial. (iii) Obtenha um estimador n˜o viciado para θ que seja fun¸˜o da estat´ a ca ıstica suficiente. e portanto e ˆ1 = θ2 com probabilidade 1. a a (ii) Encontre uma estat´ ıstica suficiente para θ. suponha que ´ a e ca ˆ ˆ existam θ1 e θ2 .2 temos que T = i=1 Xi a ´ uma estat´ e ıstica suficiente e completa. . ent˜o. Como X ´ um estimador n˜o viciado e a de θ e ´ fun¸˜o de T .p. Sejam X1 . Xn uma amostra aleat´ria da vari´vel aleat´ria X ∼ o a o Binomial(2. a ılia (ii) Encontre o limite inferior da variˆncia dos estimadores n˜o viciados de θ.1. . ambos fun¸˜es de T . (iii) Obtenha a partir desta estat´ ıstica um estimador n˜o viciado para σ 2 . Sejam X1 . . tais que co ˆ ˆ E(θ1 ) = E(θ2 ) = θ. . . ´ o ENVVUM.4. Pelos Exemplos 2.6 Exerc´ ıcios o a o 2. . 0 < x < 1. . ˆ θ Exemplo 2. . Sejam X1 .32 2. Sejam X1 . . θ). ˆ ˆ ˆ ˆ de modo que E(θ1 − θ2 ) = 0 e como T ´ completa. a e .5. (i) Encontre o limite inferior da variˆncia dos estimadores n˜o viciados de σ 2 . e 2. a (iv) Verifique se este estimador ´ eficiente.2. Xn uma amostra aleat´ria da vari´vel aleat´ria X ∼ N (0. e ca e 2.3. Sejam X1 . . . θ1 − θ2 = 0. (i) Encontre o limite inferior da variˆncia dos estimadores n˜o viciados de θ. . Estimadores Eficientes e Estat´ ısticas Suficientes T (pois os que n˜o s˜o podem ser melhorados). (i) Mostre que a f. o a o Mostre que T = X1 + 2X2 n˜o ´ suficiente para θ. que h´ um a a a a unico estimador n˜o viciado de θ que ´ fun¸˜o de T . X2 uma amostra aleat´ria da vari´vel aleat´ria X ∼ P oisson(θ).4 e 2. a a (iii) Encontre uma estat´ ıstica suficiente para θ e sua distribui¸˜o. . e 2. (iv) Verifique se o estimador ´ eficiente. a a (ii) Encontre uma estat´ ıstica suficiente para σ 2 .d.

. a o onde xi ´ conhecido. Xn uma amostra aleat´ria da vari´vel aleat´ria X com o a o f.1) e a a ˆ tamb´m ´ n˜o viciado para θ. . X ∼ Bernoulli(θ). Xn uma amostra aleat´ria da vari´vel aleat´ria. Sejam X1 .p. . Obtenha o ENVVUM para θ(1 − θ).11. . . Yn vari´veis aleat´rias independentes onde Yi ∼ N (βxi . ˆe o a o 2. . Sejam X1 . x = 0. . 2 (i) Mostre que o estimador γ = X − 1/n ´ n˜o viciado para g(µ) = µ2 . a e a 2. . ca e a e f (x|θ) = θ(1 − θ)x . . (i) Encontre uma estat´ ıstica suficiente para θ. . .. Sejam Y1 .6. . Xn uma amostra aleat´ria da vari´vel aleat´ria X ∼ o a o N (µ. Sejam X1 . . ˆ e a 2 (ii) Existe ENVVUM para µ ? (iii) Encontre o limite inferior da variˆncia dos estimadores n˜o viciados de a a g(µ) = µ2 e verifique se γ ´ eficiente. . . . Sejam X1 .d.10. isto ´. ∂θ2 2. 1).8.2. Xn uma amostra aleat´ria da vari´vel aleat´ria X com o a o fun¸˜o de densidade (ou de probabilidade) f (x|θ) para a qual as condi¸˜es ca co de regularidade est˜o satisfeitas. 1. x > θ. . .9.5. Seja γ um estimador n˜o viciado para g(θ). Seja f (x|θ) uma fun¸˜o densidade para a qual as condi¸˜es de regularidade ca co est˜o satisfeitas. Xn uma amostra aleat´ria da vari´vel aleat´ria X com o a o distribui¸˜o geom´trica com parˆmetro θ. σ 2 ). . .12. .6 Exerc´ ıcios 33 2. . Mostre que se S ´ um estimador n˜o viciado de θ. as vari´veis Yi n˜o s˜o e a a a identicamente distribu´ ıdas. . θ > 0. ent˜o θ dado por (2. 0 < θ < 1. .. Encontre o ENVVUM para 1/θ. . 2. 2. . Mostre que a E ∂ log f (X|θ) ∂θ 2 = −E ∂ 2 log f (X|θ) . (ii) Baseado nesta estat´ ıstica. i = 1.7. Sejam X1 . e e a 2. . dada por f (x|θ) = e−(x−θ). n. n Sugest˜o: verifique se S 2 = (n−1) X(1 − X) ´ n˜o viciado para θ(1 − θ). . Note que. a 2. obtenha um estimador n˜o viciado para θ.. . 2 ∂ log f (X|θ) nE ∂θ 2. . neste caso. a ˆ a Mostre que (g ′ (θ))2 V ar(ˆ ) ≥ γ .5.

Estimadores Eficientes e Estat´ ısticas Suficientes (i) Encontre uma estat´ ıstica conjuntamente suficiente para β e σ 2 . (ii) Baseado nessa estat´ ıstica. obtenha os ENVVUM para β e para σ 2 .34 2. .

2. N˜o ´ dif´ verificar que o valor de θ que maximiza a fun¸˜o de verossimia e ıcil ca lhan¸a L(θ.2) l(θ.1. a o c˜ com θ ∈ Θ. O segundo m´todo considerado ca ca c e ´ o m´todo dos momentos em que estimadores s˜o obtidos igualando-se os e e a momentos amostrais aos correspondentes momentos populacionais. x) dada por (3. Sejam X1 .1. ´ central na teoria ca c e da verossimilhan¸a. em geral.1. . x).2). c Defini¸˜o 3.1 O M´todo de M´xima Verossimilhan¸a e a c O conceito de fun¸˜o de verossimilhan¸a.1. c˜ c O logaritmo natural da fun¸˜o de verossimilhan¸a de θ ´ denotado por ca c e (3. no caso c e e . x) = i=1 f (xi |θ). ˆ Defini¸˜o 3. x). enunciado a seguir. Neste cap´ ıtulo vamos considerar alguns m´todos que possibilitam a obten¸˜o e ca de estimadores em situa¸˜es espec´ co ıficas. M´todos de Estima¸˜o e ca No cap´ ıtulo anterior consideramos um crit´rio para verificar se determinado e estimador ´ ou n˜o eficiente. . Xn uma amostra aleat´ria de tamanho n da ca o vari´vel aleat´ria X com fun¸ao de densidade (ou de probabilidade) f (x|θ). Contudo tal procedimento n˜o ´ um m´todo que e a a e e possibilita. x) = log L(θ. O primeiro m´todo que consideramos ´ e e o m´todo de m´xima verossimilhan¸a em que estimadores s˜o obtidos a partir e a c a da maximiza¸˜o da fun¸˜o de verossimilhan¸a. A fun¸ao de verossimilhan¸a de θ e c e c˜ c correspondente a amostra aleat´ria observada ´ dada por ` o e n (3.1) L(θ.1.1. x).3. O estimador de m´xima verossimilhan¸a de θ ´ o valor θ ∈ Θ ca a c e que maximiza a fun¸ao de verossimilhan¸a L(θ. tamb´m maximiza l(θ. . Al´m disso. a obten¸˜o de estimadores em situa¸˜es espec´ ca co ıficas. onde Θ ´ o espa¸o param´trico. . 3. Vimos tamb´m que todo bom estimador deve ser fun¸˜o de uma estat´ e ca ıstica suficiente.

x) = √ e− 2 i=1 (xi −µ) .1. 1). o estimador de m´xima verossimilhan¸a n˜o a c a pode ser obtido a partir da solu¸˜o de (3.1. ˆ logo o estimador de m´xima verossimilhan¸a de µ ´ dado por a c e µ= ˆ 1 Xi = X. a fun¸˜o de verossimilhan¸a ´ dada a o ca c e por n n 2 1 1 L(µ.1.1. ∂θ Em alguns exemplos simples. Em situa¸˜es mais complicadas.3) ´ um ponto de m´ximo.1. a e ıcil a Ent˜o X.3) l′ (θ. n i=1 n N˜o ´ dif´ verificar nesse caso que (3. . x) = −n log 2π − 2 n i=1 (xi − µ)2 . x) ˆ |θ=θ < 0. Xn uma amostra aleat´ria da distribui¸˜o da o ca vari´vel aleat´ria X ∼ N (µ. M´todos de Estima¸˜o e ca uniparam´trico onde Θ ´ um intervalo da reta e l(θ. l′′ (θ.8). x) = 0.1. Nesse caso.1. −∞ < µ < ∞}. Sejam X1 . Em tais situa¸˜es. . x) = ∂l(θ. al´m de ser eficiente (Exemplo 2.3.4) ∂ 2 log L(θ. ´ necess´rio verificar se ca ca e a e a (3. segue de (3. ´ tamb´m estimador de m´xima verossimilhan¸a.4) est´ satisfeita.3) que a equa¸˜o de verossimilhan¸a ´ dada por ca c e n i=1 (xi − µ) = 0. ca ca c Exemplo 3. 2π com Θ = {µ. a solu¸˜o da equa¸˜o de verossimilhan¸a pode ser ca ca c obtida explicitamente. o estimador e e e a de m´xima verossimilhan¸a pode ser encontrado como a raiz da equa¸˜o de a c ca verossimilhan¸a c (3.1. .1) e fun¸˜o da estat´ a e ca ıstica suficiente. x) ´ deriv´vel. a solu¸˜o da equa¸˜o co ca ca (3. Para se concluir que a e a solu¸˜o da equa¸˜o (3. x) = ˆ ∂θ2 Em situa¸˜es em que Θ ´ discreto ou em que o m´ximo de l(θ. o m´ximo ´ ca co a e obtido a partir da inspe¸˜o da fun¸˜o de verossimilhan¸a. Como √ 1 l(µ.1. e e a c .3) ser´ em geral obtida por procedimentos num´ricos. .1. x) ocorre na co e a fronteira de Θ (Exemplo 1.36 3.3).

Portanto segue de (3. com Θ = {θ. a fun¸ao de verossimilhan¸a de θ ´ dada por c˜ c e n L(θ.3) n˜o pode ca ca a ser utilizada. x) = i=1 xi log θ + n− xi i=1 log(1 − θ). θ > 0}. temos que o m´ximo de L(θ.1. Por outro lado.3) que a equa¸˜o de verossimilhan¸a de θ ´ dada por ca c e n i=1 xi ˆ θ − (n − n i=1 xi ) ˆ 1−θ n = 0. (3. que ´ uma a e e estat´ ıstica suficiente para θ. x) = 1 I[0. θn onde Θ = {θ. c e Como a fun¸˜o de verossimilhan¸a (3. .2.3. Nesse caso. .3.1.).1.5) L(θ.1. . logo o estimador de m´xima verossimilhan¸a de θ ´ dado por a c e ˆ 1 θ= n Xi . . Exemplo 3.8.1. i=1 pois neste caso.1 O M´todo de M´xima Verossimilhan¸a e a c 37 Exemplo 3. Xn uma amostra aleat´ria da vari´vel aleat´ria o a o X ∼ Bernoulli(θ). Xn uma amostra aleat´ria da vari´vel aleat´ria o a o X ∼ U (0. a equa¸˜o de verossimilhan¸a (3.2.5. θ). x) ´ dado por θ = X(n) .3) n˜o leva ca c a a nenhum estimador para θ. Nesse caso o estimador de m´xima verossimilhan¸a a c de θ ´ viciado (ver Exemplo 1. Nesse caso. Sejam X1 .1.3. podemos escrever a fun¸˜o de ca verossimilhan¸a como c (3. .θ] (x(n) )I[0.4) tamb´m est´ verificada. o gr´fico da fun¸˜o de verossimia ca lhan¸a de θ ´ dado pela Figura 3. Conforme visto no Exemplo 2. e a O exemplo a seguir ilustra uma situa¸˜o em que a equa¸˜o (3. e . De modo que n n l(θ.1. . 0 < θ < 1}. .5) ´ nula para θ < x(n) e vale 1/θn ca c e ˆ para θ ≥ X(n) . x) = θ i=1 xi (1 − θ)n− n i=1 xi . Sejam X1 .1.x(n) ] (x(1) ).1. .

x 3 = 1 3 2 3 2 = 2 4 27 2 . o estimador de m´xima verossimilhan¸a de θ. O exemplo a seguir ilustra bem esse fato. pode ser a c interpretado como o valor de θ que maximiza a probabilidade de se observar a amostra que foi selecionada. e para i = 1. Portanto Θ = ca e {1/3.1. X2 = 0. Sabe-se que a propor¸˜o θ de bolas vermelhas na caixa ´ 1/3 ou 2/3. Fun¸˜o de Verossimilhan¸a ca c L(θ. 2/3}. x) = Pθ [X1 = 1. M´todos de Estima¸˜o e ca Figura 3.x) 1 x(nn ) 0 x(n ) θ ˆ No caso discreto. X3 = 0] = θ(1 − θ)(1 − θ) = θ(1 − θ)2 . θ. Definindo co Xi = 1.x 3 = 2 3 1 3 1 . Exemplo 3. 3. 27 = . uma amostra de n = 3 bolas ca ´ observada com reposi¸˜o e apresenta bola vermelha na primeira extra¸˜o e e ca ca branca na segunda e na terceira extra¸˜es.1. Como L e L 2 . Para obtermos informa¸˜o sobre θ.38 3. se a i-´sima retirada apresenta bola branca.4. Temos uma caixa com bolas brancas e vermelhas. se a i-´sima retirada apresenta bola vermelha e 0. temos que a fun¸˜o de verossimilhan¸a de θ associada ` amostra ca c a observada ´ dada por e L(θ. 2.

que a L(θ.5. x). .θ+1/2] (x1 ) . Fun¸ao de Verossimilhan¸a c˜ c L(θ. . a c a e´ Exemplo 3. Figura 3. . x) = I[θ−1/2. .1. . n. isto ´ a o e f (x|θ) = I[θ−1/2.x) 1 0 x(n)-1/2 x(1)+1/2 θ . 3 3 O exemplo que apresentamos a seguir ilustra uma situa¸˜o em que o estica mador de m´xima verossimilhan¸a n˜o ´ unico.2 apresenta o gr´fico da fun¸˜o L(θ. I[θ−1/2. θ ≤ x(1) + 1/2 e i = 1. . A Figura 3.x > L .2. . . Sejam X1 . Temos.θ+1/2] (xn ) = I[x(n) −1/2. a ca x(n) − 1/2 ≤ θ.x(1) +1/2] (θ).3.x . a c e pois 1 2 L . θ + 1/2). θ > 0. Xn uma amostra aleat´ria da distribui¸˜o da o ca vari´vel aleat´ria X ∼ U (θ − 1/2.1 O M´todo de M´xima Verossimilhan¸a e a c 39 ˆ temos que a estimativa de m´xima verossimilhan¸a de θ ´ dada por θ = 1/3.θ+1/2] (x). pois se e somente se θ − 1/2 ≤ xi ≤ θ + 1/2. . ent˜o. .

at´ que o processo se estabilize. os estimadores de m´xima verossimilhan¸a a c podem ser obtidos por meio de m´todos num´ricos. Em particular. Xn uma amostra aleat´ria da distribui¸˜o da o ca vari´vel aleat´ria X com fun¸˜o de densidade dada por a o ca .7) e assim por diante. o ponto θ em que o processo se estabiliza ´ tomado como o estimador de m´xima verossimilhan¸a de θ. x) .1. U (θ0 ) Da equa¸˜o (3. U (θ) = ∂θ temos que. Exemplo 3. a c ˆ ˆ U (θ) = 0. expandindo U (θ) em s´rie de Taylor em torno de um ponto θ0 .6.1. e a c Em alguns casos. ˆ de modo que.1. e a c Em alguns casos. a substitui¸˜o de U ′ (θj ) em (3. |θj+1 − θj | < ǫ. e a c ˆ X(1) + X(n) θ= 2 ´ um estimador de m´xima verossimilhan¸a de θ. . Vamos denotar por U (θ) a e e fun¸˜o escore. e obtemos ˆ = ˆ 0 = U (θ) ∼ U (θ0 ) + (θ − θ0 )U ′ (θ0 ).7) θj+1 = θj − U (θj ) . x) ´ nula para θ < x(n) − 1/2 e para θ > x(1) + 1/2 e constante e no intervalo [x(n) − 1/2. Em tais casos. Esse m´todo ´ ca e e conhecido como m´todo do escore. ca ∂ log L(θ.7) por E[U ′ (θj )]. para um e ˆ dado ǫ pequeno. chegamos a equa¸˜o ca (3. obtemos o procedimento iterativo (Newton-Raphson) ca (3. temos que qualquer ponto desse intervalo ´ um estimador de m´xima verossimilhan¸a de θ. apresenta significativa simplifica¸˜o no procedimento. Nesse caso. ou seja.40 3.1. .1.1. a fun¸˜o de verossimilhan¸a n˜o apresenta solu¸˜o ca c a ca anal´ ıtica expl´ ıcita. O exemplo a seguir ilustra uma aplica¸˜o e ca de tal procedimento. x(1) + 1/2]. principalmente quando a verossimilhan¸a est´ associada c a a modelos mais complexos. ou seja.6) U (θ0 ) ˆ∼ θ = θ0 − ′ . . U ′ (θj ) que ´ iniciado com o valor θ0 e ent˜o um novo valor θ1 ´ obtido a partir de e a e (3. Sejam X1 . a ca informa¸˜o de Fisher em θj correspondente ` amostra observada multiplicada ca a por −1. . ou seja. ou seja. M´todos de Estima¸˜o e ca Como L(θ. para o estimador de m´xima verossimilhan¸a θ.6).

e ca ca ou seja. Nesse caso. As observa¸˜es ca ca co geradas s˜o dadas na Tabela 3. 2 −1 ≤ x ≤ 1.8) Nesse caso. por ca e IF (θ) = 1 2θ3 log 1+θ 1−θ − 2θ . f (x|θ) = 1 (1 + θx). a (3.1.1. temos que U ∼ U (0. sendo F (X) = U . i=1 n i=1 ∂ log L(θ. ent˜o. 2 2 4 temos que se U ∼ U (0.1. 1 + θxi U (θ) = − ′ i=1 x2 i .11) x= −1 + 2 1/4 − θ(1/2 − θ/4 − u) θ tem distribui¸˜o com fun¸˜o de densidade dada por (3. 4. L(θ. x) = ∂θ n xi .8) com e θ = 0.11) ´ um valor gerado a e partir da distribui¸˜o com fun¸˜o de densidade dada por (3.1. x) = de modo que U (θ) = Assim (1 + θxi ).1. Podemos verificar que a informa¸˜o de Fisher de θ ´ dada. para u ca ca gerado a partir da U (0.1. (1 + θxi )2 de modo que o procedimento iterativo (3. Os dados foram gerados a partir do m´todo da fun¸˜o de distribui¸˜o. 1 2n n −1 ≤ θ ≤ 1.1 O M´todo de M´xima Verossimilhan¸a e a c 41 (3. de modo que um procedimento alternativo a (3. Uma amostra de tamanho n = 20 ´ gerada a partir da densidade (3.1. como x F (x) = −1 1 x + 1 θ(x2 − 1) (1 + θy)dy = + . x obtido a partir de (3.3.1.7) se reduz a (3. 1). ou seja. 1). 1). para θ = 0.1.8).1.9) θj+1 = θj + n xi i=1 1+θj xi x2 n i i=1 (1+θj xi )2 . a .1.10) θj+1 = θj − n xi i=1 1+θj xi nIF (θj ) .9) ´ dado por e (3.8).

1. a L(θ.1. .0349 -0.358745 0.1. 1282.351140 0. Valores de θ obtidos nas 10 itera¸˜es co Itera¸˜o Usando (3. c˜ Xn ) uma estat´stica suficiente para θ.7010 0.351140 9 10 0.9862 -0. M´todos de Estima¸˜o e ca Tabela 3.2 em que a segunda coluna o co corresponde ao procedimento dado em (3.2.351140 0.1.351140 0. a c obtemos. .351140 0.2605 0.351140 3. a Tabela 3.1052 -0. .42 3.7509 -0.3424 0.5313 Escrevendo um programa em Fortran (outra linguagem poderia tamb´m ser e facilmente utilizada) para calcular o estimador de m´xima verossimilhan¸a. ˆ Tabela 3.7435 0. temos que se T ´ suficiente para e ca e θ.1.9793 -0.4077 0. Xn uma amostra aleat´ria da vari´vel aleat´ria o a o X com fun¸ao de densidade (ou de probabilidade) f (x|θ). Ent˜o o estimador de m´xima verossiı a a milhan¸a θ (se existir) ´ fun¸ao de T .351170 0.351140 0. estabelecendo que o estimador de m´xima verossimia c a lhan¸a ´ fun¸˜o de uma estat´ c e ca ıstica suficiente.128188 0. c ˆ e c˜ Prova.351140 8 0.1.10).351328 5 0.1964 0. Seja T = T (X1 .349163 4 0.9704 0. Sejam X1 .2 Propriedades dos Estimadores de M´xima a Verossimilhan¸a c O teorema a seguir apresenta uma propriedade importante dos estimadores de m´xima verossimilhan¸a.351140 0.128188 2 0. .6802 -0. De acordo com o crit´rio da fatora¸˜o. .5234 -0.2.10) ca 1 0. ap´s 10 itera¸˜es do programa. Como valor inicial para o procedimento iterativo foi usado θ0 = X = 0.2139 0. x) = h(x)gθ (T (x)). n = 20 observa¸˜es da densidade (3.351123 6 0. .9) e a terceira coluna corresponde ao procedimento (3.1.8) com θ = 0. 4 co 0. .371861 3 0.3374 -0.351142 7 0.6082 0.351140 0. .351140 0. .9285 -0. Teorema 3.2623 0. ent˜o.9) Usando (3.

ou seja.) uma fun¸˜o real 1 : 1 (invers´ a c ca ıvel) definida em Θ. o estimador de m´xima verossimilhan¸a de g(θ) ´ g(θ). Por outro lado. Xn uma amostra ı a aleat´ria da vari´vel aleat´ria X com fun¸ao de densidade (ou de probabilidade) o a o c˜ ˆe ˆ e f (x|θ). Assim fun¸˜o 1 : 1. Sejam X1 . Provamos o resultado para o caso em que g ´ 1:1. ent˜o g(θ) ´ um a c a estimador de m´xima verossimilhan¸a de g(θ). Se θ ´ um estimador de m´xima verossimilhan¸a de θ. portanto ˆ g(θ) = g(θ).2. . x). de modo que θ = g −1 (g(θ)). . Xn uma amostra aleat´ria de tamanho n da o vari´vel aleat´ria X ∼ Bernoulli(θ). temos que maximar L(θ. . Outras e a ca propriedades s˜o apresentadas nas subse¸˜es seguintes.2) ´ viciado ıcio e para g(θ). De acordo com o Exerc´ 2. Sendo g(. Nesse caso. Como h(x) ´ constante e e com rela¸˜o a θ. temos que g(.1) L(θ. .2.10 temos que o estimador dado em (3. .2. ˆ de modo que θ maximiza os dois lados de (3.3. x) = L(g −1 (g(θ)). a c Prova. Logo ˆ θ = g −1 (g(θ)). temos que θ ser´ obrigatoriamente uma fun¸˜o de T . Teorema 3.2.2.2 Propriedades dos Estimadores de M´xima Verossimilhan¸a a c 43 onde gθ (T (x)) depende de x somente atrav´s de T . Como gθ (T (x)) depende de x somente ca ˆ atrav´s de T . De acordo com o princ´ da invariˆncia.1 Invariˆncia a A seguir apresentamos uma propriedade bastante importante do m´todo de e m´xima verossimilhan¸a.) ´ invers´ ca (3. . temos que ıcio ˆ E[g(θ)] − g(θ) = que decresce ` medida que n aumenta.2) ˆ g(θ) = X(1 − X).1).1. (O princ´pio da invariˆncia. usando o Exerc´ 2. x) com rela¸˜o a θ ´ equivalente a ca ca e maximizar gθ (T (x)) com rela¸˜o a θ. . a 1 θ(1 − θ). a c e ˆ Exemplo 3.2. o parˆmetro de interesse ´ a o a e g(θ) = θ(1−θ).10. temos que o estimador ıpio a de m´xima verossimilhan¸a de g(θ) ´ dado por a c e (3. Seja g(.) Sejam X1 . a co 3.2. n .) uma e e ıvel. .2.

2 Distribui¸˜o em grandes amostras ca No caso em que o tamanho da amostra ´ grande. Al´m disso.3. Nos trˆs exemplos acima. . 1). Xn uma amostra aleat´ria da distribui¸˜o da o ca vari´vel aleat´ria X ∼ Exp(θ) com densidade a o f (x|θ) = θe−θx . Sejam X1 . . −1 ˆ θ > 0 e x > 0. Suponhamos que ´ de interesse estimar e g(θ) = Pθ [X > 1] = e−θ . c e 3.2. . e a c Exemplo 3. .2. temos que o estimador de m´xima a a verossimilhan¸a ´ c e ˆ g(θ) = e−1/X . Sejam X1 .44 3. M´todos de Estima¸˜o e ca Exemplo 3. vimos situa¸˜es em que o estimador de m´xima e co a verossimilhan¸a ´ uma fun¸˜o complicada da amostra observada. e as condi¸˜es de regularidade.2.2. Certamente. . o estimador de m´xima a verossimilhan¸a apresentar´ uma distribui¸˜o aproximadamente normal. em grandes amostras. . veremos que o estimador de m´xima verossimie a lhan¸a ´ eficiente. temos que a (3. De acordo com o princ´ ıpio da invariˆncia. Pelo princ´ ıpio da invariˆncia.3) e (3. θ = X ´ o estimador de m´xima verossimilhan¸a e a c de θ. por exema e a ca plo. Suponhamos que queremos estimar c g(µ) = Pµ [X ≤ 0] = Φ(−µ). . se o tamanho da amostra for grande. temos que a g(ˆ) = Φ(−X) µ ´ o estimador de m´xima verossimilhan¸a de g(µ).4) √ a ˆ n(g(θ) − g(θ)) ∼ N 0.2. . Contudo. Vimos que µ = X ´ o estimador de m´xima a o ˆ e a verossimilhan¸a de µ. Nesse caso. √ a ˆ n(θ − θ) ∼ N 0. (g ′ (θ))2 IF (θ) . e co especificadas no Cap´ ıtulo 2.2. Xn uma amostra aleat´ria da distribui¸˜o da o ca vari´vel aleat´ria X ∼ N (µ. c e ca n˜o ´ uma tarefa f´cil encontrar a distribui¸˜o do estimador Φ(−X). como c a ca veremos adiante. 1 IF (θ) . . est˜o satisfeitas.

Yn uma amostra aleat´ria correspondente a Y ∼ N (µ. Pora a tanto.2. . Xn e Y1 . 3. .1) L(θ.3 Verossimilhan¸a para Amostras Independentes c Existem situa¸˜es em que temos duas ou mais amostras independentes de disco tribui¸˜es que dependem de um parˆmetro θ de interesse.1. temos que √ a ˆ n(g(θ) − e−θ ) ∼ N (0. . De (3. . de modo que o logaritmo da verossimilhan¸a conjunta ´ igual ` soma do logaric e a tmo das verossimilhan¸as correspondentes a cada uma das amostras. Considere o modelo do Exemplo 3. a temos que o estimador de m´xima verossimilhan¸a de e−θ ´ dado por a c e ˆ g(θ) = e−X .2.2. . x)L(θ. x. . . y). Temos ent˜o que. No caso de duas co a amostras aleat´rias independentes. 4) e Y1 . y) = L(θ. temos que o estimador de m´xima verossimilhan¸a a c ´ eficiente. .2. O exemplo c que apresentamos a seguir ilustra uma tal situa¸˜o.2. cujas variˆncias coincidem com os correspondentes a a limites inferiores das variˆncias dos estimadores n˜o viciados de θ e g(θ).3.3. . o .4. De acordo com o princ´ c e ˆ ıpio da invariˆncia. . x. y). x) + l(θ. 9). devido ` independˆncia entre as amostras. Nesse caso. Sejam X1 .3. . temos que o estimador de m´xima verossimia lhan¸a de θ ´ θ = X (verifique!). Portanto a verossimilhan¸a conjunta a e c ´ igual ao produto da verossimilhan¸a correspondente ` amostra X1 . . Yn . De acordo com (3. .2) ´ ca a c e dada por √ a ˆ n(g(θ) − θ(1 − θ)) ∼ N 0. .2.3 Verossimilhan¸a para Amostras Independentes c a 45 onde ”∼”significa distribui¸˜o assint´tica. em grandes amostras. Do resultado (3. y) = l(θ. .4).1). pois g ′ (θ) = 1 − 2θ. ca Exemplo 3. os estimadores de m´xima verossimilhan¸a de θ e g(θ) s˜o aproxia c a madamente n˜o viciados. θe−2θ ). . Sejam X1 . . . podemos escrever o (3. . . . podemos c a escrever l(θ. o a o Exemplo 3. . e Exemplo 3. Xn e c a pela verossimilhan¸a correspondente ` amostra Y1 . . Xn uma amostra aleat´ria da vari´vel aleat´ria X ∼ P oisson(θ). . .5.3. Yn . . temos que a distribui¸˜o do estimador de m´xima verossimilhan¸a (3. (1 − 2θ)2 θ(1 − θ) . para amostras ca o a grandes.1. Xn uma amostra aleat´ria correspondente a o X ∼ N (µ. X1 .4). . .

. 2 2 8 18 i=1 i=1 n m (xi − µ) ˆ (yi − µ) ˆ + = 0. ıstica sufiUsando o crit´rio da fatora¸˜o. temos que a verossimia lhan¸a correspondente ` amostra conjunta ´ dada por c a e (3.3. x)L(µ. O espa¸o param´trico ser´ denotado por Θ. Al´m disso.46 3. Nos casos a c e a em que as condi¸˜es de regularidade est˜o satisfeitas.2) = = 1 √ 2 2π 1 √ 2 2π n L(µ. y) e− n n i=1 (xi −µ)2 8 1 √ 3 2π n i=1 m e− − m i=1 (yi −µ)2 18 1 √ 3 2π m e− (xi −µ)2 8 m i=1 (yi −µ)2 18 . .2) pode ser escrito como e c l(µ. . . y) = n i=1 Xi 4 + m i=1 Yi 9 . y) = − de modo que ∂ log L(µ.3.3.3) T (x. . a verossimilhan¸a depende de co c dois ou mais parˆmetros. θr ). o logaritmo da verossimilhan¸a (3. . M´todos de Estima¸˜o e ca Assumindo que as duas amostras s˜o independentes. . x. x. Nesta se¸˜o vamos consic a ca derar situa¸˜es em que θ = (θ1 . n˜o ´ dif´ verificar que uma estat´ e ca a e ıcil ciente para µ ´ dada por e (3. ou seja. θr podem ser obtidos como solu¸˜o das equa¸˜es c ca co .3.3). 4 9 i=1 m Xi + 1 9 n m 4 + 9 m i=1 Yi . os estimadores de m´xima co a a verossimilhan¸a de θ1 .4 O Caso Multiparam´trico e Nas se¸˜es anteriores discutimos a obten¸˜o dos estimadores de m´xima co ca a verossimilhan¸a e estudamos suas propriedades no caso em que a fun¸˜o de c ca verossimilhan¸a depende apenas de um parˆmetro. y) = L(µ. 3. . Podemos notar que o estimador de m´xima verossimilhan¸a ´ fun¸˜o da esa c e ca tat´ ıstica suficiente dada em (3. y) = ∂µ cuja solu¸˜o ´ dada por ca e µ= ˆ 1 4 n i=1 n i=1 m (xi − µ)2 (yi − µ)2 n log 8π − log 18π − − . x.

ou seja. Xn uma amostra aleat´ria da vari´vel aleat´ria o a o X ∼ N (µ. 2 2πσ de modo que l(µ. temos agora ca c uma fun¸˜o apenas de θ2 . . x) pode. Portanto o logaritmo da verossimilhan¸a perfilada ˆ de σ 2 ´ dada por e n 1 g(σ .4 O Caso Multiparam´trico e 47 ∂ log L(θ. . x). logo o estimador de m´xima verossimilhan¸a de σ 2 ´ obtido como solu¸˜o da a c e ca equa¸˜o ca .3. x) = l(θ1 (θ2 ). θ2 . utilizando a equa¸˜o a ca ∂ log L(θ1 . ∂θ1 obtemos uma solu¸˜o para θ1 como fun¸˜o de θ2 . onde µ e σ 2 s˜o desconhecidos. ou seja. a e ca quando poss´ ıvel. . ser feita de maneira usual. o estimador de m´xima verossimilhan¸a ´ a a c e em geral obtido inspecionando o gr´fico da fun¸˜o de verossimilhan¸a. . θ1 e θ2 . x) = 0. A maximiza¸˜o a c ca de g(θ2 . ca ˆ g(θ2 .1. ent˜o. Exemplo 3. . atrav´s de deriva¸˜o. conhecida como verossimilhan¸a perfilada de θ2 que pode ser usada para que o c estimador de m´xima verossimilhan¸a de θ2 possa ser obtido. como no a ca c caso uniparam´trico. x) = − log 2πσ 2 − 2 2 2σ 2 n i=1 (xi − x)2 . Temos. . σ 2 . a a com n/2 n (xi −µ)2 1 L(θ. ent˜o. Nos casos em que a fun¸˜o de verossimilhan¸a depende e ca c de dois parˆmetros. . x) = − Assim n (xi − µ)2 log 2πσ 2 − . σ 2 ). que θ = (µ. Substituindo a solu¸˜o para θ1 na verossimilhan¸a conjunta. ∂θi i = 1. . θ2 . x) = 0. Nos casos em que o suporte da distribui¸˜o de X depende de θ ou ca o m´ximo ocorre na fronteira de Θ.4. que podemos denotar por ca ca ˆ θ1 (θ2 ). σ 2 . σ 2 ). r. 2 2σ 2 i=1 n n ∂l(µ. Sejam X1 . x) (xi − µ) ˆ =2 =0 2 ∂µ 2σ i=1 c que leva ao estimador µ = X. x) = e− i=1 2σ2 .

x. Ym uma amostra aleat´ria de Y ∼ N (µy . σ 2 ). x. fun¸˜o e a ca da estat´ ıstica suficiente e outras.4. ˆ (yi − µy ) = 0 ˆ cuja solu¸˜o apresenta os estimadores ca . σ 2 ). µy e σ 2 . x) n (xi − x)2 =− 2 + =0 ∂σ 2 2ˆ σ 2ˆ 4 σ i=1 que leva ao estimador σ2 = ˆ 1 n n i=1 n (Xi − X)2 . y) com rela¸˜o a µx .48 3. as mesmas propriedades como invariˆncia. . x. Derivando l(θ. Portanto a verossimilhan¸a correspondente ` amostra observada ´ e c a dada por L(θ. y) (m + n) 1 1  =− + 4 (xi − µx )2 + ˆ (yj − µy )2 = 0. O mesmo se aplica ao caso de v´rias amostras independentes. x. . por µ=X= ˆ 1 n n Xi i=1 e σ2 = ˆ 1 n n i=1 (Xi − X)2 . Sejam X1 . . θ = o (µx . M´todos de Estima¸˜o e ca ∂g(σ 2 . continuam valendo. conforme ilustra o exemplo a seguir. a c a respectivamente. . 2 2 2σ 2 2σ 2 i=1 i=1 n m 1 √ 2πσ n 1 √ 2πσ m e− 2σ2 1 n i=1 1 (xi −µx )2 − 2σ2 m i=1 (yi −µy )2 . chegamos `s equa¸˜es ca a co ∂l(θ. ˆ  ∂σ 2 2 σ2 ˆ 2ˆ  i=1 σ j=1 n i=1 m j=1 (xi − µx ) = 0. µy . y) = ∂µx ∂l(θ. de modo que os estimadores de m´xima verossimilhan¸a de µ e σ 2 s˜o dados.2. . . x. y) = ∂µy e   n m  ∂l(θ. . a Exemplo 3. Xn uma amostra aleat´ria de X ∼ N (µx . No caso multiparam´trico. Nesse caso. y) = logo l(θ. . σ 2 ) o e Y1 . y) = − (n + m) (m + n) (xi − µx )2 (yi − µy )2 log 2π− log σ 2 − − . x.

1. . ent˜o o estimador de m´xima verossimilhan¸a de θ co a a c baseado na amostra X = (X1 . ocorrendo nas propor¸˜es de Hardy-Weinberg co p(1. . p(3. . temos que a fun¸˜o de e ca verossimilhan¸a correspondente ´ dada por c e L(θ. . . Em geral. Consideremos uma popula¸˜o com 3 tipos de indiv´ ca ıduos denominados (rotulados) 1. Para uma amostra de n = 3 indiv´ e ıduos. Esse resultado pode ser estendido para o caso k-param´trico em que e co os estimadores de m´xima verossimilhan¸a de θ1 . de modo que de (3. . n2 . . 3. onde x1 = 1 significa que o primeiro indiv´ ıduo observado ´ do e tipo 1. Exemplo 3. l′ (θ. . temos que . θk seguem como solu¸˜es a c das equa¸˜es co (3. e 3. .2) j = 1. p(2. x2 = 2 significa que o segundo indiv´ ıduo observado ´ do tipo 2 e x3 = 1 e significa que o terceiro indiv´ ıduo observado ´ do tipo 1. 0 < θ < 1. . . θ)p(2.1) E[T (X)] = T (X).5 Fam´ Exponencial e o M´todo de M´xima Verossimilhan¸a ılia e a c 49 µx = X. . θ) = 2θ(1 − θ). xn } iguais a 1.3). sendo n1 . Por exemplo.3. . 2. 2 e 3.5. x) = p(1. ˆ e σ2 = ˆ n i=1 (Xi µy = Y ˆ m j=1 (Yj − X)2 + m+n − Y )2 . desde que a solu¸˜o perten¸a ao espa¸o param´trico correspondente ao parˆca c c e a metro θ. x) < 0).1. respectivamente.5. se x1 = 1. . θ) = (1 − θ)2 . para uma amostra de n indiv´ ıduos. θ) = θ2 . E[Tj (X)] = Tj (X). n3 o n´ mero de elementos de u {x1 . k. θ) = θ2 significa que a probabilidade de se observar um indiv´ ıduo do tipo 1 ´ θ2 . x) = 1 5 − =0 ˆ ˆ θ 1−θ ˆ ˆ leva ao estimador θ = 5/6 (verifique que l′′ (θ.5 Fam´ Exponencial e o M´todo de M´xima ılia e a Verossimilhan¸a c Se a distribui¸˜o da vari´vel aleat´ria X pertence ` fam´ exponencial unidica a o a ılia mensional de distribui¸˜es. θ) = 2θ5 (1 − θ). . .5. θ)p(1. x2 = 2 e x3 = 1. Xn ) ´ solu¸˜o da equa¸˜o e ca ca (3. p(1.

O m´todo dos momentos consiste na e e obten¸˜o de estimadores para θ = (θ1 . θk ) resolvendo-se as equa¸˜es ca co mr = µr . o r-´simo momento amostral de uma amostra aleat´ria X1 . .5. E[T3 ] = 2 2 a nµ2 + nσx . r = 1. Consideremos novamente o problema da estima¸˜o do n´ mero ca u de t´xis em uma cidade. 2 2 2 2 2 2 Como E[Xi ] = µx . e e e ca Esse m´todo tem sido utilizado desde o s´culo XVIII. Sendo N o n´ mero de t´xis. i = 1. σx . segue que E[T1 ] = nµx .50 3. Exemplo 3. T3 . . T5 = i=1 Xi Yi .2. o 3. em que ´ obtida a ca e n n estat´ ıstica suficiente T = (T1 . . n n n 2 2 2 2 T3 = i=1 Xi . M´todos de Estima¸˜o e ca L(θ. n. x) = 2n2 θ2n1 +n2 (1 − θ)2n3 +n2 = 2n2 θ 1−θ 2n1 +n2 (1 − θ)2n . E[Yi ] = µy . Xn .5. T2 . T4 = i=1 Yi . k. . . .6 O M´todo dos Momentos e O m´todo dos momentos ´ um dos m´todos de estima¸˜o mais simples e antigos. i=1 r ≥ 1. E[T2 ] = nµy . Y1 ). Seja e o µr = E[X r ]. . T2 = i=1 Yi . . σy . E[T4 ] = nµ2 + nσy e E[T5 ] = nµx µy + nρσx σy . Ent˜o c(θ) = log(θ/(1 − θ)) e T (X) = 2N1 + N2 de modo que a E[T (X)] = E[2N1 + N2 ] = 2nθ2 + 2nθ(1 − θ) = 2nθ.2). . Exemplo 3. .6. ρ). Yn ) uma amostra aleat´ria o da distribui¸˜o normal bivariada dada no Exemplo 2. . . . com T1 = i=1 Xi . .6) e (2. (Xn . x y temos que o estimador de m´xima verossimilhan¸a de θ tem componentes dadas a c pelas express˜es (2.1) torna-se ca ˆ 2N1 + N2 = 2nθ ˆ que produz o estimador θ = (2N1 + N2 )/2n. E[Yi ] = µy + σy e E[Xi Yi ] = µx µy + ρσx σy . Seja e e mr = 1 n n Xir . Consideremos (X1 . Assim a equa¸˜o (3. .1.4. . T4 .4. . para θ = (µx .4.4.7). ent˜o de (3. o r-´simo momento populacional. vimos que a u a . . r ≥ 1. µy . E[Xi ] = µx + σx .5. . . T5 ).

2. β β temos que estimadores para α e β s˜o obtidos como solu¸˜o das equa¸˜es a ca co E[X] = 1 α ˆ = ˆ n β e n Xi i=1 n α2 ˆ α ˆ 1 + = ˆ2 ˆ2 n β β 2 Xi2 i=1 que fornece os estimadores (3.1). podemos e utilizar os estimadores dados por (3. Como valores iniciais para esses m´todos computacionais.6. Como o primeiro momento e u e a populacional ´ dado por e P [Xi = k] = N +1 . i=1 Xi ). M´todos e computacionais como o m´todo do escore considerado na Se¸˜o 3. n˜o ´ poss´ ˆ i=1 mos estimadores de m´xima verossimilhan¸a expl´ a c ıcitos para α e β. α α e V ar[X] = 2 . Γ (α) x > 0. utilizando-se os primeiros momentos populacional e amostral. Exemplo 3. nesse caso. . . . N. Notemos tamb´m que os estimadores e dados por (3. σ2 ˆ e X ˆ β = 2.3.6 O M´todo dos Momentos e 51 1 . ´ dado pela solu¸˜o da equa¸˜o e ca ca µ1 = E[X] = ˆ N +1 = X. Notemos que. .6. com densidade gama com parˆmetros α e β dados por a o a f (x|α. o estimador obtido pelo m´todo dos momentos n˜o ´ e a e fun¸˜o da estat´ ca ıstica suficiente X(n) . .6. . Sejam X1 . que n n nesse caso ´ dada por ( i=1 Xi . Xn uma amostra aleat´ria da distribui¸˜o da o ca vari´vel aleat´ria X.1) α= ˆ X . β > 0. como antes.6. β) = Como β α xα−1 e−βx . . e .1 devem ser e ca utilizados.1) n˜o s˜o fun¸˜es da estat´ a a co ıstica conjuntamente suficiente. . 2 temos que um estimador para N . α > 0. σ ˆ a e ıvel obteronde σ 2 = n (Xi − X)2 /n. Nesse caso. k = 1. N onde Xi ´ o n´ mero do i-´simo t´xi observado. 2 de onde segue que ˆ N = 2X − 1.

Sejam X1 . .7 Estimadores Consistentes Os m´todos de estima¸˜o considerados nesta se¸˜o produzem. .1.2. Xn uma amostra aleat´ria da distribui¸ao da ca o c˜ vari´vel aleat´ria X que depende do parˆmetro θ. σ2 . . . em geral. Xn uma amostra aleat´ria de tamanho n da o distribui¸˜o da vari´vel aleat´ria X com m´dia θ e variˆncia σ 2 . Consistˆncia est´ ligada ao conceito de convergˆncia em probabilidae a e de (veja James. Temos. estie ca ca madores consistentes.7. .1. e limn→∞ P (|X − θ| > ǫ) = 0. se.1. .52 3. a c 3. 1981).1981) para a verifica¸˜o dessa propriedade. . . . . . e a ˆ limn→∞ P (|θ − θ| > ǫ) = 0. . Xn uma amostra aleat´ria de tamanho n da vari´vel o a aleat´ria X com fun¸˜o de densidade de probabilidade dada por o ca f (x|θ) = θxθ−1 . x ≥ θ. . Encontre o estimador de m´xima verossimilhan¸a de θ e de Eθ [1/X]. . nǫ2 3. Sejam X1 . . Xn uma amostra aleat´ria da vari´vel aleat´ria X com o a o fun¸˜o de densidade de probabilidade ca f (x|θ) = θ . . . θ > 0.8 Exerc´ ıcios 3. usamos a desigualdade de Chebyshev (veja James. M´todos de Estima¸˜o e ca 3. x2 θ > 0. (ii) Encontre a distribui¸˜o aproximada dos estimadores em (i) quando n ´ ca e grande. usando ca a o e a a desigualdade de Chebyshev. ` medida que o tamanho da amostra aumenta. . os a estimadores ficam t˜o pr´ximos do parˆmetro que est´ sendo estimado quanto a o a a desejado. ou seja. Dizemos que o estimador a o a ˆ ˆ θ = θ(X1 . (i) Encontre os estimadores de m´xima verossimilhan¸a de θ e de g(θ) = θ/(1 + a c θ). ca Exemplo 3. Xn ) ´ consistente para o parˆmetro θ. Sejam X1 . Em geral. .7. 0 < x < 1. que P (|X − θ| > ǫ) ≤ de modo que e portanto X ´ consistente para θ. . Defini¸˜o 3. Sejam X1 . .

Seja n1 : e e e u o n´ mero de vezes que “0” ocorre. . “1” e “2”. β > 0. favor´vel. considerado no Exemplo 3.2. (i) Encontre. n2 : o n´ mero de vezes que “1” ocorre e n3 : u o n´ mero de vezes que o “2” ocorre.9. .4. uma estat´ ca (ii) Encontre o estimador de m´xima verossimilhan¸a de θ. . . .5. Xn uma amostra aleat´ria de tamanho n da vari´vel o a aleat´ria X com fun¸˜o de densidade de probabilidade dada por o ca f (x|θ) = θ(θ + 1)xθ−1 (1 − x). a probabilidade da e ocorrˆncia do resultado “1” ´ p2 = 1/2 e do resultado “2” ´ p3 = θ/2. . . 1). Encontre o estimador de m´xima verossimilhan¸a de g(µ) = Pµ [X > 0] a c e sua distribui¸˜o aproximada quando n ´ grande. a Suponhamos que a probabilidade de “0” ´ p1 = (1 − θ)/2. ca e 3.9 a c ıcio e compare seu erro quadr´tico m´dio com o do estimador eficiente γ dado no a e ˆ Exerc´ 2.8. um estimador para θ. Sejam X1 . (ii) Encontre o estimador de m´xima verossimilhan¸a de V ar[X] e encontre a c sua distribui¸˜o aproximada em grandes amostras. Encontre o estimador de m´xima verossimilhan¸a de θ2 no Exerc´ 2.9.6. como fun¸˜o de n1 . a c 3. Considere uma amostra aleat´ria de tamanho n da distribui¸˜o da vari´vel o ca a aleat´ria X onde cada observa¸˜o apresenta um de trˆs resultados poss´ o ca e ıveis (por exemplo. . a c 3. Sejam X1 . Xn uma amostra aleat´ria de tamanho n da vari´vel X com o a fun¸˜o de densidade de probabilidade dada por ca 1 (x−α) −e f (x|θ) = e− β e β − (x−α) β . Xn uma amostra aleat´ria de tamanho n da vari´vel o a aleat´ria X com fun¸˜o de densidade de probabilidade dada por o ca f (x|θ) = x −x/θ e . . . −∞ < x < ∞. u ıstica suficiente para θ. 0 ≤ x ≤ 1. 3. que denotamos por “0”. usando o m´todo dos momentos.2. n3 . θ > 0. contra e indiferente). (i) Encontre. . (i) Encontre o estimador de m´xima verossimilhan¸a de θ e verifique se ele ´ a c e eficiente. . . ıcio 3. . (i). e (ii) Encontre o estimador de m´xima verossimilhan¸a de θ e sua distribui¸˜o a c ca aproximada em grandes amostras. θ2 x ≥ 0. Sejam X1 . θ > 0. Xn uma amostra aleat´ria da vari´vel aleat´ria X ∼ o a o N (µ.8 Exerc´ ıcios 53 3.7. −∞ < α < ∞. . Sejam X1 . . . Encontre a distribui¸˜o aproximada para grandes amostras do estimador ca de m´xima verossimilhan¸a de Φ(−θ).3.3. n2 . ca 3.

. (ii) Obtenha um estimador para θ usando o m´todo dos momentos. A partir desta amostra. ca (ii) Discuta a obten¸˜o do estimador de m´xima verossimilhan¸a para β. M´todos de Estima¸˜o e ca (i) Encontre a distribui¸˜o de Y = eX . ca 3. . . σ 2 ). (i) Suponha que a seja conhecido. Xn uma amostra aleat´ria da vari´vel aleat´ria X com o a o distribui¸˜o exponencial com parˆmetro θ.7 supondo agora que p1 = θ2 . . Encontre o estimador de m´xima ca a a verossimilhan¸a de g(θ) = P [X > 1] e sua distribui¸˜o aproximada quando n c ca for grande. a) = θaxa−1 e−θx . x.14. Sejam X1 . . a. (iii) Encontre estat´ ısticas conjuntamente suficientes para α e β. . obtenha estimadores a . 3. Usando o procedimento iterativo em (ii). e 3. . θ(θ + 1) x > 0.13. . (i) Encontre o estimador de m´xima verossimilhan¸a para θ e sua distribui¸˜o a c ca em grandes amostras.54 3. p2 = 2θ(1 − θ) e 2 p3 = (1 − θ) . . Proponha um procedimento iterativo c a para encontrar os estimadores de m´xima verossimilhan¸a dos dois parˆmetros. Sejam X1 . Xn uma amostra aleat´ria de tamanho n da vari´vel o a aleat´ria X com fun¸˜o de densidade de probabilidade o ca f (x|θ) = (x + 1) −x/θ e . . . 3. Encontre as equa¸˜es de a co verossimilhan¸a para os dois parˆmetros. Encontre o estimador de m´xima verossimilhan¸a de σ e sua disa c tribui¸˜o em grandes amostras. (v) Usando (i). gere uma amostra aleat´ria de tamanho n =20 da vari´vel o a aleat´ria Y . obtenha uma amostra de tamanho n=20 o para a vari´vel aleat´ria X e usando um programa de computador.11. . a c 3. (iv) Discuta a obten¸˜o dos estimadores de m´xima verossimilhan¸a para α e ca a c β e verifique se s˜o fun¸˜es das estat´ a co ısticas obtidas em (iii). . c ca (ii) Suponha agora que θ e a s˜o desconhecidos. θ > 0. a c a Discuta a implementa¸˜o do procedimento no computador. Xn uma amostra aleat´ria da vari´vel aleat´ria X com o a o fun¸˜o de densidade de probabilidade Weibull dada por ca f (x|θ. Sejam X1 . Refa¸a o Exerc´ c ıcio 3. Sejam X1 . obtenha os a o estimadores de m´xima verossimilhan¸a de α e β. .12. ca (iii) Gere uma amostra com n = 10 elementos da distribui¸˜o de X assumindo ca que a = θ = 1. θ > 0. .10. ca a c quando α = 0. . Encontre o estimador de m´xima verossimia lhan¸a de θ e sua distribui¸˜o aproximada para quando n for grande. Xn uma amostra aleat´ria de tamanho n da distribui¸˜o o ca N (0.

.15.20. .2. n. Sejam Y1 . Verifique se os estimadores obtidos nos Exemplos 3. Verifique que os estimadores de m´ incidem com os estimadores de m´xima verossimilhan¸a de α e β.2.16. a c 3. . . Defina o crit´rio correspondente para obter os estimadores de m´ e ınimos quadrados para o modelo do Exerc´ 3. os estimadores de α e β obtidos ıcio atrav´s do m´todo de m´ e e ınimos quadrados minimizam a soma de quadrados n 2 ınimos quadrados coi=1 (Yi − α − βxi ) . i = 1.19.1. . ıcio .1.3.3 e 3. Yn vari´veis aleat´rias independentes com Yi ∼ N (βxi . No caso do modelo do Exerc´ 3. onde xi > 0 ´ conhecido.6. Yn vari´veis aleat´rias independentes com Yi ∼ N (α + a o βxi . σ 2 ). onde xi ´ conhecido. Encontre os estimadores de m´xima e a verossimilhan¸a de α. n.2 s˜o consistentes. . 3.1.18.12. 3.21.17. . a c 3. . . 3.2. . Obtenha os estimadores de m´xima verossimilhan¸a de β e σ 2 no modelo a c de regress˜o dado no Exerc´ 2. .18. i = 1. a ıcio 3. .8 Exerc´ ıcios 55 de m´xima verossimilhan¸a de a e de θ. a o σ 2 xi ).19. Obtenha a informa¸˜o de Fisher IF (θ) no Exemplo 3. Sejam Y1 . . c 3. . β e σ 2 . 3. . ca 3. . Compare as estimativas com os valores a c usados para simular a amostra. a 3.6. Encontre os estimadores de e m´xima verossimilhan¸a de β e σ 2 .3.1.

.

em geral. o (iii) uma fun¸˜o d : X → A. sendo o objea o tivo principal a minimiza¸˜o da fun¸˜o de risco. Introdu¸˜o ` Teoria das Decis˜es. em que X ´ o ca ca a e espa¸o amostral associado a uma vari´vel aleat´ria X correspondente a um exc a o perimento idealizado pelo estat´ ıstico para “espionar” (obter informa¸˜es) sobre co a escolha de θ feita pela natureza. e . representado por uma distribui¸˜o de proo ca babilidade. O primeiro ´ o proe cedimento minimax. denominada fun¸˜o de decis˜o. outros crit´rios para a obten¸˜o de procedimentos ´timos s˜o necess´rios. em que o estat´ ıstico procura precaver-se contra o risco m´ximo. n˜o ´ poss´ ca ca a e ıvel a obten¸˜o de um procedimento que minimize a fun¸˜o de risco uniformemente ca ca em θ. dentre as quais destacamos a perda quadr´tica. (ii) um conjunto n˜o vazio A das poss´ a ıveis ac˜es que podem ser tomadas pelo o estat´ ıstico.4. em que os advers´rios s˜o o estat´ a a ıstico e a natureza. assumindo que a natureza e ca a utiliza um procedimento aleat´rio.1 Os Elementos B´sicos a Os elementos b´sicos de um problema de decis˜o s˜o: a a a (i) um conjunto n˜o vazio Θ dos poss´ a ıveis estados da natureza que na verdade representa o espa¸o param´trico. para escolher um valor para θ. Seja D o conjunto (ou classe) das poss´ ıveis fun¸˜es de decis˜o. o estat´ co a ıstico procura um procedimento que seja “melhor”. em geral. A = Θ. Nessa classe. Em primeiro lugar. Solu¸˜es gerais s˜o apresentadas co a para o estimador de Bayes com respeito a alguns tipos especiais de fun¸˜es de co perda. apresentamos os elementos b´sicos da teoria das decis˜es. No caso de ca problemas de testes de hip´teses. No caso de problemas de estima¸˜o. geralmente A consiste nas a¸˜es de se aceitar o co ou rejeitar uma hip´tese formulada. A natureza escolhe para θ um valor nesse c e conjunto. Como. e ca o a a Dois desses procedimentos s˜o discutidos neste cap´ a ıtulo. a 4. segundo algum crit´rio. Os ca a o problemas usuais de estima¸˜o e testes de hip´teses s˜o vistos pela ´tica da teoca o a o ria dos jogos. ca a o Os Princ´ ıpios Minimax e de Bayes Neste cap´ ıtulo apresentamos uma breve introdu¸˜o ` teoria das decis˜es. A seguir apresentamos o princ´ a ıpio de Bayes em que a caracter´ ıstica principal ´ a formula¸˜o do problema de decis˜o.

e (b) l(θ.3) est˜o satisfeitas para todos os procedia mentos d2 em uma certa classe D de procedimentos.1. ca Defini¸˜o 4. quando a a¸˜o correta ´ tomada. Introdu¸˜o ` Teoria das Decis˜es ca a o (iv) uma fun¸˜o real l(θ. Como n˜o ´ poss´ a e ıvel a implementa¸˜o de procedimentos que minimizem ca diretamente a fun¸˜o de perda. d2 ). o ca e estat´ ıstico procura minimizar a fun¸˜o de risco. d1 ) ≤ R(θ. r > 0. No caso cont´nuo. tendo as perdas em (i) e (ii) como casos e particulares. definida em Θ × A.2) para todo θ.1. a) ´ dada por a c˜ e (4. que ´ uma perda mais geral. a) = a a (θ − a)2 .58 4. pois essa depende de θ. comumente conhecida como perda quadr´tica. d(x))f (x|θ). que ´ desconhecido.1. a ∈ A. A fun¸ao de risco correspondente ao procedimento (fun¸ao ca c˜ c˜ de decis˜o) d e a fun¸ao de perda l(θ.1. f (x|θ) corresponde a fun¸˜o de verossimilhan¸a da amostra ` ca c observada (ver Defini¸˜o 3.3) para algum θ. ou seja. R(θ. d) = E[l(θ. quando a = θ.2. . conforme definido a seguir. ı Em (4. e ´ fun¸˜o do parˆmetro θ. (ii) l(θ. e c e ca a Podemos ent˜o comparar procedimentos mediante ` utiliza¸˜o da fun¸˜o de a a ca ca risco. No caso em que (4. ca e Portanto a fun¸˜o l(θ. definida a seguir. a) = |θ − a|. a). d1 ) < R(θ. ent˜o dizemos que d1 ´ o a e R(θ.1. a) = 0. a) ≥ 0. c(θ) > 0.1. Dizemos que um procedimento d1 ´ melhor que um procedica e mento d2 . Portanto a fun¸˜o de risco nada mais ´ do ca ca e que a perda m´dia sobre o espa¸o amostral X .2) e (4.1). Algumas fun¸˜es ca e co de perda comumente empregadas em problemas de decis˜o s˜o: (i) l(θ. a) = c(θ)|θ − a|r .1. quando (4. para todo θ ∈ Θ. e (4.1. no caso discreto.1. d(X))] = {x∈X } l(θ.1) R(θ.1). que ser´ chamada de fun¸˜o ca a ca de perda e que satisfaz `s seguintes propriedades: a (a) l(θ.1. d2 ). a conhecida como perda do valor absoluto e (iii) l(θ. a) representa a perda incorrida pelo estat´ ca ıstico ao tomar a a¸˜o a quando θ ´ a escolha feita pela natureza. o somat´rio na express˜o acima ´ subı o a e stitu´do por uma integral definida em X . Defini¸˜o 4.

d3 (0) = 2/3. d(1))Pθ [X = 1]. Suponha que uma moeda apresenta cara com probabilidade ´ θ igual a 1/3 ou 2/3. o estat´ c co ca ıstico faz um lan¸amento da moeda e observa a vari´vel aleat´ria X que denota c a o o n´ mero de caras obtidas no lan¸amento. Considerando a fun¸˜o de perda do valor absoluto l(θ.2) e (4. Em situa¸˜es como essa. e ıvel d2 ´ prefer´ e ıvel. d(0))Pθ [X = 0] + l(θ. Al´m disso. Portanto. e como a ca distribui¸˜o de X ´ discreta. 2/3}.1.1 Figura 4.4. temos que. Portanto. enquanto que para outros valores de θ.1 Os Elementos B´sicos a 59 melhor procedimento em D. n˜o existe um procedimento que seja melhor a para todos os valores de θ. O espa¸o amostral associado ao u c c experimento ´.1. d2 (0) = 1/3. ca Exemplo 4. ca e R(θ. estando as condi¸˜es (4. d1 . ou seja. d4 (0) = 2/3. Nesse caso. d2 (1) = 1/3. d4 (1) = 1/3. d3 (1) = 2/3. ca Figura 4.d) R(θ. onde Pθ [X = 1] = θ = 1 − Pθ [X = 0]. portanto.1.1.1.d) d2 d2 d1 d1 0 θ 0 θ Contudo. temos que . Para obter informa¸˜o sobre θ. em geral. 1}. a) = |θ − a|. temos a situa¸˜o da Figura 4. outros crit´rios devem ser co e utilizados para se decidir sobre um procedimento em certa classe D.2 R(θ. d2 . para θ = 1/3. 2/3}. d) = l(θ. O exemplo que apresentamos a seguir ilustra uma tal situa¸˜o. ocorre a situa¸ao da Figura 4.2. E ent˜o adequado tomar como a espa¸o das a¸˜es A = {1/3. Graficamente. que s˜o dadas por co a d1 (0) = 1/3. d3 e d4 . em que o procedimento c˜ d1 ´ prefer´ para alguns valores de θ.3) e co satisfeitas. em geral. temos que o procedimento d2 ´ dito ser inadmiss´ e ıvel. Θ = {1/3. podemos definir ent˜o quatro e a a fun¸˜es de decis˜o. X = {0. d1 (1) = 2/3.

Resumindo os c´lculos acima.2/3 + 1/3.1.1/3 + l(2/3. d1 ) = l(2/3.2/3 + 1/3. se sup R(θ. d0 ) = inf sup R(θ.1/3 = 2/9.2/9 = 0. de modo que d4 ´ inadmiss´ e ıvel.1/3 = 0. d1 ) < R(θ.2.1. d2 ) = 0.2/3 = 1/9. R(1/3.1. para θ = 2/3. d1(0)). para θ = 1/3 e θ = 2/3. d2 ) = 1/3. d1(1)).1/3 + 0. a Defini¸˜o 4. temos que R(2/3. d1(0)).1/3 = 1/9.1/3 + 1/3. a .1/3 = 1/3. R(1/3. d4 ) = 0. Introdu¸˜o ` Teoria das Decis˜es ca a o R(1/3. Riscos de d1 .2/3 = 1/3. Dizemos que o procedimento d0 ´ um procedimento minimax ca e numa classe D de procedimentos.2/3 = 2/9.1.1/3 = 0. d) d1 1/9 1/9 1/9 d2 0 1/3 1/3 d3 1/3 0 1/3 d4 2/9 2/9 2/9 Da Tabela 4.1/3 + 0. temos a ca situa¸˜o da Figura 4.2 O Princ´ ıpio Minimax Conforme mencionado na introdu¸˜o. ca e 4. d3 . θ∈Θ d∈D θ∈Θ Conforme notamos a partir da Defini¸˜o 4. d2 e d3 . R(2/3. Por outro lado. a Tabela 4. d1(1)). d4 d θ = 1/3 θ = 2/3 maxR(θ. o princ´ minimax compara ca ıpio simplesmente o m´ximo dos riscos dos procedimentos. de maneira similar.1/3 + 1/3. d2 .1 podemos concluir que R(θ. Com rela¸˜o a d1 .2. d4 ) = 1/3. d4 ). em que nenhum procedimento ´ melhor para todo θ. d).2.2/3 = 1/3.2/3 + 0. d3 ) = 1/3.60 4.2/3 + l(1/3. o procedimento minimax ´ o procedica e mento que protege o estat´ ıstico contra o risco m´ximo. d3 ) = 0. R(2/3.2/3 + 0. R(1/3. R(2/3. d1 ) = l(1/3. temos a Tabela 4.

4.1) ´ uma fun¸˜o linear em θ e θ > 0. . a) = que R(θ. ∞). max R(θ. d(X))] =E (θ − cX)2 1 = E[c(X − θ) + θ(c − 1)]2 θ θ = c2 + θ(c − 1)2 . temos que R(θ. Vimos ca que o procedimento d4 ´ inadmiss´ e ıvel. d) dado em (4. θ∈Θ Portanto.2.3 O Princ´ ıpio de Bayes Nesta se¸˜o consideramos que a natureza utiliza um mecanismo aleat´rio para ca o escolher um valor para o parˆmetro θ. d) = 1.2. nesse caso.}. .1.3. pois. Consideremos novamente a situa¸˜o do Exemplo 4. d) = 1. d) ´ dado por e r(π. (θ − a)2 . com X = {0.1. O risco de Bayes do procedimento d. representada por π(θ). e Exemplo 4. temos ca a seguinte defini¸˜o. Portanto consideramos A = Θ = ca a (0. d) = E[l(θ. com rela¸ao a perda ca c˜ ` l(θ. d2 e ca d3 . Com rela¸˜o a priori π.2. e 4.1. . d) tem m´ximo finito somente quando c = 1. na classe D.3 O Princ´ ıpio de Bayes 61 Exemplo 4. 2. d(X) = X ´ o procedimento minimax.1 que o procedimento d1 apresenta o menor risco m´ximo a e. Com rela¸˜o aos procedimentos d1 . R(θ. ´ o procedimento minimax nesse caso.1. a para todo θ. Considerando a classe das fun¸˜es de decis˜o co a D = {d. Seja X uma unica observa¸˜o de uma vari´vel aleat´ria X ´ ca a o com distribui¸˜o de Poisson com parˆmetro θ. com rela¸˜o a fun¸˜o de perda ca ca l(θ. d)] .1) e ca Como R(θ.2. d(X) = cX}. para um procedimento d e em D.2. ca Defini¸˜o 4. temos. temos da Tabela 4. ou seja. 1. quando c = 1. d) = Eπ [R(θ. portanto. no caso discreto). onde c ´ uma constante. θ (4. Esse procedimento aleat´rio ´ reprea o e sentado por uma distribui¸˜o de probabilidade que chamamos de distribui¸˜o ca ca a priori com fun¸˜o de densidade de probabilidade (ou fun¸˜o de probabilica ca dade.

d3 ´ a solu¸˜o de Bayes. Uma fun¸ao de decis˜o dB ´ chamada uma fun¸ao de decis˜o ca c˜ a e c˜ a de Bayes com respeito a priori π e a classe D das fun¸oes de decis˜o. d1 ) = 1 1 1 1 π(1/3) + π(2/3) = p + (1 − p) = 1/9. d).1.3.2. ent˜o d1 ´ a solu¸˜o de Bayes. Notemos que nesse caso a solu¸˜o de Bayes n˜o ´ a co ca a e unica. θ > 0. sendo π(1/3) = p e π(2/3) = 1 − p. temos que r(π. se c˜ a r(π. d3 ) = Exemplo 4. d2 ) = 0p + (1 − p) = 3 3 e 1 p p + 0(1 − p) = .3. independente de θ). dB ) = min r(π. d) = e e a R(θ. ı r(π.62 4. a e´ a ca e r(π. d)π(θ). De acordo com a Defini¸˜o 4.1. ou seja. vimos que d(X) = X ´ a ca e solu¸˜o minimax com rela¸˜o a perda l(θ. d) ´ constante (isto ´. ent˜o r(π.1) ´ e ı o e substitu´do pela integral correspondente. o somat´rio em (4. 9 9 9 9 1−p 1 r(π. d∈D ca Exemplo 4. Consideremos mais uma vez a situa¸˜o do Exemplo 4.2. d)] = Eπ [c2 + θ(c − 1)2 ] = c2 + (c − 1)2 Eπ [θ] = c2 + (c − 1)2 . de modo que nesse caso tamb´m a solu¸˜o de Bayes a co e ca n˜o ´ unica. Introdu¸˜o ` Teoria das Decis˜es ca a o (4. a π(θ) = e−θ . Se p = 1/3.2. d)π(θ)dθ.2.1) = {θ∈Θ} R(θ.3. No caso em que Θ ´ cont´nuo. Considerando a ca ca priori exponencial com parˆmetro um para θ. a) = (θ − a)2 /θ.2. Se p > 2/3.3. ou seja. Se p = 2/3.3. Se 1/3 < p < 2/3. se p < 1/3. ent˜o d1 e ca a e d3 s˜o solu¸˜es de Bayes. ent˜o d1 e ´ a e ca a d2 s˜o solu¸˜es de Bayes. 3 3 Portanto temos que. no caso discreto. . ent˜o a solu¸˜o de Bayes ´ d2 .1. Notemos que se R(θ.3. temos que ca r(π. Defini¸˜o 4. d) = Eπ [R(θ. d). Com rela¸˜o ao Exemplo 4. d) = Θ R(θ.

. com rela¸˜o a priori e ` ca a perda acima. . . . . ou seja. ou seja. n onde x = (x1 . ´ o valor esperado de θ calculado na distribui¸ao condicional de θ dado e c˜ X1 . a fun¸˜o de risco de um procedimento ca a a ca qualquer d(X) ´ dada por e (4. o estimador de Bayes na classe D ´ dado por dB (X) = X/2. d) = Θ X (d(x) − θ)2 f (x|θ)dx π(θ)dθ (4. temos de (4. d) ´ m´ e ınimo quando c = 1/2.1) R(θ.4. d) = X (θ − d(x)2 )f (x|θ)dx. D = {d.1) que o risco de Bayes do procedimento d(X) ´ dado e por r(π.3. que ´ denominada “distribui¸ao a posteriori de θ”. co a o estimador de Bayes foi obtido numa particular classe de estimadores. Ent˜o. . e 4. Sejam X1 . . e c˜ Prova. Contudo a fun¸˜o de perda n˜o era quadr´tica. o procedimento (estimador) de a c˜ ` a Bayes na classe D de todas as fun¸oes de decis˜o ´ dado por c˜ a e dB (X) = E[θ|X]. Com rela¸˜o a ca c a ca priori π. ´ poss´ ca a a e ıvel a caracteriza¸˜o dos estimadores ca na classe D de todas as fun¸˜es de decis˜o. que X ´ uma vari´vel aleat´ria cont´ Teorema 4. O ca a a resultado para perda quadr´tica ´ enunciado e provado a seguir para o caso em a e e a o ınua. Consia o c˜ deremos para θ a distribui¸ao a priori com fun¸ao de densidade de probabilidade c˜ c˜ π(θ). ou seja. Notemos que no Exemplo 4. .2. d(X) = cX}. . Xn . . ∂c temos que r(π. d) = 2c + 2(c − 1) = 0.4 Estimadores de Bayes com Perda Quadr´tica a 63 Como ∂r(π.4.1.4.4. .4 Estimadores de Bayes com Perda Quadr´tica a Com rela¸˜o ` perda quadr´tica. com rela¸ao a perda quadr´tica.2) Como = Θ X (d(x) − θ)2 f (x|θ)π(θ)dxdθ. xn ). Xn uma amostra aleat´ria da distribui¸ao da o c˜ vari´vel aleat´ria X. . X ´ o espa¸o amostral e f (x|θ) = i=1 f (xi |θ) ´ a e c e fun¸˜o de verossimilhan¸a correspondente ` amostra observada. .4. com fun¸ao de densidade de probabilidade f (x|θ). Com rela¸˜o ` perda quadr´tica.

temos que o procedimento de Bayes ´ o ca e procedimento que minimiza (4.6) onde (4. r(π. θ) = π(θ|x)g(x). Derivando (4. xn ).4) = X Θ (d(x) − θ)2 π(θ|x)dθ g(x)dx.4. .5) com rela¸˜o a d(X) e igualando a derivada a zero. portanto. que os estimadores de Bayes n˜o s˜o invariantes. . ca O Teorema 4.3) temos que (4. que ´ a forma geral do estimador de Bayes com rela¸˜o ` perda quadr´tica.2) que f (x|θ)π(θ) = f (x.4. a densidade (ou fun¸˜o de ca probabilidade) condicional ´ igual ` densidade (ou fun¸˜o de probabilidade) e a ca conjunta dividida pela densidade (ou fun¸˜o de probabilidade) marginal de x. o estimador de Bayes de τ (θ) com rela¸˜o ` perda quadr´tica ´ dado por e dB (x) = E[τ (θ)|X] = Θ τ (θ)π(θ|x)dθ.1 pode ser generalizado para o caso de uma fun¸˜o qualquer de ca ca a a θ. e ca a a De (4.4.4. De acordo com a Defini¸˜o 4.3) temos de (4.7) g(x) = Θ π(θ|x) = f (x|θ) f (x|θ)π(θ) = .5) Θ (d(x) − θ)2 π(θ|x)dθ = E[(d(X) − θ)2 |X].2. para cada x. como a a ˆ s˜o os estimadores de m´xima verossimilhan¸a no sentido de que sendo θ um a a c .64 4. .4. ou seja. ou seja. Notemos.4. chegamos ca ao procedimento dB (X) = E[θ|X]. Introdu¸˜o ` Teoria das Decis˜es ca a o (4. g(x) g(x) f (x|θ)π(θ)dθ e ´ a densidade marginal de x = (x1 .4. ´ o procedimento que e minimiza (4.4. τ (θ). ou seja.4.3.4. A densidade π(θ|x) ´ denominada e fun¸˜o de densidade de probabilidade a posteriori e pode ser interpretada dica retamente a partir do Teorema de Bayes. d) = Θ X (d(x) − θ)2 π(θ|x)g(x)dxdθ (4. .4).

. Xn uma amostra aleat´ria de tamanho n da o vari´vel aleat´ria X com distribui¸˜o de Bernoulli com parˆmetro θ. (4.1. ou seja. b > 0.8) Como f (x|θ) = i=1 n Γ [a] = 0 ∞ xa−1 e−x dx.4. que denotamos por Beta(a. a. n f (xi |θ) = θ i=1 xi (1 − θ)n− n i=1 xi . Considea o ca a remos para θ a fun¸˜o de densidade a priori ca π(θ) = Γ [a + b] a−1 θ (1 − θ)b−1 .4. usualmente conhecida como densidade beta com parˆmetros a a e b. b) e onde Γ [a] ´ a fun¸˜o gama avaliada no e ca ponto a.4 Estimadores de Bayes com Perda Quadr´tica a 65 ˆ a e estimador de Bayes de θ.4. Sejam X1 . i=1 .6) temos que π(θ|x) = Γ [a+b] Γ [a]Γ [b] θ n i=1 xi +a−1 n i=1 Γ [a+b] Γ [ Γ [a]Γ [b] xi +a]Γ [n− Γ [n+a+b] n (1 − θ)n− n i=1 n i=1 xi +b−1 xi +b] = Γ[ n i=1 ou seja. Γ [a]Γ [b] 0 < θ < 1.4.4. . n − xi + b . temos de (4. . τ (θ) n˜o ´ necessariamente um estimador de Bayes de τ (θ). Portanto de (4. a distribui¸˜o a posteriori de θ dado X ´ uma distribui¸˜o beta com ca e ca n n parˆmetros i=1 xi + a e n − i=1 xi + b que denotamos por a n n Γ [n + a + b] xi + a]Γ [n − n i=1 xi + b] θ i=1 xi +a−1 (1 − θ)n− n i=1 xi +b−1 . θ|X ∼ Beta i=1 xi + a.7) que. 1 n g(x) = 0 θ i=1 xi (1 − θ)n− n n i=1 xi Γ [a + b] a−1 θ (1 − θ)b−1 dθ Γ [a]Γ [b] n i=1 = Γ [a + b] Γ [a]Γ [b] = 1 θ 0 i=1 xi +a−1 (1 − θ)n− xi +b−1 dθ Γ [a + b] Γ [ Γ [a]Γ [b] n i=1 xi + a] Γ [n − Γ [n + a + b] n i=1 xi + b] . . Exemplo 4.

11) dB (X) = n i=1 Xi + 1 .9) que (4. inicialmente. pois com rela¸˜o a essa priori. temos que R(θ. qualquer intervalo de mesmo comprica mento tem a mesma ´rea (probabilidade). d) = E  1 = E (n + 2)2 = n i=1 n i=1 Xi + 1 −θ n+2 2 2 Xi − nθ + 1 − 2θ   1 [(4 − n)θ2 − (4 − n)θ + 1]. d) = 1 (4 − n) (4 − n) − +1 2 (n + 2) 3 2 .4. que as distribui¸˜es a priori e a posteriori pera co tencem ` mesma fam´ de distribui¸oes. ou seja. nesse caso a distribui¸˜o U (0. temos que Eπ [θ] = 1/2. temos de (4. n+2 A priori uniforme indica que. n+a+b n i=1 Notemos.66 4. Introdu¸˜o ` Teoria das Decis˜es ca a o Ent˜o. 1) ´ escolhida como priori para θ.10) π(θ) = 1. 0 < θ < 1.10).4.9) dB (X) = E[θ|X] = xi + a . ent˜o.11) com rela¸˜o a priori ca uniforme. E tamb´m verdade que a distribui¸˜o Beta ´ conjue ca e gada para as distribui¸˜es Binomial e Binomial Negativa. temos que (4. No ca e caso da priori uniforme. Dizemos. no caso em que a distribui¸˜o a ılia c˜ ca de X ´ Bernoulli e a distribui¸˜o a priori ´ da fam´ Beta. ca V arπ [θ] = 1/12 e Eπ [θ2 ] = 1/3. o estat´ ıstico tem pouca informa¸˜o ca sobre θ. No caso particular em que a = b = 1. a Para calcularmos o risco de Bayes do estimador (4.4. dos c´lculos acima.4.4.4. ou seja. Os parˆmetros a e b co a da priori beta devem ser escolhidos de modo que π(θ) expresse o conhecimento a priori que o estat´ ıstico tem sobre θ. de modo que r(π. a distribui¸˜o a e ca e ılia ca posteriori ´ tamb´m da fam´ Beta. que a distribui¸˜o Beta ´ e e ılia a ca e ´ conjugada para a Bernoulli. (n + 2)2 Com rela¸˜o a priori uniforme dada em (4. o estimador de Bayes de θ com rela¸˜o ` perda quadr´tica ´ dado por a ca a a e (4.

o estimador de Bayes em (4.11) tem risco de Bayes menor. n+b .4. que denotamos por a Gama(a. temos que g(x) = ba e−θ(n+b) θ i=1 xi +a−1 . b > 0. a > 0. que o risco de Bayes do estimador de m´xima ca a verossimilhan¸a θ = X. c ˆ Exemplo 4. . Xn uma amostra aleat´ria da distribui¸˜o da o ca vari´vel aleat´ria Xcom distribui¸˜o de P oisson(θ). Γ [a] θ > 0.4. Consideremos para θ a a o ca distribui¸˜o a priori com fun¸˜o de densidade de probabilidade ca ca (4.4. ou seja. Sejam X1 . n Γ[ xi +a] i=1 n π(θ|x) = (n+b) i=1 xi +a ou seja. n + b .4 Estimadores de Bayes com Perda Quadr´tica a 67 = 1 .2. Como e n e−nθ θ i=1 xi n i=1 f (x|θ)π(θ) = xi ! θa−1 e−θb ba Γ [a] n = θ > 0. . Em (4. com rela¸˜o a priori uniforme acima. i=1 n i=1 E[θ|X] = xi + a . Γ [a] ´ como definido em (4. n n xi !Γ [a] (n + b) i=1 xi +a i=1 e−θ(n+b) θ i=1 xi +a−1 . . n i=1 xi !Γ [a] n ∞ 0 ba e−θ(n+b) θ i=1 xi +a−1 dθ n i=1 xi !Γ [a] n = Portanto Γ [ i=1 xi + a] ba .12).4.12) π(θ) = ba θa−1 e−θb . xi + a. .4.8). 6(n + 2) Certamente. b). a distribui¸˜o a posteriori de θ dado X ´ uma distribui¸˜o gama com ca e ca n parˆmetros i=1 xi + a e n + b que denotamos por a n θ|X ∼ Γ Assim.4. gama com parˆmetros a e b.

1 − (µ−a)2 e 2b2 . Sejam X1 . b2 ) expressa o fato de que a ´ um valor a e razo´vel para µ enquanto que b2 (ou b) quantifica a confian¸a (ou certeza) de a c que a ´ um valor razo´vel para µ. d)] = 1 [a2 + b2 θ2 + θ(n − 2ab)]. g(x) = 1 b n 2 σ0 1 + − 1 b2 x2 i=1 i 2σ2 0 n n 2 − a2 2b + 2 xi + a b2 i=1 σ2 0 n + 1 b2 σ2 0 2 e .5) 2 n i=1 xi + a R(θ. n˜o ´ dif´ verificar que (ver Exerc´ o co e a e ıcil ıcio 4. (n + b)2 a . Introdu¸˜o ` Teoria das Decis˜es ca a o Al´m disso.68 4. d) = E −θ n+b = de modo que r(π. Xn uma amostra aleat´ria de tamanho n da o 2 2 vari´vel aleat´ria X com distribui¸˜o N (µ. . π(µ) = √ 2πb onde a e b s˜o conhecidos. ca e Ap´s algumas manipula¸˜es alg´bricas. no caso da Poisson. ou seja. A priori N (a. de modo que a distribui¸˜o gama ´ conjugada para a Poisson. b(n + b) Exemplo 4. onde σ0 ´ conhecido. temos que e co e f (x|µ)π(µ) = 1 √ 2πσ0 n 1 − √ e 2πb n n i=1 (xi −µ)2 2σ2 0 − (µ−a) 2 2b 2 = 1 √ 2πσ0 n 1 √ e 2πb − x2 n i i=1 2σ2 0 a2 − 2b2 + 2 xi + a b2 i=1 σ2 0 n + 1 b2 σ2 0 2 × n ×e e 1 √ 2πσ0 n −1 2 n σ2 0 + 1 b2 µ− xi + a b2 i=1 σ2 0 n + 1 2 2 b σ 0 2 . d) = Eπ [R(θ. priori gama leva a uma e posteriori gama. . Ap´s a ca ca o uma s´rie de manipula¸˜es alg´bricas (verifique!). . . σ0 ). mais incerto o e a estat´ ıstico est´ com rela¸˜o a escolha feita pela natureza com rela¸˜o a µ. Considea o ca e remos para µ a priori N (a. Quanto maior b2 (ou b). como visto acima.4.3. b2 ). .

Por outro lado. que denotamos a por n xi a 2 1 i=1 σo + b2 µ|X ∼ N . dB ) → . Notemos que quanto a c e maior n. que a a n i=1 2 σ0 Xi dB = + 1 b2 a b2 n 2 σ0 + = n 2 σ0 n 2 σ0 + 1 b2 X+ 1 b2 n 2 σ0 + 1 b2 a. d) = Al´m disso. Xn ´ normal com m´dia ca e e n 2 2 2 ( i=1 xi /σ0 + a/b2 )/(n/σ0 + 1/b2) e variˆncia 1/(n/σ0 + 1/b2). dB ) = E  n 1 −µ 2 n 1 2 + b σ0 2 + b2 σ 0 e r(π. ou seja. Lemca bramos que b pequeno indica uma maior confian¸a do estat´ c ıstico de que a ´ um e valor razo´vel para µ. 2 σ0 . portanto. maior o peso atribu´ a X. n . temos. . ca e R(µ. ent˜o. que a priori normal ´ conjugada para a distribui¸˜o normal e ca 2 quando queremos estimar µ com variˆncia σ0 conhecida. n + b1 + b1 2 2 σ2 σ2 0 o Temos. Portanto para n grande a distribui¸˜o a ıdo ca priori tem pouca influˆncia na distribui¸˜o a posteriori.4 Estimadores de Bayes com Perda Quadr´tica a 69 de modo que (verifique!)  n π(µ|x) = √ 2π 1 n 2 σo −1 2 1 + n σ2 0 + 1 b2 e 1 b2 µ−  xi i=1 + a b2 σ2 0 n + 1 b2 σ2 0 2   . a informa¸˜o a priori ´ pouco precisa. . n quando b → ∞. . a distribui¸˜o a posteriori de µ dado X1 . Temos tamb´m que (verifique!) a e  2  (a−µ)2 n nX a 2 + b2 2 + b4 σ0  σ0   = R(µ. . ou seja. Com rela¸˜o a perda a ca quadr´tica. valores e ca pequenos de b aumentam a contribui¸˜o de a no estimador dB acima. de modo que o estimador de Bayes de µ ´ uma combina¸˜o linear convexa (coe ca eficientes somam um) entre a m´dia amostral X (que ´ o estimador eficiente e e e de m´xima verossimilhan¸a de µ) e a m´dia a priori a. e n 2 σ0 1 + 1 b2 .4.

2. Seja X uma unica observa¸˜o da distribui¸˜o N (µ. Como o estimador de Bayes de θ com rela¸˜o ` perda quadr´tica ca a a ´ a m´dia da posteriori. . . (iii) Encontre em D o estimador de Bayes de µ com rela¸˜o a priori π(µ) = ca 1/2.4. . Sejam X1 . na classe D. o estimador de Bayes s´ depender´ de X atrav´s de o a e ca T = T (X1 . pois qualquer que seja a fun¸˜o de perda. (ii) Encontre. . 1). o estimador de Bayes ´ obtido utilizando a distribui¸˜o a posteriori π(θ|x). d(x) = cX}. ou seja. c˜ ` a e c˜ Prova. g (t(x))π(θ)dθ Θ θ h(x)gθ (t(x))π(θ) = h(x)gθ (t(x))π(θ)dθ Θ de modo que a fun¸˜o de densidade a posteriori depende de x somente atrav´s ca e de T = T (x). . . relacionando os estimadores de Bayes a uma estat´ ıstica suficiente. e ca 4. Seja T = T (X1 . ent˜o. ele depender´ de X somente atrav´s de T . Na verdade qualquer que seja a fun¸˜o a ca ca de perda considerada.2 vale na verdade em situa¸˜es mais gerais no co que diz respeito ` fun¸˜o de perda. d) para a classe D = {d. Teorema 4. escrever a a fun¸˜o de densidade (ou de probabilidade) a posteriori como ca π(θ|x) = f (x|θ)π(θ) Θ f (x|θ)πθdθ gθ (t(x))π(θ) . onde −∞ < µ < ∞. Sendo T uma estat´ ıstica suficiente para θ. e e a e O resultado do Teorema 4.1. apresentamos a seguir um resultado importante. gθ (t(x)) depende de x somente por t(x). Xn uma amostra aleat´ria de tamanho n da o distribui¸ao da vari´vel aleat´ria X com fun¸ao de densidade (ou de probac˜ a o c˜ bilidade) f (x|θ). a (i) Encontre o risco R(µ. . Ent˜o. . . o estimador minimax de µ. 4. Xn ) uma estat´stica suficiente para θ. .2.5 Exerc´ ıcios 4. Seja X uma unica observa¸˜o da vari´vel aleat´ria X com fun¸˜o de ´ ca a o ca probabilidade . usando o Crit´rio da Fatora¸˜o. −1 ≤ µ ≤ 1. podemos escrever e ca f (x|θ) = h(x)gθ (t(x)). Xn ).70 4. . c˜ a o estimador de Bayes de θ com rela¸ao a perda quadr´tica ´ fun¸ao de T . ´ ca ca Considere a perda quadr´tica.4. Vamos considerar a demostra¸˜o apenas para o caso em que X e θ ca s˜o vari´veis aleat´rias cont´ a a o ınuas. ı Consideremos para θ a fun¸ao de densidade (ou de probabilidade) π(θ). . Introdu¸˜o ` Teoria das Decis˜es ca a o Para finalizar o cap´ ıtulo. Podemos.

1}. l(0.7. a a . e l(0. θ). baseado em uma unica ´ observa¸˜o da vari´vel aleat´ria X. . (i) Encontre o risco de d(X) = X/m. Considere o problema de se estimar θ ∈ Θ = {0. di (X)). (ii) Encontre o risco de Bayes de d(X) em (i). Refa¸a o Exerc´ c ıcio 4. d) = (θ − d)2 . e d2 (X) = 0. x = 1 − θ. Considere os estimadores d1 (X) = X/2 e d2 (X) = (X + 1)/4 e fun¸˜o de perda quadr´tica. com densidade ca a o f (x|θ) = 2−(x+θ).6. 2 − θ.. onde 0 < θ < 1. Considere a perda 0-1. X = 0. 0) = 1. (ii) Qual dos estimadores ´ minimax? Alguns dos estimadores ´ inadmiss´ e e ıvel? 4. Seja uma unica observa¸˜o da distribui¸˜o P oisson(θ).5 Exerc´ ıcios 71 f (x|θ) = 2! θx (1 − θ)2−x . (i) Encontre a densidade a posteriori de θ. Considere uma unica observa¸˜o da vari´vel aleat´ria X ∼ Binomial(m. Seja X uma unica observa¸˜o da distribui¸˜o U (0. 1. X > 0. ou seja.4. onde θ ´ uma vari´vel ´ ca ca e a aleat´ria com densidade o π(θ) = θe−θ . 0 ≤ θ ≤ 1. θ > 0..4. 4. considerando agora a perda l(θ. ´ ca a o Seja l(θ. 1. (ii) Qual dos estimadores ´ minimax? e 4. x!(2 − x)! x = 0. θ). 2. d) = (θ − a)2 /θ(1 − θ).. 1) = 0 Considere tamb´m os estimadores e d1 (X) = 1. X ≤ 1. 0. ca a (i) Verifique se existe um estimador uniformemente melhor (melhor para todo θ). 3 − θ. i = 1. ou seja. 4. verifique se um dos estimadores ´ inadmiss´ e ıvel. 2. com rela¸˜o ` perda quadr´tica e a priori ca a a Gama(α. 0) = l(1.3. 1) = l(1. (i) Encontre R(θ. 4.3. com rela¸˜o a priori π(θ) = ca 1. X > 1. Encontre o risco ´ ca ca de Bayes do estimador d(X) = X. (ii) Encontre o estimador de Bayes de θ com respeito ` perda quadr´tica.5. β).

72

4. Introdu¸˜o ` Teoria das Decis˜es ca a o

4.8. Seja X o tempo de vida de uma lˆmpada (em mil horas) fabricada por a certa companhia. Considera-se que X ´ uma vari´vel aleat´ria com densidade e a o f (x|θ) = θe−θx , Considere para θ a priori π(θ) = 16θe−4θ , θ > 0. x > 0.

(i) Encontre a distribui¸˜o a posteriori de θ. ca (ii) Encontre o estimador de Bayes de E(X) e V ar(X) com rela¸˜o ` perda ca a quadr´tica. a 4.9. Em uma ´rea de reflorestamento, o n´ mero de ´rvores de determinada a u a esp´cie, por hectare, com certa doen¸a tem uma distribui¸˜o P oisson(θ). A e c ca distribui¸˜o a priori de θ ´ exponencial com m´dia igual a 1. Encontre o estica e e mador de Bayes de Pθ (X = 0) com rela¸˜o ` perda quadr´tica.. ca a a 4.10. Sejam X1 , . . . , Xn uma amostra aleat´ria da distribui¸˜o U (0, θ). Supoo ca nhamos que θ seja uma vari´vel aleat´ria com fun¸˜o de densidade de probaa o ca bilidade (Pareto) bab /θb+1 , θ ≥ a, π(θ) = 0, θ < a, Encontre a distribui¸˜o a posteriori de θ e o estimador de Bayes de θ com ca rela¸˜o ` perda quadr´tica. ca a a 4.11. Sejam X1 , . . . , Xn uma amostra aleat´ria da vari´vel aleat´ria X ∼ o a o Bernoulli(θ). Considere para θ a priori π(θ) = 2θ, 0 < θ < 1, 0, caso contr´rio, a

Encontre o estimador de Bayes de θ com rela¸˜o ` perda quadr´tica e seu risco ca a a de Bayes. 4.12. Sejam X1 , . . . , Xn uma amostra aleat´ria de tamanho n da densidade o f (x|θ) = θxθ−1 , Vamos assumir para θ a priori gama π(θ) = λr θr−1 e−θλ /Γ (r), onde r e λ s˜o conhecidos. Encontre a distribui¸˜o a posteriori de θ e o estimador a ca de Bayes de θ com rela¸˜o ` perda quadr´tica. ca a a 0 < x < 1, θ > 0.

5. Estima¸˜o por Intervalo ca

Neste cap´ ıtulo consideramos o problema de estima¸˜o de parˆmetros utilizando ca a intervalos de confian¸a. Os intervalos cl´ssicos s˜o obtidos a partir de vari´veis c a a a aleat´rias especiais que denominamos quantidades pivotais. Os intervalos de o confian¸a Bayesianos s˜o obtidos utilizando a distribui¸˜o a posteriori. Em c a ca primeiro lugar, discutimos propriedades da m´dia e da variˆncia amostrais e a quando as amostras s˜o obtidas a partir de popula¸˜es normais. A seguir ina co troduzimos os m´todos de constru¸˜o de intervalos. e ca

5.1 Amostras de Popula¸˜es Normais co
Os resultados que apresentamos a seguir s˜o utilizados com bastante freq¨ˆncia a ue na constru¸˜o de intervalos de confian¸a e testes de hip´teses para popula¸˜es ca c o co normais. Teorema 5.1. Sejam X1 , . . . , Xn uma amostra aleat´ria de tamanho n da o distribui¸ao N (µ, σ 2 ). Ent˜o c˜ a (i) X e S 2 s˜o independentes; a
(n−1)S 2 ∼ χ2 ; n−1 σ2 √ (iii) n(X−µ) ∼ tn−1 ; S

(ii)

onde χ2 denota uma vari´vel aleat´ria com distribui¸ao quiquadrado com ν a o c˜ ν graus de liberdade, isto ´, com f.d.p. dada por e f (y|ν) = 1 2ν/2 Γ (ν/2) y ν/2−1 e−y/2 , y > 0;

tν denota uma vari´vel aleat´ria com distribui¸ao t de Student com ν graus de a o c˜ liberdade,isto ´, com f.d.p. dada por e f (y|ν) = Γ ((ν + 1)/2) (1 + t2 /ν)−(ν+1)/2 , Γ (ν/2) −∞ < t < ∞;

74

5. Estima¸˜o por Intervalo ca
n i=1

e como antes, X = Prova. (i) Temos que

Xi /n e S 2 =

n i=1 (Xi

− X)2 /(n − 1).

X ∼ N (µ, σ 2 /n), enquanto que Xi − X ∼ N 0, σ 2 (n−1) . Por outro lado, a fun¸˜o geradora de ca n e momentos (James, 1981) de Y1 = X e Y2 = Xi − X ´ dada por MY1 ,Y2 (s1 , s2 ) = E es1 X+s2 (Xi −X) = E es2 Xi +X(s1 −s2 ) =E e
(s2 +
(s −s ) (s1 −s2 ) )Xi + 1 n 2 n n j=i

Xj

= E e(s2 + Como Xi ∼ N (µ, σ 2 ) e MY1 ,Y2 (s1 , s2 ) = e
µ s2 +

(s1 −s2 ) )Xi n

E e

(s1 −s2 ) n

n j=i

Xj

.

n j=i

Xj ∼ N ((n − 1)µ; (n − 1)σ 2 ), temos que
+σ 2
2

(s1 −s2 ) n

s2 +

(s1 −s2 ) n

2

= eµs1 +

s2 σ 2 1 2n

e

s2 (n−1)σ2 2 2n

×e

(n−1) 1 (s1 −s2 )µ+ 2 n

( s1 −s2 ) n

2

(n−1)σ2

que ´ o produto das fun¸˜es geradoras de momentos das distribui¸˜es de X e e co co Xi − X. Portanto temos que Xi − X e X s˜o independentes, pois a fun¸˜o geraa ca dora da distribui¸˜o conjunta ´ o produto das fun¸˜es geradoras de momentos ca e co n das distribui¸˜es marginais. Como i=1 (Xi − X)2 ´ fun¸˜o de Xi − X que ´ co e ca e 2 independente de X, temos que S ´ independente de X. e (ii) N˜o ´ dif´ verificar que a e ıcil
n

(5.1.1)
i=1

(Xi − µ)2 = σ2

n i=1

(Xi − X)2 (X − µ)2 +n . σ2 σ2

Como (Xi − µ)/σ ∼ N (0, 1), temos que (Xi − µ)2 /σ 2 ∼ χ2 , i = 1, . . . , n, de 1 modo que n (Xi − µ)2 Y1 = ∼ χ2 . n σ2 i=1 Tamb´m n(X − µ)2 /σ 2 ∼ χ2 . Como a fun¸˜o geradora de momentos da dise ca 1 tribui¸˜o quiquadrado com g graus de liberdade ´ dada por ca e Mg (s) = (1 − 2s)−g/2 ,

Defini¸˜o 5. .2) M1 (s) = (1 − 2s)−1/2 e Mn (s) = (1 − 2s)−n/2 . . ou seja. Podemos. de modo que a vari´vel (5. ent˜o. temos que os dois termos do lado e a direito de (5. respectivamente.2) segue que MY2 (s) = MY1 (s) = (1 − 2s)−(n−1)/2 . 5.2. de modo que MY1 (s) = MY2 (s)MY3 (s).1) P [λ1 ≤ Q(X. . para cada γ = 1 − α fixado.2 O M´todo da Quantidade Pivotal e 75 temos que as fun¸˜es geradoras das distribui¸˜es quiquadrado com g = 1 e co co g = n graus de liberdade s˜o dadas respectivamente por a (5.1. Notemos que uma quantidade pivotal n˜o ´ uma estat´ a e ıstica.1. θ) ´ dita ser ca a o e uma quantidade pivotal para o parˆmetro θ se sua distribui¸ao for independente a c˜ de θ.1.1. s˜o indepena dentes.5.3) tem distribui¸˜o t de Student a ca com n − 1 graus de liberdade.1) que denotamos por Y2 e Y3 . θ) = Q(X.2 O M´todo da Quantidade Pivotal e A constru¸˜o de intervalos utilizando quantidades pivotais ´ considerada a ca e seguir. θ) de modo que ca (5. de (5. .1. pois ela depende de um parˆmetro θ desconhecido.2. Uma vari´vel aleat´ria Q(X1 .3) √ (X − µ) n = S √ (X−µ) n σ (n−1)S 2 (n−1)σ2 que corresponde ao quociente entre duas vari´veis aleat´rias independentes a o em que o numerador ´ uma vari´vel aleat´ria com distribui¸˜o N (0. como X e S 2 s˜o independentes.1. θ) ≤ λ2 ] = γ. Al´m disso. Xn . . MY3 (s) logo a distribui¸˜o de Y2 = (n − 1)S 2 /σ 2 ´ quiquadrado com n − 1 graus de ca e liberdade. 1) e o e a o ca denominador ´ a raiz quadrada de uma vari´vel aleat´ria com distribui¸˜o e a o ca quiquadrado com n − 1 graus de liberdade (veja (ii)) dividido pelo n´ mero de u graus de liberdade. (iii) Note que podemos escrever (5. a a encontrar λ1 e λ2 na distribui¸˜o de Q(X.

2) P [t1 (X) ≤ θ ≤ t2 (X)] = γ. Um outro ponto a salientar ´ que. Xn uma amostra aleat´ria da distribui¸˜o da o ca vari´vel aleat´ria X.5) P λ1 ≤ 2θ i=1 Xi ≤ λ2 = γ. obtemos λ1 e λ2 na tabela da distribui¸˜o c ca χ2 . θ) independente de θ. a estat´ ıstica T = n Xi ´ suficiente para θ.2.1).4) fQ (y) = y n−1 e−y/2 . θ > 0. e i=1 como a distribui¸˜o de T ´ Gama(n. θ) = 2θ i=1 Xi ´ dada e por (5.3) f (x|θ) = θe−θx .5.1) esteja satisfeita exatamente.2. Nos casos em que a distribui¸˜o c ca da vari´vel aleat´ria X ´ discreta. existem ca e muitos pares (λ1 . Tal procedimento ´ facilitado em situa¸˜es em que a distribui¸˜o de Q(X. pois sua distribui¸˜o ´ independente de θ. Al´m disso. que denotamos por χ2 . Portanto Q(X. Por outro lado. com densidade a o (5. λ2 ) que produz o intervalo de menor comprimento. θ) ≤ λ2 e ent˜o de (5. θ) ´ sim´trica. a (5. dado ca e a o coeficiente de confian¸a γ = 1 − α. x > 0. Como vimos no Cap´ ıtulo 2. t2 (X)] ´ um intervalo (aleat´rio) que cont´m θ com probae o e bilidade (coeficiente de confian¸a) γ = 1 − α. Ent˜o.1). θ) pode ser considerada como 2n uma quantidade pivotal. se para cada X existirem t1 (X) e t2 (X) tais que e λ1 ≤ Q(X.2. . em geral.1) esteja satisfeita para um coeficiente de confian¸a maior ou igual a γ (o mais pr´ximo poss´ c o ıvel). . θ). como e co ca e e no caso da distribui¸˜o normal.76 5. . n˜o se consegue determinar λ1 e λ2 a o e a de tal forma que (5.2. Quando n ´ razoavelmente e grande. se e somente se t1 (X) ≤ θ ≤ t2 (X) de modo que [t1 (X). 2n Γ [n] y>0 que corresponde a densidade de uma distribui¸˜o quiquadrado com 2n graus de ca liberdade. Sempre que poss´ ıvel. Mas. λ2 ) satisfazendo (5. devemos escolher (λ1 . podemos escolher λ1 e λ2 tal que (5.2. de modo que 2n n (5. Sejam X1 . temos que T n˜o ´ uma quantidade ca e a e n pivotal para θ.2.2. Em tais casos.2.2. na maioria dos casos. ca Exemplo 5. . a densidade de Q(X. λ1 e λ2 tamb´m n˜o deca e a pendem de θ. Estima¸˜o por Intervalo ca Sendo a distribui¸˜o de Q(X.1. uma alternativa seria considerar os intervalos de confian¸a baseados c na distribui¸˜o do estimador de m´xima verossimilhan¸a que consideramos na ca a c Se¸˜o 3. .

2. λ2 ) para os quais (5. de modo que a ´rea ` esquerda de λ1 seja igual ` ´rea ` ca 2n a a aa a direita de λ2 e igual a α/2. A n˜o ser que o tamanho da amostra n seja muito pequeno.1. Conforme enfatizado anteriormente.2.6) λ1 2 n i=1 Xi 2 .1. λ2 ) devem ser escolhidos de modo que o intervalo (5. co ca Como F (x) = 1 − e−θx . (λ1 .2 O M´todo da Quantidade Pivotal e 77 logo um intervalo de confian¸a para θ com coeficiente de confian¸a γ ´ dado c c e por (5. λ2 ) s˜o obtidos a partir e e a da distribui¸˜o χ2 . Xi 2 q2 n i=1 Xi .5. existem infinitos pares (λ1 . temos que o intervalo sim´trico ´ dado e e por (5.5) est´ verificada. o intervalo (5.2. Sempre que poss´ a ıvel. Tal intervalo existe. mas (λ1 . Uma alternae tiva ´ considerarmos intervalos sim´tricos em que (λ1 . Ver Figura 5. Determina¸˜o de λ1 e λ2 ca f(x) α/2 α/2 λ1 λ2 0 x Denotando estes pontos por q1 e q2 . Consideramos a seguir n = 20 observa¸˜es simuladas a partir da distribui¸˜o exponencial com θ = 2.2. λ2 n i=1 Xi . λ2 ) deve ser obtido por m´todos computacionais. Figura 5.2.7) 2 q1 n i=1 .7) ´ a e bastante pr´ximo do intervalo de comprimento m´ o ınimo.6) seja de comprimento m´ ınimo.

a distribui¸˜o de F (X) ´ uniforme no intervalo (0. 1) co 0. a Tabela 5. 1).1995 0.045 0. . 59 e q2 = 34.9339 10 i=1 0.6020 0. χ2 − E[χ2 ] 2n 2n V ar[χ2 ] 2n ∼ N (0. 9934 e usando a aproxima¸˜o normal para a distribui¸˜o quica ca i=1 quadrado (a maioria das tabelas da distribui¸˜o quiquadrado n˜o trazem perca a centis para 40 graus de liberdade). temos que c 20 Xi = 7. 1992.3829 0.1. co ca Tabela 5. 1) a temos.749 0. 34] ´ um intervalo de confian¸a para e c θ com coeficiente de confian¸a γ = 0.381 0.594 0.2.166 0. gerando obca e serva¸˜es u a partir da distribui¸˜o U (0. 17.4470 0.328 0.535 0. 96 80 + 40 e q2 = 1. temos que co Xi = 3.0061 0.8) 1 x = − log(1 − u) θ ´ uma observa¸˜o simulada da distribui¸˜o exponencial com parˆmetro θ e com e ca ca a densidade dada em (5. ent˜o de a (5.9008 0. ou seja. Estima¸˜o por Intervalo ca e como qualquer que seja a fun¸˜o de distribui¸˜o F (x) ca ca U = F (X) ∼ U (0.2177 0.6912 0.4507 0. temos da tabela da distribui¸˜o quica quadrado com 20 graus de liberdade que q1 = 9.7) segue que o intervalo [1. ou seja. 1).2.5380 0.757 0.2. Tomando α = 0.700 0.658 0. n = 20 observa¸˜es da U (0.2.2398 0. n = 20 observa¸˜es da distribui¸˜o Exp(2) co ca 0.7073 0.659 0. 95. 50.1 abaixo. temos que co ca (5. 1).3).012 0.0086 0.353 0.0262 0. usando a tabela da distribui¸˜o N (0.051 0.2.0064 0.2. 1) co s˜o dadas na Tabela 5.017 0.469 0.3165 0.8) temos na Tabela 5.847 0.2 as ca n = 20 observa¸˜es simuladas da distribui¸˜o exponencial (5. que ca √ √ q1 = −1.7593 Considerando as primeiras n = 10 observa¸˜es na Tabela 5.5365 0. 1).0230 0. As n = 20 observa¸˜es simuladas a partir da U (0.128 0.781 Usando os valores da Tabela 5.2. 5.78 5.3) com θ = 2. 05. 96 80 + 40.591 0.1 na rela¸˜o (5. Considerando n = 20.

10).2. ou seja. Portanto a vari´vel aleat´ria Q(X. nesse caso.2. θ) ´ uma quantidade a a o e pivotal. θn Logo X(n) n˜o ´ uma quantidade pivotal j´ que sua distribui¸˜o depende de θ. .2. Exemplo 5. Xn uma amostra aleat´ria de tamanho n da o vari´vel aleat´ria X com distribui¸˜o uniforme no intervalo (0. Como existem infinitos pares (λ1 .2.11).2 O M´todo da Quantidade Pivotal e 79 de modo que.5.2. .2. o intervalo ´ dado por [1. . a distribui¸˜o da quantidade Q(X. Xn }. consideramos o intervalo sim´trico.9) fQ (q) = nq n−1 I[0.12) X(n) (1 − α/2) 1/n α 2 1/n e λ2 = 1 − α 2 1/n .∞) (θ). .2. X(n) (α/2) 1/n . podemos encontrar λ1 e λ2 na distribui¸˜o ca de Q. consideramos o intervalo satisfazendo e λ1 (5.10) λ1 fQ (q)dq = γ = 1 − α. λ2 ) satisfazendo (5. . θ). de modo que dado γ = 1−α. .11) 0 fQ (q)dq = α 2 1 e λ2 fQ (q)dq = α . .1] (q) que n˜o depende de θ.2. Vimos no Cap´ ıtulo 2 que uma estat´ ıstica suficiente para θ ´ dada por e Y = X(n) = max{X1 . 60] que. 2 Resolvendo as equa¸˜es (5. . a e a ca Por outro lado. ou seja. . chegamos a co λ1 = de modo que P λ1 ≤ que leva ao intervalo (5. X(n) X(n) X(n) ≤ λ2 = P ≤θ≤ =1−α θ λ2 λ1 . tal que λ2 (5. conforme era e esperado. tem comprimento bem menor que o comprimento do correspondente intervalo com n = 10.θ] (y)I[0. Sejam X1 . θ). θ) = X(n) /θ ´ dada por ca e (5. 3. 41. X ∼ a o ca U (0. com fun¸˜o de densidade dada por ca fY (y) = ny n−1 I[0.

2. Notemos que θ = 1 n˜o est´ contido no ina a tervalo com n = 10.3. o intervalo que constru´ a ımos a partir de uma amostra observada pode ser ou n˜o um daqueles 100(1 − γ)% a que n˜o cont´m θ.3 Intervalos para Popula¸˜es Normais co Consideremos em primeiro lugar (Se¸ao 5. 953]. 1). 019] n˜o s˜o apropriadas. Sejam ent˜o λ1 = −zα/2 e e a a e a . afirma¸˜es do e o co tipo P [0. 975)1/10.2. 025)1/10]. Portanto. No Exerc´ 5. 95. baseada n na estat´ ıstica suficiente i=1 Xi = nX ´ dada por e Q(X.1.3 apresentamos um intervalo de menor ıcio ´ comprimento que o do intervalo (5. pois n˜o existem quantidades a a a aleat´rias associadas ` desigualdade 0. ou seja. 019. aquele em que a ´rea ` direita de e e a a λ2 ´ igual a ´rea ` esquerda de λ1 que ´ igual a α/2. . 0. . o inco tervalo se reduz a (0. [0. 848 ≤ θ ≤ 1.1 e γ = 0. na Se¸˜o 5.80 5. c a o Quanto ao intervalo num´rico que segue do intervalo aleat´rio.2.2. 661. 659/(0.12).3.1) P λ1 ≤ X −µ √ ≤ λ2 = γ. Estima¸˜o por Intervalo ca Considerando as primeiras n = 10 observa¸˜es da Tabela 5. o intervalo de menor ca e e comprimento ´ o intervalo sim´trico.1.019). λ2 ) que satisfazem (5. σ/ n Conforme enfatizado anteriormente. Para um problema particular. µ) = X −µ √ σ/ n que tem distribui¸˜o N (0.12) se reduz a [0. Considerando as n = 20 observa¸˜es da Tabela 5. temos co que o intervalo (5. o intervalo (5. a e a co e 5. mas est´ contido no intervalo com n = 20. 1) ´ sim´trica. existem infinitos pares (λ1 . Mas n˜o temos condi¸˜es de sabˆ-lo.3. ca 5.2). abordamos o caso de duas amostras.12) n˜o ´ o de menor comprica a e e a e mento para um dado γ. 659/(0. 848 ≤ θ ≤ 1. O que se aplica no o a caso num´rico ´ a interpreta¸˜o freq¨ entista. Como a disa tribui¸˜o de Q n˜o ´ sim´trica.1) o caso de uma unica amostra.848.1). E importante ressaltar que o coeficiente de confian¸a γ est´ associado ao intervalo aleat´rio que segue de (5. deca c terminamos λ1 e λ2 de modo que (5.3. Como a distribui¸˜o N (0. ou seja. . . o ca Assumindo σ 2 conhecido. ou seja.3. para cada 100 intervalos e e ca u num´ricos constru´ e ıdos a partir do intervalo aleat´rio. dado o coeficiente de confian¸a γ. A c˜ ´ seguir. σ 2 ). 0.1 O caso de uma unica amostra ´ Sejam X1 . Xn uma amostra aleat´ria de tamanho n da distribui¸˜o N (µ.2. temos que uma quantidade pivotal para µ. aproximadamente 100γ% o deles v˜o conter θ.

q2 q1 .2) σ σ X − zα/2 √ . S/ n Como a distribui¸˜o da quantidade pivotal Q ´ sim´trica. dado γ. podemos determinar λ1 e e λ2 de modo que (5. o intervalo n−1 (n − 1)S 2 (n − 1)S 2 . onde P (T ≤ tα/2 ) = 1 − α/2. n n Quanto a σ 2 . temos pelo Teorema 5. temos. de acordo com o Teorema 5.3. Z ∼ N (0. X + zα/2 √ . (ii). sendo σ 2 desconhecido.1. devemos escolher λ1 ca e e e λ2 de modo que a ´rea ` direita de λ2 seja igual a ´rea ` esquerda de λ1 . que Q(X.3. onde P (Z ≤ zα/2 ) = 1 − α/2. µ) = X −µ √ ∼ tn−1 S/ n que nesse caso ´ uma quantidade pivotal. temos de (5.3. ou a a a a seja λ1 = −tα/2 e λ2 = tα/2 . σ2 Considerando o intervalo sim´trico. Ent˜o.1. σ 2 ) = ∼ χ2 n−1 σ2 ´ uma quantidade pivotal para σ 2 . considerando µ desconhecido. existem λ1 e λ2 na e a distribui¸˜o tn−1 de modo que ca P λ1 ≤ X −µ √ ≤ λ2 = γ. n n Por outro lado. dado γ.3 Intervalos para Popula¸˜es Normais co 81 λ2 = zα/2 . ou seja.3). onde P [χ2 ≥ e n−1 q2 ] = P [χ2 ≤ q1 ] = α/2. que (n − 1)S 2 Q(X. .3) P λ1 ≤ (n − 1)S 2 ≤ λ2 = γ. X + tα/2 √ . λ1 = q1 e λ2 = q2 . T ∼ tn−1 de modo que o intervalo de menor comprimento ´ dado por e S S X − tα/2 √ .5. Portanto. (iii). 1) de modo que o intervalo de menor comprimento ´ dado por e (5.

(n + m − 2) 1 n + 1 m ∼ tn+m−2 2 Sx = m i=1 1 n−1 n i=1 (Xi − X)2 e Como 2 Sy = 1 m−1 e (Yi − Y )2 . como na se¸˜o anterior. uma amostra aleat´ria o da vari´vel aleat´ria X ∼ N (µ1 . temos que e 2 2 2 (n + m − 2)Sp (n − 1)Sx + (m − 1)Sy = ∼ χ2 n+m−2 . uma amostra aleat´ria da a o o vari´vel aleat´ria Y ∼ N (µ2 . Sabemos que a o a X −Y ∼N µ1 − µ2 .3. σ 2 ) e Y1 . . Ym . . 2 (n − 1)Sx ∼ χ2 n−1 σ2 2 (m − 1)Sy ∼ χ2 . . X − Y + zα/2 σ n m 1 1 + n m onde zα/2 ´ obtido como em (5. temos.82 5. o intervalo ca X − Y − zα/2 σ 1 1 + .3. Sendo σ 2 conhecido.3.2). sendo θ = µ1 − µ2 . 1).4) Q(X. Um intervalo de confian¸a a c para θ = µ1 − µ2 . com coeficiente de confian¸a γ ´. pela independˆncia de Sx e Sy . Estima¸˜o por Intervalo ca 5. .3. . Xn . θ) = X − Y − (µ1 − µ2 ) Sp onde 2 Sp = 2 2 (n − 1)Sx + (m − 1)Sy . Y. θ) = X − Y − (µ1 − µ2 ) σ 1 n + 1 m ∼ N (0. Y. . (iii) segue o resultado (5. temos que uma e quantidade pivotal ´ dada por e (5.2 Duas amostras independentes Vamos considerar o caso em que temos X1 . . consideramos a quantidade pivotal Q(X. m−1 σ2 2 2 e.1. . σ2 σ2 (5. σ 2 1 1 + n m de modo que. σ 2 ).3.5) Ent˜o do Teorema 5. dado por c e a . onde X e Y s˜o independentes. Sendo σ 2 desconhecido.4). ent˜o.

4 Intervalos de Confian¸a Aproximados c Nesta se¸˜o consideramos intervalos de confian¸a aproximados para um parˆca c a metro θ baseados na distribui¸˜o assint´tica do estimador de m´xima verossica o a milhan¸a θ de θ. F2 x .n−1 denota a distribui¸˜o F com m − 1 e n − 1 graus de liberdade.3). temos que c ˆ ˆ θ−θ a ∼ N (0. temos o intervalo F1 2 Sx S2 . λ1 = F1 e λ2 = F2 .5). σ1 ) e Y ∼ N (µ2 . n m onde tα/2 ´ obtido na tabela da distribui¸˜o t com n+ m− 2 graus de liberdade. de modo que e P [Fm−1.n−1 . Ent˜o. 2 2 Sy Sy 5. dado γ.n−1 . σ2 ) e o interesse ´ a constru¸˜o 2 2 de um intervalo de confian¸a para σ1 /σ2 . θ) = 2 2 (m − 1)Sy /σ2 (m − 1) ∼ Fm−1. −1 (nIF (θ)) . De acordo com (3.n−1 ≥ F2 ] = P [Fm−1. ´ ca e a ca uma quantidade pivotal para θ. ou seja. Y.n−1 ≤ F1 ] = α/2. podemos considerar a c quantidade pivotal (5. onde F1 e F2 s˜o obtidos na tabela da distribui¸˜o F com m − 1 e n − 1 graus a ca de liberdade. 1). 2 2 (n − 1)Sx /σ1 (n − 1) onde Fm−1.3. m−1 2 σ2 temos que Q(X. 2 2 e ca No caso em que X ∼ N (µ1 . obtemos λ1 e λ2 na distribui¸˜o Fm−1. notando que c 2 (n − 1)Sx ∼ χ2 n−1 2 σ1 e 2 (m − 1)Sy ∼ χ2 . e ca Para construirmos um intervalo de confian¸a para σ 2 . X − Y + tα/2 Sp n m 1 1 + .4 Intervalos de Confian¸a Aproximados c 83 X − Y − tα/2 Sp 1 1 + .5.2. de modo que P λ1 ≤ 2 2 σ1 Sy 2 2 ≤ λ2 = γ σ2 Sx Considerando o intervalo sim´trico.

θ) ´ uma quantidade pivotal com distribui¸˜o aproximadae ca mente igual a distribui¸˜o N (0.1. Com rela¸˜o a uma ca ca fun¸˜o g(θ). . Xn uma amostra aleat´ria da vari´vel aleat´ria o a o X ∼ Bernoulli(θ).1) Q(X. substituindo IF (θ) por a e ˆ IF (θ). . podemos considerar a vari´vel aleat´ria ca a o (5.4. n n Suponhamos agora.1). Como o estimador de m´xima verossimilhan¸a de θ ´ θ = X a c eˆ e IF (θ) = 1/θ(1 − θ). Estima¸˜o por Intervalo ca Como.2) Q(X. . 1). a que para amostras grandes ´ uma quantidade pivotal. θ) = ˆ θ−θ ∼ N (0. 1). θ) = ∼ N (0. θ) = ˆ ˆ θ(1 − θ) − θ(1 − θ) ˆ ˆ ˆ θ(1−θ)(1−2θ)2 n ∼ N (0.2) que uma quantidade pivotal para g(θ) ´ dada por e Q(X. de (5. a ˆ (nIF (θ))−1 de modo que Q(X. temos que uma quantidade pivotal para θ ´ e dada por X −θ a Q(X. que seja de interesse a obten¸˜o de um intervalo de ca ′ confian¸a para g(θ) = θ(1 − θ). e Exemplo 5. um intervalo de confian¸a para θ com c coeficiente de confian¸a aproximadamente γ ´ dado por c e   X(1 − X) X(1 − X)  X − zα/2 .4. 1). Como g (θ) = 1 − 2θ e IF (θ) = 1/θ(1 − θ). 1). g(θ)) = ˆ g(θ) − g(θ) ˆ (g (θ))2 ˆ nIF (θ) ′ ∼ N (0. n . a de modo que um intervalo de confian¸a aproximado para g(θ) = θ(1 − θ) ´ dado c e por X(1 − X) − zα/2 X(1 − X)(1 − 2X)2 . que n˜o ´ conhecido. . X(1 − X) + zα/2 n X(1 − X)(1 − 2X)2 .4. temos que (5.4.4. 1) em grandes amostras. Sejam X1 . X(1−X) n de modo que para valores grandes de n. X + zα/2 . c temos de (5. IF (θ) pode depender de θ.84 5.

temos que para n = 10 o intervalo (5. Q(X.4. . ca ca Consideremos para θ a fun¸˜o de densidade a priori π(θ).1. Xn uma amostra aleat´ria de tamanho n da o vari´vel aleat´ria X ∼ Exp(θ) .063) e para n = 20. e ca Exemplo 5. em geral.189. Considerando a amostra da Tabela 5. 5. n i=1 f (xi |θ)π(θ)dθ Defini¸˜o 5. .5.2. temos o intervalo (1.3. . com fun¸˜o densidade a o ca f (x|θ) = θe−θx .5. Portanto a fun¸˜o de ca ca densidade a posteriori para θ. c˜ e e . Sempre que poss´ ıvel. t2 ] satisa fazendo (5.1) t1 π(θ|X)dθ = γ. com coeficiente de confian¸a γ = 1 − α se c t2 (5.599). 1). 1). dada por e π(θ|X) = Θ n i=1 f (xi |θ)π(θ) .5 Intervalos de Confian¸a Bayesianos c 85 onde zα/2 ´ obtido na tabela da distribui¸˜o N (0. . Nos casos em que a fun¸ao de densidade a posteriori ´ sim´trica. Como no caso cl´ssico existem. Notemos que o intervalo aproximado para θ com n = 20 coincide com o intervalo exato obtido no Exemplo 5. x > 0. t2 ] ´ um intervalo de confian¸a Bayesiano ca e c para θ. 1 + zα/2 X 1 nX 2 .1). Xn uma amostra aleat´ria de tamanho n da vari´vel aleat´ria o a o X com fun¸˜o densidade de probabilidade (ou fun¸˜o de probabilidade) f (x|θ). de acordo com (4.5. .5. −1 ˆ Como IF (θ) = θ2 e θ = 1/X.5 Intervalos de Confian¸a Bayesianos c Sejam X1 .4. ´.4. infinitos intervalos [t1 .5. . segue de (5.4.3) se reduz a (1.2.4. t2 ] deve ser m´ ınimo. . Sejam X1 .1) que uma quantidade pivotal para θ ´ dada por e 1/X − θ a ∼ N (0. o comprimento do intervalo [t1 .6).405.1. Dizemos que [t1 .2. θ > 0.3) 1 − zα/2 X 1 nX 2. θ) = ˆ θ2 /n de modo que um intervalo de confian¸a com coeficiente de confian¸a aproximado c c γ = 1 − α ´ dado por e (5. .

5. .1) que o intervalo Bayesiano “sim´trico” para θ.10. temos que a distribui¸˜o a posteriori de µ dado X que ca denotamos por µ|X. ´ dada por e µ|X ∼ N n i=1 Xi + µ0 1 . 96 n+1 1 . 1).∞) (θ). Consideremos para µ a distribui¸˜o a priori N (µ0 . . . . . t2 ] deve ser escolhido de modo que n t1 − ou seja. 96 n+1 1 . Sendo γ = 0.5. 96 n+1 1 . temos ent˜o de (5.5. 95. temos que a densidade a posteriori de θ dado X1 . 96 n+1 1 n+1 e t2 = n i=1 Xi + µ0 + 1.5.2. θ).3. X(n) ))n+b I(max(a. Exemplo 5. Estima¸˜o por Intervalo ca os intervalos sim´tricos s˜o em geral os de menor comprimento. temos de (5. com a e coeficiente de confian¸a γ = 1 − α ´ obtido pela solu¸˜o das equa¸˜es c e ca co . 96 e t2 − i=1 Xi +µ0 n+1 1 n+1 = 1. . Xn ´ ıcio e dada por (5. Xi + µ0 − 1.4. ca ca Do Exemplo 4. 96. a M´todos computacionais s˜o em geral necess´rios para a obten¸˜o do intervalo e a a ca HPD. Sejam X1 . n+1 Exemplo 5. 1) que a ca [t1 . . 95 ´ dado por c n i=1 Xi + µ0 − 1. .1) e da tabela da distribui¸˜o N (0. Sejam X1 . O intervalo e a Bayesiano de menor comprimento ´ usualmente conhecido como o intervalo e de densidade a posteriori m´xima “highest posterior density (HPD) interval”. Xn uma amostra aleat´ria de tamanho n da o distribui¸˜o N (µ. . . θn+b+1 Ent˜o. n+1 n i=1 Xi + µ0 + 1. Xn uma amostra aleat´ria de tamanho n da o vari´vel aleat´ria X ∼ U (0. n+1 n+1 .X(n) ). .5.2) h(θ|X) = (n + b)(max(a.∞) (θ).86 5. θ Do Exerc´ 4. n+1 logo o intervalo Bayesiano de menor comprimento (HPD) para µ com coeficiente e de confian¸a γ = 0. Consideremos para θ a priori com densidade a o (Pareto) bab π(θ) = b+1 I(a. 1). t1 = n i=1 i=1 Xi +µ0 n+1 n 1 n+1 = −1.1. .

Considere o intervalo e (5. compare seu comprimento com o do c intervalo obtido no Exemplo 5.2. θ > 0.1) ´ o de menor e comprimento dentre todos os intervalos com coeficiente de confian¸a γ = 1 − α. .2. temos que o intervalo a e e (5.6.6 Exerc´ ıcios 5.4).5. e mostre que o intervalo (5.1.2. θ) = X(n) /θ ca ´ dada por (5.3) n˜o ´ o HPD que nesse caso deve ser obtido numericamente. c 5.6. X(n) ) max(a. X(n) .2.3) max(a. X(n) ) (1 − α/2)1/n+b de modo que o intervalo Bayesiano sim´trico para θ. X(n) )n+b α dθ = .5.1) X(n) . a 5. e 5. Considere o Exemplo 5. . 1/n+b (1 − α/2)1/n+b α/2 Desde que a densidade a posteriori (5. Mostre que a distribui¸˜o da quantidade pica votal n Q(X. Considere o Exemplo 5.4.9). Mostre que a distibui¸˜o de Q(X.2. com coeficiente de cone fian¸a γ = 1 − α.2. Seja X uma unica observa¸˜o da densidade ´ ca f (x|θ) = θxθ−1 0 < x < 1. α1/n Encontre seu coeficiente de confian¸a.2) n˜o ´ sim´trica.6 Exerc´ ıcios t1 max(a. Verifique a validade da express˜o (5.1).5. a e 5. θn+b+1 2 e t2 = max(a.2.3. ´ dado por c e (5.1. X(n) )n+b α dθ = θn+b+1 2 e ∞ t2 (n + b)max(a. X(n) ) (α/2)1/n+b . o que leva a t1 = max(a.2. θ) = 2θ i=1 Xi ´ quiquadrado com 2n graus de liberdade com densidade dada por (5.X(n) ) 87 (n + b)max(a.1.5. X(n) ) .

1). Sejam X1 . . .6. onde µ e σ 2 s˜o desconhecidos. Xn+1 . c (ii) Considere o intervalo de confian¸a para µ baseado na quantidade pivotal c X−µ. 80. X(n) ] um intervalo de confian¸a para θ. . Y ). . Encontre intervalos de confian¸a para E(X) e V ar(X) com coeficientes de c confian¸a γ = 1 − α. Sugira uma quantidade pivotal para construir um intervalo de confian¸a para θ com γ = 1 − α. σ 2 ). θ).8. . . . . Calcule seu coeficiente de c confian¸a. 5. S onde n n 1 1 2 X= Xi e S = (Xi − X)2 . Xn uma amostra aleat´ria da vari´vel aleat´ria X com o a o fun¸˜o densidade de probabilidade dada por ca f (x|θ) = θe−θx . Seja [X(1) . encontre k de modo que P [X − kS ≤ X9 ≤ X + kS] = 0.9. Sejam X1 . uma amostra aleat´ria de tamanho n + 1 (n > 1) da o distribui¸˜o N (µ. Sejam X1 . Compare o comprimento esperado deste intervalo com o comprimento esperado do intervalo em (i) usando o mesmo γ. n i=1 n i=1 (ii) Se n = 8. . . (i) Encontre o coeficiente de confian¸a associado ao intervalo (Y1 . 5.7. . c 5. Y2 ). Estima¸˜o por Intervalo ca (i) Mostre que −θlog X ´ uma quantidade pivotal e use-a para construir um e intervalo de confian¸a para θ com coeficiente de confian¸a γ = 1 − α. Sejam X1 . Mostre que o resultado vale para qualquer distribui¸˜o sim´trica em c ca e torno de θ.88 5. x > 0. Encontre o coeficiente de confian¸a associado ao c intervalo (Y /2. . o ca Seja Y1 < Y2 a amostra ordenada correspondente.θ+1/2) (x). X2 uma amostra aleat´ria de tamanho 2 da distribui¸˜o N (µ. . . Xn uma amostra aleat´ria da vari´vel aleat´ria X ∼ o a o N (θ. 5. Sejam X1 . c c (ii) Seja Y = (− log X)−1 . onde X = (X1 +X2 )/2. . .5. Xn uma amostra aleat´ria da vari´vel aleat´ria X com o a o fun¸˜o de densidade de probabilidade dada por ca f (x|θ) = I(θ−1/2. . ca a (i) Encontre c tal que c(X − Xn+1 ) ∼ tn−1 . θ > 0. c 5.

12.5. Sejam X1 . . . Considere o Exerc´ 4. e . . Simule uma amostra aleat´ria com o n = 10 da vari´vel Xe com m = 15 da vari´vel aleat´ria Y . sendo r = λ = 2. a (i) obtenha uma quantidade pivotal para construir um intervalo de confian¸a c para θ1 /θ2 . . .6. . c e Se n = 10 e n Xi = 18. com priori π(θ) = e−θ . . θ > 0. 95? 5. Considere θ = 2 e c simule uma amostra de X com n = 10. Como fica seu intervalo se x = 4? c 5. o a o Assumindo que as duas amostras s˜o independentes.6 Exerc´ ıcios 89 5. Obtenha um intervalo de confian¸a Bayesiano ıcio c para θ com coeficiente de confian¸a γ = 0. . Xn uma amostra aleat´ria da vari´vel aleat´ria X ∼ o a o Exp(θ1 ) e Y1 .12. . (ii) Suponha que θ1 = 1.11.1. Como fica o intervalo com γ = 0. 95. 0.14.13.1. Construa um intervalo de confian¸a Bayesiano sim´trico para θ com γ = 0.8).10. construa um intervalo aproximado para θ. Usando a amostra de tamanho n = 20 no Exemplo 3. . onde f (x|θ) ´ dada em (3. Xn uma amostra aleat´ria de tamanho n da distribui¸˜o o ca P oisson(θ). Construa um intervalo de confian¸a para θ ıcio c com coeficiente de confian¸a γ = 1 − α.9. como fica o intervalo? i=1 5. Ym uma amostra aleat´ria da vari´vel aleat´ria Y ∼ Exp(θ2 ). Como fica o seu a a o intervalo obtido a partir da quantidade pivotal encontrada em (i)? 5. . 95. . Sejam X1 . 5 e θ2 = 2. Considere o Exerc´ 4.

.

O mesmo pode acontecer com rela¸˜o ` aceita¸˜o da hip´tese H0 como verdadeira. o j´ ri ter´ que dee u a cidir pela culpa ou inocˆncia do indiv´ e ıduo. envolvendo um grupo possivelmente grande de indiv´ ıduos em que uma parte (escolhida ao acaso) recebe a vacina e o restante recebe uma substˆncia a in´qua. o j´ ri ter´ que e e u a se decidir por H0 ou por H1 . tem um comportamento a o bastante satisfat´rio. Com base nas evidˆncias apresentadas. o j´ ri pode estar cometendo um erro. apesar de n˜o apresentar propriedades ´timas. Com base nas evidˆncias (testemunhas. a u apesar das evidˆncias. Um exemca e plo comum ´ o caso em que um indiv´ e ıduo est´ sendo julgado por determinado a delito. por exemplo. Ao tomar. como o caso de hip´teses bilaterais. o indiv´ e ıduo pode ser inocente. ent˜o. Podemos. a decis˜o de aceitar H1 a (ent˜o rejeitar H0 ) como verdadeira.1 Id´ias B´sicas e a Em muitas situa¸˜es temos interesse em tomar a decis˜o de aceitar ou rejeitar co a determinada afirma¸˜o baseando-se em um conjunto de evidˆncias. pois. Situa¸˜es mais complexas. o j´ ri ca a ca o u estaria considerando como inocente um indiv´ ıduo culpado. s˜o obtidos utilizando o conhecido Lema de Neymano a Pearson. Nesse caso. os pesquisadores ter˜o o a . concluir que o j´ ri a u formula duas hip´teses: “H0 : o indiv´ o ıduo ´ inocente” e a alternativa “H1 : o e indiv´ ıduo ´ culpado”. Um problema mais pr´ximo da ´rea de atua¸˜o da estat´ o a ca ıstica (apesar de que muita estat´ ıstica tem sido utilizada em problemas jur´ ıdicos). Nesse caso. ´ o problema de se e decidir sobre a eficiˆncia ou n˜o de certa vacina utilizada no combate ` determie a a nada doen¸a. s˜o co o a tratadas utilizando-se a estat´ ıstica da raz˜o de verossimilhan¸as generalizada a c que. o 6.). fatos. Com base nos resultados desse experimento. etc. Os pesquisadores formulam ent˜o as hip´teses “H0 : a vacina n˜o c a o a ´ eficiente” e “H1 : a vacina ´ eficiente”.6. como os testes mais poderosos para hip´tese o o o nula simples contra alternativa simples e testes uniformemente mais poderosos para hip´teses compostas. Testes ´timos. um experimento ´ planee e e jado. Testes de Hip´teses o Neste cap´ ıtulo apresentamos a teoria de testes de hip´teses em um n´ baso ıvel tante introdut´rio.

. em que a0 corresponde a a¸ao de considerar a a ` c˜ hip´tese H0 como verdadeira e a1 corresponde a a¸ao de considerar a hip´tese o ` c˜ o H1 como verdadeira. . A fun¸˜o de decis˜o d divide o espa¸o amostral X em dois conjunca a c tos A0 = {(x1 . . .2 Formula¸˜o Estat´ ca ıstica Nesta se¸˜o os princ´ ca ıpios b´sicos da teoria s˜o especificados. . a ı A1 = {(x1 . Caso H0 seja reo o jeitada. por exemplo. . . No caso em que Θ0 = {θ0 } dizeca mos que H0 ´ simples.2. vamos chamar A0 de regi˜o de a c˜ a aceita¸ao e. . xn ) = a0 } e onde A0 ∪ A1 = X e A0 ∩ A1 = ∅. . . o que a e e seria bastante prejudicial ` popula¸˜o. tamb´m chamada de c˜ c˜ a e regi˜o cr´tica. . Como em A0 temos os pontos amostrais x = (x1 . X denota o espa¸o amostral associado ` amostra ca c a X1 . . . n˜o est´ descartada a possia a a bilidade de que erros sejam cometidos ao se considerar. . mas n˜o θ. o Defini¸˜o 6. por analogia. c˜ a o Denotamos por H0 (hip´tese nula) a hip´tese de interesse. A1 de regi˜o de rejei¸ao de H0 . . O mesmo e a e vale para a hip´tese alternativa H1 . com θ ∈ Θ. a1 }. dizemos que H0 ´ composta.2. na verdade. Testes de Hip´teses o ent˜o que se decidir por H0 ou H1 . 6. xn ) = a1 }. Novamente. xn ) que levam ` aceita¸ao de H0 . Chamamos de teste de uma hip´tese estat´stica a fun¸ao ca o ı c˜ de decis˜o d : X → {a0 . . xn ) ∈ X . H0 afirma que θ ∈ Θ0 (nota¸˜o: H0 : θ ∈ Θ0 ) e ca H1 afirma que θ ∈ Θ1 (nota¸˜o: H1 : θ ∈ Θ1 ). . dizemos que a distribui¸˜o de X est´ totalmente ca a especificada quando conhecemos f (x|θ) e θ. . xn ) ∈ X . Chamamos de hip´tese estat´stica qualquer afirma¸ao acerca ca o ı c˜ da distribui¸ao de probabilidades de uma ou mais vari´veis aleat´rias. Associados `s hip´teses H0 e H1 . Caso contr´rio. . Defini¸˜o 6. d(x1 . Xn . .92 6. . A distribui¸˜o de X ser´ dita estar ca a parcialmente especificada quando conhecemos a fun¸˜o de densidade (ou de ca probabilidade) f (x|θ).2. ou seja. Formalizamos a a a seguir a no¸˜o de hip´tese estat´ ca o ıstica. . .1. a vacina eficiente (H0 falsa) quando. ela n˜o o ´ (H0 ´ verdadeira). O estat´ a ca ıstico envolvido na pesquisa deve procurar utilizar t´cnicas que tornem m´ e ınima a probabilidade de se cometer erros. Na defini¸˜o acima. . aceitamos como verdadeira a hip´tese alternativa H1 . definimos a a o os conjuntos Θ0 e Θ1 . d(x1 . Sendo a vari´vel o a aleat´ria X distribu´ de acordo com a fun¸˜o de densidade (ou de probabio ıda ca lidade) f (x|θ). .

2. 0. (1. Uma moeda ´ escolhida aleatoriamente e lan¸ada trˆs vezes. respectivamente. o erro do tipo I ocorre quando rejeitamos H0 . sendo H0 falsa. a regi˜o cr´ a ıtica A1 = {(x1 . ent˜o. d)] = 0.P [X ∈ A0 |θ0 ] + 1. sendo H0 verdadeira. e c e Suponhamos que as hip´teses de interesse s˜o H0 : p = 0.1. enquanto que o erro do tipo II ocorre quando aceitamos H0 . 1. 2.6.P [X ∈ A1 |θ0 ] = P [X ∈ A1 |θ0 ] = α = PH0 [Rejeitar e R(θ1 . (1. d) = E[l(θ1 .P [X ∈ A1 |θ1 ] + 1. 5 (equilibrada) e a outra apresenta cara com probabilidade p = 0. d) = E[l(θ0 . 0. d)] = 0. (0. 1. 1). considerando a fun¸˜o de perda l(θ. x1 + x2 + x3 < 2}.2. Tabela 6. respectica a vamente. Podemos considerar. 1. 6. 1)}. a fun¸˜o de risco ´. 1). d) = 0 ou 1.2 Formula¸˜o Estat´ ca ıstica 93 Exemplo 6. Nesse caso. (1.1 dada abaixo. 5 e H1 : p = 0. 1). 0. 0). 1. 0). x3 ). O poder do teste com regi˜o cr´tica A1 para testar H0 : θ = θ0 ca a ı contra H1 : θ = θ1 ´ dado por e H0 ] . Mais precisamente. por exemplo. o a Seja Xi a vari´vel de Bernoulli que assume o valor 1 se ocorre cara no i-´simo a e lan¸amento e 0 caso contr´rio.P [X ∈ A0 |θ1 ] = P [X ∈ A0 |θ1 ] = β = PH1 [aceitar H0 ]. (0. Uma caixa cont´m duas moedas. Notemos que A0 ∪ A1 = X e A0 ∩ A1 = ∅. 0. dada por e ca e a R(θ0 . x1 + x2 + x3 ≥ 2}. Tipos de erros em testes de hip´teses o Decis˜o a H0 ´ verdadeira e H0 ´ falsa e Aceitar H0 Decis˜o correta Erro do tipo II a Rejeitar H0 Erro do tipo I Decis˜o correta a Defini¸˜o 6. x2 . de modo que A0 = {(x1 . (1. x3 ). x2 . se a decis˜o correta ou incorreta. Os riscos α e β s˜o conhecidos na literatura como probabilidades dos erros a dos tipos I e II. 6. A situa¸˜o descrita acima est´ ca a ilustrada na Tabela 6. 0). Uma apresenta cara com e probabilidade p = 0. c a X = {(0. 3. ´ tomada. (0. i = 1.1. 0). No caso em que H0 : θ = θ0 (simples) e H1 : θ = θ1 (simples).3.

. pois na distribui¸˜o N (0. maior poder dentre todos os testes com n´ menor ou igual a α. de modo que A1 = {x. procuramos a regi˜o cr´ ıvel a ıtica A∗ que tenha a menor pro1 babilidade de erro do tipo II. 41. . onde A0 = Ac . a . 1).2.35 0.03 0. ca √ 0.2. o Testes Mais Poderosos Nesta se¸˜o.3 abaixo. como nos cap´ ıtulos anteriores. conforme enfatizado anteriormente. . √ √ a ca onde Z = X n ∼ N (0.02 0.2. Ent˜o. 1).05 0. Ent˜o.2 abaixo. ou seja. . com distribui¸˜o ´ ca a o ca de probabilidade dada na Tabela 6.08 0. fixada a probabilidade do erro do tipo I. Exemplo 6. Xn uma amostra aleat´ria de tamanho n da o distribui¸˜o da vari´vel aleat´ria X ∼ N (µ.3 Hip´tese Nula Simples contra Alternativa Simples. c n = 1. ıvel α(A1 ) = PH0 [X ∈ A1 ] = f (x|θ0 ) x∈A1 e β(A1 ) = x∈A0 f (x|θ1 ). a temos que resolver a equa¸˜o α = PH0 [X ≥ c]. onde. ou seja. tamb´m conhecida ca e como n´ do teste. para determinar c. x ≥ 0. Testes de Hip´teses o (6.2. 1). 05.41 0.94 6. 64 ´ o percentil 95%. Notemos de (6.3.1) que π(θ1 ) = 1 − β. Consideremos as hip´teses H0 : ca a o o µ = 0 e H1 : µ = 1.05 0. Fun¸˜o de probabilidade da vari´vel aleat´ria ca a o X sob H0 e H1 X 0 1 2 3 4 5 f (x|θ0 ) 0. 05 com os respectivos β = β(A1 ) s˜o dadas na Tabela 6. 05 = PH0 [X ≥ c] = P [Z ≥ c n]. . Sejam X1 . 41}. o valor 1. Consideremos o teste com regi˜o cr´ a ıtica A1 = {x.1.04 0. 64.30 Notemos que as poss´ ıveis regi˜es cr´ o ıticas A1 de n´ ıvel α(A1 ) = 0. Logo c = 0. Suponhamos que n = 16 e que temos interesse em fixar α = 0. Consideremos o problema de se testar H0 : θ = θ0 versus H1 : θ = θ1 . onde β ´ a probabilidade de se cometer e o erro do tipo II. Enfatizamos que. α. + xn )/n. com uma unica observa¸˜o da vari´vel aleat´ria X. 1 Exemplo 6.1) π(θ1 ) = PH1 [X ∈ A1 ] = P [X ∈ A1 |θ1 ]. Tabela 6.05 0.50 f (x|θ1 ) 0. e 6. x = (x1 + . no caso discreto. x ≥ c}.12 0. .2.

4. f (x|θ0 ) L0 (x) b . onde a e b s˜o especificados e b > 0. ou seja. Ent˜o. 5} 0. com a e b conhecidos.6. quando f (x|θ1 ) L1 (x) a = ≥ .91 {2} 0. 05 ıvel A1 α A0 β {0. 05. 3.3.88 Portanto. do tipo aα + bβ. e O resultado que segue apresenta o teste que minimiza uma combina¸˜o ca linear dos erros.1) L1 (x) = i=1 f (xi |θ1 ) e L0 (x) = i=1 f (xi |θ0 ). 3. Testes Mais Poderosos o 95 Tabela 6.92 {3} 0.3.05 {0. a o a aα(A1 ) + bβ(A1 ) = a x∈A1 f (x|θ0 ) + b x∈A0 f (x|θ1 ) =a x∈A1 f (x|θ0 ) + b 1 − f (x|θ1 ) x∈A1 =b+ x∈A1 [af (x|θ0 ) − bf (x|θ1 )].05 {2.05 {0. Ent˜o. Prova. a mais poderosa ıvel (menor β) ´ dada por A1 = {3}. 1} 0. 4. para qualquer outro teste com a a regi˜o cr´tica A1 . temos que α(A1 ) = f (x|θ0 ) e β(A1 ) = f (x|θ1 ). 2. para qualquer teste com regi˜o cr´ a ıtica A1 . 5} 0. Consideremos o teste com regi˜o cr´tica a ı A∗ = 1 x.3 Hip´tese Nula Simples contra Alternativa Simples. Regi˜es cr´ o ıticas A1 com n´ α(A1 ) = 0. 5} 0. Lema 6. 1.3. temos que a ı aα(A∗ ) + bβ(A∗ ) ≤ aα(A1 ) + bβ(A1 ).1. dentre todas as regi˜es cr´ o ıticas de n´ α = 0. 1. x∈A1 x∈A0 para uma vari´vel aleat´ria X discreta. 4. 1 1 onde n n (6. L1 (x) a ≥ L0 (x) b . Portanto a soma aα(A1 ) + bβ(A1 ) ser´ m´ a ınima quando a regi˜o cr´ a ıtica incluir somente os pontos amostrais x tais que af (x|θ0 )−bf (x|θ1 ) ≤ 0. Conforme visto acima.

para testar ca e H0 : µ = 0 contra H1 : µ = 1.3. .3.3.3.1). Como α(A1 ) ≤ α(A∗ ). O objetivo ´ encontrar o teste M. . L(µ.2.P.1 novamente.3. a fun¸˜o de verossimilhan¸a ´ dada ca c e por n n (xi −µ)2 1 e− i=1 2 . ıvel Lema 6. Prova.3. 1 de modo que α = 0.3) kα(A∗ ) + β(A∗ ) ≤ kα(A1 ) + β(A1 ). x) = √ 2π de modo que o teste M. 1. quando nos referimos ao teste M. temos que (6. Ent˜o A∗ ´ a melhor regi˜o a a a 1 e cr´tica de n´vel α = α(A∗ ) para testar H0 : θ = θ0 contra H1 : θ = θ1 . a desigualdade 1 ∗ (6. O teste com regi˜o cr´ a ıtica (6. L0 (x) em que L0 (x) e L1 (x) s˜o dados em (6.1. ou seja.. bastando substituir as somas por integrais correspondentes.) de n´ α para testar H0 : θ = θ0 contra H1 : θ = θ1 . Testes de Hip´teses o o que conclui a prova. rejeita H0 quando L1 (x) = L0 (x) √1 2π n e− n n i=1 (xi −1)2 /2 x2 /2 i √1 2π e− n i=1 ≥ k. a Exemplo 6.3) implica que β(A1 ) ≤ β(A1 ).2) A∗ = 1 x.2. Xn uma amostra aleat´ria de tamanho n da o distribui¸˜o de X ∼ N (µ. 5 e β = 0.P. . o que conclui a prova. 1 Exemplo 6. 2. Nesse caso. 4}. Portanto. (Lema de Neyman-Pearson) Consideremos o teste com regi˜o a cr´tica ı (6. nos referimos a regi˜o cr´ ` a ıtica A∗ . Do Lema 6. L1 (x) ≥k . ı ı e 1 ∗ β(A1 ) ≤ β(A1 ) para qualquer outro teste A1 com α(A1 ) ≤ α. . Consideremos o Exemplo 6.2) ´ tamb´m conhecido como teste da raz˜o e e a de verossimilhan¸as. isto ´. Sejam X1 .96 6. .3. a demostra¸˜o ´ ca e an´loga.3.P. o teste mais poderoso rejeita H0 quando L1 (x)/L0 (x) ≥ k.3.1) c ca c sob H0 (L0 (x)) e sob H1 (L1 (x)). 3 sendo α + β = 0. quando a evidˆncia em favor de H1 (expressa por e L1 (x)) ´ maior que a evidˆncia em favor de H0 (expressa por L0 (x)). e e a seguir. O resultado que apresentamos a seguir considera o teste mais poderoso (M. 80. Calculando a fun¸˜o de verossimilhan¸a dada em (3.P. 1 1 para qualquer outra regi˜o cr´ a ıtica A1 . 1). 3.3. Para o caso em que X ´ uma vari´vel aleat´ria cont´ e a o ınua.3. Temos que o teste com α + β (a = b = 1) m´ ınimo tem regi˜o cr´ a ıtica dada por A∗ = {0.1.

c ´ tal que e n 0. 05 = PH0 i=1 Xi ≥ c . .3. sob H0 .5).P. onde Z ∼ N (0. β = P Z ≤ − 4. Sendo n = 9. n n e como n = 9. rejeita H0 quando n L1 (x) = L0 (x) √1 2 2πσ1 e n − − n i=1 (xi −µ)2 2σ2 1 (xi −µ)2 2σ2 0 n i=1 √1 2 2πσ0 e ≥ k. 92 . temos que c = 1.5) A∗ = 1 x. de (6. quando e n i=1 xi − n 2 que ´ equivalente a rejeitar H0 quando e regi˜o cr´ a ıtica do teste M. Sejam X1 .4). Testes Mais Poderosos o 97 ou seja. Queremos o teste M. 09. . 64 n + nµ0 .P. 1).3. 92.3. 91. dado por π(θ1 ) = 1 − β = 0.3. onde µ ´ conhecido. Exemplo 6.2. i=1 xi ≥ 4. temos que c = 4. que ´ equivalente a e .3.4) A∗ 1 = x. ´ dada por e n n i=1 ≥ k.P. i=1 Xi ∼ N (0. tem regi˜o cr´ a ıtica dada por (6. 92 = PH1 n i=1 Xi − n 4. σ 2 ). . Associada ` regi˜o cr´ a a ıtica (6. o teste M. √ n Como. De acordo com o Lema 6. a o e 2 2 2 para testar H0 : σ 2 = σ0 contra H1 : σ 2 = σ1 (> σ0 ). temos que n β = PH1 i=1 Xi < 4. de modo que.3. Dado α = 0.4. Sendo as hip´teses de interesse e a o H0 : µ = µ0 e H1 : µ = µ1 > µ0 . n).4) com c dado por √ c = 1. . ent˜o. O poder do 3 teste ´. xi ≥ log k + n/2 = c. por exemplo. 05.3 Hip´tese Nula Simples contra Alternativa Simples. Xn uma amostra aleat´ria de tamanho n da o vari´vel aleat´ria X ∼ N (µ.P. 64 n. 92 − n √ √ < .3. Portanto a (6. i=1 xi ≥ c . n (6.08 = 0. temos que o teste M.6.

sendo σ1 = 10.3. Sejam X1 . 10 10 2 Assim. (Xi − µ)2 ∼ χ2 . . . 15. Testes de Hip´teses o n i=1 (xi − µ) ≥ 2 log(k( σ1 )n ) σ0 1 2 1 2 σ0 − 1 2 σ1 = c.3. i=1 (xi − µ)2 ≥ 146. associado ` regi˜o cr´ a a ıtica (6.5. sendo α = 0. ´ dada por e n (6. temos que o valor de c em (6. sob H1 . 456 .98 6.6) ´ dado pela solu¸˜o da equa¸˜o n n α = PH0 i=1 (Xi − µ)2 ≥ c = P n i=1 i=1 (Xi − µ)2 c ≥ 2 . . i=1 (xi − µ)2 ≥ c . n 2 σ0 2 ent˜o. Consideca a o ca remos o problema de testar H0 : θ = θ0 contra H1 : θ = θ1 (θ1 > θ0 ). sob H0 .3. (Xi − µ)2 ∼ χ2 . 456 = P χ2 ≤ 14. 85. a regi˜o cr´ a a ıtica do teste M.3. n = 10 e σ0 = 8. 2 Nesse caso. 0 temos que 10 β = PH1 i=1 (Xi − µ)2 < 146.3. 05. Xn uma amostra aleat´ria de tamanho n da o distribui¸˜o da vari´vel aleat´ria X com distribui¸˜o Bernoulli(θ).7) temos o poder π(σ1 ) = 1 − β = 0.7) A∗ = 1 x. 10 10 i=1 pois.P. 2 σ0 σ0 Mas. . 646 = 0. Ent˜o. e ca ca Fixando α. Exemplo 6. De . 05 = P χ2 ≥ 10 c 8 onde χ2 ´ a vari´vel aleat´ria com distribui¸˜o quiquadrado com 10 graus de a o ca 10 e liberdade. temos a 0. Portanto temos que a regi˜o cr´ a ıtica ´ dada por e 10 (6.6) A∗ = 1 x.

a regi˜o cr´ a ıtica do teste M.1.P. 6 e n = 10. 6) = 1 − e 0. Portanto o poder associado ` regi˜o cr´ a a ıtica (6. a Sob H0 . i=1 xi ≥ c .P.8). 167. temos que n α = PH0 i=1 Xi ≥ c . ca n i=1 nθ(1 − θ) Xi − nθ ∼ N (0. θ0 ). θ1 (1 − θ0 ) θ0 (1 − θ1 ) que se reduz a n i=1 i=1 xi ≥k 1 − θ0 1 − θ1 = c. ent˜o sendo α = 0. ou seja. Assim. leva ` regi˜o cr´ a a ıtica 10 (6. 055.6.3. 5.1). ´ dada por e n A∗ = 1 x. pelo menos).3. Testes Mais Poderosos o 99 acordo com o Lema de Neyman-Pearson e a fun¸˜o de verossimilhan¸a dada ca c em (3. rejeita H0 quando n θ1 θ0 que pode ser escrita como i=1 n i=1 xi xi (1 − θ1 )n− (1 − θ0 ) n n i=1 n i=1 xi xi n− ≥ k. θ0 = 0. xi ≥ log[k( 1−θ0 )n ] 1−θ1 θ1 (1−θ0 ) log[ θ0 (1−θ1 ) ] Portanto a regi˜o cr´ a ıtica do teste M. 833 = 0. a . associada ` regi˜o cr´ a a ıtica A∗ em (6. 833. temos que 1 10 β = PH1 i=1 Xi ≤ 7 = 0. n .3 Hip´tese Nula Simples contra Alternativa Simples. n Xi ∼ Binomial(n. i=1 xi ≥ 8 . 1). podemos usar a aproxima¸˜o normal. θ1 = i=1 0.8) ´ dado por π(0.8) A∗ = 1 x.3. Sendo n grande (maior que 20.

100

6. Testes de Hip´teses o

Dado α, podemos obter o valor de c na regi˜o cr´ a ıtica (6.3.8), como solu¸˜o da ca equa¸˜o ca c − nθ0 α=P Z≥ , nθ0 (1 − θ0 ) onde Z ∼ N (0, 1). Definimos a seguir n´ descritivo que est´ associado ao valor efetivamente ıvel a observado da estat´ ıstica do teste. Defini¸˜o 6.3.1. Consideramos como n´vel descritivo, que denotamos por α, ca ı ˆ como o menor n´vel de significˆncia α para o qual a hip´tese nula H0 seria ı a o rejeitada. Notemos que, se α > α, rejeitamos H0 e, se α < α, n˜o rejeitamos H0 , onde ˆ ˆ a α ´ o n´ de significˆncia adotado. e ıvel a Exemplo 6.3.6. Consideremos novamente o Exemplo 6.3.3 e suponhamos que para uma amostra de n = 9 observa¸oes, x = 0, 68. Portanto c˜ α = PH0 [X ≥ 0, 68] = P [Z ≥ 2, 04] = 0, 02, ˆ onde Z ∼ N (0, 1). Nesse caso, tomando α = 0, 05, rejeitamos H0 : µ = 0.

6.4 Testes Uniformemente Mais Poderosos
Na se¸˜o anterior consideramos testes ´timos (M.P.) para testar hip´teses nuca o o las simples contra alternativas simples. Nesta se¸˜o generalizamos os resultados ca da Se¸˜o 6.3 para o caso de hip´teses mais complexas. A Se¸˜o 6.4.1 apresenta ca o ca testes ´timos para o caso em que temos hip´tese nula simples e alternativas como o postas. Na Se¸˜o 6.4.2, discutimos brevemente o caso em que as duas hip´teses ca o s˜o compostas. a 6.4.1 Hip´tese nula simples contra alternativa composta o Consideremos que as hip´teses de interesse s˜o H0 : θ = θ0 contra H1 : θ ∈ Θ1 . o a Defini¸˜o 6.4.1. Um teste A∗ ´ dito ser uniformemente mais poderoso ca 1 e (U.M.P.) para testar H0 : θ = θ0 contra H1 : θ ∈ Θ1 , se ele ´ M.P. de e n´vel α para testar H0 : θ = θ0 contra H1 : θ = θ1 , qualquer que seja θ1 ∈ Θ1 . ı De acordo com a Defini¸˜o 6.4.1, a regi˜o cr´ ca a ıtica A∗ n˜o pode depender 1 a particularmente de θ1 , para qualquer θ1 ∈ Θ1 .

6.4 Testes Uniformemente Mais Poderosos

101

Exemplo 6.4.1. Sejam X1 , . . . , Xn uma amostra aleat´ria de tamanho n da o distribui¸˜o N (µ, 1). Consideremos as hip´teses H0 : µ = 0 contra H1 : µ > 0. ca o Neste caso, Θ1 = {µ; µ > 0}. Para testar H0 : µ = 0 contra H1 : µ = µ1 > 0, ∗ temos do Exemplo 6.3.3 que o teste M.P. tem regi˜o cr´ a ıtica dada por A1 = n ∗ {x; i=1 xi ≥ c}. Como A1 n˜o depende do particular µ1 especificado acima, a segue da Defini¸˜o 6.4.1 que A∗ ´ a regi˜o cr´ ca a ıtica do teste U.M.P. para testar 1 e H0 : µ = 0 contra H1 : µ > 0. Exemplo 6.4.2. Sejam X1 , . . . , Xn uma amostra aleat´ria de tamanho n da o distribui¸˜o Bernoulli(θ). Consideremos as hip´teses H0 : θ = 0, 5 contra ca o H1 : θ < 0, 5. Para testar H0 : θ = 0, 5 contra H1 : θ = θ1 < 0, 5, temos que o n teste M.P. tem regi˜o cr´ a ıtica dada por A∗ = {x, i=1 xi ≤ c}. Como A∗ n˜o 1 1 a depende do particular valor de θ1 especificado em H1 , temos que A∗ ´ a regi˜o e a 1 cr´ ıtica do teste U.M.P. para testar H0 : θ = 0, 5 contra H1 : θ < 0, 5. Exemplo 6.4.3. Sejam X1 , . . . , Xn uma amostra aleat´ria da vari´vel aleat´ria o a o X ∼ N (µ, 1). Consideremos as hip´teses H0 : µ = 0 contra H1 : µ = 0. o Para testar H0 : µ = 0 contra H1 : µ = 1, o teste M.P. ´ dado por A∗ = e 1 n {x, i=1 xi ≥ c}. Por outro lado, para testar H0 : µ = 0 contra H1 : µ = −1, n o teste M.P. tem regi˜o cr´ a ıtica dada por A∗ = {x; i=1 xi ≤ c}. Portanto a 1 regi˜o cr´ a ıtica do teste M.P. depende do particular valor de µ1 escolhido para H1 , ou seja, a regi˜o cr´ a ıtica n˜o ´ unica. Portanto n˜o existe teste U.M.P. para a e´ a testar H0 : µ = 0 contra H1 : µ = 0.
∗ Defini¸˜o 6.4.2. A fun¸ao de poder π(θ) com regi˜o cr´tica A1 para testar ca c˜ a ı H0 : θ = θ0 contra H1 : θ ∈ Θ1 ´ dada por e

π(θ) = Pθ [X ∈ A∗ ], 1 ou seja, ´ a probabilidade de rejeitar H0 para θ ∈ Θ. Notemos que π(θ0 ) = α. e Exemplo 6.4.4. Sejam X1 , . . . , Xn , uma amostra aleat´ria de tamanho n da o distribui¸˜o N (µ, 1). Consideremos o problema de testar H0 : µ = 0 contra ca H1 : µ > 0. Conforme visto no Exemplo 6.4.1, a regi˜o cr´ a ıtica do teste U.M.P. n ´ dada por A∗ = {x, i=1 xi ≥ c}. Sendo n = 9 e α = 0, 05, temos, como e 1 √ n no Exemplo 6.3.3, que c = 1, 64 9 = 4, 92, de modo que A∗ = {x; i=1 xi ≥ 1 4, 92}. A fun¸˜o de poder ´, ent˜o, dada por ca e a
9

(6.4.1)

π(µ) = Pµ
i=1

Xi ≥ 4, 92 = 1 − Φ

4, 92 − 9µ 3

,

onde Φ(.) denota a fun¸˜o de distribui¸˜o acumulada da distribui¸˜o N (0, 1). ca ca ca Ent˜o, a π(0, 3) = 1 − Φ(0, 74) = 1 − 0, 77 = 0, 23.

102

6. Testes de Hip´teses o

De modo similar, π(0, 5) = 1 − Φ(0, 14) = 0, 44 e π(1, 0) = 0, 91 e π(0, 0) = 0, 05 = α. Graficamente, temos a Figura 6.1 que representa a fun¸˜o poder do ca teste. Figura 6.1. Fun¸˜o poder dada em (6.4.1) ca

π(µ)
1

0.5

0.05 0 0.5 1

µ

6.4.2 Hip´teses compostas o Nesta se¸˜o consideramos brevemente testes U.M.P. para situa¸˜es onde as ca co hip´teses nula e alternativa s˜o compostas. Mais especificamente, consideramos o a o problema de se testar as hip´teses H0 : θ ∈ Θ0 contra H1 : θ ∈ Θ1 . O o resultado apresentado a seguir estabelece condi¸˜es para que se tenha o teste co U.M.P. para testar as hip´teses compostas acima. A demonstra¸˜o pode ser o ca vista em De Groot (1975). Teorema 6.4.1. No caso em que X1 , . . . , Xn seguem uma distribui¸ao da c˜ fam´lia exponencial (Se¸ao 2.4), temos que o teste U.M.P. para testar H0 : ı c˜ θ = θ0 contra H1 : θ > θ0 ´ tamb´m U.M.P. para testar H0 : θ ≤ θ0 contra e e H1 : θ > θ0 . Tamb´m o teste U.M.P. para testar H0 : θ = θ0 contra H1 : θ < θ0 e ´ U.M.P. para testar H0 : θ ≥ θ0 contra H1 : θ < θ0 . e Exemplo 6.4.5. Sejam X1 , . . . , Xn uma amostra aleat´ria de tamanho n da o vari´vel aleat´ria X ∼ N (µ, 1). De acordo com o Teorema 6.4.1, temos do a o Exemplo 6.4.1 que o teste U.M.P. para testar H0 : µ ≤ 0 contra H1 : µ > 0 n ∗ tem regi˜o cr´ a ıtica dada por A1 = {x; =1 xi ≥ c} . Exemplo 6.4.6. Sejam X1 , . . . , Xn uma amostra aleat´ria da vari´vel aleat´ria o a o X ∼ Bernoulli(θ). De acordo com o Teorema 6.4.1 e Exemplo 6.4.2, segue que

π(θ) = Pθ [X ∈ A∗ ]. x) supθ∈Θ0 L(θ. . x) ≥c . x) supθ∈Θ0 L(θ. o . ca co Essas situa¸˜es compreendem o caso das fam´ co ılias exponenciais unidimensionais. σ 2 ) com µ e σ 2 desconhecidos. λ(x) deve ser ca “pr´ximo” de zero. 1 A fun¸˜o de poder do teste U. λ(x) = Observemos que 0 ≤ λ(x) ≤ 1. i=1 xi ≤ c}.5 Testes da Raz˜o de Verossimilhan¸as Generalizada a c Na Se¸˜o 6.2.2). por exemplo. 5 ´ dada por e n A∗ = {x.4. x) = max 1. ou seja. para testar H0 : θ ≥ 0. a c Consideremos uma situa¸˜o bastante geral onde as hip´teses de interesse ca o s˜o a H0 : θ ∈ Θ0 versus H1 : θ ∈ Θ1 onde Θ = Θ0 ∪ Θ1 . nesta situa¸˜o mais geral. esperamos que o o o denominador seja grande em rela¸˜o ao numerador. e se a hip´tese H0 for falsa. x) Podemos notar que. quando as hip´teses s˜o simples. 5 contra H1 : θ < 0. n˜o existem testes UMP para testar H0 : θ = θ0 e a versus H1 : θ = θ0 . Um procedimento que produz testes razo´veis e que pode ser utilizado em muitos casos.M.M. supθ∈Θ1 L(θ. Θ0 = {θ0 } e o a Θ1 = {θ1 }. o TRVG coincide com o LNP dado em (6.6. ca 1 6. x) ≤c . x) supθ∈Θ1 L(θ. pois o numerador ´ o supremo com rela¸˜o a θ e ca pertencente a um subconjunto de Θ (Θ0 ∈ Θ). θ ∈ Θ. Vimos tamb´m que.5 Testes da Raz˜o de Verossimilhan¸as Generalizada a c 103 o teste U. supθ∈Θ L(θ. supθ∈Θ0 L(θ. Se a hip´tese H0 for verdadeira. x) por facilidades computacionais o TRVG pode tamb´m ser definido como e (6.1) A∗ = 1 x.3.4 vimos que os testes UMP existem apenas em situa¸˜es especiais.5. Θ0 ∩ Θ1 = ∅. ou seja. e.. enquanto que o denominador ´ e o supremo sobre todo conjunto Θ. Como supθ∈Θ L(θ. ca a a N (µ. esperamos o que λ(x) esteja “pr´ximo” de 1. portanto. Tamb´m n˜o existe teste UMP na maioria dos casos em que e a a distribui¸˜o envolve mais de um parˆmetro desconhecido como. ´ tamb´m ca ca e e como na Defini¸˜o 6. O TRVG pode ser definido como o teste com regi˜o cr´ a ıtica dada por (ver Bickel e Doksum(1976)) A∗ = 1 x.P. Θ0 = ∅ e Θ1 = ∅. ´ o a e Teste da Raz˜o de Verossimilhan¸as Generalizada (TRVG). supθ∈Θ0 L(θ. em geral.P. sem muita dificuldade.

ent˜o.1) temos que resolver a equa¸˜o ca α = supθ∈Θ0 P (λ(X) ≤ c).3 novamente. a c ˆ 2) obter o EM V θ0 de θ. em geral. Para isso. resolvendo a equa¸˜o α = PH0 (h(λ(X)) ≤ c). Podemos simplificar λ(x) usando o fato de que (6.X) . Exemplo 6.5. x) de modo que e λ(x) = (2π)−n/2 e− 2 (2π)−n/2 e− 2 1 1 (xi −µ0 )2 (xi −x)2 = e− 2 [ 1 (xi −µ0 )2 − (xi −x)2 ] .1) ´ L(µ0 .1) temos que o TRVG rejeita H0 quando e− 2 (µ0 −x) ≤ c.X) 4) encontrar a fun¸˜o h.5. Conforme vimos no Exemplo e 6.5. os seguintes passos devem ser seguidos: ca ˆ 1) obter o estimador de m´xima verossimilhan¸a (EM V ) θ de θ. ca A seguir apresentamos alguns exemplos. Como a hip´tese H0 s´ especifica um unico valor para o o ´ µ. Testes de Hip´teses o Para determinar c em (6. o numerador de λ(x) em (6. De (6. ou.5. ca o Para implementa¸˜o do TRVG.5. 3) calcular λ(X) = ˆ L(θ0 . ca 5) obter c. Pelo Exemplo 3.3.3 n˜o existe teste UMP nesse caso. Consideremos o Exemplo 6.2) (xi − µ0 )2 = (xi − x)2 + n(x − µ0 )2 .1. n|x − µ0 | ≥ a}. precisamos da distribui¸˜o da estat´ ca ıstica λ(X) que. mas agora o interesse ´ testar H0 : µ = µ0 versus H1 : µ = µ0 . quando θ ∈ Θ0 .1. podemos encontrar uma fun¸˜o h estritamente a ca crescente no dom´ ınio de λ(x) tal que h(λ(X)) tenha uma forma simples e uma distribui¸˜o conhecida e tabelada sob a hip´tese H0 .1. temos que o EM V a e ˆ de µ ´ dado por µ = X.4. que ´ equivalente a rejeitar H0 quando e |x − µ0 | ≥ −2logc/n. n 2 Portanto a regi˜o cr´ a ıtica do TRVG ´ dada por e √ A∗ = {x.104 6. n˜o ´ a e simples de ser obtida. ˆ L(θ. 1 .

1) quando µ ´ o verdadeiro valor do parˆmetro. 96 − nµ)]. . onde Z ∼ N (0. 4. 3) = π(−0. n|x − µ0 | ≥ 1. n = 9.2. ca Figura 6. ˆ e ˆ ˆ2 Logo a estat´ ıstica do TRVG ´ dada por e . 4/9 − 0| < 1. 96 ≤ Z ≤ 1. Sejam X1 . Xn uma amostra aleat´ria da vari´vel aleat´ria o a o X ∼ N (µ.5 Testes da Raz˜o de Verossimilhan¸as Generalizada a c 105 Fixado α.4. obtemos a de forma que √ Como sob H0 . 05.5 -1 -0. σ 2 ). n˜o rejeitamos H0 pois a fun¸˜o de poder do teste ´ ca e √ √ √ √ π(µ) = Pµ ( n|X| ≥ 1. . De maneira similar.6. σ 2 ) com µ e σ 2 desconhecidos. −∞ < µ < ∞. Notemos que π(0) = 1 − P (−1. 96}. e assim por diante. 05 √ temos que A∗ = {x. Sendo α = 0.2. .5.1. n(X − µ0 ) ∼ N (0. O interesse ´ testar H0 : µ = µ0 versus e H1 : µ = µ0 . 96. 96) = 1 − P (−1. i=1 xi = 3. 1 √ n a 9|3. A Figura 6. Considerando µ0 = 0.5 1 µ Exemplo 6.2 apresenta o gr´fico dessa fun¸˜o poder para os daa a ca dos acima. Nesse caso. σ 2 ). σ 2 ) em Θ ´ dado por µ = X e ˆ e σ 2 = (Xi − X)2 /n e em Θ0 ´ dado por µ0 = µ0 e σ0 = (Xi − µ0 )2 /n. 96 − nµ ≤ n(X − µ) ≤ 1. π(0. 1). Fun¸˜o poder √ α = PH0 ( n|X − µ0 | ≥ a) π(µ) 1 0. Θ0 = {(µ0 . . σ 2 > 0} De acordo com o Exemplo 3. Nesse caso. σ 2 > 0} e Θ = {(µ. 15. 96 − nµ) − Φ(−1. √ e pois temos que n(X − µ) ∼ N (0. 3) = 0. o EM V de (µ. 1). temos que a = zα/2 . 96 − nµ) √ √ = 1 − [Φ(1.5 0 0. 96) = 0.

5. σ 2 ).4. temos que o TRVG rejeita H0 quando a (xi − x)2 2 σ0 n/2 e − (xi −x)2 2σ2 0 ≤ c. 306. ent˜o n(x−µ0 ) = 1. Consideremos novamente o Exemplo 6. 68 e s = 1. e 2 Θ0 = {(µ. −∞ < µ < ∞.2. . 2. Usando (6. Nesse caso. Se µ0 = 0. a e ˆ ˆ2 estat´ ıstica do TRVG ´ dada por e λ(x) = 2 (2π)−n/2 (σ0 )−n/2 e − 1 2σ2 0 Θ = {(µ.1. a = 2.. dado o a n−1 S α = 0. a Exemplo 6. 05 e n = 9 obtemos.3.5.106 6.5. enquanto que em Θ0 ´ dado por µ0 = X e σ0 = σ0 . x = 0.2). mas sendo que o 2 2 interesse ´ testar H0 : σ 2 = σ0 versus H1 : σ 2 = σ0 . σ 2 = σ0 } (xi −x)2 √ e Pelo Exemplo 3. σ 2 > 0} (xi −x)2 (xi −x)2 (2π)−n/2 (ˆ 2 )−n/2 e σ − 12 2ˆ σ = σ2 ˆ 2 σ0 n/2 e − 1 2σ2 0 (xi −x)2 +n/2 . Logo. 7 de a s modo que n˜o rejeitamos H0 . 1 s onde s2 = . −∞ < µ < ∞. σ 2 ). o EM V de (µ. σ 2 ) em Θ ´ dado por µ = X e σ 2 = e ˆ ˆ 2 (Xi − X)2 /n. Sob a hip´tese H0 . n(X−µ0 ) ∼ tn−1 e. ent˜o. Ent˜o. Testes de Hip´teses o − 1 2ˆ 2 σ 0 1 λ(x) = (2π)−n/2 (ˆ0 )−n/2 e σ2 (xi −µ0 )2 (xi −x)2 σ (2π)−n/2 (ˆ 2 )−n/2 e− 2ˆ 2 σ = σ2 ˆ σ0 ˆ2 n/2 . temos que o TRVG rejeita H0 quando   1 1+ n(x−µ0 )2 (xi −x)2 n/2  ≤c que ´ equivalente a rejeitar H0 quando e √ n|x − µ0 | ≥ (c−2/n − 1)(n − 1) (xi −x)2 n−1 Portanto a regi˜o cr´ a ıtica do TRVG ´ dada por e √ n|x − µ0 | ≥a A∗ = x. usando a tabela da distribui¸˜o√t com 8 graus de ca liberdade.

A fun¸˜o de verossimilhan¸a pode ser escrita como ca c L(θ. x(1) ≤ θ0 . a 2 n−1 σ0 usando a tabela da distribui¸˜o quiquadrado com 8 graus de liberdade.4.5. y > 0 ent˜o a fun¸˜o log g(y) (e tamb´m a ca e g(y)) ´ crescente para y < n. x ≥ θ 0. Portanto o TRVG ´ equivalente a rejeitar H0 quando e (xi − x)2 ≤ c1 2 σ0 (Xi −X)2 ou (xi − x)2 ≥ c2 . A prova desse resultado envolve conhecimentos avan¸ados c de probabilidade e pode ser encontrada em Sen e Singer (1993). 2 σ0 Sob a hip´tese H0 . como na Se¸˜o 5. dado α = 0. 534 se considerarmos. x) = e− 0. atingindo o ponto de m´ximo em y = n e ´ e a e decrescente para y > n. logo g(y) ≤ c se e somente se y ≤ c1 ou y ≥ c2 com g(c1 ) = g(c2 ). x(1) ≥ θ0 − log c n . Podemos verificar que L(θ. c1 = ca 2. Como mencionado anteriormente. probabilidades iguais ca para as duas caudas. Logo. .5 Testes da Raz˜o de Verossimilhan¸as Generalizada a c 107 Notemos que se g(y) = y n/2 e−y/2 . .6. . e−n(x(1) −θ0 ) . Portanto a estat´ e ıstica do TRVG ´ dada por e λ(x) = 1. Exemplo 6. resolvendo esse problema pelo menos para o caso de amostras grandes. θ ≤ x(1) . Sejam X1 . ent˜o. O Teorema a seguir fornece a distribui¸˜o assint´tica ca ca o da estat´ ıstica do TRVG. em Θ. x) ´ uma fun¸˜o crescente e e ca em θ no intervalo −∞ < θ ≤ x(1) . . xi +nθ . 180 e c2 = 17. o ∼ χ2 e. o EM V de θ ´ θ = X(1) e em e ˆ ˆ ˆ Θ0 ´ dado por θ = θ0 se x(1) > θ0 e θ = x(1) se x(1) ≤ θ0 . Xn uma amostra aleat´ria da vari´val aleat´ria o a o X com fun¸˜o densidade de probabilidade dada por ca f (x|θ) = e−(x−θ) .2. a forma e a distribui¸˜o de λ(X) poca dem ser complicadas e nem sempre podemos encontrar uma fun¸˜o h com ca distribui¸˜o conhecida. 05 e n = 9 obtemos. . x<θ onde −∞ < θ < ∞. x(1) > θ0 Portanto a regi˜o cr´ a ıtica do TRVG pode ser escrita como A1 = x. θ > x(1) Suponhamos que o interesse seja testar H0 : θ ≤ θ0 versus H1 : θ > θ0 onde θ0 ´ um valor especificado.

p. . . a u a a Exemplo 6. Sejam X1 . σ 2 ). −∞ < µX < ∞. σ 2 > 0} e Θ = {(µX . Nesse caso Θ0 = {(µX . 05. σ 2 ). x) de o ´ e modo que λ(x) = e−5n 5 xi ! xi xi ! e−nx x xi = e−n(5−x) (5/x) xi Pelo Teorema 6.1.5. . Xn uma amostra aleat´ria da vari´vel aleat´ria o a o X ∼ P oisson(θ). . Suponhamos que as amostras s˜o independentes e que o interesse ´ a e testar H0 : µX = µY versus H1 : µX = µY .108 6. µY = Y ˆ .5. co Exemplo 6. µY .5. Sejam X1 . Pelo e ˆ Exemplo 3. Testes de Hip´teses o Teorema 6.d. Ym uma amostra aleat´ria da vari´vel aleat´ria Y ∼ o a o N (µY . onde um valor aproximado para c ´ obtido de modo que P (χ2 ≥ c) = 0. . . ca ca A seguir apresentamos alguns exemplos onde o interesse ´ a compara¸˜o de e ca duas popula¸˜es. . . . ent˜o a c˜ a distribui¸ao da estat´stica −2logλ(X) converge para a distribui¸ao quiquadrado c˜ ı c˜ quando o tamanho da amostra n tende ao infinito. −∞ < µY < ∞. −∞ < µ < ∞.6. Xn uma amostra aleat´ria da vari´vel aleat´ria o a o X ∼ N (µX . µY . O n´mero de graus de u liberdade da distribui¸ao limite ´ a diferen¸a entre o n´mero de parˆmetros c˜ e c u a n˜o especificados em Θ e o n´mero de parˆmetros n˜o especificados em Θ0 . Sob as condi¸oes de regularidade.5. se θ ∈ Θ0 . .1 ´ L(5.2. µX = µY = µ. o numerador de λ(x) em 6. . Xn uma amostra aleat´ria da vari´vel aleat´ria o a o X com f.5 temos que o EM V de θ ´ dado por θ = X. Sejam X1 . f (x|θ).1 temos que −2logλ(x) = −2 −n(5 − x) + Portanto a regi˜o cr´ a ıtica do TRVG ´ dada por e A∗ = {−2[−n(5 − x) + 1 xi log5/x] ≥ c} xi log(5/x) . σ 2 > 0} Em Θ os EM V s s˜o dados por a µX = X ˆ e . . . que e 1 requer a utiliza¸˜o da tabela da distribui¸˜o quiquadrado. . .5.5. Como a hip´tese H0 e o s´ especifica um unico valor para θ. σ 2 ). σ 2 ) e Y1 . O interesse ´ testar H0 : θ = 5 versus H1 : θ = 5. .

6.5 Testes da Raz˜o de Verossimilhan¸as Generalizada a c

109

(Xi − X)2 + (Yi − Y )2 , n+m enquanto que em Θ0 s˜o dados por a σ2 = ˆ µ0 = ˆ Xi + Yi n+m e σ0 = ˆ2 (Xi − µ0 )2 + (yi − µ0 )2 ˆ ˆ . n+m

Logo a estat´ ıstica do TRVG pode ser escrita como λ(x, y) = (2π)−(n+m)/2 (ˆ0 )−(n+m)/2 e σ2

1 2ˆ 2 σ 0 1

{

(xi −ˆ 0 )2 + µ (xi −x)2 +

(yi −ˆ 2 )} µ0 (yi −y)2 }

σ (2π)−(n+m)/2 (ˆ 2 )−(n+m)/2 e− 2ˆ 2 { σ 2 (n+m)/2 σ ˆ = . σ0 ˆ2

Usando (6.5.1), temos que o TRVG rejeita H0 quando   1 1+
n(x−ˆ 0 )2 +m(y−ˆ 0 )2 µ µ (yi −y)2 (xi −x)2 +

(n+m)/2 

≤c

que ´ equivalente a rejeitar H0 quando e

n(x − µ0 )2 + m(y − µ0 )2 ˆ ˆ ≥ c1 s2 p onde s2 = p
(xi −x)2 + (yi −y)2 . n+m−2

Mas m (x − y) n+m

x − µ0 = ˆ y − µ0 = ˆ

n (y − x), n+m portanto a regi˜o cr´ a ıtica do TRVG ´ dada por e   x−y x−y A∗ = (x, y); ≤ c1 ou 1  1 1 1 sp ( n + m ) sp ( n + Sob a hip´tese H0 , o
Sp X−Y √1
1 n+m

1 m)

≥ c2

  

utilizando a tabela da distribui¸˜o t com n + m − 2 graus de liberdade. ca

∼ tn+m−2 . Os valores de c1 e c2 s˜o obtidos a

Exemplo 6.5.7. Sejam X1 , . . . , Xn uma amostra aleat´ria da vari´vel aleat´ria o a o 2 X ∼ N (µX , σX ) e Y1 , . . . , Ym uma amostra aleat´ria da vari´vel aleat´ria Y ∼ o a o

110

6. Testes de Hip´teses o

2 N (µY , σY ). Suponhamos que as amostras s˜o independentes e que o interesse a 2 2 2 2 ´ testar H0 : σX = σY versus H1 : σX = σY . Nesse caso e

Θ0 = {(µX , µY , σ 2 ); −∞ < µX , µY < ∞, σ 2 > 0} e
2 2 2 2 Θ = {(µX , µY , σX , σY ), −∞ < µX , µY < ∞, σX > 0, σY > 0}

Em Θ os EM V s dos parˆmetros s˜o dados por a a µX = X ˆ (Xi − X)2 , n enquanto que em Θ0 s˜o dados por a σX = ˆ2 µX = X, ˆ µY = Y , ˆ σ2 = ˆ e , µY = Y ˆ (Yi − Y )2 m

σY = ˆ2

(Xi − X)2 + (yi − Y )2 . n+m

Logo a estat´ ıstica do TRVG ´ e λ(x, y) =
σ (2π)−(n+m)/2 (ˆ 2 )−(n+m)/2 e− 2ˆ 2 { σ 1

(xi −x)2 + −
1 2ˆ 2 σ Y

(yi −y 2 } (yi −y)2

(2πˆX )−n/2 e σ2 =

1 2ˆ 2 σ X

(xi −x)2

(2πˆY )−m/2 e σ2

(ˆX )n/2 (ˆY )m/2 σ2 σ2 , (ˆ 2 )(n+m)/2 σ

de modo que rejeitamos H0 quando g(F ) =
(yi −y)2 /(m−1) (xi −x)2 /(n−1)

( m−1 F ) n−1 (1 +

m/2

n+m/2 m−1 n−1 F )

≤c

onde F =

portanto a regi˜o cr´ a ıtica do TRVG ´ dada por e A∗ = {(x, y); F ≤ c1 1

. Mas g(F ) ≤ c se e somente se F ≤ c1 ou F ≥ c2 , ou F ≥ c2 }

Sob a hip´tese H0 , F ∼ Fm−1,n−1 e, ent˜o, dado α = 0, 10, m = 9 e n = 8, o a obtemos usando a tabela da distribui¸˜o F com 8 e 7 graus de liberdade que ca c1 = 0, 27 e c2 = 3, 5. Exemplo 6.5.8. Sejam X1 , . . . , Xn uma amostra aleat´ria da vari´vel aleat´ria o a o X ∼ Bernoulli(θ1 ) e Y1 , . . . , Ym uma amostra aleat´ria da vari´vel aleat´ria o a o

6.5 Testes da Raz˜o de Verossimilhan¸as Generalizada a c

111

Y ∼ Bernoulli(θ2 ). Suponhamos que as amostras s˜o independentes e que o a interesse ´ testar H0 : θ1 = θ2 versus H1 : θ1 = θ2 . Nesse caso e Θ0 = {(θ1 , θ2 ); θ1 = θ2 = θ, 0 < θ < 1} e Θ = {(θ1 , θ2 ); 0 < θ1 < 1, 0 < θ2 < 1} Em Θ os EM V s s˜o dados por a ˆ θ1 = X enquanto que em Θ0 ´ dado por e ˆ θ= Logo λ(x, y) = ˆ θ( ˆ θ1
xi xi + yi )

e

ˆ θ2 = Y ,

xi + yi . n+m ˆ (n+m− (1 − θ)
xi xi − yi ) yi

Como n˜o conseguimos explicitar a regi˜o cr´ a a ıtica atrav´s de uma estat´ e ıstica com distribui¸˜o conhecida, ent˜o pelo Teorema 6.5.1, temos que ca a −2 log λ(x, y) = −2 − − xi + + m+n− ˆ yi log θ xi − ˆ yi log(1 − θ) ˆ xi log(1 − θ1 ) ˆ yi log(1 − θ2 )

ˆ n− (1 − θ1 )

ˆ θ2

y2

ˆ m− (1 − θ2 )

ˆ xi log θ1 − n − ˆ yi log θ2 − m −

tem distribui¸˜o aproximadamente χ2 . Logo, quando −2 log λ(x, y) ≥ c rejeitaca 1 xi = 60, m = 225, yi = 40. Assim, mos H0 . Suponhamos que n = 400, ˆ θ = 100/625 de modo que −2logλ(x, y) = 0, 82. Tomando α = 0, 05, temos que c = 3, 841, portanto n˜o rejeitamos H0 . a Exemplo 6.5.9. Consideramos neste exemplo uma extens˜o do modelo binoa mial considerado no exemplo anterior. Suponhamos que os indiv´ ıduos em uma popula¸˜o podem ser de trˆs tipos, que rotulamos por tipos 1, 2 e 3. No caso ca e de preferˆncia eleitoral, por exemplo, um indiv´ e ıduo ´ do tipo 1 se ele for eleitor e do partido A; do tipo 2 se for eleitor do partido B e do tipo 3 se for eleitor de um outro partido, que n˜o o A e ou o B. Suponhamos que a propor¸˜o de a ca ind´ ıviduos do tipo i seja θi , i = 1, 2, 3, de modo que θ1 + θ2 + θ3 = 1. Para uma amostra de n indiv´ ıduos observados na popula¸˜o suponhamos que ni seja do ca

respecu tivamente. 1977) ` estat´ a ıstica da raz˜o de verossimilhan¸as generalizada. . 2 ou 3. ´ dada por e . 3. A extens˜o para o caso geral (caso multinoıcio a mial. ´ dada pela estat´ e ıstica quiquadrado de Pearson. que no caso do modelo do equil´ ıbrio de Hardy-Weinberg.4) n n L(θ. θ2 = p(2. i = 1. (6. A fun¸˜o de verossimilhan¸a ca c pode ent˜o ser escrita como a (6. que H0 : θ1 = p(1. distribui¸˜o χ2 . ou seja. Temos. o e onde x = (x1 .6) +(n2 + 2n3 ) log 1 − 2n1 + n2 2n − n3 log n3 + n log n + n2 log 2 . xn } iguais a 1. θ3 ) s˜o como dados em a c a (6. θi > 0. n de modo que o estimador de m´xima verossimilhan¸a de θ3 ´ dado por a c e ˆ θ3 = n3 /n (veja o Exerc´ 6. θ) = (1 − θ)2 . n2 e n3 representam o n´ mero de elementos de {x1 . que a raz˜o de verossimilhan¸as generaa c lizada ´ dada por e λ(x) = de modo que −2 log λ(x) = −2 (2n1 + n2 ) log 2n1 + n2 2n − n1 log n1 − n2 log n2 ( 2n1 +n2 )2n1 (2 (2n1 +n2 ) (1 − 2n1 +n2 ))n2 (1 − 2n 2n 2n ( n1 )n1 ( n2 )n2 ( n3 )n3 n n n 2n1 +n2 2n3 ) 2n . θ3 ). xn ). 2. . ou seja.5.5). ca 1 Uma estat´ ıstica assintoticamente (em grandes amostras) equivalente (veja Bickel e Doksun.5) n1 ˆ θ1 = n e n2 ˆ θ2 = . . . Sob o modelo geral. Portanto. . com xi representando o r´tulo (1.5. ´ dado por a c e e ˆ θ = (2n1 + n2 )/2n. θ) = e θ2 . .5.5. . aproximadamente. 2 ou 3) do i-´simo indiv´ ıduo observado na amostra. θ) = 2θ(1 − θ).13). θ2 .1. x) = θ1 1 θ2 2 (1 − θ1 − θ2 )n−n1 −n2 . ou seja em Θ0 (escreva!). θ2 . a c calculada acima.5.5. de modo que n1 + n2 + n3 = n. isto ´. θ3 = p(3. como no Exemplo 3. para 0 < θ < 1. que tem. em Θ = {(θ1 . n1 . Sob a hip´tese H0 .112 6. temos que o estimador de o m´xima verossimilhan¸a de θ ´ obtido no Exemplo 3.4) com rela¸˜o a c ca a c θ1 e a θ2 . Suponhamos agora que queremos testar a hip´tese de que os indiv´ o ıduos na popula¸˜o seguem o equil´ ca ıbrio de Hardy-Weinberg. portanto. Derivando-se o logaritmo da verossimilhan¸a (6. Testes de Hip´teses o tipo i.5.1. . θ1 + θ2 + θ3 = 1} os estimadores de m´xima verissimilhan¸a de θ = (θ1 . com k tipos diferentes de indiv´ ıduos) pode ser feita de maneira similar. temos os estimadores de m´xima verossimilhan¸a (6.

discutido em textos e e b´sicos de estat´ a ıstica como. ent˜o podemos a zα/2 zα/2 X − √ ≤ µ0 ≤ X + √ |µ = µ0 n n = 1 − α. para um n´ α fixado. a partir do intervalo de confian¸a. θ))2 ˆ np(i.5 Testes da Raz˜o de Verossimilhan¸as Generalizada a c 3 113 (6. ˆ2 ˆ − θ) ˆ ˆ2 nθ n2θ(1 n(1 − θ) Vamos discutir brevemente as rela¸˜es entre testes de hip´teses e intervalos co o de confian¸a. χ1 . Nesse exemplo temos c √ que. No caso do equil´ ca ıbrio de Hardy-Weinberg. Consideremos o Exemplo 6. Portanto o intervalo x − + zα/2 √ n obtido a partir da regi˜o de aceita¸˜o a ca do teste de n´ α.5. θ) = θ2 .5. n n Como o teste tem n´ α. a P (H0 ıvel escrever que P ser aceita|µ = µ0 ) = 1−α. ou seja.C.3.2). p(2. para todos os tipos de indiv´ ıduos na popula¸˜o. Por outro lado.7) Q= i=1 ˆ (ni − np(i. No entanto essa probabilidade deve valer para todo µ0 . θ) = (1 − θ)2 . a hip´tese H0 ´ aceita se |x − µ0 | ≤ zα/2 / n. temos que p(1.6. em Bussab e Morettin (1987).x n = 1 − α. ca Notemos que a estat´ ıstica Q dada em (6. que ´ dado e ˆ dividido pelo n´ mero esperado (sob H0 ) de indiv´ por ngi (θ). para n grande. em geral. ou ıvel o e equivalentemente. ´ um intervalo de 100(1−α)% de confian¸a para µ e coincide ıvel e c com o intervalo (5. por exemplo.1 novamente. .5. podemos construir um c teste bilateral (H0 : θ = θ0 versus H1 : θ = θ0 ) onde rejeitamos H0 se θ0 ∈ I. θ) = 2 que. θ) = 2θ(1 − θ) e p(3. citamos sua utiliza¸˜o ca em testes de independˆncia em tabelas de contigˆncia. Entre outras. u ıduos do tipo i na amostra. de modo que P zα/2 zα/2 X− √ ≤µ≤X+ √ n n zα/2 √ . A estat´ ıstica Q pode tamb´m ser generalizada para situa¸˜es mais e co complexas que aquela considerada acima. tem a mesma distribui¸˜o que −2 log λ(x).7) ´. se zα/2 zα/2 x − √ ≤ µ0 ≤ x + √ . interpretada como e a soma do quadrado da diferen¸a entre o n´ mero observado (dado por ni ) e c u o n´ mero esperado (sob H0 ) de indiv´ u ıduos do tipo i na amostra. ˆ ˆ ˆ ˆ (n1 − nθ2 )2 (n2 − n2θ(1 − θ))2 (n3 − n(1 − θ)2 )2 + + .

pois ıvel P (H0 se θ0 ∈ I.6.C. o ıvel .  de modo que o intervalo Bayesiano (intervalo de credibilidade) com probabilidade γ ´ dado por e nx − zα/2 n+1 8 P −zα/2 ≤  µ− nx n+1 1 n+1 ≤ zα/2  = γ 1 nx .72]. Como o zero est´ contido no intervalo. 05. + zα/2 n+1 n+1 1 . n+1 . 1).114 6.4. .0. Do Exemplo 4. O interesse ´ testar H0 : µ = 0 e versus H1 : µ = 0. 57 e α = 0. o teste ser´ baseado na distribui¸˜o a posteriori. n+1 Suponhamos que n = 8. e µ− Logo nx n+1 1 n+1 ∼ N (0. ou seja. Sejam X1 . Nesse caso. a ca o Como vimos na se¸˜o anterior existe uma rela¸˜o entre testes de hip´teses e ca ca intervalos de confian¸a.59. o 6. ao n´ de α = 5%. Exemplo 6. ser rejeitada|θ = θ0 ) = Pθ0 (θ0 ∈ I. ent˜o. Logo o intervalo de confian¸a Bayesiano ´ [-0.3 temos que a distribui¸˜o a posteriori de ca nx 1 µ ´ N n+1 . se θ0 estiver fora do intervalo. ent˜o uma maneira de se construir um teste Bayesiano c a ´ atrav´s da obten¸˜o de um intervalo de confian¸a Bayesiano.C) = α. . e e ca c Suponhamos que o interesse seja testar H0 : θ = θ0 versus H1 : θ = θ0 . . ent˜o aceitamos H0 e. e consideremos uma priori N (0. se θ0 estiver contido no intervalo.1. constru´ ımos o intervalo Bayesiano para θ e. Para isso. 1). que podemos obter um intervalo de confian¸a a partir de a c um teste de hip´tese e vice e versa. Testes de Hip´teses o aceitamos H0 Esse teste tem n´ α. Conclu´ ımos. Xn uma amostra aleat´ria da vari´vel aleat´ria o a o X ∼ N (µ. i=1 xi = 0. n˜o c e a a rejeitamos a hip´tese H0 . 1).6 Testes Bayesianos O problema de testes de hip´teses tamb´m pode ser formulado do ponto de o e vista Bayesiano. ent˜o rejeitamos a a H0 . .

qual a regi˜o cr´ a ıtica? 6. .d. i) Encontre o teste UMP para testar H0 : θ = θ0 versus H1 : θ > θ0 . . 8.7 Exerc´ ıcios 6. Qual a sua conclus˜o ao a n´ de significˆncia de 5%? E qual o poder do teste? ıvel a 6. Encontre n que produz o teste mais poderoso com α = β = 0. θ > 0. 6. .5. . a o ca x > 0. se e somente se. onde a ´ uma constante. Sejam X1 .7 Exerc´ ıcios 115 6. . Xn uma amostra aleat´ria da vari´vel aleat´ria X ∼ o a o N (µX . . ii) Seja α = 0. Sejam X1 . Seja X uma unica observa¸˜o da fun¸˜o de densidade ´ ca ca f (x|θ) = (2θx + 1 − θ)I(0.1. 1) e sejam Y1 . Sejam X1 . Sejam X1 . 4) sendo as amostras independentes. Queremos testar H0 : θ = 1 versus H1 : θ = 2. .6. .6. m = 4. i) Qual ´ a regi˜o cr´ e a ıtica se n = 5 e α = 0.1) (x) Queremos testar H0 : θ = 0 versus H1 : θ = 1. . e ii) Sendo n = 2 e α = (1 − log2)/2. . i) Determine o teste mais poderoso para testar H0 : µX = µY = 0 versus H1 : µX = µY = 1 ii) Sendo n = 9. . Xn uma amostra aleat´ria da vari´vel aleat´ria X com o a o f. qual ´ o teste que minimiza α + β? E qual o valor de α + β? e 6. 05? ii) Se n = 1. Xn uma amostra aleat´ria da vari´vel aleat´ria X com o a o fun¸˜o de densidade dada por ca f (x|θ) = θxθ−1 . . . 0<x<1 .4. . xi = 3. fa¸a o gr´fico da fun¸˜o poder para θ0 = 1 e n = 25 (use o c a ca Teorema do limite central). ıvel a ii) Se α = 0. 03. i=1 −logxi ≤ a.3. 6. 05 e x = 0. Xn uma amostra aleat´ria da vari´vel aleat´ria X ∼ o a o P oisson(θ). qual a sua conclus˜o? a 6.p. . 1).2. Sejam X1 . n rejeita H0 . . . i) Mostre que o teste mais poderoso para testar H0 : θ = 1 versus H1 : θ = 2. Queremos testar H0 : µ = 0 versus H1 : µ = 1. 05.7. Ym uma amostra aleat´ria da vari´vel aleat´ria o a o Y ∼ N (µY . . . yi = 2. Seja X uma vari´vel aleat´ria com fun¸˜o de densidade f (x|θ) = θ2 xe−θx . . Xn uma amostra aleat´ria da vari´vel aleat´ria X ∼ o a o N (µ. . . 95. . . θ > 0. i) Obtenha o teste mais poderoso com n´ de significˆncia α. dada por . 05.

. Sejam X1 . σ 2 ). ii) Sendo n = 5. encontre a regi˜o cr´ a ıtica. . . 0. θ0 = 1 e α = 0. . Ym uma amostra aleat´ria da vari´vel aleat´ria Y ∼ o a o N (µY . . i) Encontre o teste da RVG(aproximado) para testar H0 : θ1 = θ2 versus H1 : θ1 = θ2 . . . m = 16.9. θ 0 < x < 1.12. 2 ii) Seja α = 0. 4. Sejam X1 . x1 = 0. xi = 3. . . . .116 6. . . . x2 = 1. . 9 e x5 = 1. . 8. c a ca 6. . x3 = 1. ii) Se vocˆ observar n = 5. . . n´ de significˆncia de 5%? ıvel a 6.10. Testes de Hip´teses o f (x|θ) = 1 (1−θ)/θ x . 2 2 i) Encontre o teste UMP para testar H0 : σ 2 = σ0 versus H1 : σ 2 > σ0 . sendo as amostras independentes. n = 9 e σ0 = 9. θ > 0. . Sejam X1 . Queremos testar H0 : θ ≤ θ0 versus H1 : θ > θ0 . . xi = 3. 25). sendo as amostras independentes. . 3. . Xn uma amostra aleat´ria da vari´vel aleat´ria X ∼ exp(θ). 3. o a o i) Encontre o teste da raz˜o de verossimilhan¸as generalizada para testar a c H0 : θ = 1 versus H1 : θ = 1.11. . 6. 9) e seja Y1 . i) Determine o teste da RVG para testar H0 : µX = µY versus H1 : µX = µY yi = 4. 8. Xn uma amostra aleat´ria da vari´vel aleat´ria X ∼ o a o P oisson(θ1 ) e sejam Y1 . ii) Verifique se seu teste ´ UMP para testar e . i) Determine o teste mais poderoso para testar H0 : θ 1 = θ 2 = 1 versus H1 : θ1 = θ2 = 2. Xn uma amostra aleat´ria da vari´vel aleat´ria X ∼ o a o N (µX . ıvel ii) Se n = 2. 05. Sejam X1 . m = 8. qual a sua conclus˜o a um a n´ de significˆncia de 5%? ıvel a 6. Yn uma amostra aleat´ria da vari´vel aleat´ria Y ∼ o a o exp(θ2 ).8. . 8. . . x4 = 0. fa¸a o gr´fico da fun¸˜o poder. Sejam X1 . Ym uma amostra aleat´ria da vari´vel aleat´ria o a o Y ∼ P oisson(θ2 ) sendo as amostras independentes. Xn uma amostra aleat´ria da vari´vel aleat´ria X ∼ o a o exp(θ1 ) e sejam Y1 . . Qual a sua conclus˜o a um a ii) Sendo n = 9. 05. . . e qual a sua decis˜o ao n´ de 5%? a ıvel 6. Xn uma amostra aleat´ria da vari´vel aleat´ria X ∼ o a o N (0. i) Encontre o teste UMP de n´ α (se existir). 8. yi = 4. . .

. Sendo c n = 120. . y = 0. n2 = 18. . 1. n1 = 23. n5 = 27 e n6 = 16. = θ6 sendo que n e e lan¸amentos do dado apresenta ni ocorrˆncia da face i. Sejam (X1 . 6. e ca especifica as propor¸˜es θ1 = p(1. 6. Y1 ). .4. θ2 = p(2. O teste t pareado. (Xn . Y ) com distribui¸˜o normal bivariada a o ca como dada no Exemplo 2. θ) = (2 + θ)/4. e 6. Uma amostra de n = 100 indiv´ ıduos da popula¸˜o apresenta n1 = 65.17. temos para uma amostra de n = 100 indiv´ ıduos. . . v) Mostre que o teste acima ´ equivalente a um teste F exato.5. n3 = 8 e n4 = 21. 8. para testar H0 : θ1 = .6. qual a sua decis˜o ao n´ de e a ıvel 5%? iv) Determine o teste da RVG para testar H0 : θ1 = θ2 versus H1 : θ1 = θ2 .12. Discuta a implementa¸˜o de um procedimento (teste) para verificar se ca um dado ´ equilibrado. qual sua decis˜o ao n´ de 5%? a ıvel 6. n1 = 26 do tipo 1. n2 = 6. Um modelo gen´tico para a distribui¸˜o dos tipos de sangue 1. Verifique se os dados ca obtidos suportam o modelo gen´tico acima para a distribui¸˜o dos tipos de e ca sangue na popula¸˜o de onde foi selecionada a amostra. Sd onde d = n i=1 2 di /n e Sd = n i=1 (di − d)2 /(n − 1). i = 1.4. . θ) = θ/4. o teste da raz˜o de verossimilhan¸as generalizado apresenta a c regi˜o cr´ a ıtica dada por √ n|d| A∗ = {d. Mostre que para testar H0 : µx = µy versus H1 : µx = µy .16. 6.5). iii) Se vocˆ observar n = 5. Suponha que em uma popula¸˜o com trˆs tipos de indiv´ ca e ıduos.14. θ) = (1 − θ)/4 = co θ3 = p(3. θ) e θ4 = p(4. > c}. ou seja. . Yn ) uma amostra aleat´ria o da vari´vel aleat´ria bidimensional (X.13. 2. 3 e 4. n3 = 15. x = 1. Desenvolva o teste da raz˜o de verossimilhan¸as generalizada para testar a c H0 : β = β0 versus H1 : β = β0 no modelo de regress˜o descrito no Exerc´ a ıcio 2.15. n4 = 21. n2 = 47 do tipo 2 e n3 = 27 do tipo 3. Discuta a obten¸˜o dos estimadores de m´xima verossimilhan¸a dados ca a c em (6.7 Exerc´ ıcios 117 H0 : θ 1 = θ 2 = 1 versus H1 : θ1 = θ2 > 1. . . Verifique ao n´ de 5% se a distribui¸˜o dos tipos de ıvel ca indiv´ ıduos na popula¸˜o segue o equil´ ca ıbrio de Hardy-Weinberg. ca 6. .

.

(1986). Chapman and Hall. LEHMANN.A.J.L. S˜o Paulo: Edgard Bl¨cher. SEN. 4. e DOKSUM. (1993). BUSSAB. Probabilidades. DEGROOT. JAMES.H. 2. Testing Statistical Hypotheses. Rio de a Janeiro: Livro T´cnico.O. e MORETTIN. . (1989).Referˆncias e 1. S˜o Paulo: Atual. W. W. Probabilidade: Um Curso em N´ ıvel Intermedi´rio. Basic Ideas and Selected Topics. Estat´ ıstica B´sica. Holden-Day. (1977). (1987). Wiley: New York. E. K. a a 3. New York: Addison-Wesley. (1981). e SINGER.K. FELLER. M.R.A. Mathematical Statistical. e 6. J. An Introduction with Applications. Large Sample Methods in Statistics. P. (1976). 7. BICKEL. P.M. B. Probability and Statistics. P. a u 5.

120 Referˆncias e .

You're Reading a Free Preview

Download
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->