UNIVERSIDADE FEDERAL DE SANTA MARIA – UFSM DEPARTAMENTO DE ESTATÍSTICA – CCNE CURSO – ESTATÍSTICA PLANO DE AULA PROFESSORES: Bruna Gregory

Palm, Laís Helen Loose, Vinícius Scher DATA: 28/08/2010 TEMA: Estimadores de Máxima Verossimilhança OBJETIVOS: Fazer com que os colegas compreendam com exatidão o método de Máxima Verossimilhança, entendendo todos os conceitos envolvidos na procura de um bom estimador

PROGRAMAÇÃO DA AULA: Inicialmente haverá a exposição de slides relacionados ao Método de Máxima Verossimilhança, juntamente com a utilização da lousa para demonstrações.

METODOLOGIA: A aula será desenvolvida da seguinte forma: -Apresentação do tema: Introdução ao tema, com aplicações práticas para uma melhor compreensão por partes dos colegas; -Desenvolvimento: A aula será desenvolvida por meio da organização do conhecimento, com apresentação e discussão do conteúdo exposto, apresentados na forma de slides, e, além disso, a utilização da lousa, para aula expositiva, introduzindo os conceitos básicos e a resolução de exemplos. -Integração: Envolver o aluno na aula, buscando sua participação, fazendo com que o mesmo participe do processo de construção do conhecimento de forma ativa; Resolução de exercícios para o aprofundamento e fixação do conteúdo. RECURSOS: - Lousa, slides (Data Show), exercícios. DESFECHO: Ao final da aula o aluno deve ser capaz de reconhecer e aplicar conceitos sobre o tema estimadores de máxima verossimilhança apresentado em aula.

temos um modelo com parâmetros desconhecidos e novamente nosso conjunto de dados conhecido. em função do desenvolvimento dos computadores pessoais de grande potência. Como o nome implica...θ).. Fisher.. X n onde L é definida pela equação acima..... como a seguinte função da amostra e de : L ( X 1 . X n ) uma amostra aleatória da variável aleatória X e sejam ( x1 . X n .. x n ..θ) representará a fdp conjunta de ( X 1 . mas dessa vez nosso interesse está na estimação dos parâmetros e não na sua chance de ocorrência.. .. mas para usar esta técnica..... X n = x n ] Se X for contínua. θ ..θ) Se X for discreta....... L( x1 . X n ... é facilitado considerando ln L ( X 1 . A partir dos anos 80.... existe a necessidade de utilizar-se algum método de otimização numérica para a obtenção dos parâmetros de interesse. f ( X n ... onde nosso interesse consiste em calcular a chance desses dados ocorrerem..θ) .... Para encontrar precisamos maximizar L o que em geral. X n é aquele valor de que torna máxima L( X 1 . O grande obstáculo quanto à utilização prática do método de máxima verossimilhança consiste na freqüente incapacidade de obter-se uma solução explícita para a maioria dos problemas em questão. possuímos um modelo com parâmetros e conjunto de dados conhecidos. a distribuição da população tem que ser conhecida ou suposta.. que são consistentes e assintoticamente eficientes. A grande importância do método de máxima verossimilhança consiste nas boas propriedades assintóticas dos estimadores.. quando calculamos a probabilidade.θ) . x n ) os valores amostrais. podemos fazer um comparativo entre probabilidade e verossimilhança. o estimador será o valor do parâmetro que maximize a função verossimilhança. Para se ter uma melhor compreensão do método. Seja ( X 1 .θ) = f ( X 1 . baseada em uma amostra aleatória X 1 . visto que ln f ( x) é uma função crescente de f ( x ) . Definição 1.θ).CONTEÚDO Estimadores de Máxima Verossimilhança A técnica de estimadores de máxima verossimilhança foi desenvolvida nos anos de 1920 pelo estatístico britânico Sir R.. Neste sentido. isto é. A estimativa de máxima verossimilhança de θ .. X n .. já na verossimilhança. Definiremos a função de verossimilhança L. f ( X 2 .θ) representará P[ X 1 = x1 . X n ) Definição 2. x n . L( x1 . considerada como função de para uma dada amostra X 1 ..... Este método permite a estimação dos parâmetros de modelos econométricos e a realização de testes de hipóteses relativos a restrições lineares e não lineares do vetor de parâmetros. que o método de máxima verossimilhança começou a ser utilizado extensivamente em econometria. A....

.− < µ < ∞}  1  − 2∑  . i . − ∂µ 2  σ  σ n ˆ x −µ 1 = ∑ i .. − 2 . . se o tamanho da amostra sobre a qual essas estimativas tenham sido calculadas for grande. Neste caso.. Isto é.... µ.e 2  σ 2π 1  x2 − µ   σ  2 −  1 .e 2  L(x1. tal tendenciosidade pode ser eliminada pela multiplicação por uma constante apropriada. xn . = 0 σ σ i =1  = ∑x i =1 n i ˆ − nµ = 0 ˆ µ= ∑x i =1 n i X ˆ µ= n n fazendo a derivada parcial em relação a σ2: . Estimador de Máxima Verossimilhança da Distribuição Normal Sejam X 1 .. as estimativas de MV são coerentes..e i =1 =  σ 2π  n 1 n  xi − µ     σ  2 = σ 2π ( ) −n . θ) = 0 ∂θ Propriedades das estimativas de máxima verossimilhança a) A estimativa de MV pode ser tendenciosa. X n ..xn.. Muito freqüentemente....O estimador de máxima verossimilhança será obtido pela resolução de ∂ ln L( X 1 . X n uma amostra aleatória da distribuição da variável aleatória X ~ N ( µ.. σ2) = σ 2π 1  x1 − µ   σ  2 −  1 . b) Sob condições bastante gerais.. σ 2 ) .. a estimativa de MV será “próxima” do valor do parâmetro a ser estimado...e − 1 n  xi −µ    2 i =1  σ  ∑ 2 aplicando logaritmo natural em ambos os lados. a função de verossimilhança é dada por −  1 . teremos:  x1. σ 2 = −n ln σ 2π + ln e 2 ( ) ( ) − 1 n  xi − µ    2 i =1  σ  ∑ 2 n 1 n x −µ = − n ln σ − ln 2π − ∑  i  2 2 i =1  σ  (equação de verossimilhança) fazendo a derivada parcial em relação a µ: ∂L 1  x −µ  σ = 2. µ .e 2  σ 2π 1  xn − µ   σ  2 ∞ Com Θ = {µ..

θ) =θ x . X 1 .(1 −θ ) n −k ( X 1 .(1 − θ ) ∑ i ∑X i =1 n i = número total de sucessos... Considerando k = (1−x ) ... n n Estimador de Máxima Verossimilhança da Distribuição Exponencial Seja X exponencialmente distribuída com parâmetro λ . A função máxima verossimilhança de uma amostra aleatória de tamanho n.. encontramos diretamente.. X n ..θ x2 ..(1 −θ ) 1−x L( X 1 .θ xn . X n . ao considerarmos a expressão de L. teremos: = θ k .. 0 <θ <1} . Nesse caso ou n.. respectivamente.(1 −θ ) 1−xn Com Θ = {θ. o que é garantido através das propriedades da MV.1 1−x1 .. X n uma amostra aleatória da variável aleatória X ~ Bernoulli (θ) ...(1 −θ ) =θ ∑xi i =1 n . − ∂σ 2 σ i =1   σ  σ 2 2   n n ( x − µ) =− +∑ i 3 =0 ˆ ˆ σ i =1 σ 2 n (x − µ) n =∑ i 3 ˆ ˆ σ i =1 σ 2 n 2 ˆ σ =∑ i =1 ( xi − µ ) 2 n σ2 é tendencioso. Estimador de Máxima Verossimilhança da Distribuição Bernoulli Sejam X 1 .. θ ) = k ln θ + ( n − k ). ln (1 − θ ) Logo.(1 −θ ) n i =1 1−x2 . é .. ∂L k n − k = + ∂θ θ 1 −θ Se k = 0 ou n. faremos ∂θ n verificaremos que a estimativa de MV constitui uma estimativa não tendenciosa do parâmetro procurado. . x = 0. X 2 . a qual pode ser eliminada através da multiplicação por uma constante apropriada..  . Comentário: ˆ k θ= = ∑x i =1 n i é a proporção de sucessos..∂L n n   xi − µ  ( xi − µ ) 1  = − − ∑  2.. Para k ≠ 0 ∂L ˆ k = 0 e encontraremos como sua solução θ = . X n . a função de verossimilhança de é dada por f ( x.θ ) = θ x1 . que o valor máximo de L será atingido quando Ѳ = 0 ou 1. Nesse caso..

x  > L .3 temos que a função de verossimilhança de associada à amostra observada é dada por L(θ . Exemplo: Temos uma caixa com bolas brancas e vermelhas. Portanto Θ = {1 / 3. pois 1  2  L .2 / 3} .2. x) = Pθ = [ X 1 = 1. uma amostra de n=3 bolas é observada com reposição e apresenta bola vermelha na primeira extração e branca na segunda e na terceira extrações.L(λ ) = ∏λe i =1 n −λxi =λ e n −λ ∑ xi i =1 n O logaritmo da verossimilhança é ln L(λ ) = n ln λ − λ ∑ xi i =1 n Agora d ln L(λ ) n n = − ∑ xi dλ λ i =1 e igualando esse último resultado a zero. x  3  3  Propriedades dos Estimadores de Máxima Verossimilhança. O Método de máxima verossimilhança é frequentemente o método de estimação que os estatísticos preferem porque é geralmente fácil de usar e produz estimadores com boas propriedades estatísticas. x  =   = 3  33 27  2 E 2  2  2 1 L . X 2 = 0. X 3 = 0] = θ (1 − θ )(1 − θ ) = θ (1 − θ ) 2 Como 4 1  1  2  L .como segue: . Sabe-se que a proporção de bolas vermelhas na caixa é 1/3 ou 2/3. x  =   = 27  3  3 3 2 Temos que a estimativa de máxima verossimilhança de é dada por . Definindo i =1 ∧ n Para i =1. Para obtermos informações sobre . obtemos λ = n / ∑ X i = 1/ X Assim o estimador de máxima verossimilhança de λ é a recíproca da média amostral.

Sob condições muito gerais e não restritivas. Para obter o estimador de máxima verossimilhança da função n µ e σ 2 na função h . os estimadores de máxima verossimilhança de µ e σ 2 foram µ = X e ∧ σ2 = ∑ (X i =1 n i − X )2 . Θ ) desses parâmetros é a 1 k mesma função dos estimadores . não é sempre fácil maximizar a função dL (θ ) = 0 podem ser difíceis de resolver. (2) A variância de Θ é aproximadamente tão pequena quanto a variância que poderia ser obtida com qualquer outro estimador (3) Θ tem uma distribuição normal aproximada. resultando 12 ∧ h( µ.. o estimador de máxima verossimilhança do desvio-padrão amostra.. algumas vezes complicações aparecem durante o uso. Além. Exemplo: No caso da distribuição normal. ... σ 2 ) = σ 2 = σ .. verossimilhança... substitua os estimadores ∧ ∧ ∧ 1 n  σ = σ =  ∑ (X i − X )2   n i =1  2 Logo. porque as equações obtidas de dθ disso pode não ser sempre possível usar métodos de cálculo para determinar o máximo de L(θ) . Então o 1 k ∧ ∧ ∧ estimador de máxima verossimilhança de qualquer função h(Θ . quando uma amostra de tamanho n for grande e se Θ for um estimador de máxima verossimilhança do parâmetro θ . Θ . então (1) Θ é um estimador aproximadamente não tendencioso para θ ∧ ∧ [ E (Θ) ≅ θ ] . Propriedade da Invariância Seja estimador de máxima verossimilhança dos parâmetros Θ . σ não é o desvio-padrão S da Complicações do uso da Estimação de Máxima Verossimilhança Embora o método da máxima verossimilhança seja uma excelente técnica.. Por exemplo.

Sign up to vote on this title
UsefulNot useful