You are on page 1of 18

/UNIVERSIDADE FEDERAL DE VIÇOSA

CENTRO DE CIÊNCIAS AGRÁRIAS


DEPARTAMENTO DE ECONOMIA RURAL
ERU 626 – ECONOMETRIA

PROFESSORA: MARIA MICHELIANA

4ª LISTA DE EXERCÍCIOS - 2023.1

Questões Teóricas

1. Sobre a multicolinearidade, responda:

a) Qual a sua natureza/significado?


A multicolinearidade é um fenômeno estatístico em que duas ou mais variáveis independentes em um
modelo de regressão linear estão altamente correlacionadas entre si. Isso pode levar a instabilidade no
modelo e tornar difícil interpretar os efeitos individuais das variáveis independentes sobre a variável
dependente.
Em outras palavras, a multicolinearidade significa que existe uma relação linear entre duas ou mais variáveis
independentes que é tão forte que é difícil estimar o efeito individual de cada variável no modelo. A
multicolinearidade pode causar imprecisão nos coeficientes de regressão e afetar a capacidade do modelo de
fazer previsões precisas. É importante estar ciente da multicolinearidade e tomar medidas para mitigar seus
efeitos antes de ajustar um modelo de regressão linear.

b) O que significa dizer que a multicolinearidade é uma questão de grau, e não de tipo?
Quando se diz que a multicolinearidade é uma questão de grau e não de tipo, significa que não existe um
tipo específico de relação entre as variáveis independentes que causa multicolinearidade. Em vez disso, a
multicolinearidade ocorre em um espectro de diferentes graus de correlação entre as variáveis
independentes. Por exemplo, a multicolinearidade pode ocorrer tanto quando duas variáveis independentes
têm uma correlação quase perfeita quanto quando elas têm uma correlação moderada, mas há outras
variáveis independentes no modelo que estão altamente correlacionadas com elas.
Assim, a multicolinearidade não está ligada a um tipo específico de relação entre variáveis independentes,
mas sim a um grau de correlação entre elas. Isso significa que os métodos para detectar e lidar com a
multicolinearidade devem ser aplicados independentemente da natureza da relação entre as variáveis
independentes e não dependem de um tipo específico de relação

c) Quais as consequências teóricas da multicolinearidade?


A multicolinearidade pode levar à imprecisão nos coeficientes de regressão. Isso ocorre porque, quando duas
ou mais variáveis independentes estão altamente correlacionadas, é difícil determinar qual variável está
1
explicando a variação na variável dependente. Isso pode levar a coeficientes de regressão imprecisos e a
uma baixa precisão nas previsões do modelo. A multicolinearidade pode levar a coeficientes de regressão
com o sinal oposto ao esperado. Isso ocorre quando duas ou mais variáveis independentes têm uma relação
positiva com a variável dependente, mas são altamente correlacionadas. Nesse caso, o coeficiente de
regressão estimado para uma das variáveis independentes pode ser negativo, o que é contrário ao sinal
esperado.
A multicolinearidade pode tornar difícil interpretar os efeitos individuais das variáveis independentes sobre
a variável dependente. Isso ocorre porque a multicolinearidade pode levar a um alto grau de correlação entre
as variáveis independentes, o que dificulta determinar qual variável está explicando a variação na variável
dependente. A multicolinearidade pode levar a modelos estatísticos que parecem significativos, mas que não
são confiáveis. Isso ocorre porque a multicolinearidade pode levar a uma alta estatística F e um baixo
valor-p, o que pode indicar um modelo estatisticamente significativo. No entanto, se o modelo estiver
sofrendo de multicolinearidade, as estimativas dos coeficientes de regressão podem ser altamente imprecisas
e, portanto, o modelo não será confiável para fazer previsões precisas. Em resumo, a multicolinearidade
pode levar a uma série de consequências teóricas que afetam a precisão e a interpretação dos modelos
estatísticos. É importante estar ciente da multicolinearidade e tomar medidas para lidar com ela antes de
ajustar um modelo de regressão linear.

d) Na presença de multicolinearidade, os estimadores de MQO são ainda estimadores BLUE? Explique!


Quando uma regressão apresenta multicolinearidade, os estimadores de Mínimos Quadrados Ordinários
(MQO) deixam de ser os Melhores Estimadores Lineares Não Viesados (BLUE - Best Linear Unbiased
Estimators) para os coeficientes de regressão. Isso ocorre porque, na presença de multicolinearidade, os
estimadores de MQO não são mais não-viesados, ou seja, eles têm um viés que não pode ser eliminado
aumentando o tamanho da amostra. O viés nos estimadores de MQO é causado pela correlação entre as
variáveis independentes, o que torna difícil distinguir o efeito de uma variável independente do efeito das
outras variáveis correlacionadas. Como resultado, os coeficientes de regressão estimados podem ser afetados
pelo efeito conjunto de várias variáveis, em vez do efeito individual de cada variável.
No entanto, existem outros métodos de estimação que podem ser utilizados para lidar com a
multicolinearidade e produzir estimadores de BLUE, como o método dos Mínimos Quadrados Parciais (PLS
- Partial Least Squares) e o método da Regressão Ridge. Esses métodos permitem estimar os coeficientes de
regressão com menor viés na presença de multicolinearidade e, portanto, produzem estimadores de BLUE.
Em resumo, na presença de multicolinearidade, os estimadores de MQO não são mais BLUE para os
coeficientes de regressão. No entanto, existem outros métodos de estimação que podem ser utilizados para
produzir estimadores de BLUE na presença de multicolinearidade.

2
e) A multicolinearidade é essencialmente um fenômeno amostral. Explique!
A multicolinearidade é essencialmente um fenômeno amostral porque se refere a uma relação entre variáveis
independentes que é observada em uma amostra específica de dados, em vez de ser uma propriedade
inerente das variáveis em si. Isso significa que a multicolinearidade pode surgir ou desaparecer em
diferentes amostras de dados, dependendo da forma como as variáveis independentes estão distribuídas
nessa amostra. Além disso, o nível de multicolinearidade em uma amostra específica pode ser influenciado
pelo tamanho da amostra, pelo número de variáveis independentes incluídas no modelo e pela forma como
essas variáveis são medidas ou codificadas.
Portanto, é possível que uma relação de multicolinearidade não seja evidente em um conjunto de dados
populacionais, mas surja em uma amostra específica devido a variações aleatórias na amostragem. Da
mesma forma, a multicolinearidade pode não ser evidente em uma amostra maior ou menor, dependendo da
distribuição das variáveis independentes nessa amostra. Em resumo, a multicolinearidade é um fenômeno
amostral, que pode surgir em uma amostra específica devido a variações aleatórias na distribuição das
variáveis independentes nessa amostra. É importante estar ciente disso ao interpretar os resultados de
análises que envolvem a multicolinearidade e ao tomar decisões com base nesses resultados

f) Quais as consequências práticas da multicolinearidade? Explique-as!


A multicolinearidade pode ter várias consequências práticas que afetam a qualidade da análise e
interpretação dos resultados de uma regressão. Algumas dessas consequências incluem:
1. Instabilidade e inconsistência dos coeficientes de regressão: na presença de multicolinearidade, os
coeficientes de regressão podem se tornar instáveis e inconsistentes, o que significa que pequenas
mudanças nos dados ou na especificação do modelo podem levar a grandes mudanças nos
coeficientes estimados. Isso torna difícil interpretar os efeitos individuais de cada variável
independente no resultado da regressão.
2. Estimativas imprecisas e de baixa qualidade: a multicolinearidade pode afetar a precisão das
estimativas de coeficientes de regressão, aumentando a variância e o erro padrão dessas estimativas.
Isso pode levar a intervalos de confiança mais amplos e limitar a capacidade de previsão do modelo.
3. Dificuldade em identificar variáveis importantes: a multicolinearidade pode tornar difícil identificar
quais variáveis independentes são mais importantes na explicação do resultado da regressão, pois as
variáveis correlacionadas podem estar influenciando os coeficientes de regressão de maneira
conjunta.
4. Possibilidade de interpretar erroneamente os resultados: a multicolinearidade pode levar a
interpretações errôneas dos resultados da regressão, como atribuir erroneamente um efeito a uma
variável independente que na verdade é explicado por outras variáveis correlacionadas.

3
5. Dificuldade em aplicar o modelo a novos dados: se o modelo for afetado pela multicolinearidade, ele
pode não ser facilmente aplicável a novos dados fora da amostra. Isso pode reduzir a utilidade do
modelo em situações práticas.
Em resumo, a multicolinearidade pode ter consequências práticas significativas para a qualidade e
interpretação dos resultados de uma regressão. É importante estar ciente dessas consequências e usar
técnicas apropriadas para lidar com a multicolinearidade, como o uso de métodos de estimação alternativos
ou a exclusão de variáveis correlacionadas do model

g) O que ocorre com a estimação do modelo de regressão na presença de multicolinearidade perfeita?


Na presença de multicolinearidade perfeita, ou seja, quando duas ou mais variáveis independentes estão
exatamente correlacionadas, o modelo de regressão não pode ser estimado. Isso ocorre porque a matriz de
variância-covariância dos coeficientes de regressão não é invertida, o que significa que não há uma solução
única para os coeficientes de regressão que minimizam a soma dos erros quadráticos. Essa situação é
conhecida como singularidade ou colapso do modelo e é um problema grave, pois impede a obtenção de
estimativas válidas dos coeficientes de regressão e, portanto, torna o modelo inútil para previsão e
interpretação.
Na presença de multicolinearidade perfeita, é necessário tomar medidas para resolver o problema antes de
estimar o modelo de regressão. Isso pode ser feito, por exemplo, excluindo uma das variáveis
correlacionadas do modelo ou transformando as variáveis independentes para reduzir a correlação entre elas.
É importante notar que a multicolinearidade perfeita é um caso extremo de multicolinearidade e é
relativamente raro na prática. Na maioria das vezes, a multicolinearidade é menos grave e pode ser tratada
por meio de técnicas estatísticas apropriadas, como a regressão Ridge ou a regressão Lasso.

h) O que significa o fator de inflação da variância (FIV)? Quais os procedimentos devem ser seguidos
para que o FIV possa ser calculado?
O fator de inflação da variância (FIV) é uma medida estatística utilizada para avaliar a presença de
multicolinearidade em um modelo de regressão múltipla. Ele indica o quanto a variância de um coeficiente
de regressão é inflada devido à presença de correlação entre as variáveis independentes do modelo.
O cálculo do FIV envolve três etapas:
1. Estimar um modelo de regressão múltipla completo, incluindo todas as variáveis independentes
relevantes.
2. Calcular o inverso da matriz de correlação das variáveis independentes. Essa matriz é conhecida
como matriz de correlação de variáveis independentes.
3. Para cada variável independente no modelo, calcular o FIV como o inverso da diagonal da matriz de
correlação de variáveis independentes. O FIV para cada variável independente representa a
proporção da variação desse coeficiente de regressão que é devida à multicolinearidade.
4
Um FIV igual a 1 indica ausência de multicolinearidade, enquanto um FIV maior que 1 indica que a
variância do coeficiente de regressão está inflada devido à presença de multicolinearidade. Geralmente, um
valor de FIV maior que 10 é considerado como um indicador de multicolinearidade problemática.
Se o FIV indicar a presença de multicolinearidade, é necessário tomar medidas para lidar com o problema.
Isso pode incluir a exclusão de variáveis correlacionadas do modelo, a coleta de dados adicionais para
incluir novas variáveis independentes ou a transformação das variáveis independentes para reduzir a
correlação entre elas

i) Cite e explique as principais regras práticas para detectar a multicolinearidade.


Existem algumas regras práticas que podem ser usadas para detectar a multicolinearidade em um modelo de
regressão múltipla. As principais são:
1. Correlação alta entre variáveis independentes: Uma das formas mais simples de detectar
multicolinearidade é verificar se há alta correlação entre as variáveis independentes. Correlações
acima de 0,7 ou 0,8 são consideradas altas e podem indicar a presença de multicolinearidade.
2. Variância inflacionária dos fatores (VIF): O fator de inflação da variância (VIF) é uma medida
estatística que indica quanto a variância de um coeficiente de regressão está inflada devido à
multicolinearidade. Um VIF acima de 5 ou 10 é geralmente considerado como um sinal de
multicolinearidade.
3. Análise dos componentes principais (PCA): A análise dos componentes principais pode ser usada
para reduzir a dimensionalidade do conjunto de variáveis independentes. Se um pequeno número de
componentes principais explicar a maioria da variabilidade dos dados, isso pode indicar a presença
de multicolinearidade.
4. Teste de significância individual dos coeficientes de regressão: Quando as variáveis independentes
estão altamente correlacionadas, é comum que os coeficientes de regressão se tornem menos precisos
e menos significativos. Isso pode ser detectado por meio de testes de significância individual dos
coeficientes de regressão.
5. Variância dos coeficientes de regressão: A multicolinearidade pode inflar a variância dos coeficientes
de regressão, o que significa que eles são menos precisos. A magnitude das variações dos
coeficientes pode indicar a presença de multicolinearidade.
É importante ressaltar que essas regras práticas não são definitivas e devem ser usadas em conjunto para
avaliar a presença de multicolinearidade. Além disso, a interpretação dos resultados deve ser cuidadosa,
levando em consideração as características específicas do conjunto de dados e do modelo de regressão.

5
j) Explique cada um dos principais procedimentos práticos para cuidar do problema da
multicolinearidade.
Quando a multicolinearidade é detectada em um modelo de regressão, existem alguns procedimentos
práticos que podem ser adotados para lidar com o problema. As principais abordagens são:
1. Remover variáveis independentes: Se houver variáveis independentes altamente correlacionadas,
uma abordagem simples é remover uma ou mais delas do modelo. No entanto, é importante escolher
quais variáveis remover com base na relevância teórica e empírica para o problema em questão.
2. Combinar variáveis independentes: Em alguns casos, é possível combinar duas ou mais variáveis
independentes altamente correlacionadas em uma única variável, por meio de uma transformação
linear. Essa abordagem pode ajudar a reduzir a multicolinearidade, mas é importante lembrar que a
nova variável combinada deve ser teoricamente e empiricamente relevante para o problema em
questão.
3. Coletar mais dados: Em alguns casos, a coleta de dados adicionais pode ajudar a reduzir a
multicolinearidade. Isso pode ser feito por meio da inclusão de novas variáveis independentes no
modelo ou por meio do aumento da amostra.
4. Regularização: A regularização é uma abordagem estatística que pode ajudar a reduzir a
multicolinearidade. Os métodos de regularização, como a regressão Ridge e a regressão Lasso,
adicionam um termo de penalização aos coeficientes de regressão, forçando-os a serem menores e,
portanto, reduzindo a multicolinearidade.
5. Análise de componentes principais (PCA): A análise de componentes principais pode ser usada para
reduzir a dimensionalidade do conjunto de variáveis independentes. Isso pode ajudar a reduzir a
multicolinearidade, pois os novos componentes principais são ortogonais e, portanto, não estão
correlacionados entre si.
6. Ignorar o problema: Em alguns casos, a multicolinearidade pode ser tolerada, desde que os efeitos na
inferência do modelo sejam cuidadosamente avaliados. No entanto, essa abordagem só deve ser
adotada se os efeitos da multicolinearidade não forem significativos o suficiente para afetar a
validade das inferências.
É importante lembrar que a escolha do procedimento a ser adotado para lidar com a multicolinearidade
depende das características específicas do conjunto de dados e do modelo de regressão. Além disso, a
interpretação dos resultados deve ser cuidadosa, levando em consideração as limitações e suposições do
procedimento escolhido.

6
2. Sobre a heterocedasticidade, responda:

a) Qual o seu significado?


Heterocedasticidade é um termo estatístico que se refere à presença de diferentes níveis de variabilidade nos
dados de uma amostra ou população. Em outras palavras, a heterocedasticidade ocorre quando a variação
dos erros de uma variável dependente não é constante em todas as faixas de valores da variável
independente.
Essa falta de homogeneidade na variância pode ser um problema em análises estatísticas, como regressão
linear, porque pode levar a estimativas imprecisas ou viesadas dos parâmetros do modelo. Por isso, é
importante avaliar e corrigir a heterocedasticidade, se necessário, para obter resultados mais confiáveis e
precisos. Existem técnicas estatísticas para lidar com a heterocedasticidade, como a regressão robusta ou a
transformação de variáveis.

b) Há várias razões que justificam a presença de heterocedasticidade. Explique-as!


1. Variação natural dos dados: É comum que haja uma variação natural dos dados em diferentes faixas
de valores da variável independente. Por exemplo, os dados podem ser mais dispersos em torno da
média em uma região de valores extremos da variável independente.
2. Amostragem não aleatória: Se a amostra não foi coletada de forma aleatória, pode haver uma
concentração de dados em certas regiões da variável independente que apresentem uma variância
diferente daquelas em outras regiões.
3. Erros de medição: Quando há erros de medição, eles podem não ser distribuídos uniformemente em
todas as regiões da variável independente, levando a diferentes níveis de variabilidade.
4. Mudanças estruturais: Alterações estruturais no processo gerador dos dados podem levar a diferentes
níveis de variabilidade em diferentes períodos de tempo ou em diferentes subgrupos.
5. Variáveis omitidas: A presença de variáveis omitidas ou não consideradas no modelo pode levar a
uma heterocedasticidade espúria.
6. Influência de outliers: A presença de outliers em uma ou mais regiões da variável independente pode
levar a uma heterocedasticidade.
7. Dependência temporal: Quando há uma dependência temporal entre as observações, pode haver uma
heterocedasticidade devido a mudanças na variabilidade ao longo do tempo.
Em resumo, a heterocedasticidade pode ter diversas causas e é importante investigar suas possíveis fontes
para avaliar sua relevância e decidir sobre a melhor abordagem estatística para lidar com ela.

7
c) A presença de heterocedasticidade é mais comum em dados de seção-cruzada do que nos dados de
séries temporais. A afirmativa é verdadeira? Explique!
A afirmativa não é necessariamente verdadeira, pois a presença de heterocedasticidade pode ocorrer tanto
em dados de seção-cruzada quanto em dados de séries temporais. A heterocedasticidade está relacionada à
variabilidade dos erros em um modelo e pode ocorrer em qualquer tipo de dados, independentemente de
serem de seção-cruzada ou de séries temporais.
Em dados de seção-cruzada, a heterocedasticidade pode ocorrer quando a variabilidade dos erros é diferente
em diferentes subgrupos ou em diferentes valores da variável independente. Por exemplo, em um modelo de
regressão que explique o salário de indivíduos em função de suas características, pode haver uma maior
variabilidade dos erros nos indivíduos com salários mais altos do que nos indivíduos com salários mais
baixos. Já em dados de séries temporais, a heterocedasticidade pode ocorrer quando há mudanças na
variabilidade dos erros ao longo do tempo. Por exemplo, em um modelo que explique o preço de um ativo
financeiro em função de variáveis econômicas, pode haver uma maior variabilidade dos erros durante
períodos de turbulência econômica do que em períodos de estabilidade.
Em ambos os casos, a presença de heterocedasticidade pode levar a estimativas imprecisas ou viesadas dos
parâmetros do modelo e pode ser necessário corrigi-la para obter resultados mais confiáveis. Portanto, é
importante avaliar a presença de heterocedasticidade em qualquer tipo de dados e aplicar as técnicas
adequadas para lidar com ela, independentemente de serem de seção-cruzada ou de séries temporais.

d) O que acontece com os estimadores de MQO e suas variâncias na presença de heterocedasticidade,


mas mantidas todas as demais premissas do modelo clássico? Os estimadores de MQO continuam
sendo BLUE? Explique!
Na presença de heterocedasticidade nos dados, os estimadores de Mínimos Quadrados Ordinários (MQO)
podem não ser mais eficientes e suas variâncias podem ser estimadas incorretamente. Isso ocorre porque o
método de MQO assume que a variância dos erros é constante, o que não é verdadeiro em um contexto de
heterocedasticidade. Nesse caso, os estimadores de MQO ainda são insubstituíveis como estimadores
lineares e imparciais (BLUE), desde que as outras premissas do modelo clássico, como linearidade,
exogeneidade, independência e normalidade dos erros, sejam mantidas. No entanto, os estimadores de MQO
não são mais eficientes, e a inferência estatística baseada em suas estimativas pode ser imprecisa.
Para lidar com a heterocedasticidade, é possível utilizar técnicas de estimação robusta, como a Estimação
por Mínimos Quadrados Ponderados (MQP), que leva em conta a heterocedasticidade dos erros e atribui
pesos diferentes às observações de acordo com a sua variabilidade. Outra opção é utilizar transformações
nos dados para tornar a variância dos erros mais constante, como a transformação Box-Cox. Em resumo, na
presença de heterocedasticidade, os estimadores de MQO ainda são imparciais, mas podem não ser
eficientes e a inferência estatística pode ser imprecisa. É importante considerar técnicas de estimação
robusta ou transformações nos dados para lidar com a heterocedasticidade e obter resultados mais confiávei
8
e) Na presença de heterocedasticidade, quais são os estimadores BLUE?
Na presença de heterocedasticidade, os estimadores Mínimos Quadrados Ordinários (MQO) podem não ser
mais eficientes e, portanto, não são mais os Melhores Estimadores Linearmente Não Viciados (BLUE). Isso
ocorre porque o método de MQO assume que a variância dos erros é constante, o que não é verdadeiro em
um contexto de heterocedasticidade. Para obter estimadores BLUE na presença de heterocedasticidade, é
necessário utilizar técnicas de estimação robustas, como a Estimação por Mínimos Quadrados Ponderados
(MQP) ou a Estimação Generalizada de Mínimos Quadrados (EGMQ). A MQP atribui pesos diferentes às
observações de acordo com a sua variabilidade, enquanto a EGMQ leva em conta tanto a
heterocedasticidade quanto a correlação dos erros.
Ambas as técnicas de estimação robusta podem produzir estimadores que são BLUE na presença de
heterocedasticidade e outras violações das premissas do modelo clássico, como a presença de outliers, erros
autocorrelacionados e não normalidade dos erros. No entanto, esses estimadores robustos podem ser menos
eficientes do que os estimadores de MQO quando as premissas do modelo clássico são satisfeitas.
Em resumo, na presença de heterocedasticidade, os estimadores BLUE podem ser obtidos por meio de
técnicas de estimação robusta, como a MQP ou a EGMQ, que levam em conta a heterocedasticidade dos
erros e produzem estimativas mais confiáveis.

f) Explique o que são os estimadores de Mínimos Quadrados Generalizados (MQG).


Os estimadores de Mínimos Quadrados Generalizados (MQG) são uma extensão dos estimadores de
Mínimos Quadrados Ordinários (MQO) que permitem lidar com violações de algumas das premissas
clássicas do modelo linear, como a heterocedasticidade e a correlação dos erros. Enquanto o método de
MQO assume que os erros têm distribuição normal com média zero e variância constante, o método de
MQG permite que a variância dos erros seja uma função dos valores observados de algumas variáveis
explicativas. Dessa forma, o método de MQG pode ser usado para lidar com casos em que a variância dos
erros não é constante, o que é conhecido como heterocedasticidade.
Os estimadores de MQG são obtidos maximizando uma função de verossimilhança generalizada que
incorpora a informação sobre a estrutura da variância dos erros. Essa função de verossimilhança utiliza
matrizes de ponderação que refletem a relação entre as variáveis explicativas e a variância dos erros. A
estimação de MQG requer uma suposição adicional sobre a estrutura da correlação dos erros. Se a
correlação dos erros é desconhecida, ela pode ser estimada por meio de testes de diagnóstico, como o teste
de White ou o teste de Breusch-Pagan. Os estimadores de MQG podem ser computacionalmente mais
exigentes do que os estimadores de MQO, pois envolvem a inversão de matrizes de grandes dimensões. No
entanto, eles podem produzir estimativas mais precisas e confiáveis em presença de heterocedasticidade e
correlação dos erros.

9
g) Explique a diferença entre os estimadores de MQO e os de MQG.
Os estimadores de Mínimos Quadrados Ordinários (MQO) e os estimadores de Mínimos Quadrados
Generalizados (MQG) são duas abordagens diferentes para estimar os parâmetros de um modelo linear. A
principal diferença entre esses dois métodos é que o MQO assume que a variância dos erros é constante,
enquanto o MQG permite que a variância dos erros varie de acordo com algumas variáveis explicativas. O
MQO é um método de estimação padrão que é usado quando os erros têm distribuição normal e a variância
dos erros é constante. O MQO é fácil de calcular e fornece estimativas eficientes dos parâmetros do modelo
se as suposições do modelo linear clássico forem satisfeitas. No entanto, quando as premissas do modelo são
violadas, o MQO pode produzir estimativas imprecisas e enviesadas.
O MQG, por outro lado, é um método de estimação mais geral que pode ser usado quando as suposições do
MQO são violadas. Em particular, o MQG pode ser usado para lidar com a heterocedasticidade, ou seja,
quando a variância dos erros não é constante. O MQG leva em conta a estrutura da variância dos erros e usa
matrizes de ponderação para ajustar a estimação dos parâmetros do modelo de acordo com essa estrutura. O
MQG pode ser mais preciso do que o MQO em presença de heterocedasticidade, mas pode ser
computacionalmente mais exigente. Em resumo, a principal diferença entre os estimadores de MQO e MQG
é que o primeiro assume que a variância dos erros é constante e normalmente distribuída, enquanto o
segundo permite que a variância dos erros varie de acordo com algumas variáveis explicativas. O MQG é
mais geral e pode ser usado para lidar com violações de algumas das premissas do modelo linear clássico,
como a heterocedasticidade e a correlação dos erros

h) Explique por que os estimadores de MQG, no contexto de heterocedasticidade, são conhecidos como
estimadores de Mínimos Quadrados Ponderados (MQP). (MQP é um caso específico dos MQG).
Os estimadores de Mínimos Quadrados Ponderados (MQP) são um caso específico dos estimadores de
Mínimos Quadrados Generalizados (MQG), usados para lidar com a heterocedasticidade no modelo de
regressão linear. Em presença de heterocedasticidade, os erros não têm a mesma variância em todas as
observações, e a influência das observações com maior variância é maior na estimação dos parâmetros do
modelo. Para corrigir esse problema, o método de MQG utiliza matrizes de ponderação que refletem a
relação entre as variáveis explicativas e a variância dos erros. No caso específico em que a matriz de
ponderação é diagonal (ou seja, as ponderações são diferentes para cada observação, mas não dependem das
outras observações), o estimador de MQG é conhecido como estimador de MQP. Nesse caso, os pesos são
proporcionais ao inverso da variância dos erros, ou seja, as observações com menor variância dos erros
recebem mais peso na estimação dos parâmetros do modelo.
Os estimadores de MQP são obtidos por meio da minimização da soma ponderada dos resíduos ao quadrado,
em que os pesos são as inversas da variância dos erros. Isso significa que as observações com menor
variância têm um peso maior na estimação dos parâmetros do modelo, o que reduz a influência das
observações com maior variância. Em resumo, os estimadores de MQP são um caso específico dos
10
estimadores de MQG usados para lidar com a heterocedasticidade no modelo de regressão linear. Eles são
chamados de ponderados porque usam matrizes de ponderação que refletem a relação entre as variáveis
explicativas e a variância dos erros, dando mais peso às observações com menor variância

i) Explique as consequências do uso dos MQO na presença da heterocedasticidade.


Quando o modelo de regressão linear é afetado pela heterocedasticidade e é utilizado o método de Mínimos
Quadrados Ordinários (MQO) para estimar os parâmetros, pode haver algumas consequências negativas.
Algumas delas incluem:
1. Viés nos coeficientes: na presença de heterocedasticidade, a matriz de covariância dos erros não é
mais constante, o que significa que o estimador de MQO não é mais eficiente e pode levar a
coeficientes de regressão enviesados. Esse viés é mais provável nos coeficientes das variáveis
independentes que estão relacionadas com os erros heterocedásticos.
2. Estimativas imprecisas de erro padrão: a heterocedasticidade faz com que os erros padrão calculados
pelo estimador de MQO sejam imprecisos, pois não levam em conta a heterogeneidade das
variâncias dos erros. Isso pode levar a intervalos de confiança imprecisos e a testes de hipóteses
imprecisos sobre os coeficientes.
3. Testes de hipóteses e intervalos de confiança imprecisos: a heterocedasticidade viola a suposição de
homocedasticidade do modelo de regressão linear clássico, o que pode levar a testes de hipóteses e
intervalos de confiança imprecisos ou inválidos. Isso pode levar a conclusões errôneas sobre a
significância estatística dos coeficientes.
4. Previsões menos precisas: quando o modelo é afetado pela heterocedasticidade e os parâmetros são
estimados pelo método de MQO, as previsões podem ser menos precisas. Isso ocorre porque as
observações com maiores variâncias têm uma influência desproporcional no modelo, o que pode
levar a previsões menos precisas.
Em resumo, a heterocedasticidade pode levar a estimativas de MQO enviesadas, imprecisas e com intervalos
de confiança e testes de hipóteses inválidos. Portanto, é importante considerar métodos alternativos, como os
Mínimos Quadrados Generalizados (MQG) ou os Mínimos Quadrados Ponderados (MQP), para corrigir
esse problema e obter estimativas mais precisas e confiáveis.

j) Explique o critério do método gráfico para detecção da heterocedasticidade.


O método gráfico para detecção da heterocedasticidade consiste em analisar visualmente os resíduos
padronizados em relação aos valores ajustados da variável dependente no modelo de regressão. Esse método
é baseado na ideia de que, na presença de heterocedasticidade, os resíduos apresentam uma variância
crescente ou decrescente em relação aos valores ajustados, formando uma "nuvem" que se espalha em forma
de cone ou funil. Para aplicar esse método, basta plotar os resíduos padronizados em função dos valores
ajustados e analisar a dispersão dos pontos no gráfico. Se a heterocedasticidade estiver presente, os pontos
11
geralmente formarão um padrão cônico, com a dispersão dos pontos aumentando ou diminuindo à medida
que os valores ajustados aumentam. Por outro lado, se a hipótese de homocedasticidade estiver correta, os
pontos devem ser distribuídos aleatoriamente em torno de uma linha horizontal, sem nenhum padrão claro.
Além disso, esse método gráfico pode ser complementado por testes estatísticos formais, como o teste de
Breusch-Pagan ou o teste de White. Estes testes verificam se a heterocedasticidade é estatisticamente
significativa e podem fornecer evidências adicionais para confirmar ou refutar a presença de
heterocedasticidade no modelo.
No entanto, é importante ressaltar que o método gráfico não é uma prova conclusiva da presença ou ausência
de heterocedasticidade. Ele pode ser afetado por vários fatores, como a presença de outliers ou valores
extremos, que podem distorcer o padrão dos resíduos. Portanto, é recomendável utilizar vários métodos de
detecção de heterocedasticidade em conjunto para confirmar a presença desse problema e considerar
métodos alternativos de estimação, como os Mínimos Quadrados Ponderados (MQP) ou os Mínimos
Quadrados Generalizados (MQG), para lidar com a heterocedasticidade quando necessário

k) Explique o teste geral de heterocedasticidade de White (Hipótese nula, procedimento, regra de


decisão etc.).
O teste geral de heterocedasticidade de White é um teste estatístico utilizado para testar a hipótese nula de
homocedasticidade em modelos de regressão linear com heterocedasticidade. Esse teste foi proposto por
White em 1980 e é amplamente utilizado em econometria e outras áreas.
A hipótese nula do teste é de que não há heterocedasticidade no modelo. A hipótese alternativa é que há
heterocedasticidade no modelo. O procedimento do teste envolve três etapas:
1. Ajuste do modelo de regressão linear: primeiro, um modelo de regressão linear é ajustado aos dados.
O modelo pode ser ajustado usando o método dos Mínimos Quadrados Ordinários (MQO) ou
qualquer outro método de estimação.
2. Cálculo dos resíduos padronizados: em seguida, os resíduos do modelo são padronizados,
dividindo-os pelo desvio padrão estimado dos resíduos. Isso é feito para garantir que os resíduos
tenham a mesma escala em todas as observações.
3. Estimação do modelo de regressão auxiliar: um modelo de regressão auxiliar é estimado usando os
resíduos padronizados ao quadrado como variáveis explicativas. Esse modelo de regressão auxiliar é
uma forma ampliada do modelo original e é usado para testar a hipótese de homocedasticidade.
4. A regra de decisão do teste é baseada no valor da estatística de teste de White, que segue uma
distribuição qui-quadrado com graus de liberdade igual ao número de variáveis explicativas incluídas
no modelo auxiliar. Se o valor da estatística de teste for maior que o valor crítico da distribuição
qui-quadrado, então a hipótese nula é rejeitada e conclui-se que há evidência estatística de
heterocedasticidade no modelo. Caso contrário, não há evidência suficiente para rejeitar a hipótese
nula e conclui-se que o modelo é homocedástico.
12
Em resumo, o teste geral de heterocedasticidade de White é um teste estatístico útil para detectar a presença
de heterocedasticidade em modelos de regressão linear. Ele é robusto em relação à autocorrelação e à
presença de outliers e pode ser aplicado a modelos ajustados usando diferentes métodos de estimação

l) Explique o método de correção da heterocedasticidade, considerando que σ^2 seja conhecido.


A heterocedasticidade é um problema comum em regressão, no qual a variância dos erros de previsão varia
em relação às variáveis ​independentes. Isso pode levar a resultados imprecisos ou viesados, e é importante
corrigir esse problema para obter resultados mais confiáveis.Uma maneira de corrigir a heterocedasticidade
é usar a correção de White, que é um método de estimativa robusta de erros padrão. Esse método é aplicado
quando se tem conhecimento prévio da variância σ^2 dos erros.Para aplicar a correção de White, primeiro
ajustamos um modelo de regressão linear normalmente e obtemos os resíduos.
Em seguida, calculamos o quadrado dos resíduos e multiplicamos por uma matriz diagonal de pesos, onde
cada peso é o inverso da variância da observação correspondente. Esta matriz de pesos é construída a partir
da estimativa da variância σ^2 dos erros. A matriz diagonal resultante é então multiplicada pela matriz de
covariância dos regressores para obter uma nova matriz de covariância.
Finalmente, os erros padrão ajustados são obtidos a partir da raiz quadrada dos elementos diagonais da nova
matriz de covariância. Esses erros padrão ajustados são usados para testar hipóteses e para construir
intervalos de confiança mais precisos.
Em resumo, a correção de White para heterocedasticidade envolve:
1. Ajustar um modelo de regressão linear normalmente e obter os resíduos
2. Calcular o quadrado dos resíduos e multiplicar por uma matriz diagonal de pesos, onde cada peso é o
inverso da variância da observação correspondente
3. Multiplicar a matriz diagonal resultante pela matriz de covariância dos regressores para obter uma
nova matriz de covariância
4. Obter os erros padrão ajustados a partir da raiz quadrada dos elementos diagonais da nova matriz de
covariância

m) Explique o que são a variância e os erros-padrão consistentes para a heterocedasticidade de White


(também conhecidos como erros-padrão robustos).
A heterocedasticidade é um problema em que a variância dos erros de um modelo de regressão varia em
relação às variáveis independentes, o que pode levar a resultados imprecisos ou enviesados. Para lidar com
esse problema, um método de correção comum é a correção de White, que é um método de estimativa
robusta de erros padrão. Os erros-padrão consistentes para a heterocedasticidade de White, também
conhecidos como erros-padrão robustos, são uma medida alternativa de incerteza dos coeficientes de
regressão que leva em consideração a heterocedasticidade. Em outras palavras, eles são uma forma de
estimar os erros padrão dos coeficientes do modelo que são robustos à presença de heterocedasticidade.

A variância consistente de White é calculada usando a matriz de covariância dos erros, mas com um peso
para cada observação que leva em conta a variância do erro da observação. Essa matriz de peso é a inversa
da matriz de covariância dos erros. A matriz resultante é usada para calcular a variância dos coeficientes de
regressão, que é usada para estimar os erros padrão consistentes para a heterocedasticidade de White. Os
erros-padrão consistentes para a heterocedasticidade de White são importantes porque fornecem estimativas
de incerteza mais precisas e robustas, em relação aos erros padrão comuns, aos coeficientes de regressão em

13
modelos com heterocedasticidade. Isso pode ajudar a evitar resultados enganosos e garantir que as
inferências sejam mais precisas.

n) Caso não seja conhecido, é possível adotar algumas hipóteses sobre o padrão da
heterocedasticidade, o que permite a transformação dos dados e a eliminação da heterocedasticidade.
Explique!

n.1) Mostre como os dados devem ser transformados caso se assuma a hipótese de que a variância do

erro é proporcional a .

n.2) Mostre como os dados devem ser transformados caso se assuma a hipótese de que a variância do

erro é proporcional a .

Questões Práticas

1. Considere o seguinte resultado de um estudo da relação entre consumo (Y) renda (X2) e riqueza (X3).

Dependent Variable: Y
Method: Least Squares
Date: 03/27/23 Time: 11:52
Sample: 1 14
Included observations: 14

Variable Coefficient Std. Error t-Statistic Prob.  

C 19.28947 6.404864 3.011691 0.0118


X2 0.441388 0.257108 1.716745 0.1140
X3 1.379885 0.684901 2.014724 0.0690

R-squared 0.917542     Mean dependent var 87.12143


Adjusted R-squared 0.902550     S.D. dependent var 18.64313

O que você pode dizer em relação à multicolinearidade para estes resultados?

14
2. Um pesquisador definiu com base na teoria econômica que X1, X2 e X3 são regressores determinantes
da demanda de automóveis no Brasil. Ao analisar os coeficientes de correlação entre os pares de
regressores, ele obteve os seguintes resultados:

  X1 X2 X3
X1 1.00 0.94 0.81
X2 0.94 1.00 0.74
X3 0.81 0.74 1.00

Supondo que você foi convidado (a) a dar parecer sobre este estudo, o que você diria em relação aos
resultados acima. Você iria invalidar os resultados do estudo? (Considere a questão da
multicolinearidade)

3. Na tentativa de identificar o grau de multicolinearidade presente em seu modelo, um pesquisador gerou


os seguintes resultados.

Com base nos resultados apresentados, responda as questões a seguir:

a) Qual método de detecção de multicolinearidade o pesquisador adotou?


b) Especifique os modelos que foram regredidos?
c) Considerando a relação que existe entre o teste F e o coeficiente de ajustamento do modelo (R2) diga
se o modelo apresenta relação de colinearidade entre seus regressores. O que você diria quanto á
gravidade da multicolinearidade?

15
4. Um estudante de econometria interessado em saber qual a velocidade em que as variâncias e
covariâncias aumentam em caso de presença da multicolinearidade, calculou os seguintes coeficientes de
correlação entre X2 e X3.

𝑌𝑖 = β0 + β1𝑋2𝑖 + β2𝑋3𝑖 + X2 X3
X2 1.00 0.94
X3 0.94 1.00

O que o estudante pôde concluir em relação ao grau de multicolinearidade? (Considere a velocidade do


aumento da variância para a sua decisão.)

5. Na tentativa de detectar a heterocedasticidade, um pesquisador adotou os seguintes procedimentos,


conforme figura a seguir:

a) Que teste este pesquisador aplicou e qual a sua hipótese nula?

b) O que ele pôde concluir sobre a presença da heterocedasticidade em seu modelo?

c) Qual a diferença, se ela existe, entre o teste adotado pelo pesquisado e o proposto por Gleyser?

d) Existem críticas que recaem sobre o teste adotado pelo pesquisador e sobre o teste de Gleyser. Quais
são elas?

Dado que existem críticas sobre estes testes, você adotaria o teste Goldfeld – Quandt como alternativa
para a detecção da heterocedasticidade? Justifique a resposta.

16
6. Um pesquisador procurou analisar a relação entre o consumo das famílias (Y) e o nível de renda das
famílias (X2). Para tanto, ele utilizou dados da POF e da PNAD (dados de corte transversal), neste caso,
ele suspeitou que seu modelo estaria sujeito aos problemas de heterocedasticidade. Com base nisso, ele
adotou os seguintes procedimentos econométricos:

a) Procedimento 1:

F-statistic 33.70795     Prob. F(2,38) 0.06


Obs*R-squared 26.22045     Prob. Chi-Square(2) 0.05
Scaled explained SS 33.87207     Prob. Chi-Square(2) 0.03

Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 03/27/23 Time: 11:17
Sample: 1960 2000
Included observations: 41

Variable Coefficient Std. Error t-Statistic Prob.  

C 1.88E+18 5.95E+17 3.159706 0.0031


X -2.65E+09 7.78E+08 -3.406565 0.0016
X^2 0.993180 0.183705 5.406371 0.0000

R-squared 0.639523     Mean dependent var 1.71E+18

Explique o procedimento adotado pelo pesquisador e qual foi o objetivo de tê-lo adotado? Quais
conclusões puderam ser retiradas dos resultados obtidos pelo procedimento?

b) Procedimento 2:

17
Explique o procedimento 2 e diga qual foi o objetivo de o pesquisador tê-lo adotado? Esta técnica
apresenta limitações?

18

You might also like