CAPITULO 3

:

Violación de los supuestos del
Modelo Clásico

Prof.: Juan Carlos Miranda C.
Instituto de Estadístico
Facultad de Ciencias Económicas y Administrativas


Diciembre 2011
CURSO:
ESTADÍSTICA EMPRESARIAL II
(ESTD-241)
CONTENIDO DEL CAPITULO
1. Multicolinealidad (o colinealidad)
 Efectos de la multicolinealidad:
 Casos en que suele presentarse un problema de
multicolinealidad.
 Criterios para decidir cuándo la colinealidad de grado
constituye un problema.
 Soluciones al problema a través de un ejemplo
2. Error de especificación
3. Heteroscedasticidad
4. Autocorrelación
Algunos problemas de la
Regresión Múltiples
Hipótesis del modelo
Problema
1- Las variables X, toman
valores distintos en la
muestra
2- E(Y) = β`X La
distribución normal para
los residuales e.
3- V(e) = σ
2
(ctes)
4- Los errores e son
independientes entre sí.
Multicolinealidad: las
variables X, toman valores
muy semejante en la
muestra
Errores de especificación.
Es decir, E(Y) ≠ β`X, falta
de normalidad en los
residuales.
Heterocedasticidad
V(e) ≠ σ
2
(distintas)
Autocorrelación: Los errores
e son dependientes entre sí.
I. ¿Qué es la Multicolinealidad?:
Las variables explicativas son linealmente independientes
(no existe multicolinealidad)
 Existe Multicolinealidad cuando en un
modelo de regresión múltiple las variables
explicativas están correlacionadas entre sí.
 Esta correlación se debe a que las variables
económicas reales raramente son
independientes.
 El caso extremo, la Multicolinealidad perfecta
ocurre cuando un regresor es una
combinación lineal exacta de otro u otros
Multicolinealidad (0 colinealidad)
El término multicolinealidad (o colinealidad) en Econometría se refiere a una
situación en la que dos o más variables explicativas están fuertemente
interrelacionadas y, por tanto, resulta difícil medir sus efectos individuales
sobre la variable endógena. Cabe distinguir dos casos:
. Multicolinealidad exacta, cuando . En este caso existen infinitas
soluciones para el sistema

• Multicolinealidad de grado (aproximada), en este caso y, por
tanto, existe una solución formalmente óptima al problema de mínima suma
de cuadrados. Sin embargo, esta solución está mal condicionada, ya que la
función objetivo es muy plana en el entorno del óptimo y, por tanto, existen
infinitas soluciones casi tan buenas como la óptima.
0 = X X
T
Y X X X
T T
MCO
T
= |
ˆ
0 ~ X X
T
Para presentar este tema, seguiremos el siguiente esquema:
• Efectos de la multicolinealidad.
• Casos en que suele presentarse un problema de multicolinealidad.
• Criterios para decidir cuándo la colinealidad de grado constituye un problema.
• Soluciones al problema.
Efectos de la Colinealidad:
consecuencias
 Las varianzas de las estimaciones
aumentan de forma drástica con el grado
de correlación.
 Esto hará que los estadísticos t sean muy
bajos cuando hay multicolinealidad.
 Las covarianzas de las estimaciones
aumentan de manera drástica también
Efectos de la Colinealidad:
consecuencias
 H
0
:

|
k
=0 a nivel individual se aceptará con
frecuencia.
 Pero se rechaza la hipótesis de no
significatividad conjunta.
 Hay una pérdida de precisión en la
estimación.
 Los coeficientes estimados serán muy
sensibles a pequeños cambios en los datos.
Efectos de la colinealidad
El efecto fundamental de la colinealidad exacta es que no existe una
solución única del sistema de ecuaciones normales.

Cuando la colinealidad es de grado:
• Las estimaciones individuales de los parámetros están mal identificadas
• Se produce una inflación de la varianza de las estimaciones.
• Las estimaciones resultan muy sensibles a la muestra.

Mala identificación de las estimaciones. Por ejemplo, sea el modelo:
) 1 ..( ..........
2 2 1 1 0 t t t t
e x x y + + + = | | |
en donde:
2 .. ..........
1 1 2 t t t
u x x + =o
Sustituyendo (2) en (1) se obtiene:
t t t t t t t t
u x u x x y c | o | | | c o | | | + + + + = + + + + =
2 1 1 2 1 0 1 1 2 1 1 0
) ( ) (
y, si la varianza de u
t
es “pequeña”, el parámetro de x
t2
estará mal identificado, ya
que esta variable aporta poca información que no esté ya contenida en x
t1
. En el
límite, si la varianza de u
t
fuera nula, tendríamos un problema de colinealidad
exacta.
Efectos de la colinealidad
Inflación de la varianza de las estimaciones. Como:
T T
T
e
T
e MCO
X X adj
X X
X X COV ) (
1
) ( )
ˆ
(
2 1 2
o o | = =
÷
si entonces las varianzas de los parámetros tenderán a ser mayores
que en una situación bien condicionada. Por tanto, los contrastes de
hipótesis serán menos precisos y, concretamente, puede ocurrir que se
consideren no significativos parámetros que lo serían si la colinealidad fuera
menor.
0 ~ X X
T
Estimaciones sensibles a la muestra. Puesto que la función objetivo
(suma de cuadrados de residuos) es muy plana en el entorno del óptimo,
pequeños cambios en los valores de y o de X pueden dar lugar a cambios
importantes en las estimaciones.
Casos en que suele haber
problemas de colinealidad
Resulta frecuente que surja un problema de colinealidad en los siguientes
casos:
• En modelos de series temporales, cuando se emplean variables explicativas
con tendencia.
• En modelos de series temporales, cuando se incluyen como variables
explicativas retardos sucesivos de la variable endógena o de alguna de las
variables explicativas. Esto provoca colinealidad porque los valores de una
variable económica en distintos instantes de tiempo suelen estar correlados
entre sí.
• Cuando se consideran muchas variables explicativas. Lógicamente, a
medida que aumenta el número de variables explicativas, es más fácil que
aparezca una relación entre ellas, que de lugar a un problema de colinealidad.
• En modelos con variables cualitativas. surge un problema de
colinealidad exacta. Por ejemplo, en el modelo:
t t t t
e x x y + + + =
2 2 1 1 0
| | |
¹
´
¦
÷ =
=
=
1 2
1
1
1 ;
, 0
,..., 2 , 1 , 1
t t t
x x
tol
n t
x
Criterio de diagnóstico
Para decidir si la colinealidad de grado constituye un problema debemos
tener en cuenta los objetivos de nuestro análisis concreto. Por ejemplo, la
colinealidad no nos preocupa demasiado si nuestro objetivo es predecir, pero
es un problema muy grave si el análisis se centra en interpretar las
estimaciones de los parámetros.
Para diagnosticar este problema estudiaremos dos métodos: a) los basados
en la correlación entre variables explicativas, y b) los basados en el tamaño
de X X
T
Métodos basados en la correlación entre variables explicativas. Si
calculamos los coeficientes de correlación muestral entre cada par de
variables, podemos decidir que existe un problema de colinealidad si algún
coeficiente de correlación es mayor (en valor absoluto) que una tolerancia.
Los problemas de este método son: a) sólo puede detectar correlación entre
pares de variables explicativas y b) la tolerancia es arbitraria.
Criterio de diagnóstico
Métodos basados en el tamaño de
X X
T
Como sabemos:
[
=
=
k
i
i
T
X X
1
ì
Siendo el i-ésimo autovalor de la matriz. Por tanto, podemos reducir el
diagnóstico a comprobar si la matriz tiene algún autovalor próximo a cero.
Para evitar el problema de unidades de medida, este análisis suele
hacerse utilizando el número de condición de X
T
X que se puede definirse
de varias maneras:
i
ì
max 3
4
min
max
3
max
min
1
2
min
max
1
1
; ;
1
;
ì
ì
ì
ì
ì
ì
ì
ì
mim
c
c c
c
c c = = = = = =
Soluciones
El problema de colinealidad consiste, esencialmente, en que la muestra no
contiene suficiente información para estimar todos los parámetros que se
desean. Por ello, resolver el problema requiere añadir nueva información
(muestral o extramuestral) o cambiar la especificación. Algunas posibles
soluciones en esta línea son:
Añadir nuevas observaciones. Aumentar el tamaño muestral puede reducir
un problema de colinealidad de grado.
Restringir parámetros. Evidentemente, si la Teoría Económica o la
experiencia empírica sugieren algunas restricciones sobre los parámetros del
modelo más afectados por la colinealidad, imponerlas permitirá reducir el
problema. El riesgo que se corre es, obviamente, imponer restricciones que no
son ciertas.
Suprimir variables. Si se suprimen variables que están correladas con otras, la
pérdida de capacidad explicativa será pequeña y la colinealidad se reducirá.
Existe, sin embargo, el riesgo de eliminar variables que debieran mantenerse en
el modelo ya que, como hemos visto, cuando hay colinealidad las varianzas de
los parámetros están infladas y los parámetros pueden ser formalmente no
significativos.
Soluciones: en resumen
Transformar las variables del modelo. Si la colinealidad se debe a
que se están relacionando series temporales con tendencia, puede
ser conveniente transformar las variables para eliminar esta
tendencia.
 Utilizar información extra-muestral
 Sustituir un valor de un coeficiente de una de las variables
colineales por una estimación proveniente de otro estudio.
 Imponer restricciones sobre los coeficientes.
 Riesgos
 Si la estimación extramuestral es sesgada, el sesgo se
transmite al resto de estimaciones.
 Obtener resultados que simplemente reflejen las
restricciones.
Ejemplo de Multicolinealidad
perfecta
 En el fichero ci4p1.wf1 hay datos sobre
 Y: producción agrícola de 50 municipios
catalanes en el año 1990 (corte transversal).
 X: litros de lluvia por m2 caída en cada
municipio.
 Z: Agua disponible para regadíos en el año
90en Cataluña (No hay variación, ver matriz
de datos).
Ejemplo de Multicolinealidad perfecta
 No podemos estimar el modelo
 y
i
=|
1
+|
2
x
i
+|
3
z
i
+ u
i
contiene dos
términos constantes
 Hemos de utilizar y
i
=(|
1
+|
3
z
i
)+|
2
x
i
+ u
i
 Sólo identificamos
 |
1
‘=(

|
1
+|
3
z
i
)
 |
2
Ejemplo de Multicolinealidad fuerte
 En el fichero ci4p2.wf1 hay datos sobre
 Y: producción agrícola total de Catalunya en el
periodo 1974:1-1995:3 (serie temporal)
 X: litros de lluvia por m2 caída en Cataluña en el
periodo 1974:1-1995:3
 Z: Agua disponible para regadíos en Cataluña
cada trimestre durante el periodo 1974:1-1995:3

 y
t
=|
1
+|
2
x
t
+|
3
z
t
+ u
t
Resultados de la estimación MCO
(ci4p2)
 Coeficientes no significativamente distintos
de cero a nivel individual.
 Pero se rechaza la hipótesis nula de no
significación conjunta.
 Las covarianzas de las estimaciones son
grandes.
 Indicios de Multicolinealidad.
Confirmamos la existencia de
Multicolinealidad
 Gráficos de x, z
 Matriz de correlación de los regresores
Remedios
 Ya tenemos información acerca del efecto
de las lluvias sobre la producción agrícola
a partir de la estimación del modelo con
datos transversales
 Podríamos utilizar esa estimación en el
modelo

t t t t
t t t
u z y x
u z x
+ + = = ÷
+ + + =
3 1 2 t
3 2 1 t
'
ˆ
y
ˆ
y
| | |
| | |
II. Errores de Especificación:
Especificación correcta (ni falta ni sobran variables)
 Tipos de Error de Especificación:

- Omitir variables relevantes (OVR)
- Incluir variables irrelevantes (IVI)
- Errores de medidas en la variable endógena
- Errores de medidas en las variables explicativas
- Especificar una relación estática cuando es dinámica
- Especificar una relación lineal cuando la relación no es
lineal

Errores de Especificación

La mayoría de ellos se pueden entender OVR
Errores de Especificación

Omisión de variables relevantes
- supongamos que el modelo correctamente especificado
(MC), es el siguiente:
t t t t
u x x y MC + + + =
3 3 2 2 1
......... | | |
- Especificamos incorrectamente el siguiente (MI), en el que
no incorporamos a x
t3
t t t
v x y MI + + =
2 2 1
......... | |
t t t
u x v + ÷
3 3
|
MI es el modelo restringido de MC imponiendo la hipótesis
nula que es falsa. Esto implica:
- El estimador de MCO del MI es insesgado.
- El estimador de MCO del MI tiene una varianza inferior al estimador MCO del
MC (este estimador es insesgado y eficiente).
0
3
= |
Contrastes de Especificación

1) Contraste RESET de Ramsey (1969)

- Permita comprobar si existen errores en la especificación
del modelo debido a que:
- se han omitido variables relevantes
- La verdadera relación entre las variables es no lineal
- La hipótesis a contrastar es:

|
|
´
1
´
0
) ( ) / ( ...
) / ( ...
t t t t
t t t
x x f x y E H
x x y E H
= =
=
- Donde f(.) es una forma funcional distinta de que
puede ser desconocida.

|
´
t
x
Pasos para detectar el Error de
Especificación

- Para llevarlo a cabo se dan los siguientes pasos:
- Especificación de la relación lineal entre las variables del modelo:


- Estimación por MCO del modelo restringido bajo H0 de linealidad
- Nos quedamos con la variable explicada y la suma residual
SRR
t t t
u x y + = |
´
t t t
u x y + = |
´
ˆ
- Estimación por MCO de la regresión auxiliar (modelo sin restringir):


- - Nos quedamos con la suma residual SR

t
q
t q t t t t
u y y y x y + + + + + = ˆ ...... ˆ ˆ
3
2
2
1
´
o o o |
- Construimos un estadístico F de sumas residuales


) ; ; (
0
o k T q
BajoH
F
q
k T
SR
SR SRR
F
÷
~
÷ ÷
=
2) Contraste de Normalidad
- Es un supuestos fundamental en la inferencia
- Se debe contrastar siempre. Para ello:

- Histograma de los residuos
- Test de Jarque-Bera (J_B) y la asimetría (s).
- Tiene en cuenta la curtosis (K) y la asimetría (s).
Otros: No Normalidad

N u H
t
~ :
0
2
2
2 2
0
) ) 3 (
4
1
(
6
_ ~ ÷ +
÷
= ÷
bajoH
k S
k T
B J
Otros: No Normalidad

Otros: Selección de Modelos

2) Criterios de selección de modelos
- R
2
- R
2
restringido
- Medidas del error de previsión
- Akaike info criterio (AIC)


- Schwarz criterio (SC)


Donde es el valor de la función de verosimilitud evaluada en el estimador
MCO

T
k
T
AIC 2 2 + ÷ =

T
T
k
T
SC
) log(
2 + ÷ =

CONTENIDO DEL CAPITULO
1.

Multicolinealidad (o colinealidad)
 

Efectos de la multicolinealidad: Casos en que suele presentarse un problema de multicolinealidad. Criterios para decidir cuándo la colinealidad de grado constituye un problema. Soluciones al problema a través de un ejemplo

2. 3. 4.

Error de especificación Heteroscedasticidad

Autocorrelación

Algunos problemas de la Regresión Múltiples
Hipótesis del modelo
1- Las variables X, toman valores distintos en la muestra 2- E(Y) = β`X La distribución normal para los residuales e. 3- V(e) = σ2 (ctes) 4- Los errores e son independientes entre sí.

Problema
Multicolinealidad: las variables X, toman valores muy semejante en la muestra Errores de especificación. Es decir, E(Y) ≠ β`X, falta de normalidad en los residuales. Heterocedasticidad V(e) ≠ σ2 (distintas) Autocorrelación: Los errores e son dependientes entre sí.

¿Qué es la Multicolinealidad?: Las variables explicativas son linealmente independientes (no existe multicolinealidad)    Existe Multicolinealidad cuando en un modelo de regresión múltiple las variables explicativas están correlacionadas entre sí. El caso extremo.I. la Multicolinealidad perfecta ocurre cuando un regresor es una combinación lineal exacta de otro u otros . Esta correlación se debe a que las variables económicas reales raramente son independientes.

existe una solución formalmente óptima al problema de mínima suma de cuadrados. • Casos en que suele presentarse un problema de multicolinealidad. Multicolinealidad exacta. esta solución está mal condicionada. por tanto. XTX 0 . Sin embargo. por tanto. • Criterios para decidir cuándo la colinealidad de grado constituye un problema. resulta difícil medir sus efectos individuales sobre la variable endógena. ya que la función objetivo es muy plana en el entorno del óptimo y. por tanto. existen infinitas soluciones casi tan buenas como la óptima. en este caso y. • Soluciones al problema. Cabe distinguir dos casos: T . cuando .Multicolinealidad (0 colinealidad) El término multicolinealidad (o colinealidad) en Econometría se refiere a una situación en la que dos o más variables explicativas están fuertemente interrelacionadas y. seguiremos el siguiente esquema: • Efectos de la multicolinealidad. Para presentar este tema. X X  0 ˆT soluciones para el sistema X T X MCO  X T Y En este caso existen infinitas • Multicolinealidad de grado (aproximada).

Esto hará que los estadísticos t sean muy bajos cuando hay multicolinealidad. Las covarianzas de las estimaciones aumentan de manera drástica también .Efectos de la Colinealidad: consecuencias    Las varianzas de las estimaciones aumentan de forma drástica con el grado de correlación.

Pero se rechaza la hipótesis de no significatividad conjunta. Hay una pérdida de precisión en la estimación. .Efectos de la Colinealidad: consecuencias     H0 : k =0 a nivel individual se aceptará con frecuencia. Los coeficientes estimados serán muy sensibles a pequeños cambios en los datos.

el parámetro de xt2 estará mal identificado. ya que esta variable aporta poca información que no esté ya contenida en xt1..(1) en donde: xt 2  1 xt1  ut . si la varianza de ut fuera nula. Por ejemplo.Efectos de la colinealidad El efecto fundamental de la colinealidad exacta es que no existe una solución única del sistema de ecuaciones normales... .... Cuando la colinealidad es de grado: • Las estimaciones individuales de los parámetros están mal identificadas • Se produce una inflación de la varianza de las estimaciones.2 Sustituyendo (2) en (1) se obtiene: yt   0  1 xt1   2 (1 xt1  ut )   t   0  ( 1   21 ) xt1   2ut   t y....... si la varianza de ut es “pequeña”. Mala identificación de las estimaciones.... • Las estimaciones resultan muy sensibles a la muestra.. tendríamos un problema de colinealidad exacta. En el límite.. .. sea el modelo: yt   0  1 xt1   2 xt 2  et ... .

concretamente. los contrastes de hipótesis serán menos precisos y. Estimaciones sensibles a la muestra. pequeños cambios en los valores de y o de X pueden dar lugar a cambios importantes en las estimaciones.Efectos de la colinealidad Inflación de la varianza de las estimaciones. puede ocurrir que se consideren no significativos parámetros que lo serían si la colinealidad fuera menor. Como: 2 2 ˆ COV (  MCO )   e ( X T X ) 1   e 1 XTX adj( X T X )T si X T X  0 entonces las varianzas de los parámetros tenderán a ser mayores que en una situación bien condicionada. . Por tanto. Puesto que la función objetivo (suma de cuadrados de residuos) es muy plana en el entorno del óptimo.

tol  .n1 xt1   . surge un problema de colinealidad exacta. cuando se emplean variables explicativas con tendencia.Casos en que suele haber problemas de colinealidad Resulta frecuente que surja un problema de colinealidad en los siguientes casos: • En modelos de series temporales.2. en el modelo: yt   0  1 xt1   2 xt 2  et 1.. • Cuando se consideran muchas variables explicativas. • En modelos de series temporales. Lógicamente. que de lugar a un problema de colinealidad. Esto provoca colinealidad porque los valores de una variable económica en distintos instantes de tiempo suelen estar correlados entre sí. cuando se incluyen como variables explicativas retardos sucesivos de la variable endógena o de alguna de las variables explicativas... a medida que aumenta el número de variables explicativas. es más fácil que aparezca una relación entre ellas. t  1. xt 2  1  xt1 0. • En modelos con variables cualitativas. Por ejemplo..

. y b) los basados en el tamaño de X T X Métodos basados en la correlación entre variables explicativas. Los problemas de este método son: a) sólo puede detectar correlación entre pares de variables explicativas y b) la tolerancia es arbitraria.Criterio de diagnóstico Para decidir si la colinealidad de grado constituye un problema debemos tener en cuenta los objetivos de nuestro análisis concreto. Si calculamos los coeficientes de correlación muestral entre cada par de variables. podemos decidir que existe un problema de colinealidad si algún coeficiente de correlación es mayor (en valor absoluto) que una tolerancia. Por ejemplo. la colinealidad no nos preocupa demasiado si nuestro objetivo es predecir. pero es un problema muy grave si el análisis se centra en interpretar las estimaciones de los parámetros. Para diagnosticar este problema estudiaremos dos métodos: a) los basados en la correlación entre variables explicativas.

Para evitar el problema de unidades de medida.Criterio de diagnóstico T Métodos basados en el tamaño de X X Como sabemos: X X   i T i 1 k Siendo  i el i-ésimo autovalor de la matriz. c3  . c4   min c1 max min c3 max . c2   . Por tanto. este análisis suele hacerse utilizando el número de condición de XTX que se puede definirse de varias maneras: max max 1 min 1 mim c1  . podemos reducir el diagnóstico a comprobar si la matriz tiene algún autovalor próximo a cero.

Restringir parámetros.Soluciones El problema de colinealidad consiste. el riesgo de eliminar variables que debieran mantenerse en el modelo ya que. Evidentemente. imponer restricciones que no son ciertas. como hemos visto. obviamente. Si se suprimen variables que están correladas con otras. esencialmente. resolver el problema requiere añadir nueva información (muestral o extramuestral) o cambiar la especificación. El riesgo que se corre es. Algunas posibles soluciones en esta línea son: Añadir nuevas observaciones. la pérdida de capacidad explicativa será pequeña y la colinealidad se reducirá. cuando hay colinealidad las varianzas de los parámetros están infladas y los parámetros pueden ser formalmente no significativos. Existe. Suprimir variables. si la Teoría Económica o la experiencia empírica sugieren algunas restricciones sobre los parámetros del modelo más afectados por la colinealidad. en que la muestra no contiene suficiente información para estimar todos los parámetros que se desean. imponerlas permitirá reducir el problema. sin embargo. Por ello. Aumentar el tamaño muestral puede reducir un problema de colinealidad de grado. .

Soluciones: en resumen Transformar las variables del modelo. Si la colinealidad se debe a que se están relacionando series temporales con tendencia. puede ser conveniente transformar las variables para eliminar esta tendencia. Riesgos  Si la estimación extramuestral es sesgada. el sesgo se transmite al resto de estimaciones.  Imponer restricciones sobre los coeficientes.  Obtener resultados que simplemente reflejen las restricciones.   Utilizar información extra-muestral  Sustituir un valor de un coeficiente de una de las variables colineales por una estimación proveniente de otro estudio. .

wf1 hay datos sobre  Y: producción agrícola de 50 municipios catalanes en el año 1990 (corte transversal). ver matriz de datos).  Z: Agua disponible para regadíos en el año 90en Cataluña (No hay variación. .  X: litros de lluvia por m2 caída en cada municipio.Ejemplo de Multicolinealidad perfecta  En el fichero ci4p1.

.

.

Ejemplo de Multicolinealidad perfecta     No podemos estimar el modelo yi=1+2 x i +3 zi + ui contiene dos términos constantes Hemos de utilizar yi=(1 +3 zi)+2 x i + ui Sólo identificamos   1 ‘=( 1 +3 zi) 2 .

.

Ejemplo de Multicolinealidad fuerte  En el fichero ci4p2.wf1 hay datos sobre    Y: producción agrícola total de Catalunya en el periodo 1974:1-1995:3 (serie temporal) X: litros de lluvia por m2 caída en Cataluña en el periodo 1974:1-1995:3 Z: Agua disponible para regadíos en Cataluña cada trimestre durante el periodo 1974:1-1995:3  yt=1+2 x t +3 zt + ut .

.

 Pero se rechaza la hipótesis nula de no significación conjunta.  Indicios de Multicolinealidad.  Las covarianzas de las estimaciones son grandes.  .Resultados de la estimación MCO (ci4p2) Coeficientes no significativamente distintos de cero a nivel individual.

Confirmamos la existencia de Multicolinealidad Gráficos de x. z  Matriz de correlación de los regresores  .

.

Remedios Ya tenemos información acerca del efecto de las lluvias sobre la producción agrícola a partir de la estimación del modelo con datos transversales  Podríamos utilizar esa estimación en el modelo  ˆ y t  1   2 xt   3 zt  ut ˆ y t   2 x t  y ' t   1   3 z t  ut .

.

II.Errores de medidas en las variables explicativas .Incluir variables irrelevantes (IVI) .Errores de medidas en la variable endógena . Errores de Especificación: Especificación correcta (ni falta ni sobran variables)  Tipos de Error de Especificación: .Omitir variables relevantes (OVR) .Especificar una relación estática cuando es dinámica .Especificar una relación lineal cuando la relación no es lineal .

Errores de Especificación La mayoría de ellos se pueden entender OVR .

....El estimador de MCO del MI es insesgado...El estimador de MCO del MI tiene una varianza inferior al estimador MCO del MC (este estimador es insesgado y eficiente). .supongamos que el modelo correctamente especificado (MC).. en el que no incorporamos a xt3 MI .... yt  1   2 xt 2   3 xt 3  ut .... es el siguiente: MC. yt  1   2 xt 2  vt vt   3 xt 3  ut MI es el modelo restringido de MC imponiendo la hipótesis nula  3  0 que es falsa. Esto implica: . ..Errores de Especificación Omisión de variables relevantes ..Especificamos incorrectamente el siguiente (MI)..

- que .E ( yt / xt )  xt´  H1..La verdadera relación entre las variables es no lineal - La hipótesis a contrastar es: H 0 .se han omitido variables relevantes .Permita comprobar si existen errores en la especificación del modelo debido a que: ..) es una forma funcional distinta de xt  puede ser desconocida...Contrastes de Especificación 1) Contraste RESET de Ramsey (1969) .E ( yt / xt )  f ( xt )  xt´  ´ Donde f(.

Pasos para detectar el Error de Especificación - Para llevarlo a cabo se dan los siguientes pasos: - Especificación de la relación lineal entre las variables del modelo: yt  xt´   ut - Estimación por MCO del modelo restringido bajo H0 de linealidad ´ ˆ Nos quedamos con la variable explicada yt  xt   ut y la suma residual SRR Estimación por MCO de la regresión auxiliar (modelo sin restringir): - ˆ ˆ ˆ yt  xt´   1 yt2   2 yt3  ..T  k . ) SR q .....Nos quedamos con la suma residual SR - Construimos un estadístico F de sumas residuales SRR  SR T  k BajoH 0 F  F( q .  q ytq  ut - .

Se debe contrastar siempre.Test de Jarque-Bera (J_B) y la asimetría (s).Histograma de los residuos . .Otros: No Normalidad 2) Contraste de Normalidad . H 0 : ut  N J B T k 2 1 2 ( S  (k  3) 2 )bajoH 0   2 6 4 . Para ello: .Tiene en cuenta la curtosis (K) y la asimetría (s).Es un supuestos fundamental en la inferencia .

Otros: No Normalidad .

Medidas del error de previsión .Akaike info criterio (AIC)  k AIC  2  2 T T .Schwarz criterio (SC)  log(T ) SC  2  k T T Donde MCO  es el valor de la función de verosimilitud evaluada en el estimador .Otros: Selección de Modelos 2) Criterios de selección de modelos .R2 .R2 restringido .

Sign up to vote on this title
UsefulNot useful