You are on page 1of 39

CAPITULO 3:

Violacin de los supuestos del


Modelo Clsico

Prof.: Juan Carlos Miranda C.
Instituto de Estadstico
Facultad de Ciencias Econmicas y Administrativas


Diciembre 2011
CURSO:
ESTADSTICA EMPRESARIAL II
(ESTD-241)
CONTENIDO DEL CAPITULO
1. Multicolinealidad (o colinealidad)
Efectos de la multicolinealidad:
Casos en que suele presentarse un problema de
multicolinealidad.
Criterios para decidir cundo la colinealidad de grado
constituye un problema.
Soluciones al problema a travs de un ejemplo
2. Error de especificacin
3. Heteroscedasticidad
4. Autocorrelacin
Algunos problemas de la
Regresin Mltiples
Hiptesis del modelo
Problema
1- Las variables X, toman
valores distintos en la
muestra
2- E(Y) = `X La
distribucin normal para
los residuales e.
3- V(e) =
2
(ctes)
4- Los errores e son
independientes entre s.
Multicolinealidad: las
variables X, toman valores
muy semejante en la
muestra
Errores de especificacin.
Es decir, E(Y) `X, falta
de normalidad en los
residuales.
Heterocedasticidad
V(e)
2
(distintas)
Autocorrelacin: Los errores
e son dependientes entre s.
I. Qu es la Multicolinealidad?:
Las variables explicativas son linealmente independientes
(no existe multicolinealidad)
Existe Multicolinealidad cuando en un
modelo de regresin mltiple las variables
explicativas estn correlacionadas entre s.
Esta correlacin se debe a que las variables
econmicas reales raramente son
independientes.
El caso extremo, la Multicolinealidad perfecta
ocurre cuando un regresor es una
combinacin lineal exacta de otro u otros
Multicolinealidad (0 colinealidad)
El trmino multicolinealidad (o colinealidad) en Econometra se refiere a una
situacin en la que dos o ms variables explicativas estn fuertemente
interrelacionadas y, por tanto, resulta difcil medir sus efectos individuales
sobre la variable endgena. Cabe distinguir dos casos:
. Multicolinealidad exacta, cuando . En este caso existen infinitas
soluciones para el sistema

Multicolinealidad de grado (aproximada), en este caso y, por
tanto, existe una solucin formalmente ptima al problema de mnima suma
de cuadrados. Sin embargo, esta solucin est mal condicionada, ya que la
funcin objetivo es muy plana en el entorno del ptimo y, por tanto, existen
infinitas soluciones casi tan buenas como la ptima.
0 = X X
T
Y X X X
T T
MCO
T
= |

0 ~ X X
T
Para presentar este tema, seguiremos el siguiente esquema:
Efectos de la multicolinealidad.
Casos en que suele presentarse un problema de multicolinealidad.
Criterios para decidir cundo la colinealidad de grado constituye un problema.
Soluciones al problema.
Efectos de la Colinealidad:
consecuencias
Las varianzas de las estimaciones
aumentan de forma drstica con el grado
de correlacin.
Esto har que los estadsticos t sean muy
bajos cuando hay multicolinealidad.
Las covarianzas de las estimaciones
aumentan de manera drstica tambin
Efectos de la Colinealidad:
consecuencias
H
0
:

|
k
=0 a nivel individual se aceptar con
frecuencia.
Pero se rechaza la hiptesis de no
significatividad conjunta.
Hay una prdida de precisin en la
estimacin.
Los coeficientes estimados sern muy
sensibles a pequeos cambios en los datos.
Efectos de la colinealidad
El efecto fundamental de la colinealidad exacta es que no existe una
solucin nica del sistema de ecuaciones normales.

Cuando la colinealidad es de grado:
Las estimaciones individuales de los parmetros estn mal identificadas
Se produce una inflacin de la varianza de las estimaciones.
Las estimaciones resultan muy sensibles a la muestra.

Mala identificacin de las estimaciones. Por ejemplo, sea el modelo:
) 1 ..( ..........
2 2 1 1 0 t t t t
e x x y + + + = | | |
en donde:
2 .. ..........
1 1 2 t t t
u x x + =o
Sustituyendo (2) en (1) se obtiene:
t t t t t t t t
u x u x x y c | o | | | c o | | | + + + + = + + + + =
2 1 1 2 1 0 1 1 2 1 1 0
) ( ) (
y, si la varianza de u
t
es pequea, el parmetro de x
t2
estar mal identificado, ya
que esta variable aporta poca informacin que no est ya contenida en x
t1
. En el
lmite, si la varianza de u
t
fuera nula, tendramos un problema de colinealidad
exacta.
Efectos de la colinealidad
Inflacin de la varianza de las estimaciones. Como:
T T
T
e
T
e MCO
X X adj
X X
X X COV ) (
1
) ( )

(
2 1 2
o o | = =

si entonces las varianzas de los parmetros tendern a ser mayores
que en una situacin bien condicionada. Por tanto, los contrastes de
hiptesis sern menos precisos y, concretamente, puede ocurrir que se
consideren no significativos parmetros que lo seran si la colinealidad fuera
menor.
0 ~ X X
T
Estimaciones sensibles a la muestra. Puesto que la funcin objetivo
(suma de cuadrados de residuos) es muy plana en el entorno del ptimo,
pequeos cambios en los valores de y o de X pueden dar lugar a cambios
importantes en las estimaciones.
Casos en que suele haber
problemas de colinealidad
Resulta frecuente que surja un problema de colinealidad en los siguientes
casos:
En modelos de series temporales, cuando se emplean variables explicativas
con tendencia.
En modelos de series temporales, cuando se incluyen como variables
explicativas retardos sucesivos de la variable endgena o de alguna de las
variables explicativas. Esto provoca colinealidad porque los valores de una
variable econmica en distintos instantes de tiempo suelen estar correlados
entre s.
Cuando se consideran muchas variables explicativas. Lgicamente, a
medida que aumenta el nmero de variables explicativas, es ms fcil que
aparezca una relacin entre ellas, que de lugar a un problema de colinealidad.
En modelos con variables cualitativas. surge un problema de
colinealidad exacta. Por ejemplo, en el modelo:
t t t t
e x x y + + + =
2 2 1 1 0
| | |

=
=
=
1 2
1
1
1 ;
, 0
,..., 2 , 1 , 1
t t t
x x
tol
n t
x
Criterio de diagnstico
Para decidir si la colinealidad de grado constituye un problema debemos
tener en cuenta los objetivos de nuestro anlisis concreto. Por ejemplo, la
colinealidad no nos preocupa demasiado si nuestro objetivo es predecir, pero
es un problema muy grave si el anlisis se centra en interpretar las
estimaciones de los parmetros.
Para diagnosticar este problema estudiaremos dos mtodos: a) los basados
en la correlacin entre variables explicativas, y b) los basados en el tamao
de X X
T
Mtodos basados en la correlacin entre variables explicativas. Si
calculamos los coeficientes de correlacin muestral entre cada par de
variables, podemos decidir que existe un problema de colinealidad si algn
coeficiente de correlacin es mayor (en valor absoluto) que una tolerancia.
Los problemas de este mtodo son: a) slo puede detectar correlacin entre
pares de variables explicativas y b) la tolerancia es arbitraria.
Criterio de diagnstico
Mtodos basados en el tamao de
X X
T
Como sabemos:
[
=
=
k
i
i
T
X X
1

Siendo el i-simo autovalor de la matriz. Por tanto, podemos reducir el


diagnstico a comprobar si la matriz tiene algn autovalor prximo a cero.
Para evitar el problema de unidades de medida, este anlisis suele
hacerse utilizando el nmero de condicin de X
T
X que se puede definirse
de varias maneras:
i

max 3
4
min
max
3
max
min
1
2
min
max
1
1
; ;
1
;

mim
c
c c
c
c c = = = = = =
Soluciones
El problema de colinealidad consiste, esencialmente, en que la muestra no
contiene suficiente informacin para estimar todos los parmetros que se
desean. Por ello, resolver el problema requiere aadir nueva informacin
(muestral o extramuestral) o cambiar la especificacin. Algunas posibles
soluciones en esta lnea son:
Aadir nuevas observaciones. Aumentar el tamao muestral puede reducir
un problema de colinealidad de grado.
Restringir parmetros. Evidentemente, si la Teora Econmica o la
experiencia emprica sugieren algunas restricciones sobre los parmetros del
modelo ms afectados por la colinealidad, imponerlas permitir reducir el
problema. El riesgo que se corre es, obviamente, imponer restricciones que no
son ciertas.
Suprimir variables. Si se suprimen variables que estn correladas con otras, la
prdida de capacidad explicativa ser pequea y la colinealidad se reducir.
Existe, sin embargo, el riesgo de eliminar variables que debieran mantenerse en
el modelo ya que, como hemos visto, cuando hay colinealidad las varianzas de
los parmetros estn infladas y los parmetros pueden ser formalmente no
significativos.
Soluciones: en resumen
Transformar las variables del modelo. Si la colinealidad se debe a
que se estn relacionando series temporales con tendencia, puede
ser conveniente transformar las variables para eliminar esta
tendencia.
Utilizar informacin extra-muestral
Sustituir un valor de un coeficiente de una de las variables
colineales por una estimacin proveniente de otro estudio.
Imponer restricciones sobre los coeficientes.
Riesgos
Si la estimacin extramuestral es sesgada, el sesgo se
transmite al resto de estimaciones.
Obtener resultados que simplemente reflejen las
restricciones.
Ejemplo de Multicolinealidad
perfecta
En el fichero ci4p1.wf1 hay datos sobre
Y: produccin agrcola de 50 municipios
catalanes en el ao 1990 (corte transversal).
X: litros de lluvia por m2 cada en cada
municipio.
Z: Agua disponible para regados en el ao
90en Catalua (No hay variacin, ver matriz
de datos).
Ejemplo de Multicolinealidad perfecta
No podemos estimar el modelo
y
i
=|
1
+|
2
x
i
+|
3
z
i
+ u
i
contiene dos
trminos constantes
Hemos de utilizar y
i
=(|
1
+|
3
z
i
)+|
2
x
i
+ u
i
Slo identificamos
|
1
=(

|
1
+|
3
z
i
)
|
2
Ejemplo de Multicolinealidad fuerte
En el fichero ci4p2.wf1 hay datos sobre
Y: produccin agrcola total de Catalunya en el
periodo 1974:1-1995:3 (serie temporal)
X: litros de lluvia por m2 cada en Catalua en el
periodo 1974:1-1995:3
Z: Agua disponible para regados en Catalua
cada trimestre durante el periodo 1974:1-1995:3

y
t
=|
1
+|
2
x
t
+|
3
z
t
+ u
t
Resultados de la estimacin MCO
(ci4p2)
Coeficientes no significativamente distintos
de cero a nivel individual.
Pero se rechaza la hiptesis nula de no
significacin conjunta.
Las covarianzas de las estimaciones son
grandes.
Indicios de Multicolinealidad.
Confirmamos la existencia de
Multicolinealidad
Grficos de x, z
Matriz de correlacin de los regresores
Remedios
Ya tenemos informacin acerca del efecto
de las lluvias sobre la produccin agrcola
a partir de la estimacin del modelo con
datos transversales
Podramos utilizar esa estimacin en el
modelo

t t t t
t t t
u z y x
u z x
+ + = =
+ + + =
3 1 2 t
3 2 1 t
'

y
| | |
| | |
II. Errores de Especificacin:
Especificacin correcta (ni falta ni sobran variables)
Tipos de Error de Especificacin:

- Omitir variables relevantes (OVR)
- Incluir variables irrelevantes (IVI)
- Errores de medidas en la variable endgena
- Errores de medidas en las variables explicativas
- Especificar una relacin esttica cuando es dinmica
- Especificar una relacin lineal cuando la relacin no es
lineal

Errores de Especificacin

La mayora de ellos se pueden entender OVR
Errores de Especificacin

Omisin de variables relevantes
- supongamos que el modelo correctamente especificado
(MC), es el siguiente:
t t t t
u x x y MC + + + =
3 3 2 2 1
......... | | |
- Especificamos incorrectamente el siguiente (MI), en el que
no incorporamos a x
t3
t t t
v x y MI + + =
2 2 1
......... | |
t t t
u x v +
3 3
|
MI es el modelo restringido de MC imponiendo la hiptesis
nula que es falsa. Esto implica:
- El estimador de MCO del MI es insesgado.
- El estimador de MCO del MI tiene una varianza inferior al estimador MCO del
MC (este estimador es insesgado y eficiente).
0
3
= |
Contrastes de Especificacin

1) Contraste RESET de Ramsey (1969)

- Permita comprobar si existen errores en la especificacin
del modelo debido a que:
- se han omitido variables relevantes
- La verdadera relacin entre las variables es no lineal
- La hiptesis a contrastar es:

|
|

0
) ( ) / ( ...
) / ( ...
t t t t
t t t
x x f x y E H
x x y E H
= =
=
- Donde f(.) es una forma funcional distinta de que
puede ser desconocida.

|

t
x
Pasos para detectar el Error de
Especificacin

- Para llevarlo a cabo se dan los siguientes pasos:
- Especificacin de la relacin lineal entre las variables del modelo:


- Estimacin por MCO del modelo restringido bajo H0 de linealidad
- Nos quedamos con la variable explicada y la suma residual
SRR
t t t
u x y + = |

t t t
u x y + = |

- Estimacin por MCO de la regresin auxiliar (modelo sin restringir):




- - Nos quedamos con la suma residual SR

t
q
t q t t t t
u y y y x y + + + + + = ......
3
2
2
1

o o o |
- Construimos un estadstico F de sumas residuales


) ; ; (
0
o k T q
BajoH
F
q
k T
SR
SR SRR
F

~

=
2) Contraste de Normalidad
- Es un supuestos fundamental en la inferencia
- Se debe contrastar siempre. Para ello:

- Histograma de los residuos
- Test de Jarque-Bera (J_B) y la asimetra (s).
- Tiene en cuenta la curtosis (K) y la asimetra (s).
Otros: No Normalidad

N u H
t
~ :
0
2
2
2 2
0
) ) 3 (
4
1
(
6
_ ~ +

=
bajoH
k S
k T
B J
Otros: No Normalidad

Otros: Seleccin de Modelos

2) Criterios de seleccin de modelos
- R
2
- R
2
restringido
- Medidas del error de previsin
- Akaike info criterio (AIC)


- Schwarz criterio (SC)


Donde es el valor de la funcin de verosimilitud evaluada en el estimador
MCO

T
k
T
AIC 2 2 + =

T
T
k
T
SC
) log(
2 + =

You might also like