You are on page 1of 11

EJEMPLO DE DIAGNÓSTICO Y TRATAMIENTO

DE LA AUTOCORRELACIÓN: Introducción al
concepto de no estacionariedad y regresión espuria

Ramón Mahía
Marzo 2006

El objetivo de este documento es de ilustrar en un contexto práctico las ideas expuestas


en clase en torno a la cuestión de la detección y corrección del problema de la
autocorrelación. Por otro lado, el documento sirve también para profundizar en algunos
de los conceptos teóricos más relevantes en torno a esta cuestión y para introducir, aún
de forma básica, una cuestión de extrema importancia en la práctica de la modelización
econométrica: la presencia de no estacionariedad en las series de datos.

I.- REGRESIÓN INICIAL UTILIZADA COMO EJEMPLO


La siguiente regresión muestra una ecuación en la que tratamos de explicar el valor real
de las importaciones trimestrales (IMPK) en función de tres explicativas: el valor real
de la formación bruta de capital fijo (FBCK), el valor real del consumo privado de los
hogares (GTOHOGK) y los precios de importación de productos energéticos
(PIMPENER).

I.A.- Breve comentario sobre el resultado de la Estimación


Dependent Variable: IMPK
Method: Least Squares
Date: 03/13/06 Time: 11:17
Simple: 1981:1 2002:2
Included observations: 86
Variable Coefficient Std. Error t-Statistic Prob.
C -56823.91 2537.860 -22.39049 0.0000
FBCK -0.149782 0.166913 -0.897365 0.3722
GTOHOGK 1.265278 0.100670 12.56854 0.0000
PIMPENER 30.80776 3.582319 8.599948 0.0000
R-squared 0.983182 Mean dependent var 21327.70
Adjusted R-squared 0.982566 S.D. dependent var 12136.72
S.E. of regression 1602.487 Akaike info criterion 17.64190
Sum squared resid 2.11E+08 Schwarz criterion 17.75605
Log likelihood -754.6015 F-statistic 1597.883
Durbin-Watson stat 0.290346 Prob(F-statistic) 0.000000

• La ecuación presenta signos incorrectos en los parámetros estimados de FBCK y


PIMPENER. Para el caso de la inversión, la relación entre inversión e
importaciones debería ser positiva; para el caso de los precios de importación
energéticos, la relación más razonable parecería ser inversa (negativa).

• Los contrastes individuales son significativos para todos los coeficientes a


excepción de FBCK cuyo p-value es inadmisiblemente elevado: sólo puede

1/11
rechazarse la hipótesis de nulidad del parámetro real con un (1-0,37)=0,63% de
nivel de confianza.

• Pese a la incorrección de dos de los signos y un bajo contraste de significación


para FBCK, la R2 es muy elevada.

A la vista de esta falta de sintonía evidente, cabe sospechar que estamos ante un error de
especificación. Efectivamente, y aunque se verá con detalle más adelante, un simple
vistazo al valor del DW indica una fuerte autocorrelación positiva que, seguramente,
viene causada por una indebida especificación en niveles.

Resulta muy probable que la ecuación exhiba, así mismo, problemas de


multicolinealidad, heterocedasticidad u otros incumplimientos básicos pero, por el
momento, nos concentraremos en utilizar este ejemplo con el fin de ilustrar el problema
de la autocorrelación.

II.- DETECCIÓN DE LA AUTOCORRELACIÓN

II.B.- Aproximación Gráfica

El análisis gráfico del residuo de la estimación indica un claro patrón de autocorrelación


positiva (patrón sinusoidal o de “ondas”); pese a que la evolución de la endógena real y
la estimada parece muy similar, lo cierto es que el componente auto - regresivo del error
es muy claro.

50000

40000

30000

20000
4000
10000
2000
0

-2000

-4000
82 84 86 88 90 92 94 96 98 00 02

Residual Actual Fitted

II.B.- Métodos numéricos: Durbin Watson 1

1
Se deja al alumno, como ejercicio voluntario, la realización del contraste de Wallis, dada la naturaleza
trimestral de los datos utilizados.

2/11
El valor del DW es extremadamente bajo (0,29) lo que, dados los límites inferior y
superior de la distribución DW (1,575 y de 1,721 respectivamente al 5% para K=4 y
n=85), confirman la presencia de una fuerte autocorrelación positiva2. El valor del
coeficiente “ρ” asociado a este valor del Durbin Watson, que correspondería a un
hipotético proceso autorregresivo de orden uno subyacente en el residuo, resulta ser de
0,85, esto es, muy indicativo de autocorrelación positiva:

ei = ρ ⋅ ei + ε i Ec. (1)

DW
DW ≅ 2 ⋅ (1 − ρˆ ) → ρˆ ≅ 1 − → ρˆ ≅ 0,85
2

De hecho, partiendo de la serie de residuos obtenida en la estimación analizada, puede


realizarse fácilmente en E-Views la estimación minimocuadrática de la ecuación (1)
anterior cuyo resultado se muestra a continuación y en donde se observa un valor muy
parecido al estimado directamente a partir del estadístico Durbin Watson. Este parecido
entre el valor de ρ derivado del estadístico DW o el obtenido a partir de una estimación
MCO directa del mismo se garantiza siempre en presencia de muestras grandes.

Dependent Variable: R
Method: Least Squares
Date: 03/13/06 Time: 11:49
Sample(adjusted): 1981:2 2002:2
Included observations: 85 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
R(-1) 0.857483 0.057251 14.97773 0.0000
R-squared 0.727543 Mean dependent var -14.75610
Adjusted R-squared 0.727543 S.D. dependent var 1577.299
S.E. of regression 823.3101 Akaike info criterion 16.27624
Sum squared resid 56938521 Schwarz criterion 16.30497
Log likelihood -690.7401 Durbin-Watson stat 2.120850

III.- DIAGNÓSTICO DE LA REGRESIÓN


Evidentemente, la autocorrelación es el síntoma de algún error de especificación que,
sin embargo, no parece reflejarse en el coeficiente de determinación R2. Más allá del
problema adicional de los signos o en la significatividad de FBCK (podríamos habernos
encontrado en la misma situación sin haber observado ninguna incongruencia en los
signos o en la “t”), este tipo de regresiones con buenos valores en los contrastes de
significación y, sin embargo, una acusada autocorrelación, son relativamente frecuentes
y se conocen como Regresiones Espurias.

El problema de la aparición de regresiones espurias en los resultados de un buen


número de análisis económicos es siempre atribuida, no sin razón, a Granger y Newbold
(1974). Sin embargo, a finales de la década de los años 20, Yule (1926) ya había
arrojado su particular “primera piedra” en el Journal of the Royal Statistical Society con
2
Aunque en las sesiones teóricas de clase se han establecido los límites inferior y superior del estadístico
DW en 0 y 4 respectivamente, debe observarse que, en realidad, estos límites son sólo válidos cuando se
dispone de una muestra suficientemente grande. Así, por ejemplo, si sólo dispusiéramos de 5 datos, el
límite inferior se situaría en 0.382 y el límite superior en 3,62.

3/11
un artículo con el inquietante, pero muy descriptivo título: Why do we sometimes get
nonsense correlations between time series?. Efectivamente, el problema de las
regresiones espurias es que tienden a admitirse como buenas, relaciones
económicas que, en realidad, sólo se deben a aspectos casuales.

Por regresión espuria entendemos técnicamente aquellas ecuaciones de regresión que


presentan una elevada significatividad conjunta, medida en términos del coeficiente de
determinación R2 o R2 corregida y, sin embargo, fuertes problemas de autocorrelación
positiva reflejados en bajos valores del estadístico Durbin Watson. La presencia de un
término de error fuertemente autocorrelacionado impide efectuar un proceso de
inferencia con mínimas garantías. La probabilidad de un error en el cálculo y en la
aplicación de los test de significatividad individual convencionales es muy importante,
sin contar los insalvables problemas de no ineficiencia en la estimación propios de una
situación de matriz de varianzas y covarianzas no escalar para la perturbación aleatoria.
(Granger y Newbold (1974 y 1977), Plosser y Schwert (1978)).3

El problema de este tipo de regresiones es que, a diferencia de las ecuaciones


claramente deficientes, el buen ajuste en términos de “t” y “R2” puede generarnos a una
equivocada percepción de que estamos ante la evidencia empírica de una relación causal
de interés; nada más lejos, sin embargo, de la realidad. Una regresión con evidencias tan
claras de autocorrelación debe descartarse inmediatamente como herramienta de
utilidad, sin necesidad de realizar ninguna prueba adicional y por mucho que nos
parezca atractivo el alto grado de significatividad individual o conjunta.

¿Cómo es posible encontrar esta combinación de resultados tan contradictoria?. En


nuestro caso, el origen de los problemas de la autocorrelación está asociado a la
utilización de variables en niveles, en lugar de la realización de esta misma
especificación usando tasas de crecimiento o diferencias en los datos. La elevada
autocorrelación provocada por la utilización de niveles junto a una estimación MCO sin
corrección alguna, supone, de facto, un doble sesgo a la baja en la varianza de la
estimación que genera, artificialmente, muy buenos resultados en los contrastes de
significación individuales y conjuntos.

¿Debemos, por tanto, rechazar siempre el uso de variables en niveles ante el riesgo
de una regresión espuria?: Concepto de Variable No Estacionaria o “Integrada”.

De la ilustración anterior, se deduce la recomendación general de no utilizar las


variables en niveles para la estimación de regresiones causales pero no hemos
respondido, sin embargo, a la pregunta de fondo ¿por qué las regresiones con variables
en niveles implican el riesgo elevado de un residuo autocorrelacionado?.

La razón estriba, en la mayoría de los casos, en la falta de estacionariedad en varianza


de algunas o todas las variables utilizadas en la regresión. Aún sin ofrecer detalle
teórico, debe saberse que los supuestos clásicos en los que se apoya la regresión como
estrategia analítica exigen la estacionariedad en media y varianza de las series
implicadas en un ejercicio de este tipo. Si bien la presencia de tendencias deterministas
en las variables (variables no estacionarias en media o variables estacionarias alrededor
3
Si bien Granger y Newbold (1974) no explicitaron estadísticamente las razones que explicaban el fallo
de los procedimiento habituales, esto puede encontrarse con detalle en Phillips (1986).

4/11
de una tendencia4) resulta generalmente un problema fácil de afrontar y resolver en la
modelización con variables en niveles5, la presencia de raíces unitarias en las variables
(no estacionariedad en varianza) impide su utilización en niveles. Si se realiza una
estimación en niveles de una ecuación de regresión entre dos variables No Estacionarias
(también se denominan “integradas”) corremos un alto riesgo de encontrarnos ante una
regresión espuria; La forma más clara de ilustrar el problema es utilizar los resultados
del ejemplo expuesto por Newbold y Davies (1978) y Granger y Newbold (1986) y
reutilizado después en numerosos textos como Charemza y Deadman (1992).
Supongamos dos variables yt y xt independientemente generadas por paseos aleatorios:

y t = y t −1 + ε 1t
x t = x t −1 + ε 2 t

donde ε1t y ε2t son variables aleatorias normales estándar independientes entre sí con
media cero y varianza unitaria. Dado que yt y xt están generadas de forma independiente
deberíamos esperar que no existiera ninguna relación significativa entre ambas. Sin
embargo, sobre un conjunto de 1000 muestras de yt y xt con 50 observaciones, alrededor
de un 65% de las regresiones de yt sobre xt presentan contrastes “t” significativos a un
nivel de significatividad del 5%6.

Tal y como expone Enders (1995) basta con reparar en las propiedades de la
perturbación aleatoria de la regresión de yt sobre xt para apreciar lo absurdo de estos
resultados. Efectivamente, en la regresión:

y t = a 0 + a1 x t + et

es claro que, prescindiendo de la constante a0:

et = y t − a1 xt

por lo que imponiendo las restricciones iniciales y0=x0=0 tenemos que:

t t
et = ∑ ε 1i − a1 ∑ ε 2i
i =0 i =0

4
Suele denominarse a estas variables “trend stationary” TS a diferencia de aquellas que son NO
estacionarias en varianza que suelen denominarse con el acrónimo DS “difference stationary”.
5
Las regresiones espurias, no obstante, no sólo se producen por la aparición de tendencias estocásticas
en las series: las tendencias deterministas también pueden ser un problema. Si hacemos depender una
serie yt lineal (1,2,3,4..... 50) de otra xt con tendencia cuadrática (1,4,.......502) el resultado en términos
de R2 es de 0,94 cuando en realidad queda claro que el patrón de evolución de la serie cuadrática
acabará por divergir de forma definitiva cuando el número de datos tienda a infinito. Para ajustar
adecuadamente una regresión al caso de variables con tendencias deterministas basta con incorporar
una variable de tiempo “t” que recoja la tendencia común de ambas series o bien “filtrar de tendencia”
los datos antes de su utilización en la regresión.
6
Estos datos se refieren a la prueba efectuada por Charemza y Deadman (1992). En el experimento
original de Granger y Newbold (1974) el porcentaje de regresiones con parámetro significativo al 5%
fue del 75%.

5/11
Por tanto, es obvio que estamos ante una secuencia et no estacionaria en varianza. Si
esto es así, et presenta una tendencia estocástica, lo que quiere decir que el error
cometido en “t” no se diluye en t+1, t+2... t+s ;es imposible que una regresión en la que
los errores se acumulan de forma permanente pueda tener algún interés.

Nótese que en esta situación se violan un buen número de hipótesis básicas asumidas en
los procesos de inferencia habituales en el contexto del Modelo Básico de Regresión
Lineal:

- La varianza de et ya hemos dicho que no es constante. En la expresión anterior


puede comprobarse con sencillez como se incrementa hacia el infinito a medida que
t crece.

- Si la serie xt no es estacionaria, no satisfará la propiedad:

 n 
plim ∑ xi2 n  = cte
 i =1 

que es uno de los supuestos que justifican los procedimientos de inferencia


habituales basados en el estimador MCO.

Pero, además, no existe incorrelación serial en el residuo; la misma expresión para et


puede utilizarse para comprobar como la correlación entre et y et+1 tiende a uno a medida
que t se incrementa; esta es la razón analítica por la que, en las regresiones espurias, el
residuo tiende a exhibir una elevada autocorrelación.

Dada semejante acumulación de errores de base, ningún test de significatividad puede


ser usado con garantías y por ello, ninguna inferencia será fiable. Así pues, ante la
presencia de variables “integradas”, el modelizador debe considerar la necesidad de
transformar estas variables antes de proceder a la estimación de la ecuación. La regla
general, que no será explicada teóricamente en este texto, supone la utilización de las
variables en diferencias, en lugar de niveles, salvo en el caso en que podamos demostrar
que, aún en presencia de no estacionariedad, las variables no estacionarias están
“cointegradas”7. El concepto de la cointegración queda fuera del alcance de un curso
introductorio como este pero, en cualquier caso, debe recordarse siquiera el término
“cointegración” como una aportación interesante. La trascendencia de esta definición es
inmediata. Si dos series no estacionarias están cointegradas, esto significará que entre
ambas existe un vínculo estable y compatible con las tendencias individuales de cada
7
El tratamiento clásico de la estacionariedad propuesto por Box Jenkins (1970) en el contexto del
análisis multivariante, implica la diferenciación de las series a fin de evitar las regresiones espurias
provocadas por la existencia de tendencias estocásticas. La diferenciación de las series temporales, sin
embargo, supone una renuncia explícita a considerar sus relaciones a largo plazo, ya que estas
manifiestan necesariamente en sus niveles tal y como pusieron de manifiesto, entre otros, Sargan (1964),
Hendry y Mizon (1978) y Davidson et al (1978) . En este contexto, y aunque los modelos de corrección
de error propuestos por Sargan (1964) fueron siempre una alternativa muy valiosa para combinar el
corto y el largo plazo en el análisis dinámico de series, la formalización del concepto de cointegración
por parte de Engle y Granger (1987) fue decisiva. La posibilidad de combinar niveles de series
integradas de forma tal que esa combinación resultase estacionaria, se ha convertido en una de las
aportaciones conceptuales más interesantes y en las que se ha apoyado de forma incuestionable el
avance reciente de la econometría moderna.

6/11
una de ellas, o sea, una relación de equilibrio a largo plazo. A esa ligazón, representada
por el denominado “vector de cointegración”, no le afectan más que de forma temporal
los shocks que inciden en cada una de las series de forma permanente y, por tanto, cabe
pensar en la idea de un equilibrio estacionario en el que las desviaciones sean
exclusivamente temporales.

IV.- CORRECCIÓN DE LA AUTOCORRELACIÓN


Si admitimos como válida la hipótesis de la falta de estacionariedad de las variables
implicadas en la regresión, parece evidente que no podremos utilizar estas variables
niveles y, por tanto, cualquier esfuerzo de “camuflar” la autocorrelación con la
utilización de Mínimos Cuadrados Generalizados o transformaciones a partir del
parámetro “ρ” estimado sería cuestionable.

Dado que en la mayor parte de las ocasiones8 la autocorrelación es un síntoma de una


especificación deficiente (modelización en niveles con variables no estacionarias,
omisión de alguna variable relevante, ….), se sigue que en la mayor parte de las
ocasiones la forma adecuada de corregir un problema de autocorrelación es la
corrección de la especificación. Es decir, la aucorrelación es, en muchas ocasiones, un
“síntoma de…” no es una enfermedad; por tanto, podemos optar por camuflar el
síntoma, pero siempre será más razonable intentar atajar la enfermedad.

1.- Adaptando la especificación a la naturaleza de los datos

En el caso en que se comprobase, como sucede en nuestro ejemplo, y con la adecuada


utilización de contrastes de No Estacionariedad9, la existencia de variables “integradas”,
convendría utilizar diferencias de las variables originales o bien tasas de crecimiento,
estimando entonces de nuevo la ecuación.

Puede comprobarse como, en ambos casos, los resultados en términos de


significatividad son decepcionantes. Este resultado tiene su lógica ya que, como señala
Gujarati10 “al tomar las primeras diferencias estamos estudiando esencialmente el
comportamiento de variables alrededor de sus valores de tendencia(lineal)” :

8
Algunos autores distinguen esta situación de aquella en la que la autocorrelación no viene provocada
por una deficiente especificación. Gujarati, por ejemplo, define esta situación como Autocorrelación
Pura.
9
Existen varios contrastes muy utilizados para detectar la No Estacionariedad en varianza de las series.
Los más sencillos y populares son los contrates DF y ADF (Dickey-Fuller y Augmented Dickey-Fuller),
el contraste PP (Phillips – Perron), ambos incluidos desde hace tiempo en el software E-Views.
10
Econometría. (4ª Edición). Mc-Graw-Hill.

7/11
Regresión con variables en diferencias

Dependent Variable: D(IMPK)


Method: Least Squares
Date: 03/15/06 Time: 09:06
Sample(adjusted): 1981:2 2002:2
Included observations: 85 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
C 291.8475 65.10598 4.482653 0.0000
D(FBCK) 0.670183 0.114304 5.863145 0.0000
D(GTOHOGK) -0.033462 0.115973 -0.288528 0.7737
D(PIMPENER) 1.173410 2.967580 0.395410 0.6936
R-squared 0.324554 Mean dependent var 434.3882
Adjusted R-squared 0.299538 S.D. dependent var 541.4910
S.E. of regression 453.1934 Akaike info criterion 15.11643
Sum squared resid 16636122 Schwarz criterion 15.23138
Log likelihood -638.4483 F-statistic 12.97361
Durbin-Watson stat 1.603458 Prob(F-statistic) 0.000001

Regresión con variables en tasas intertrimestrales11

Dependent Variable: @PCH(IMPK)


Method: Least Squares
Date: 03/15/06 Time: 09:07
Sample(adjusted): 1981:2 2002:2
Included observations: 85 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
C 0.016229 0.003206 5.062309 0.0000
@PCH(FBCK) 0.787737 0.125760 6.263833 0.0000
@PCH(GTOHOGK) -0.382166 0.352991 -1.082650 0.2822
@PCH(PIMPENER) -0.015416 0.018807 -0.819696 0.4148
R-squared 0.340840 Mean dependent var 0.021866
Adjusted R-squared 0.316427 S.D. dependent var 0.027025
S.E. of regression 0.022344 Akaike info criterion -4.718590
Sum squared resid 0.040440 Schwarz criterion -4.603641
Log likelihood 204.5401 F-statistic 13.96121
Durbin-Watson stat 1.953758 Prob(F-statistic) 0.000000

Dicho de otro modo, el satisfactorio resultado obtenido en la estimación preliminar era


“ficticio” y originado, más que probablemente, por la utilización de variables no
estacionarias: cuando se elimina la tendencia estocástica de estas variables, la relación
de causalidad se diluye.

2.- “Camuflando” la autocorrelación

En el caso concreto ilustrado por nuestro ejemplo, la única solución al problema de la


autocorrelación consiste en la mejora de la especificación; no obstante, una vez que
renunciamos a una corrección genuina, o una vez agotados todos los recursos para
ajustar la especificación del modelo, siempre cabe la alternativa de corregir los síntomas

11
La utilización de tasas interanuales también sería posible en este caso al tratarse de variables
trimestrales. Sin embargo, salvo que se compruebe la existencia de raíces unitarias (no estacionariedad)
estacionales, esta tasa no resolvería el problema de la no estacionariedad en la componente regular (no
estacional).

8/11
evitando en parte los efectos indeseables de una inadecuada estimación MCO en un
contexto en que esta estrategia no es válida.

Quizá la forma más burda de hacer esta corrección sea simplemente camuflar el mal
dato del DW añadiendo la endógena retardada en la regresión; como puede imaginarse,
esta táctica, ni siquiera trata de adaptar la ineficiente herramienta de estimación MCO al
problema de la autocorrelación sino, directamente, distorsionar el modelo de forma que
el DW no refleje la verdadera dimensión de la autocorrelación.

Dependent Variable: IMPK


Method: Least Squares
Date: 03/15/06 Time: 09:29
Sample(adjusted): 1981:2 2002:2
Included observations: 85 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
C 5585.058 2395.831 2.331157 0.0223
FBCK 0.089965 0.052576 1.711143 0.0909
GTOHOGK -0.134891 0.059548 -2.265243 0.0262
PIMPENER -4.880665 1.705419 -2.861856 0.0054
IMPK(-1) 1.082308 0.039181 27.62295 0.0000
R-squared 0.998390 Mean dependent var 21493.54
Adjusted R-squared 0.998310 S.D. dependent var 12110.32
S.E. of regression 497.8493 Akaike info criterion 15.31549
Sum squared resid 19828313 Schwarz criterion 15.45918
Log likelihood -645.9085 F-statistic 12406.11
Durbin-Watson stat 1.434628 Prob(F-statistic) 0.000000

Efectivamente, aunque el valor del nuevo DW parece ahora aceptable, debe recordarse
que, en realidad, en presencia de autocorrelación, se propone utilizar el estadístico “h”
de Durbin en lugar del estadístico DW original.

n
h = ρˆ
1 − nσˆ 2 (b1 )

donde: σ2(b1) es la desviación típica estimada para el parámetro de la endógena


retardada. Es decir, en nuestro caso, el DW obtenido en la regresión que incluye la
variable endógena retardada es 1.434, es decir, se corresponde con una estimación
aproximada del coeficiente autorregresivo “ρ” de 0.283. Así pues, el valor de la h de
Durbin es:

n 85
h = ρˆ = 0.283 = 2.798
1 − nσˆ (b1 )
2
1 − 85 ⋅ (0.039181) 2

El valor de este estadístico se contraste suponiendo una distribución normal (0,1), así,
con un nivel de significación del 5%, el valor a superar es 1,645. Si el estadístico
calculado supera este valor, debe rechazarse la hipótesis de autocorrelación nula; en
nuestro caso, el valor 2.798 supera ampliamente el valor crítico por lo que,
evidentemente, la “h” de Durban refleja la existencia de autocorrelación por mucho que
el valor del DW haya mejorado artificialmente.

9/11
Una transformación algo más elegante, aunque inadecuada cuando el problema de fondo
es una incorrecta especificación en niveles, es, tal y como se expuso en las sesiones
teóricas, optar por utilizar la transformada de las variables originales, es decir, la
denominada MCG Factibles (MCGF) o Mínimos Cuadrados Generalizados Estimados
(MCGE):

y t* = y t − ρˆ ⋅ y t −1
x *jt = x jt − ρˆ ⋅ x jt −1

Dependent Variable: IMPK-0.85*IMPK(-1)


Method: Least Squares
Date: 03/15/06 Time: 09:21
Sample: 1981:2 2002:2
Included observations: 85
Variable Coefficient Std. Error t-Statistic Prob.
C -15935.61 2599.656 -6.129892 0.0000
FBCK-0.85*IMPK(-1) -1.098756 0.085707 -12.81990 0.0000
GTOHOGK-0.85*GTOHOGK(-1) 4.446807 0.225190 19.74694 0.0000
PIMPENER-0.85*PIMPENER(-1) 13.99607 12.79506 1.093865 0.2773
R-squared 0.976361 Mean dependent var 21493.54
Adjusted R-squared 0.975485 S.D. dependent var 12110.32
S.E. of regression 1896.145 Akaike info criterion 17.97895
Sum squared resid 2.91E+08 Schwarz criterion 18.09390
Log likelihood -760.1053 F-statistic 1115.159
Durbin-Watson stat 1.970663 Prob(F-statistic) 0.000000

Como puede observarse, hemos perdido una observación al realizar la regresión de


MCGF. Con el fin de no perder esta primera observación, aspecto especialmente
relevante en muestras pequeñas, puede optarse por utilizar la denominada
transformación de Prais – Winsten que permite mantener la primera observación de la
variable endógena y exógenas considerando para su cálculo:

Y1* = Y1 1 − ρˆ 2
X *j1 = X j1 1 − ρˆ 2

En realidad, dado que el cálculo directo del “rho” implica cierta probabilidad de error,
suele ser conveniente utilizar el procedimiento de cálculo iterativo de ρ conocido como
Cochrane – Orcutt descrito en clase. Esto implicaría un proceso sucesivo de re-cálculo
de “rho” a partir de los nuevos resultados del DW obtenidos en esta regresión, y una
nueva transformación de las variables “previamente transformadas” …… ES decir, en
nuestro ejemplo, el nuevo valor del DW es ahora 1.97 lo que implica un valor del “ρ” de
0.015; podría utilizarse ese nuevo valor para transformar de nuevo las variables y
reestimar nuevamente la ecuación.12

En todo caso, no merece la pena insistir en un procedimiento de corrección que se ha


ilustrado convenientemente con este ejemplo.
12
Este procedimiento iterativo finaliza cuando entre dos estimaciones sucesivas de “rho” no existe una
diferencia significativa o bien cuando no existe un cambio notable en los parámetros de las exógenas de
la regresión.

10/11
La última de las estrategias para mejorar la estimación de un modelo de autocorrelación
consiste, evidentemente, en la utilización de Mínimos Cuadrado Generalizados
considerando para ello la matriz Σ de varianzas y covarianzas que corresponde al patrón
de autocorrelación detectado. En caso de verificarse la existencia de un proceso AR(1)
en los residuos, la forma de la matriz de autocorrelación es bien conocida pero si no
pudiésemos verificar que el proceso de autocorrelación sigue ese modelo AR(1)
deberíamos considerar estimaciones alternativas de sigma. Como ya se dijo en el
contexto de la heterocedasticidad, el riesgo de la transformación o de la utilización de
MCG radica, evidentemente, en la verosimilitud del modelo de autocorrelación
supuesto; si el modelo de autocorrelación resulta desconocido o complejo, los
eventuales beneficios de eficiencia derivados de la utilización de un procedimiento de
MCG o MCO sobre variables corregidas podrían ser menores de los previstos en cuanto
que estarán condicionados a la decisión sobre el patrón de autocorrelación considerado.

Existe, para finalizar, una propuesta de corrección similar a la estimación automática


corregida de heterocedasticidad de White, pero ideada para el contexto en el que exista
un problema de autocorrelación. Esta corrección, que no se desarrollará teóricamente en
este texto, y que en esencia sigue la misma estrategia que la expuesta para la corrección
de heterocedasticidad de White, se denomina Estimación de Newey – West pero sólo
resulta conveniente para muestras muy grandes. La mayor parte de los programas
informáticos incorporan esta corrección automática bajo la denominación Estimador
Newey – Wets o bien estimación con errores estándar CHA (consistentes con la
heterocedasticidad y la autocorrelación).

11/11

You might also like