You are on page 1of 35

Anlisis de Autocorrelacin

J.M. Arranz , M.M. Zamora

ANLISIS DE AUTOCORRELACIN

1.

DEFINICIN Y CAUSAS DE AUTOCORRELACIN

En este tema se cuestionar, para los modelos que trabajan con datos de series de tiempo, una
de las hiptesis que definen el Modelo de Regresin Lineal Normal Clsico (MRLNC). En
concreto se analiza la hiptesis que establece que el vector de perturbaciones sigue una
distribucin segn un vector normal esfrico.
E (ut ) = 0

E (u t2 ) = 2 = 0

E (u t ut + S ) = 0 s 0

La hiptesis de covarianzas nulas es muy interesante desde el punto de vista de las


propiedades deseables para los estimadores mnimo cuadrticos ordinarios, pero con
frecuencia esta hiptesis es difcil de aceptar en la prctica, en especial cuando las
observaciones se suceden en el tiempo. Este problema lo reflej Malinvaud1 (1964) sealando
que:
... existe a menudo una correlacin positiva entre los trminos de perturbacin
separados s periodos debido al hecho de que los factores no identificados del
fenmeno actan con una cierta continuidad y afectan frecuentemente de anloga
manera dos valores sucesivos de la variable endgena.

Entre los factores no identificados sealados por Malinvaud podra encontrarse un error en la
especificacin de la forma funcional del modelo y la omisin de variables relevantes que
puede dar lugar a un comportamiento sistemtico de los residuos que podra interpretarse
como autocorrelacin cuando en realidad se corrige al especificar correctamente el modelo.

En los casos de incumplimiento de la hiptesis de no autocorrelacin es necesario formular el


modelo de regresin de un modo ms general prescindiendo de esta hiptesis; este modelo
recibe el nombre de modelo de regresin lineal generalizado y su estimacin se realizar
aplicando mtodos distintos al de mnimos cuadrados ordinarios.

Anlisis de Autocorrelacin

2.

J.M. Arranz , M.M. Zamora

MODELIZACIN DE LA VARIABLE DE PERTURBACIN ALEATORIA

Matemticamente este supuesto de autocorrelacin se expresa a partir de la hiptesis que hace


referencia a la covarianza de la perturbacin que, como se ha sealado es no nula.
E (u t u t + S ) 0

s = 0, 1, 2, ...

se est considerando que el trmino de perturbacin de una observacin est relacionado con
el trmino de perturbacin de otras observaciones y por lo tanto la covarianza entre ellos es
distinta de cero y se define como,

E (u t ut + S ) = S

s = 0, 1, 2,...

Esto es las covarianzas o autocovarianzas son simtricas en el retardo s e independientes


del tiempo2.

A partir de estas autocovarianzas se pueden definir los coeficientes de autocorrelacin; as, el


S =

coeficiente de autocorrelacin del retardo s es,

Cov(u t , u t + S )
Var (u t )Var( ut + S )

Bajo el supuesto de homocedasticidad varianzas de la perturbacin constantes en el


tiempo el coeficiente de autocorrelacin se puede expresar como:
S =

S
0

s = 0, 1, 2, ...

El modelo que ahora se estudia es por tanto un Modelo de Regresin Lineal Generalizado con
autocorrelacin y verifica todas las hiptesis del modelo de regresin lineal normal clsico
excepto la que hace referencia a la nulidad de las covarianzas de la perturbacin. Este nuevo
modelo, en el que se supone que no hay problemas de heterocedasticidad, queda especificado
como,

Y = X + u

donde u
N 0, 2

Dado que se admite la existencia de autocorrelacin pero no de heterocedasticidad la matriz de


varianzas y covarianzas de la perturbacin - 2 - presenta los elementos de la diagonal
principal constantes. Es decir, la matriz de varianzas y covarianzas de la perturbacin es de la
forma,

Malinvaud, E. (1964) Mthodes Statistiques de l Economrie, p. 83, Dunod, Paris.

Cuando s=0, se obtiene la varianza que se define como,

0 = E( ut2 ) = 2
2

Anlisis de Autocorrelacin

E (uu ' ) = 1
...

n 1

J.M. Arranz , M.M. Zamora

...
n 2
2

... n 1
1

... n 2
2
2 1
= =
...
... ...

...
n 1

1
1
...
n 2

n 1

... n 2
... ...

...
1
...

donde es una matriz simtrica que representa la matriz de correlaciones de las


perturbaciones del modelo.

As, en un modelo de regresin homocedstico si existe autocorrelacin aumenta de modo


considerable el nmero de parmetros a estimar; a los k parmetros hay que aadir ahora la
estimacin de la varianza de la perturbacin 2 , y las n-1 covarianzas; Esto es, para un
modelo con n observaciones hay que estimar k+n parmetros, lo que obliga a suponer alguna
estructura de autocorrelacin para el trmino de perturbacin, de modo que resulte ms
sencilla la estimacin de estos nuevos parmetros.

Para poder estimar este modelo, obteniendo estimadores con buenas propiedades, se aplican
mnimos cuadrados generalizados o la transformacin de Aitken por lo que es necesario
estimar estas correlaciones entre los trminos de perturbacin.

La forma concreta de estas correlaciones depender del proceso generador de las


perturbaciones; aunque para su estimacin, y puesto que las perturbaciones no se observan se
utilizarn los residuos mnimo cuadrtico ordinarios (MCO).

Anlisis de Autocorrelacin

3.

J.M. Arranz , M.M. Zamora

FORMAS DE AUTOCORRELACIN.
ESQUEMAS AUTORREGRESIVOS Y DE MEDIAS MVILES

El procedimiento prctico consiste en estimar estas correlaciones desconocidas suponiendo


alguna estructura de las perturbaciones. Las estructuras ms sencillas, y que por otro lado
especifican bien el comportamiento de la perturbacin, son las que se presentan a
continuacin como procesos autorregresivos (AR), procesos de medias mviles (MA) o
procesos mixtos (ARMA).

Procesos autorregresivos

Los procesos o filtros autorregresivos estn diseados de modo que el comportamiento de una
variable en un instante de tiempo depende de valores pasados de la propia variable. As, si el
valor de la variable u en el momento t depende de su valor en el periodo anterior ms un
trmino aleatorio se dice que el proceso es autorregresivo de primer orden (AR(1)). Si la
relacin de dependencia se establece con los p valores anteriores el proceso ser
autorregresivo de orden p. Matemticamente estos procesos se expresan del siguiente modo,
AR(1) u t = ut 1 + t
AR(2) u t = 1 u t 1 + 2 u t 2 + t
...
AR(p) u t = 1 ut 1 + 2 ut 2 + ... + p u t p + t
Donde t es un proceso de ruido blanco y por tanto con esperanza nula, varianza constante y
covarianza nula.

Procesos de medias mviles

Los procesos de medias mviles, por su parte, se estructuran estableciendo una relacin de
dependencia entre la variable que se modeliza y un conjunto de retardos de la variable de
ruido blanco t . Si slo existe un retardo de la variable de ruido blanco el proceso ser de
orden 1, mientras que si existe una combinacin lineal de q trminos de error de ruido blanco
el proceso se denomina MA(q).
MA(1) ut = t + t 1
MA(2) ut = t + 1 t 1 + 2 t 2
...
MA(q) ut = t + 1 t 1 + 2 t 2 + ... + q t q
4

Anlisis de Autocorrelacin

J.M. Arranz , M.M. Zamora

Procesos mixtos

Si el comportamiento de una variable se modeliza combinando procesos autorregresivos y de


medias mviles se denomina ARMA. As un modelo ARMA(p,q) se caracteriza por una
sucesin de p trminos autorregresivos y q trminos de medias mviles; esto es,
u t = 1 u t 1 + 2 u t 2 + ... + p u t p + t + 1 t 1 + 2 t 2 + ... + q t q

El objetivo que se plantea ser entonces conocer qu esquema sigue la perturbacin y cul es
la mejor estructura para su modelizacin.

Anlisis de Autocorrelacin

4.

J.M. Arranz , M.M. Zamora

DETECCIN DE LA AUTOCORRELACIN

Para detectar la presencia de autocorrelacin se pueden utilizar mtodos grficos y contrastes


de hiptesis. A travs de los contrastes grficos se intuir si existe autocorrelacin cuando
existan comportamientos sistemticos para los residuos.

Los contrastes de hiptesis, por su parte, permiten, a travs de una regla de decisin, considerar
si con los datos de la muestra y con un nivel de significacin () concreto se debe o no rechazar
la hiptesis nula.

Todos los contrastes numricos de autocorrelacin se plantean con idnticas hiptesis; as,
podemos sealar que la forma general del contraste es:

H0 :

No existe autocorrelacin

H1 :

Existe autocorrelacin

Esto es, en la hiptesis nula se considera que el trmino de perturbacin correspondiente a una
observacin es independiente del correspondiente a cualquier otra observacin. En la
hiptesis alternativa se seala que el trmino de error de un modelo economtrico est
autocorrelacionado a travs del tiempo. Esta hiptesis alternativa, al considerar la existencia
de un patrn de comportamiento para los residuos, se puede especificar con procesos
autorregresivos AR(p), de medias mviles MA(q) o mixtos ARMA(p,q)
dependiendo del contraste que se vaya a utilizar.

Se presentan a continuacin distintos contrastes que permiten detectar si las perturbaciones


estn o no autocorrelacionadas y, en caso de estarlo, bajo qu esquema.

Anlisis de Autocorrelacin

J.M. Arranz , M.M. Zamora

4.1. Contraste d de Durbin-Watson (1951)


El contraste desarrollado por Durbin y Watson3 es la prueba ms frecuentemente empleada
para detectar la presencia de autocorrelacin en los modelos de regresin. Este contraste
permite verificar la hiptesis de no autocorrelacin frente a la alternativa de autocorrelacin
de primer orden bajo un esquema autorregresivo AR(1): u t = ut 1 + t

Analticamente el contraste se especifica del siguiente modo:

Formulacin de las hiptesis:


H0 : = 0

No existe autocorrel acin AR(1)

H1 : 0 < < 1

Existe autocorrel acin AR(1)

La forma concreta de la hiptesis alternativa establece unas cotas para el coeficiente de


correlacin; stas son necesarias para garantizar algunas caractersticas del modelo, en concreto
que la varianza es finita y se trata por tanto de un proceso no explosivo.
n

Estadstico de prueba:

d=

(e
t= 2

et 1 )2

e
t =1

2
t

A partir de este estadstico se puede interpretar que,

Si hay autocorrelacin positiva las diferencias entre residuos que distan un periodo es

muy pequea por lo que el valor del estadstico d ser prximo a cero.

Si hay autocorrelacin negativa los residuos sern prcticamente iguales pero de

signo contrario, su diferencia ser por tanto grande y el estadstico ser ms prximo al lmite
superior que, como se ver, se establece en cuatro.

Si no hay autocorrelacin, la relacin entre los residuos ser intermedia y por tanto, el

valor del estadstico experimental tambin alcanzar un valor intermedio.

Para establecer los lmites de variacin del estadstico d la frmula anterior se puede desarrollar
obtenindose una expresin en funcin del coeficiente de autocorrelacin muestral de primer
orden para los residuos ,

Anlisis de Autocorrelacin

d=

(e

t= 2

e t 1 ) 2

e
t =1

(e

J.M. Arranz , M.M. Zamora

t= 2

2
t

2
t

+ et21 2e t et 1
n

e
t =1

t =2

et2 + et21 2 et e t 1

2
t

t =2

t =2

e
t =1

2
t

dado que, cuando el tamao de la muestra es grande, se puede considerar que


n

t= 2

t =2

t =1

et2 et21 et2 entonces el estadstico d se puede expresar como,


n

2 et2 + 2 et e t 1
t =2

t =2

e
t =1

2
t

y dado que el coeficiente de correlacin emprico de primer orden se calcula, =

e e
t

t =2

e
t =1

entonces el estadstico experimental se puede expresar

t 1

2
t

d 2(1 )

Teniendo en cuenta los lmites de variacin del coeficiente de correlacin emprico, 1 1 ,


se puede deducir el rango de variacin del estadstico de Durbin-Watson y el signo de la
autocorrelacin,
= 1 d 4

se considera que existe autocorrelacin negativa

= 0 d 2

indica ausencia de autocorrelacin

= 1 d 0

se puede admitir que existe autocorrelacin positiva

As, se aprecia que el estadstico experimental tomar valores entre 0 y 4 de tal modo que cunto
ms prximo a cero (a cuatro) sea el valor del estadstico d mayor es la evidencia de
autocorrelacin positiva (negativa). Si el valor del estadstico experimental d es dos, entonces la
correlacin muestral ser nula y por tanto no se detectar un problema de autocorrelacin entre
las perturbaciones.
3

J. Durbin y G.S. Watson Testing for Serial Correlation in Least-Squares Regression Biometrika, Vol. 38, 1951, pp. 159-171.

Anlisis de Autocorrelacin

J.M. Arranz , M.M. Zamora

No obstante, estos valores (0, 2 y 4) son lmites extremos que deben matizarse estableciendo
regiones ms amplias en las que pueda considerarse si existe o no autocorrelacin y, en caso de
detectarse, si sta es positiva o negativa. En este sentido es necesario precisar que la distribucin
terica de este estadstico no es sencilla y depende de los valores concretos de la matriz de
regresores; por tanto, no existe un valor crtico nico que permita establecer una regla de
decisin. Para solucionar esta dificultad Durbin y Watson hallaron unos lmites superior (du) e
inferior (dL) que permiten tomar decisiones acerca de la presencia o ausencia de autocorrelacin.
Estos valores sealan el lmite superior (du) para considerar autocorrelacin positiva esto es,
para valores del estadstico experimental superiores a este lmite no se rechaza la hiptesis de
ausencia de autocorrelacin y el lmite inferior (dL) para no rechazar la hiptesis nula y
suponer que las covarianzas de las perturbaciones del modelo son nulas y, por tanto, no estn
autocorrelacionadas.

Si el valor del estadstico d es superior a dos se puede contrastar la hiptesis nula de no


autocorrelacin frente a la alternativa de autocorrelacin negativa. El anlisis es similar pero
considerando el valor mximo de 4 como lmite para la autocorrelacin negativa por tanto los
lmites anteriores se establecen en los puntos 4-du y 4-dL.

Grficamente se pueden sealar las regiones del contraste en el siguiente segmento:


Autocorrelacin

Zona de

Regin de no rechazo:

Zona de

Positiva

Indecisin

No autocorrelacin

Indecisin

dL

du

4 - du

Autocorrelacin

4 dL

negativa

Esto es,
0 < d < dL

se rechaza H0 , existe entonces autocorrelacin positiva con un esquema AR(1)

4- dL < d < 4

se rechaza H0 , existe autocorrelacin negativa con un esquema AR(1)

du < d < 4-du

no se rechaza H0 , no existe autocorrelacin

dL < d < du

el contraste no es concluyente

4-du < d < 4-dL

el contraste no es concluyente
9

Anlisis de Autocorrelacin

J.M. Arranz , M.M. Zamora

Estos lmites dependen del tamao de la muestra (n) y del nmero de regresores del modelo (k).
Las tablas originales sirven para muestras entre 15 y 100 observaciones y un mximo de 5
regresores. Aos ms tarde, Savin y White4 (1977) publicaron unas tablas ms completas que
incluyen tamaos de muestra superiores 5 < n < 200 y hasta 20 regresores.

El tratamiento emprico de este contraste requiere de las siguientes fases:


1)

Estimacin por mnimos cuadrados ordinarios (MCO) del modelo de regresin

2)

Clculo de los residuos MCO

3)

Obtencin del estadstico d (experimental) de Durbin-Watson

4)

Bsqueda de los niveles crticos del contraste

5)

Aplicacin de la regla de decisin

Un inconveniente que presenta este contraste es que a veces puede no ser concluyente, por lo que
hay que considerar, utilizando otros criterios, si existe o no autocorrelacin. En este sentido una
solucin clsica consiste en ampliar5 las regiones de rechazo considerando as que existe
autocorrelacin positiva para valores de d inferiores a du

y autocorrelacin negativa si los

valores del estadstico experimental son superiores a 4-du.


Este estadstico de uso frecuente, y tambin generalmente implementado en los programas y
aplicaciones informticas de Econometra, se basa en un conjunto de supuestos acerca de los
cuales es necesario reflexionar.

1)

En primer lugar hay que sealar que el diseo original del contraste se bas en el

anlisis de un modelo de regresin que inclua trmino independiente. No obstante, este


requisito exigible al modelo fue posteriormente resuelto. En 1980, Farebrother6 calcul
los valores crticos del contraste para los modelos en los que no existe trmino
independiente.

N.E. Savin y K.J. White, The Durbin-Watson Test for Serial Correlation with Extreme Sample Sizes of Many Regressors,
Econometrica Vol., 45, 1977, pp. 1989-1996.
5
Un procedimiento prctico de tipo conservador consiste en tomar la decisin de rechazar la hiptesis nula para valores del
estadstico experimental inferiores al lmite du . En este sentido se ha comprobado que las consecuencias de considerar
autocorrelacin cuando no existe son menos graves que las del supuesto contrario; estos resultados se encuentran detallados
en H. Theil, A.L. Nagar Testing the Independence of Regression Disturbares, Journal of the American Statistical Association,
Econometrica Vol. 56, 1961, pp. 793-806 y E.J. Hannan y R.D. Terrel Testing for Serial Correlation after Least Squares
Regression, Econometrica, Vol. 36, 1966, pp. 646-660.

10

Anlisis de Autocorrelacin

2)

J.M. Arranz , M.M. Zamora

Junto con la necesidad de trmino independiente en el modelo, es tambin un

requisito que la matriz de variables explicativas sea no aleatoria, esto es determinista y


fija en un muestreo repetido. Por tanto, este contraste no es vlido en modelos dinmicos
que consideren como regresor retardos de la variable dependiente.

3)

La

hiptesis

alternativa

considera

que,

si

las

perturbaciones

estn

autocorrelacionadas, el proceso que las genera es autorregresivo de orden 1; esto es,


u t = ut 1 + t . Sin embargo, se ha comprobado que este estadstico es robusto frente a
otras especificaciones de la hiptesis alternativa y, adems permite detectar errores de
especificacin derivados de falta de especificacin dinmica y/o de la omisin de
variables que estn correlacionadas.

Una prueba ms del gran inters que demostr este contraste es el nmero de econmetras que
tratan de tabular los niveles crticos para distintos supuestos en los que se basa el contraste de
Durbin-Watson. En este sentido podemos citar los siguientes desarrollos:

1) Wallis (1972) desarroll un estadstico similar para modelos de regresin con datos
trimestrales en los que se trata de probar la autocorrelacin de orden 4 tanto en modelos que
incluyen nicamente trmino independiente como en los modelos que incluyen variables
estacionales trimestrales para especificar el nivel autnomo.
2) Savin y White (1977) ampliaron las tablas inicialmente propuestas por Durbin y Watson
considerando muestras de 6 a 200 observaciones y hasta 20 regresores.
3) Ding y Giles (1978) amplan las tablas de Wallis considerando ms niveles de significacin.
4) Farebrother (1980) tabul los niveles crticos para el supuesto de modelo de regresin sin
trmino independiente.
5) King (1981) proporciona los niveles crticos al nivel de significacin del 5% para datos de
series de tiempo trimestrales y con variables de tendencia y/o variables indicadoras de
estacionalidad considerando autocorrelacin de cuarto orden.
6) King (1983) obtiene los valores dL y du para datos mensuales en los que es conveniente
probar una autocorrelacin de duodcimo orden.

Farebrother The Durbin-Watson Test for Serial Correlation when there is No Intercept in the Regression Econometrica, Vol.
48, 1980, pp. 1553-1563.

11

Anlisis de Autocorrelacin

J.M. Arranz , M.M. Zamora

4.2. Contraste d4 de Wallis 7 (1972)

Este contraste presenta una modificacin del estadstico de Durbin-Watson para los modelos
que utilizan datos trimestrales en los que, dado el carcter estacional de estas series, se espera
que la perturbacin de una observacin concreta no est relacionada con la perturbacin del
periodo inmediatamente anterior sino que dependa de la perturbacin del mismo trimestre
pero del ao anterior, es decir, que la estructura de autocorrelacin sea u t = u t 4 + t

El contraste plantea en la hiptesis nula la ausencia de autocorrelacin,


H0 : = 0

No existe autocorrel acin

H1 : 0 < < 1

Existe autocorrel acin

Para verificar si esta estructura de autocorrelacin es o no cierta Wallis propone una


n

modificacin del estadstico de Durbin-Watson que denomina d4 : d 4 =

(e
t= 5

et 4 )2

e
t =1

2
t

Este estadstico tambin fue tabulado por Wallis bajo el supuesto de modelo de regresin con
un nico trmino independiente y tambin para el caso de regresiones que incluyan trmino
independiente y variables ficticias estacionales8 (trimestrales). Al igual que el contraste de
Durbin-Watson, el estadstico d4 se ha tabulado suponiendo que la matriz de regresores es no
aleatoria y suponiendo tambin que el modelo tiene trmino independiente.

Adems de este contraste, King9 (1983) desarroll otra modificacin del estadstico de
Durbin-Watson. En este caso se obtuvieron los valores de los lmites superiores (du) e
inferiores (dL) de autocorrelacin para definir las regiones de rechazo, indecisin y no rechazo
cuando se trabaja con datos mensuales.

K.F. Wallis Testing for Fourth Order Autocorrelation in Quaterly Regression Equations Econoetrica, Vol. 40, 1972, pp. 617636.
8
Para otros niveles de significacin pueden consultarse las tablas de D.E.A Giles y M.L. King Fourth-Order Autocorrelation:
Further Singnificance Points for the Wallis Test Journal of Econometrics, Vol. 8, 1978, pp. 255-259.
9
M.L. King The Durbin Watson Test for Serial Correlation: Bounds for Regressions with Trende and/or Seasonal Dummy
Variables, Econometrica, Vol. 49, 1981, pp. 1571-1581.

12

Anlisis de Autocorrelacin

J.M. Arranz , M.M. Zamora

4.3. Contraste h de Durbin10 (1970)

El contraste de Durbin-Watson, como ya se ha especificado anteriormente, impone como


condicin para su correcta interpretacin que los modelos contengan regresores exclusivamente
no aleatorios; con lo cual no se puede aplicar en modelos dinmicos en los que se considere
como regresor algn retardo de la variable dependiente. Para corregir esta deficiencia, Durbin11
desarroll un estadstico que s puede aplicarse en estos modelos que incluyan retardos de la
variable dependiente. Para este caso se ha obtenido un test asinttico para muestras grandes.

La formulacin de las hiptesis nula contina siendo la misma ya que sigue siendo un contraste
para la autocorrelacin de orden uno bajo un esquema autorregresivo AR(1), u t = ut 1 + t
H0 : = 0

No existe autocorrel acin AR(1)

La hiptesis alternativa, por su parte, se especifica ahora de modo que el contraste se configure
como un contrate unilateral; esto es, se van a establecer dos posibles hiptesis alternativas segn
se considere que la autocorrelacin puede ser positiva o negativa. As, el contraste quedara
especificado
H0 : = 0
H1 : < 0

El estadstico de prueba es

H0 : = 0
H1 : > 0

h =

n
que se distribuye asintticamente segn una
1 nVar (bi )

distribucin N (0 ,1) lo que, con un nivel de significacin del 5%, supone no rechazar la hiptesis
nula para los valores de h pertenecientes al intervalo (-1.645; 1.645) ya que se trabaja con un
contraste de una sola cola.

Para el clculo de este estadstico se necesitan conocer los siguientes datos:


1) Tamao de la muestra (n)
2) Varianza muestral estimada del coeficiente del regresor aleatorio (Yt-1 ) en la regresin MCO
del modelo a estimar; es decir, obtenida bajo el supuesto de MRLNC [Var(bi)].
10

Este contraste fue desarrollado por Durbin a partir de ..una nota de Nerlove y Wallis que afirmaba que la estadstica de
Durbin y Watson no es aplicable en presencia de variables dependientes rezagadas. Vase M. Nerlove y K.F. Wallis, Use of
Durbin-Watson Statistic in Inappropiate Situations, Econometrica, Vol. 34, 1966, pp. 235-238 (citado en Maddala, 1996).
11
J. Durbin Testing for Serial Correlation in Least Square Regression when some of the Regressors are Lagged Dependent
Variables, Econometrica, Vol. 38, 1970, pp. 410-421.

13

Anlisis de Autocorrelacin

J.M. Arranz , M.M. Zamora

3) Coeficiente de correlacin estimado ( )


Este coeficiente de correlacin estimado se puede calcular a partir de la estimacin de una
estructura autorregresiva de orden 1 para los residuos una regresin MCO de los residuos
n

et et 1

frente a un retardo de los mismos ( et = e t 1 + t ); esto es, =

t=2
n

et

2
1

t= 2

Otra posibilidad consiste en calcular esta correlacin muestral a partir del valor del estadstico de
prueba del contraste de Durbin-Watson, 1

d
2

El procedimiento de contrastacin requiere de la realizacin de las siguientes fases:


1) Estimacin MCO del modelo de regresin y obtencin de la varianza estimada del
coeficiente del regresor aleatorio, Var(bi)
2) Clculo del coeficiente de correlacin estimado
3) Clculo del valor del estadstico experimental h
4) Aplicacin de la regla de decisin. Si h > 1,645 se rechaza la hiptesis nula al nivel de
significacin del 5% considerando entonces que existe autocorrelacin positiva de primer
orden. Para el caso de autocorrelacin negativa de primer orden, el valor del estadstico
experimental h debe ser inferior a 1,645.

El principal inconveniente que tiene este contraste es que si el radicando es negativo, esto es
[n Var(bi) > 1], entonces el test falla. Para estos casos Durbin propuso un procedimiento
asinttico equivalente12 y que consiste en lo siguiente:
1) Estimar por MCO el modelo de regresin y obtener la serie de residuos MCO
2) Estimar una regresin auxiliar en la que los residuos MCO se especifiquen como funcin de
todos los regresores del modelo y tambin se incluya como regresor adicional un retardo de
los residuos.
3) Analizar, utilizando el estadstico t habitual, la significacin individual del retardo de los
residuos de la regresin auxiliar. Si el coeficiente del retardo del residuo es

12

La utilizacin de esta alternativa no siempre es adecuada; en este sentido se puede sealar que un estudio de Monte Carlo
de Maddala y Rao sugiere que esta prueba no es muy potente cuando no puede aplicarse el contraste del estadstico h.
(Maddala y Rao Test for Serial Correlation).

14

Anlisis de Autocorrelacin

J.M. Arranz , M.M. Zamora

significativamente distinto de cero entonces se considera que existe autocorrelacin de


primer orden.

Este procedimiento sirvi de base para el contraste, ms general, de Breusch-Godfrey (1978) que
como se ver a continuacin permite contrastar la existencia de otras estructuras de
autocorrelacin distintas a las autorregresivas de primer orden.

15

Anlisis de Autocorrelacin

J.M. Arranz , M.M. Zamora

4.4. Contraste de Breusch-Godfrey13 (1978)

Los contrastes anteriores, a pesar de su validez y robustez para detectar autocorrelaciones de


rdenes superiores, se disearon inicialmente para contrastar la presencia de procesos
autorregresivos de primer orden por lo que el procedimiento adecuado, una vez detectado un
problema de autocorrelacin, consistir en el anlisis de otros procesos de autocorrelacin, ya
sean autorregresivos de orden superior, procesos de medias mviles o procesos mixtos.

En este sentido, el contraste de Breusch-Godfrey se especifica con la finalidad de analizar si


existe o no autocorrelacin de orden superior a uno; para ello, en la hiptesis alternativa se
incluyen especificaciones ms generales que la del modelo autorregresivo de primer orden y que
se pueden generalizar a cualquier especificacin ARMA(p,q).

En la hiptesis nula se considera ahora que no existe autocorrelacin; la hiptesis alternativa


especificar un esquema concreto de autocorrelacin.

Por ejemplo, en un modelo autorregresivo de orden p.

u t = 1 u t 1 + 2 u t 2 + ... + p ut p + t

la hiptesis nula se formulara con el supuesto de ausencia de autocorrelacin, es decir, nulidad


de todos los coeficientes autorregresivos, H 0 = 1 = 2 = ... = p = 0

Este contraste, al igual que los estudiados hasta el momento, se basa en los residuos MCO y se
define como una prueba de significacin conjunta de las primeras p autocorrelaciones de los
residuos. Para su aplicacin emprica es necesario desarrollar las siguientes etapas:
1) Estimacin por MCO del modelo de regresin y obtencin de los residuos MCO (et )
2) Estimacin de una regresin auxiliar de los residuos et sobre p retardos de los mismos,
et-1 , et-2 , ..., et-p , as como sobre las variables explicativas del modelo original.
3) Obtencin del coeficiente de determinacin (R2 ) de la regresin auxiliar.
2
2
4) Forma del estadstico experimental, exp
= n R que se distribuye, bajo la hiptesis

nula de no autocorrelacin como 2p , donde p es el nmero de retardos de los residuos

13

T.S. Breusch y L.G. Godfrey Testing for Autocorrelation in Dynamic Linear Models, Australian Economic Papers, Vol. 17,
1978, pp. 334-355. Y L. G. Godfrey Testing against General Autorregresive and Moving Average Error Models when the
regressors include lagged dependent variables, Econometrica, Vol. 46, 1978, pp. 1293-1302.

16

Anlisis de Autocorrelacin

J.M. Arranz , M.M. Zamora

incluidos en la regresin auxiliar; esto es, el orden de autocorrelacin que se est


contrastando; n es el nmero de observaciones del modelo.
5) Regla de decisin: si el valor del estadstico experimental excede del estadstico terico
entonces hay evidencia suficiente para rechazar la hiptesis nula y admitir que existe
autocorrelacin; en caso contrario no sera correcto rechazar la ausencia de
autocorrelacin.

Este contraste presenta algunas ventajas frente al estadstico de Durbin-Watson; se puede


considerar que el contraste de Breusch-Godfrey puede utilizarse en modelos que incluyan como
regresores algunos retardos de la variable endgena, sin que por ello cambien las propiedades del
contraste.

En segundo lugar se puede sealar que este contraste permite especificar en la hiptesis
alternativa cualquier esquema de autocorrelacin ya sea a travs de un proceso autorregresivo, de
medias mviles o mixto.

A pesar de estas ventajas que lo pueden hacer preferible al contraste de Durbin Watson, no hay
que olvidar que para la aplicacin de este contraste es necesario especificar una longitud del
retardo y que sta se determinar por un procedimiento de experimentacin basado en el anlisis
de significacin individual de los retardos de los residuos, lo que en principio podra dificultar la
tarea de seleccin del orden de autocorrelacin.

17

Anlisis de Autocorrelacin

J.M. Arranz , M.M. Zamora

4.5. Contraste de Sargan (1964)

Cuando el resultado del contraste de Durbin-Watson indica que debe rechazarse la hiptesis
nula el origen de esta posible autocorrelacin puede deberse a la existencia de errores en la
especificacin del modelo. Por ejemplo, la omisin de variables relevantes llevara a incluir
esas variables omitidas en el trmino de perturbacin; si estas variables estuvieran
correlacionadas podra detectarse un problema de autocorrelacin en la perturbacin cuando
el verdadero origen de sta se debe a la falta de especificacin de aqullas.
En este sentido Sargan14 (1964) y posteriormente Hendry y Mizon15 (1978) buscaron una
forma de distinguir, en los casos en que el estadstico de Durbin-Watson detecta la presencia
de autocorrelacin, si sta se debe a un error de especificacin dinmica o si es realmente un
problema de las perturbaciones del modelo.

As, puede apreciarse cmo un modelo de regresin con perturbaciones AR(1); esto es
Yt = X t + ut

con perturbacin

dinmico autorregresivo,

Reparametrizando

el

u t = ut 1 + t , puede escribirse como un modelo

Yt = Yt -1 + X t X t -1 + t

modelo

Yt = 1 Yt -1 + 2 X t + 3 X t -1 + et ,

anterior
donde

se

puede

debera

expresar

verificarse

alternativamente
la

siguiente

como,

restriccin

H 0 : 1 2 + 3 = 0

Sargan sugiere comenzar con una especificacin dinmica y contrastar la restriccin anterior
antes de probar cualquier anlisis de autocorrelacin. Si como resultado del contraste
H 0 : 1 2 + 3 = 0 se obtiene que esa restriccin es cierta, esto es que no se rechaza la
hiptesis nula, entonces se puede considerar que los dos modelos son idnticos y por tanto no
existe error de especificacin con lo que debera pasar a contrastarse si existe o no
autocorrelacin. En el caso en que se rechace la hiptesis nula entonces los posibles
problemas de autocorrelacin detectados se pueden referir a un error de especificacin al
haber omitido en la especificacin inicial los regresores dinmicos Xt-1 e Yt-1 .
14

J.D. Sargan , Wages and Prices in the United Kingdom: A Study in Econometric Methodology en P.E. Hart, G. Mills y J.K.
Whitaker (editores), Econometric Analysis for National Economic Planning, Colston Papers 16 (London: Butterworth, 1964), pp.
25-54.
15
D.F. Hendry y G.E. Mizon Serial Correlation as a Convenient Simplification, Nor a Nuisance: A Comment on a Study of the
Demand for Money by the Bank of England The Economic Journal, Vol. 88, sept. 1978, pp. 549-563.

18

Anlisis de Autocorrelacin

J.M. Arranz , M.M. Zamora

En este mismo sentido se manifiestan Johnston y Dinardo (2001) quienes sealan,

... en la prctica lo normal es que exista escasa informacin relativa a la especificacin;


por esta razn aconsejamos desarrollar una especificacin rica en variables a partir de
la relacin original, con objeto de evitar la necesidad de realizar especificaciones
complejas del trmino de perturbacin...

19

Anlisis de Autocorrelacin

J.M. Arranz , M.M. Zamora

4.6. Anlisis de la Funcin de Autocorrelacin y Funcin de Autocorrelacin Parcial

La funcin de autocorrelacin y la funcin de autocorrelacin parcial constituyen una de las


herramientas principales en la identificacin de las estructuras autorregresivas y de medias
mviles.

Los coeficientes de autocorrelacin proporcionan informacin sobre la relacin lineal entre


los residuos del modelo separados por k unidades temporales. Es decir, indican el grado de
correlacin entre cada valor del residuo y los desplazados 1, 2, ... h periodos. Suponiendo que
las varianzas de los residuos son constantes a lo largo del tiempo, el coeficiente de
autocorrelacin terico, como ya se ha sealado, se expresa como, S =
Esto es,

0 =

0
0

=1

donde se verifica que 0 > 0

1 =

S
0

1
0

s = s

s = s

La representacin grfica de estos coeficientes de correlacin para un conjunto de retardos


sucesivos dar lugar a la funcin de autocorrelacin simple (FAS).

Junto con estos coeficientes de autocorrelacin se definen los de autocorrelacin parcial que
mide la correlacin entre dos momentos de tiempo despus de eliminar el efecto de los
momentos intermedios. La representacin grfica de estos coeficientes recibe el nombre de
funcin de autocorrelacin parcial (FAP).

El concepto de autocorrelacin parcial es anlogo al concepto de coeficiente de regresin


parcial. En el MRLNC el ksimo coeficiente de regresin mide el cambio en el valor medio de
la variable dependiente ante un cambio unitario en el regresor k, manteniendo constante la
influencia de los dems regresores (o aislando los efectos de los posibles restantes variables
explicativas). De modo similar la autocorrelacin parcial mide la correlacin entre
observaciones que estn separadas k periodos de tiempo manteniendo constantes las
correlaciones en los retardos intermedios. Luego estos coeficientes pueden obtenerse a partir
de la siguiente expresin,

20

Anlisis de Autocorrelacin

J.M. Arranz , M.M. Zamora

u t = 1 ut 1 + 2 ut 2 + 3 ut 3 + ... + p u t p + at
donde p es el coeficiente de autocorrelacin parcial ya que mide el efecto adicional de la
variable ut-P sobre ut . Ms concretamente recoge el efecto que sobre la variable ut tiene un
retardo de esta misma variable, aislados los efectos de las posibles restantes retardos o
considerando stos como constantes.

El clculo emprico de estos coeficientes no es materia objeto de estudio de este captulo; no


obstante, podemos sealar que a travs de las ecuaciones de Yule-Walker (1930) se pueden
establecer las relaciones entre los coeficientes de autocorrelacin ( ) y los coeficientes de
autocorrelacin parcial ( ).

Los patrones que siguen las FAS y FAP son distintos para los procesos AR y MA, por lo que
pueden utilizarse para la identificacin de la serie de residuos del modelo. En el caso concreto
de los procesos autorregresivos AR(p) la FAS decrece geomtrica o exponencialmente y la
FAP se corta despus de p-retardos, esto es presenta p coeficientes significativos. Para el caso
de procesos de medias mviles MA(q) ocurre al contrario; la funcin de autocorrelacin
parcial decrece de forma geomtrica o exponencial y la funcin de autocorrelacin simple se
anula para retardos de orden superior a q.

En las estimaciones prcticas estos comportamientos no son tan precisos por lo que a travs
de contrastes de hiptesis deber determinarse cundo un coeficiente estimado (de
autocorrelacin o de autocorrelacin parcial) es considerado nulo a pesar del valor emprico
que presente. Para ello se realizan contrastes de significatividad estadstica de los coeficientes
estableciendo unas bandas de confianza por encima de las cules los coeficientes resultan
significativos.

Estas bandas pueden calcularse a partir del coeficiente de correlacin emprico que presenta la
siguiente distribucin de probabilidad:

AN 0 ,

k 1

1
s2
1 + 2
n
s= 1

21

Anlisis de Autocorrelacin

J.M. Arranz , M.M. Zamora

k 1

Aunque la varianza no es constante, el programa EViews considera que

0 y dibuja

s=1

unas bandas de fluctuacin paralelas. Si todos los coeficientes de correlacin se sitan dentro
de estos lmites el proceso se considera de Ruido Blanco. Cuando existen coeficientes que no
se sitan dentro de las bandas habr que buscar el patrn de comportamiento segn un
esquema autorregresivo (AR), de medias mviles (MA) o mixto (ARMA).

Este mtodo grfico se complementa con otros mtodos numricos como son los contrastes Q
de Box-Pierce (1970) y Q de Ljung-Box (1978) que se basan en un anlisis de significacin
de un conjunto de retardos de los residuos. Esto es, la hiptesis nula se formula considerando
la ausencia de autocorrelacin lo que equivale a considerar la nulidad de un conjunto de estos
residuos; H 0 : 1 = 2 = ... = m = 0

Estos contrastes son muy similares y se definen en ambos casos a partir de la suma acumulada
de los coeficientes de correlacin empricos con las siguientes especificaciones.

22

Anlisis de Autocorrelacin

J.M. Arranz , M.M. Zamora

4.7. Contraste de Box-Pierce-Ljung


Box y Pierce16 desarrollaron un estadstico que, basado en los cuadrados de los primeros
coeficientes

de

autocorrelacin

de

los

residuos,

permite

analizar

si

existe

no

autocorrelacin.

El estadstico se define como una suma acumulada de estos cuadrados de los coeficientes de
correlacin empricos; esto es,

et et

Q = n

2
j

siendo j =

j= 1

t= j+ 1
n

et

t=1

Bajo la hiptesis nula de no autocorrelacin el estadstico Q se distribuye asintoticamente


segn una 2 con grados de libertad igual a la diferencia entre el nmero de coeficientes
acumulados (p) y el nmero de parmetros estimados al ajustar el proceso ARMA que se
considere.

Posteriormente este estadstico fue revisado por Ljung-Box obtenindose mejores resultados
para muestras pequeas si se utiliza esta otra expresin alternativa.
p

Q' = n (n + 2)

j= 1

(n + j )

Estos estadsticos se definieron inicialmente para el anlisis de Series Temporales pero a


veces tambin se utilizan para verificar la hiptesis de autocorrelacin en los modelos de
regresin. No obstante, esta aplicacin en modelos estructurales debe realizarse con cautela ya
que la inclusin de variables exgenas en el modelo tiene un efecto desconocido sobre el
estadstico experimental17 .

Sin embargo, puesto que se trata de un procedimiento implementado en EViews se presenta


aqu como una primera aproximacin al anlisis de autocorrelacin que deber estudiarse con
16

G.E.P. Box y D. A. Pierce Distribution of Residual Autocorrelations in Autoregresive-Integrated Moving Average Time Series
Models, Journal of the American Statisticak Association, vol. 65, 1970, pp. 1509-1526.

23

Anlisis de Autocorrelacin

J.M. Arranz , M.M. Zamora

ms detalle con los contrastes presentados anteriormente y que se diseaban especficamente


para modelos de regresin estructurales.

17

H. Dezhbaksh The Inapropiate Use of Serial Correlation Test in Dynamic Linears Models, Review of Economics and
Statistic, Vol. LXXII, 1990, pp. 126-132.

24

Anlisis de Autocorrelacin

5.

J.M. Arranz , M.M. Zamora

ESTIMACIN, INFERENCIA Y PREDICCIN

En el captulo dedicado al anlisis del modelo de regresin generalizado ya se ha estudiado


que, en este modelo, los estimadores MCO son lineales, insesgados pero no ptimos, por lo
que para conseguir una adecuada estimacin de los parmetros del modelo y poder realizar los
procesos de inferencia se utilizarn los estimadores de mnimos cuadrados generalizados
(MCG) tambin estudiados en el tema once.

En la estimacin e inferencia de los parmetros del modelo la autocorrelacin origina


problemas similares a los ya analizados en el modelo con heterocedasticidad: la estimacin
por MCO contina siendo insesgada pero ahora es ineficiente con lo que los procesos de
inferencia quedan invalidados.

Dado que los estimadores de MCO no son eficientes su matriz de varianzas y covarianzas
est mal calculada los procedimientos de inferencia habituales no son vlidos ya que es
probable que se obtengan resultados que lleven a considerar que los coeficientes no son
estadsticamente significativos es decir, coeficientes iguales a cero cuando en realidad s
lo sean. En este caso es aconsejable utilizar los estimadores de Mnimos Cuadrados
Generalizados (MCG) o Mnimos Cuadrados Generalizados Factibles (MCGF) ya que
presentan mejores propiedades. La forma especfica de estos estimadores depender del
proceso subyacente para la perturbacin.

En este sentido Gujarati (1997) concluye que,


Para establecer intervalos de confianza y probar hiptesis debe utilizarse MCG y no
MCO, an cuando los estimadores derivados de este ltimo sean insesgados y
consistentes y las pruebas de significacin t y F usuales dejan de ser vlidas y,
de ser stas aplicadas, es probable que conduzcan a conclusiones errneas sobre la
significacin estadstica de los coeficientes de regresin estimados.

En este epgrafe se aborda la estimacin de un modelo de regresin lineal, homocedstico y


con perturbaciones autocorrelacionadas. Los distintos procedimientos de estimacin que aqu
se presentan parten del supuesto de modelos de regresin con matriz de regresores no
estocstica; el supuesto de modelos con variables dependientes retardadas modelos
autorregresivos no es objeto de estudio en este tema.
25

Anlisis de Autocorrelacin

J.M. Arranz , M.M. Zamora

Se va a estudiar por tanto la estimacin en un modelo que como ya se ha sealado cumple las
siguientes hiptesis
Y = X + u
E (u ) = 0
E (uu ' ) = 2

matriz con varianzas constantes y covarianzas no nulas

Para este modelo que presentamos existen distintos mtodos de estimacin que, bsicamente
difieren en la informacin que se tenga acerca de la matriz segn que esta sea conocida o
desconocida y deba por tanto estimarse.
Si la matriz es conocida se aplican, al igual que se seal para el problema de
heterocedasticidad, MCG ya que el modelo con el que se est trabajando no es un MRLNC
sino un MRLG.
Si la matriz es desconocida sta deber de estimarse en funcin del proceso de
autocorrelacin del modelo. Una vez estimada esta matriz se aplicar lo que se ha dado en
llamar MCGF. Estos estimadores de MCGF conservan las propiedades asintticas de los
MCG siempre que los estimadores de la primera etapa esto es, la estimacin de la matriz
sean consistentes.

Estimacin prctica del modelo: aplicacin con el programa Eviews


En la prctica la estimacin que se va a utilizar consiste en la aplicacin directa de alguno de
los procedimientos que tiene implementados Eviews. Este programa permite estimar el
modelo de regresin por MCO incorporando la estructura de autocorrelacin sin ms que
aadir, a los regresores del modelo, la especificacin concreta de la perturbacin; esto es el
tipo de proceso y el orden del mismo. As, para el supuesto de un proceso autorregresivo de
segundo orden la estimacin en Eviews se realizar a partir de los siguientes comandos,
Quick/ Estimate Equation/ Y C X2 X3 AR(1) AR(2)

26

Anlisis de Autocorrelacin

J.M. Arranz , M.M. Zamora

Si el proceso fuera de medias mviles los trminos que se aaden son MA(1), MA(2),
MA(q) y en caso de un proceso mixto se incluiran tanto los trminos autorregresivos como
los de medias mviles.

Otra posibilidad que ofrece Eviews consiste en la estimacin del modelo por MCO pero con
una estimacin consistente de la matriz de varianzas y covarianzas de los coeficientes de
modo que sean vlidos los procesos de inferencia. Para ello, desde la ventana en que se
especifica la estimacin de MCO se activa el botn Options y se selecciona Heterokedaticiy y
la estimacin con matriz de varianzas y covarianzas de Newey-West (recurdese que para el
caso de heterocedasticidad la opcin a seleccionar era la matriz de White).

El anlisis de prediccin en los modelos con autocorrelacin necesita incluir la estructura de


la perturbacin; este anlisis se va a desarrollar unicamente para el caso de procesos
autorregresivos de primer orden. La aplicacin para otras estructuras se realizar
automticamente con las opciones de Eviews.

27

Anlisis de Autocorrelacin

6.

J.M. Arranz , M.M. Zamora

PROCESO AUTORREGRESIVO DE PRIMER ORDEN AR(1)

El proceso autorregresivo de primer orden AR(1) es el proceso ms frecuentemente


analizado tanto desde un punto de vista terico como emprico; en este sentido se puede
sealar que la literatura emprica est aplastantemente dominada por el modelo AR(1)
[este modelo] ha resistido los contrastes de tiempo y experimentacin mostrndose como un
modelo razonable para el proceso subyacente que probablemente en realidad, es
complejamente opaco. (Greene, 1999)

Es necesario sealar tambin que los procesos de rdenes superiores son, con frecuencia,
extremadamente difciles de analizar y que gran parte de los modelos econmicos con
problemas de autocorrelacin presentan un proceso autorregresivo de primer orden por lo que
ste es el supuesto que se considera ahora para analizar la estimacin de los modelos de
regresin homocedstico y con problemas de autocorrelacin.

Definimos ahora el proceso autorregresivo de orden 1 a partir de la estructura,


u t = u t 1 + t
donde t es una variable que se denomina de ruido blanco y que verifica las siguientes
propiedades,
E (t ) = 0

var( t ) = 2

E (t t 1 ) = 0

t s

= E(' ) = 2 I

La expresin del proceso AR(1) se puede formular tambin como un proceso de medias
mviles de orden infinito sin ms que sustituir de forma continuada la variable retardarda;
esto es,
u t = t + t 1 + 2 t 2 + ...

u t = i t i
i= 0

28

Anlisis de Autocorrelacin

J.M. Arranz , M.M. Zamora

Las propiedades que verifica el proceso autorregresivo AR(1) son,


E (ut ) = 0
2
var( u t ) = E (u ) =
1 2
2
t

< 1 condicin necesaria para que la varianza sea finita

Covarianzas

Correlaciones

E( u t u t 1 ) = u2

1 =

E( u t u t 2 ) = 2 u2

2 = 2

E( u t u t 3 ) = 3u2

3 = 3

E( u t u t S ) = S u2

S = S

Luego la matriz de varianzas y covarianzas de la perturbacin se puede expresar,

uu

2
= E( uu`) = u

n 1

... n 2
2
... n 3 =
12
... ...
1

n 1

... n 2
... n 3

... ...
1

siendo la matriz,
1

1
1

=
1 2

n 1

... n 2
... n 3

... ...
1

Para la estimacin del modelo de regresin aplicando MCG se necesitara conocer la inversa
de esta matriz que es,

29

Anlisis de Autocorrelacin


0
=
...
0

1+

...
0
0

J.M. Arranz , M.M. Zamora

0
2

1+ 2
...
0
0

...
0
...
0
...
0
... ...
...
...
0

0
0
0
...
1+ 2

0
0
0
...

O alternativamente, si el modelo generalizado se quisiera transformar a un modelo clsico


utilizando la transformacin de Aitken se necesitara expresar la matriz de paso P que para el
supuesto concreto de un modelo autorregresivo de primer orden se formula,

1 2

0
...
0

0
1

0
0
1
... ...
0 0

... 0 0

... 0 0
... 0 0

... ... ...


... 1

A partir de esta matriz de paso tambin llamada matriz de transformacin se


transformaran las variables del modelo del siguiente modo Y*=P Y, X*=P X.
Para simplificar la notacin vamos a considerar el modelo de regresin simple18 ,
Yt = + X t + u t en el que las perturbaciones siguen un esquema autorregresivo de primer
orden, u t = u t 1 + t . Las variables transformadas se calcularan a partir de las siguientes
expresiones,

1 2 Y1

Y2 Y1

Y* =

...

Yn Yn 1

1 2

1
X* =
...

( 1 )X
2

X 2 X 1

...

X n X n 1

30

Anlisis de Autocorrelacin

J.M. Arranz , M.M. Zamora

Teniendo en cuenta estas matrices , -1 , P se sealan a continuacin los distintos


procedimientos de estimacin para el proceso autorregresivo de primer orden que se est
analizando.

1) Estimacin con conocida: Mnimos Cuadrados Generalizados


Para el caso concreto de perturbaciones autocorrelacionadas segn un esquema autorregresivo
de orden 1 AR(1) es relativamente sencillo utilizar este mtodo que se reducira a la

b* = X ' 1 X

aplicacin directa de la frmula

X ' 1Y

Con la forma concreta de la matriz definida anteriormente o transformando las variables y


estimando por MCO una regresin de Y* sobre X* y teniendo en cuenta que ahora no se debe
incluir trmino constante en el modelo.

Modelo de regresin

Yt = + X t + u t con perturbaciones AR(1) u t = u t 1 + t

Modelo de regresin expresado en el periodo t-1 y multiplicando por


Yt 1 = + X t -1 + u t 1

Se realiza la diferencia entre uno y otro


(Yt Yt 1 ) = (1 ) + X t X t -1 + (u t ut 1 )
(Yt Yt 1 ) = (1 ) + (X t X t -1 ) + t

este modelo se puede expresar como


Yt * = * + X*t + t
y puesto que t verifica las hiptesis clsicas este modelo con variables transformadasse
podra estimar por MCO y los estimadores obtenidos seran ptimos; este procedimiento es
18

Los procedimientos que se van a desarrollar en este epgrafe consideran, por simplicidad, un modelo de regresin simple
pero es necesario sealar que la inclusin de otros regresores no cambiara el procedimiento ya que la correccin se hace para
el problema de autocorrelacin que es una caracterstica de la perturbacin y no de los regresores.

31

Anlisis de Autocorrelacin

J.M. Arranz , M.M. Zamora

equivalente a la aplicacin de MCG con la nica diferencia que se prescinde de la primera


observacin.

Ntese que este procedimiento es similar a prescindir de la informacin de la primera fila


de la matriz P y estimar un modelo con variable dependiente
y

( X t X t1 ) utilizando

(Yt Yt 1 )

sobre una constante

esta transformacin desde la segunda a la ltima observacin. Este

mtodo, aunque no coincide exactamente con MCG, s es asintticamente equivalente.

No obstante, el principal problema que se presenta para aplicar mnimos cuadrados


generalizado por cualquiera de estos procedimientos es que el valor de es desconocido por
lo que deber estimarse como un parmetro ms del modelo de regresin aplicndose
entonces el mtodo de Mnimos Cuadrados Generalizados Factibles.
2) Estimacin con desconocida: Mnimos Cuadrados Generalizados Factibles

El supuesto analizado en el caso anterior es poco frecuente siendo lo habitual trabajar cono
modelos que presentan autocorrelacin en los que se desconocen los elementos que
configuran la matriz En estos casos es necesario realizar en primer lugar una estimacin de
dicha matriz que para el caso que estamos analizando proceso autorregresivo de primer
orden se reduce a una estimacin del coeficiente

continuacin se sealan algunos procedimientos para estimar el coeficiente de

autocorrelacin pero esta lista no es exhaustiva; existen otros mtodos, como el de mxima
verosimilitud, que aqu no se presentan. Los que aqu se muestran son procedimientos que,
bsicamente, se desarrollan en dos etapas. En la primera etapa se obtiene una estimacin de
que se utiliza, en la segunda etapa, para transformar las variables con las que estimar una
ecuacin en diferencias generalizada mtodo este que como ya se ha sealado coincide
bsicamente con la aplicacin de MCG Todos estos procedimientos se conocen con el
nombre de MCGF ya que, en lugar del verdadero valor del coeficiente utilizan una
estimacin del mismo.

32

Anlisis de Autocorrelacin

J.M. Arranz , M.M. Zamora

Procedimiento iterativo de Cochrane-Orcutt19

La estimacin planteada por Cochrane-Orcutt es un proceso iterativo que permite estimar el


valor del parmetro de autocorrelacin desconocido ().

En una primera etapa se estima el modelo de regresin por MCO y se calcula la serie de
residuos MCO; a partir de stos se realiza una regresin auxiliar de los residuos sobre los
residuos del periodo anterior sin incluir trmino constante. De este modo se obtiene una
primera estimacin del coeficiente de autocorrelacin de primer orden20 . A partir de este valor
estimado se transforman las variables del modelo de regresin que se utilizan para repetir la
estimacin del modelo (etapa 1) y continuar con el procedimiento descrito.

Este proceso finaliza cuando el estadstico d de Durbin-Watson indique que los residuos
MCO de la etapa 1 son de ruido blanco o, alternativamente, se puede finalizar el proceso
cuando las estimaciones sucesivas del parmetro difieran en menos de una cantidad
prefijada por ejemplo 0,01 0,005.

Es necesario sealar que la aplicacin de este mtodo reduce el nmero de observaciones de


la muestra ya que se omite la informacin relativa a la primera observacin.

Procedimiento o Modificacin de Prais-Wisten21 (con informacin completa)

Una modificacin del procedimiento de Cochrane-Orcutt fue propuesta por Prais y Wisten
(1954); estos autores sugieren ampliar el tamao de muestra incluyendo una transformacin
para la primera observacin que, como consecuencia de la utilizacin de primeras diferencias,
desaparece. En lugar de utilizar el modelo que surge directamente de la transformacin se
incorpora, para las primeras observaciones de las variables el factor de correccin
con lo que la primera observacin para la variable dependiente ser

(1 ) ,
2

(1 ) Y
2

19

D. Cochrane y G.H. Orcutt, Application of Least Squares Regressions to Relationships Containing Autocorrelated Error
Terms Journal of the American Statistical Association, Vol. 44, 1949, pp.32-61.
20
La estimacin del coeficiente de autocorrelacin tambin se podra calcular a partir del estadstico de Durbin-Watson que
como ya se ha sealado permite obtener,
21

r 1

d
2

S.J. Prais y C.B. Winsten Trend Estimation an Serial Correlation Cowles Comission Disucussion Paper, n 383, Chicago,
1954.

33

Anlisis de Autocorrelacin

J.M. Arranz , M.M. Zamora

anlogamente para la matriz de regresores. Esta modificacin permite mejorar la eficiencia en


la estimacin de muestras pequeas.

Procedimiento en dos etapas de Cochrane-Orcutt

Este procedimiento se muestra como una versin abreviada del proceso iterativo; la primera
etapa sera equivalente y, a continuacin, en la segunda y ltima etapa se estimara la
ecuacin en diferencias a partir del coeficiente de autocorrelacin estimado.

Mtodo de Durbin de dos pasos

Durbin22 (1960) propone una primera estimacin del modelo en cuasi diferencias expresado a
partir de la igualdad,
Yt = (1 ) + X t X t -1 + Yt 1 + t

Como primera estimacin del coeficiente de autocorrelacin se va a considerar el coeficiente


de la variable endgena desplazada, ya que, aunque sesgada, se trata de una estimacin
consistente de

Esta primera estimacin del coeficiente de autocorrelacin puede servir de base para la
aplicacin de cualquiera de los otros dos mtodos presentados con anterioridad. En concreto,
Griliches y Rao23 muestran, a partir de un estudio de Monte Carlo que el estimador obtenido a
partir de una primera estimacin con el mtodo de Durbin y seguido del procedimiento de
Prais-Wisten para las variables transformadas es mejor otras alternativas. En este sentido
Greene (1998) citando a Harvey y McAvinchey (1981)afirma que es bastante peor
omitir la primera observacin que mantenerla.

22

J. Durbin Estimation of Parameters in Time Series Regression Models Journal of the Royal Statistical Society, ser. B, Vol.
22, 1960, pp. 139-153.
23
Z. Griliches y P. Rao Small Sample Propierties of Several Two Stage Regression Methods in The Context of Autocorrelated
Errors, Journal of the American Statistical Association, Vol, 64, 1969, pp. 253-272.

34

Anlisis de Autocorrelacin

J.M. Arranz , M.M. Zamora

Prediccin con perturbaciones AR(1)24

Una vez que se ha detecta la presencia de autocorrelacin en un modelo de regresin esta


informacin debe considerarse para realizar la prediccin; as por ejemplo un modelo de
regresin simple con perturbaciones AR(1) la mejor prediccin para un periodo extramuestral
n+1 debe incluir una correccin por autocorrelacin; por tanto,

Yn +1 = a + b X n +1

no es la mejor prediccin para el periodo n+1

ya que E (u n +1 ) = u n que podra estimarse a travs de u n = (Y n a bX n )

Por tanto, la prediccin de Y para el periodo n+1 debe incorporar esta informacin
obtenindose el siguiente predictor
Yn +1 = a + b X n +1 + u n

Yn +1 = a + b X n +1 + (Yn a bX n )

y este predictor coincide con el que se obtendra habiendo transformado el modelo con
cuasidiferencias.

24

Este tema se puede estudiar con ms profundidad en a.S. Goldberger Best Linear Unbiased Prediction in the Generalized
Linear Regression Model Journal of the American Sotstistical Association, Vol. 57, 1962, pp. 369-375.

35

You might also like