AUTOCORRELACIÓN1

Ing. Lorenzo Castro Gómez2

Un supuesto importante del modelo clásico lineal presentado en el inicio del curso
es que no hay autocorrelación o correlación serial entre las perturbaciones µi
consideradas dentro de la función de regresión poblacional. En este apartado, se
examinara en forma critica este supuesto con el fin de buscar respuestas a las
siguientes preguntas:
1. ¿Cuál es la naturaleza de la autocorrelación?
2. ¿Cuáles son las consecuencias teóricas y practicas de la autocorrelación?
3. Puesto que el supuesto de no autocorrelación se relaciona con las
como se sabe que hay autocorrelación en
perturbaciones no observables µi,
cualquier situación dada?
4. ¿Cómo se puede remediar el problema de la autocorrelación?
El lector encontrara en este apartado, similitudes en muchos aspectos con el
apartado anterior sobre heteroscedasticidad, puesto que en presencia de
autocorrelación y de heteroscedasticidad, los estimadores, de mínimos cuadrados,
a pesar de ser insesgados, dejan de tener mínima varianza entre todos los
estimadores lineales insesgados. En resumen, dejan de ser mejores estimadores
lineales insesgados.

1. NATURALEZA DEL PROBLEMA
El término autocorrelación se puede definir como la (correlación entre miembros
de series de observaciones ordenadas en el tiempo [como en información de
series de tiempo] o en el espacio [como en información de corte transversal. En el
contexto de regresión, el modelo clásico de regresión lineal supone que no existe
tal autocorrelación en las perturbaciones µi, Simbólicamente,
E (µi µj ) = 0

i≠j

1

Notas preparadas para la materia de Econometría (tomadas del libro de Damodar N. Gujarati, Econometría
3era Edición. 1997. México. Págs. 393 – 442.
2
Maestro del Departamento de Economía Agrícola de la DCSE de la Universidad Autónoma Agraria Antonio
Narro. De Saltillo Coah., México.

1

hay una huelga laboral que afecta la producción en un trimestre. Por ejemplo se define autocorrelación como (correlación rezagada de una serie dada consigo misma. mientras que reserva el término correlación serial para (correlación rezagada entre dos series diferentes). en este apartado se consideraran como sinónimos.Expresado en forma sencilla. los cuales están dados en la siguiente figura. se tiene autocorrelación. si sé esta tratando con información trimestral de series de tiempo. En forma similar. la interrupción ocasionada por una huelga este trimestre puede afectar muy fácilmente la producción del siguiente trimestre. si tal dependencia existe. es esencial aclarar algunos aspectos de terminología. Antes de encontrar la razón de la existencia de la autocorrelación. o los incrementos en el gasto de consumo de una familia pueden inducir muy fácilmente a otra familia a aumentar su gasto de consumo para no quedarse atrás de la primera. E (µi µj) ≠ 0 i≠j En esta situación. el modelo clásico supone que el término de perturbación relacionado con una observación cualquiera no esta influenciado por el término de perturbación relacionado con cualquier otra observación. Aunque la distinción entre los dos términos puede ser de utilidad. Se pueden visualizar algunos de los patrones razonables de autocorrelación y de no autocorrelación. para efectuar una regresión de la producción sobre los insumos trabajo y capital y si. Simbólicamente. no hay razón para esperar que esta sea baja en el siguiente trimestre. Es decir. si la producción es inferior este trimestre. por ejemplo. Aunque. Sin embargo. 2 . hoy en día. algunos autores prefieren diferenciar los dos términos. rezagada por un número de unidades de tiempo). Por ejemplo. es práctica común tratar como sinónimos los términos autocorrelación y correlación serial. si sé esta tratando con información de corte transversal que involucra la regresión del gasto de consumo familiar sobre el ingreso familiar no se espera que el efecto de un incremento en el ingreso de una familia sobre su gasto de consumo incida sobre el gasto de consumo de otra. no hay razón para pensar que esta interrupción afectara la producción del trimestre siguiente.

3 .

En estos apuntes se consideraran algunas pruebas de correlación serial usadas comúnmente. 4 . 2. es frecuente incluir el estadístico d de Durbin-Watson en los informes de análisis de regresión.Watson3 La prueba mas conocida para detectar correlación serial es la desarrollada por los estadísticos Durbin y Watson. (como medida de detección y para poder remediar el modelo cuando aparezca autocorrelación). Por consiguiente. es esencial averiguar si existe autocorrelación en una situación dada. como es el caso de la regresión a través del origen. 3 En estos apuntes sólo se considera esta prueba.En las figuras a) a d) se ve que hay un patrón de distinguible entre las µ. Si dicho término no esta presente. Prueba d de Durbin. mientras que en la figura e) no existe tal patrón. es importante anotar los supuestos en los cuales este se basa: 1. Obsérvese que en el numerador d el número de observaciones es n -1 porque una observación se pierde al obtener las diferencias consecutivas. junto con otros estadísticos resumen tales como el R2. antes de hacer algo. DETECCION DE LA AUTOCORRELACIÓN La autocorrelación es potencialmente un problema grave. Aunque el estadístico d es utilizado ahora en forma sistematizada. el R ajustado. Por supuesto. el cual se define como d = (Σ ut – u t-1)2 / Σ u2t que es simplemente la razón de la suma de las diferencias al cuadrado de residuales sucesivos sobre la SCR. las medidas remédiales deben ser ciertamente apropiadas. que aparecen sistematizados en los análisis de regresión.Watson. Debido a esta ventaja. apoyando el supuesto que no hay autocorrelación. etc. El modelo de regresión incluye el término de intercepto. Una gran ventaja del estadístico d es que esta basado en los residuales estimados. es esencial efectuar nuevamente la regresión incluyendo el término del intercepto para obtener la SCR. Es comúnmente conocida como el estadístico d de Durbin. las razones t. 1.

los cuales. la prueba es inaplicable a modelos grandes. estos límites solamente dependen del número de observaciones n y del número de variables explicativas y no dependen de los valores que adquieren estas variables explicativas. Durbin y Watson tuvieron éxito al encontrar un limite inferior dL. el estadístico d no permitiría la ausencia de tales observaciones. por supuesto. 5. Las perturbaciones µt se generan mediante el esquema autorregresivo de primer orden: µt = ρµt-1 + εt 4.productividad para el período 1960-1991 si por alguna razón faltaran las observaciones. por ejemplo para 1963 y 1972. la cual muestra que los límites de d son 0 y 4. y un límite superior dU. Por tanto. dependen de las X dadas. han sido tabulados por Durbin y Watson. como lo han demostrado Durbin y Watson. Por consiguiente. El modelo de regresión no incluye valor(es) rezagado(s) de la variable dependiente como una de las variables explicativas. No hay observaciones faltantes en los datos. en un ejemplo de regresión de salarios. Por consiguiente. Sin embargo. 3. Por tanto.2Σ utu t-1) / Σu2t Puesto que Σu2t y Σu2t-1 difieren solo en una observación. depende de forma compleja de los valores presentes de X en una muestra dada. tales que si el valor d calculado cae por fuera de estos valores críticos. El muestreo exacto o la distribución de probabilidad del estadístico d es difícil de derivar porque. no hay un valor crítico único que lleve al rechazo o a la aceptación de la hipótesis nula de que no hay correlación serial de primer orden en las perturbaciones µi. Estos límites para n. (hasta 20 variables explicativas) El procedimiento de prueba aplicado puede explicarse mejor con la ayuda de la siguiente figura 1. Esta dificultad puede ser entendida porque d es calculado a partir de µt. a diferencia de las pruebas t. son fijas en muestreo repetido. Las variables explicativas. puede tomarse una decisión con respecto a la presencia de correlación serial positiva o negativa. estos son aproximadamente iguales. Se define ahora 5 . para obtener d = (Σu2j + Σu2t-1. haciendo Σu2t-1 = Σu2t puede escribirse como d ≅ 2[1 – (Σutut-1/ Σu2t)] Donde ≅ significa aproximadamente. x son no estocásticas. Además. F o χ2. de 6 a 200 y hasta 20 variables explicativas. es decir.2. Estos pueden establecerse expandiendo la siguiente ecuación.

entre más cercano este d a 0. Nota: Ho: No autocorrelación positiva Ha: No autocorrelación negativa Es deducible de la ecuación sí p = 0. implica que. 0 ≤ d ≤ 4 Estos son los límites de d. si en una aplicación se encuentra que d es igual a 2. ρ es posible expresar como d ≅ 2 (1 – p) pero puesto que – 1 ≤ p ≤ 1. d ≅ 0. Si p = + 1. Como resultado. indica una correlación positiva perfecta en los residuales. tenderán a ser pequeñas. la suma de cuadrados 6 . se espera que d este alrededor de 2. bien sea positiva o negativa.ρ = (Σutut-1) / (Σu2t) como el coeficiente de autocorrelación muestral de primer orden. Cuadro 1. cualquier valor d estimado debe caer dentro de estos límites. Esta relación debe ser evidente de ya que si hay autocorrelación positiva. las µt aparecerán agrupadas y sus diferencias. Por consiguiente. como regla práctica. un estimador de . por consiguiente. mayor será la evidencia de correlación serial positiva. d = 2. Por consiguiente. si no hay correlación serial (de primer orden). es decir. se puede suponer que no hay autocorrelación de primer orden.

7 .Watson pero son un poco complicadas y están por fuera del alcance de estos apuntes. el cual es un valor que permanece fijo para cualquier regresión dada. Para un tamaño de muestra dado y un número de variables explicativas dado. 2. Por tanto. la prueba d tiene una gran desventaja: cuando cae en la zona de indecisión o región de ignorancia. La mayoría de los programas de computador incluyen este cálculo. + o - Decisión Rechazar No tomar decisión Rechazar No tomar decisión No rechazar Sí 0 < d < dL dL < d < dU 4. Síganse ahora las reglas de decisión dadas en la siguiente cuadro No. negativo y viceversa. no se puede concluir si la autocorrelación existe o no.dL < d < 4 4 –dU < d < 4 – dL dU < d < 4 . Efectuar la regresión con mínimos cuadrados y obtener los residuales. Para resolver este problema. diversos autores han propuesto modificaciones a la prueba d de Durbin . 3. El mecanismo de la prueba de Durbin .dU A pesar de ser muy popular. µt . Si p = p . Nuevamente. Cuadro 2 Hipótesis nula No autocorrelación + No autocorrelación + No correlación No correlación No autocorrelación.del numerador será menor en comparación con la suma de cuadrados del denominador. estas reglas se resumen en el cuadro 2. si hay autocorrelación negativa. suponiendo que se cumplen los supuestos sobre los cuales se basa la prueba: 1.Watson es el siguiente. Calcular d a partir de la ecuación d = (Σ ut – u t-1)2 / Σ u2t . hay una correlación negativa perfecta entre los valores consecutivos de los residuales. d ≅ 4. 1. Pues. positiva tendera a estar seguida por µt. Para facilitar su entendimiento. encuéntrense los valores críticos dL y dU 4. el numerador de d será comparativamente mayor que el denominador.1 es decir. al analizar esto es entendible. entre mas se acerque d a 4. mayor será la evidencia de correlación serial negativa. de tal forma que µt – µt-1será usualmente mayor que µt. Por consiguiente.

se obtiene pYt-1 = pα + pβX t-1 + pµt-1 Restando esta ecuación de la inicial se tiene (Yt – pYt-1 = α (1 – p) +β Xt – pβX t-1 + (µt – pµt-1) = α (1 – p) + β (Xt – pXt-1) + εt se puede expresar como Y*t = α* + β*X*t + εt Donde α* = α (1 – p). varianza constante y no autocorrelación.3. es esencial buscar medidas remédiales. depende del conocimiento que se tenga sobre la naturaleza de la interdependencia entre las perturbaciones. 8 . El remedio. Si se supone la validez de la anterior ecuación. Se distinguen dos situaciones: cuando la estructura de autocorrelación es conocida y cuando no lo es. Yt-1 = α + βxt-1 + µt-1 Multiplicando por p a ambos lados. usualmente se supone que las µi siguen el esquema autorregresivo de primer orden. por tanto. la naturaleza de la correlación serial es frecuentemente un asunto de especulación o de exigencias practicas. Para esto se tiene en cuenta el modelo con dos variables. Yt = α + βxt + µt Si es cierta en el tiempo t. el problema de correlación serial puede ser resuelto satisfactoriamente si se conoce p. también es cierta en t-1. a) Cuando la estructura de la autocorrelación es conocida4 Puesto que las perturbaciones µi no son observables. 4 El alcance de estos apuntes no contempla. MEDIDAS REMÉDIALES Puesto que en presencia de correlación serial los estimadores de mínimos cuadrados son ineficientes. el coeficiente de autocorrelación. Y*t = (Yt – pYt-1) y X*t = (Xt – pXt-1). sin embargo. µt = ρµt-1 + εt donde I p I < 1 y donde las εt siguen los supuestos mínimos cuadrados de valor esperado cero. a saber. cuando no es conocida es para cursos más avanzados. En la practica.

que supone que la perturbación en el periodo de tiempo actual esta linealmente relacionada con el término de perturbación en el periodo de tiempo anterior. el manejo de los datos etc. 3. se hace necesaria la aplicación de medidas remediales. el fenómeno de la telaraña. X1) es excluida. es decir.Puesto que εt satisface todos los supuestos mínimos cuadrados. surge el problema de autocorrelación o de correlación serial. Si se viola el supuesto del modelo clásico de regresión lineal de que los errores o las perturbaciones µi consideradas dentro del modelo de regresión poblacional son aleatorios o no correlaciónados. la medida de interdependencia esta dada por el coeficiente de autocorrelación. Como resultado. Por tanto. La regresión. 4. 4. el sesgo de especificación resultante de excluir variables importantes del modelo o de utilizar la forma funcional incorrecta. la práctica común es suponer que estas han sido generadas por algún mecanismo. la primera observación sobre Y y X es transformada de la siguiente manera: Y1 √1– p2 y X1 √1– p2. se conoce por el nombre de ecuación en diferencia generalizada o <<cuasi>> -. se puede proceder a aplicar mínimos cuadrados sobre las variables transformadas Y* y X* y obtener estimadores con todas las propiedades optimas.Winsten. El remedio depende de la naturaleza de la interdependencia entre las perturbaciones µt. lo cual se logra restando una proporción (= p) del valor de una variable en el periodo de tiempo anterior de su valor en el periodo de tiempo actual. Esta transformación es conocida como la transformación de Prais . Este mecanismo se conoce como el esquema AR(1). El mecanismo comúnmente adoptado es el esquema autorregresivo de primer orden de Markov. tales como la inercia o lentitud de las series de tiempo económicas. RESUMEN Y CONCLUSIONES 1. Pero obsérvese que la primera expresión (Y1. 2. modelo de estimación lineal insesgado. sino en forma de diferencia. las pruebas de significancia t y F usuales no pueden aplicarse legítimamente. Esta consiste en regresar Y sobre X. estos dejan de ser eficientes. En efecto. Pero como las µt. realizar la regresión es equivalente a utilizar los mínimos cuadrados generalizados. no son observables. Aunque los estimadores mínimos cuadrados continúan siendo insesgados y consistentes en presencia de autocorrelación. Para evitar esta perdida de una observación. 9 . En este procedimiento de diferenciación se pierde una observación. puesto que la primera observación no tiene precedente. no en la forma original. (¿Por que?). La autocorrelación puede surgir por diversas razones.

Aunque son de uso corriente y aparecen en los impresos de la mayoría de los paquetes de sofware de computador. estos métodos generalmente producen estimaciones similares. El esquema AR(1) puede generalizarse fácilmente a un esquema AR(p). Si el esquema AR(1) es valido y el coeficiente de autocorrelación se conoce. conocido como ARMA. Consideramos diversos métodos para estimar. Claro esta. el d modificado de Theil-Nagar. 7. En muestras grandes. el procedimiento de dos etapas de Cochrane . el estadístico d tiene diversas limitaciones. Aun si se utiliza un esquema AR(1). estos tienen un desempeño diferente. y no de autocorrelación pura.Orcutt (C-O). tales como el d de Dulrbin . En la practica.O se ha vuelto bastante popular. Hay diversos métodos de detección. Muy frecuentemente. el procedimiento iterativo C .O y el método de dos etapas de Durbin.Waton. antes de remediar el problema de autocorrelación es preciso detectarlo. el problema de correlación serial puede atacarse fácilmente mediante la transformación de los datos siguiendo el procedimiento de diferencia generalizada. 6. aunque en muestras pequeñas. 10 . el método iterativo C .5. el coeficiente de autocorrelación p no se conoce a priori. También se puede suponer un mecanismo promedio móvil (MA) o una mezcla de los esquemas AR y MA. de los cuales el mas conocido es el estadístico d de Durbin.Watson. el estadístico d es indicador de la presencia de un sesgo de especificación.