Análisis de series temporales: Modelos ARIMA

ISBN: 978-84-692-3814-1

María Pilar González Casimiro

04-09

An´lisis de Series Temporales: Modelos ARIMA a
Pilar Gonz´lez Casimiro a Departamento de Econom´ Aplicada III (Econometr´ y Estad´ ıa ıa ıstica) Facultad de Ciencias Econ´micas y Empresariales o Universidad del Pa´ Vasco (UPV-EHU) ıs

Contenido
1. Introducci´n o 2. Procesos estoc´sticos a 2.1. Proceso estoc´stico y serie temporal . . . . . . . . . . . . . . . . . . . . . . . . . a 2.2. Caracter´ ısticas de un proceso estoc´stico . . . . . . . . . . . . . . . . . . . . . . . a 2.3. Procesos estoc´sticos estacionarios . . . . . . . . . . . . . . . . . . . . . . . . . . a 2.3.1. Funci´n de autocovarianzas y de autocorrelaci´n . . . . . . . . . . . . . . o o 2.3.2. Estimaci´n de los momentos o . . . . . . . . . . . . . . . . . . . . . . . . . 1 11 11 12 13 14 17 18 19 19 22 22 27 31 31 34 38 43 43 44 45

2.4. Proceso Ruido Blanco . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. Modelos lineales estacionarios 3.1. Modelo Lineal General . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2. Procesos autorregresivos: AR(p). . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1. Proceso AR(1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.2. Proceso AR(p). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3. Procesos de Medias M´viles: MA(q). . . . . . . . . . . . . . . . . . . . . . . . . . o 3.3.1. Proceso MA(1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.2. Proceso MA(q). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4. Procesos Autorregresivos de Medias M´viles: ARMA(p,q). . . . . . . . . . . . . . o 4. Modelos lineales no estacionarios 4.1. No estacionariedad en varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2. No estacionariedad en media. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3. Modelos ARIMA(p,d,q). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . i

. . . . Estrategia de modelizaci´n ARIMA . . . . . . . . . . . . . . . . . .2. . . . . . . . . . . . . . . . . . . . . . . . 4. o 5. . . . . . . . . . . . . . . . . . . . 5. Predicci´n con modelos estacionarios . . . . . . . . . . . . . . . a 5. . . . . 118 o 8. . . . . . . . 109 7. . . . . 135 8. . An´lisis de coeficientes estimados . . . . . . . . .2. . . . . . .3. . . . . . . . . . . a 5. . . . . . . . . .4. . . . . . . . .1. . . . . . . . o 6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2. . . . o 5. . . . . . . .3. . Modelos ARIMA estacionales 7. .1.q). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 7.1. . o 6. .1. . . . . . . . .2. . . . . . Predicciones con modelos estacionarios estimados . . . .3. . Ejercicios 135 8. . . . .1. . . Modelos ARMA estacionales no estacionarios . . Modelos estacionales puros . . . . . . . . . . . . . . . . . Predicci´n ´ptima con modelos ARIMA(p.4. . . . . . . . . . . . . . 6. . . o 5.4. . . . .SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a 47 48 49 49 51 52 61 69 73 73 77 85 86 88 90 92 94 97 101 4. . Problemas . . . . . . . . . . . . . . Modelos ARIMA estacionales multiplicativos . . . . . . . . . . . . . . . . .1. . Modelo de paseo aleatorio con deriva . . . . . 137 ii . 102 7. . . . o 7. . .2. . . . Identificaci´n . . . . .1. . . . . . . . . . . . . . . . . Identificaci´n del modelo estacionario . . . . . . . . . . .1. . . d. . .1. .2. . . . . . . . . . . . . Predicci´n con modelos no estacionarios. . . . . . . . . . . . . . . . . . . . . . . .2. . . . . . . . . . . . . . . . . . Validaci´n del modelo . . Predicci´n con modelos ARMA(p. o 6. . o 5. . . Estimaci´n . . a 6. . . . . . . . . Predicci´n con modelos AR(p) . . . .1. o 5.2. . . . . . . . . . . . . . . . . . . . . .4. . . . . . Predicci´n con modelos MA(q). . . . Modelo de paseo aleatorio . . . . . . . . . . . . . Modelizaci´n ARIMA o 5. . . . . . . .1. . . . . . . Modelizaci´n ARIMA estacional. . . . . o 6. . . . . . . q) o o 6. Cuestiones . . . . . . . . . . . . An´lisis de estacionariedad . . . . . . . . . . . . . . . . .2. . . . . . . An´lisis de residuos.2.3. . . . . . . . . . . .1. . . . . . . . . . .4. . .3. . . . . . . . . . . . . . . .

Sin embargo. En Metereolog´ tenemos series temporales de temperatura. cantidad de lluvia ca´ ıa. las observaciones son dependientes entre s´ y la naturaleza de su dependencia es de inter´s en s´ misma ı e ı 1 . o a o Adem´s en este tipo de datos (tomamos una muestra aleatoria simple de una poblaci´n m´s a o a grande) el orden de las observaciones no tiene mayor importancia. etc. En Astronom´ la ıa. diarios de las acciones. en general. Ejemplos de series temporales las podemos encontrar en cualquier campo de la ciencia. los electrocardiogramas o electroencefalogramas. etc. En Demograf´ se estudian las series de Poblaci´n Total. que: • el orden es fundamental: tenemos un conjunto de datos ordenado • el supuesto de independencia no se sostiene ya que. etc. As´ podemos pensar en series como los precios ı. la asignaci´n aleatoria del tratamiento a cada unidad experimental. etc. cu´les son sus caracter´ a ısticas espec´ ıficas y por qu´ es necesario desarrollar m´todos e e espec´ ıficos para su an´lisis. a Una serie temporal es una secuencia ordenada de observaciones cada una de las cuales est´ asociaa da a un momento de tiempo. actividad solar. e temporal. En general. En Medicina. La mayor´ de los m´todos estad´ ıa e ısticos elementales suponen que las observaciones individuales que forman un conjunto de datos son realizaciones de variables aleatorias mutuamente independientes. incluyendo la extracci´n aleatoria de la muestra de una o poblaci´n m´s grande. En Marketing son de gran inter´s las series de ventas o e mensuales o semanales. En Econom´ cuando buscamos datos para estudiar el comportamiento de ıa una variable econ´mica y su relaci´n con otras a lo largo del tiempo. los beneficios trimestrales. las exportaciones mensuales. el consumo mensual. vamos a comenzar definiendo qu´ se entiende por serie ıa. en el caso de las series temporales. este supuesto de independencia mutua se justifica por la atenci´n prestada o a diversos aspectos del experimento. velocidad del viento.Cap´ ıtulo 1 Introducci´n o El objetivo de este documento es presentar un conjunto de t´cnicas para el an´lisis de series e a temporales en econom´ Por lo tanto. etc. tasas de naıa o talidad. u ımenes. estos datos se presentan o o frecuentemente en forma de series temporales. hemos de tener en cuenta. sin embargo. ıda en una regi´n. o en Sociolog´ datos como el n´mero de cr´ ıa.

el empleo crece en promedio suavemente. al final de la muestra se puede observar que la serie estaba creciendo a una tasa muy fuerte a partir de finales de 2005 y que este ritmo se suaviza a partir de finales del a˜o 2007. Es una serie trimestral que comienza el primer trimestre de 1995 y finaliza el tercer trimestre de 2008. tambi´n hay que se˜alar que el ritmo de crecimiento de la serie no siempre es el e n mismo. la serie presenta una tendencia creciente. De 1967 hasta principios de los n 80. es decir. es decir. As´ a ı.3 podemos encontrar los Ingresos por turismo en el estado espa˜ol obtenidos de a n la Balanza de Pagos. En el gr´fico no se presentan los datos brutos de la serie.1 es la Renta Nacional de la Uni´n Europea (27 pa´ a o ıses miembros). principios de 1999. Al final de la muestra. o Gr´fico 1. el tercer trimestre de 2001 o el tercer trimestre de 2003. se pueden aislar momentos espec´ ıficos en que la renta nacional decrece. Es tambi´n una serie trimestral que a n e comienza el primer trimestre de 1961 y termina el cuarto trimestre de 1994. por ejemplo. el gr´fico refleja claramente el a n a efecto en el empleo de la crisis de comienzos de los a˜os 90 con un descenso espectacular en solo n dos a˜os. En este caso el comportamiento de la serie es muy variable. sino lo que se a denomina serie desestacionalizada. de la serie es creciente. a pesar de que la inspecci´n visual de este gr´fico lleva a decir que n a o a el comportamiento general. la serie sin comportamiento estacional. Por ejemplo. Incluso m´s.2 representa el empleo en el estado espa˜ol. o Ahora bien. El gr´fico 1. aunque con fuertes oscilaciones. se observa una fuerte ca´ del empleo hasta el a˜o 1985 cuando comienza a recuperarse ıda n r´pidamente para estabilizarse en los a˜o 1988-90.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Consideremos algunos ejemplos de series temporales cuya evoluci´n es bastante habitual cuando o se trabaja con variables econ´micas. Es una serie mensual que comienza el mes de enero de 1990 y termina 2 .1: Renta Nacional UE 27 miembros a )adazilanoicatsesed( 72EU lanoicaN atneR 1200000 1100000 1000000 900000 800000 700000 600000 19 95 TI 19 95 TII I 19 96 TI 19 96 TII I 19 97 TI 19 97 TII I 19 98 TI 19 98 TII I 19 99 TI 19 99 TII I 20 00 TI 20 00 TII I 20 01 TI 20 01 TII I 20 02 TI 20 02 TII I 20 03 TI 20 03 TII I 20 04 TI 20 04 TII I 20 05 TI 20 05 TII I 20 06 TI 20 06 TII I 20 07 TI 20 07 TII I 20 08 TI 20 08 TII I La serie representada en el gr´fico 1. hasta el a˜o 1967. Observando este gr´fico se puede concluir que la renta nacional de la UE ha seguido en este a periodo una evoluci´n continuamente creciente. Con la crisis de 1980. De nuevo. la serie crece. En el gr´fico 1. al principio de la muestra. en promedio. no se puede decir que tenga un comportamiento a largo plazo ni creciente ni decreciente sino que est´ continuamente cambiando de nivel. la serie comienza a crecer t´ n ımidamente.

An´lisis de Series Temporales: modelos ARIMA a

SARRIKO-ON 4/09

Gr´fico 1.2: Empleo en el Estado Espa˜ol a n
120

Empleo (1961,I - 1994,IV)

110

100

90

80 62 64 66 68 70 72 74 76 78 80 82 84 86 88 90 92 94

el mes de agosto de 2008. Si tuvieramos que describir brevemente la evoluci´n de esta serie, o resaltar´ ıamos, en primer lugar, que a largo plazo crece ya que en media el nivel de ingresos es superios al final de la muestra que al principio de la misma, es decir, la serie tiene una tendencia creciente. Pero esta variable presenta tambi´n un tipo de comportamiento c´ e ıclico que no observabamos en las dos anteriores. Analizando con m´s cuidado el gr´fico observamos que, a a dentro de cada a˜o, los picos m´s altos de los ingresos son siempre en verano (julio y agosto) n a y los m´s bajos en invierno. Por lo tanto, si queremos estudiar esta serie y predecirla hemos de a tener en cuenta todas sus caracter´ ısticas, incluyendo los ciclos que se observan con un periodo anual y que se donominan, estacionalidad. Gr´fico 1.3: Ingresos por turismo en el estado espa˜ol a n
5000000

4000000

3000000

2000000

1000000

0
1990M01 1990M06 1990M11 1991M04 1991M09 1992M02 1992M07 1992M12 1993M05 1993M10 1994M03 1994M08 1995M01 1995M06 1995M11 1996M04 1996M09 1997M02 1997M07 1997M12 1998M05 1998M10 1999M03 1999M08 2000M01 2000M06 2000M11 2001M04 2001M09 2002M02 2002M07 2002M12 2003M05 2003M10 2004M03 2004M08 2005M01 2005M06 2005M11 2006M04 2006M09 2007M02 2007M07 2007M12 2008M05

omsirut rop sosergnI

3

SARRIKO-ON 4/09

An´lisis de Series Temporales: modelos ARIMA a

Debido a estas caracter´ ısticas especificas de los datos de series temporales se han de desarrollar modelos espec´ ıficos que recojan y aprovechen la dependencia entre las observaciones ordenadas de una serie temporal. El conjunto de t´cnicas de estudio de series de observaciones dependientes ordenadas en el tiempo e se denomina An´lisis de Series Temporales. El instrumento de an´lisis que se suele utilizar es a a un modelo que permita reproducir el comportamiento de la variable de inter´s. e Los Modelos de Series Temporales pueden ser: • Univariantes: s´lo se analiza una serie temporal en funci´n de su propio pasado o o • Multivariantes: se analizan varias series temporales a la vez. Un ejemplo muy popular en la literatura son las series de n´mero de pieles de vis´n y rata almizclera capturadas en u o C´nada. Se sabe que existe una relaci´n v´ a o ıctima-depredador entre ambos animales lo que se supone que afecta a la din´mica de ambas series. La forma de reflejar estas interacciones a din´micas entre ambas series es construir un modelo multivariante. Cuando se construye a un modelo multivariante, para casos como ´ste, suponemos que hay cierta dependencia o e relaci´n entre los pasados de las diversas series. o Estas interacciones din´micas tambi´n aparecen cuando construimos modelos multivariana e tes para variables econ´micas, tales como la renta, consumo e inversi´n que, c´mo es bien o o o sabido, influyen las unas en las otras. En este libro se van a considerar unicamente los modelos de series temporales univariantes, por ´ lo que se va a centrar en el an´lisis de las series temporales univariantes. a Una serie temporal univariante consiste en un conjunto de observaciones de una variable Y . Si hay T observaciones, se denota por Yt , t ∈ Yt , t = 1, . . . , T

El sub´ ındice t indica el tiempo en que se observa el dato Yt . Los datos u observaciones se suelen recoger a intervalos iguales de tiempo, es decir, equidistantes los unos de los otros; es el caso de series mensuales, trimestrales, etc. Cuando las observaciones se recogen solo en momentos determinados de tiempo, generalmente a intervalos iguales, nos referimos a una serie temporal discreta. Puede darse el caso de que los datos se generen de forma continua y se observen de forma continua, como, por ejemplo, la temperatura, que se observa de forma continua en el tiempo por medio de aparatos f´ ısicos. En este caso denotamos la serie temporal por Yt , t∈R

y contamos con un n´mero infinito de observaciones. En este caso nos referiremos a una serie u temporal continua. Sin embargo, la mayor´ de las series disponibles, en particular, en las ciencias ıa sociales, se observan en tiempo discreto a intervalos iguales, aunque se puedan suponer generadas por alg´n proceso en tiempo continuo. Por lo tanto, este libro se centrar´ en el estudio de u a variables discretas tomadas a intervalos regulares dejando de lado las variables continuas y las variables discretas tomadas a intervalos irregulares. 4

An´lisis de Series Temporales: modelos ARIMA a

SARRIKO-ON 4/09

Cada uno de los datos, Yt , puede representar o una acumulaci´n sobre un intervalo de tiempo de o alguna cantidad subyacente, por ejemplo, lluvia diaria, o bien un valor tomado en un momento dado. Las variables flujo son aquellas que se miden respecto a un intervalo de tiempo. Por ejemplo, el consumo mensual de petr´leo. Las variables stock son aquellas que se miden en un o momento determinado de tiempo, por ejemplo, la temperatura, las cotizaciones de bolsa, etc. Los m´todos de an´lisis de series temporales son, en general, los mismos para ambos tipos de e a variables, pero puede haber ocasiones en que la distinci´n sea de inter´s debido a las distintas o e caracter´ ısticas que tienen las observaciones. Los objetivos que se pueden plantear al analizar una serie temporal son muy diversos, pero entre los m´s importantes se encuentran: a a) Describir las caracter´ ısticas de la serie, en t´rminos de sus componentes de inter´s. Por e e ejemplo, podemos desear examinar la tendencia para ver cuales han sido los principales movimientos de la serie. Por otro lado, tambi´n el comportamiento estacional es de inter´s, e e y para algunos prop´sitos, nos puede interesar extraerlo de la serie: desestacionalizar. o Esta descripci´n puede consistir en algunos estad´ o ısticos resumen (media, varianza, etc.) pero es m´s probable que incluya una o m´s representaciones gr´ficas de los datos. La a a a complejidad de una serie temporal (opuesta a una m.a.s.) es tal que a menudo requiere una funci´n, m´s que un simple n´mero, para se˜alar las caracter´ o a u n ısticas fundamentales de las series; por ejemplo, una funci´n µt en vez de un n´mero µ para recoger el valor medio o u de la serie. b) Predecir futuros valores de las variables. Un modelo de series temporales univariante se formula unicamente en t´rminos de los valores pasados de Yt , y/o de su posici´n con respecto ´ e o al tiempo (ning´n modelo univariante puede ser tomado seriamente como un mecanismo u que describe la manera en que la serie es generada: no es un proceso generador de datos). Las predicciones obtenidas a partir de un modelo univariante no son por lo tanto m´s que extrapolaciones de los datos observados hasta el momento T . En este sentido se a dice que son na¨ sin embargo, son en muchas ocasiones muy efectivas y nos proporcioıve; nan un punto de referencia con el que comprar el funcionamiento de otros modelos m´s a sofisticados. Cuando las observaciones sucesivas son dependientes, los valores futuros pueden ser predichos a partir de las observaciones pasadas. Si una serie temporal se puede predecir exactamente, entonces se dir´ que es una serie determinista. Pero la mayor´ de las series son ıa ıa estoc´sticas en que el futuro s´lo se puede determinar parcialmente por sus valores pasados, a o por lo que las predicciones exactas son imposibles y deben ser reemplazadas por la idea de que los valores futuros tienen una distribuci´n de probabilidad que est´ condicionada o a al conocimiento de los valores pasados. Ambos objetivos pueden conseguirse a muy distintos niveles. Es evidente que, dada la muestra, calcular la media y la desviaci´n t´ o ıpica de las observaciones supone describir caracter´ ısticas de la serie. De la misma manera podemos predecir que los valores futuros de la variable van a ser iguales al ultimo valor observado. Sin embargo, en ninguno de los dos casos se usa la ´ informaci´n muestral de una manera sistem´tica. El uso sistem´tico de la informaci´n muestral o a a o pasa normalmente por la formulaci´n de modelos que pueden describir la evoluci´n de la serie. o o 5

existe relaci´n lineal perfecta y positiva entre x e o o y. Se basa en la idea de que una serie temporal puede ser considerada como la superposici´n de varios componentes elementales no observables: tendencia. tambi´n denominada innovaci´n. fue propuesto por Yule y Slutzky en la d´cada de los 20. de variables aleatorias o de las series resultantes. Si ρxy = −1. Estos coeficientes de autocorrelaci´n proporcionan mucha o informaci´n sobre como est´n relacionadas entre s´ las distintas observaciones de una serie temo a ı poral. no o existe relaci´n lineal entre x e y.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Los modelos utilizados para describir el comportamiento de las variables econ´micas de inter´s. Yt−1 . Yt−3 . es decir. Si ρxy = 1. Yt−2 . existe relaci´n lineal perfecta y negativa entre x e y. ρxy . . Este tipo de modelos que cae o racterizan las series como sumas o diferencias. o estacionalidad y ciclo. y at es la parte a aleatoria. La estimaci´n de tendencias y el ajuste estacional atraen mucho la ateno ci´n debido a su importancia pr´ctica para el an´lisis de series econ´micas. . o a a o e o Modelos ARIMA . se puede estimar este coeficiente 6 . ponderadas o no. Si ρxy = 0. el grado de asociaci´n lineal que existe entre o o o observaciones separadas k periodos. mide el grado de o asociaci´n lineal entre ambas variables y se define como: o ρxy = cov(x. lo que ayudar´ a construir el modelo apropiado para los datos. Fueron la base de e los procesos de medias m´viles y autorregresivos que han tenido un desarrollo espectacular tr´s o a la publicaci´n en 1970 del libro de Box-Jenkins sobre modelos ARIMA. e o En los modelos de series temporales univariantes la P St se determina unicamente en funci´n de ´ o la informaci´n disponible en el pasado de la serie: o P St = f (Yt . o Una vez que tenemos una muestra de las variables x e y. o e siempre responden a la misma estructura: Yt = P St + at donde: P St = Parte sistem´tica o comportamiento regular de la variable. Son modelos param´tricos que tratan de obtener la representaci´n de la serie en t´rminos de la interrelaci´n temporal de sus elementos. y) V (x)V (y) Este coeficiente no tiene unidades por definici´n y toma valores −1 ≤ ρxy ≤ 1. . o El instrumento fundamental a la hora de analizar las propiedades de una serie temporal en t´rminos de la interrelaci´n temporal de sus observaciones es el denominado coeficiente de aue o tocorrelaci´n que mide la correlaci´n.) El an´lisis de series temporales se basa en dos nociones fundamentales: a Componentes no observados. a Recordemos que el coeficiente de correlaci´n entre dos variables xt e yt .

. . . como sigue: o T −k ¯ ¯ (Yt − Y )(Yt+k − Y ) rk = t=1 T ¯ (Yt − Y )2 t=1 Ejercicio 1. YT ) . podemos crear (T −1) pares de observaciones (Y1 . Si consideramos Y1 . . podemos definir la correlaci´n entre ambas variables Yt . Yt+1 : o T −1 ¯ ¯ (Yt − Y(1) )(Yt+1 − Y(2) ) rYt Yt+1 = r1 = t=1 T −1 T −1 ¯ (Yt − Y(1) )2 t=1 t=1 ¯ (Yt+1 − Y(2) )2 ¯ ¯ donde Y(1) es la media muestral de las T − 1 primeras observaciones e Y(2) es la media muestral de las T − 1 ultimas observaciones. (YT −1 . ¿Qu´ valores esperas para el coeficiente de correlaci´n muestral en estos casos? e o 7 . .An´lisis de Series Temporales: modelos ARIMA a poblacional mediante su correspondiente coeficiente muestral: T SARRIKO-ON 4/09 (xt − x)(yt − y ) ¯ ¯ rxy = t=1 T T (xt − x)2 ¯ t=1 t=1 (yt − y )2 ¯ El coeficiente de correlaci´n se puede utilizar como instrumento para analizar la estructura de o correlaci´n existente entre las observaciones de una serie temporal Yt . o coeficiente de o o autocorrelaci´n de primer orden. grado de asociaci´n lineal. . el coeficiente de autocorrelaci´n de orden k. . YT como otra. . . YT . En general.1. YT −1 como una variable y Y2 . . . . o Si tenemos T observaciones Y1 . . Esta f´rmula se suele aproximar por: ´ o T −1 ¯ ¯ (Yt − Y )(Yt+1 − Y ) r1 = t=1 T ¯ (Yt − Y )2 t=1 El coeficiente r1 mide la correlaci´n. se puede estimar la correlaci´n entre observaciones o o separadas por k intervalos. se o o le denomina coeficiente de correlaci´n simple o coeficiente de correlaci´n serial. . . Y2 ). . entre observaciones sucesivas. es decir.

SARRIKO-ON 4/09 200 An´lisis de Series Temporales: modelos ARIMA a 2000 180 160 1500 140 Consumo 1000 -20 0 20 40 60 80 100 120 variable Y 120 100 80 500 500 1000 1500 2000 2500 3000 variable X Renta El correlograma es el gr´fico de los coeficientes de autocorrelaci´n de orden k contra el retardo a o k. entonces para valores de T grandes. le suele seguir otra o m´s observaciones por encima de la media (lo a mismo. rk cualquier k = 0. 400 0. una serie en la que a una observaci´n a o por encima de la media. para 200 variable Y 0 -200 -400 -30 -20 -10 0 10 20 30 variable X (B. o Sea una serie sin tendencia. La interpretaci´n del correlograma no es f´cil pero vamos a dar unas pistas o a al respecto. 8 . El correlograma es de la siguiente forma: un valor relativamente alto de r1 . es decir. pero cada vez m´s peque˜os y valores de rk aproximadamente a n cero para k grande. (A) Si una serie es puramente aleatoria. que oscila en torno a una media constante. para observaciones por debajo de la media). seguido de algunos coeficientes rk distintos de cero. Este gr´fico es muy util para interpretar el conjunto de los coeficientes de autocorrelaci´n de a ´ o una serie temporal. pero cuyas observaciones sucesivas est´n correlacionadas positivamente.1) Correlaci´n a corto plazo.

e 4 Correlogram of AR1 Autocorrelation 2 0 -2 -4 1000 1005 1010 1015 1020 1025 1030 1035 1040 1045 1050 Por ejemplo.194 0.128 0.448 0.350 0.006 0.016 AC 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 0.117 0. cambia continuamente de nivel.689 0.207 0.882 0.097 0.An´lisis de Series Temporales: modelos ARIMA a Correlogram of ARMA11 SARRIKO-ON 4/09 65 60 55 50 45 40 20 30 40 50 60 70 80 90 00 (B. 9 Autocorrelation 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 -0. es decir.035 AC . los valores de rk no van a decrecer hacia cero r´pidamente. (C) Si la serie contiene una tendencia. se estudiar´ como para que el a correlograma sea informativo habremos de eliminar esta tendencia.2) Correlaci´n a corto plazo.138 -0.716 0.101 0. Esto es debido a que una observaci´n por encima de a o la media (o por debajo) de la media general es seguida de muchas observaciones por el mismo lado de la media debido a la tendencia. o Las series sin tendencia que oscilan en torno a una media constante pero que alternan valores con observaciones sucesivas a diferentes lados de la media general.071 0.556 0.143 0.271 -0. el valor de r2 puede ser.004 -0. si el valor de r1 es negativo.003 -0. sin embargo.133 0.014 0. A lo largo del curso.375 0. presentan un correlograma que tambi´n suele alternar los signos de sus coeficientes.029 0.122 0. positivo porque las observaciones separadas dos periodos tienden a estar al mismo lado de la media.277 0.521 -0.052 -0.017 -0.

173 0.374 -0.483 -0.390 -0.469 0.174 0.2 1.682 AC .447 -0.365 -0.423 -0.768 0.192 0. Los modelos ARMA estacionarios se explican con detalle en el cap´ ıtulo 3 y los modelos ARIMA no estacionarios en el cap´ ıtulo 4.546 0. el correlograma da de nuevo poca informaci´n porque lo domina el comportamiento c´ o ıclico presente en los datos. el cap´ ´ ıtulo 8 reune una colecci´n de o ejercicios para el trabajo propio del lector. Por ejemplo. y r12 a ser´ grande y positivo.175 0.766 0.8 0. ıa o o estimaci´n y contraste de diagn´sticos se explica detalladamente en el cap´ o o ıtulo 5 y el cap´ ıtulo 6 se dedica a la predicci´n.607 0.0 0.3 1.1 1.184 -0.198 -0.955 0.848 0.807 0. El cap´ o ıtulo 7 trata sobre la especificaci´n de los modelos de series o temporales adecuados a los datos estacionales.786 0.724 0. Si eliminamos la variaci´n c´ o ıclica de los datos el correlograma podr´ ser m´s util. Estos modelos se basan en la teor´ de los procesos estoc´sticos que se desarrolla en el cap´ ıa a ıtulo 2. En general.419 -0.672 0.285 -0.828 0.469 -0.619 0.975 0.679 AC 10 Autocorrelation 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 0.137 0.870 0.536 0.892 0. Por ultimo.744 0.388 -0.172 -0.407 -0.141 -0.187 -0.345 -0.874 0. ıa a ´ Correlogram of AIRESTM 1.9 0. Autocorrelation 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 0. La metodolog´ de modelizaci´n ARIMA con las fases de identificaci´n.913 0.428 -0.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Correlogram of TRENDD 30 25 20 15 10 5 0 1860 1880 1900 1920 1940 1960 1980 (D) Si una serie presenta alg´n tipo de ciclo. el correlograma tambi´n presentar´ una oscilaci´n u e a o a la misma frecuencia.438 -0.483 -0. para series mensuales.935 0.703 0.095 -0. r6 ser´ grande y negativo. el correlograma va a reproducir el comportamiento c´ a ıclico presente en la serie.7 49 50 51 52 53 54 55 56 57 58 59 60 Los modelos de series temporales ARIMA van a ser el objetivo central del libro.167 0. En las series con un comportamiento c´ ıclico permanente.

. t − 1. por ejemplo. Yt+2 . 2. Yt−1 . . se tiene una variable aleatoria determinada de la secuencia. Yt+1 (ω0 ). . . es decir. . . Proceso estoc´stico y serie temporal a Un proceso estoc´stico es una familia de variables aleatorias que. . . con su distribuci´n de probabilidad univariante. u 11 . se puede a interpretar como una realizaci´n muestral de un proceso estoc´stico que se observa unicamente o a ´ para un n´mero finito de periodos. 2. o ´ . . . . o ´ {Yt }+∞ −∞ o ´ simplemente Yt Dado que el objetivo del libro es el an´lisis de series temporales. Yt+2 . Yt−2 . Yt (ω0 ). Yt . t = 1. t = t0 . Yt−2 (ω0 ). . Y2 . . . Ahora a e o o bien. YT . t = 1. . Y1 . Yt+1 . . . . .1. consideraremos unicamente a ´ secuencias de variables aleatorias ordenadas en el tiempo. En este cap´ ´ ıtulo se va a estudiar la teor´ de procesos estoc´sticos para describir la estructura probabil´ ıa a ıstica de una secuencia de observaciones en el tiempo y para predecir. . Yt . . . t. T . Si contamos con T observaciones. en general. t = . el modelo univariante de series temporales se formular´ en t´rminos de los valores pasados de Yt y/o su posici´n en relaci´n con el tiempo. . . en una ordenaci´n de tipo espacial.Cap´ ıtulo 2 Procesos estoc´sticos a Una serie temporal univariante consiste en un conjunto de observaciones de una variable de inter´s. Un modelo de series temporales debe reproducir las caracter´ e ısticas de la serie. est´n relacionadas a a entre s´ y siguen una ley de distribuci´n conjunta. Si se fija la variable aleatoria ω = ω0 . . . Yt−1 (ω0 ). podr´ pensar. Se denota por: ı o Yt (ω). . t + 1. . T . . Yt−1 . ıa o Si se fija el tiempo. t + 2. 2. una serie temporal. . . . o Yt0 (ω). En el marco estad´ ıstico de los procesos estoc´sticos. Yt−2 . Yt+1 . . t − 2. no existe un unico modelo para conseguir este modelo. . . Yt+2 (ω0 ). se tiene una realizaci´n del proceso. . . . pero no tiene por qu´ ser as´ Se e ı. Yt . . una muestra o de tama˜o 1 del proceso formada por una muestra de tama˜o 1 de cada una de las variables n n aleatorias que forman el proceso: .

. ∀(ti . t = 0. su orden es irrelevante... F [Yti . en principio infinito. cov(Yt Ys ) = E[Yt − µt ][Ys − µs ] = γt. Para conocer la funci´n de distribuci´n de un proceso estoc´stico o o o o a es necesario conocer las funciones de distribuci´n univariantes de cada una de las variables o aleatorias del proceso. . . Sin embargo. Como suele ser muy complejo determinar las caracter´ a ısticas de un proceso estoc´stico a trav´s de su funci´n de distribuci´n se suele recurrir a caractea e o o rizarlo a trav´s de los dos primeros momentos. Consumo Privado que se observa o a unicamente de 1996 a 2007. ±1. ±1. siendo n finito Momentos del proceso estoc´stico. . y la ordenaci´n de la sucesi´n de o o observaciones es esencial para el an´lisis de la misma. una serie temporal es una sucesi´n de observaciones en la que o cada una de ellas corresponde a una variable aleatoria distinta. . . En resumen. . Ytj ]. < ∞ t = 0. . 12 ∀t. . en la teor´ del muestreo ıa aleatorio. ı. a +∞ denotado por {Ct }−∞ . por ´ lo tanto. una muestra es un conjunto de observaciones de una unica variable aleatoria y. no se puede alterar. si se considera el consumo semanal de una determinada ´ clase de familias de una ciudad en un momento dado. t2 . ∀ti . . tj ) . e El primer momento de un proceso estoc´stico viene dado por el conjunto de las medias de todas a las variables aleatorias del proceso: E(Yt ) = µt < ∞.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a En este contexto.s . Caracter´ ısticas de un proceso estoc´stico a Un proceso estoc´stico se puede caracterizar bien por su funci´n de distribuci´n o por sus a o o momentos. por lo tanto. Ytn ]. C ∼ (µ. Sin embargo. la muestra tomada para N familias : C1 C2 C3 C4 . El segundo momento centrado del proceso viene dado por el conjunto de las varianzas de todas las variables aleatorias del proceso y por las covarianzas entre todo par de variables aleatorias: 2 V (Yt ) = E[Yt − µt ]2 = σt . σ 2 ). . ∀ (t1 . y todas las funciones trivariantes. y las funciones bivariantes correspondientes a todo par de variables aleatorias del proceso.. . As´ si se considera el proceso estoc´stico Consumo Privado. la serie temporal dada por los valores del consumo anuales publicados por la agencia estad´ ıstica correspondiente: C1996 C1997 C1998 C1999 C2000 C2001 C2002 C2003 C2004 C2005 C2006 C2007 es una realizaci´n del proceso estoc´stico. tn ). . . la funci´n de distribuci´n de un proceso estoc´stico incluye todas las funciones de o o a distribuci´n para cualquier subconjunto finito de variables aleatorias del proceso: o F [Yt1 . 2. Yt2 .2. . . . porque se cambiar´ a ıan las caracter´ ısticas de la serie que se quiere estudiar. . ±2. CN es un conjunto de N observaciones de una variable aleatoria consumo familiar. F [Yti ]. ±2. Funci´n de distribuci´n. s (t = s) .

En el primer caso. . la covarianza lineal entre dos variables aleatorias del proceso que 13 . . Un proceso estoc´stico. Yt2 . .3. tn ) y k es decir. . el proceso est´ perfectamente caracterizado y se conoce su funci´n de a o distribuci´n. ∀ t b) Todas las variables aleatorias tienen la misma varianza y es finita. Si. Estacionariedad estricta. todas las variables aleatorias del proceso tienen la misma media y es finita: E(Yt ) = µ < ∞. a Estacionariedad en covarianza. Por lo tanto. Si se quieren conseguir m´todos de predicci´n consistentes. es decir. Yt . en el segundo. de estacionariedad de segundo orden o en covarianza. no se pueden utilizar para predecir. . no se puede utilizar cualquier tipo de proceso estoc´stico. es preciso que los procesos estoc´sticos generadores de las series temporales tengan alg´n tipo a u de estabilidad. A estas condiciones que se les impone a los procesos estoc´sticos para que sean estables para predecir. . Yt . ∀ t c) Las autocovarianzas solo dependen del n´mero de periodos de separaci´n entre las variables u o y no del tiempo. la dispersi´n o en torno a la media constante a lo largo del tiempo es la misma para todas las variables del proceso 2 V (Yt ) = E[Yt − µ]2 = σY < ∞. e o a sino que es necesario que la estructura probabil´ ıstica del mismo sea estable en el tiempo. . . Ytn ] = F [Yt1 +k . es decir. . se les conoce como estacionariedad. es decir. . . en cada momento de tiempo presentan un comportamiento diferente e inestable. a El concepto de estacionariedad se puede caracterizar bien en t´rminos de la funci´n de distribue o ci´n o de los momentos del proceso. se hablar´ de estacionariedad en sentido o a estricto y. por el contrario. Un proceso estoc´stico. o varianzas y covarianzas). Ytn +k ] ∀ (t1 . es estacionario en sentido estricto si y a solo si: F [Yt1 .An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 Si la distribuci´n del proceso es normal y se conocen sus dos primeros momentos (medias. . si la funci´n de distribuci´n de cualquier conjunto finito de n variables aleatorias del o o proceso no se altera si se desplaza k periodos en el tiempo. La filosof´ que subyace en la teor´ de la predicci´n es siempre la misma: se aprende de las ıa ıa o regularidades del comportamiento pasado de la serie y se proyectan hacia el futuro. es estacionario en covarianza si y solo si: a) Es estacionario en media. Procesos estoc´sticos estacionarios a En el an´lisis de series temporales el objetivo es utilizar la teor´ de procesos estoc´sticos para a ıa a determinar qu´ proceso estoc´stico ha sido capaz de generar la serie temporal bajo estudio con el e a fin de caracterizar el comportamiento de la serie y predecir en el futuro. Yt2 +k . t2 . o 2.

1. un comportamiento o estacionario. en primer lugar. . En las figuras del gr´fico 2. . Si un proceso estoc´stico es estacionario en covarianza y su distribuci´n es Normal. independientemente del momento concreto de e e tiempo al que est´n referidas e cov(Yt Ys ) = E[Yt − µ][Ys − µ] = γ|t−s| = γk < ∞. luego no seria estacionaria en varianza. Funci´n de autocovarianzas y de autocorrelaci´n o o En principio. por lo tanto. estacionalidades. ∀k Por lo tanto. Se puede concluir. o 14 . un proceso estoc´stico es estacionario en covarianza si y solo si: a (1) E(Yt ) = µ < ∞ 2 V (Yt ) = σY < ∞ t = s γ|t−s| = γk < ∞ t = s (2) Cov(Yt Ys ) = Un proceso estoc´stico estacionario en covarianza est´ caracterizado si se conoce: a a µ. como la serie de Renta Nacional crece sistem´ticamente a a o como la serie de N´mero de parados cambia constantemente de nivel. Yt . Sin embargo. k = ±1. u En ambos casos no se puede sostener el supuesto de que la media de todas las variables de los procesos que han generado estas series sea la misma. para luego pasar a analizar c´mo se puede a o generalizar este tipo de modelos para incluir comportamientos no estacionarios del tipo observado en las series econ´micas. La serie de Recaudaci´n de pel´ o ıculas parece oscilar en torno a una media constante y. si se considera el proceso estoc´stico te´rico.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a disten k periodos de tiempo es la misma que existe entre cualesquiera otras dos variables que est´n separadas tambi´n k periodos. en general. . por lo que conviene definir una funci´n que las agrupe a todas. La serie de Ingresos por turismo tampoco refleja un comportamiento estacionario en media no s´lo por su crecimiento a largo plazo sino por la presencia de la estacionalidad que hace o que el comportamiento promedio de cada mes sea diferente.3. por lo que no son estacionarias en media. o 2. que comienza en alg´n momento a o u del pasado lejano y acaba en un futuro indeterminado se pueden calcular un n´mero indefinido u de autocovarianzas. a pesar de ser mensual. La pregunta relevante ahora es si las series econ´micas presentan. tendencias crecientes. Una simple inspecci´n visual de muchas series temporales econ´micas. que la mayor´ de las series econ´micas no van a presentar ıa o comportamientos estacionarios. De todas formas. ±2. creciendo y decreciendo. permite o o comprobar que presentan cambios de nivel. se proceder´ a proponer modelos para los a procesos estoc´sticos estacionarios. por ejemplo. tampoco presenta un comportamiento estacionario dado que se puede observar que la variabilidad de la serie no es la misma para todo el periodo muestral. no tiene comportamiento estacional. es estacioa o nario en sentido estricto. V (Yt ) y γk . .1 se observa.

a por lo que. Caracter´ ısticas de la funci´n de autocovarianzas: o • Incluye la varianza del proceso para k = 0: γ0 = E[Yt − µ][Yt − µ] = V (Yt ) • Es una funci´n sim´trica: γk = E[Yt − µ][Yt+k − µ] = E[Yt − µ][Yt−k − µ] = γ−k o e La funci´n de autocovarianzas de un proceso estoc´stico recoge toda la informaci´n sobre la o a o estructura din´mica lineal del mismo. . k = 0. en general. 2. Pero depende de las unidades de medida de la variable. . 1. 3. .An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 Gr´fico 2. se suele utilizar la funci´n de autocorrelaci´n. o o 15 20 00 M 01 20 00 M 04 20 00 M 07 20 00 M 10 20 01 M 01 20 01 M 04 20 01 M 07 20 01 M 10 20 02 M 01 20 02 M 04 20 02 M 07 20 02 M 10 20 03 M 01 20 03 M 04 20 03 M 07 20 03 M 10 20 04 M 01 20 04 M 04 20 04 M 07 20 04 M 10 20 05 M 01 20 05 M 04 20 05 M 07 20 05 M 10 20 06 M 01 20 06 M 04 20 06 M 07 20 06 M 10 20 07 M 01 20 07 M 2 0 04 07 M 07 20 07 M 10 20 08 M 01 20 08 M 04 20 08 M 07 0 salucílep ed nóicaduaceR )adazilanoicatsesed( 72EU lanoicaN atneR 5000000 4000000 3000000 2000000 1000000 0 sodarap ed oremúN .1: Series temporales econ´micas a o omsirut rop sosergnI 1990M01 1990M06 1990M11 1991M04 1991M09 1992M02 1992M07 1992M12 1993M05 1993M10 1994M03 1994M08 1995M01 1995M06 1995M11 1996M04 1996M09 1997M02 1997M07 1997M12 1998M05 1998M10 1999M03 1999M08 2000M01 2000M06 2000M11 2001M04 2001M09 2002M02 2002M07 2002M12 2003M05 2003M10 2004M03 2004M08 2005M01 2005M06 2005M11 2006M04 2006M09 2007M02 2007M07 2007M12 2008M05 1200000 1100000 1000000 900000 800000 700000 600000 III III III III III III III III III III III III 8T 0T 2T 4T 6T 7T 6T 9T 5T 7T 5T 1T 8T 3T 3T 9T 5T 6T 7T 4T 5T 6T 0T 2T 7T 8T 1T 20 0 20 0 20 0 20 0 19 9 19 9 19 9 19 9 19 9 20 0 20 0 20 0 20 0 19 9 20 0 20 0 19 9 20 0 20 0 20 0 19 9 19 9 19 9 20 0 20 0 20 0 20 0 20 0 8T III III I I I I I I I I I I I I I I 70000 200 60000 150 50000 100 40000 50 30000 20000 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 Funci´n de autocovarianzas (FACV) o La funci´n de autocovarianzas de un proceso estoc´stico estacionario es una funci´n de k (n´mero o a o u de periodos de separaci´n entre las variables) que recoge el conjunto de las autocovarianzas del o proceso y se denota por: γk . .

0 2 4 6 8 10 12 14 16 18 K 20 Las caracter´ ısticas de la funci´n de autocorrelaci´n de un proceso estoc´stico estacionario: o o a • El coeficiente de autocorrelaci´n de orden 0 es. . a menudo.2: Funciones de autocorrelaci´n a o 1. Por eso.5 1. k = o 0. La funci´n de autocorrelaci´n se suele representar gr´ficamente por medio de o o a un gr´fico de barras denominado correlograma.0 0.SARRIKO-ON 4/09 Funci´n de autocorrelaci´n (FAC) o o An´lisis de Series Temporales: modelos ARIMA a El coeficiente de autocorrelaci´n de orden k de un proceso estoc´stico estacionario mide el grado o a de asociaci´n lineal existente entre dos variables aleatorias del proceso separadas k periodos: o ρk = cov(Yt Yt+k ) γk γk = =√ γ0 γ0 γ0 V (Yt ) V (Yt+k ) Por ser un coeficiente de correlaci´n. .0 a) 0. no se o o le incluye expl´ ıcitamente en la funci´n de autocorrelaci´n. 2..0 2 1.0 2 1.5 d) 0.0 -0.0 4 6 8 10 12 14 16 18 20 -1.0 b) 0. ∀k. no depende de unidades y |ρk | ≤ 1. o La funci´n de autocorrelaci´n de un proceso estoc´stico estacionario es una funci´n de k que o o a o recoge el conjunto de los coeficientes de autocorrelaci´n del proceso y se denota por ρk .5 K -1.0 -0. o o ρ0 = 16 γ0 =1 γ0 .0 2 4 6 8 10 12 14 16 18 20 -1. .0 0. a Gr´fico 2.0 4 6 8 10 12 14 16 18 K 20 c) 0. 3.5 0. 1. .5 -0. por definici´n.5 0.5 -0. 1.5 K -1.

. como m´ximo se pueden estimar T − 1 coeficientes de autocorrelaci´n. . cuando se dispone de una serie temporal finita de tama˜o o n T . .An´lisis de Series Temporales: modelos ARIMA a γ SARRIKO-ON 4/09 −k • Es una funci´n sim´trica: ρk = γk = γ0 = ρ−k . k = 0. Por ello. . . . Si el proceso o que ha generado la serie (Y1 . 2. Son. 2. 2.2 muestran 4 correlogramas a a correspondientes a diferentes series temporales. 3. por lo que no corresponden a una serie estacionaria. correlogramas correspondientes a series estacionarias. Estimaci´n de los momentos o Los momentos poblacionales de un proceso estoc´stico estacionario se estiman a trav´s de los a e correspondientes momentos muestrales. Para caracterizar un proceso estoc´stico estacionario por sus momentos existen dos opciones: a a) Media y funci´n de autocovarianzas: o µ γk . . 1. . o o La estimaci´n de los momentos poblacionales de un proceso estoc´stico proporciona otra raz´n o a o por la que es necesario imponer la restricci´n de estacionariedad de un proceso. Por el contrario. . a o a se van a estimar muchos menos.3. . . de forma o lineal. µ γ0 ρk . . . en la pr´ctica. ser´ preciso estimar T medias ıa 17 . en el correlograma se representa o e γ0 la funci´n de autocorrelaci´n solamente para los valores positivos del retardo k. Los gr´ficos de la figura 2. k = 1. b) y c) decrecen r´pidaa mente hacia cero conforme aumenta k: exponencialmente en los casos a) y b) y trunc´ndose a en el caso c). 3. Se recomienda un m´ximo de T /3 . . . Esto es debido a que cuanto a mayor sea k menos informaci´n hay para estimar ρk y la calidad de la estimaci´n es menor. pero. . ˆ ¯ ¯ (Yt − Y ) (Yt+k − Y ). Los correlogramas a). varianza y funci´n de autocorrelaci´n: o o 2. o o • La funci´n de autocorrelaci´n de un proceso estoc´stico estacionario tiende a cero r´pidao o a a mente cuando k tiende a ∞. por lo tanto. K k = 1. Y2 . La funci´n de autocorrelaci´n va a ser el principal instrumento utilizado para recoger la eso o tructura din´mica lineal del modelo. . b) Media.2. k = 1. los coeficientes de autocorrelaci´n del correlograma d) decrecen lentamente. 2. T ¯ a) Media: µ = Y = ˆ 1 T t=1 Yt T ˆ b) Varianza: γ0 ˆ = V (Y ) = 1 T t=1 ¯ (Yt − Y )2 T −k o ˆ c) Funci´n de Autocovarianzas: γk = d) Funci´n de Autocorrelaci´n: ρk = o o ˆ 1 T t=1 γk ˆ γ0 . YT ) no fuera estacionario. . K Aunque para el proceso estoc´stico te´rico se cuenta con un n´mero indefinido de autocovariana o u zas y coeficientes de autocorrelaci´n.

k > 0 Gr´fico 2. ∀t Cov(at as ) = 0. T varianzas diferentes. k = 0 y y funci´n de autocorrelaci´n (FAC): o o γk = 1. M observaciones m´s. M varianzas m´s. el proceso o ruido blanco es muy util en el an´lisis de series temporales porque es la base para la construcci´n ´ a o de los modelos ARIM A(p. q). etc.: E(at ) = 0. o Dado que la caracter´ ıstica fundamental de las series temporales es la dependencia temporal entre sus observaciones. por ejemplo. d. es estacionario si la varianza σ 2 es finita con ı. µt . La soluci´n habitual a este tipo de problema o es buscar m´s datos pero. Se denotar´ habituala mente por at . como corresponde a la ausencia de correlaci´n en el tiempo entre sus observaciones. varianza constante y covarianzas nulas. at ∼ RBN (0. ±2. k > 0 γk = 0. σ 2 ) . Proceso Ruido Blanco El proceso estoc´stico m´s sencillo es el denominado Ruido Blanco que es una secuencia de a a variables aleatorias de media cero. Si a o a conseguimos una serie temporal m´s larga. y un gran n´mero de autocorrelaciones. . 1). 18 .4. o 2. De todas formas. ∀t V (at ) = σ 2 . . con lo cual estar´ a a ıamos en la misma situaci´n. tendr´ a a ıamos que estimar M medias m´s. funci´n de autocovarianzas (FACV): o γk = σ 2 . . sin ning´n patr´n de comporo u o tamiento. at ∼ RB(0. Se observa que la serie simulada oscila en torno a un nivel constante nulo con una dispersi´n constante y de forma aleatoria. ±1.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a 2 diferentes. t = 0. esta soluci´n no es v´lida. en el caso de las series temporales. lo que no es u posible contando con T observaciones solamente. σt .3: Realizaci´n de un proceso Ruido Blanco a o 3 2 1 0 -1 -2 -3 1020 1040 1060 1080 1100 1120 1140 El gr´fico 2. por lo que no es de esperar que muchas series econ´micas presenten un o comportamiento que responda a una ausencia de correlaci´n temporal en el sentido de que lo o que ocurre hoy no tiene relaci´n lineal con lo sucedido en el pasado. k = 0 y γk = 0.3 muestra una realizaci´n de tama˜o 150 de un proceso ruido blanco normal con a o n varianza unidad. ∀t = s As´ un proceso ruido blanco.

La innovaci´n respecto al cono junto de informaci´n con el que se construye el modelo. La parte sistem´tica es la parte predecible con el conjunto de informaci´n que se utiliza para a o construir el modelo. Dado que el objetivo es explicar el ıa o valor que toma en el momento t una variable econ´mica que presenta dependencia temporal. . Yt−2 . una o forma de trabajar es recoger informaci´n sobre el pasado de la variable. y otra parte puramente aleatoria. es decir. . un modelo te´rico capaz de describir su comportamiento ser´ o ıa: Yt = f (Yt−1 . o parte sistem´tica. es una parte aleatoria en la que sus o valores no tienen ninguna relaci´n o dependencia entre s´ La innovaci´n en el momento t no o ı. se trata de utilizar o o la informaci´n de estas funciones para extraer un patr´n sistem´tico y. Y2 .1. o a denominada tambi´n innovaci´n: e o Yt = P St + at t = 1. A la a o hora de construir un modelo estad´ ıstico para una variable econ´mica. La estructura de o dependencia temporal de un proceso estoc´stico est´ recogida en la funci´n de autocovarianzas a a o (FACV) y/o en la funci´n de autocorrelaci´n (FAC). YT . . o est´ relacionada. 2. Este procedimiento se har´ operativo mediante los modelos ARMA que son una aproximaci´n a la a o estructura te´rica general. o En un modelo de series temporales univariante se descompone la serie Yt en dos partes. . a partir de ´ste. .Cap´ ıtulo 3 Modelos lineales estacionarios 3. es decir. por lo tanto. Modelo Lineal General La metodolog´ de la modelizaci´n univariante es sencilla. ni con las innovaciones anteriores ni con las posteriores. el problema es formular o la parte sistem´tica de tal manera que el elemento residual sea una innovaci´n. observar su evoluci´n o o en el tiempo y explotar el patr´n de regularidad que muestran los datos. 19 . . ni con a la parte sistem´tica del modelo.) + at t = 1. . . En este contexto. una que recoge el patr´n de regularidad. Dada una serie temporal de media cero. . un o o a e modelo que reproduzca el comportamiento de la serie y se pueda utilizar para predecir. . como el valor de Y en el momento t depende de su pasado. . donde se exige que el comportamiento de Yt sea funci´n de sus valores pasados. su predicci´n es siempre cero. un ruido blanco. Es impredecible. en el mundo a o Normal. . posiblemente o infinitos. 2. la serie temporal Y1 . Yt−3 .

. es decir. es decir. el valor Yt se puede representar como la combinaci´n lineal del ruido blanco at y su o pasado infinito. . ) Yt = at −→ Π∞ (L) Yt = at Otra forma alternativa de escribir el modelo (3. + at Las condiciones generales que ha de cumplir el proceso son: a) Que el proceso sea no anticipante. . luego el valor de Y en el momento t no puede depender de valores futuros de Y o de las innovaciones a.1) se puede escribir de forma m´s compacta en t´rminos del operador de retardos: a e Yt = (π1 L + π2 L2 + . . Esta condici´n se cumple si los par´metros del modelo o a general (3. la influencia de la innovaci´n at−k va desapareciendo conforme se aleja en el o pasado.1) es: Yt = 1 at = Ψ∞ (L) at = (1 + ψ1 L + ψ2 L2 + . . . 20 . . . que el presente dependa de forma convergente de su propio pasado lo que implica que la influencia de Yt−k en Yt ha de ir disminuyendo conforme nos alejemos en el pasado. 2. . en el caso de los procesos estacionarios con distribuci´n normal y o media cero. b) Que el proceso sea invertible. . . .1) El modelo (3. Es decir. (3.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Dentro de los procesos estoc´sticos estacionarios se considerar´ unicamente la clase de procesos a a´ lineales que se caracterizan porque se pueden representar como una combinaci´n lineal de vao riables aleatorias. . .2) Yt = at + ψ1 at−1 + ψ2 at−2 + ψ3 at−3 + . la teor´ de procesos estoc´sticos se˜ala que. 2. Yt se ıa a n puede expresar como combinaci´n lineal de los valores pasados infinitos de Y m´s una innovaci´n o a o ruido blanco: Yt = π1 Yt−1 + π2 Yt−2 + π3 Yt−3 + . que el presente no venga determinado por el futuro. El modelo (3. ) at Π∞ (L) t = 1. De hecho. es decir. (3. bajo condiciones muy generales. ) Yt + at −→ (1 − π1 L − π2 L2 − . . .1) cumplen la siguiente restricci´n: o ∞ 2 πi < ∞ i=1 ∀t t = 1.2) cumple la condici´n de estacionariedad si los par´metros del o a modelo satisfacen la siguiente restricci´n: o ∞ 2 ψi < ∞ i=1 Esta restricci´n implica que el valor presente depende de forma convergente de las innovaciones o pasadas.

el valor de Yt depende del pasado de Y hasta el momento t − p (parte autorregresiva). o sea que el modelo sea no anticipante e invertible. + φp Yt−p parte autorregresiva + at − θ1 at−1 − θ2 at−2 − . Acudiendo a la u a teor´ de polinomios. los modelos no van a poder expresar a dependencias infinitas sin restricciones sino que tendr´n que especificar una dependencia en a el tiempo acotada y con restricciones. M A(∞): el valor presente de la vao o riable se representa en funci´n de todas las innovaciones presente y pasadas.1). . − φp Lp θq (L) = 1 − θ1 L − θ2 L2 − .An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 Tanto la representaci´n (3. Como en la pr´ctica se va a trabajar con series finitas. − θq Lq Sustituyendo en el modelo (3. AR(∞): el valor presente de la variable o se representa en funci´n de su propio pasado m´s una innovaci´n contempor´nea. todas igualmente v´lidas a bajo los supuestos se˜alados: n • Representaci´n puramente autorregresiva (3. . respectivamente: φp (L) = 1 − φ1 L − φ2 L2 − . de la innovaci´n contempor´nea y su pasado hasta el momento o a 21 . se puede aproximar un polinomio de orden ıa infinito mediante un cociente de polinomios finitos: Π∞ (L) φp (L) θq (L) donde φp (L) y θq (L) son polinomios en el operador de retardos finitos de orden p y q . . . o a o a • Representaci´n puramente de medias m´viles (3. − θq at−q parte medias m´viles o En este modelo finito. . Ser´ necesario simplificar las formulaciones del modelo a general (3.1). se obtiene: Π∞ (L) Yt φp (L) Yt = at θq (L) → φp (L) Yt = θq (L) at Por lo tanto.2). . . − φp Lp ) Yt = (1 − θ1 L − θ2 L2 − . . el modelo lineal general admite tres representaciones.1) como la (3. o • Representaci´n finita: o φp (L) Yt = θq (L) at (1 − φ1 L − φ2 L2 − . − θq Lq ) at Yt = φ1 Yt−1 + φ2 Yt−2 + . .2) son igualmente v´lidas para los procesos estoc´sticos o a a estacionarios siempre que se cumplan las dos condiciones antes mencionadas.1) y/o (3. .2) de forma que tengan un n´mero finito de par´metros. . . bajo condiciones muy generales.

. hay que utilizar necesariamente la formulaci´n finita. es decir. 3. Si el modelo no es conocido y hay que especificarlo y estimarlo a partir de una serie temporal concreta. . . . el polinomio autoo o rregresivo es de orden 0: Yt ∼ AR(p) → Yt = at − θ1 at−1 − θ2 at−2 − . at : o a Yt = φ Yt−1 + at t = 1. AR(p) es una aproximaci´n natural al modelo lineal o general (3. + φp Yt−p + at • M A(q). σ 2 ) (3. q).2). comenzaremos por el modelo autorregresivo de orden 1. En el proceso AR(1) la variable Yt viene determinada unicamente por su valor pasado. Proceso AR(1). Ejercicio 3. Es preciso ser conscientes de que estamos tratando de modelar una realidad compleja y el objetivo es lograr un modelo parsimonioso y suficientemente preciso que represente adecuadamente las caracter´ ısticas de la serie recogidas fundamentalmente en la funci´n de autocorrelaci´n. Dos casos particulares del modelo ARM A(p. q). 2. .SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a t − q (parte medias m´viles). 3. es decir. AR(1). Procesos autorregresivos: AR(p).3) . El modelo autorregresivo finito de orden p. 2. q) de gran inter´s son: e • AR(p). . Para estudiar sus caracter´ ısticas. Este modelo se denomina Autorregresivo de Medias M´viles o o de orden (p.2. + φp Yt−p + at t = 1. y se denota por ARM A(p. Comenzaremos por caracterizar sus funciones de autocorrelaci´n para o conocer sus propiedades y posteriormente utilizarlos para modelar series y predecir. Esta formulaci´n finita es una representaci´n m´s restringida que las representaciones o o a generales (3. . Modelo que s´lo presenta parte medias m´viles. el polinomio de medias o m´viles es de orden 0: o Yt ∼ AR(p) → Yt = φ1 Yt−1 + φ2 Yt−2 + .1)-(3.1. Los modelos ARM A(p. . AR(p) y M A(q) son aproximaciones al o o modelo lineal general. . q).1). y ´ la perturbaci´n contempor´nea. Modelo que s´lo presenta parte autorregresiva. Deriva el modelo finito a partir del modelo (3. − θq at−q Cuando el modelo es conocido se puede utilizar cualquiera de las tres representaciones dependiendo de los intereses. 22 at ∼ RB(0. .2. . Se obtiene un modelo finito simplemente truncando el modelo general: Yt = φ1 Yt−1 + φ2 Yt−2 + .2).1. o Cuando se construye un modelo de series temporales univariante el objetivo no es conseguir el “verdadero” modelo. Yt−1 . .

Yt−2 → Yt−1 → Yt → Yt+1 → Yt+2 ↑ ↑ ↑ ↑ ↑ at−1 at at+1 at+2 . es decir. varianza constante y finita. Recu´rdese adem´s que suponemos que el proceso es no anticipante. pero no en su pasado Para demostrar si el modelo AR(1) es estacionario para cualquier valor del par´metro φ es a preciso comprobar las condiciones de estacionariedad. para que el proceso sea estacionario es necesario que el par´metro φ = 1 . es necesario que |φ| < 1 .. a b) Estacionario en covarianza: Para que el proceso sea estacionario. . . la media ha de ser constante y finita . . at−2 . E(Yt−1 )2 = V (Yt−1 ) = V (Yt ) = γ0 por lo que: γ 0 = φ γ0 + σ 2 −→ (1 − φ2 ) γ0 = σ 2 −→ γ0 = σ2 1 − φ2 Para que el proceso sea estacionario. . la perturbaci´n at entra en el sistema en el momento t e influyendo en Yt y en su futuro. la varianza ha de ser constante y finita: γ0 = E(Yt − E(Yt ))2 = E(φ Yt−1 + at − 0)2 = = φ2 E(Yt−1 )2 + E(at )2 + 2 φ E(Yt−1 at ) = φ2 V (Yt−1 ) + σ 2 + 0 Dada la estructura de autocorrelaci´n del proceso o E(Yt−1 at ) = E[(Yt−1 − 0)(at − 0)] = cov(Yt−1 at ) = 0 Bajo el supuesto de que el proceso es estacionario.. el futuro no influye en el e a pasado. lo que implica: E(Yt ) = φ E(Yt ) −→ (1 − φ) E(Yt ) = 0 −→ E(Yt ) = 0 =0 1−φ Por lo tanto.. a) Estacionario en media: E(Yt ) = E(φ Yt−1 + at ) = φ E(Yt−1 ) Para que el proceso sea estacionario.. es decir. .An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 La estructura de correlaci´n temporal representada por el modelo AR(1) es como sigue: o . o 1. 1 23 .

. Dado que para procesos estacionarios el par´metro en valor absoluto es menor que la unidad. . . . que el proceso AR(1) es estacionario si y s´lo si |φ| < 1. . 2. la a funci´n de autocorrelaci´n decrece exponencialmente con k. . . . = φ γ0 = φ γ1 = φ γ2 . 3.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a En lo que se refiere a la funci´n de autocovarianzas. se va aproximando a cero o o conforme k → ∞ pero no llega nunca a valer cero. por lo tanto. Por lo que: ρk = φk k = 1. es decir. la autocovarianza de orden k es: o γk = E(Yt − E(Yt ))(Yt−k − E(Yt−k )) = E(Yt Yt−k ) = E[(φ Yt−1 + at ) Yt−k ] = φ E(Yt Yt−k ) + E(at Yt−k ) = φ γk−1 Por lo que: γ1 γ2 γ3 . . o La funci´n de autocovarianzas de un proceso AR(1) estacionario es: o    γk =   σ2 1 − φ2 φ γk−1 k=0 k>0 Los coeficientes de autocorrelaci´n de un proceso estacionario AR(1) son: o ρk = φ γk−1 γk = = φ ρk−1 γ0 γ0 La funci´n de autocorrelaci´n de un proceso AR(1) estacionario es: o o 1 φ ρk−1 k=0 k>0 ρk = Se puede demostrar f´cilmente que la FAC de un AR(1) es una funci´n exponencial: a o ρ1 = φ ρ0 = φ ρ2 = φ ρ1 = φ2 ρ3 = φ ρ2 = φ3 . y adem´s dependen unicamente de los periodos de e a ´ separaci´n entre las variables y no del tiempo. Por lo tanto. 24 . . la varianza es finita y el resto a de las autocovarianzas tambi´n lo son. . o Se puede concluir. = . si el par´metro autorregresivo es |φ| < 1 . por lo que el proceso es estacionario.

o por lo que s´lo se diferencian en el valor del par´metro autorregresivo. o a Ejercicio 3. . pero con rachas de observaciones por encima de o la media seguidas de rachas de observaciones por debajo de la media. 1 = 1 + φ L + φ2 L2 + φ3 L3 + φ4 L4 + .6 -0.2 0.4 -0.7 10 2 8 0 6 -2 4 -4 1010 1 2 1020 1030 1040 1050 1060 1070 1080 1090 1100 1110 1120 1130 1140 1150 1 1010 1020 1030 1040 1050 1060 1070 1080 1090 1100 1110 1120 1130 1140 1150 0. Este comportamiento por rachas de la serie ser´ m´s pronunciado o persistente cuanto m´s se acerque el par´metro φ a a a a a la unidad.8 0.1: Procesos Autorregresivos de orden 1: AR(1) a φ = 0. φ = −0. cruzando constantemente la media.6 0. Compara la evoluci´n de las realizaciones AR(1) del gr´fico 3.2.7 .An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 Gr´fico 3. o o pero con un comportamiento muy ruidoso.7 tiene todos los coeficientes de autocorrelaci´n positivos a o con decrecimiento exponencial.2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 -0. el correlograma presenta a un decrecimiento exponencial con coeficientes que alternan de signo. Ambas han sido simuladas en base a la misma realizaci´n del ruido blanco at . ¿Qu´ diferencias observas entre ellas? ¿A qu´ son debidas? a e e Una forma alternativa de escribir el modelo AR(1) es la siguiente: Yt = φ Yt−1 + at −→ (1 − φL) Yt = at −→ Yt = 1 at 1 − φL Como un cociente de polinomios es un polinomio infinito y.2 0 1 -0.1 con la del ruido blanco de la gr´fico 2.2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0 1 -0. La serie correspondiente a esta estructura de autocorrelaci´n oscila en torno a cero (su media) con una dispersi´n estable.8 -0.6 0.4 0. Para el proceso AR(1) de par´metro negativo. El correlograma del o a proceso AR(1) de par´metro φ = 0.8 0. en particular.8 -1 -1 Las figuras del gr´fico 3. .4 0.3.6 -0.1 muestran dos realizaciones de procesos AR(1) y sus correspondientes a correlogramas. 1 − φL 25 .4 -0.7 4 φ = -0. Como era de esperar esto supone una serie que oscila en torno a cero (su media) con una dispersi´n estable.

. o a El modelo (3. at ∼ RB(0.5) son las mismas que las del modelo (3. . o sino que tambi´n es una versi´n restringida del modelo general de medias m´viles (3.3) salvo por la media que no es nula.5) es estacionario s´ y solo s´ |φ| < 1. (3.3) se puede generalizar para representar procesos estoc´sticos estacionarios con a media distinta de cero: Yt = δ + φ Yt−1 + at t = 1. 2 δ 1−φ δ + at = δ + φ Yt−1 − + at = 1−φ 1−φ 1−φ + at δ δ δ δ −φ + φ Yt−1 − + at = φ Yt−1 − 1−φ 1−φ 1−φ 1−φ donde Yt∗ = Yt − E(Yt ) con E(Yt∗ ) = 0 V (Yt ) γk (Y ) = = E(Yt − E(Yt ))2 = E(Yt∗ )2 = E(Yt∗ − 0)2 = V (Yt∗ ) ∗ ∗ cov(Yt Yt+k ) = E(Yt − E(Yt ))(Yt+k − E(Yt )) = E(Yt∗ )(Yt+k ) = E(Yt∗ − 0)(Yt+k − 0) = γk (Y ∗ ) 26 . • Media: E(Yt ) = E(δ + φ Yt−1 + at ) = δ + φ E(Yt−1 ) Si el proceso es estacionario.5) Las caracter´ ısticas del modelo (3. Se puede demostrar que: ı ı • El modelo (3. la media es constante y: (1 − φ) E(Yt ) = δ −→ E(Yt ) = δ <∞ 1−φ • La funci´n de autocovarianzas y la funci´n de autocorrelaci´n son las mismas que las del o o o modelo (3.2). σ 2 ) (3.SARRIKO-ON 4/09 tenemos que: An´lisis de Series Temporales: modelos ARIMA a Yt = (1 + φ L + φ2 L2 + φ3 L3 + φ4 L4 + . . en la e o o que los infinitos coeficientes ψi dependen de un s´lo par´metro φ.1). el modelo AR(1).4) Por lo tanto.5): o Yt − E(Yt ) = δ + φ Yt−1 − E(Yt ) + at Yt − δ 1−φ = δ + φ Yt−1 − = Por lo que2 : ∗ Yt∗ = φ Yt−1 + at . . no solo es una versi´n restringida del modelo lineal general (3. 2.) at Yt = at + φ at−1 + φ2 at−2 + φ3 at−3 + φ4 at−4 + .3):  σ2   1 k=0 k=0 1 − φ2 γk = ρk =  φ ρk−1 k>0  φ γk−1 k>0 Esto es l´gico. . ya que si restamos la media la media a ambos lados del modelo (3. . .

. L2 = φ1 ± φ2 + 4 × φ2 1 −2 × φ2 1 − φ1 L − φ2 L2 = 0 27 . .1. φ2 . Condiciones de estacionariedad. expresa Yt en funci´n de su pasado hasta el retardo t − p o y una innovaci´n contempor´nea: o a Yt = φ1 Yt−1 + φ2 Yt−2 + . − φp Lp ) Yt = at −→ φp (L) Yt = at at ∼ RB(0. + φp Yt−p + at En t´rminos del operador de retardos. e (1 − φ1 L − φ2 L2 − . Teorema: Un proceso autorregresivo finito AR(p) es estacionario s´ y solo s´ el ı ı modulo de las ra´ del polinomio autorregresivo φp (L) est´ fuera del circulo unidad. .An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 3. ıces a Ejemplo 3. a En primer lugar es preciso comprobar si el proceso AR(p) cumple las condiciones de estacionariedad para cualquier valor de los par´metros. σ 2 ) t = 1.6) donde φp (L) recibe el nombre de polinomio autorregresivo y (φ1 . . se complica para modelos autorregresivos de orden mayor cuyos par´metros a han de satisfacer restricciones complejas para ser estacionarios. .2. (3. . . . El siguiente teorema proporciona condiciones necesarias y suficientes para que el modelo AR(p) sea estacionario. . El proceso autorregresivo de orden p. . .2. 2. Modelo AR(1): Yt = φ Yt−1 + at ⇒ (1 − φL) Yt = at Polinomio autorregresivo: Ra´ ıces: 1 − φL = 0 ⇒ φ1 (L) = 1 − φL L= 1 φ 1 >1 φ ⇒ |φ| < 1 Condici´n de estacionariedad: o |L| = Modelo AR(2): Yt = φ1 Yt−1 + φ2 Yt−2 + at ⇒ (1 − φ1 L − φ2 L2 ) Yt = at Polinomio autorregresivo: Ra´ ıces: φ2 (L) = 1 − φ1 L − φ2 L2 ⇒ L1 . φp ) es el vector de par´metros autorregresivos. Esta comprobaci´n que es relativamente sencilla para a o el modelo AR(1). Proceso AR(p).

6) es tambi´n una versi´n restringida del modelo e o lineal general (3. . las ra´ son reales y el modulo es el valor ıces 1 absoluto.SARRIKO-ON 4/09 Condici´n de estacionariedad: o |L1 | = φ1 + φ2 + 4 × φ2 1 >1 −2 × φ2 An´lisis de Series Temporales: modelos ARIMA a y |L2 | = φ1 − φ2 + 4 × φ2 1 >1 −2 × φ2 ¿C´mo se calcula el modulo de estas ra´ o ıces? .) at φp (L) Yt = at + ψ1 at−1 + ψ2 at−2 + ψ3 at−3 + .2).Si el radicando es positivo. ∀i > p . (φ2 + 4 × φ2 ) < 0 . φ2 . est´ escrito en forma autorregresiva. o Todo modelo autorregresivo finito. Las caracter´ ısticas del proceso estacionario AR(p) estacionario son: a) Media: E(Yt ) = E(φ1 Yt−1 + φ2 Yt−2 + . el modelo (3. . por definici´n. tambi´n e el AR(p) como aproximaci´n al mismo. . el modelo AR(p) se puede escribir como un medias a m´viles de orden infinito: o 1 φp (L) Yt = at → Yt = at = Ψ∞ (L) at = (1 + ψ1 L + ψ2 L2 + ψ3 L3 + . L2 = a ± b i y su modulo es igual a: |L1 | = |L2 | = a2 + b2 Las otras dos condiciones que tiene que cumplir el modelo lineal general y. . . AR(p). .6) es una versi´n restringida del modelo (3. cumple estas dos condiciones para cualquier valor de los par´metros autorregresivos ya que. las ra´ ıces son complejas de la forma 1 L1 . . . es no anticipante porque su formulaci´n hace depender al valor de Yt de su pasado y no o de su futuro y es invertible porque su formulaci´n finita hace que se cumpla obligatoriamente la o condici´n o ∞ 2 πi < ∞ i=1 El modelo AR(p) (3.1) ya que supone que todos los o par´metros πi = 0. Por otro lado. . (φ2 + 4 × φ2 ) > 0 . Es a o a decir. por lo tanto. .Si el radicando es negativo. φp ) . + φp E(Yt−p ) + E(at ) 28 . . donde los par´metros ψi est´n restringidos a depender del vector de par´metros autorregresivos a a a (φ1 . es que el modelo fuera no anticipante e invertible. + φp Yt−p + at ) = = φ1 E(Yt−1 ) + φ2 E(Yt−2 ) + . . . Por lo tanto.

An´lisis de Series Temporales: modelos ARIMA a Como el proceso es estacionario. . ρk . 2. . . + φp Yt−p + at tiene media: (1 − φ1 − φ2 − . .2. k = 0.7) Las caracter´ ısticas de este proceso son las siguientes: a) Media. . − φp b) La funci´n de autocorrelaci´n. Como el proceso es estacionario. . − φp ) E(Yt ) = δ → E(Yt ) = δ 1 − φ1 − φ2 − . 1. decrece exponencialmente hacia cero sin truncarse. de un proceso AR(p) tiene la misma o o estructura que la de un proceso AR(1). . . − φp ) E(Yt ) = 0 → SARRIKO-ON 4/09 E(Yt ) = 0 Este modelo se puede generalizar para representar series con media distinta de cero. Caracter´ ısticas del modelo AR(2). . . la media es constante: (1 − φ1 − φ2 ) E(Yt ) = 0 b) Funci´n de autocovarianzas: o γ0 = E(Yt − E(Yt ))2 = E(Yt )2 = E(φ1 Yt−1 + φ2 Yt−2 + at )2 = = φ2 E(Yt−1 )2 + φ2 E(Yt−2 )2 + E(at )2 + 2 φ1 φ2 E(Yt−1 Yt−2 ) + 1 2 + 2 φ1 E(Yt−1 at ) + 2 φ2 E(Yt−2 at ) = φ2 γ0 + φ2 γ0 + σ 2 + 2 φ1 φ2 γ1 1 2 → → (1 − φ2 − φ2 ) γ0 = σ 2 + 2 φ1 φ2 γ1 1 2 γ0 = σ 2 + 2 φ1 φ2 γ1 1 − φ2 − φ2 1 2 → E(Yt ) = 0 γ1 = E(Yt − E(Yt ))(Yt−1 − E(Yt−1 )) = E(Yt Yt−1 ) = = E[(φ1 Yt−1 + φ2 Yt−2 + at ) Yt−1 ] = = φ1 E(Yt−1 )2 + φ2 E(Yt−2 Yt−1 ) + E(at Yt−1 ) = φ1 γ0 + φ2 γ1 → γ1 = φ1 γ0 1 − φ2 29 . . σ 2 ) t = 1. para valores de p > 1 al ser el modelo m´s complejo. es decir. Consideremos el modelo autorregresivo de orden 2 estacionario: Yt = φ1 Yt−1 + φ2 Yt−2 + at at ∼ RB(0. e a a Ejemplo 3. la estructura a de la FAC es tambi´n m´s rica y puede presentar m´s variedad de formas. 2. . (3. El siguiente modelo AR(p): Yt = δ + φ1 Yt−1 + φ2 Yt−2 + . la media es constante: (1 − φ1 − φ2 − . . . Ahora bien.

2 muestra diferentes estructuras de funciones de autocorrelaci´n para modelos AR(2) a o estacionarios.8 El gr´fico 3.6 0.4 -0. ∀k > 1 son: γk = E(Yt − E(Yt ))(Yt−k − E(Yt−k )) = E(Yt Yt−k ) = = E[(φ1 Yt−1 + φ2 Yt−2 + at ) Yt−k ] = = φ1 E(Yt−1 Yt−k ) + φ2 E(Yt−2 Yt−k ) + E(at Yt−k ) = φ1 γk−1 + φ2 γk−2 La funci´n de autocovarianzas de un modelo AR(2) es. γ1 en funci´n de o 2 .4 -0. o   γ0   γ1 γk =    φ1 γk−1 + φ2 γk−2 c) Los coeficientes de autocorrelaci´n son: o ρk = γk φ1 γk−1 + φ2 γk−2 = = φ1 ρk−1 + φ2 ρk−2 γ0 γ0 k = 1.6 -0.8 -0.2 -0.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Estas dos ecuaciones proporcionan las dos primeras autocovarianzas. como para el modelo AR(1).8 0.4 0.2 -0.4 -0.6 0. .8 -1 -1 1 1 0.4 -0. Si las ra´ del polinomio autorregresivo ıces son complejas entonces la funci´n de autocorrelaci´n decrece exponencialmente hacia cero pero o o con forma de onda seno-coseno. .6 0.4 0.2 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 -0.6 0. γ0 . la varianza del ruido blanco. 2.6 -0.6 -0.8 -1 -1 30 . . por lo tanto: k=0 k=1 k>1 La funci´n de autocorrelaci´n de un modelo AR(2) es: o o ρk = 1 φ1 ρk−1 + φ2 ρk−2 k=0 k>0 Gr´fico 3.6 -0. φ2 ) y de σ a Las autocovarianzas. γk . 0.2 -0.4 0.2 -0. la funci´n de o autocorrelaci´n es una funci´n que decrece exponencialmente con todos los coeficientes positivos o o o con alternancia de signos. Cuando las ra´ ıces del polinomio autorregresivo φ2 (L) son reales. 3.2 0.4 0.2 0. los par´metros autorregresivos (φ1 .2: Procesos Autorregresivos de orden 2 a 1 1 0.8 0.8 0.8 -0.2 0 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 -0.

a b) Estacionario en covarianza: γ0 = E(Yt − E(Yt ))2 = E(Yt )2 = E(at − θ at−1 )2 = = E(at )2 + θ2 E(at−1 )2 − 2 θ E(at at−1 ) = σ 2 + θ2 σ 2 − 0 γ0 = (1 + θ2 ) σ 2 < ∞ 31 . at−2 Yt−1 ↑ at−1 Yt ↑ at Yt+1 ↑ at+1 Yt+2 ↑ at+2 ... influye en Yt y a o trav´s de Yt en las observaciones futuras. Esto es debido a que. Sin embargo. .1. como se puede observar en la estructura de correlaci´n temporal del modelo M A(1) representada en el o esquema siguiente. M A(q). σ 2 ) Para estudiar sus caracter´ ısticas.An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 3. . Se obtiene un modelo finito por el simple procedimiento de truncar el modelo de medias m´viles de orden infinito: o Yt = at − θ1 at−1 − θ2 at−2 − . en un proceso ´ autorregresivo la perturbaci´n at aparece en el sistema en el momento t . 2. . (3. permaneciendo su influencia en el sistema un periodo e m´s largo. es una aproximaci´n natural al modelo o o lineal general (3. . . . a a) Estacionario en media: E(Yt ) = E(at − θ at−1 ) = 0 Por tanto. a . Vamos a comprobar si el modelo M A(1) cumple las condiciones de estacionariedad para cualquier valor del par´metro θ. .3. el modelo M A(1) es estacionario en media para todo valor del par´metro θ. . σ 2 ) t = 1. 3. El modelo M A(1) determina el valor de Y en el momento t en funci´n de la innovaci´n contemo o por´nea y su primer retardo: a Yt = at − θ at−1 at ∼ RB(0. por lo que su memoria es de un solo periodo.8) Los procesos de medias m´viles se suelen denominar procesos de memoria corta. . mientras que o a los autorregresivos se les denomina procesos de memoria larga. M A(1). Procesos de Medias M´viles: MA(q).3. o El modelo de medias m´viles de orden finito q.2). la perturbaci´n at aparece en el sistema en el momento t e influye en Yt o e Yt+1 unicamente. Proceso MA(1). ... Yt−2 ↑ . comenzaremos por el m´s sencillo. − θq at−q at ∼ RB(0. el modelo medias m´viles a o de primer orden.

ρ1 . El gr´fico 3. γk . se puede concluir que no es necesario poner restricciones sobre el valor del par´metro θ para que el modelo M A(1) sea estacionario. k > 0: γ1 = E(Yt − E(Yt ))(Yt−1 − E(Yt−1 )) = E(at − θ at−1 )(at−1 − θ at−2 ) = = E(at at−1 ) − θ E(at−1 )2 − θ E(at at−2 ) + θ2 E(at−1 at−2 ) = − θ σ 2 < ∞ γ2 = E(Yt − E(Yt ))(Yt−2 − E(Yt−2 )) = E(at − θ at−1 )(at−2 − θ at−3 ) = = E(at at−2 ) − θ E(at−1 at−2 ) − θ E(at at−3 ) + θ2 E(at−1 at−3 ) = 0 La funci´n de autocovarianzas de un M A(1) es: o   γ0   γ1 γk =    γk = (1 + θ2 ) σ 2 = − θ σ2 =0 k=0 k=1 k>1 La funci´n de autocovarianzas es finita y depende s´lo de k y no del tiempo. para cualquier o o valor del par´metro θ. a Por lo tanto.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Es decir. Las autocovarianzas. se nota que ambas oscilan en torno a la media cero con una 32 .8 at−1 (b) Yt = at − 0. la varianza del modelo M A(1) es constante y finita para cualquier valor de θ.3 recoge dos realizaciones de los siguientes procesos M A(1) con sus funciones de a autocorrelaci´n correspondientes: o (a) Yt = at + 0. a La funci´n de autocorrelaci´n de un proceso M A(1) o o  1     −θ ρk =  1 + θ2    0 es: k=0 k=1 k>1 La funci´n de autocorrelaci´n de un proceso M A(1) se caracteriza por ser una funci´n truncada o o o que sufre un corte bruco tomando el valor cero a partir del retardo 1. es o o positivo o negativo dependiente del signo del par´metro de medias m´viles. El coeficiente de autocorrelaci´n. En cuanto a las a o series generadas con estos modelos.5 at−1 Se puede observar que ambas funciones de autocorrelaci´n se truncan en el primer retardo como o corresponde a un proceso medias m´viles de orden 1.

4 0. Escribiendo el modelo (3.3: Procesos Medias M´viles de orden 1: MA(1) a o θ = 0. a Los modelos lineales tienen que cumplir. se tiene que: Yt = (1 − θL) at → 1 Y t = at 1 − θL → Π∞ (L) Yt = at (1 − θL + θ2 L2 − θ3 L3 + . θ. es decir. . . .8 3 13 θ = -0.6 0.6 -0.4 0. Adem´s. .4 -0. o 33 .8 0.5 12 2 1 11 0 10 -1 9 -2 8 -3 1010 1 7 1020 1030 1040 1050 1060 1070 1080 1090 1100 1110 1120 1130 1140 1150 1 1010 1020 1030 1040 1050 1060 1070 1080 1090 1100 1110 1120 1130 1140 1150 0. los modelos de medias m´viles tambi´n se o o e pueden escribir de forma autorregresiva.) Yt = at Yt = at + θ Yt−1 − θ2 Yt−2 + θ3 Yt−3 + .An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 Gr´fico 3. Esta representaci´n AR(∞) es restringida ya que.2 0.8) en t´rminos del operador e de retardos. Estas condiciones se comprueban f´cilmente en modelos escritos de forma autorrea gresiva. un modelo de medias m´viles no parece estar o escrito de esta forma ya que Yt no depende directamente de las observaciones pasadas sino de la innovaci´n y de sus valores pasados. la representaci´n autorregresiva siempre es m´s intuitiva en el sentido de que a o a si el objetivo es predecir parece l´gico que el modelo relacione lo que sucede en el presente con lo o sucedido en el pasado de manera que las predicciones de futuras observaciones se construyan en base al pasado y presente observado. Para que el modelo M A(1) sea invertible es preciso que su representaci´n autorregresiva sea convergente. como se puede observar. ´ a o πi = (−θ)i .2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 -0.2 0 1 -0. las condiciones de ser modelos no anticipantes a e invertibles. El modelo M A(1) es no anticipante porque el futuro no influye en el pasado. adem´s. todos los par´metros o a autorregresivos dependen del unico par´metro de medias m´viles del modelo.8 0.8 -1 -1 varianza constante y que la serie generada por el modelo (a) con par´metro positivo es m´s a a suave que la generada por el modelo (b) con par´metro negativo. En principio.6 -0.8 -0.4 -0.6 0. como sigue.2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0 1 -0. Ahora bien.

a Bajo las condiciones de invertibilidad. a o la memoria aumenta y la estructura din´mica representada por el modelo es m´s rica. por lo que o si deseamos una representaci´n autorregresiva para el modelo. . θ2 . Esta condici´n se cumple si: o ∞ (−θi )2 < ∞ i=1 Para que se cumpla la condici´n anterior es necesario y suficiente que |θ| < 1 . . influye en Yt . Siempre vamos a utilizar modelos invertibles porque de esta forma siempre se puede expresar el valor contempor´neo de Yt en funci´n de su pasado observado. se puede escribir en forma autorregresiva.8). θq ) es el vector de o par´metros de medias m´viles. por lo tanto. y en valores posteriores hasta Yt+q . σ 2 ) (3.10) donde θq (L) se denomina polinomio de medias m´viles y (θ1 . − θq Lq ) at → Yt = θq (L) at at ∼ RB(0. Proceso MA(q). o 34 . . θ3 .8) se puede generalizar para representar procesos con media distinta de cero: Yt = δ + at − θ at−1 at ∼ RB(0. por lo que el o modelo M A(1) no es siempre invertible sino que hay que poner restricciones sobre el valor del par´metro θ.9) Este modelo tiene la misma funci´n de autocovarianzas y. .2). . en este caso. a o El modelo M A(q) es una generalizaci´n del modelo M A(1). ya que supone su truncamiento bajo el supuesto de que: ψi = 0 ∀i > q Este modelo expresa el valor de Yt en funci´n de la innovaci´n contempor´nea y de su pasado o o a hasta el retardo q: Yt = at − θ1 at−1 − θ2 at−2 − . . es la aproximaci´n natural al modelo lineal geneo o ral (3. a o El modelo (3.3. El modelo medias m´viles finito de orden q. en general. σ 2 ) (3. no hace falta empezar por un o AR(p). . al introducir m´s retardos de la perturbaci´n en el modelo.2. La unica diferencia es que su media es distinta de cero: ´ E(Yt ) = E[δ + at − θ at−1 ] = δ 3. que o o el modelo (3. en Yt+1 . Si una a a perturbaci´n entra en el momento t .SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a que se cumpla que la influencia de Yt−k va siendo menor conforme nos alejamos en el pasado. y cualquier modelo de medias m´viles. el modelo M A(1). |θ| < 1 . Ahora bien. de autocorrelaci´n. . − θq at−q En t´rminos del operador de retardos queda como sigue: e Yt = (1 − θ1 L − θ2 L2 − θ3 L3 − . por lo tanto sus caracter´ o ısticas van a ser muy similares.

An´lisis de Series Temporales: modelos ARIMA a

SARRIKO-ON 4/09

Por lo tanto, la perturbaci´n at en un modelo M A(q) permanece q periodos en el sistema. Esta o memoria m´s larga del M A(q) se ver´ reflejada en la estructura de la funci´n de autocovarianzas a a o y / o autocorrelaci´n. o Vamos a comprobar si el modelo M A(q) es estacionario para cualquier valor de los par´metros a de medias m´viles. Para ello ser´ preciso comprobar si se cumplen las condiciones de estacionao ıa riedad. Pero teniendo en cuenta que el modelo medias m´viles finito de orden q no es m´s que o a el resultado de truncar el modelo lineal general (3.2) a partir del retardo q , ser´ estacionario a bajo las mismas condiciones que el modelo general, es decir, si se cumple la condici´n de que la o sucesi´n de los par´metros del modelo es convergente: o a
∞ 2 ψi i=1 q

=
i=1

2 θi < ∞

Como el n´mero de par´metros de un M A(q) es finito, esta condici´n siempre se cumple y, por u a o lo tanto, todos los modelos de medias m´viles finitos son siempre estacionarios para cualquier o valor de sus par´metros. a El modelo de M A(q) (3.10) tiene media constante y cero, varianza constante y finita y su funci´n o de autocovarianzas est´ truncada a partir del retardo q, es decir, a ρk = ρk = 0 ρk = 0 k = 1, 2, . . . , q k>q

El modelo (3.10) se puede generalizar f´cilmente para representar modelos con media no nula: a Yt = δ + at − θ1 at−1 − θ2 at−2 − . . . − θq at−q at ∼ RB(0, σ 2 ) (3.11)

Ejemplo 3.3. Caracter´ ısticas del modelo M A(2). Consideremos el modelo de medias m´viles de orden 2: o Yt = at − θ1 at−1 − θ2 at−2 at ∼ RB(0, σ 2 )

Este proceso es estacionario para cualquier valor de θ1 , θ2 y sus caracter´ ısticas son: a) Media: E(Yt ) = E(at − θ1 at−1 − θ2 at−2 ) = 0

b) Funci´n de autocovarianzas, γk , k = 0, 1, 2, 3, . . .: o γ0 = E[Yt − E(Yt )]2 = E(Yt )2 = E(at − θ1 at−1 − θ2 at−2 )2 =
2 2 = E(at )2 + θ1 E(at−1 )2 + θ2 E(at−2 )2 − 2 θ1 E(at at−1 ) − 2 θ2 E(at at−2 ) + 2 2 2 2 + 2 θ1 θ2 E(at−1 at−2 ) = σ 2 + θ1 σ 2 + θ2 σ 2 = (1 + θ1 + θ2 ) σ 2

35

SARRIKO-ON 4/09

An´lisis de Series Temporales: modelos ARIMA a

γ1 = E[(Yt − E(Yt ))(Yt−1 − E(Yt ))] = E(Yt Yt−1 ) = = E[(at − θ1 at−1 − θ2 at−2 )(at−1 − θ1 at−2 − θ2 at−3 )] =
2 = E(at at−1 ) − θ1 E(at at−2 ) − θ2 E(at at−3 ) − θ1 E(at−1 )2 + θ1 E(at−1 at−2 ) + 2 + θ1 θ2 E(at−1 at−3 ) − θ2 E(at−1 at−2 ) + θ2 θ1 E(at−2 )2 + θ2 E(at−2 at−3 ) =

= −θ1 σ 2 + θ1 θ2 σ 2 = (−θ1 + θ1 θ2 ) σ 2 γ2 = E[(Yt − E(Yt ))(Yt−2 − E(Yt ))] = E(Yt Yt−2 ) = = E[(at − θ1 at−1 − θ2 at−2 )(at−2 − θ1 at−3 − θ2 at−4 )] = = E(at at−2 ) − θ1 E(at at−3 ) − θ2 E(at at−4 ) − θ1 E(at−1 at−2 ) +
2 + θ1 E(at−1 at−3 ) + θ1 θ2 E(at−1 at−4 ) − θ2 E(at−2 )2 + 2 + θ2 θ1 E(at−2 at−3 ) + θ2 E(at−2 at−4 ) = −θ2 σ 2

γ3 = E[(Yt − E(Yt ))(Yt−3 − E(Yt ))] = E(Yt Yt−3 ) = = E[(at − θ1 at−1 − θ2 at−2 )(at−3 − θ1 at−4 − θ2 at−5 )] = = E(at at−3 ) − θ1 E(at at−4 ) − θ2 E(at at−5 ) − θ1 E(at−1 at−3 ) +
2 + θ1 E(at−1 at−4 ) + θ1 θ2 E(at−1 at−5 ) − θ2 E(at−2 at−3 ) + 2 + θ2 θ1 E(at−2 at−4 ) + θ2 E(at−2 at−5 ) = 0

La funci´n de autocovarianzas de un M A(2) es: o  2 2  γ0 = (1 + θ1 + θ2 ) σ 2      γ1 = (−θ1 + θ1 θ2 ) σ 2 γk =  γ2 = − θ2 σ 2      γ =0 k La funci´n de autocorrelaci´n de un M A(2) es: o o  −θ1 + θ1 θ2  ρ  1 =  2 2  1 + θ1 + θ2   − θ2 ρk =  ρ2 = 2 2  1 + θ1 + θ2     ρk = 0

k=0 k=1 k=2 k>2

k=1 k=2 k>2

La FAC de un proceso M A(2) es una funci´n truncada en el retardo 2. Los coeficientes de o autocorrelaci´n, ρ1 , ρ2 , pueden ser positivos, negativos, o de distinto signo dependendiendo de o 36

1

1

0,8

0,8

0,6

0,6

0,4

0,4

An´lisis de Series Temporales: modelos ARIMA a
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

0,2

0,2

0
1 2 3 4 5 6 7 8 9 10 11 12

13

SARRIKO-ON 4/09
14 15 16 17 18 19 20

-0,2

-0,2

-0,4

-0,4

-0,6

-0,6

-0,8

-1

Gr´fico 3.4: Procesos Medias M´viles de orden 2: MA(2) a o
-1 1 0,8

-0,8

1

0,8

0,6

0,6

0,4

0,4

0,2

0,2

0 1 -0,2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

0 1 -0,2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

-0,4

-0,4

-0,6

-0,6

-0,8

-0,8

-1

-1

los valores de los par´metros autorregresivos. El gr´fico 3.4 muestra dos ejemplos de FAC de un a a M A(2). El modelo M A(q) (3.11) tiene tambi´n una representaci´n AR(∞) restringida: e o Yt = (1 − θ L − θ2 L2 − . . . − θq Lq ) at → → → 1 Yt = at 1 − θ L − θ2 L2 − . . . − θq Lq Π∞ (L) Yt = at → (1 + π1 L + π2 L2 + π3 L3 + . . .) Yt = at

Yt = at − π1 Yt−1 + π2 Yt−2 + π3 Yt−3 + . . .

Esta representaci´n AR(∞) es restringida ya que todos los par´metros autorregresivos, πi , o a dependen del vector de par´metros de medias m´viles del modelo (θ1 , θ2 , . . . , θq ) . a o El modelo M A(q) es no anticipante porque el futuro no influye en el pasado y ser´ invertible si a su representaci´n autorregresiva es tal que la influencia de Yt−k es menor conforme nos alejamos o en el pasado. Esta condici´n se cumple si: o
∞ 2 πi < ∞ i=1

Por lo tanto, el modelo M A(q) no es invertible para cualquier valor del vector de par´metros de a medias m´viles, sino que estos tendr´n que cumplir algunas restricciones. Derivar estas restrico a ciones fue muy sencillo para el M A(1), pero se complica mucho al aumentar el orden del modelo de medias m´viles. El siguiente teorema proporciona condiciones necesarias y suficientes para el o un modelo de medias m´viles sea invertible. o Teorema: Un proceso de medias m´viles finito M A(q) es invertible s´ y solo s´ el o ı ı modulo de las ra´ ıces del polinomio de medias m´viles θq (L) est´ fuera del circulo o a unidad.

37

L2 = θ1 ± 2 θ1 + 4 × θ2 −2 × θ2 Condici´n de invertibilidad: o |L1 | = θ1 + 2 θ1 + 4 × φ2 >1 −2 × θ2 y |L2 | = θ1 − 2 θ1 + 4 × θ2 >1 −2 × θ2 Ejercicio 3. σ 2 ) (3. si es estacionario su representaci´n M A(∞) es o Yt = θq (L) at φp (L) → Yt = ψ∞ (L) at → Yt = at + ψ1 at−1 + ψ2 at−2 + ψ3 at−3 + . De hecho.12) Este modelo se puede escribir en t´rminos del operador de retardos como sigue: e (1 − φ1 L − .SARRIKO-ON 4/09 Ejemplo 3. . Modelo M A(1): Yt = at − θ at−1 ⇒ An´lisis de Series Temporales: modelos ARIMA a Yt = (1 − θL) at Polinomio medias m´viles: o Ra´ ıces: 1 − θL = 0 ⇒ θ1 (L) = 1 − θL L= 1 θ 1 >1 θ ⇒ |θ| < 1 Condici´n de invertibilidad: o |L| = Modelo M A(2): Yt = at − θ1 at−1 − θ2 at−2 ⇒ Yt = (1 − θ1 L − θ2 L2 ) at Polinomio de medias m´viles: o Ra´ ıces: 1 − θ1 L − θ2 L2 = 0 θ2 (L) = 1 − θ1 L − θ2 L2 ⇒ L1 . . . .1) como M A(∞) (3. + φp Yt−p + at + θ1 at−1 + . o Los procesos autorregresivos de medias m´viles determinan Yt en funci´n de su pasado hasta el o o retardo p. 38 .4. Condiciones de invertibilidad. .q). .3. . − θq Lq ) at φp (L) Yt = θq (L) at donde φp (L) es el polinomio autorregresivo y θq (L) es el polinomio medias m´viles. 3.11). de la innovaci´n contempor´nea y el pasado de la innovaci´n hasta el retardo q: o a o Yt = φ1 Yt−1 + . − φp Lp ) Yt = (1 − θ1 L − . Procesos Autorregresivos de Medias M´viles: ARMA(p. o El modelo (3. .4. Calcula la media y la varianza del modelo (3. .12) es una aproximaci´n finita al modelo lineal general tanto en su forma AR(∞) o (3. .2). + θq at−q at ∼ RB(0.

. a Ejemplo 3... a ¿Es estacionario el modelo ARM A(p. → Yt−2 → Yt−1 → Yt → Yt+1 → Yt+2 → . . 2. la innovaci´n contempor´nea y el pasado de la innovaci´n hasta el retardo 1: o a o Yt = φ Yt−1 + at − θ at−1 at ∼ RB(0. φp . q) va a compartir las caracter´ ısticas de los modelos AR(p) y M A(q) ya que contiene ambas estructuras a la vez. El modelo ARM A(p. q) es invero tible s´ y solo s´ el modulo de las ra´ del polinomio medias m´viles φp (L) est´ fuera ı ı ıces o a del circulo unidad. est´n restringidos o a a depender del vector finito de par´metros ARMA: φ1 . . o Para comprobar si el modelo ARM A(p. . a Las condiciones de estacionariedad del modelo ARM A(p. . 1) en el Yt se determina en funci´n de su pasado hasta el o primer retardo. . . at−2 at−1 at at+1 at+2 . Tanto los pesos de la representaci´n M A infinita.13) La estructura de dependencia temporal representada por este modelo es: .An´lisis de Series Temporales: modelos ARIMA a y si es invertible una representaci´n AR(∞) o φp (L) Yt = at θp (L) → π∞ (L) Yt = at → SARRIKO-ON 4/09 Yt = at + π1 Yt−1 + π2 Yt−2 + π3 Yt−3 + .. varianza constante y finita y una funci´n de autocovarianzas infinita. . θ1 . . q) vienen impuestas por la parte de medias m´viles. q) para cualquier valor de sus par´metros? a Teorema: Un proceso autorregresivo de medias m´viles finito ARM A(p. . . θq . dado que la parte autorregresiva finita siempre es invertible porque est´ direco a tamente escrita en forma autorregresiva El modelo ARM A(p. se estudia su representaci´n autorregresiva general. como de la forma AR infinita. . q) vienen impuestas por la parte autorregresiva. σ 2 ) t = 1. θ2 . o Teorema: Un proceso autorregresivo de medias m´viles finito ARM A(p. La funci´n de autocorrelaci´n es o o o infinita decreciendo r´pidamente hacia cero pero sin truncarse. dado que la parte de medias m´viles finita siempre es estacionaria. . q) tiene media cero. ↑ ↑ ↑ ↑ ↑ . 39 .. q) es eso tacionario s´ y solo s´ el modulo de las ra´ ı ı ıces del polinomio autorregresivo φp (L) est´ fuera del circulo unidad. .. Consideremos el modelo ARM A(1. . 1). . φ2 . q) es no anticipante e invertible . Modelo ARM A(1.5. (3. Las condiciones de invertibilidad del modelo ARM A(p.

hay que tener en cuenta que: E(Yt−1 at−1 ) = E[(φ Yt−2 + at−1 − θ at−2 ) at−1 ] = E(at−1 )2 = σ 2 40 . a trav´s de la o e cadena de dependencia temporal de las Y . se calculan las ra´ ıces del polinomio medias m´viles: o 1−θL = 0 → L= 1 θ → |L| = 1 θ → |θ| < 1 Las caracter´ ısticas del proceso ARM A(1. se calculan las ra´ ıces del polinomio autorregresivo: 1 − φL = 0 → L= 1 φ → |L| = 1 φ → |φ| < 1 Para comprobar la invertibilidad.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a La memoria de este proceso es larga debido a la presencia de estructura autorregresiva. 1) estacionario son: a) Media: E(Yt ) = E(φ Yt−1 + at − θ at−1 ) = φ E(Yt ) → b) Funci´n de autocovarianzas: o γ0 = E(Yt − E(Yt ))2 = E(Yt )2 = E(φ Yt−1 + at − θ at−1 )2 = = φ2 E(Yt−1 )2 + E(at )2 + θ2 E(at−1 )2 + 2 φ E(Yt−1 at ) − 2 φ θ E(Yt−1 at−1 ) − − 2 θ E(at at−1 ) = φ2 γ0 + σ 2 + θ2 σ 2 − 2 φ θ σ 2 = → γ0 = (1 + θ2 − 2 φ θ) σ 2 1 − φ2 (1 − φ) E(Yt ) = 0 → E(Yt ) = 0 = φ2 γ0 + (1 + θ2 − 2 φ θ) σ 2 γ1 = E(Yt − E(Yt ))(Yt−1 − E(Yt−1 )) = = E(Yt Yt−1 ) = E[(φ Yt−1 + at − θ at−1 ) Yt−1 ] = = φ E(Yt−1 )2 + E(Yt−1 at ) − θ E(Yt−1 at−1 ) = φ γ0 − θ σ 2 γ2 = E(Yt − E(Yt ))(Yt−2 − E(Yt−2 )) = E(Yt Yt−2 ) = = E[(φ Yt−1 + at − θ at−1 ) Yt−2 ] = = φ E(Yt−1 Yt−2 ) + E(Yt−2 at ) − θ E(Yt−2 at−1 ) = φ γ1 Para derivar los resultados siguientes. influye en todo el futuro del proceso. Para comprobar la estacionariedad. La perturbaci´n at influye directamente en Yt y en Yt−1 . pero de forma indirecta.

5: Procesos Autorregresivo de Medias M´viles: ARMA(1.4 0. La funci´n de autocorrelaci´n de un ARM A(1. φ. pero a partir del retardo 2. A partir del retardo 1. 1).2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0 1 -0. el ARM A(1. la parte medias m´viles del modelo no aparece de forma o expl´ ıcita en la FACV.6 0.5. las estructuras posibles para un ı ARM A(1. que depende de los par´metros AR.8 0.8 -0. es la suma de la o autocovarianza de orden 1 de la parte AR(1) y de la autocovarianza de orden 1 de la parte M A(1). q) y concluir que su funci´n de autocorrelaci´n ser´ infinita. ρ1 .4 0.8 0. θ. es decir.6 0. En el gr´fico 3.2 0. Esta FACV es e o una funci´n infinita.2 0 1 -0. decrece exponencialmente.6 -0. debido a la contribuci´n de la parte medias m´viles del modelo a o o en la determinaci´n del primer coeficiente.An´lisis de Series Temporales: modelos ARIMA a La funci´n de autocovarianzas de un o    γ0 =    γk =  γ1 =     γk = ARM A(1. 1) son m´s variadas.4 -0. hasta k = 1 y luego o a decrece exponencialmente.1) a o 1 1 0. 1) es: (1 + θ2 − 2 φ θ) σ 2 1 − φ2 φ γ0 − θ σ 2 φ γk−1 k=0 k=0 k>1 SARRIKO-ON 4/09 Como se puede observar. siguiendo la estructura marcada por la parte autorregresiva de primer orden. o Gr´fico 3. se observan dos ejemplos de funciones a de autocorrelaci´n de modelos ARM A(1. es una funci´n o o infinita cuyo primer coeficiente.4 -0. y M A.8 -1 -1 Los resultados obtenidos para el modelo ARMA m´s sencillo. la varianza cuenta con una parte que proviene de la parte de medias m´viles. dependiendo ´sta s´lo de la estructura autorregresiva. se pueden genea ralizar para el modelo ARM A(p. otra que proviene de la parte autorregresiva y una tercera que es la intero acci´n entre ambas partes del modelo.6 -0. La autocovarianza de orden 1. depende de los par´metros autorregresivos y de medias a m´viles. Aunque o a las FAC que aqu´ se muestran son como las de un AR(1). o o a 41 .2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 -0. siguiendo la estructura dada o por la parte autorregresiva de orden 1. 1) es: o o  2   ρ1 = φ − θ σ γ0 ρk =   ρk = φ ρk−1 k=0 k>1 La FAC presenta la misma estructura que la funci´n de autocovarianzas. γ1 . 1) para diferentes valores de los par´metros.

. . o en forma onda seno-coseno. Basta con a˜adir una constante al proceso estacionario: n Yt = δ + φ1 Yt−1 + . . la unica diferencia a ´ es que su media no es cero: E(Yt ) = E(δ + φ1 Yt−1 + . que es el orden de la parte media m´vil del modelo. . . − φp 42 . como funciones exponenciales si todas las ra´ ıces del polinomio autorregresivo. . . . . φp (L) . sus o o par´metros no aparecen de forma expl´ a ıcita en la FAC y est´ decrece r´pidamente hacia cero a a siguiendo la estructura marcada por la parte autorregresiva de orden p.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a con los q primeros coeficientes. El modelo ARM A(p.12) se puede generalizar para que su media no sea nula. . + φp Yt−p + at + θ1 at−1 + . + θq at−q at ∼ RB(0. son reales. . − φp ) E(Yt ) = δ → E(Yt ) = δ 1 − φ1 − . A partir del retardo q. . . si este polinomio tiene ra´ ıces complejas. + φp E(Yt ) → (1 − φ1 − .12). . . dependiendo de los par´metros autorregresivos y de a medias m´viles. ρq . + θq at−q ) → E(Yt ) = δ + φ1 E(Yt ) + . . σ 2 ) Este modelo tiene las mismas caracter´ ısticas din´micas que el modelo (3. . . ρ1 . + φp Yt−p + at + θ1 at−1 + . q) (3. es decir.

suponemos que la varianza del proceso la podemos expresar como alguna funci´n del nivel: o V (Yt ) = k f (µt ) siendo k una constante positiva y f una funci´n conocida. Utilizando la o 43 20 00 M 01 20 00 M 04 20 00 M 07 20 00 M 10 20 01 M 01 20 01 M 04 20 01 M 07 20 01 M 10 20 02 M 01 20 02 M 04 20 02 M 07 20 02 M 10 20 03 M 01 20 03 M 04 20 03 M 07 20 03 M 10 20 04 M 01 20 04 M 04 20 04 M 07 20 04 M 10 20 05 M 01 20 05 M 04 20 05 M 07 20 05 M 10 20 06 M 01 20 06 M 04 20 06 M 07 20 06 M 10 20 07 M 01 20 07 M 2 0 04 07 M 07 20 07 M 10 20 08 M 01 20 08 M 04 20 08 M 07 )adazilanoicatsesed( 72EU lanoicaN atneR 50000 40000 30000 20000 . El comportamiento habitual en las u e series econ´micas suele ser que la varianza cambie conforme el nivel de la serie cambia. bien ıa o porque suelen ir cambiando de nivel en el tiempo (serie Renta Nacional) o porque la varianza no es constante (serie Recaudaci´n de pel´ o ıculas). en procesos donde la media y la varianza son constantes y finitas y las autocovarianzas no dependen del tiempo sino s´lo del n´mero de periodos de separaci´n entre las o u o variables. Pero la mayor´ de las series econ´micas no se comportan de forma estacionaria. El objetivo es conseguir alguna o funci´n que transforme la serie de forma que h(Yt ) tenga varianza constante.1: Series temporales econ´micas a o salucílep ed nóicaduaceR 70000 60000 1000000 1200000 1100000 900000 800000 700000 600000 III III III III III III III III III III III III III III I I I I I I I I I I I I I I 8T 0T 2T 4T 6T 7T 6T 9T 5T 7T 5T 1T 8T 3T 3T 9T 5T 6T 7T 4T 5T 6T 0T 2T 7T 8T 1T 20 0 20 0 20 0 20 0 19 9 19 9 19 9 19 9 19 9 20 0 20 0 20 0 20 0 19 9 20 0 20 0 19 9 20 0 20 0 20 0 19 9 19 9 19 9 20 0 20 0 20 0 20 0 20 0 8T 4. es decir.1. No estacionariedad en varianza Cuando una serie no es estacionaria en varianza. no se puede sostener el supuesto de que ha sido generada por un proceso con varianza constante en el tiempo.Cap´ ıtulo 4 Modelos lineales no estacionarios Los modelos presentados en el cap´ ıtulo 3 se basan en el supuesto de estacionariedad en covarianza. es decir. Gr´fico 4. la soluci´n es transformar o la serie mediante alg´n m´todo que estabilice la varianza. En estos o casos.

la transformaci´n logar´ o ıtmica proporcionar´ una varianza constante. ıa si esla varianza de la serie Yt la que es proporcional a su nivel: f (µt ) = µt −→ 1 h(µt ) ha de cumplir que h (µt ) = √ µt =⇒ h(µt ) = √ µt y habr´ que tomar la ra´ cuadrada de la serie para obtener una varianza constante. La tendencia es o el movimiento a largo plazo de la serie una vez eliminados los ciclos y el t´rmino irregular. La varianza de la transformaci´n o h(Yt ) se puede aproximar como sigue: V [h(Yt )] = V h(µt ) + (Yt − µt ) h (µt ) = h (µt ) 2 V (Yt ) = h (µt ) 2 k f (µt ) Por lo tanto. no evolucionan en a a torno a un nivel constante. exponencial o aproximadamente lineal. ıa. Este comportamiento tendencial puede ser creciente o decreciente. la funci´n h se ha de o o elegir de tal forma que: 1 h (µt ) = f (µt ) Si la desviaci´n t´ o ıpica de la serie Yt es proporcional a su nivel. para que la transformaci´n h(Yt ) tenga varianza constante. Las series que presentan un comportamiento sistem´tico a de este tipo (ve´se la figura izquierda del gr´fico 4. para estabilizar la varianza se utilizan las transformaciones Box-Cox:   Ytλ − 1  λ=0 (λ) λ Yt =   ln(Yt ) λ=0 donde λ es el par´metro de transformaci´n. 44 . Es interesante se˜alar que. Ahora bien. Una de las caracter´ ısticas dominantes en las series econ´micas es la tendencia. la tecnoıa o log´ de la demograf´ etc.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a extensi´n de Taylor de primer orden alrededor de µt : o h(Yt ) h(µt ) + (Yt − µt ) h (µt ) donde h (µt ) es la primer derivada de h(Yt ) evaluada en µt . En e econom´ esta tendencia se suele producir debido a la evoluci´n de las preferencias. No estacionariedad en media. se tiene que: f (µt ) = µ2 t −→ h(µt ) ha de cumplir que h (µt ) = 1 µt =⇒ h(µt ) = ln(µt ) Por lo tanto. o 4.2. las transa o n formaciones Box-Cox no s´lo estabilizan la varianza sino que tambi´n mejoran la aproximaci´n o e o a la distribuci´n normal del proceso Yt . usualmente. ıa.1) no son estacionarias. ıa ız En general.

El comportaa) El m´dulo de alguna ra´ est´ dentro del c´ miento de las series generadas por estos procesos es explosivo. es decir. cuadr´tica. . Li = 1. un modelo ARM A(p. . . es una funci´n determinista del tiempo (lineal. Por un lado.1) .q). De hecho. ) y o a ut es un proceso estoc´stico estacionario con media cero. Por ejemplo. Este comportamiento s´ es el que observamos en series econ´micas. Este tipo o ız de modelos genera comportamientos no estacionarios que no son explosivos. Φp (L) = (1 − L−1 L) (1 − L−1 L) .An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 La no estacionariedad en media se puede modelar de diferentes maneras. q). (1 − L−1 L) p 1 2 Supongamos que (p − 1) ra´ ıces son estacionarias (con m´dulo fuera del c´ o ırculo unidad) y una de ellas es unitaria. ız ız 4. . si alguna de o sus ra´ ıces no est´ fuera del c´ a ırculo unidad: o ız a ırculo unidad: ∃ i | |Li | < 1. el modelo con tendencia a lineal ser´ ıa: Yt = a + bt + ut Estos modelos para la tendencia suponen que la serie evoluciona de una forma perfectamente predecible. por lo que moı o delaremos series no estacionarias mediante modelos ARM A(p. Modelos ARIMA(p. q) no estacionarios porque tienen al menos una ra´ exactamente igual a la unidad. . . cambios sistem´ticos de nivel. sino que las realizaciones se comportan de forma similar a lo largo del tiempo. .3. Supongamos el siguiente modelo ARM A(p. es posible modelar tendencias. L2 . se puede reescribir como sigue: Φp (L) = (1 − L−1 L) (1 − L−1 L) .. (1 − L−1 L) = ϕp−1 (L) (1 − (1)−1 L) p 1 2 Φp (L) = ϕp−1 (L) (1 − L) 45 (4.. Lp . mediante modelos globales en los que se a especifica la tendencia como una funci´n del tiempo: o Yt = Tt + ut donde Tt = f (t) . denominada ra´ unitaria. crecen o decrecen a gran velocidad hacia infinito. q) no es estacionario si las ra´ ıces de su polinomio AR no satisfacen la condici´n de estacionariedad.d. Esta no es la evoluci´n temporal que se suele observar en series o econ´micas por lo que este tipo de no estacionariedad no es de inter´s en nuestro campo. si un proceso no es estacionario en media tambi´n se puede modelar dentro de e la clase de modelos ARM A(p. Por otro lado. Entonces. . q): Φp (L) Yt = Θq (L) at donde el polinomio AR se puede factorizar en funci´n de sus p ra´ o ıces L1 . el polinomio AR. . y se denominan modelos de tendencia determinista. o e b) El m´dulo de alguna ra´ es exactamente igual a la unidad: ∃ i | Li = 1. exponencial. salvo porque cambian de nivel.

∆d Yt . A un orden d y se denota ϕp−d (L) es estacionario porque sus (p − d) ra´ tienen modulo fuera del ıces polinomio ∆d = (1 − L)d . q) .d. d. q) (4. En la pr´ctica. y q es el orden del polinomio de medias m´viles invertible. En general. el polinomio AR del modelo (4. donde p es el orden del polinomio autorregresivo estacionario. si Yt no es estacionario. y el estacionarias. Definici´n: Un proceso Yt es integrado de orden d. el n´mero de ra´ u ıces unitarias del proceso. en el modelo ARM A(p. A un proceso Yt con estas caracter´ ız ısticas se le denomina proceso integrado de orden 1. si una serie Yt es integrada de orden d. se puede representar por el siguiente modelo: Φp (L) ∆d Yt = δ + Θq (L) at (4.1). se tiene: ϕp−d (L) ∆d Yt = Θq (L) at donde el polinomio c´ ırculo unidad.3) se denomina modelo Autorregresivo Integrado de Medias M´viles de orden o (p. de orden d. el n´mero de diferencias que hay que tomar a la o u serie para que sea estacionaria. o lo que es lo mismo. contiene las d ra´ ıces unitarias no proceso Yt con estas caracter´ ısticas se le denomina proceso integrado de por Yt ∼ I(d) . El modelo (4. encontr´ndose los I(2) con mucha menos o a frecuencia. d. ız El modelo (4. d es el orden de integraci´n de la serie.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a donde el polinomio ϕp−1 (L) resulta del producto de los (p − 1) polinomios de orden 1 asociados a las ra´ ıces Li con m´dulo fuera del c´ o ırculo unidad. En general. q) (4. Sustituyendo en el modelo ARM A(p. q) estacionario e invertible. Yt ∼ I(d) . entonces se puede descomponer como: Φp (L) = ϕp−d (L) (1 − L)d y sustituyendo.2) representa el comportamiento de un proceso Yt que no es estacionario porque tiene una ra´ unitaria.2) donde el polinomio ϕp−1 (L) es estacionario porque todas sus ra´ ıces tienen modulo fuera del c´ ırculo unidad y el polinomio ∆ = (1 − L) es el que recoge la ra´ unitaria. pero o su diferencia de orden d. El orden de integraci´n del proceso es el n´mero de diferencias que hay que tomar al proceso o u para conseguir la estacionariedad en media.1) puede contener m´s de una ra´ unitaria.q) o ARIM A(p. q) vamos a estudiar detalladamente dos de los modelos m´s sencillos.3) donde el polinomio autorregresivo estacionario Φp (L) y el invertible de medias m´viles Θq (L) o no tienen ra´ ıces comunes. es decir.1) se tiene que: ϕp−1 (L) (1 − L) Yt = Θq (L) at → ϕp−1 (L) ∆ Yt = Θq (L) at (4. los procesos que surgen m´s habitualmente en el an´lisis de las a a a series temporales econ´micas son los I(0) e I(1) . por a ız ejemplo. sigue un proceso ARM A(p − d. a 46 . de nuevo. d. o Para comprender mejor el comportamiento representado por los modelos ARIM A(p.

. El modelo de paseo aleatorio no es estacionario porque la a o ra´ del polinomio AR no tiene m´dulo mayor que la unidad: ız o 1−L=0 −→ L=1 at ∼ RBN (0. Modelo de paseo aleatorio El modelo de paseo aleatorio es simplemente un modelo AR(1) con par´metro φ = 1 : a Yt = Yt−1 + at ∆ Y t = at En el modelo de paseo aleatorio el valor de Y en el momento t es igual a su valor en el momento t − 1 m´s una perturbaci´n aleatoria.4 -0.2).6 0.4 0 0.8 -12 1110 1120 1130 1140 1150 1160 1170 1180 1190 1200 1210 1220 1230 1240 1250 -1 -1 47 . Yt−2 .3. Es decir.] = Yt−1 lo que implica que el nivel condicionado de la serie en el momento t es aleatorio. se tiene que Yt ∼ I(1) .8 0.An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 4.6 0.4 0. ∆ Yt es un ruido blanco.8 -0. para este modelo el nivel promedio de la serie va cambiando de forma estoc´stica a lo largo del tiempo. sin embargo.6 Gr´fico 4. Si una perturbaci´n aumenta el valor de Yt o u o no hay ninguna tendencia a volver a disminuir otra vez.2 se muestra el gr´fico de una realizaci´n simulada de 150 observaciones a o de un proceso de paseo aleatorio con σ 2 = 1 .4 -0.4).8 -1 -0.6 0. Se puede observar que la evoluci´n de la serie o no tiene una caracter´ ıstica presente en los procesos estacionarios y que se denomina reversi´n o a la media: la serie se mueve aleatoriamente hacia arriba y hacia abajo.2 -0. a por lo que se dice que este modelo tiene tendencia estoc´stica.6 0.4 0. a a 0 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 1 2 3 4 5 6 7 8 -0.4) Pero. σ 2 ) (4.4).6 -0. a 0. Tomando esperanzas condicionadas a la informaci´n anterior al modelo (4.8 4 0. sino que en principio permanece en un valor alto.4 -8 -0.4 0.2 -0. como la primera diferencia de la serie.2 0. sin mostrar ninguna inclinaci´n a dirigirse a ning´n punto en particular.2 -0. .2 2 3 4 5 6 7 8 -4 -0.2 0. se puede comprobar que se caracteriza porque sus coeficientes decrecen muy lentamente (ve´se la figura derecha del gr´fico 4.1.4 -0. En la figura 4.2: Modelo de paseo aleatorio a -0.8 -1 8 1 1 0.6 -0.8 0.2 1 1 En lo que se refiere a la FAC del modelo (4.6 -0.8 0.2 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0 1 -0. se obtiene: o E[Yt |Yt−1 . .

5) empieza en alg´n momento t0 y. se tiene que Yt ∼ I(1) . en los modelos no estacionarios su presencia en el modelo tiene efectos m´s relevantes. Pero. se obtiene: o E[Yt |Yt−1 . sustituyendo a u repetidamente. El modelo (4. Tendencias estoc´sticas a a 70 60 20 50 40 10 30 20 Estocástica Determinista 10 1760 1780 1800 1820 1840 1860 1880 1900 1920 1940 1960 1980 2000 Lineal 0 1860 1870 1880 1890 1900 1910 1920 1930 1940 1950 1960 1970 1980 1990 La figura izquierda del gr´fico 4.3 muestra en su figura de la derecha la diferente evoluci´n que se puede a o observar entre tendencias estoc´sticas y deterministas. La serie con tendencia determinista oscila a aleatoriamente en torno a una tendencia lineal de pendiente constante y. Tomando esperanzas a condicionadas a la informaci´n pasada en el modelo (4.5) es la presencia de la constante δ. junto con la tendencia estoc´stica.] = Yt−1 + δ es decir. . Modelo de paseo aleatorio con deriva El modelo de paseo aleatorio con deriva surge de a˜adir una constante al modelo de paseo n aleatorio. El gr´fico 4. 48 . . de la misma manera que el a modelo de paseo aleatorio no tiene un nivel promedio al que volver. Por lo tanto. Yt = Yt−1 + δ + at → ∆ Yt = δ + at (4. Yt−2 . el modelo de paseo aleatorio con deriva no tiene una tendencia lineal a la que retornar cuando un shock estacionario lo aleja de la misma.3: Tendencias deterministas vs. al igual que para el modelo de paseo aleatorio. 2 y σ = 1 . se obtiene: t Yt = Y0 + (t − t0 ) δ + i=t0 +1 ai Se puede observar que la introducci´n de la constante en el modelo implica la inclusi´n de una o o tendencia determinista con pendiente δ. Ahora bien.2.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a 4.5) muestra un a crecimiento promedio en cada periodo de δ.3 muestra una realizaci´n de tama˜o 150 simulada por el modelo a o n de paseo aleatorio con deriva con par´metros δ = 0.5) La unica diferencia entre los modelos (4.4) y (4. tiende a retornar r´pidamente.3. mientras que si la serie con tendencia estoc´stica se separa de la a a l´ ınea de tendencia de pendiente δ no tiende a volver. Este par´metro de deriva tiene el mismo papel que a el par´metro de la pendiente en el modelo determinista lineal.5). el nivel promedio de la serie se ve afectado por un elemento estoc´stico a lo largo del a tiempo a trav´s de Yt−1 as´ como por un componente determinista a trav´s del par´metro δ. Suponiendo que el modelo (4. e ı e a Gr´fico 4. si se separa de ella. . ´ as´ como en los modelos estacionarios la inclusi´n de una constante solo afecta al nivel promedio ı o constante de la serie.

Cap´ ıtulo 5 Modelizaci´n ARIMA o
En este cap´ ıtulo se van a desarrollar de forma detallada cada una de las etapas de las que consta la metodolog´ de modelizaci´n ARIMA. Para apoyar esta explicaci´n se va a modelar una serie ıa o o cl´sica en la literatura Pieles de lince (1821-1930) y se va a proponer al lector como ejercicio a la modelizaci´n de una serie artificial que se ha denominado Producci´n de tabaco (1872-1984). o o Los datos de ambas series se encuentran en el ap´ndice A. e Los gr´ficos y resultados de este an´lisis se han obtenido mediante el software econom´trico a a e Gretl. Este es un sofware que se puede obtener de forma gratuita de la siguiente direcci´n: o http://gretl.sourceforge.net

5.1.

Estrategia de modelizaci´n ARIMA o

En los cap´ ıtulos 3 y 4 se han analizado las propiedades de los procesos ARIM A(p, d, q), tanto estacionarios (d = 0) como no estacionarios (d > 0): Φ(L)(1 − L)d Yt = δ + Θ(L)at (5.1)

Si se conocen los par´metros del modelo te´rico (5.1) para el proceso Yt , a partir de una a o realizaci´n concreta del ruido blanco, a1 , a2 , . . . aT , y de valores iniciales para Y y a se genera o la serie temporal Y1 , Y2 , . . . , YT , que es una realizaci´n de tama˜o T del proceso estoc´stico. o n a La estructura es, por lo tanto, Φ(L)(1 − L)d Yt = δ + Θ(L) at at ∼ RBN (0, σ 2 ) ↓ Generaci´n o ↓ Realizaci´n: Y1 , Y2 , . . . , YT o 49

Proceso estoc´stico a

SARRIKO-ON 4/09

An´lisis de Series Temporales: modelos ARIMA a

A partir de una misma estructura ARIM A(p, d, q) se pueden obtener infinitas realizaciones. Para cada realizaci´n, la serie del ruido blanco, a1 , a2 , . . . , aT , ser´ diferente y la serie temporal geneo a rada, Y1 , Y2 , . . . , YT , tambi´n. Ahora bien, todas las series temporales generadas que proceden e de una misma estructura conservar´n entre s´ una similitud de comportamiento din´mico. a ı a En la aplicaci´n de la metodolog´ Box-Jenkins el punto de partida es el contrario: se conoo ıa cen los valores de la serie temporal Y1 , Y2 , . . . , YT y se trata de determinar la estructura ARIM A(p, d, q) que la ha podido generar. Realizaci´n: Y1 , Y2 , . . . , YT o ↓ Inferencia ↓ Proceso estoc´stico: a Φ(L)(1 − L)d Yt = δ + Θ(L) at at ∼ RBN (0, σ 2 )

La construcci´n de modelos ARIM A se lleva a cabo de forma iterativa mediante un proceso en o el que se pueden distinguir cuatro etapas: o o a) Identificaci´n. Utilizando los datos y/o cualquier tipo de informaci´n disponible sobre c´mo ha sido generada la serie, se intentar´ sugerir una subclase de modelos ARIM A(p, d, q) o a que merezca la pena ser investigada. El objetivo es determinar los ´rdenes p, d, q que pao recen apropiados para reproducir las caracter´ ısticas de la serie bajo estudio y si se incluye o no la constante δ. En esta etapa es posible identificar m´s de un modelo candidato a a haber podido generar la serie. b) Estimaci´n. Usando de forma eficiente los datos se realiza inferencia sobre los par´metros o a condicionada a que el modelo investigado sea apropiado. Dado un determinado proceso propuesto, se trata de cuantificar los par´metros del mismo, a 2 y, en su caso, δ. θ1 , . . . θq , φ1 , . . . φp , σ c) Validaci´n. Se realizan contrastes de diagn´stico para comprobar si el modelo se ajusta o o a los datos, o, si no es as´ revelar las posibles discrepancias del modelo propuesto para ı, poder mejorarlo. d) Predicci´n. Obtener pron´sticos en t´rminos probabil´ o o e ısticos de los valores futuros de la variable. En esta etapa se tratar´ tambi´n de evaluar la capacidad predictiva del modelo. a e Esta metodolog´ se basa, fundamentalmente, en dos principios: ıa 50

An´lisis de Series Temporales: modelos ARIMA a

SARRIKO-ON 4/09

• Selecci´n de un modelo en forma iterativa. En cada etapa se plantea la posibilidad de o rehacer las etapas previas. Identificaci´n o ↓ Estimaci´n o ↓ Validaci´n o SI ↓ Predicci´n o SI ↓ Modelo • Principio de parametrizaci´n escueta, tambi´n denominado parsimonia. Se trata de proo e poner un modelo capaz de representar la serie con el m´ ınimo de par´metros posibles y a unicamente acudir a una ampliaci´n del mismo en caso de que sea estrictamente necesario ´ o para describir el comportamiento de la serie. NO → NO → ← ↑ ↑ ↑ ↑ ↑ ↑ → ↑ ↑ ↑ →

5.2.

Identificaci´n o

El objetivo de esta etapa de la modelizaci´n es seleccionar el modelo ARIM A(p, d, q) apropiado o para la serie, es decir, que reproduce las caracter´ ısticas de la serie. La identificaci´n del modelo o se lleva a cabo en dos fases: A. An´lisis de estacionariedad, en el que se determinan las transformaciones que son necesarias a aplicar para obtener una serie estacionaria. Incluye, a su vez, dos apartados: • Estacionariedad en varianza: transformaciones estabilizadoras de varianza. • Estacionariedad en media: n´mero de diferencias d que hay que tomar para lograr u que la serie sea estacionaria en media. B. Elecci´n de los ´rdenes p y q. Una vez obtenida la serie estacionaria, el objetivo es detero o minar el proceso estacionario ARM A(p, q) que la haya generado. Los instrumentos que se van a utilizar en estas dos fases de la identificaci´n del modelo son o fundamentalmente los siguientes: ◦ Gr´fico y correlogramas muestrales de la serie original. a 51

es decir.1 se presenta la serie Pieles de lince capturadas de 1821 a 1930.1: Pieles de lince (1821-1930) a 7000 9 6000 8 5000 7 4000 Ln(lince) 1820 1840 1860 1880 1900 1920 Lince 6 3000 5 2000 1000 4 0 3 1820 1840 1860 1880 1900 1920 En el gr´fico 5.. diferencias. no parece adecuado suponer que la serie es estacionaria en varianza.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a ◦ Gr´fico y correlogramas muestrales de determinadas transformaciones de la serie: logarita mos.1. a Ejemplo 6. ◦ Contrastes de ra´ ıces unitarias. Los instrumentos que se utilizan para analizar la estacionariedad en varianza de una serie son el gr´fico de la serie original y de las transformaciones correspondientes.2.. Como las series econ´micas suelen ser positivas y sin valores cero. Se puede concluir que la serie estacionaria en varianza es Zt = Ln(lince) .   Ytλ − 1  λ=0 (λ) λ Yt =   ln Yt λ=0 Las transformaciones Box-Cox incluye una familia infinita de funciones: ra´ cuadrada. 5. Pieles de Lince Gr´fico 5. Por lo tanto. Una serie ser´ estacionaria en varianza cuando pueda mantenerse el supuesto de que existe una a unica varianza para toda la serie temporal. la transformaci´n m´s o o a utilizada en la pr´ctica econ´mica es la logar´ a o ıtmica. las transformaciones Box-Cox. En la figura a izquierda del gr´fico se puede observar que la serie en niveles presenta un comportamiento c´ a ıclico en el que la amplitud de los ciclos es variable en el tiempo. a 52 ..1. inversa. Tomando logaritmos a la serie (la transformaci´n o Box-Cox m´s utilizada para las series econ´micas) se observa que la amplitud de estos ciclos se a o ha homogeneizado y que la variabilidad de la serie es mucho m´s estable en el tiempo (la figura a derecha del gr´fico). ız etc. Si la serie no es estacionaria en varianza. es decir. se utilizan las transformaciones estabilizadoras de varianza. An´lisis de estacionariedad a Estacionariedad en varianza. cuando la variabilidad de la serie en torno a ´ su media se mantenga constante a lo largo del tiempo.

es decir.5 0 5 1880 1900 1920 1940 1960 1980 Pregunta: ¿Cu´l es la serie estacionaria en varianza?. si oscila en torno a un nivel constante o no. si la serie no es estacionaria en media se puede lograr la estacionariedad transform´ndola tomando diferencias. As´ si la serie no es estacionaria en media. Producci´n de tabaco. un proceso con alguna ra´ unitaria presenta una funci´n de autocorrelaci´n ız o o muestral con un decaimiento muy lento. es decir. se ha de identificar si la serie es estacionaria en media. a ı. cuando fluct´a alrededor de una ´ u media constante. exponencialmente.2: Producci´n de tabaco (1872-1984) a o 2500 8 7. • La funci´n de autocorrelaci´n te´rica de un proceso estacionario en media decae r´pidao o o a mente. se tomar´n d sucesivas diferencias de orden 1 sobre la serie hasta obtener una serie estacionaria: a Zt = (1 − L)d Yt 53 . Caracter´ ısticas de una serie no estacionaria: • La serie no es estacionaria en media cuando presenta tendencia o varios tramos con medias diferentes.5 1000 6 500 5.1. En este apartado. Como se ha visto en el cap´ ıtulo 4. • En general. no siendo necesario que se mantenga pr´ximo a o la unidad.An´lisis de Series Temporales: modelos ARIMA a Ejercicio 6. Razona tu respuesta. Caracter´ ısticas de una serie estacionaria: • Una serie es estacionaria en media cuando se puede mantener el supuesto de que existe una unica media para toda la serie temporal. Gr´fico 5.5 2000 7 Ln(Producción) 1880 1900 1920 1940 1960 1980 1500 Producción 6. o SARRIKO-ON 4/09 En el gr´fico 5. Para tomar esta decisi´n nos basaremos en las caracter´ o ısticas que diferencian las series estacionarias de las no estacionarias.2 se muestra la serie de Producci´n de tabaco desde 1872 a 1984 tanto en niveles a o (figura izquierda) como en logaritmos (figura derecha). a Estacionariedad en media.

fueron los pioneros en a a o este campo. se desarrollan brevemente. si se elige un orden de integraci´n d cuando la serie ∆d−1 Yt o ya es estacionaria. o a a A continuaci´n. Supongamos el siguiente proceso AR(1): Yt = φ Yt−1 + at . sobre la no estacionariedad de la serie. el hecho de que ∆d Yt sea estacionario. en la pr´ctica puede resultar muy dif´ a ıcil distinguir una realizaci´n de este proceso de una serie generada por un paseo aleatorio. at ∼ RBN (0. por lo que hay tener cuidado ya que el objetivo en esta fase de la modelizaci´n ARIM A es determinar el menor n´mero de diferencias d o u capaz de convertir a una serie en estacionaria. para comprobar si decrece r´pidamente hacia cero o no. no se diferenciar´ m´s la serie. no significa necesariamente que ∆d−1 Yt no lo sea. Los contrastes de ra´ ıces unitarias proporcionan unos contrastes estad´ ısticos que permiten. En caso contrario. o Yt = Yt−1 + at . 05 > 1 0. Por lo tanto. Sin embargo. de ra´ unitaria porque est´ muy pr´ximo a ´l. Si se rechaza la hip´tesis nula de o existencia de ra´ unitaria en ∆d−1 Yt . a la vez. por ejemplo. el problema es c´mo identificar el n´mero de diferencias exacto que es preciso tomar o u a la serie para que sea estacionaria ya que pueden aparecer los siguientes problemas: • Ra´ autorregresiva pr´xima a la unidad. Consideremos el siguiente modelo AR(1) ız o Yt = 0. En este punto conviene recordar que si se diferencia un proceso estacionario sigue siendo estacionario.2) . Contraste de Dickey-Fuller. si no ız a a se rechaza la hip´tesis nula se tomar´ una diferencia m´s de orden 1. Sabemos que para las series econ´micas los valores de d m´s habituales son d = 0. en principio. 95 que es un proceso estacionario. ız a o e • Sobrediferenciaci´n: se dice que la serie est´ sobrediferenciada si se toman m´s diferencias o a a de las necesarias. para observar si se cumple o no la condici´n de estacionariedad de oscilar en torno a un nivel constante.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Ahora bien. 1. o b) Correlograma estimado de la serie original y de las transformaciones correspondientes. a c) Contrastes de ra´ ıces unitarias. a partir del conjunto de informaci´n. hacer inferencia sobre la existencia o no de una ra´ unitaria o ız en una serie. los contrastes de ra´ o ıces unitarias m´s utilizados en a la pr´ctica del an´lisis de series temporales econ´micas y que. 2 y o a para decidir cu´l es el m´s apropiado para la serie bajo estudio utilizaremos los siguientes a a instrumentos: a a) Gr´fico de la serie original y las transformaciones correspondientes. 95 Yt−1 + at → 1 − 0. es decir. 95L = 0 → L= 1 = 1. σ 2 ) 54 (5.

Si.2) se puede escribir como sigue restando Yt−1 en ambos lados. Por lo tanto. Adem´s. si |φ| < 1.2). Como es bien sabido. contrastar la hip´tesis nula de ra´ unitaria (paseo aleatorio) equivale a plantear el o ız siguiente contraste de hip´tesis en el modelo (5. φ.2). por o a ejemplo. ıa El modelo (5. El o problema surge porque no se sabe a priori si el modelo es estacionario o no y cuando φ = 1 el modelo AR(1) no es estacionario y los resultados anteriores no se mantienen. o o a el estad´ ıstico t tiene la siguiente distribuci´n asint´tica bajo la hip´tesis nula: o o o tφ = ˆ φ − φ0 Vφ ˆ ∼ N (0.4) . φ = 1 el proceso Yt no es estacionario porque tiene una ra´ unitaria. H0 : φ = φ0 . por el contrario. Se puede demostrar ˆ que el estimador φ est´ sesgado hacia abajo y que el estad´ a ıstico t bajo la hip´tesis nula de ra´ o ız unitaria no sigue una distribuci´n t de Student ni en el l´ o ımite cuando el tama˜o muestral tiende n a infinito. Adem´s si se utilizan los valores cr´ a ıticos de esta distribuci´n se tiende a rechazar la o H0 m´s veces de las deseadas.3) es un modelo de regresi´n y el estad´ o ıstico habitual para realizar este tipo de contraste es: t = ˆ β−0 ˆ ˆ V (β) 55 (5. se podr´ pensar en contrastar la hip´tesis de existencia de ra´ unitaria en la ıa o ız serie Yt (no estacionariedad) contrastando la hip´tesis nula H0 : φ = 1 en el modelo (5. a o ˆ el modelo AR(1) es estacionario y el estimador de φ por M´ ınimos Cuadrados Ordinarios.An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 que es estacionario si |φ| < 1.3): o H0 : β = 0 Ha : β < 0 La hip´tesis alternativa de estacionariedad se plantea unicamente en t´rminos de β negativo. o ´ e porque un valor positivo de β supondr´ un modelo no estacionario de comportamiento explosivo. es igual al estimador M´ximo Veros´ a ımil y sigue asint´ticamente una distribuci´n normal. a El modelo (5. el procedimiento habitual es estimar la regresi´n de Yt sobre Yt−1 y despu´s o e utilizar el estad´ ıstico t est´ndar para contrastar la hip´tesis nula. de hecho ser´ un modelo de paseo aleatorio: ız ıa Yt = Yt−1 + at → 1−L=0 → L=1 → Yt ∼ I(1) Si se desea contrastar alguna hip´tesis nula sobre el valor del par´metro φ en el modelo (5. Yt − Yt−1 = φ Yt−1 − Yt−1 + at ∆Yt = β Yt−1 + at con o bien β = φ−1 (5.3) Ahora. 1) Para muestras peque˜as este estad´ n ıstico se distribuye aproximadamente como un t de Student de (T − 1) grados de libertad.

T . α.SARRIKO-ON 4/09 donde: T An´lisis de Series Temporales: modelos ARIMA a yt−1 ∆yt ˆ β = t=2 T 2 yt−1 t=2 y ˆ ˆ V (β) = σ2 ˆ T 2 yt−1 t=2 (5. σ 2 ) (5.7) ˆ ˆ ˆ donde β es el estimador MCO de β y V (β) el de su varianza. la existencia de ra´ unitaria a un nivel de significaci´n α si el valor ız o muestral del estad´ ıstico t es menor que el valor cr´ ıtico de las tablas de Dickey-Fuller (DFα ): t < DFα Hasta el momento se ha explicado como contrastar la hip´tesis nula de ra´ unitaria (paseo o ız aleatorio) frente a la alternativa de un proceso estacionario AR(1) de media cero. Restando Yt−1 en ambos ız lados del proceso se obtiene: ∆ Yt = c + β Yt−1 + at β = φ−1 El contraste de la hip´tesis nula de ra´ unitaria se plantea en este modelo (5. ser´ de inter´s considerar hip´tesis alternativas m´s generales que puedan incluir o ıa e o a estacionariedad alrededor de una constante o de una tendencia lineal. at ∼ RBN (0. Como anteriormente. Para las series econ´micas. o n o 56 . Si el modelo AR(1) incluye una constante: Yt = c + φ Yt−1 + at .). es decir.7) como sigue: o ız H0 : β = 0 Ha : β < 0 y el estad´ ıstico de contraste es: tc = ˆ β ˆ ˆ V (β) (5. Dickey-Fuller construyeron las tablas que proporcionan los niveles cr´ ıticos correctos para el estad´ ıstico tc en funci´n del tama˜o muestral. y el nivel de significaci´n. Este estad´ ıstico t no sigue ninguna distribuci´n conocida bajo la hip´tesis nula de no estacionariedad por lo que Dickeyo o Fuller calcularon los percentiles de este estad´ ıstico bajo la H0 proporcionando las tablas con los niveles cr´ ıticos correctos para el estad´ ıstico en funci´n del tama˜o muestral (T ) y el nivel de o n significaci´n (α) (las tablas de estos valores cr´ o ıticos se encuentran en el ap´ndice B. e Se rechaza H0 .5) Al estad´ ıstico t se le denomina estad´ ıstico de Dickey-Fuller.6) el contraste de existencia de ra´ unitaria se realiza de forma similar.

+ φp Yt−p + at Este modelo se puede reparametrizar como sigue: ∆Yt = β Yt−1 + α1 ∆ Yt−1 + · · · + αp−1 ∆ Yt−p+1 + at donde p i at ∼ RBN (0.9).9) se puede tambi´n generalizar introduciendo una constante y/o una tendencia e lineal: ∆Yt = δ + β Yt−1 + α1 ∆ Yt−1 + · · · + αp−1 ∆ Yt−p+1 + at ∆Yt = δ + γt + β Yt−1 + α1 ∆ Yt−1 + · · · + αp−1 ∆ Yt−p+1 + at procedi´ndose a la realizaci´n del contraste de la hip´tesis nula de ra´ unitaria por un procedie o o ız miento similar al desarrollado para el modelo AR(1). 57 . q) se puede aproximar hasta el grado de bondad necesario mediante un AR(p): Yt = φ1 Yt−1 + φ2 Yt−2 + . todo proceso a ARM A(p. σ 2 ) SARRIKO-ON 4/09 (5. el modelo que se estima por MCO es: ∆ Yt = c + γ t + β Yt−1 + at at ∼ RBN (0. por lo tanto.9) y en el correspondiente estad´ o a ıstico t.9) β= i=1 φi − 1 y αi = j=1 φp−i+j Dado que un proceso AR(p) tiene una ra´ unitaria cuando p φi = 1. q).8) y se utiliza el estad´ ıstico t que denotaremos por tγ para contrastar la hip´tesis nula de ra´ o ız unitaria H0 : β = 0 frente Ha : β < 0. Este estad´ ıstico tiene la misma distribuci´n que para el caso del modelo AR(1) y. . o podemos utilizar los mismos valores cr´ ıticos tabulados por Dickey-Fuller. ız o Este contraste de ra´ unitaria se denomina Dickey-Fuller Aumentado (ADF) y se basa en ız la estimaci´n MCO del par´metro β en el modelo (5. Los contrastes anteriores de Dickey-Fuller se han derivado partiendo del supuesto restrictivo de que la serie sigue un proceso AR(1). El modelo (5.An´lisis de Series Temporales: modelos ARIMA a Si el modelo AR(1) incluye una tendencia lineal: Yt = c + γ t + φ Yt−1 + at . Pero la serie puede seguir procesos m´s generales ARM A(p. Contraste de Dickey-Fuller aumentado. . Como es bien conocido. contrastar la hip´tesis ız o i=1 nula de existencia de ra´ unitaria es equivalente a contrastar la H0 : β = 0 en la regresi´n (5. σ 2 ) (5.

a a 9 2 1.5 1820 1840 1860 1880 1900 1920 Cuadro 5.1): -0. para Ln(lince): tama~o muestral 108 hip´tesis nula de ra´z unitaria: a = 1 n o ı contraste con constante modelo: (1 .13. que Zt es ya estacionaria o en media y no es preciso realizar m´s transformaciones.13165 ı valor p asint´tico 1. Analicemos la estacionariedad en media de la serie que es estacionaria en varianza.3: Gr´ficos de Ln(Lince) y su primera diferencia. es menor que el valor cr´ ıtico DF0. Zt = ln(Yt ) = Ln(Lince). a El tomar una diferencia a la serie no cambia el comportamiento del correlograma.5 D Ln(Lince) 1820 1840 1860 1880 1900 1920 Ln(lince) 0 6 -0. por lo tanto.451665 Estad´stico de contraste: tau c(1) = -5.019 o valor estimado de (a .1 muestran que el valor del estad´ ıstico ADF.2.05 = −2. Los resultados del cuadro 5.5 4 -2 3 -2.1: Contrates de ra´ ıces unitarias Contrastes aumentados de Dickey-Fuller.089e-005 o Ejemplo 6. Se puede concluir. tc = -5.. Pieles de lince.L)y = b0 + (a-1)*y(-1) + . + e Coef.3 se representan la serie en logaritmos (Ln(Lince)) y su primera diferencia (D a Ln(Lince)).. 58 . En el gr´fico 5.5 8 1 7 0. orden 4.5 5 -1 -1. de autocorrelaci´n de primer orden de e: -0. Se puede observar que la serie Zt oscila c´ ıclicamente en torno a un nivel promedio m´s o menos constante y al diferenciarla no cambia su comportamiento salvo que pasa a oscilar a en torno a un nivel pr´ximo a cero.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Gr´fico 5. como era de esperar. 89 (ve´se ap´ndice B). Analizando los correlogramas de Zt a y su primera diferencia recogidos en el gr´fico 5.4 se obtiene la misma conclusi´n ya que el a o correlagrama de Zt decrece r´pidamente hacia cero en forma de onda seno-coseno amortiguada. ya que si diferenciamos un proceso estacionario sigue siendo estacionario. Por lo a e tanto. Para contrastar la existencia de ra´ unitaria en la serie Zt = Ln(Lince) se lleva a cabo el ız contraste ADF aumentado. se rechaza la hip´tesis nula de existencia de ra´ unitaria a un nivel de significaci´n o ız o del 5 % y la transformaci´n estacionaria en media y varianza de la serie Pieles de Lince es o Zt = ln(Yt ) = Ln(Lince).

5 b) Gr´fico -1 a 5.5 -1 0 5 10 15 20 retardo 25 30 35 +. o retardo c) Cuadros 5.6: muestra en la figura superior el correlograma de la serie Ln(Producci´n) y en o 0 10 15 25 30 35 la figura inferior el5 correlograma de la serie D20 Ln(Producci´n) = ∆ ln(P roduccion).3 muestran los resultados de los contrastes de ra´ ıces unitarias ADF para las series Ln(Producci´n) y D Ln(Producci´n) respectivamente.An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 Gr´fico 5.5 0.2 6 0 −0.5 −0.2.96/T^0.5 0.5 Considera la siguiente informaci´n sobre la serie Producci´n de Tabaco.4: Correlogramas de Ln(Lince) y su primera diferencia.4 5 −0.1.8 7 0.5 +.96/T^0. o o a) Gr´fico 0 a 5.5: Gr´ficos de Ln(Producci´n) y su primera diferencia.96/T^0.2 5.96/T^0.1.6 D Ln(Producción) 1880 1900 1920 1940 1960 1980 Ln(Producción) 0.1.5 0 -0.5 FACP de D Ln(Lince) +.4 6.5 -1 -1 0 0 5 5 10 10 15 15 20 20 retardo retardo 25 25 30 30 35 35 +.2 y 5.5 -0. o 1 0.5 0 0 -0.5 Ejercicio 6. o o Gr´fico 5. 59 .5 FAC de D Ln(Lince) FACP de Ln(lince) 1 1 0.5: muestra en la figura de la izquierda la serie Ln(Producci´n) y en la figura de o la derecha la serie D Ln(Producci´n) = ∆ ln(P roduccion). Producci´n de Tabaco.2 1 7.6 1880 1900 1920 1940 1960 1980 Pregunta: Analiza la estacionariedad en media de la serie en logaritmos.5 0. a a o 8 1. a FAC de Ln(lince) 1 0.1. o -0.

020 o valor estimado de (a . de autocorrelaci´n de primer orden de e: -0.L)y = b0 + (a-1)*y(-1) + ..1): -2.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Cuadro 5. de autocorrelaci´n de primer orden de e: -0. para D Ln(Producci´n): o tama~o muestral 108 hip´tesis nula de ra´z unitaria: a = 1 n o ı contraste sin constante modelo: (1 ..37034 Estad´stico de contraste: tau nc(1) = -6.029 o valor estimado de (a .1): -0.1): -2. + e Coef. de autocorrelaci´n de primer orden de e: -0..L)y = b0 + b1*t + (a-1)*y(-1) + .8402 o Cuadro 5. + e Coef.06954 ı valor p asint´tico 2.127884 Estad´stico de contraste: tau ct(1) = -1.46933 ı valor p asint´tico 0..0776783 Estad´stico de contraste: tau c(1) = -2.L)y = b0 + (a-1)*y(-1) + ..3: Contrates de ra´ ıces unitarias Contrastes aumentados de Dickey-Fuller. orden 4. para Ln(Producci´n): o tama~o muestral 109 hip´tesis nula de ra´z unitaria: a = 1 n o ı contraste con constante modelo: (1 .0907 o contraste con constante y tendencia modelo: (1 .019 o valor estimado de (a .L)y = (a-1)*y(-1) + . orden 4. de autocorrelaci´n de primer orden de e: -0.1): -0.5554 ı valor p asint´tico 2.213e-010 o contraste con constante modelo: (1 . + e Coef.2: Contrates de ra´ ıces unitarias Contrastes aumentados de Dickey-Fuller...020 o valor estimado de (a .69183 Estad´stico de contraste: tau c(1) = -7.145e-010 o 60 .. + e Coef.61077 ı valor p asint´tico 0.

.5 caracter´ ısticas de la serie estacionaria y de analizar la conveniencia de la incorporaci´n del o −1 par´metro asociado a la media. . En esta fase se trata de identificar los ´rdenes p y q del proceso que puede reproducir las o −0. FAC. δ.5 0 −0.96/T^0.96/T^0. se tiene la transformaci´n estacionaria de la o o serie Zt = (10− L)d Yt que puede representarse mediante un proceso ARM A(p. Identificaci´n del modelo estacionario o 1 0.5 Una vez determinado el orden de diferenciaci´n d. T ∗ /3 ¯ (Zt − Z)2 (5.10) t=1 donde T ∗ = T − d es la longitud de la serie estacionaria Zt . q) estacionario. . q. por lo que ´sta ser´ el instrumento b´sico para identificar los ordenes p y q del o e a a modelo ARMA adecuado para representar las caracter´ ısticas de la serie estacionaria Zt .5 −1 0 5 10 15 20 retardo 25 30 35 +− 1. .2. Los coeficientes de autocorrelaci´n muestral de Zt son: o T∗ ¯ ¯ (Zt − Z)(Zt−k − Z) ρk = ˆ t=k+1 T∗ k = 1.5 −0.6: Correlogramas de Ln(Producci´n) y su primera diferencia.5 0.5 FAC de D Ln(Producción) FACP de Ln(producción) 1 1 0.96/T^0.5 −1 −1 0 0 5 5 10 10 15 15 20 20 retardo retardo 25 25 30 30 35 35 +− 1. o o Las caracter´ ısticas din´micas del proceso estacionario est´n recogidas en la funci´n de autocoa a o rrelaci´n.An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 Gr´fico 5. a 0 5 10 15 20 retardo 25 30 35 A.5 FACP de D Ln(Producción) +− 1.96/T^0. 2.5 +− 1. se comparar´n las funciones de autocorrelaci´n muestrales con a o las FAC te´ricas de los modelos ARMA cuyas caracter´ o ısticas conocemos: 61 .2. Para identificar los ordenes p y q.5 5. a o FAC de Ln(Producción) 1 0.5 0 0 −0. Identificaci´n de los ´rdenes p.

o e • La FACP de un proceso estoc´stico estacionario decrece r´pidamente hacia cero cuando a a k → ∞. pk . mide el grado de asociaci´n o o lineal existente entre entre las variables Yt e Yt−k una vez ajustado el efecto lineal de todas las variables intermedias. . la funci´n de autocorrelaci´n parcial. . o o ˆ La estructura de la funci´n de autocorrelaci´n parcial para un modelo estacionario ARM A(p. . 2. son o o equivalentes a las de la FAC: • p0 = 1 y p1 = ρ1 • Los coeficientes pk no dependen de unidades y son menores que la unidad en valor absoluto. 3.Yt−1 .SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a FAC M A(q) AR(p) ARM A(p. • La FACP es una funci´n sim´trica... q) o o es como sigue: 62 . q) en estos casos acudimos a otro o instrumento complementario. .. ya que se corresponder´ con o ıa la FAC te´rica de un M A(j). . el coeficiente de autocorrelaci´n parcial pk es el coeficiente de la siguiente regresi´n o o lineal: Yt = α + p1 Yt−1 + p2 Yt−2 + . o o El coeficiente de autocorrelaci´n parcial de orden k. es decir: pk = ρYt Yt−k . o Para ayudarnos en la identificaci´n de modelos ARM A(p. 1.Yt−k+1 Por lo tanto. la identificaci´n del proceso adecuado para la misma es sencilla. q) Se anula para j > q Decrecimiento r´pido a No se anula Decrecimiento r´pido a No se anula Si el correlograma muestral de la serie Zt presenta un corte a partir de un retardo finito j. ya que bas´ndose unicamente en la FAC podr´ corresponder a o a ´ ıa un modelo te´rico AR o ARM A de cualquier orden. denotado por pk . a la identificaci´n no es tan clara.. + pk Yt−k + et Las propiedades de la funci´n de autocorrelaci´n parcial (FACP). ρk . .Yt−2 . k = 0. Pero si el correlograma muestral no presenta ning´n corte sino o u que parece decrecer r´pidamente siguiendo una estructura exponencial o de onda seno-coseno. La funci´n de autocorrelaci´n parcial se puede estimar a partir de los datos de la serie como o o una funci´n de los coeficientes de autocorrelaci´n simples estimados.

se a o o puede identificar el / los procesos que podr´ haber generado la serie bajo estudio. de ´ o forma que. una vez controlado el efecto de estas. a partir del a o retardo p + 1 . Sin embargo. . + θq at−q La FACP de un modelo ARM A(p. Modelo M A(q): Yt = at + θ1 at−1 + θ2 at−2 + θ3 at−3 + . Comparando la estructura de las funciones de autocorrelaci´n simple y parcial estimadas con o las caracter´ ısticas b´sicas de las funciones de autocorrelaci´n te´ricas de la tabla siguiente. de forma exponencial cuando las ra´ a ıces del polinomio de medias m´viles son reales y en forma de onda seno-coseno amortiguada si o las ra´ ıces del citado polinomio son complejas. . . ıces Esta estructura es l´gica dado que la representaci´n AR de un modelo M A(q) es infinita. . . dos. de forma exponencial cuando las ra´ del polinomio de medias m´viles son reales y ıces o en forma de onda seno-coseno amortiguada si las ra´ del citado polinomio son complejas. p k = p + 1. pero es indirecta a trav´s de las variables intermedias o e por lo que. depende unicamente de la estructura de la parte de medias m´viles. Yt depende directamente de su pasado hasta el retardo p de forma que las variables aleatorias separadas un periodo. . . + θq at−q La FACP de un modelo de medias m´viles finito es infinita y decrece r´pidamente hacia o a cero. + φp Yt−p + at + θ1 at−1 + θ2 at−2 + . para variables separadas m´s de p periodos el a coeficiente de autocorrelaci´n parcial es cero porque no existe relaci´n lineal directa entre o o ellas: existe relaci´n lineal. ıan FAC M A(q) AR(p) ARM A(p. p + 2. por lo que pk = 0 . . o o Modelo ARM A(p. q): Yt = at + φ1 Yt−1 + φ2 Yt−2 + . . + φp Yt−p + at La estructura de la FACP es la siguiente: pk = pk = 0 pk = 0 k = 1. . . y hasta p periodos mantienen una relaci´n lineal directa aunque se elimine el efecto de las variables intero medias. .An´lisis de Series Temporales: modelos ARIMA a Modelo AR(p): SARRIKO-ON 4/09 Yt = φ1 Yt−1 + φ2 Yt−2 + φ3 Yt−3 + . q) es infinita y los p primeros coeficientes de la FACP dependen de los par´metros autorregresivos y de los de medias m´viles y. la correlaci´n entre Yt e Yt−k es nula y o pk = 0 . ρk = 0 . Si un proceso sigue un modelo AR(p). q) Se anula para j > q Decrecimiento r´pido a No se anula Decrecimiento r´pido a No se anula 63 FACP Decrecimiento r´pido a No se anula Se anula para j > p Decrecimiento r´pido a No se anula . decrece r´pidamente hacia cero. . . . 2.

96 2 √ T∗ 2 Por lo tanto. para obtener las bandas de confianza para pk se aplica esta distribuci´n indea ˆ o pendientemente del tipo de proceso que haya generado la serie. En lo que se refiere a la funci´n de autocorrelaci´n parcial. Los estimadores de los coeficientes de autocorrelaci´n ρk y pk son variables aleatorias que tienen una distribuci´n de probabilidad y o ˆ ˆ o tomar´n diferentes valores para diferentes realizaciones de Yt . o a ρk ∼ N (ρk . T ∗ /3 o H0 : ρk = 0 Ha : ρk = 0 Bajo la hip´tesis nula el estad´ o ıstico de contraste se distribuye asint´ticamente como o ρk ˆ V (ˆk ) ρ a ∼ N (0. ± √ son las bandas de confianza que delimitan la zona de significatividad del T∗ coeficiente ρk . . Se desea realizar el siguiente contraste de hip´tesis para k = 1. con k > p. 2.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Ahora bien. . . para la identificaci´n del modelo apropiado s´lo se cuenta con las estimaciones de o o la FAC y de la FACP a partir de los datos de la serie Yt .025 = 1. . V (ˆk )) ˆ p con V (ˆk ) p 1 T∗ En la pr´ctica. .10) es una variable aleatoria o ˆ que se distribuye asint´ticamente como sigue bajo el supuesto de que Zt es gaussiano y k > 0. V (ˆk )) ˆ ρ con V (ˆk ) ρ 1 T∗ Se desea realizar el siguiente contraste de hip´tesis para k = 1. Por lo tanto. o El estimador de los coeficientes de autocorrelaci´n ρk dado por (5. 2.96 ρ ρk ˆ ≥ N0. para identificar el a orden del proceso ARM A(p. T ∗ /3 o H0 : pk = 0 Ha : pk = 0 64 . . q) adecuado para la serie. . 1) Se rechaza la H0 a un nivel de significaci´n del 5 % si o ρk ˆ V (ˆk ) ρ o an´logamente. a |ˆk | ≥ 1. los coeficientes de autocorrelaci´n o o o parcial muestrales pk . es preciso determinar la estructura de las FAC y FACP estimadas realizando contrastes sobre la significaci´n individual de los coeficientes o de autocorrelaci´n simple y parcial estimados. . se distribuyen asint´ticamente como sigue para procesos AR(p): ˆ o a pk ∼ N (0.

96 p (ˆk ) p 2 √ T∗ 2 Por lo tanto. que al determinar qu´ retardos e pueden ser significativamente distintos de cero. seg´n a u el resultado de los contrastes de significaci´n individual. Es preciso tener en cuenta que. a |ˆk | ≥ 1. Posteriormente. T∗ Cuando se procede a la identificaci´n de un modelo ARM A(p. a ıa ıa Por lo tanto. 1) Se rechaza la H0 de no significatividad del coeficiente de autocorrelaci´n a un nivel de significao ci´n del 5 % si o pk ˆ V (ˆk ) p ≥ N0. los coeficientes de autocorrelaci´n muestral est´n correlacionados a o a entre s´ por lo que en el correlograma muestral pueden aparecer ciertas ondulaciones que no se ı.An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 Bajo la hip´tesis nula el estad´ o ıstico de contraste se distribuye asint´ticamente como o pk ˆ V (ˆk ) p a ∼ N (0. por otro lado. La tarea de identificaci´n ser´ m´s f´cil cuanto mayor o o a a a sea el tama˜o de muestra.7 muestra las funciones de autocorrelaci´n simple y parcial estimadas para la serie a o estacionaria Zt = ln(Yt ) = Ln(lince). para la serie estacionaria: ıan a) Zt ∼ AR(3) 65 b) Zt ∼ ARM A(2. Adem´s. se trata de buscar los modelos m´s sencillos que reproduzcan las caracter´ a ısticas de la serie. se podr´ identificar dos modelos adecuados. por un lado.025 = 1. la FACP estar´ u o ıa truncada en el retardo 3 y el modelo adecuado para haber generado la serie ser´ un AR(3). tambi´n hay que considerar la interpretaci´n e o que se les pueda dar. Seg´n esta interpretaci´n. 1). ± √ son las bandas que delimitan la zona de significatividad del coeficiente pk . tambi´n se puede interpretar que e tiene una estructura infinita que 2 decrece r´pidamente a partir del retardo con forma c´ a ıclica. en la fase de estimaci´n y validaci´n. Pieles de Lince. dependiendo de los resultados. En general. q) con parte autorregresiva de orden mayor o igual que 2. en principio. El gr´fico 5. o A la hora de interpretar las funciones de autocorrelaci´n estimadas no se debe dar demasiada o importancia a cada detalle que pueda aparecer en los datos. hay cierta probabilidad de obtener alg´n coeficiente significativo aunque los u datos fueran generados por un ruido blanco y. 1) . n Ejemplo 6.3. sino de acotar un subconjunto de modelos ARIMA que han podido generar la serie. 96 o an´logamente. se vuelve a plantear la o o identificaci´n del proceso. que los tres primeros coeficientes son o significativamente distintos de cero y el resto no. ıa Ahora bien. En este caso el modelo m´s sencillo que recoger´ esta estructura ser´ un ARM A(2. En esta primera etapa no se trata tanto de identificar el modelo correcto. q) hay que tener en cuenta que o identificar el modelo a trav´s de las funciones de autocorrelaci´n simple y parcial estimadas no es e o una tarea sencilla. corresponden con el correlograma te´rico. estudiando el comportamiento general de la FACP. La FAC estimada muestra una estructura infinita decreciendo en forma de onda seno-coseno amortiguada que sugiere un modelo AR(p) o ARM A(p. El an´lisis de la FACP muestra.

8: FAC y FACP estimadas de la serie (1-L) Ln(Produccion). a FAC de Ln(lince) 1 0.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Gr´fico 5.5 Gr´fico 5.5 0 −0.96/T^0.5 FACP de D Ln(Producción) 1 0.96/T^0.5 −1 0 5 10 15 20 retardo 25 30 35 +− 1.5 -1 0 5 10 15 20 retardo 25 30 35 +.96/T^0.5 −1 0 5 10 15 20 retardo 25 30 35 +− 1.5 0 -0.5 0 −0. a FAC de D Ln(Producción) 1 0.1.96/T^0.7: FAC y FACP estimadas de la serie Ln(lince).1.5 -1 0 5 10 15 20 retardo 25 30 35 +.5 0 -0.5 FACP de Ln(lince) 1 0.5 66 .

La siguiente tabla muestra los estad´ ısticos descriptivos principales de la serie estacionaria Zt = ln(Yt ) que se van a utilizar para contrastar si la media es o no nula. Pieles de Lince. El estad´ ıstico de contraste es: t = ¯ Z H0 ∼ t(T ∗ − 1) σZ ˆ¯ ¯ donde σZ es el estimador de la varianza de la media muestral Z que viene dado por: ˆ2 ¯ σZ = ˆ2 ¯ C0 (1 + 2ˆ1 + 2ˆ2 + . se contrastar´ si la media de la e a serie estacionaria es o no cero.An´lisis de Series Temporales: modelos ARIMA a Ejercicio 6.8 muestra las funciones de autocorrelaci´n simple y parcial estimadas para la transo formaci´n estacionaria de la serie Producci´n de Tabaco.11) ¯ donde C0 = (Zt − Z)2 /(T −1) es la varianza muestral de la serie estacionaria y (ˆ1 . se incluir´ el a o a par´metro δ en el modelo si: a t > tα/2 (T ∗ − 1) Ejemplo 6. H0 : E(Zt ) = 0 Ha : E(Zt ) = 0. para calcular esta varianza. Para decidir si se incluye un t´rmino independiente no nulo en el modelo. Zt = ∆ ln(Yt ) = D Ln(Produccion).4.3. o SARRIKO-ON 4/09 La figura 5. En ocasiones. se aplica la siguiente aproximaci´n: o σZ = ˆ2 ¯ C0 T∗ Se rechazar´ la H0 : E(zt ) = 0 a un nivel de significaci´n α y. Producci´n de tabaco. Inclusi´n del t´rmino independiente o e Recordemos que la media de un proceso ARM A(p.3 muestra la serie estacionaria Ln(lince) que parece oscilar a en torno a una media diferente de cero. entonces la media del proceso es cero. ρn ) ρ ˆ ˆ representan las n primeras autocorrelaciones muestrales significativas de Zt . ρ2 . La figura de la izquierda del gr´fico 5. q) estacionario est´ directamente relacionada a con la constante δ. o o Pregunta: ¿Qu´ modelo o modelos ARM A(p. por lo tanto. q) propones para la serie estacionaria? e B. 67 . + 2ˆn ) ρ ρ ρ T∗ (5. . . . . Si esta constante es cero. . .

276)2 (1 + 2 ∗ 0. o En la figura derecha del gr´fico 5. 0199342 C. 203842 Preguntas: ¿Es preciso incluir un t´rmino independiente en la especificaci´n del modelo? e o Escribe el/los modelos ARM A(p. 03192 Exc. . T´ ıp. q) que podr´ ıan haber generado la serie. 66 y: σZ = ˆ¯ por lo tanto. 13. 711632 M´ximo a 1. 565523 Asimetr´ ıa 0. 1) : Ejercicio 6. 0. 8363 M´ ınimo −0. Serie Producci´n de tabaco. (1. 27356 Mediana 6. 668913 La distribuci´n del estad´ o ıstico de contraste bajo la hip´tesis nula H0 : E(Zt ) = 0 es: o t = ¯ Z ∼ t(180 − 1) σZ ˆ¯ ¯ Seg´n los estad´ u ısticos principales. 05 > t0. 0147324 Desv. 78 + 2 ∗ 0.025 (180 − 1) ≈ 2 0.1933 para la variable Ln(lince) (113 observaciones v´lidas) a Media 6. se proponen los dos modelos siguientes para la serie estacionaria: (1) (2) AR(3) : Zt = δ + φ1 Zt−1 + φ2 Zt−2 + φ3 Zt−3 + at Zt = δ + φ1 Zt−1 + φ2 Zt−2 + at + θ at−1 ARM A(2. 66 = 701.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Estad´ ısticos principales. de curtosis −0. Estad´ ısticos principales. 68671 Desv.V. 66441 C.1984 para la variable D Ln(Produccion) (113 observaciones v´lidas) a Media 0. 1. T´ ıp. . 85238 Exc. de curtosis 4. 374282 M´ximo a 8. 192) = 0.4. 35 + .5 se presenta la transformaci´n estacionaria de la serie Proa o ducci´n de Tabaco. usando las observaciones 1821 . usando las observaciones 1871 . e Resumiendo. Z = 6. 68 Mediana 0. − 2 ∗ 0. 94746 . 0. 66356 Asimetr´ ıa −0. Zt = ∆ ln(Yt ) que parece oscilar en torno a cero y la siguiente tabla muestra o los principales estad´ ısticos descriptivos de la misma.0095 180 t = 6.V. 0095 Se rechaza la H0 : E(Zt ) = 0 para un α del 5 % y se incluye un t´rmino constante en el modelo. 190462 M´ ınimo 3.

aT ) ∝ σ −T ∗ T∗ exp − t=1 a2 t 2 σ2 (5. φp . a2 . . . . θ1 . que. a e o a partir de los valores de la serie estacionaria. θq ) y 2 σa Estos par´metros se pueden estimar de forma consistente por M´ a ınimos Cuadrados o M´xima a Verosimilitud. a la siguiente etapa consiste en estimar los par´metros desconocidos de dichos modelos: a β = (δ. at .An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 5. . . bajo el supuesto de normalidad. a1 .3. Zp−1 y a a0 .13) se han de expresar en o funci´n del conjunto de informaci´n y de los par´metros desconocidos del modelo. . Los estimadores M´ximo veros´ u o a ımiles condicionados a las p primeras observaciones son iguales a los estimadores M´ ınimos Cuadrados condicionados. a2 . . a1 . . Para un o o a modelo ARM A(p.13) Para resolver el problema de estimaci´n. aT . basados en la maximizaci´n de la funci´n de verosimilitud exacta que se obtiene como una combinaci´n de la o o o funci´n de verosimilitud condicionada y la funci´n de densidad no condicionada para los valores o o iniciales. El m´todo de M´ e ınimos Cuadrados minimiza la suma de cuadrados: M in a2 (5. Ambos m´todos de estimaci´n se basan en el c´lculo de las innovaciones. 69 . con lo que se obtienen los denominados estimadores de M´ ınimos Cuadrados Condicionados y M´ximo veros´ a ımiles Condicionados.12) t t La funci´n de verosimilitud se puede derivar a partir de la funci´n de densidad conjunta de las o o innovaciones. . . se calculan las innovaciones seg´n la ecuaci´n (5. Z1 . . Estimaci´n o Una vez identificados el/los procesos estoc´sticos que han podido generar la serie temporal Yt . La condici´n que se o impone habitualmente sobre los valores iniciales es que las p primeras observaciones de Zt son los valores iniciales y las innovaciones previas son cero. aq−1 . se necesitan un conjunto de valores iniciales Z0 . . para calcular las innovaciones a partir de un conjunto de informaci´n y de un vector o de par´metros desconocidos. . . . . . q). En la pr´ctica. . .12) y (5. En este caso.14) de t = p + 1 en adelante. . la innovaci´n se puede escribir como: o p q at = Zt − δ − i=1 φi Zt−i − i=1 θi at−i (5. las ecuaciones (5. φ1 .14) Por lo tanto. el procedimiento seguido es aproximar las innovaciones imponiendo una serie de a condiciones sobre los valores iniciales. . Existen m´todos para obtener estimadores M´ximos veros´ e a ımiles no condicionados. es como sigue: f (a1 . . . .

9120 3.4874 −2.0903199 58. 0000 70 AR MA Ra´ ız Ra´ ız Ra´ ız 1 2 1 .0000 0.106330 0.68671 1.296613 −92.0000 0. de la variable dependiente media de las innovaciones Varianza de las innovaciones Log-verosimilitud Real 0.137053 0.T. 9064 −3.7179 −2.49195 −0. 0983 0. 1117 3.887 M´dulo o 1. 0397 Frecuencia −0.5. t´ ıpica estad´ ıstico t valor p const φ1 φ2 θ1 6.00587872 0.258269 0.T. 0397 Imaginaria −0. 6252 0.5883 12. 1117 1.0129 0. 0000 AR Ra´ ız Ra´ ız Ra´ ız 1 2 3 Modelo 2: estimaciones ARMA utilizando las 113 observaciones 1821–1933 Variable dependiente: Ln(lince) Coeficiente Desv.14741 −0. 1057 1. 9064 0.0042 Media de la var. de la variable dependiente media de las innovaciones Varianza de las innovaciones Log-verosimilitud Real 0. o Modelo 1: estimaciones ARMA utilizando las 113 observaciones 1821–1933 Variable dependiente: Ln(lince) Coeficiente Desv.296583 −92. 6438 0.27356 −0.114106 0. 0983 0. 0000 0. An´lisis de Series Temporales: modelos ARIMA a En las siguientes tablas se encuentran los resultados de la estimaci´n de los dos modelos proo puestos para la transformaci´n estacionaria Zt = ln(Yt ) = Ln(lince).68671 1.328985 0.0648607 0. 9120 0.817975 −0.8595 6. 6438 0.00562629 0.27356 −0.0008 Media de la var.SARRIKO-ON 4/09 Ejemplo 6.68527 1.0982730 62. 1327 Frecuencia −0.8649 23.1380 −3.3477 6. dependiente D.0023 −14.0000 0. 5000 0. 1057 3.0902207 0.340902 −0.68440 1. 0956 0. dependiente D.876 M´dulo o 1.0000 0. t´ ıpica estad´ ıstico t valor p const φ1 φ2 φ3 6. 1327 Imaginaria −0.0000 0. 0956 0. Pieles de lince.0578566 0. 6252 0.

09) ARM A(2. 88223 = = 0. 68 = ˆ ˆ ˆ δ δ = ˆ ˆ 1 − 1. σ 2 . 14 + 0. 34 Zt−2 − 0. 07) (0. 13) 71 . 34 at−1 ˆ ˆ (0. 34 at−1 (0. 14) (0. 14 Zt−1 − 0. 07) (0. 82 Zt−2 + at − 0. 34 + 0. 82 1 − φ1 − φ2 → ˆ δ = 6. 50 + 0. 09) σ 2 = 0. 68 × 0. 30731 ∗−p−q T 110 − 3 − 0 32. 13 + 1. 07 ˆ δ ˆ ˆ ˆ 1 − φ1 − φ2 − . 26 Zt−3 + at ˆ (0. 82 Zt−2 + at − 0. 68 = ˆ ˆ δ ˆ ˆ ˆ 1 − φ1 − φ2 − φ3 = ˆ δ 1 − 1.An´lisis de Series Temporales: modelos ARIMA a Los modelos estimados son: (1) (2) AR(3) : SARRIKO-ON 4/09 ˆ Zt = δ + 1. 30737 (2) Zt = 2. 46 = 3. 07 + 1. 30731 σ 2 = 0. . 50 Zt−1 − 0. 26 → ˆ δ = 6. (1) σ 2 = ˆ a2 ˆ 32. la estimaci´n de la varianza del ruido blanco. 88891 a2 ˆ = = 0. 50 Zt−1 − 0. 1) : ˆ ˆ ˆ Zt = δ + 1. 32 = 2. 13 Por ultimo. 26 Zt−3 + at ˆ (0. 14) (0. 10) (0. 68 × 0. 08) (0. 10) (0. 34 Zt−2 − 0. 13) La estimaci´n de la constante dada por Gretl es la media estimada de la serie estacionaria: o • si el modelo estimado es un M A(q): ˆ ˆ ˆ const = C = µ = δ • si el modelo estimado es un AR(p) o ARM A(p. viene dada por: ´ o σ2 = ˆ Por lo tanto. . q): ˆ ˆ const = C = µ = Para la serie de Pieles de lince: ˆ (1) C = µ = 6. 08) (0. 30737 T∗ − p − q 110 − 2 − 1 a2 ˆ ∗−p−q T (2) σ 2 = ˆ Por lo que los modelos estimados para la serie de Pieles de lince son: (1) Zt = 3. − φp ˆ (2) C = µ = 6. 14 Zt−1 − 0.

0142529 −0. Producci´n de tabaco. 0000 0.0948359 3.719692 0.00443753 0. Pregunta: Escribe los correspondientes modelos estimados.0013 0.00444005 0.7249 0.0000 Media de la var. 3906 702. 0000 0. Zt = ∆ ln(Yt ) = DLn(P roduccion). 3906 702.00226524 0. 9871 Imaginaria 0.00227119 0.0613815 3. dependiente D.720531 0.9914 Media de la var.2119 −11. 0000 MA Ra´ ız 1 Modelo 2: estimaciones ARIMA utilizando las 113 observaciones 1872–1984 Variable dependiente: (1 − L) Ln(Produccion) Coeficiente Desv. 0000 0.0000 0. t´ ıpica estad´ ıstico t valor p const θ1 θ2 0. de la serie Producci´n de o o Tabaco.T.2692 0. de la variable dependiente media de las innovaciones Varianza de las innovaciones Log-verosimilitud Real 1.00102293 0.0108 0.T. 3895 Frecuencia 0.0142527 −0.3014 M´dulo o 1.0270321 43. de la variable dependiente media de las innovaciones Varianza de las innovaciones Log-verosimilitud Real 1. o An´lisis de Series Temporales: modelos ARIMA a En las siguientes tablas se encuentran los resultados de la estimaci´n de varios modelos para o la transformaci´n estacionaria. 0000 0. Modelo 1: estimaciones ARIMA utilizando las 113 observaciones 1872–1984 Variable dependiente: (1 − L) Ln(Produccion) Coeficiente Desv. 3895 Imaginaria 0.203842 0.0270320 43.0147324 0.5.0991205 0. 0000 MA Ra´ ız Ra´ ız 1 2 72 .3014 M´dulo o 1. dependiente D. t´ ıpica estad´ ıstico t valor p const θ1 0.0147324 0.203842 0.2100 −7.SARRIKO-ON 4/09 Ejercicio 6. 9871 Frecuencia 0.0013 0.

φ2 . . An´lisis de coeficientes estimados a En primer lugar. Para ello.16) (5. Se tiene en cuenta: a) Si las estimaciones de los coeficientes del modelo son significativas y cumplen las condiciones de estacionariedad e invertibilidad que deben satisfacer los par´metros del modelo. diagnosis o chequeo se procede a evaluar la adecuaci´n de los modelos o o estimados a los datos. θ1 .17) En general. 5. Validaci´n del modelo o En la etapa de validaci´n. . la distribuci´n asint´tica de los estimadores es la siguiente: o o ˆ ˆ βi ∼ N (βi .An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 5. si se ha incluido estructura a que no es relevante. si son ruido blanco. φp . se han de realizar los contrastes habituales de significaci´n individual de los o coeficientes AR y M A: β = (δ. q) con constante se plantean los siguientes contrastes: a H0 : δ = 0 H0 : φi = 0 H0 : θi = 0 frente a frente a frente a Ha : δ = 0 Ha : φi = 0 Ha : θi = 0 (5. cuando: a o o ˆ βi ˆ V (βi ) > Nα/2 (0. es decir. De forma que.1. .15) (5. se calculan las ra´ del polinomio autorregresivo. 1) Se rechazar´ la hip´tesis nula a un nivel de significaci´n α = 5 %. . es importante comprobar si las condiciones de estacionariedad e invertibilidad se satisfacen para el modelo propuesto. θq ) para comprobar si el modelo propuesto est´ sobreidentificado. . 1) 2 Por otro lado.4. a b) Si los residuos del modelo tienen un comportamiento similar a las innovaciones. . ıces 73 . φ1 . es decir. . para contrastar o la H0 de no significatividad individual de los par´metros se utilizar´ el estad´ a a ıstico t habitual que sigue asint´ticamente una distribuci´n normal: o o t= ˆ βi − 0 ˆ V (βi ) ∼ N (0. V (βi )) ∀i con la varianza dada por la inversa de la matriz de informaci´n. En el caso m´s general de un ARM A(p.4. .

o Matriz de covarianzas de los coeficientes (Modelo AR(3)) const 0. θ(L) = 0.025 ≈ 2 Se rechaza H0 : φ1 = 0 para un nivel de significaci´n del 5 %. 83053e-05 −0. 12 i = 1. 68 0.1)) const 0. 2. Si alguna de estas ra´ o ıces est´ pr´xima a la unidad podr´ indicar falta de estacionariedad y/o invertibilidad. 0109509 0.025 ≈ 2 Se rechaza H0 : C = 0 para un nivel de significaci´n del 5 %. o 74 . y las ra´ ıces del polinomio de medias m´viles. 00815768 const phi 1 phi 2 phi 3 Matriz de covarianzas de los coeficientes (Modelo ARMA(2. a • Contrastes de significatividad individual: H0 : C = 0 Ha : C = 0 C: ˆ C σC ˆˆ . Para realizar los contrastes de diagn´stico sobre los coeficientes. 03| > N0. 00420691 phi 2 5. o φ1 : ˆ φ1 σφ1 ˆˆ = 1. es conveniente tambi´n analizar la matriz de covarianzas entre los par´metros esti´ e a mados con el fin de detectar la posible presencia de una correlaci´n excesivamente alta entre las o estimaciones de los mismos lo que puede ser una indicaci´n de la presencia de factores comunes o en el modelo. 56654e-05 0. 3 = = |55. 000117743 −0.6. 00334739 theta 1 0. 87| > N0. 16782e-05 0. 00379432 0. 0187835 phi 3 5. se analizan los resultados de la o estimaci´n de los modelos 1 y 2 y las matrices de covarianzas siguientes. 80732e-05 −0. a o ıa Por ultimo. H0 : φi = 0 Ha : φi = 0 . An´lisis de los coeficientes. 00813977 phi 2 −4. Ejemplo 6. 0130202 phi 1 2. 6. 0108657 0. 00318008 0. 48347e-05 0. 14 0.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a φ(L) = 0 . Pieles de lince. 00965758 const phi 1 phi 2 theta 1 Modelo AR(3). 10 = |12. 00256617 0. 00573862 −0. 0113060 phi 1 −6.

φ2 ) ˆ ˆ V (φ1 )V (φ2 ) ˆ ˆ Cov(φ1 . 009 ˆ ˆ Corr(φ1 .025 ≈ 2 Se rechaza H0 : φ2 = 0 para un nivel de significaci´n del 5 %. φ3 ) ˆ ˆ V (φ2 )V (φ3 ) −0. 78| > N0. φ3 ) ˆ ˆ V (φ1 )V (φ3 ) ˆ ˆ Cov(φ2 . An´lisis de los coeficientes. 67 0. φ3 ) = a Modelo ARMA(2. 009 ∗ 0. 01 =√ = −0. 26 0.An´lisis de Series Temporales: modelos ARIMA a φ2 : SARRIKO-ON 4/09 ˆ φ2 σφ2 ˆˆ = −0. 32 |L2 | = |L3 | = 1 0. 009 −0. 14 = | − 2. o φ3 : ˆ φ3 σφ3 ˆˆ = −0. 02 ∗ 0.025 ≈ 2 Se rechaza H0 : C = 0 para un nivel de significaci´n del 5 %. 09 = | − 2. 6. 006 =√ = 0. 89 • Las correlaciones entre los coeficientes estimados que muestran la matriz de covarianzas no son muy altas: ˆ ˆ Corr(φ1 . H0 : φi = 0 Ha : φi = 0 .025 ≈ 2 Se rechaza H0 : φ3 = 0 para un nivel de significaci´n del 5 %. 35| > N0. 52)2 = 1 >1 0. 732 + (−0. 87| > N0. Los m´dulos de las ra´ del polinomio autorregresivo cumplen la condici´n de estacionao ıces o riedad: |L1 | = 1 >1 −0. φ3 ) = ˆ ˆ Corr(φ2 . φ2 ) = ˆ ˆ Cov(φ1 . 2 . 34 0. 745 0. 02 0. o 75 . 745 0. 11 i = 1. 666 0. 009 ∗ 0.1). o • Estacionariedad del modelo AR(3). 01 =√ = −0. • Contrastes de significatividad individual: H0 : C = 0 Ha : C = 0 C: ˆ C σC ˆˆ . H0 : θ = 0 Ha : θ = 0 = = |60.

θ) = ˆ ˆ Cov(φ2 . 70| > N0.025 ≈ 2 Se rechaza H0 : φ2 = 0 para un nivel de significaci´n del 5 %. φ2 ) = ˆ ˆ Cov(φ1 . θ) . 004 =√ = −0. 06 = | − 12. o • Estacionariedad e invertibilidad del modelo ARM A(2. 1). 07 An´lisis de Series Temporales: modelos ARIMA a = |20. 91 0. 016 ˆ ˆ V (φ1 )V (θ) 0. 016 ˆ ˆ V (φ2 )V (θ) 76 ˆ ˆ Corr(φ2 . 004 ∗ 0. 34 • Las correlaciones entre los coeficientes estimados que se recogen en la matriz de covarianzas no son muy altas.SARRIKO-ON 4/09 φ1 : ˆ φ1 σφ1 ˆˆ = 1. 13 = | − 2. o φ2 : ˆ φ2 σφ2 ˆˆ = −0. 671 0. 51)2 0. φ2 ) ˆ ˆ V (φ1 )V (φ2 ) ˆ ˆ Cov(φ1 . 004 ˆ ˆ Corr(φ1 . Los m´dulos de las ra´ del polinomio autorregresivo cumplen la condici´n de estacionao ıces o riedad: 1 1 |L1 | = |L2 | = >1 = 2 + (−0. 82 0. 5 =√ 0. θ) = −0. 005 ∗ 0. 87| > N0. 62| > N0. 006 =√ = −0. o θ: ˆ θ σθ ˆˆ = −0. 005 ∗ 0. 75 El m´dulo de la ra´ del polinomio medias m´viles cumple la condici´n de invertibilidad: o ız o o |L| = 1 >1 0. 50 0. 894 0.025 ≈ 2 Se rechaza H0 : θ = 0 para un nivel de significaci´n del 5 %. θ) −0. 34 0. ˆ ˆ Corr(φ1 .025 ≈ 2 Se rechaza H0 : φ1 = 0 para un nivel de significaci´n del 5 %. 004 = 0.

4. q) elegido para la serie estacionaria Zt (por simplicidad. El estad´ ıstico de contraste se distribuye bajo la hip´tesis nula como sigue: o t = √ T ¯ a ˆ C0 (ˆ) a a ∼ N (0. respectivamente. 1) (5. su varianza constante y las autocorrelaciones nulas.19) son estimaciones de at . se tiene que o a ρk (a) ∼ N ˆ 77 0. o Si los residuos se comportaran como un ruido blanco. entonces at = estimado (5. a) Para comprobar si la media es cero. Para comprobarlo.An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 5. Si en el gr´fico de los residuos la dispersi´n de los mismos es constante. a Si el modelo ARM A(p. Adem´s se puede llevar a cabo el siguiente contraste de hip´tesis: a o H0 : E(at ) = 0 Ha : E(at ) = 0.20) ¯ donde a y C0 (ˆ) son.96. 1 T∗ . ˆ a No se rechaza la hip´tesis nula al nivel de significaci´n del 5 % si |t| ≤ 1. se a pueden llevar a cabo: • Contrastes de significatividad individual sobre los coeficientes de autocorrelaci´n:.18) Φp (L) Zt es un proceso ruido blanco. Los residuos del modelo Θq (L) at = Φp (L) Θq (L) Zt (5. An´lisis de residuos. El an´lisis de residuos consiste en una serie de contrastes de diagn´stico a o con el objetivo de determinar si los residuos replican el comportamiento de un ruido blanco. c) Ausencia de correlaci´n serial. o o b) Varianza constante.2. los coeficientes de la FAC y FACP muestrales deben ser pr´cticamente nulos para todos los retardos. representando los residuos a a a lo largo del tiempo y observando si los valores oscilan alrededor de cero. o H0 : ρk (a) = 0 Ha : ρk (a) = 0 Bajo la hip´tesis nula. es decir. se realiza un an´lisis gr´fico. la media y la varianza muestrales de los residuos. suponemos que EZt = 0) Φp (L) Zt = Θq (L) at es correcto. a o concluiremos que la varianza de at permanece constante. si su media es cero.

existir´ correlaci´n serial en los residuos del modelo por lo que se ıa o concluye que el modelo no ha sido capaz de reproducir el patr´n de comportamiento o sistem´tico de la serie y habr´ que reformularlo. M . o u El estad´ ıstico m´s utilizado para contrastar esta hip´tesis es el propuesto por Ljunga o Box(1978): M Q (M ) = T (T + 2) k=1 ∗ ∗ ∗ ρ2 (a) ˆk T∗ − k H0 . . o o H0 : ρ1 (a) = ρ2 (a) = . a ıa d) Contraste de normalidad. El estad´ ıstico m´s utilizado es el de Jarque-Bera. . que la pr´ctica totalidad de los coeficientes de autocorrelaci´n a o 78 . para un nivel de signio o ficaci´n del 5 %. .7. o o Ejemplo 6. .9 muestra el gr´fico y el correlograma de los residuos para cada uno de los modelos a a propuestos y estimados para esta serie. es decir. 99. para k = 1. si o 2 |ˆk (a)| ≤ √ ρ T∗ para todo k o al menos para el 95 % de los coeficientes estimados. El gr´fico 5.05 En este caso. es decir. que se define: a JB = T∗ − p − q 6 1 Asimetria2 + (Kurtosis − 3)2 4 y que bajo la hip´tesis nula de normalidad se distribuye asint´ticamente como χ2 (2). = ρM (a) = 0 y la hip´tesis alternativa que alg´n coeficiente ρk sea no nulo. • Otra alternativa es realizar un contraste de significatividad sobre un conjunto de coeficientes de autocorrelaci´n. e En lo que se refiere al correlograma de los residuos. Se o o rechaza la hip´tesis nula de normalidad al nivel de significaci´n del 5 % si JB > 5.a ∼ χ2 (M − p − q) (5. . siendo la hip´tesis nula. Pieles de Lince. . para valores grandes del estad´ o ıstico. Se puede observar que el gr´fico de los residuos de los dos modelos propuestos y estimados es a muy similar y oscila en torno a cero con una varianza bastante homog´nea.21) Se rechaza la hip´tesis nula de ausencia de correlaci´n serial. tambi´n en los correlogramas de los residuos e de los dos modelos se observa. si Q∗ (M ) > χ2 (M − p − q) 0.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Se dir´ que at es un ruido blanco si los coeficientes de autocorrelaci´n estimados est´n a o a dentro del intervalo de no significaci´n.

554851 Mediana 0. Contrastes de diagn´stico.96/T^0.5 -1 0 5 10 15 20 retardo 25 30 35 +.5 0.1. 0931793 C. 0.96/T^0. sobre todo1.5 retardos m´s bajos.9: Ln(pieles de lince).5 0 -0.1) a Media −0. usando las observaciones 1821 . 128958 M´ximo a 1.An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 Gr´fico 5.1) 1 1 0. de curtosis 1. 7580 Asimetr´ ıa −0. 6175 M´ ınimo −1.5 +.5 -0.5 1. 00587872 Desv.5 Modelo ARMA(2. 0. 8127 Asimetr´ ıa −0. T´ ıp. -0.5 Residuo 0 Residuo 1820 1840 1860 1880 1900 1920 0 -0. 98.1933 para la variable uhat2 (113 observaciones v´lidas) ARMA(2.1.los simple estimados se encuentran dentro de las bandas de no significaci´n.5 -2 -2 1820 1840 1860 1880 1900 1920 FAC de los residuos 1 0.1. 554805 Mediana 0. a o Modelo AR(3) 2 2 1.5 0 -0.96/T^0.5 -1 0 5 10 Estad´ 20 principales.20 1933 15 ısticos 25 30 35 0 5 10 15 retardo para retardovariable uhat1 (113 observaciones v´lidas) AR(3) la a Media −0.5 de los o 0. 00983 -1 25 30 35 Estad´ ısticos principales. 0845680 C. 203604 79 M´ximo a 1.V. a 0 Las0 siguientes tablas muestran los estad´ ısticos descriptivos principales de los residuos de los dos modelos estimados para esta series. 78708 Exc. 87878 Exc.5 -1 0 5 10 15 20 retardo 25 30 35 +. de curtosis 0.5 0.5 -1 -1 -1.96/T^0. 00562629 Desv. T´ ıp.5 FACP de los residuos 1 FACP de los residuos 1 +. 3750 M´ ınimo −1.5 FAC de los residuos 1 0.V.5 -1. 94.5 -0. 871798 . usando las observaciones 1821 .

73. de curtosis 2. 36 < 57. T´ ıp.05 Q(36) = 51.1984 para la variable uhat1 (113 observaciones v´lidas) MA(1) a Media 0. 73. 99 0. 0253168 M´ximo a 0.1984 para la variable uhat2 (113 observaciones v´lidas) MA(2) a Media 0. 70 < χ2 (33) = 57. 42 < χ2 (12) = 28. 1) Q(15) = 21. 67χ2 (33) = 28. 00226524 Desv.05 Q(36) = 54. 166397 Mediana 0. 0. 550058 Asimetr´ ıa −0. Estad´ ısticos principales. 650369 Exc. de curtosis 2. 71 < χ2 (2) = 5. 00864620 C. Producci´n de tabaco.V.05 No se rechaza H0 Modelo ARM A(2. 0241193 M´ximo a 0.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a El estad´ ıstico de Box-Ljung proporciona los siguientes resultados: Modelo AR(3) Q(15) = 22. 166395 Mediana 0. 51 < χ2 (12) = 28. 1) JB = 4.05 Por lo que no se rechaza la hip´tesis nula de que los coeficientes de autocorrelaci´n son cero. 00881448 C. 550063 Asimetr´ ıa −0. 67 0. 2644 M´ ınimo −0.V. se tiene que: Modelo AR(3) JB = 4. o o En lo que se refiere al contraste de Jarque-Bera de Normalidad. 30 0.05 Modelo ARM A(2. 99 0. 30 0. 00227119 Desv. T´ ıp. 4557 M´ ınimo −0. 14855 Estad´ ısticos principales. usando las observaciones 1871 . 649804 Exc. o Estos son los resultados de estimar dos modelos para la serie Ln(Produccion). 0. 14227 80 . 30 0. usando las observaciones 1871 . 05 < χ2 (2) = 5.05 No se rechaza H0 Ambos modelos propuestos satisfacen los contrastes de diagn´stico por lo que ambos recogen la o estructura de la serie Pieles de Lince Ejercicio 6.6.

4 −0.5 15 20 retardo 25 30 35 FACP ¯ a = −0.8 SARRIKO-ON 4/09 Modelo ARIMA(0.8 0. 00376769 35theta 0 5 10 15 const theta 1 20 retardo 25 30 35 Matriz de covarianzas de los coeficientes (Modelo MA(2)). 0025 de los residuos t = 0.5 FACP de los residuos ¯ a = −0.96/T^0.5 -1 0 5 10 15 20 retardo 25 30 35 +.2 0 −0. 90397e-06 0. 145 ˆˆ Normalidad: JB = 2.86 o 0 -0. -1 15 20 retardo 25 const 30 1.59 +. 0028 ˆ σat = 0.1.1.1.5 Autocorrelaci´n: Q(15) = 10.6 0.1. 00982488 theta 2 −1.4 −0.96/T^0. 50197e-06 −0.5 Q(36) = 18.5 1 0. 96917e-05 1 6. 82024e-07 0.4 0.6 0. 97140e-05 theta 1 1.5 0 -0. 00737726 0. 145 ˆ σa ˆˆ 1 0.96/T^0.An´lisis de Series Temporales: modelos ARIMA a Modelo ARIMA(0. const 1.5 -1 0 5 10 FAC de los residuos +.1.2 residuo residuo 0 0.6 1880 1900 1920 1940 1960 1980 −0.59 Autocorrelaci´n: Q(15) = 10.49 +.5 1 0.6 1880 1900 1920 1940 1960 1980 FAC de los residuos 1 0.58 Matriz de covarianzas de los coeficientes (Modelo MA(1)).86 o Q(36) = 18.4 0.1) Residuos de la regresión (= L_Produccion observada − estimada) 0.5 -1 0 5 10 Normalidad: JB = 2. 00899385 const theta 1 theta 2 Pregunta: ¿Qu´ modelo de los dos propuestos seleccionar´ para la serie Produce ıas ci´n de tabaco? o 81 .5 0 -0.2) Residuos de la regresión (= L_Produccion observada − estimada) 0.1.2 −0.5 0 -0.96/T^0.2 −0.

e An´lisis de Series Temporales: modelos ARIMA a Cuadro 5. Datos.4: Pieles de lince (1821-1930) A˜o n 1821 1822 1823 1824 1825 1826 1827 1828 1829 1830 1831 1832 1833 1834 1835 1836 1837 1838 1839 Pieles 269 321 585 871 1475 2821 3928 5943 4950 2577 523 98 184 279 409 2285 2685 3409 1824 A˜o n 1840 1841 1842 1843 1844 1845 1846 1847 1848 1849 1850 1851 1852 1853 1854 1855 1856 1857 1858 Pieles 409 151 45 68 213 546 1033 2129 2536 957 361 377 225 360 731 1638 2725 2871 2119 A˜o n 1859 1860 1861 1862 1863 1864 1865 1866 1867 1868 1869 1870 1871 1872 1873 1874 1875 1876 1877 Pieles 684 299 236 245 552 1623 3311 6721 4254 687 255 473 358 784 1594 1676 2251 1426 756 A˜o n 1878 1879 1880 1881 1882 1883 1884 1885 1886 1887 1888 1889 1890 1891 1892 1893 1894 1895 1896 Pieles 299 201 229 469 736 2042 2811 4431 2511 389 73 39 49 59 188 377 1292 4031 3495 A˜o n 1897 1898 1899 1900 1901 1902 1903 1904 1905 1906 1907 1908 1909 1910 1911 1912 1913 1914 1915 Pieles 587 105 387 758 1307 3465 6991 6313 3794 1836 345 382 808 1388 2713 3800 3091 2985 790 A˜o n 1916 1917 1918 1919 1920 1921 1922 1923 1924 1925 1926 1927 1928 1929 1930 Pieles 674 81 80 108 229 1132 2432 3574 2935 1537 529 485 662 1000 1590 82 .SARRIKO-ON 4/09 Ap´ndice A.

5: Produccion de tabaco (1872-1984) A˜o n 1872 1873 1874 1875 1876 1877 1878 1879 1880 1881 1882 1883 1884 1885 1886 1887 1888 1889 1890 Pieles 327 385 382 217 609 466 621 455 472 469 426 579 509 580 611 609 469 661 525 A˜o n 1891 1892 1893 1894 1895 1896 1897 1898 1899 1900 1901 1902 1903 1904 1905 1906 1907 1908 1909 Pieles 648 747 757 767 767 745 760 703 909 870 852 886 960 976 857 939 973 886 836 A˜o n 1910 1911 1912 1913 1914 1915 1916 1917 1918 1919 1920 1921 1922 1923 1924 1925 1926 1927 1928 Pieles 1054 1142 941 1117 992 1037 1157 1207 1326 1445 1444 1509 1005 1254 1518 1245 1376 1289 1211 A˜o n 1929 1930 1931 1932 1933 1934 1935 1936 1937 1938 1939 1940 1941 1942 1943 1944 1945 1946 1947 Pieles 1373 1533 1648 1565 1018 1372 1985 1302 1163 1569 1386 1881 1460 1262 1408 1406 1951 1991 1315 A˜o n 1948 1949 1950 1951 1952 1953 1954 1955 1956 1957 1958 1959 1960 1961 1962 1963 1964 1965 1966 Pieles 2107 1980 1969 2030 2332 2256 2059 2244 2193 2176 1668 1736 1796 1944 2061 2315 2344 2228 1855 A˜o n 1967 1968 1969 1970 1971 1972 1973 1974 1975 1976 1977 1978 1979 1980 1981 1982 1983 1984 Pieles 1887 1968 1710 1804 1906 1705 1749 1742 1990 2182 2137 1914 2025 1527 1786 2064 1994 1429 83 .An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 Cuadro 5.

03 2.95 -1.62 0.05 -1.9 0. Modelo con constante T 0.63 0.75 -3.89 0.31 1.58 -3.14 .60 -1.58 -2.42 -0.3.61 0.2.08 2.07 0.95 -1.95 1.66 -2.46 -3.44 0. Contraste de Dickey-Fuller e An´lisis de Series Temporales: modelos ARIMA a Tablas de valores cr´ ıticos del estad´ ıstico de Dickey-Fuller Modelo sin constante T 0.95 -1.43 0. para un tama˜o de muestra T = 25 y α = 0.01 25 50 100 250 500 ∞ -2.23 . 84 .95 0. 01.99 0.00 Por ejemplo.23 Nivel de significaci´n α o 0.86 0.89 0.05 -0.89 -2.95 -1.3.60 -2.01 2.87 -2.24 .22 .3. 66) = 0.16 2.2.025 . se tiene que n P rob(t < −2.61 -1.58 -2.05 -3.2.64 1.44 -3.60 -2.57 -2.99 2.43 -0.58 0.34 0.2.72 0.57 0.3.95 0. para un tama˜o de muestra T = 25 y α = 0.29 1.975 1.12 Nivel de significaci´n α o 0.29 0.29 1. 01.40 -0.89 0.62 0.24 0.61 -1.24 0.2.00 -0. se tiene que n P rob(tc < −3.63 1.01 25 50 100 250 500 ∞ -3.57 -2.23 0.10 -1.3.2.60 Por ejemplo.66 1.03 -0.025 .28 1.26 0.62 -2.06 -0.26 .70 1.63 -2.37 -0.00 2.58 -2.9 -0.51 -3.62 -1.975 0.62 -1.SARRIKO-ON 4/09 Ap´ndice B.24 .3.62 1.17 .93 -2.66 0.92 0.62 0.00 -2.13 .33 .28 0.42 -0.25 .95 -1.07 -0.10 -2.91 0. 01.90 0.88 -2. 01. 75) = 0.33 1.

Un objetivo menos ambicioso o ser´ dise˜ar unos intervalos de confianza alrededor del valor YT + .95”. A la predicci´n de YT + con informaci´n o o hasta el momento T la vamos a denotar por YT ( ). o Como estamos considerando que la serie temporal es una realizaci´n de un proceso estoc´stico o a estacionario. etc. entonces se predice el valor de YT +1 y se calcula lo que se denomina predicci´n un periodo hacia adelante. Para e predecir una variable aleatoria. . donde representa el n´mero a u de periodos en el futuro que estamos considerando.000 con una probabilidad de 0. Por ejemplo. es tambi´n una variable aleatoria. Si = 1. d. va a ser muy dif´ determinar completamente la forma de la funci´n de densidad sin hacer supuestos ıcil o muy fuertes y poco realistas sobre la forma de esta funci´n. Estos valores A y B permiten poner unos l´ ımites al valor que se quiere predecir con un grado de confianza de estar en lo cierto suficientemente alto.000”. Si = 3. Ahora bien. el valor que se quiere predecir. Es interesante distinguir entre predicci´n por intervalo que conlleva la construcci´n de estos o o intervalos de predicci´n y la predicci´n por punto.Cap´ ıtulo 6 Predicci´n ´ptima con modelos o o ARIMA(p. que implica simplemente asignar un valor o o a YT + que de alguna manera represente a toda la distribuci´n de valores. 95 . en general. ser´ decir: o ıa “ se predice un n´mero de ocupados en el sector industrial el primer trimestre de 2010 entre u 100. entonces o se predice el valor de YT +3 y se calcula la predicci´n tres periodos hacia adelante. . es de esperar que el n´mero real de e u ocupaados estar´ fuera de los intervalos construidos solo en un 5 % de los casos.1) Supongamos que se observa una serie temporal denotada por Yt . YT −2 . Un ejemplo de la predicci´n por intervalo. Si el m´todo de predicci´n es bueno y si e o pudi´ramos hacer un secuencia de predicciones de este tipo. .000 y 140. YT −1 . para t = 0 hasta t = T . que nos permitan decir que ıa n prob(B < YT + ≤ A) = 0. YT −2 . q) El objetivo es obtener predicciones ´ptimas de Yt en alg´n momento futuro basadas en un o u conjunto de informaci´n dado que en el caso del an´lisis de series temporales univariante esta o a formado por el pasado disponible de la serie temporal IT = {YT . La predicci´n de series temporales supone decir ´ o o algo sobre el valor que tomar´ la serie en momentos futuros T + .} (6. se deber´ predecir su funci´n de distribuci´n y as´ poder hacer ıa o o ı afirmaciones tales como: prob(163 < YT + ≤ 190) = 0. YT + . ıa 85 . 42. donde T es la ultima observaci´n de que disponemos. una o predicci´n por punto ser´ afirmar que “se predice un n´mero de ocupados en el sector industrial o ıa u el primer trimestre de 2010 de 120.

tal o y como se genera en funci´n del modelo para luego obtener la predicci´n ´ptima calculando o o o la esperanza condicionada al conjunto de informaci´n. V (eT ( ))) Tipificando se obtiene: YT + − YT ( ) − 0 V (eT ( )) ∼ N (0. Si no se cumple este supuesto. Por lo tanto. por el valor esperado de la distribuci´n de YT ( ) condicionada la informaci´n disponible.. se puede demostrar que la esperanza condicioo nada se puede expresar como una funci´n lineal del conjunto de informaci´n. .SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Por predictor ´ptimo (o predicci´n ´ptima) se denomina a ´quel que es la mejor en el sentido de o o o a que minimiza una determinada funci´n de p´rdida. YT −1 . bajo condiciones de regularidad muy d´biles. el predictor por punto e o ´ptimo viene dado por la esperanza condicionada al conjunto de informaci´n: o YT ( ) = E[YT + |IT ] = E[YT + |YT . o La predicci´n ´ptima por intervalo se construir´ a partir de la distribuci´n del error de predicci´n o o a o o que. o La estrategia de predicci´n se va a basar en escribir el valor que se desea predecir. la proyecci´n lineal de YT + en su pasado proporcionar´ o ıa el predictor ´ptimo dentro de la clase de predictores lineales. es la siguiente: eT ( ) = YT + − YT ( ) ∼ N (0. o Pero si el proceso sigue una distribuci´n normal. bajo el supuesto de que at ∼ RBN (0. por lo que diremos que YT ( ) es un predictor ´ptimo si minimiza el o o ECMP. es decir. YT −3 . .. 1) De forma que el intervalo de predicci´n de probabilidad (1 − α) % es: o YT ( ) − Nα/2 V (eT ( )). se obtiene: o YT ( ) = ET [YT + ] = ψ aT + ψ +1 aT −1 +ψ +2 aT −2 +ψ +3 aT −3 + . YT −2 .2).. σ 2 ) . IT . si cumple que: ∗ E[YT + − YT ( )]2 ≤ E[YT + − YT ( )]2 ∗ ∀ YT ( ) Se puede demostrar que. YT + viene dado por: YT + = aT + + ψ1 aT + −1 + ψ2 aT + −2 +. Para la representaci´n medias m´viles o o o general. M A(∞) y el conjunto de informaci´n dado por (6. YT ( ) + Nα/2 V (eT ( )) 6. . Lo m´s usual es minimizar el Error Cuadr´tio e a a co Medio de Predicci´n. o o Nada garantiza que esta esperanza condicionada sea una funci´n lineal del pasado de la serie.. Predicci´n con modelos estacionarios o Consideremos el modelo lineal general (3. el predictor ´ptimo en el sentido de minimizar el ECMP es o lineal.. o o bajo el supuesto de normalidad. Tomando la esperanza condicionada al conjunto de informaci´n.1)..] = ET [YT + ] es decir.1.+ψ −1 aT +1 + ψ aT + ψ +1 aT −1 +ψ +2 aT −2 +. YT + . 86 .

. dado el conjunto de informaci´n IT .. cero.. + ψ 2−1 ) σ 2 = σ 87 ..2) + 2 ψ2 + . . . . . . es decir.. . − +ψ +3 aT −3 − (ψ aT + ψ +ψ + .. como la parte sistem´tica se puede predecir mediante el modelo. = o o 1. = . eT ( ) = YT + − YT ( ) = aT + + ψ1 aT + + ψ aT + ψ +1 aT −1 +1 aT −1 −1 −1 + ψ2 aT + −2 + ... . Si. a Los errores de predicci´n son: o eT (1) = YT +1 − YT (1) = aT +1 + ψ1 aT + ψ2 aT −1 + ψ3 aT −2 + . .) = aT +2 + ψ1 aT +1 .. . . con o a o lo que su media condicionada ser´ la misma que su media no condicionada. V (eT ( )) = ET [eT ( )]2 = ET [aT + + ψ1 aT + = (1 + 2 ψ1 −1 2 i=0 + ψ2 aT + −1 2 ψi −2 + .) = aT +1 eT (2) = YT +2 − YT (2) = aT +2 + ψ1 aT +1 + ψ2 aT + ψ3 aT −1 + .. es fija. Si.. no se conoce el verdadero o a valor de Yt .... entonces la innovaci´n at no est´ determinada por el conjunto de informaci´n.) = = aT + + ψ1 aT + + ψ2 aT + + . .. 2. con valor medio cero: ET (eT ( )) = ET [aT + + ψ1 aT + −1 + ψ2 aT + −2 + .. + ψ −1 aT +1 Los errores de predicci´n son una combinaci´n lineal de las perturbaciones futuras aT + . dado IT .. − − (ψ1 aT + ψ2 aT −1 + ψ3 aT −3 + . a la perturbaci´n at = Yt − P S t est´ determinada.An´lisis de Series Temporales: modelos ARIMA a dado que: ET (aT +j ) = aT +j E(aT +j ) = 0 j≤0 j>0 SARRIKO-ON 4/09 La perturbaci´n at es la innovaci´n en el momento t. + ψ −1 aT +1 + +ψ +2 aT −2 +2 aT −2 −2 + . + ψ 2 −1 aT +1 ] = (6. . = .... − − (ψ2 aT + ψ3 aT −1 + ψ4 aT −2 + . se o o o conoce el verdadero valor de Yt . + ψ −1 aT +1 ] = 0 La varianza del error de predicci´n o Error Cuadr´tico Medio de Predicci´n viene dado por: o a o VT (eT (1)) = ET [eT (1)]2 = ET [aT +1 ]2 = σ 2 2 VT (eT (2)) = ET [eT (2)]2 = ET [aT +2 + ψ1 aT +1 ]2 = (1 + ψ1 ) σ 2 ..

√ σ2 2 σ 2 (1 + ψ1 ) 2 σ 2 (1 + ψ1 ) YT (2) + Nα/2 −1 2 ψi −1  2 ψi  . o .1. YT ( ) + Nα/2 σ2 i=0 6. a Se puede observar que la perturbaci´n o innovaci´n at y su varianza σ 2 tienen una nueva o o interpretaci´n: o . 2. .SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Como se puede observar la varianza del error de predicci´n va creciendo conforme nos alejamos o en el futuro. o Comencemos por un modelo de medias m´viles sencillo. Ahora bien. sino que tiene una cota m´xima finita. V (eT ( ))] Por lo que el intervalo de predicci´n de probabilidad (1 − α) % es: o YT +1 : YT +2 : . si el proceso es estacionario se cumple que: ∞ 2 ψi < ∞ i=1 por lo que esta varianza no crece indefinidamente. Predicci´n con modelos MA(q). o Si el proceso ruido blanco sigue una distribuci´n normal. el M A(2) de media cero: o Yt = at − θ1 at−1 − θ2 at−2 La funci´n de predicci´n es: o o YT +1 = aT +1 − θ1 aT − θ2 aT −1 YT (1) = ET [YT +1 ] = ET [aT +1 − θ1 aT − θ2 aT −1 ] = − θ1 aT − θ2 aT −1 YT +2 = aT +2 − θ1 aT +1 − θ2 aT YT (2) = ET [YT +2 ] = ET [aT +2 − θ1 aT +1 − θ2 aT ] = − θ2 aT −1 88 at ∼ RBN (0. . . es el error de predicci´n un periodo hacia adelante. se tiene que: o eT ( ) = YT + − YT ( ) ∼ N [0.1. .  YT ( ) − Nα/2 σ2 i=0 √ σ2 .V (at ) = σ 2 . YT + : YT (1) − Nα/2 YT (2) − Nα/2 . es la varianza del error de predicci´n un periodo hacia adelante. . σ 2 ) t = 1. . .at = Yt − Yt−1 (1) . . YT (1) + Nα/2 . por ejemplo.

2. − θq aT 0 ∀ = q + 1. t T q 1 2 Aunque la varianza del error de predicci´n es una funci´n creciente de . aT −1 ... . Esto significa que. . .. .. A partir de = q . . . σ 2 ) t = 1. . − θq at−q La funci´n de predicci´n es: o o          YT ( ) =         at ∼ RBN (0. tiene una cota m´xima que viene dada por la varianza no condicionada del proceso y que o a se alcanza para = q. se obtienen los mismos o resultados que sin condicionar. + θ2 ) σ 2 (= V (Y )) = q + 1. o o o para = 1. + θq−1 ) σ 2      V (e ( )) = (1 + θ2 + θ2 + . 2 . − θq aT +1−q − θ2 aT − θ3 aT −2 − . . . depende del conjunto de informaci´n. .2) con ψi = θi . o o Estos resultados se pueden generalizar f´cilmente para el modelo M A(q): a Yt = at − θ1 at−1 − θ2 at−2 − .. = 1. . . . . . . . Se puede concluir que para un modelo M A(q) las predicciones para los q primeros horizontes de predicci´n. . . . V (eT ( )) =    2 2 2  V (eT (q)) = (1 + θ1 + θ2 + .. .. q . aT +1−q . con lo que se mejora la predicci´n o o respecto de la media no condicionada del proceso porque se predice con una varianza del error de predicci´n menor que la varianza no condicionada del proceso. i = 1. 2. . . YT (1) = YT (2) = . . YT (q) = YT ( ) = − θ1 aT − θ2 aT −1 − . . . . se obtiene la varianza a o del error de predicci´n aplicando la expresi´n (6. . Como el modelo M A(2) est´ escrito directamente en forma medias m´viles. . IT ya no es informativo. el horizonte de predico o ci´n. IT . A partir de > 2 . luego a partir de = q . . q + 2. la predicci´n ´ptima viene dada por la media del proceso. 2. . . condicionando al conjunto de informaci´n.. q + 2.An´lisis de Series Temporales: modelos ARIMA a YT +3 = aT +3 − θ1 aT +2 − θ2 aT +1 SARRIKO-ON 4/09 YT (3) = ET [YT +3 ] = ET [aT +3 − θ1 aT +2 − θ2 aT +1 ] = 0 YT ( ) = ET [YT + ] = 0 (= E(Yt )) ∀ > 2 Por lo tanto. dependen del conjunto de informaci´n a trav´s de los errores de o o e predicci´n un periodo hacia adelante aT . q y ψi = 0. 89 . la funci´n de predicci´n de un M A(2). el conjunto o de informaci´n no aporta nada a la predicci´n porque las predicciones ´ptimas son la media no o o o condicionada del proceso y la varianza del error de predicci´n es la varianza no condicionada del o proceso. − θq aT +2−q . ∀i > q: o o   V (eT (1)) = σ2     2  V (eT (2)) = (1 + θ1 ) σ 2    .

+ θq−1 ) √ σ2 2 σ 2 (1 + θ1 ) 2 2 2 σ 2 (1 + θ1 + . . =q >q An´lisis de Series Temporales: modelos ARIMA a − θ1 aT − θ2 aT −1 − . . . Predicci´n con modelos AR(p) o Consideremos el modelo autorregresivo m´s sencillo. . a Yt = φ Yt−1 + at La funci´n de predicci´n es: o o YT +1 = φ YT + aT +1 YT (1) = ET [YT +1 ] = ET [φ YT + aT +1 ] = φ YT YT +2 = φ YT +1 + aT +2 YT (2) = ET [YT +2 ] = ET [φ YT +1 + aT +2 ] = φ ET [YT +1 ] = φ YT (1) YT +3 = φ YT +2 + aT +3 YT (3) = ET [YT +3 ] = ET [φ YT +2 + aT +3 ] = φ ET [YT +2 ] = φ YT (2) De forma que la funci´n de predicci´n es: o o YT ( ) = φ YT ( ). .. . 2. . . − θq aT +2−q ± Nα/2 .1. . + θq−1 + θq ) = ±Nα/2 V (Yt ) 6. − θq aT ± Nα/2 0 ± Nα/2 2 2 σ 2 (1 + θ1 + . dado que: ET (YT +j ) = YT +j E(YT (j)) 90 j≤0 j>0 = 1. .3) at ∼ RBN (0. . (6. . + θq−1 + θq ) La amplitud de los intervalos de predicci´n va creciendo con . .2. 3. . con el l´ o ımite impuesto por ± Nα/2 2 2 2 σ 2 (1 + θ1 + . σ 2 ) t = 1. . − θq aT +1−q ± Nα/2 − θ2 aT − θ3 aT −2 − ... ..SARRIKO-ON 4/09 La predicci´n por intervalo viene dada por: o =1 =2 . 2. el AR(1). .

|φ| < 1. .3) recoge una regla de cadena para obtener las predicciones de un o o proceso autorregresivo unas en funci´n de las otras hasta un futuro indefinido. 2. . ) at → Yt = at + φ at−1 + φ2 at−2 + φ3 at−3 + . ∀i : ψ1 = φ  σ2  V (eT (1)) =     V (e (2)) =  (1 + φ2 ) σ 2  T   V (eT (3)) = (1 + φ2 + (φ2 )2 ) σ 2 V (eT ( )) =    V (e (4)) = (1 + φ2 + (φ2 )2 + (φ3 )2 ) σ 2  T      V (eT ( )) = (1 + φ2 + (φ2 )2 + . . se ha de obtener la varianza del error de predicci´n. En el caso del AR(1): o (1 − φ L) Yt = at → Yt = 1 at 1 − φL → Yt = (1 + φ L + φ2 L2 + φ3 L3 + . . . . . . + (φ −1 )2 ) σ 2 La varianza del error de predicci´n es monotonamente creciente conforme nos alejamos en el o futuro. La trayectoria o de la funci´n de predicci´n depende de la estructura de la parte autorregresiva: o o YT (1) = φ YT YT (2) = φ YT (1) = φ φ YT = φ2 YT YT (3) = φ YT (2) = φ φ2 YT = φ3 YT YT (4) = φ YT (3) = φ φ3 YT = φ4 YT YT ( ) = φ YT = 1. esta varianza no crece indefinidamente sino que tiene una cota superior dada por la varianza no condicionada del proceso: l´ V (eT ( )) = l´ σ 2 ım ım →∞ →∞ 1 + φ2 + (φ2 )2 + . Como el proceso autorregresivo es estacionario. + (φ 91 −1 2 ) = σ2 = V (Yt ) 1 − φ2 . . y por lo tanto cuando nos alejamos en el futuro la funci´n de predicci´n tiende hacia la media no condicionada del proceso: o o l´ YT ( ) = 0 ( = E(Yt )) ım →∞ Para construir los intervalos de predicci´n. . Como el proceso es estacionario. . o o Para ello es preciso partir del modelo escrito en forma medias m´viles. Por lo que la varianza del error de predicci´n se obtiene aplicando la f´rmula general (6. 3.2) con o o i .An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 La funci´n de predicci´n (6.

. y el resto se obtienen a partir de las p primeras. . . . En el caso de un autorregresivo de orden p autorregresivo de orden p. q) sencillo. . . se obtendr´n a partir de o a reglas de cadena: YT ( ) = φ1 YT ( − 1) + φ2 YT ( − 2) + φ3 YT ( − 3) + . En general. + (φ −1 )2 ) La amplitud de los intervalos de predicci´n va creciendo con . . σ 2 ) t = 1.q). . . + φp YT ( − p). Predicci´n con modelos ARMA(p. o Consideremos un modelo ARM A(p. el ARM A(1. La funci´n de predicci´n de un proceso AR(1) utiliza la ultima observaci´n YT para obtener o o ´ o la predicci´n un periodo hacia adelante y luego.4) . . se utilizar´n a las p ultimas observaciones para obtener las predicciones para ´ = 1. 2. . 2.SARRIKO-ON 4/09 La predicci´n por intervalo es: o =1 =2 =3 . 2): Yt = δ + φ Yt−1 + at − θ1 at−1 − θ2 at−2 La media de este proceso no es cero si δ = 0 : E(Yt ) = 92 δ 1−φ at ∼ RBN (0. se obtienen el resto de las o e predicciones. .1.. p. σ 2 (1 + φ2 ) σ 2 (1 + φ2 + (φ2 )2 ) φ YT ( − 1) ± Nα/2 σ 2 (1 + φ2 + (φ2 )2 + . 3. las funciones de predicci´n de procesos autorregresivos puros. . . φ YT ± Nα/2 √ σ2 An´lisis de Series Temporales: modelos ARIMA a φ YT (1) ± Nα/2 φ YT (2) ± Nα/2 . 6. (6. con el l´ o ımite impuesto por σ2 = ±Nα/2 1 − φ2 ±Nα/2 V (Yt ) Los resultados obtenidos para el modelo AR(1) se pueden extender para el modelo AR(p). = 1.. . 2.3. a partir de ´sta..

por lo tanto. las predicciones por intervalo. la parte medias m´viles o o no aparece de forma expl´ ıcita en la funci´n de predicci´n. −3 YT ( ) = δ + φ YT ( − 1) = δ(1 + φ + φ2 + . . . 1) es estacionario. o se deriva la representaci´n medias m´viles infinita: o o (1 − φL) Yt = (1 − θ1 L − θ2 L2 ) at → Yt = 1 − θ1 L − θ2 L2 at = (1 + ψ1 L + ψ2 L2 + ψ3 L3 + .. + φ )+φ −2 YT (2) de forma que como el modelo ARM A(2. Esta funci´n o se va acercando a la media del proceso conforme nos alejamos en el futuro: YT (3) = δ + φ YT (2) YT (4) = δ + φ YT (3) = δ + φ (δ + φ YT (2)) = δ(1 + φ) + φ2 YT (2) YT (5) = δ + φ YT (4) = δ + φ (δ(1 + φ) + φ2 YT (2)) = δ(1 + φ + φ2 ) + φ3 YT (2) . . . Para > 2. .. y cada predicci´n se va obteniendo de o o o las anteriores siguiendo una regla en cadena marcada por la parte autorregresiva. Las dos primeras predicciones dependen o o de la ultima observaci´n YT (parte autorregresiva) y de los ultimos errores de predicci´n un ´ o ´ o periodo hacia adelante aT y aT −1 (parte medias m´viles).. |φ| < 1 y: −3 l´ YT ( ) = δ ım →∞ i=0 φi = δ ( = E(Yt )) 1−φ Para obtener la varianza del error de predicci´n y.) at 1 − φL 93 ..An´lisis de Series Temporales: modelos ARIMA a Las predicciones por punto son: YT +1 = δ + φ YT + aT +1 − θ1 aT − θ2 aT −1 SARRIKO-ON 4/09 YT (1) = ET [YT +1 ] = ET [δ + φ YT + aT +1 − θ1 aT − θ2 aT −1 ] = = δ + φ YT − θ1 aT − θ2 aT −1 YT +2 = δ + φ YT +1 + aT +2 − θ1 aT +1 − θ2 aT YT (2) = ET [YT +2 ] = ET [δ + φ YT +1 + aT +2 − θ1 aT +1 − θ2 aT ] = = δ + φ YT (1) − θ2 aT YT +3 = δ + φ YT +2 + aT +3 − θ1 aT +2 − θ2 aT +1 YT (3) = ET [YT +3 ] = ET [δ + φ YT +2 + aT +3 − θ1 aT +2 − θ2 aT +1 ] = = δ + φ YT (2) → YT ( ) = ET [YT + ] = δ + φ YT ( − 1) ∀ > 2 La estructura de la funci´n de predicci´n es la siguiente.

. . a 6. la amplitud de los intervalos ir´ creciendo conforme nos alejamos en el futuro a pero con una cota m´xima dada por ± Nα/2 × V (Yt ) . −θ1 L = (ψ1 − φ) L ⇒ −θ1 = ψ1 − φ ⇒ ψ1 = φ − θ1 −θ2 L2 = (ψ2 − φψ1 ) L2 ⇒ −θ2 = ψ2 − φψ1 ⇒ ψ2 = φψ1 − θ2 = φ(φ − θ1 ) − θ2 0 L3 = (ψ3 − ψ2 φ) L3 . . en el caso del modelo (6. infinita son: ψ0 = 1 ψ1 = φ − θ1 ψ2 = φψ1 − θ2 = φ(φ − θ1 ) − θ2 ψk = φ ψk−1 ⇒ 0 = ψ3 − ψ2 φ ⇒ ψ3 = φ ψ2 Los pesos de la forma medias m´viles o   k=0      k=1 ψi =  k=2      k>2 con estos pesos se pueden construir los intervalos de predicci´n. obteniendo: ˆ ˆ φp (L) Yt = θq (L) at ˆ t = 1.. . la funci´n de predicci´n estimada ser´ o o ıa:  ˆ ˆ ˆ ˆ ˆ ˆ YT (1) = δ + φ YT − θ1 aT − θ2 aT −1  =1   ˆ ˆ ˆ ˆ YT ( ) = =2 YT (2) = δ + φ YT (1) − θ2 aT    ˆ ˆ >2 YT ( ) = δ + φ YT ( − 1) 94 . pero tambi´n una estimaci´n del error de predicci´n un ˆ e o o periodo hacia adelante. . 2) o es estacionario. Predicciones con modelos estacionarios estimados Habitualmente no se conoce el proceso que ha generado la serie temporal Yt por lo que hay que estimarlo con los datos disponibles.1. Por ejemplo. 2.) e igualando coeficientes: L L2 L3 .4). Como el proceso ARM A(1.SARRIKO-ON 4/09 de donde: An´lisis de Series Temporales: modelos ARIMA a 1 − θ1 L − θ2 L2 = 1 + ψ1 L + ψ2 L2 + ψ3 L3 + .. 1 − φL → 1 − θ1 L − θ2 L2 = (1 − φL)(1 + ψ1 L + ψ2 L2 + ψ3 L3 + . . .4. .. . T donde at son los residuos del modelo.

. 38 95 t = 1. 69 L2 = 0 → L1 . 69 1. . . 67 aT − 0. T YT (1) = 2. 33 1. . 33 YT − 0. 38 1. 4 + 1. 69 YT −1 YT (2) = 2. 38 1. o Gr´fico 6. 33 Yt−1 − 0. 33 ± 1. 2. 31 aT −1 ˆ ˆ YT (2) = 10. . 33 YT ( − 1) − 0. 99 = = ± i = a ± bi 2 × 0. 4 + 1. L2 = 1. .1. 2.An´lisis de Series Temporales: modelos ARIMA a Ejemplo 4. 3. 332 − 4 × 0. 69 Yt−2 + at ˆ Funci´n de predicci´n: o o   =1    =2 YT ( ) =     = 1. 69 0.1. . 33 L + 0. Modelo AR(2) Yt = 2. a partir de = 2 la funci´n de predicci´n permanece constante a o o en la media del proceso con una amplitud constante del intervalo de predicci´n. 99 1. 31 aT ˆ ˆ YT ( ) = 10. . 67 at−1 − 0. 3 − 0. 31 at−2 ˆ ˆ ˆ Funci´n de predicci´n: o o     YT ( ) =    =1 =2 >2 SARRIKO-ON 4/09 t = 1. T YT (1) = 10.1: Proceso MA(2) versus Proceso AR(2) a 16 10 AR(2) AR(2)F 14 9 AR(2)F-2*SD AR(2)F+2*SD 12 8 10 7 8 6 6 5 4 4 MA(2) MA2F 2 70 72 74 76 78 80 82 84 MA2F+2*SD MA2F-2*SD 3 86 88 90 92 94 96 98 00 02 04 06 08 10 70 75 80 85 90 95 00 05 10 15 20 25 30 35 40 45 50 Ejemplo 4. 4 + 1. . . 33 ± −0. 3 + at + 0. El proceso AR(2) es estacionario: 1 − 1.2. 3 + 0. 33 YT (1) − 0. 69 YT YT ( ) = 2. Modelo M A(2) Yt = 10. 69 YT ( − 2) . 3 ( = E(Yt )) Todos los procesos medias m´viles finitos son estacionarios y. como se puede observar en la figura o de la izquierda del gr´fico 6. . 2. 4 + 1.

1 − 0. 62 at−1 ˆ ˆ La funci´n de predicci´n es: o o YT ( ) = =1 >2 YT (1) = 9. . . 22| > 1 la funci´n de predicci´n tiende a su media cuando nos alejamos en el futuro: o o ˆ l´ YT ( ) = E(Yt ) = ım →∞ ˆ δ ˆ 1−φ 96 = 9. 99 1.1) estacionario a o o 65 65 60 60 55 55 50 50 45 45 40 40 ARMA(1.1) ARMA11F 35 60 65 70 75 80 ARMA11F+2* SD ARMA11F-2* SD 35 85 90 95 00 05 10 60 65 ARMA(1. 82 . 3 + 0.SARRIKO-ON 4/09 1. 82Yt−1 + at + 0. a Ejemplo 4.2: Funci´n de predicci´n: ARMA(1. La serie a presenta un comportamiento c´ ıclico que se refleja en la funci´n de predicci´n que presenta un o o ciclo amortiguado antes de dirigirse sistem´ticamente hacia la media del proceso. 3 = 51. T Gr´fico 6. 2.1) ARMA11F 70 75 80 85 ARMA11F+2*SD ARMA11F-2*SD 90 95 00 05 10 15 20 25 30 Como el proceso es estacionario dado que cumple la condici´n de que la ra´ del polinomio o ız autorregresivo es. 62 aT ˆ YT ( ) = 9. 3 + 0.3. 1) Yt = 9. 3 + 0. 82 YT ( − 1) t = 1. 82 → |L| = |1. 82 L = 0 → L= 1 = 1. 67 1 − 0. 33 + 0. Modelo ARM A(1. 22 0. 38 An´lisis de Series Temporales: modelos ARIMA a 2 |L1 | = |L1 | = a2 + b2 = + √ 0.1. en valor absoluto. 67 ˆ1 − φ2 ˆ 1 − 1. 33 1. 4 δ = = 6. 4486 = 1. 2 > 1 Por lo que la funci´n de predicci´n tiende a su media cuando nos alejamos en el futuro: o o ˆ l´ YT ( ) = E(Yt ) = ım →∞ ˆ 2. . 82 YT + 0. 69 1−φ Este resultado se puede observar claramente en la figura de la derecha del gr´fico 6. . 38 2 = 1. mayor que la unidad.

. Para obtener o esta esperanza condicionada basta con escribir el modelo en forma de ecuaci´n en diferencias y o obtener las esperanzas condicionadas. q) se lleva a cabo de la misma manera o que con los modelos estacionarios ARM A(p. El predictor por punto ´ptimo de YT + viene o dado por la esperanza condicionada al conjunto de informaci´n YT ( ) = ET [YT + ]. consideremos varios ejemplos sencillos. Las ultimas observaciones se encuentran por debajo de la media lo que ´ lleva a que la funci´n de predicci´n parta de un valor inferior a la media estimada del proceso. o Para analizar las caracter´ ısticas de la funci´n de predicci´n para modelos no estacionarios o o ARIM A(p. YT ( ) = ET [YT + ] = YT ( − 1) = YT + θ aT 97 = 1.2 se puede observar el comportamiento de la funci´n de predicci´n a o o por punto y por intervalo. . q).1. q). se observa el comportamiento de los intervalos de predicci´n. 3. 1). 1. d. Modelo ARIM A(0. Consideremos que la serie Yt ha sido generada por el siguiente modelo: (1 − L) Yt = (1 + θL) at Yt = Yt−1 + at + θ at−1 La funci´n de predicci´n es: o o YT (1) = ET [YT +1 ] = YT + θ aT YT (2) = ET [YT +2 ] = YT (1) = YT + θ aT YT (3) = ET [YT +3 ] = YT (2) = YT (1) = YT + θ aT . . De o o forma que la trayectoria de la funci´n de predicci´n es creciente al principio para dirigirse hacia o o la media del proceso donde se va estabilizando. de amplitud creciente al principio hasta estabilizarse con la varianza o del proceso. . d. o −1 YT ( ) ± Nα/2 V (eT ( )) donde V (eT ( )) = σ j=0 2 ψj el modelo ha de estar escrito en forma M A(∞) ya que ψj son los pesos del modelo ARIM A escrito en forma medias m´viles. .An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 En las figuras del gr´fico 6. 2. Ejemplo 5. . Predicci´n con modelos no estacionarios. sabiendo que: ET [YT +j ] = YT +j YT (j) j≤0 j>0 ET [aT +j ] = aT +j 0 j≤0 j>0 Para construir los intervalos de predicci´n. 6. . . Asimismo. . o La predicci´n con modelos no estacionarios ARIM A(p.2.

sino que es una constante que depende del conjunto de o informaci´n y de los par´metros AR y M A del modelo. . YT ( ) = ET [YT + ] = YT ( − 1) + δ = YT + δ = 1. YT ( ) −→ →∞ KT + δ La pendiente de la funci´n de predicci´n viene dada por la constante δ y el intercepto. por o o ejemplo. .3). .3). . . la funci´n de predicci´n cuando → ∞. 2. y permanece all´ conforme crece. q) sin t´rmino independiente e (δ = 0). d. Por lo tanto. .SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Por lo tanto. q) con t´rmino independiente e (δ = 0). o a a Se puede demostrar que si la serie Yt ha sido generada por un proceso integrado de orden 1. . tiende a una constante: o o YT ( ) −→ →∞ KT Hay que tener en cuenta que K T no es la media del proceso porque como no es estacionario no tiene una media hacia d´nde ir. 3. o a En lo que se refiere a la predicci´n por intervalo para modelos no estacionarios. o o a a Se puede demostrar que si la serie Yt ha sido generada por un proceso integrado de orden 1. a ı En el caso del modelo de paseo aleatorio. 1. 2. K T . o o depende del conjunto de informaci´n y de los par´metros del modelo.5). la funci´n de predicci´n es una l´ o o ınea horizontal: pasa por la predicci´n un periodo o hacia adelante.3 muestran como la amplitud de los intervalos de predicci´n para los modelos a o ARIM A(p. Hay o que tener en cuenta que cuando el proceso no es estacionario el l´ ımite l´ →∞ V [eT ( )] no ım existe. . como θ = 0 . 1. . . La funci´n de predicci´n es una linea recta de pendiente δ (ve´se la figura derecha del gr´fico 6. . la funci´n de predicci´n tiende a una l´ o o ınea recta cuando → ∞. la funci´n de predicci´n es: o o YT ( ) = ET [YT + ] = YT = 1. de forma que se puede representar mediante un modelo ARIM A(p. las predicciones ´ptimas vienen dadas por la ultima observaci´n independienteo ´ o mente del horizonte de predicci´n (ve´se la figura izquierda del gr´fico 6. 98 . de forma que se puede representar mediante un modelo ARIM A(p. θ. o a Obtengamos la funci´n de predicci´n para un proceso integrado de orden 1 con constante. 3. las figuras o del gr´fico 6. YT (1) . que depende del conjunto de informaci´n a trav´s de YT y aT y del o e par´metro del modelo. YT (1) = ET [YT +1 ] = YT + δ YT (2) = ET [YT +2 ] = YT (1) + δ = YT + 2 δ YT (3) = ET [YT +3 ] = YT (2) + δ = YT + 3 δ . q) crece indefinidamente conforme el horizonte de predicci´n se hace mayor. el modelo de paseo aleatorio con deriva (4.

.F 20 P.. 2. aunque la o a 99 .D. .+2*SD P. . . 3. P. . P.F-2*SD 150 P. ..A.A.A. La varianza del error de predicci´n es: o 0 de forma que ψj = 1 ∀j V [eT (1)] = σ 2 j=0 1 2 ψj = σ 2 V [eT (2)] = σ 2 j=0 2 2 ψj = σ 2 (1 + 1) = 2 σ 2 V [eT (3)] = σ 2 j=0 2 ψj = σ 2 (1 + 1 + 1) = 3 σ 2 . a o 30 P.F+2*SD P. conforme el horizonte de predicci´n aumenta y nos alejamos en el futuro la funci´n o o T T de predicci´n tiende a una l´ o ınea recta donde tanto el intercepto. dependen del conjunto de informaci´n y de los par´metros del modelo.F P.4) que. su funci´n ´ o de predicci´n final toma la forma: o YT ( ) −→ →∞ T T K1 + K2 Es decir. que no tiene l´ ımite finito. escrito en forma M A(∞) queda como sigue: Yt = at + at−1 + at−2 + at−3 + . considerando el caso de procesos integrados de orden 2.D. −1 2 ψj = σ 2 (1 + 1 + . 2. K1 . Pongamos como ejemplo el modelo de paseo aleatorio (4. d. . Por lo tanto.3: Modelos ARIMA: Funciones de predicci´n.D.A. como la pendiente. Por ultimo. . K2 . .A.A. q).An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 Gr´fico 6. + 1) = j=0 V [eT ( )] = σ 2 σ2 = 1. q) es necesario escribir el modelo en forma M A(∞). .A.A.D. ARIM A(p.-2*SD 10 100 0 50 -10 -20 0 -30 1110 1120 1130 1140 1150 1160 1170 1180 1190 1200 1210 1220 1230 1240 1250 1260 1270 1280 1290 1300 1760 1780 1800 1820 1840 1860 1880 1900 1920 1940 1960 1980 2000 2020 2040 Para calcular la V [eT ( )] de un modelo no estacionario ARIM A(p.

SARRIKO-ON 4/09

An´lisis de Series Temporales: modelos ARIMA a

estructura de esta funci´n de predicci´n es la misma que la de los modelos ARIM A(p, 1, q) con o o t´rmino independiente (por ejemplo, la funci´n de predicci´n del paseo aleatorio con deriva), e o o esta funci´n de predicci´n es m´s flexible. o o a

100

Cap´ ıtulo 7 Modelos ARIMA estacionales
Muchas series econ´micas si se observan varias veces a lo largo del a˜o, trimestral o mensualo n mente, presentan comportamiento estacional. Este tipo de comportamiento puede ser debido a factores metereol´gicos, tales como la temperatura, pluviosidad, etc. que afectan a muchas o actividades econ´micas como el turismo; a costumbres sociales como las Navidades que est´n o a muy relacionadas con cierto tipo de ventas como juguetes; a fen´menos sociales como el caso del o ´ ındice de producci´n industrial que en este pa´ desciende considerablemente todos los a˜os el o ıs n mes de agosto debido a las vacaciones, etc. A la hora de elaborar el modelo ARIMA adecuado para una serie temporal se ha de tener en cuenta el comportamiento estacional, si lo hubiere, porque implica que la observaci´n de un mes o y observaci´n del mismo mes del a˜o anterior tienen una pauta de comportamiento similar por lo o n que estar´n temporalmente correlacionadas. Por lo tanto, el modelo de series temporales ARIMA a apropiado para este tipo de series deber´ recoger las dos clases de dependencia intertemporal a que presentan, a saber • la relaci´n lineal existente entre observaciones sucesivas (comportamiento tendencial o o regular) y o n • la relaci´n lineal existente entre observaciones del mismo mes en a˜os sucesivos (comportamiento estacional). El objetivo de este tema es extender los modelos ARIMA estudiados en los cap´ ıtulos 3 y 4 para las series con comportamiento estacional. Supongamos que la serie Yt presenta un componente estacional y se especifica un modelo ARIM A(p, d, q) general: φp (L) Yt = θq (L) at Para recoger las dos estructuras de correlaci´n anteriormente mencionadas, la regular y la estao cional, bastar´ con a˜adir al modelo los retardos de Yt y at necesarios. As´ si la serie estacional ıa n ı, es mensual y se quiere representar, adem´s de la dependencia entre observaciones consecutivas, a la autocorrelaci´n entre observaciones del mismo mes separadas un a˜o, dos a˜os, etc. ser´ neceo n n a sario incluir en el modelo retardos hasta de orden 12, 24, etc. con lo que esto supone de aumento en el n´mero de los par´metros del modelo. As´ por ejemplo, un modelo sencillo para una serie u a ı, estacional, un ARM A(12, 12), contiene 24 par´metros desconocidos. Como se ha discutido en a el cap´ ıtulo 5, uno de los criterios que se ha de seguir al construir un modelo ARIM A es el de 101

SARRIKO-ON 4/09

An´lisis de Series Temporales: modelos ARIMA a

parsimonia, es decir, buscar el modelo m´s sencillo y con el menor n´mero de par´metros posible a u a que reproduzca las caracter´ ısticas de la serie. Por lo tanto, en este cap´ ıtulo se derivar´n modelos a capaces de recoger el comportamiento estacional pero con un n´mero peque˜o de par´metros, u n a es decir, m´s parsimoniosos. a Antes de especificar un modelo apropiado, dentro del marco ARIM A, para una serie con tendencia y estacionalidad comenzaremos por estudiar las caracter´ ısticas de la dependencia lineal estacional a trav´s de unos modelos muy sencillos, los modelos estacionales puros. e

7.1.

Modelos estacionales puros

Se entiende por modelo estacional puro aquel que recoge unicamente relaciones lineales entre ´ observaciones del mismo mes para a˜os sucesivos, es decir, entre observaciones separadas s pen riodos o m´ltiplos de s, donde s = 4 si la serie es trimestral y s = 12 si la serie es mensual. Por u lo tanto, en estos modelos, para simplificar, se parte del supuesto de que no existe estructura regular, es decir, correlaci´n entre observaciones consecutivas. Como este supuesto es poco reao lista, este tipo de modelos no va a ser muy util en la pr´ctica pero su estudio permitir´ identificar ´ a a en qu´ retardos de la funci´n de autocovarianzas y/o autocorrelaci´n se refleja la estructura de e o o tipo estacional de una serie. Se denotar´n, en general, ARM A(P, Q)s , donde P es el orden del a polinomio autorregresivo estacionario y Q es el orden del polinomio medias m´viles invertible. o Vamos a analizar las caracter´ ısticas de los modelos estacionales puros espec´ ıficos para un proceso Yt estacionario y con estacionalidad trimestral, s = 4. Modelo M A(1)4 Yt = (1 − ΘL4 ) at Yt = at − Θ at−4

En este proceso, el valor de Y en el momento t depende de la perturbaci´n contempor´nea y o a de la perturbaci´n del mismo trimestre del a˜o anterior. Como este proceso es un modelo de o n medias m´viles finito es estacionario para cualquier valor de Θ y su media es cero. El proceso o ser´ invertible si y solo si las cuatro ra´ del polinomio de medias m´viles tienen modulo fuera a ıces o del c´ ırculo unidad. Las autocovarianzas vienen dada por: γ0 = V (Yt ) = E[Yt ]2 = E[at − Θ at−4 ]2 = (1 + Θ2 ) σ 2 γ1 = Cov(Yt Yt−1 ) = E[Yt Yt−1 ] = E[(at − Θ at−4 )(at−1 − Θ at−5 )] = 0 γ2 = Cov(Yt Yt−2 ) = E[Yt Yt−2 ] = E[(at − Θ at−4 )(at−2 − Θ at−6 )] = 0 γ3 = Cov(Yt Yt−3 ) = E[Yt Yt−3 ] = E[(at − Θ at−4 )(at−3 − Θ at−7 )] = 0 γ4 = Cov(Yt Yt−4 ) = E[Yt Yt−4 ] = E[(at − Θ at−4 )(at−4 − Θ at−8 )] = −Θ σ 2 γk = Cov(Yt Yt−k ) = E[Yt Yt−k ] = E[(at − Θ at−4 )(at−k − Θ at−4−k )] = 0, ∀k > 4 Por lo tanto, la funci´n de autocovarianzas y la funci´n de autocorrelaci´n son las siguientes: o o o 102

.8 Parámetro MA = 0. .2 0. se puede demostrar que la estructura de la funci´n de autocorrelaci´n para un modelo de medias m´viles. k = s.8 -1 -1 Generalizando el resultado obtenido para el modelo M A(1)4 . para distinguirlos as´ de la estructura u ı regular.7 0. y el resto son cero.7 0. ..4 -0.1). Como el orden de la media o m´vil es uno. 3s. . . . Por lo tanto. . solo un coeficiente de autocorrelaci´n es distinto de cero y el resto son nulos. Qs. . este coeficiente de autocorrelaci´n no o o nulo es el asociado a k = s = 4 (ve´se el gr´fico 7. . e 103 . . o Gr´fico 7. 3.6 0. es decir. . un proceso de medias m´viles de orden Q. finita.4 -0. Denominemos retardos estacionales a a a los asociados con s y m´ltiplos de s: k = s. por lo tanto.1: Funci´n de autocorrelaci´n.4 0. . La funci´n de autocorrelaci´n es.4 0. para k = Qs .6 0. + ΘQ at−Qs es como sigue:   k=0   k = s. . . 2s. . 2s.2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0 1 -0. . como para todo modelo de medias m´viles finito. la estructura de la funci´n de autocorrelaci´n a o o de un M A(1)4 es la siguiente: funci´n truncada en el primer retardo estacional.6 -0. M A(Q)s : o o o Yt = ΘQ (Ls ) at = (1 − Θ1 Ls − Θ2 L2s − . la funci´n de autocorreo o laci´n se trunca y se hace cero a partir de un determinado retardo. tendr´ Q coeficientes de autocorrelaci´n o a o diferentes de cero. 2. . Modelo M A(1)4 a o o 1 1 0.2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 -0.2 0 1 -0. pero o o como la estructura de correlaci´n temporal es estacional.8 -0. 2s. 2s. . . . Qs ρ0 = 1 ρk = 0 ρk = 0 Es decir. .An´lisis de Series Temporales: modelos ARIMA a Retardo k=0 k=4 k=4 FACV γ0 = (1 + Θ2 ) σ 2 γ4 = −Θ σ 2 γk = 0 FAC ρ0 = 1 ρ4 = SARRIKO-ON 4/09 −Θ (1 + Θ2 ) ρk = 0 Se puede observar que. .8 Parámetro MA = -0. trunc´ndose a partir del o o a Q-´simo retardo estacional. correspondientes a los Q primeros retardos estacionales. . Qs ρk =    k = s.6 -0. . existente entre las observaciones sucesivas y que se refleja fundamentalmente para los retardos m´s cortos: k = 1. − ΘQ LQs ) at Yt = at + Θ1 at−s + Θ2 at−2s + .

se puede escribir en forma extendida como: Yt = Φ1 Yt−s + Φ2 Yt−2s + . 2. . Como es un modelo n autorregresivo finito es invertible para cualquier valor de Φ y su media es cero.. De lo que se deduce que la funci´n de autocovarianzas y. .. El modelo AR(P )s . el valor de Y en el momento t depende de la perturbaci´n contempor´nea o a y del valor pasado de la serie Y en el mismo trimestre del a˜o anterior. . . .SARRIKO-ON 4/09 Modelo AR(1)4 : (1 − Φ L4 ) Yt = at An´lisis de Series Temporales: modelos ARIMA a Yt = Φ Yt−4 + at En este proceso. la funci´n de o o autocorrelaci´n son: o Retardo k=0 k = 4.. = . k = j4. todos a a los coeficientes de autocorrelaci´n no nulos son positivos. Como se puede observar en el gr´fico 7. como consecuencia. Las autocovarianzas son: γ0 = V (Yt ) = E[Yt ]2 = E[ΦYt−4 + at ]2 = Φ2 γ0 + σ 2 = σ2 1 − Φ2 γ1 = Cov(Yt Yt−1 ) = E[Yt Yt−1 ] = E[(ΦYt−4 + at )Yt−1 ] = 0 γ2 = Cov(Yt Yt−2 ) = E[Yt Yt−2 ] = E[(ΦYt−4 + at )Yt−2 ] = 0 γ3 = Cov(Yt Yt−3 ) = E[Yt Yt−3 ] = E[(ΦYt−4 + at )Yt−3 ] = 0 γ4 = Cov(Yt Yt−4 ) = E[Yt Yt−4 ] = E[(ΦYt−4 + at )Yt−4 ] = Φ γ0 γ5 = Cov(Yt Yt−5 ) = E[Yt Yt−5 ] = E[(ΦYt−4 + at )Yt−5 ] = 0 γ6 = Cov(Yt Yt−6 ) = E[Yt Yt−6 ] = E[(ΦYt−4 + at )Yt−6 ] = 0 γ7 = Cov(Yt Yt−7 ) = E[Yt Yt−7 ] = E[(ΦYt−4 + at )Yt−7 ] = 0 γ8 = Cov(Yt Yt−8 ) = E[Yt Yt−8 ] = E[(ΦYt−4 + at )Yt−8 ] = Φ γ4 = Φ2 γ0 . FACV γ0 = σ2 1 − Φ2 γk = Φk/4 γ0 FAC ρ0 = 1 ρk = Φk/4 ρk = 0 γk = 0 La funci´n de autocorrelaci´n es. . j = 1. por lo tanto. j = 1. + ΦP Yt−P s + at 104 .2 si el par´metro es positivo. siendo nulos los coeficientes de autocorrelaci´n asociados a valores de k no a o estacionales. 2.j..j. . infinita y decrece como una funci´n exponencial o o o del par´metro Φ. ΦP (Ls ) Yt = at . mientras que si Φ es negativo los o coeficientes van alternando de signo. El proceso ser´ estacionario s´ y solo s´ las cuatro ra´ a ı ı ıces del polinomio autorregresivo tienen modulo fuera del c´ ırculo unidad. . k = 4.

Modelo AR(1)4 a o o 1 1 0.8 -0.2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0 1 -0.4 -0. (1 − Φ L4 ) Yt = (1 − Θ L4 ) at Yt = Φ Yt−4 + at − Θ at−4 En los procesos generados por este modelo ARMA estacional puro el valor de Y en el momento t depende del valor pasado de Y del mismo trimestre del a˜o anterior.8 Parámetro AR = . ´ Modelo ARM A(1.2: Funci´n de autocorrelaci´n.8 Parámetro AR = 0. de la perturbaci´n n o contempor´nea y su retardo correspondiente al mismo trimestre de hace un a˜o. = . .7 0.4 0.8 -1 -1 A partir de los resultados para el modelo AR(1)s se puede generalizar que su funci´n de autoo correlaci´n es infinita y decrece exponencialmente o en forma onda seno-coseno amortiguada.2 0 1 -0.2 0.An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 Gr´fico 7.4 0.6 -0. . Este modelo a n ser´ estacionario cuando las cuatro ra´ del polinomio autorregresivo tengan m´dulo fuera del a ıces o c´ ırculo unidad y ser´ invertible cuando las cuatro ra´ del polinomio de medias m´viles tengan a ıces o m´dulo fuera del c´ o ırculo unidad. . 2s. 105 . ..6 0.6 -0.0.4 -0. 1)4 ..2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 -0. k = s. Es f´cil demostrar que la media de este proceso estacionario es cero y sus autocovarianzas a γ0 = V (Yt ) = E[Yt ]2 = E[ΦYt−4 + at − Θat−4 ]2 = = Φ2 γ0 + σ 2 + Θ2 σ 2 − 2ΦΘσ 2 γ0 = σ 2 (1 + Θ2 − 2ΦΘ) 1 − Φ2 γ1 = Cov(Yt Yt−1 ) = E[Yt Yt−1 ] = E[(ΦYt−4 + at − Θat−4 )Yt−1 ] = 0 γ2 = Cov(Yt Yt−2 ) = E[Yt Yt−2 ] = E[(ΦYt−4 + at − Θat−4 )Yt−2 ] = 0 γ3 = Cov(Yt Yt−3 ) = E[Yt Yt−3 ] = E[(ΦYt−4 + at − Θat−4 )Yt−3 ] = 0 γ4 = Cov(Yt Yt−4 ) = E[Yt Yt−4 ] = E[(ΦYt−4 + at − Θat−4 )Yt−4 ] = Φ γ0 − Θσ 2 γ5 = Cov(Yt Yt−5 ) = E[Yt Yt−5 ] = E[(ΦYt−4 + at − Θat−4 )Yt−5 ] = 0 γ6 = Cov(Yt Yt−6 ) = E[Yt Yt−6 ] = γ7 = Cov(Yt Yt−7 ) = E[Yt Yt−7 ] = 0 γ8 = Cov(Yt Yt−8 ) = E[Yt Yt−8 ] = E[(ΦYt−4 + at − Θat−4 )Yt−8 ] = Φ γ4 .. o pero con valores no nulos unicamente para los retardos estacionales..7 0.6 0. 3s.

. 8 at−4 Gr´fico 7. 1)4 a o o 1. . .2 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 -0.6 0.2 1 1 Modelo A 0. .6 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 -0. k = 4. a partir o del segundo retardo estacional la trayectoria de la FAC depende s´lo de la parte autorregresiva.4 -0. podemos tener FAC con todos los coeficientes positivos o todos negativos.6 -0. o alternando de signo. + ΘQ at−Qs 106 .4 -0. − ΦP LP s ) Yt = (1 − Θ1 Ls − Θ2 L2s − . 4 at−4 (B) Yt = 0. Luego. . Modelos ARM A(1.8 Modelo B 0.2 0. . Q)s : (1 − ΦP Ls ) Yt = (1 − ΘQ Ls ) at (1 − Φ1 Ls − Φ2 L2s − . 3 Yt−4 + at − 0. − ΘQ LQs ) at Yt = Φ1 Yt−s + Φ2 Yt−2s + . 2.8 -0.2 0 0 1 -0.3: Funci´n de autocorrelaci´n.6 0. .8 -1 -1 En ambas figuras de este gr´fico se observa que la funci´n es infinita y decrece exponencialmente a o tomando valores no nulos unicamente en los retardos estacionales. .8 0. + ΦP Yt−P s + at Θ1 at−s + Θ2 at−2s + .j.3 se representan las funciones de autocorrelaci´n para los siguientes modelos a o ARM A(1.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a De donde se deducen la funci´n de autocovarianzas y de autocorrelaci´n siguientes: o o Retardo k=0 k=4 k = 4. 3. . La estructura que puede tomar ´ esta FAC infinita es m´s compleja que la del AR(1)4 porque el primer coeficiente estacional de la a FAC depende tanto de la parte autorregresiva como medias m´viles del modelo. . o Por eso.4 0.2 -0.j. j = 1. 1)4 : (A) Yt = 0. A partir de estos resultados se puede generalizar que la funci´n de autocorrelaci´n de un modelo o o ARM A(P. . . 7 Yt−4 + at + 0. γ0 = FACV (1 + Θ2 − 2ΦΘ) σ 2 1 − Φ2 ρ0 = 1 ρ4 = (φ − Θ)(1 − Φ Θ) 1 + Θ2 − 2ΦΘ FAC γ4 = Φ γ0 − Θ σ 2 γk = Φ γk−4 γk = 0 ρk = Φ ρk−4 ρk = 0 En el gr´fico 7.4 0. . . j = 2.

en general. . por ejemplo. podemos concluir que la estructura estacional. . quiz´s tras alg´n tipo de a u transformaci´n. la FACP de un modelo ARM A(P. la dependencia temporal de las observaciones separadas por un a˜o. a Para solucionar la no estacionariedad en media que genera el comportamiento estacional. .. 7. 2s. k = s. En la pr´ctica. la mayor´ de las series no se comportan de una forma tan regular y. es decir. su estructura a o depender´ de la parte de medias m´viles. que llamaremos diferencias estacio107 . 3s. k = s. 2s. cada mes n tiene un comportamiento diferente. . Qs dependen de los par´metros autorregresivos y de medias m´viles. Sin embargo. pero en estos modelos aparece s´lo en los retardos estacionales. unicamente en los P primeros retardos estacionales. 2s. . ıa el componente estacional ser´ estoc´stico y estar´ correlacionado con la tendencia. este esquema estacional es muy r´ ıgido porque exige que los factores estacionales estacionales permanezcan constantes a lo largo del tiempo. ıces En lo que se refiere a la estructura de la funci´n de autocorrelaci´n parcial de los modelos estao o cionales puros que estamos estudiando es an´loga a la estudiada en el cap´ a ıtulo 3 para los modelos ARM A(p. Los Q primeros coeficientes de autocorrelaci´n ρk . . Q)s ´ ´ ser´ tambi´n infinita con valores no nulos s´lo en los retardos estacionales y tal que los coeficiena e o tes de autocorrelaci´n parcial. se toman diferencias entre observaciones separadas s periodos. q) no estacionales. siendo nulos o para el resto de los valores k = s..2. La ´ FACP de un modelo M A(Q)s es infinita y decrece exponencialmente tomando valores no nulos unicamente para los retardos no estacionales. pk . en funci´n o de variables ficticias estacionales). Ahora bien. Por lo tanto. o a o a partir de k = s(Q + 1) las autocorrelaciones se derivan de la estructura autorregresiva exclusivamente. . toma valores no nulos ı. 2s. 3s. . es decir. . . en promedio. a a a un esquema de trabajo m´s flexible es suponer que la estacionalidad es s´lo aproximadamente a o constante y que evoluciona estoc´sticamente: a Yt = St + ηt con St = St−s + νt donde νt es un proceso estoc´stico estacionario. asociados a los P primeros retardos estacionales dependen de o los par´metros autorregresivos y de medias m´viles y a partir de k = (P + 1)s . a Si la estacionalidad fuese siempre exactamente peri´dica. por lo que decrecer´n exponencialmente o en forma de onda seno-coseno amortiguada a dependiendo de si las s ra´ del polinomio autorregresivo (1 − ΦP Ls ) son reales o complejas. Modelos ARMA estacionales no estacionarios Hasta el momento hemos supuesto que la serie Yt es estacionaria. 3s. . aparece exclusivamente en los coeficientes de auton correlaci´n simple y parcial asociados a los retardos estacionales. o As´ se puede demostrar que la FACP de un modelo AR(P )s es finita. las series estacionales suelen presentar problemas de falta de estacionariedad en media o lo que es lo mismo cambios sistem´ticos en el nivel de la serie. St = St−s se podr´ eliminar de la serie o ıa como un componente determinista previamente estimado (especificado.An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 La FAC de este modelo es infinita y decrece exponencialmente pero con valores no nulos unica´ mente para los retardos estacionales. Por ultimo. y se trunca a partir de k = P s . k = s. . dado que por estacionalidad entendemos una pauta regular de o a comportamiento c´ ıclico de periodo 1 a˜o de la serie que implica que. . . a o Por lo tanto.

a 108 .SARRIKO-ON 4/09 nales: An´lisis de Series Temporales: modelos ARIMA a ∆s Yt = (1 − Ls ) Yt = St + ηt − St−s − ηt−s = νt + ηt − ηt−s de forma que ∆s Yt ∼ M A(1)s estacionario e invertible. de o forma an´loga a como de un proceso no estacionario en media obten´ a ıamos una serie estacionaria aplicando el operador de diferencias de orden 1 o regular. la no estacionariedad del ciclo a estacional hace que la estructura c´ ıclica sistem´tica de la serie se reproduzca en el correlograma. reflejando claramente a a el hecho de que cada mes tiene una media diferente. Analizando los correlogramas se puede concluir que el correspondiente al modelo (A) decrece r´pidamente hacia cero como corresponde a a un modelo estacionario (de hecho se trunca en el retardo 4. Yt ∼ I(D)s . (1 − L). El modelo (7. donde P es el orden del polinomio autorregresivo estacional estacionario. El hecho de que la estructura estacional sea estacionaria o no se refleja en las caracter´ ısticas de cada proceso mostradas en las figuras del gr´fico 7. lo que implica que la serie Yt no es estacionaria y hay que tomar una diferencia estacional de orden 4 para transformarla en estacionaria. Adem´s. sino lentamente. su funci´n de autocorrelaci´n no va a decrecer o o r´pidamente hacia cero.4 se representan dos series de 100 observaciones. aunque en la pr´ctica nunca es superior a 1.1) se dice que es integrada estacional de orden D . 4 at−4 Aunque ambos modelos representan series con estructura de dependencia temporal entre observaciones separadas un a˜o. u serie en estacionaria. mientras que si nos fijamos en los coeficientes asociados a los retardos estacionales del correlograma del modelo (B). a El modelo (7. el modelo (A) es un M A(1)4 estacionario y el modelo (B) es n un ARIM A(0. al igual que para los modelos lineales no estacionarios en la parte regular. ambas oscilan en torno a una media constante con un comportamiento c´ ıclico de periodo anual. La formulaci´n general de un modelo para una serie estacional pura no estacionaria es: o ΦP (Ls ) ∆D Yt = ΘQ (Ls ) at s (7. as´ como sus correspondientes a ı correlogramas. puede tomar cualquier valor dependiendo de las caracter´ ısticas de la serie. a En el gr´fico 7. 1)4 . Pero mientras. la mostrada por el modelo (B) es m´s persistente y sistem´tica. se observa que decrecen muy lentamente. 4 at−4 (B) (1 − L4 ) Yt = at − 0. D. el n´mero de las diferencias estacionales que se han de aplicar para convertir a la ıa. si la serie Yt sigue el modelo (7. 1. generadas a partir de los siguientes modelos: (A) Yt = at − 0. es decir.1) es un modelo estacional puro que se denomina ARIM A(P.1) En teor´ D.4.1) no es estacionario. En cuanto a las realizaciones de ambos a procesos. En conclusi´n. primer retardo estacional). la evoluci´n c´ o ıclica estacionaria del modelo (A) es m´s irregular y a aleatoria. Q)s . el operador ∆s convierte un proceso estacional no estacionario en estacionario. De hecho. no tiene una media constante y. el orden de integraci´n o estacional de la serie. Q es el orden del polinomio medias m´viles estacional estacionario y D es el n´mero de diferencias estacionales (1 − Ls ) o u que es necesario aplicar a la serie Yt para que sea estacionaria.

Si n la serie es estacional podemos dividirla en 12 subseries. . yτ .8 0.3. N La relaci´n entre estas subseries y la serie de partida es: o (j) yτ = Yj+12(τ −1) = Yt τ = 1. una serie mensual observada durante N a˜os. − Φp Lp ) (1 − L)D yτ = (1 − Θ1 L − . . una por mes.6 -0.2) Cada una de estas doce subseries no presenta comportamiento estacional por lo que podemos representarlas mediante los modelos ARIM A(p.4 0. 2. . etc.4: Modelos estacionales estacionarios vs. d. no estacionarios a 45 52 43 Modelo A Modelo B 41 39 42 37 35 33 32 31 29 27 25 :1 :4 :3 :2 :1 :4 :3 :2 :1 :4 :3 :2 :1 :4 :3 :2 :1 :4 :3 :2 :1 :4 :3 :2 :1 :4 :3 :2 :1 :4 :3 :2 :1 :4 :3 70 70 71 72 73 73 74 75 76 76 77 78 79 79 80 81 82 82 83 84 85 85 86 87 88 88 89 90 91 91 92 93 94 94 95 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 22 :1 :4 :3 :2 :1 :4 :3 :2 :1 :4 :3 :2 :1 :4 :3 :2 :1 :4 :3 :2 :1 :4 :3 :2 :1 :4 :3 :2 :1 :4 :3 :2 :1 :4 94 19 20 70 70 71 72 73 73 74 75 76 76 77 78 79 79 80 81 82 82 83 84 85 85 86 87 88 88 89 90 91 91 92 93 94 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 1 1 0. . 2. Consideremos una serie estacional Yt con periodo s conocido. 2. el componente estacional no es independiente. . 2.2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 -0. . presentan otros componeno a tes. etc.2 0.6 0. de los que. . . . 12 19 95 :3 (7. . de forma que en total contamos con T = 12N observaciones. que decrecen lentamente y recogen la relaci´n lineal inversa entre los valles y los picos del ciclo.4 -0. yτ . N j = 1. . . yτ . . . como tendencia. . .8 -1 -1 7. . . .An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 apareciendo correlaciones negativas en los retardos js/2.4 0. j = 1. Supongamos (j) que el modelo ARIM A adecuado para las doce subseries yτ es el mismo: (j) (1 − Φ1 L − . N (7. . por ejemplo. .8 -0. τ = 1.2 0 1 -0. o Gr´fico 7. por otro lado. − Θq Lq ) u(j) τ = 1. 2. q) derivados en el cap´ ıtulo 4. . Modelos ARIMA estacionales multiplicativos En general. . Se trata de proponer un modelo ARIM A que recoja no solo las relaciones entre periodos (a˜os) n sino tambi´n las relaciones dentro de los periodos (intranuales) y la interacci´n entre ambas e o estructuras.4 -0. .3) τ 109 .6 -0.2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0 1 -0. .8 0. . .6 0. las series econ´micas adem´s del componente estacional. de N observaciones que denotaremos: (1) (2) (3) (12) yτ .

.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Si hay estacionalidad en la serie de partida Yt se cumple que D ≥ 1. αt . Yt : (j) (1 − Φ1 L12 −.4) s donde φp (L) y θq (L) son los polinomios autorregresivos y medias m´viles de la parte regular y d o es el orden de integraci´n de la parte regular. . (j) es equivalente a aplicar el operador L12 a la Adem´s habr´ que definir una serie de ruido com´n para las doce subseries. mientras que ΦP (L) y ΘQ (L) son los polinomios o autorregresivos y medias m´viles de la parte estacional y D es el orden de integraci´n de la parte o o estacional. en general. todos los modelos (7. Q)s . . . se basa en la hip´tesis central de que la relaci´n de deo o pendencia estacional es la misma para todos los periodos. T . . estos modelos son capaces de representar muchos fen´menos o 110 . σ 2 ) Sustituyendo este modelo en el general para Yt se obtiene el modelo completo para la serie observada: ΦP (Ls ) φp (L) ∆d ∆D Yt = θq (L) ΘQ (Ls ) at (7. 2. 12 .− Θq L12q ) αt . .3). Not´se que si D = 0 y. . . . lo que es incompatible con el supuesto de estacionalidad que implica que la (j) media de cada mes. N Aplicando ambos resultados al modelo (7. 2. Los modelos para las doce subseries. . αt .2): o o (j) L yτ = yτ −1 = Yj+12(τ −2) = Yj−12+12(τ −1) = L12 Yj+12(τ −1) (j) Lo que implica que aplicar el operador L a yτ serie original Yj+12(τ −1) . por construcci´n. αt se (j) obtendr´ a partir de las doce subseries uτ como sigue: ıa u(j) = αj+12(τ −1) τ τ = 1. o sea de cada subserie yτ . 2. . . (j) t = 1. se obtiene el modelo conjunto para toda la serie mensual. no tiene por qu´ serlo. al ser el mismo.− Φp L12p ) (1−L12 )D yτ = (1 − Θ1 L12 −.3) las series uτ son. quedar´ recogida en esta serie de ruido. En consecuencia. . ARIM A(p. se pueden escribir conjuntamente en funci´n de la serie de partida Yt .3). Este supuesto no se tiene por qu´ cume plir siempre pero. ruido blanco. d. q) × (P. ya que la mayor´ de las e ıa veces existir´ dependencia entre las observaciones contiguas que. dada la relaci´n (7. es diferente. t = 1. teniendo en cuenta que. Los modelos ARIMA estacionales multiplicativos. . 12N Para cada uno de los modelos (7. D. Es lo que se denomina estructura regular o a estructura asociada a los intervalos naturales de medida de la serie (meses en nuestro caso). tendencias estoc´sticas a a y adem´s recogen la posible interacci´n entre ambos componentes. . de todas maneras. a o Esta clase de modelos. tendr´ ıan la misma media. . 2. j = 1. como no ha sido todav´ tenida a ıa en cuenta. . . . Estos modelos son flexibles en el sentido de que especifican estacionalidades estoc´sticas. las series yτ fueran estacionarias. pero la o serie conjunta. Suponiendo que αt sigue el modelo ARIM A no estacional siguiente: φp (L) (1 − L)d αt = θq (L) at at ∼ RBN (0. . al ser todos iguales. por e (j) lo tanto. asignando a a a u cada mes t el ruido del modelo univariante correspondiente a dicho mes. como hemos visto.

1)×(0. La media es cero y sus autocovarianzas son: γ0 = V (Yt ) = E[Yt − 0]2 = E[at − θ1 at−1 − Θ4 at−4 + θ1 Θ4 at−5 ]2 2 2 2 = (1 + θ1 + Θ2 + θ1 Θ2 ) σ 2 = (1 + θ1 ) (1 + Θ2 ) σ 2 4 4 4 γ1 = Cov(Yt Yt−1 ) = E[(Yt − 0) (Yt−1 − 0)] = = E[(at − θ1 at−1 − Θ4 at−4 + θ1 Θ4 at−5 )(at−1 − θ1 at−2 − Θ4 at−5 + θ1 Θ4 at−6 )] = (−θ1 − θ1 Θ2 ) σ 2 = −θ1 (1 + Θ2 ) σ 2 4 4 γ2 = Cov(Yt Yt−2 ) = E[(Yt − 0) (Yt−2 − 0)] = = E[(at − θ1 at−1 − Θ4 at−4 + θ1 Θ4 at−5 ) (at−2 − θ1 at−3 − Θ4 at−6 + θ1 Θ4 at−7 )] = 0 γ3 = Cov(Yt Yt−3 ) = E[(Yt − 0) (Yt−3 − 0)] = = E[(at − θ1 at−1 − Θ4 at−4 + θ1 Θ4 at−5 ) (at−3 − θ1 at−4 − Θ4 at−7 + θ1 Θ4 at−8 )] = θ1 Θ4 σ 2 γ4 = Cov(Yt Yt−4 ) = E[(Yt − 0) (Yt−4 − 0)] = = E[(at − θ1 at−1 − Θ4 at−4 + θ1 Θ4 at−5 ) (at−4 − θ1 at−5 − Θ4 at−8 + θ1 Θ4 at−9 )] 2 2 = (−Θ4 − θ1 Θ4 ) σ 2 = −Θ4 (1 + θ1 ) σ 2 111 .An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 estacionales que encontramos en la pr´ctica de una forma muy simple. e a ∆∆12 Yt = (1 − θ1 L) (1 − Θ12 L12 ) at = (1 − θ1 L − Θ12 L12 + θ1 Θ12 L13 ) at Not´se que este modelo para la transformaci´n estacionaria. Q)s son modelos muy parsimoniosos. d. es un M A(13) con restricciones. denominado Modelo de L´ ıneas A´reas y que es muy utilizado en la pr´ctica. en vez de los trece de un M A(13) general. 1. Supongamos. D. 1)12 . a Lo que muestra que los modelos ARIM A(p. posiblemente tr´s a aplicar los operadores de diferencias oportunos. 1) × (0. 1. A continuaci´n. a que Yt es una serie estacional mensual que sigue el siguiente modelo ARIM A(0. por ejemplo. de e o forma que solo contiene dos par´metros desconocidos. q) × (P. se derivan las caracter´ o ısticas de algunos modelos sencillos bajo el supuesto de que Yt es una serie trimestral con comportamiento estacional y estacionaria. 1)4 . Sea Yt un proceso estoc´stico estacionario de media cero que sigue el modelo: a Yt = (1 − θ1 L)(1 − Θ4 L4 )at Yt = at − θ1 at−1 − Θ4 at−4 + θ1 Θ4 at−5 que se puede considerar la transformaci´n estacionaria del Modelo de L´ o ıneas A´reas para una e serie trimestral. Modelo ARM A(0.

Sea Yt un proceso estoc´stico estacionario que sigue el modelo: a (1 − φ L) Yt = (1 − Θ4 L4 ) at La media es cero y su varianza es: γ0 = V (Yt ) = E[Yt − 0]2 = E[φ Yt−1 + at − Θ4 at−4 ]2 = φ2 γ0 + σ 2 (1 + Θ2 ) − 2 φ Θ4 E(Yt−1 at−4 ) 4 Es necesario calcular la covarianza entre at−4 e Yt−1 : E(Yt−1 at−4 ) = E[φ Yt−2 + at−1 − Θ4 at−5 ] at−4 = φ E(Yt−2 at−4 ) E(Yt−2 at−4 ) = E[φ Yt−3 + at−2 − Θ4 at−6 ] at−4 = φ E(Yt−3 at−4 ) 112 Yt = φ Yt−1 + at − Θ4 at−4 .SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a γ5 = Cov(Yt Yt−5 ) = E[(Yt − 0) (Yt−5 − 0)] = = E[(at − θ1 at−1 − Θ4 at−4 + θ1 Θ4 at−5 ) (at−5 − θ1 at−6 − Θ4 at−9 + θ1 Θ4 at−10 )] = θ1 Θ4 σ 2 γk = Cov(Yt Yt−k ) = E[(Yt − 0) (Yt−k − 0)] = = E[(at − θ1 at−1 − Θ4 at−4 + θ1 Θ4 at−5 ) (at−k − θ1 at−k−1 − Θ4 at−k−4 + θ1 Θ4 at−k−4−1 )] = 0 Las funciones de autocovarianzas y la de autocorrelaci´n son: o Retardo k=0 k=1 k=2 k=3 k=4 k=5 k>5 FACV 2 γ0 = (1 + θ1 )(1 + Θ2 ) σ 2 4 ∀k > 5 FAC ρ0 = 1 ρ1 = −θ1 2 1 + θ1 γ1 = −θ1 (1 + Θ2 ) σ 2 4 γ2 = 0 γ3 = θ1 Θ4 σ 2 2 γ4 = −Θ4 (1 + θ1 ) σ 2 ρ2 = 0 ρ3 = ρ4 = ρ5 = θ1 Θ4 2 (1 + θ1 )(1 + Θ2 ) 4 −Θ4 1 + Θ2 4 θ1 Θ4 2 (1 + θ1 )(1 + Θ2 ) 4 γ5 = θ1 Θ4 σ 2 γk = 0 ρk = 0 Modelo ARM A(1. 0) × (0. 1)4 .

E(Yt−1 at−4 ) = φ3 σ 2 y la varianza del proceso es: γ0 = σ 2 (1 + Θ2 − 2 φ4 Θ4 ) 4 1 − φ2 El resto de las autocovarianzas vienen dadas por: γ1 = Cov(Yt Yt−1 ) = E[(Yt Yt−1 )] = E[(φ Yt−1 + at − Θ4 at−4 ) Yt−1 ] = φ γ0 − Θ4 φ3 σ 2 γ2 = Cov(Yt Yt−2 ) = E[(Yt Yt−2 )] = E[(φ Yt−1 + at − Θ4 at−4 ) Yt−2 ] = φ γ1 − Θ4 φ2 σ 2 γ3 = Cov(Yt Yt−3 ) = E[(Yt Yt−3 )] = E[(φ Yt−1 + at − Θ4 at−4 ) Yt−3 ] = φ γ2 − Θ4 φ σ 2 γ4 = Cov(Yt Yt−4 ) = E[(Yt Yt−4 )] = E[(φ Yt−1 + at − Θ4 at−4 ) Yt−4 ] = φ γ3 − Θ4 σ 2 γ5 = Cov(Yt Yt−5 ) = E[(Yt Yt−5 )] = E[(φ Yt−1 + at − Θ4 at−4 ) Yt−5 ] = φ γ4 γk = Cov(Yt Yt−k ) = E[(Yt Yt−k )] = E[(φ Yt−1 + at − Θ4 at−4 ) Yt−k ] = φ γk−1 y las funciones de autocovarianzas y de autocorrelaci´n son: o Retardo k=0 k=1 k=2 k=3 k=4 k≥5 γ0 = FACV σ 2 (1 + Θ2 − 2 φ4 Θ4 ) 4 1 − φ2 FAC ρ0 = 1 ρ1 = φ − Θ4 φ3 σ 2 γ0 ∀k ≥ 5 γ1 = φ γ0 − Θ4 φ3 σ 2 γ2 = φ γ1 − Θ4 φ2 σ 2 γ3 = φ γ2 − Θ4 φ σ 2 γ4 = φ γ3 − Θ4 σ 2 γk = φ γk−1 Θ4 φ2 σ 2 γ0 Θ4 φ σ 2 ρ3 = φ ρ2 − γ0 ρ2 = φ ρ1 − ρ4 = φ ρ3 − ρk = φ ρk−1 Θ4 σ 2 γ0 113 .An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 E(Yt−3 at−4 ) = E[φ Yt−4 + at−3 − Θ4 at−7 ] at−4 = φ E(Yt−4 at−4 ) E(Yt−4 at−4 ) = E[φ Yt−5 + at−4 − Θ4 at−8 ] at−4 = σ 2 Por lo que.

1) × (0. 2)4 .SARRIKO-ON 4/09 Modelo ARM A(0. An´lisis de Series Temporales: modelos ARIMA a Sea Yt un proceso estoc´stico estacionario que sigue el modelo: a Yt = (1 − θ1 L)(1 − Θ4 L4 − Θ8 L8 )at Yt = at − θ1 at−1 − Θ4 at−4 − Θ8 at−8 + θ1 Θ4 at−5 + θ1 Θ8 at−9 La media es cero y sus autocovarianzas son: γ0 = V (Yt ) = E[Yt − 0]2 = E[at − θ1 at−1 − Θ4 at−4 − Θ8 at−8 + θ1 Θ4 at−5 + θ1 Θ8 at−9 ]2 2 2 2 2 = (1 + θ1 + Θ2 + Θ2 + θ1 Θ2 + θ1 Θ2 ) σ 2 = (1 + θ1 ) (1 + Θ2 + Θ2 ) σ 2 4 8 4 8 4 8 γ1 = Cov(Yt Yt−1 ) = E[(Yt − 0) (Yt−1 − 0)] = = E[(at − θ1 at−1 − Θ4 at−4 − Θ8 at−8 + θ1 Θ4 at−5 + θ1 Θ8 at−9 ) (at−1 − θ1 at−2 − Θ4 at−5 − Θ8 at−9 + θ1 Θ4 at−6 + θ1 Θ8 at−10 )] = −θ1 (1 + Θ2 + Θ2 ) σ 2 4 8 γ2 = Cov(Yt Yt−2 ) = E[(Yt − 0) (Yt−2 − 0)] = = E[(at − θ1 at−1 − Θ4 at−4 − Θ8 at−8 + θ1 Θ4 at−5 + θ1 Θ8 at−9 ) (at−2 − θ1 at−3 − Θ4 at−6 − Θ8 at−10 + θ1 Θ4 at−7 + θ1 Θ8 at−11 )] = 0 γ3 = Cov(Yt Yt−3 ) = E[(Yt − 0) (Yt−3 − 0)] = = E[(at − θ1 at−1 − Θ4 at−4 − Θ8 at−8 + θ1 Θ4 at−5 + θ1 Θ8 at−9 ) (at−3 − θ1 at−4 − Θ4 at−7 − Θ8 at−11 + θ1 Θ4 at−8 + θ1 Θ8 at−12 )] = θ1 Θ4 (1 − Θ8 ) σ 2 γ4 = Cov(Yt Yt−4 ) = E[(at − θ1 at−1 − Θ4 at−4 − Θ8 at−8 + θ1 Θ4 at−5 + θ1 Θ8 at−9 ) (at−4 − θ1 at−5 − Θ4 at−8 − Θ8 at−12 + θ1 Θ4 at−9 + θ1 Θ8 at−13 )] = 2 = (−Θ4 + Θ4 Θ8 ) (1 + θ1 ) σ 2 γ5 = Cov(Yt Yt−5 ) = E[(at − θ1 at−1 − Θ4 at−4 − Θ8 at−8 + θ1 Θ4 at−5 + θ1 Θ8 at−9 ) (at−5 − θ1 at−6 − Θ4 at−9 − Θ8 at−13 + θ1 Θ4 at−10 + θ1 Θ8 at−14 )] = θ1 Θ4 (1 − Θ8 ) σ 2 γ6 = Cov(Yt Yt−6 ) = E[(Yt − 0) (Yt−6 − 0)] = = E[(at − θ1 at−1 − Θ4 at−4 − Θ8 at−8 + θ1 Θ4 at−5 + θ1 Θ8 at−9 ) (at−6 − θ1 at−7 − Θ4 at−10 − Θ8 at−14 + θ1 Θ4 at−11 + θ1 Θ8 at−15 )] = 0 γ7 = Cov(Yt Yt−7 ) = E[(Yt − 0) (Yt−7 − 0)] = = E[(at − θ1 at−1 − Θ4 at−4 − Θ8 at−8 + θ1 Θ4 at−5 + θ1 Θ8 at−9 ) (at−7 − θ1 at−8 − Θ4 at−11 − Θ8 at−15 + θ1 Θ4 at−12 + θ1 Θ8 at−16 )] = θ1 Θ8 σ 2 γ8 = Cov(Yt Yt−8 ) = E[(Yt − 0) (Yt−8 − 0)] = = E[(at − θ1 at−1 − Θ4 at−4 − Θ8 at−8 + θ1 Θ4 at−5 + θ1 Θ8 at−9 ) 2 (at−8 − θ1 at−9 − Θ4 at−12 − Θ8 at−16 + θ1 Θ4 at−13 + θ1 Θ8 at−17 )] = −Θ8 (1 + θ1 ) σ 2 114 .

An´lisis de Series Temporales: modelos ARIMA a γ9 = Cov(Yt Yt−9 ) = E[(Yt − 0) (Yt−9 − 0)] = SARRIKO-ON 4/09 = E[(at − θ1 at−1 − Θ4 at−4 − Θ8 at−8 + θ1 Θ4 at−5 + θ1 Θ8 at−9 ) (at−9 − θ1 at−10 − Θ4 at−13 − Θ8 at−17 + θ1 Θ4 at−14 + θ1 Θ8 at−18 )] = θ1 Θ8 σ 2 γ10 = Cov(Yt Yt−10 ) = E[(Yt − 0) (Yt−10 − 0)] = = E[(at − θ1 at−1 − Θ4 at−4 − Θ8 at−8 + θ1 Θ4 at−5 + θ1 Θ8 at−9 ) (at−10 − θ1 at−11 − Θ4 at−14 − Θ8 at−18 + θ1 Θ4 at−15 + θ1 Θ8 at−19 )] = θ1 Θ8 σ 2 γk = Cov(Yt Yt−k ) = E[(Yt − 0) (Yt−k − 0)] = = E[(at − θ1 at−1 − Θ4 at−4 + θ1 Θ4 at−5 ) (at−k − θ1 at−k−1 − Θ4 at−k−4 + θ1 Θ4 at−k−4−1 )] = 0 ∀k > 10 Las funciones de autocovarianzas y de autocorrelaci´n son las siguientes: o Retardo k=0 k=1 k=2 k=3 k=4 k=5 k=6 k=7 k=8 k=9 k>9 FACV 2 γ0 = (1 + θ1 )(1 + Θ2 + Θ2 ) σ 2 4 8 FAC ρ0 = 1 ρ1 = θ1 2 1 + θ1 θ1 Θ4 (1 − Θ8 ) 2 (1 + θ1 ) (1 + Θ2 + Θ2 ) 4 8 −Θ4 (1 − Θ8 ) 1 + Θ2 + Θ2 4 8 θ1 Θ4 (1 − Θ8 ) 2 (1 + θ1 ) (1 + Θ2 + Θ2 ) 4 8 γ1 = (−θ1 )(1 + Θ2 + Θ2 ) σ 2 4 8 γ2 = 0 γ3 = θ1 Θ4 (1 − Θ8 ) σ 2 2 γ4 = (1 + θ1 ) (−Θ4 + Θ4 Θ8 ) σ 2 ρ2 = 0 ρ3 = ρ4 = ρ5 = γ5 = θ1 Θ4 (1 − Θ8 ) σ 2 γ6 = 0 γ7 = θ1 Θ4 σ 2 2 γ8 = −Θ8 (1 + θ1 ) σ 2 ρ6 = 0 ρ7 = ρ8 = ρ9 = (1 + θ1 Θ4 2 ) (1 + Θ2 θ1 4 + Θ2 ) 8 −Θ8 1 + Θ2 + Θ2 4 8 (1 + θ1 Θ4 2 ) (1 + Θ2 θ1 4 + Θ2 ) 8 γ9 = θ1 Θ4 σ 2 γk = 0 ρk = 0 115 .

Mientras que si es un AR(1) como en el modelo (C) la parte regular es infinita y decrece exponencialmente hacia cero. con t´rminos de interacci´n e o porque ambas estructuras no son independientes.8 -0.6 0. Para estructuras medias m´viles estacionales o 116 .4 -0.6 0.5. o b) La FAC del proceso ARIM A multiplicativo es una mezcla de las FAC correspondientes a su estructura regular y a su estructura estacional por separado.. se tiene que ρ1 = 0 ı. 3s. (B) y (D).8 Modelo B 0. 7 L − 0. 7 L4 ) Yt = (1 + 0. k = 2..8 -1 -1 Con los resultados derivados para los dos modelos presentados y la ayuda de la figura 7.6 -0.8 Modelo D 0. 7 L4 ) at (B) (1 − 0..6 0.4 0. .6 -0. d) En los retardos estacionales.2 0.4 -0. 4 L) (1 + 0. k = 1.2 -0.8 -0. 4 L) at (C) (D) (1 − 0. se puede aproximar la estructura general de la FAC del proceso ARIM A estacional multiplicativo (7.5 se muestran las funciones de autocorrelaci´n de los siguientes a o modelos para la serie Yt estacionaria posiblemente tr´s alguna transformaci´n: a o (A) Yt = (1 + 0.2 -0.6 0.4 0.5: Funci´n de autocorrelaci´n.6 -0. a o o 1 1 0.. sobre todo si incluye parte autorregresiva y los ´rdenes de los polinomios autorregresivos regular y/o estacional son altos.6 -0.2 0.8 -1 -1 1 1 0.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a En las cuatro figuras del gr´fico 7. 2 L2 ) (1 + 0. 4 L) Yt = (1 + 0.. 2s. como en los modelos (A).4): a a) El c´lculo de la FAC puede llegar a ser muy laborioso. . que recogen la estructura regular (observaciones a contiguas) se reproduce la estructura marcada por los polinomios φp (L) y θq (L) de la parte regular.2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 -0. 8 L4 ) at Yt = (1 + 0.4 0. 2.8 Modelo C 0. Modelos ARIMA multiplicativos. As´ si es un M A(1). c) En los retardos m´s bajos.4 -0.4 0.2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0 1 -0.2 0 1 -0. y luego el resto son cero.2 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 -0.8 Modelo A 0.4 -0. 4 L4 ) at Gr´fico 7.. se representa la estructura estacional generada por los polinomios ΦP (L) y ΘQ (L).

Si es un M A(q) o un ARM A(p. mientras que si fuera un AR(P ) se truncar´ en el retardo k = P s.. . un M A(2). mientras que si fuera un AR(p) se truncar´ en el retardo p. k = s. si la parte regular es un ´ AR(1) como en el modelo (C). ρ4 . mientras que si es negativo la FACP regular aparece con su propio signo. es decir. • A la izquierda de los coeficientes estacionales.. 117 . . o Para completar la descripci´n de las caracter´ o ısticas de los procesos estacionales multiplicativos. Por ultimo. . son distintos de cero y el resto son cero. .. a ambos lados de los retardos estacionales se observa el decrecimiento exponencial impuesto por esta estructura autorregresiva. ρ8 . js + 2. 2s.. . aparecer´ a ambos lados de cada retardo ıan estacional no nulo 2 coeficientes distintos de cero. sin embargo. ıa c) En los retardos estacionales. k = 1. se reproduce la FAC de la parte regular. . Q)s presentar´ ıa el decaimiento r´pido y continuado caracter´ a ıstico de estos modelos. (B) y (D) la parte regular es un M A(1). k = js − 1. ρ2 .. Si la parte regular fuera. En los modelos con estacionalidad autorregresiva la FAC es infinita para los retardos estacionales y decrece exponencialmente (ve´se modelo a (B)). ρ3 yρ4 recogen por un lado la estructura regular de la serie y la de interacci´n entre la parte regular y la parte estacional. e) Alrededor de los retardos estacionales se observa la interacci´n entre la estructura regular o y la estacional que se manifiesta en la repetici´n a ambos lados de cada retardo estacional o de la funci´n de autocorrelaci´n simple de la parte regular. se reproduce la FACP de la parte regular. Not´se que para e este modelo los coeficientes ρ1 . 2. con un componente de interacci´n porque ambas no son independientes. M A(2)4 . ıa d) Alrededor de los retardos estacionales se observa la interacci´n entre la parte regular y la o estacional que se manifiesta como sigue: • A la derecha de cada coeficiente estacional.. ρ8 = ρ1 2 = . q) presentar´ el decaimiento r´pido y continuado caracter´ ıa a ıstico de estos modelos. o o En los modelos (A). Para el modelo (D).. Q)s : a) La FACP del proceso multiplicativo es una mezcla de las FACP correspondientes a su estructura regular y a su estructura estacional por separado. js − 2. . se va a tratar la estructura de la funci´n de autocorrelaci´n parcial (FACP) de un modelo o o ARM A(p.. los dos primeros coeficientes estacionales. se observa que ρ4 = 0 y luego los siguientes coeficientes estacionales son cero. por lo que ρs−1 = ρs+1 = 0... o a b) En los retardos m´s bajos. que recogen la estructura regular se reproduce la estructura marcada por los polinomios φp (L) y θq (L) de la parte regular. k = js + 1. Si es un M A(Q)s o un ARM A(P. se representa la estructura estacional generada por los polinomios ΦP (L) y ΘQ (L). = 0 son cero...An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 como las de los modelos (A) y (C) de forma M A(1)4 . 3s. en cambio. q) × (P. Si el coeficiente estacional es positivo la FACP regular aparece invertida.

Validaci´n y Predicci´n. Los datos de ambas series se encuentran en el ap´ndice C.8 100 1950 1952 1954 1956 1958 1960 4. serie mensual observada desde Octubre de 1949 a Septiembre de 1961. En las series con comportamiento estacional suele suceder que la variabilidad o amplitud del ciclo estacional crece con la tendencia. Estimaci´n. Por ultimo. tomamos la transformaci´n logar´ o ıtmica que presenta una variabilidad homog´nea en toda la muestra (ve´se la figura de la derecha e a del gr´fico 7. YT consta de las fases de Identificaci´n. la funci´n de autocorrelaci´n y los contrastes de ra´ a o o ıces unitarias. e ´ Identificacion.4.6: Pasajeros de L´ a ıneas A´reas (datos originales y logaritmos). en general. Modelizaci´n ARIMA estacional. consideramos que la serie Ln(P asajeros) es estacionaria en a varianza. se seleccionn los ordenes (p.4 600 6. An´lisis de estacionariedad El instrumento utilizado para estudiar la estacionariedad en varianza de la serie es su gr´fico que permite observar si la variabilidad de la serie es homog´nea a lo largo del a e tiempo o no. utilia zando tres instrumentos: el gr´fico. .6). despu´s. o o o o Se ilustrar´ el proceso de construcci´n del modelo con una serie cl´sica en la literatura. D. . Q)s de la estructura estacional estacionaria. o La metodolog´ para construir el modelo ARIM A(p.4 5. Se trata de proponer el/los modelos ARIM A(p.2 6 500 5.6. d. se analiza la estacionariedad de la serie tanto en varianza o como en media y. Gr´fico 7. e 700 6. 118 Ln(pasajeros) Pasajeros .6 1950 1952 1954 1956 1958 1960 400 300 El an´lisis de la estacionariedad en media de una serie se lleva a cabo. para la serie original o aquella transformaci´n estacionaria de la e o misma. d. D. . q)(P. .8 5. Al final e de esta secci´n se propone como ejercicio al lector la modelizaci´n de la serie trimestral ´ o o ındice de producci´n industrial austr´ o ıaco. Q)s apropiado para la serie estaıa cional Y1 .2 5 200 4. Pasajeros a o a de L´ ıneas A´reas. q) de la estructura regular estacionaria y (P. Este es el caso de la serie Pasajeros de L´ ıneas A´reas (Pasajeros) como muestra la figura de la izquierda del gr´fico7. q)(P. Q)s que puedan representar la evoluci´n de la serie Yt . a A.6 5. Por lo tanto. se estudia la necesidad de incluir o no un t´rmino ´ e independiente en el modelo. En primer lugar.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a 7. Como e a la serie original no es estacionaria en varianza. Y2 .6 6.

Gr´fico 7. por un lado.8 muestra la serie (1 − L12 ) Ln(P asajeros) .5 00 -0.96/T^0. diferencias 0.5 0.1.5 FAC de de D12 Ln(pasajeros) FACP D1 D12 Ln(Pasajeros) 1 1 0. por otro lado. Tomaremos. Para buscar una transformaci´n1.5 -1 -1 00 5 5 10 10 15 15 20 20 retardo retardo 25 25 30 30 35 35 +.5 -0. Por otro lado.5 +. e 24 y 36. De hecho. Ya no se a -0.An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 Inspeccionando en primer lugar el gr´fico de la serie Ln(P asajeros)t .5 -1 -1 0 0 5 5 10 10 15 15 20 20 retardo retardo 25 25 30 30 35 35 +. con lo que la media de cada mes es distinta.5 FAC de D12 Ln(pasajeros) FACP de Ln(pasajeros) 11 0.5 0 -0.1.96/T^0. no es estacionaria porque.1. la figura superior del gr´fico 7.5 0.96/T^0.5 estacionales para solucionar el problema de la no estacionariedad estacional.96/T^0.5 -1 0 5 10 15 0 119 20 retardo 25 30 35 . en primer lugar.96/T^0.5 -0. presenta un ciclo estacional sistem´tico con los meses de verano en los a valores m´ximos del ciclo y los de invierno en los m´ a ınimos.7: Correlogramas de la Ln(Pasajeros) y algunas transformaciones. a FAC de Ln(pasajeros) 1 0.5 Podemos concluir que la serie en FACP de D1 D12no es estacionaria en media ni en la estructura logaritmos Ln(Pasajeros) regular 1 en la estacionalidad.96/T^0. La figura izquierda del gr´fico 7.7 muestra como el correlograma a de la serie Ln(P asajeros) decrece lentamente hacia cero tanto en la estructura regular como en la estacional: not´se el lento decrecimiento para los tres retardos estacionales: 12.5serie que s´ sea estani o de la ı +cionaria.5 0 0 -0.5 -1 0 5 10 15 20 retardo 25 30 35 +. se observa que no a es estacionaria en media porque no oscila en torno a un nivel constante.1. se suele proceder a diferenciar la serie.1. su tendencia (comportamiento a largo plazo) es creciente y.5 +.

71 > DF0.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a aprecia un comportamiento estacional sistem´tico y no se observan diferencias de media por a cada mes.35 0. Se observa que el gr´fico de esta transformaci´n de la a o serie (ve´se la figura derecha del gr´fico 7. Por otro lado.8) oscila en torno a una media cero y que su a a correlograma (figura inferior del gr´fico 7. + L11 ) lo que implica que al tomar diferencias estacionales. 120 . El an´lisis de su correlograma (ve´se la figura intermedia del a a gr´fico 7.15 0.1): a tc = −2. Este resultado parece indicar que la serie a´n no es estacionaria en la parte regular.1 0 -0.15 1952 1954 1956 1958 1960 La serie (1 − L12 ) Ln(P asajeros) ya no crece sistem´ticamente sino que parece oscilar a en torno a un nivel pero con grandes rachas de observaciones por encima y por debajo del promedio.2 0. a e Gr´fico 7. 89 Por lo que no se rechaza la hip´tesis nula de existencia de ra´ unitaria. hay que se˜alar tambi´n que ha desaparecido el comportamiento n e tendencial creciente de la serie. por lo que se toma otra diferencia regular y se analiza la posible estacionariedad de la serie (1 − L)(1 − L12 ) Ln(P asajeros) .25 (1-L) (1-L12) Ln(Pasajeros) 0. Esto es debido a que el operador de diferencias estacional se puede escribir como: (1 − L12 ) = (1 − L) S12 (L) = (1 − L) (1 + L + L2 + . n se est´ actuando tambi´n sobre la no estacionariedad en tendencia. a a 0.1 -0. estamos eliminando.1 0.7) decrece r´pidamente hacia cero tanto en la a a estructura regular como en la estacional. el contraste ADF para la hip´tesis nula de existencia de ra´ unitaria en la ´ o ız serie (1 − L12 ) Ln(P asajeros) . . la estacionalidad no estacionaria mediante el operador S12 (L) que suma las observaciones de cada a˜o. pero al estar aplicando a la vez el operador de diferencias regular.7) muestra un decrecimiento hacia cero que no es exponencial en la parte regular.05 (1-L12) Ln(pasajeros) 0. por un lado.05 1952 1954 1956 1958 1960 -0. a aunque ya no hay problemas en los retardos estacionales.3 0.05 -0. No parece el gr´fico de una serie estacionaria en media sino el de una serie a que va cambiando de nivel.8: Gr´ficos de algunas diferencias de la serie Ln(Pasajeros).05 = −2. proporciona el siguiente resultado (ve´se cuadro 7. .15 0 0. u Por ultimo.05 0. (1 − L) . o ız Concluimos que la serie (1 − L12 ) Ln(P asajeros) no es estacionaria en la parte regular.

2: Contrastes de ra´ ıces unitarias.249907 Estad´stico de contraste: tau c(1) = -2.006 o valor estimado de (a .807e-006 o contraste con constante modelo: (1 . + e Coef.22377 Estad´stico de contraste: tau c(1) = -4.22523 Estad´stico de contraste: tau nc(1) = -4. + e Coef.006 o valor estimado de (a .1): -0.44332 ı valor p asint´tico 0.L)y = (a-1)*y(-1) + .015 o valor estimado de (a .70958 ı valor p asint´tico 0.0001 o 121 . + e Coef.An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 Cuadro 7.1): -2.46639 ı valor p asint´tico 8. (1 − L)(1 − L12 )Ln(P asajeros) Contrastes aumentados de Dickey-Fuller. para (1-L12) Ln(Pasajeros): tama~o muestral 119 hip´tesis nula de ra´z unitaria: a = 1 n o ı contraste con constante modelo: (1 . (1 − L12 )Ln(P asajeros).. Contrastes aumentados de Dickey-Fuller... orden 12.L)y = b0 + (a-1)*y(-1) + .07233 o Cuadro 7. de autocorrelaci´n de primer orden de e: -0.1): -2. (1-L)(1-L12) Ln(Pasajeros): tama~o muestral 118 hip´tesis nula de ra´z unitaria: a = 1 n o ı contraste sin constante modelo: (1 . de autocorrelaci´n de primer orden de e: -0..L)y = b0 + (a-1)*y(-1) + . de autocorrelaci´n de primer orden de e: -0...1: Contrastes de ra´ ıces unitarias. orden 12.

1)12 . por lo que la serie Ln(P asajeros) es integrada de orden 1 en la parte regular. no hay que a˜adir ninguna o n constante. contrastamos la hip´tesis nula de que la media o o de la serie Zt = ∆∆12 Ln(P asajeros)t es cero. 140720 Exc. B. 619 122 M´ ınimo −0. 14778 . osea. 000000 C.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a En lo que se refiere al contraste de ra´ unitarias sobre la serie (1−L)(1−L12 ) Ln(P asajeros) . como tanto en la parte regular como en la estacional observamos que el primer coeficiente de la FAC es distinto de cero y el resto no son significativos proponemos una estructura medias m´viles de orden 1 para ambas. d = 1 e integrada de orden 1 en la parte estacional. El gr´fico de la serie (figura derecha del gr´fico 7. Para confirmar esta conclusi´n. 0381906 M´ximo a 0. usando las observaciones 1949:10 . de curtosis 1. y que en la parte estacional el coeficiente p12 es significativamente distinto de cero y decrecen. 0458483 Mediana 0. D = 1 . 89 Por lo que se rechaza la hip´tesis nula de existencia de ra´ unitaria.9). q) y (P. aunque se aprecia una estructura general exponencial decreciente. 141343 Asimetr´ ıa 0. 000290880 Desv. 44 < DF0.05 = −2. En principio. 0.2 muestran que se: tc = −4. En la funci´n de autocorrelaci´n parcial se observa que el primer o o coeficiente es significativamente distinto de cero.1963:09 para la variable (1-L) (1-L12) Ln(Pasajeros) (131 observaciones v´lidas) a Media 0. 157. para acabar de identificar el/los modelos que pueden haber generado la serie ´ Pasajeros de l´ ıneals a´reas. Q) o o La elecci´n del / los modelos apropiados para la serie estacionaria se realiza estudiando su o funci´n de autocorrelaci´n simple y parcial (gr´fico 7. ARM A(0. El gr´fico de la funci´n de autoo o a a o correlaci´n simple muestra que el primer coeficiente regular significativamente distinto de o cero y que en la parte estacional tambi´n solo el primer coeficiente. ρ12 . Por ultimo. es significativae mente distinto de cero. es preciso decidir si es necesario incluir o no un t´rmino indee e pendiente. Selecci´n de los ´rdenes (p.V. por lo tanto. con el estad´ ıstico: t= ¯ Z σZ ¯ Para calcular este estad´ ıstico se utilizan los siguientes datos sobre la serie estacionaria (1 − L)(1 − L12 )Ln(P asajeros) Estad´ ısticos principales. 1)(0. ıces los resultados del cuadro 7.9) parece sugerir que la media a a de esta transformaci´n estacionaria es cero y que. o ız Podemos concluir que la serie (1 − L)(1 − L12 ) Ln(P asajeros) es estacionaria. Observ´se o e como a ambos lados de los coeficientes estacionales de la FAC se reproduce la estructura de la parte regular. T´ ıp.

96/T^0. 000291 = 0. 4018 L) (1 − 0. El modelo estimado seg´n el output obtenido con Gretl que se presenta a continuaci´n es: u o ∆∆12 Ln(P asajeros)t = (1 − 0. 34 + 2 0. 04582 2 ˆ ¯ σZ = V (Z) (1 + 2 ρ1 + 2 ρ12 ) = ˆ ˆ (1 + 2 0.96/T^0. 5569 L12 ) at 123 .An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 Gr´fico 7. En la etapa de Identificaci´n se ha propuesto el siguiente modelo candidato a haber generado la o serie Pasajeros de l´ ıneas a´reas: e ARIM A(0. no se rechaza la hip´tesis nula y no se incluye un t´rmino independiente en o e el modelo. 006287 Por lo tanto.1.5 -1 0 5 10 15 20 retardo 25 30 35 +.9: FAC y FACP estimadas de la serie estacionaria. 1. a FAC de D1 D12 Ln(Pasajeros) 1 0.5 0 -0.5 FACP de D1 D12 Ln(Pasajeros) 1 0.025 (130) 0. 1)(0.5 As´ se obtiene: ı. 387) = 0.5 0 -0.1. 0000395 ¯ (131 − 1) t = 0.5 -1 0 5 10 15 20 retardo 25 30 35 +. 1)12 : ∆∆12 Ln(P asajeros)t = (1 − θ L) (1 − Θ L12 ) at ´ Estimacion. 04628 < 2 ≈ t0. 1. 0.

0000 0. t´ ıpica 0. de la variable dependiente media de las innovaciones Varianza de las innovaciones Log-verosimilitud Real 2.556937 Desv. 346| > N0. 4887 1. en primer lugar. 7955 Imaginaria 0.6183 0. En esta etapa se trata de comprobar de que el modelo propuesto se ajusta bien a los datos y reproduce la estructura de comportamiento de la serie. dependiente D. Comenzando por el an´lisis de los coeficientes. 0000 valor p 0. 072 = = | − 7. 0000 0.000290880 0.0896453 0.T. o El modelo propuesto es estacionario porque es un medias m´viles finito y es invertible porque o el m´dulo de las trece ra´ o ıces medias m´viles est´ fuera del c´ o a ırculo unidad.025 ≈ 2 Se rechaza H0 : Θ = 0 para un nivel de significaci´n del 5 %. o Θ: ˆ Θ σΘ ˆ −0. 124 .025 ≈ 2 Se rechaza H0 : θ = 0 para un nivel de significaci´n del 5 %. 0000 0.00100838 0.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Modelo 1: estimaciones ARIMA utilizando las 131 observaciones 1950:11–1961:09 Variable dependiente: (1 − L)(1 − L12 )Ln(P asajeros) Desviaciones t´ ıpicas basadas en el Hessiano Coeficiente θ1 Θ1 −0.4824 −7. Contrastes de significatividad individual: H0 : θ = 0 Ha : θ = 0 θ: θ σθ ˆˆ . H0 : Θ = 0 Ha : Θ = 0 −0.0458483 0. 79| > N0.401823 −0. 4887 1. 527 0. 7955 Frecuencia 0.0000 Media de la var. si son o no a estad´ ısticamente significativos.696 M´dulo o 2. 265 0. 0000 MA MA (estacional) Ra´ ız Ra´ ız 1 1 ´ Validacion. comprobaremos. 0699 = = | − 3.00134810 244.0731050 estad´ ıstico t −4.

37. por lo que ninguno es significativamente distinto de cero. 0376848 Mediana −0.05 que los 36 primeros coeficientes de autocorrelaci´n son conjuntamente cero. 00100838 Desv. T´ ıp. Q = 43.10 en la a a a que se observa que los residuos oscilan en torno a cero con una variabilidad bastante homog´nea.V.10: Serie: ∆∆12 Ln(P asajeros).96/T^0. 00280376 C.5 0 -0. +.15 FAC de los residuos 1 0. 3715 M´ ınimo −0.15 1952 1954 1956 1958 1960 FACP de los residuos En cuanto al contraste de significaci´n conjunto de la siguiente hip´tesis nula: o o 1 H0 : ρ1 = ρ2 = .05 Por lo tanto. 112436 Exc. el correlograma de los residuos muestra que ning´n coeficiente de autocorrelaci´n u o est´ fuera de la regi´n cr´ a o ıtica. podemos concluir que los residuos se comportan como un ruido blanco si bien no parecen seguir una distribuci´n normal. de curtosis 0. 0por lo que no se rechaza la hip´tesis nula de o 0.5 Estad´ ısticos principales.1 -0.96/T^0. 0770597 M´ximo a 0. 118741 Asimetr´ ıa 0. o 125 . 75 < χ2 . = ρ36 = 0 .5 .An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 Comenzamos el an´lisis de los residuos con el an´lisis de la figura izquierda del gr´fico 7.1. 46 > χ2 (2) = 5.5 0. e Por otro lado. 99 0.1 0.1963:09 0 5 10 25 para la variable uhat1 (131 observaciones v´lidas) 20 a 15 retardo 30 35 Media 0. Estimaci´n y diagn´sticos.1.5 El estad´ ıstico de Box-Ljung.05 Residuo 0 -0. se tiene que: JB = 32. Gr´fico 7. 0. a o o 0. 547118 En lo que se refiere al contraste de Jarque-Bera de Normalidad. o -0.5 -1 0 5 10 15 20 retardo 25 30 35 +.05 -0. usando las -1 observaciones 1949:10 .0.

4 4. e ´ Identificacion.11: Serie: Indice de Producci´n Industrial (1975:I .9 4.1988:IV) a o 140 4.08 0.14 0.02 -0.04 0.1 (1-L4) Ln(IPI) 0.5 Ln(IPI) 130 120 100 IPI 4.2 70 4.02 0. A. o Gr´fico 7. Q)s apropiado a para la serie trimestral del ´ Indice de producci´n industrial austriaco (IPI) para la que se cuenta o con datos desde el primer trimestre de 1975 hasta el cuarto de 1988 (los datos originales se encuentran en el ap´ndice C).06 0 1976 1978 1980 1982 1984 1986 1988 -0.04 -0.02 0 0.1 4 3. construye del modelo ARIM A(p. d.08 (1-L) (1-L4) Ln(IPI) 0.7 4.08 1976 1978 1980 1982 1984 1986 1988 (1 − L4 )Ln(IP I) 126 (1 − L)(1 − L4 )Ln(IP I) . a Pregunta: ¿Es la serie estacionaria en varianza? Busca la transformaci´n estacionaria.06 -0.04 0.9 1976 1978 1980 1982 1984 1986 1988 1976 1978 1980 1982 1984 1986 1988 60 50 IPI Ln(IPI) Pregunta: ¿Es la serie estacionaria en media? Busca la transformaci´n estacionaria.3 90 80 4. D.16 0.1. a a 0.12: Gr´ficos de diferencias de la serie Ln(IPI).SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Ejercicio 7.8 4. Dados los siguientes gr´ficos y tablas. q)(P.6 110 4. ´ Indice de Producci´n Industrial austr´ o ıaco.12 0. An´lisis de estacionariedad. o Gr´fico 7.06 0.

5 0.13: Correlogramas de diferencias de la serie Ln(IPI).5 +.5 -1 0 2 4 6 8 retardo 8 retardo 10 10 12 12 14 14 16 16 FACP de D1 D4 Ln(IPI) +.1.5 0 -0.5 -1 -1 0 0 2 2 4 4 6 6 8 retardo 10 12 14 16 FACP de Ln(IPI) FAC de D4 Ln(IPI) +.5 0 -0.5 -0.5 0.1.5 -1 0 -1 0 2 4 6 2 4 6 8 retardo 8 retardo 10 10 12 12 14 14 16 16 FACP de D4 Ln(IPI) FAC de D1 D4 Ln(IPI) +.5 ln(IP I) 1 1 0.5 +.An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 Gr´fico 7.5 0 0 -0.5 -0.96/T^0. a FAC de Ln(IPI) 1 0.5 ∆ ∆4 ln(IP I) 1 0.96/T^0.5 127 8 retardo 10 12 14 16 .1.96/T^0.5 -1 0 2 4 6 +.96/T^0.1.96/T^0.1.5 ∆4 ln(IP I) 1 1 0.1.5 0 0 -0.96/T^0.

orden 4.0473233 Estad´stico de contraste: tau nc(1) = -0.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Cuadro 7.353237 Estad´stico de contraste: tau c(1) = -2...L)y = (a-1)*y(-1) + ....3701 o contraste con constante modelo: (1 . + e Coef.004838 o 128 .1428 o Contrastes aumentados de Dickey-Fuller.39611 ı valor p asint´tico 0.799128 ı valor p asint´tico 0.3: Contrastes de ra´ ıces unitarias. de autocorrelaci´n de primer orden de e: -0.022 o valor estimado de (a . orden 4. + e Coef. de autocorrelaci´n de primer orden de e: -0.022 o valor estimado de (a . + e Coef.L)y = (a-1)*y(-1) + . de autocorrelaci´n de primer orden de e: -0. para (1 − L)(1 − L4 ) Ln(IPI): tama~o muestral 46 hip´tesis nula de ra´z unitaria: a = 1 n o ı contraste sin constante modelo: (1 . para (1 − L4 ) Ln(IPI): tama~o muestral 47 hip´tesis nula de ra´z unitaria: a = 1 n o ı contraste sin constante modelo: (1 .1): -1.0001 o contraste con constante modelo: (1 ..1): -1..1): -0. + e Coef. Contrastes aumentados de Dickey-Fuller.64814 Estad´stico de contraste: tau nc(1) = -3.L)y = b0 + (a-1)*y(-1) + .L)y = b0 + (a-1)*y(-1) + .1): -0.65382 ı valor p asint´tico 0. de autocorrelaci´n de primer orden de e: 0.65542 Estad´stico de contraste: tau c(1) = -3.005 o valor estimado de (a .022 o valor estimado de (a ..70536 ı valor p asint´tico 0.

5 Estad´ ısticos principales. 23.14: FAC y FACP estimadas de la serie ∆∆4 ln IP It . 0334 M´ ınimo −0.V. 00113181 Desv. a FAC de (1-L) (1-L4) Ln(IPI) 1 0. Selecci´n de los ordenes (p. 0446416 M´ximo a 0.5 0 -0. 73581 Pregunta: ¿Qu´ modelo/modelos ARIMA estacionales propones para la serie IPI? e 129 . T´ ıp.An´lisis de Series Temporales: modelos ARIMA a B. 0795702 Asimetr´ ıa −0.96/T^0. 0788784 Exc. 00316331 C.5 -1 0 2 4 6 8 retardo 10 12 14 16 +. de curtosis 1.1. 0. usando las observaciones 1975:1 .5 -1 0 2 4 6 8 retardo FACP de (1-L) (1-L4) Ln(IPI) 1 0. o e SARRIKO-ON 4/09 Gr´fico 7. y del t´rmino independiente.5 0 -0.1988:4 para la variable D1D4 LnIPI (51 observaciones v´lidas) a Media −0. 0260694 Mediana −0.96/T^0.1.5 10 12 14 16 +. q) y (P. Q).

o Modelo A: estimaciones ARIMA utilizando las 51 observaciones 1976:2–1988:4 Variable dependiente: (1 − L)(1 − L4 ) Ln(IPI) Variable Coeficiente Desv. 0000 M´dulo o 3. 0000 M´dulo o 2.8998 0.177300 −2.855573 Desv.660 Imaginaria 0.000413225 123. 0000 0. 1511 Frecuencia 0. 1511 AR MA (estacional) Ra´ ız Ra´ ız 1 1 Modelo B: estimaciones ARIMA utilizando las 51 observaciones 1976:2–1988:4 Variable dependiente: (1 − L)(1 − L4 ) Ln(IPI) Variable θ1 Θ1 Coeficiente −0.0072 0. 3776 1.0000 media de las innovaciones Varianza de las innovaciones Log-verosimilitud Real −2. 8287 1.000401395 124.SARRIKO-ON 4/09 ´ Estimacion. 3776 1. 0000 0.0105 0.296070 −0.353517 −0. 0000 valor p 0. escribe los modelos estimados. 0000 0.00184053 0.161817 Estad´ ıstico t −2.115774 0. An´lisis de Series Temporales: modelos ARIMA a Un investigador ha propuesto los siguientes modelos para la serie IPI: Modelo A : Modelo B : (1 − φ L) ∆∆4 ln IP It = (1 − Θ L4 ) at ∆∆4 ln IP It = (1 − θ L) (1 − Θ L4 ) at Pregunta: ¿Est´s de acuerdo? ¿Por qu´? a e Con los resultados que se presentan a continuaci´n. t´ ıpica 0.131443 0. 8287 1.868740 0. 1688 MA MA (estacional) Ra´ ız Ra´ ız 1 1 130 .5573 −5.2873 0.00171446 0.237 Imaginaria 0. 1688 Frecuencia 0. t´ ıpica Estad´ ıstico t valor p φ1 Θ1 −0. 0000 0.0000 media de las innovaciones Varianza de las innovaciones Log-verosimilitud Real 3. 5000 0.6895 −4.

1)(0.5 8 retardo 10 12 14 16 Q(24) = 16.96/T^0.5 0 -0.5 -1 0 2 4 6 10 12 14 16 +. o Modelo ARIM A(1.5 0 -0.06 1976 1978 1980 1982 1984 1986 1988 −0. 0)(0.5 -1 0 2 4 6 8 retardo FACP de los residuos 1 0.96/T^0.02 residuo 0 residuo 0 −0.1.96/T^0.08 0.06 0.08 Modelo ARIM A(0.465 Q(24) = 18.02 0.02 −0.1. 1)4 Residuos de la regresión (= L_IPI observada − estimada) 0.5 -1 0 2 4 6 FAC de los residuos +. 1.00 131 .5 1 0.04 0.An´lisis de Series Temporales: modelos ARIMA a ´ Validacion SARRIKO-ON 4/09 Con los resultados mostrados en los gr´ficos y tablas del cuadro 7.1.5 0 -0.06 0. 1. 1.5 1 0. 1.96/T^0. Diagn´stico.4 contesta a las siguientes a pregunta: Pregunta: ¿Se ajustan los modelos a los datos? ¿Qu´ modelo seleccionar´ para predecir? e ıas Cuadro 7.5 0 -0.04 −0.02 −0.5 8 retardo 10 12 14 16 FACP de los residuos +.1.5 -1 0 2 4 6 8 retardo 10 12 14 16 +.4: Serie: ∆∆4 ln IP It .06 1976 1978 1980 1982 1984 1986 1988 FAC de los residuos 1 0. 1)4 Residuos de la regresión (= L_IPI observada − estimada) 0.04 0.04 −0.

SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Modelo ARIM A(1. 00184053 Desv. 4656 M´ ınimo −0. 1. 1716 M´ ınimo −0. T´ ıp. 0479773 Asimetr´ ıa 0.V. 00171446 Desv. 1)4 Estad´ ısticos principales. 000717917 C. 0747304 Exc. de curtosis 1. 12. 1)(0. 0740437 Exc. 67900 132 .1988:4 para la variable uhatA (51 observaciones v´lidas) a Media 0. usando las observaciones 1975:1 . 706177 M´ximo a 0. 1. 0208678 Mediana −0. de curtosis 1. 1.1988:4 para la variable uhatB (51 observaciones v´lidas) a Media 0. T´ ıp. 11. 588185 M´ximo a 0. 0. 0. 47041 Modelo ARIM A(0. 00158269 C.V. usando las observaciones 1975:1 . 0211028 Mediana −0. 1. 0)(0. 0430086 Asimetr´ ıa 0. 1)4 Estad´ ısticos principales.

136 158 184 209 237 259 312 355 404 404 463 508 Jul.Septiembre 1961) e A˜o n 1949 1950 1951 1952 1953 1954 1955 1956 1957 1958 1959 1960 1961 Ene.5: Pasajeros de l´ ıneas a´reas (Octubre 1949 . 119 133 162 191 211 229 274 306 347 359 407 461 Agos. 118 140 166 194 201 229 278 306 336 337 405 432 Oct.An´lisis de Series Temporales: modelos ARIMA a Ap´ndice C. e SARRIKO-ON 4/09 Cuadro 7. 118 126 150 180 196 188 233 277 301 318 342 391 Dic. 132 141 178 193 236 235 267 317 356 362 406 419 133 . 121 125 172 183 229 234 270 318 355 363 420 472 Marzo 135 149 178 218 243 264 315 374 422 435 472 535 Abril 148 170 199 230 264 302 364 413 465 491 548 622 Mayo 148 170 199 242 272 293 347 405 467 505 559 606 Jun. 112 115 145 171 196 204 242 284 315 340 360 417 Nov. Datos. 104 114 146 172 180 203 237 271 305 310 362 390 Sept. 129 135 163 181 235 227 269 313 348 348 396 461 Febr.

8 76.5 56.5 99.1 103.1 80.8 Fecha 1981:1 1981:2 1981:3 1981:4 1982:1 1982:2 1982:3 1982:4 1983:1 1983:2 1983:3 1983:4 IPI 72.3 112.3 93.0 66.4 82.8 62.9 57.1 70.4o trimestre 1988) o Fecha 1975:1 1975:2 1975:3 1975:4 1976:1 1976:2 1976:3 1976:4 1977:1 1977:2 1977:3 1977:4 IPI 54.2 71.2 74.1 59.4 107.4 66.4 123.3 Fecha 1978:1 1978:2 1978:3 1978:4 1979:1 1979:2 1979:3 1979:4 1980:1 1980:2 1980:3 1980:4 IPI 60.0 85.6 63.9 112.5 96.8 63.8 94.6 66.5 115.7 109.0 59.6 69.1 72.6 114.9 131.6: ´ Indice de producci´n industrial (1o trimestre 1975 .0 129.2 101.8 75.5 72.2 89.9 79.0 67.5 89.6 72.1 Fecha 1984:1 1984:2 1984:3 1984:4 1985:1 1985:2 1985:3 1985:4 1986:1 1986:2 1986:3 1986:4 IPI 84.5 65.6 Fecha 1987:1 1987:2 1987:3 1987:4 1988:1 1988:2 1988:3 1988:4 IPI 105.5 63.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Cuadro 7.6 82.0 134 .5 101.4 108.3 78.0 58.7 77.5 72.6 60.

pero sin o embargo. • Zt = ∆4 Yt es estacionario. Sea Yt un proceso estoc´stico estacionario con funci´n de autocovarianzas γk . donde a. ¿es estacionario? C3. • en general. b son constantes a y X una variable aleatoria con media µ y varianza σ 2 . . Demuestra que el proceso estoc´stico Yt a es estacionario en covarianza. obt´n la media o o e y la funci´n de autocorrelaci´n simple del proceso Zt . ) 135 . Sea Yt un proceso estoc´stico tal que Yt = a + b X. para todo t. Considera ahora el proceso Zt = 10 − 4t + Yt . ¿Qu´ conclusi´n general puedes obtener de los resultados obtenidos en los cuatro apartados e o anteriores? C5. ¿Es el proceso Yt estacionario?. Demuestra que: • Zt = ∆Yt = Yt − Yt−1 es estacionario. donde Yt es un proceso estoc´stico estacioa a nario en covarianza y X es una variable aleatoria independiente de Yt . Supongamos que la funci´n de autocovarianzas del proceso Yt no depende de t. ¿Cu´l es la funci´n de autocovarianzas del proceso Yt ? a o C2. la media del proceso viene dada por E(Yt ) = 4t. Demuestra que el proceso M A(∞) siguiente: Yt = at + c (at−1 + at−2 + .1. o o a o C4. Suponiendo conocidas la media y varianza de X y la media y la funci´n de autocorrelaci´n simple de Yt .Cap´ ıtulo 8 Ejercicios 8. . Considera el proceso estoc´stico Zt = X + Yt . Cuestiones C1. Zt = N j=0 aj Yt−j es estacionario. • Zt = ∆2 Yt es estacionario.

Demuestra tambi´n que las primeras diferencias e del proceso: Wt = Yt − Yt−1 son un proceso MA(1) estacionario. Sea el proceso Yt = µ + at + θat−1 . 136 . de forma que el error de predicci´n es eT (1). no es estacionario.s. o C8.05L4 )Yt = at ¿Podr´ sugerirle un modelo m´s parsimonioso? ¿Por qu´? ıas a e C9. ¿Es el proceso Zt estacionario? ¿Es la varianza del proceso Zt mayor o menor que la del proceso Yt ? ¿Cu´l es a la funci´n de autocovarianzas del proceso diferenciado?. donde µ es una constante.a. q) bien construido tiene autocorrelaciones residuales que son todas cero.c. Considera el proceso AR estacionario (1 − φL)Yt = at y sea Zt = Yt − Yt−1 . demuestra que la f. ¿Por qu´ esperas que eT (1) sea o o e ruido blanco? C12.22L2 + 0. Si un analista presenta el siguiente modelo AR(4) para una muestra dada: (1 + 0. o C11. Si IT es un conjunto de informaci´n que incluye los valores pasados y presente de la serie ˆ que queremos predecir. de Yt no depende de µ. • Un modelo ARIMA estimado con residuos que est´n significativamente autocorrelacionaa dos no es apropiado. Considera el proceso MA estacionario Yt = (1 − θL)at y sea Zt = Yt − Yt−1 .48L + 0. d. o o C6. y YT (1) es la predicci´n ´ptima basada en el citado conjunto de o o informaci´n IT . Contesta a las siguientes preguntas: • ¿C´mo se obtienen las funciones de autocorrelaci´n simple y parcial te´ricas? o o o • ¿C´mo se obtienen las funciones de autocorrelaci´n simple y parcial estimadas o muestrao o les? o e • ¿Las facs y facp estimadas se corresponden exactamente con las te´ricas? ¿Por qu´? C10. Yt . Comenta las siguientes frases: • Un modelo ARIM A(p. o C7. Busca la funci´n de autocorrelaci´n simple de Wt .14L3 + 0. ¿Es el proceso Zt estacionario? ¿Es la varianza del proceso Zt mayor o menor que la del proceso Yt ? ¿Cu´l es a la funci´n de autocovarianzas del proceso diferenciado?.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a donde c es una constante.

9 1. 5 Problema 2. puede transformarse los dos modelos AR(1) dados. 2. 5 at−2 Yt = at − 1. 7 Yt−1 + at − 0.5 0.5 0. ˆ ˆ ˆ • Comprueba si tus sugerencias eran apropiadas calculando ρk . . 05 Yt−1 − 0. 6.6 0. 03 Yt−1 + at Yt = 0. ρ1 .8 1.2 • En base al gr´fico de las observaciones. en base a estos gr´ficos. 05 at−2 Yt = 0. • Calcula los coeficientes de autocorrelaci´n simple.5 1. 7.8 Yt−1 + at Yt = −0. Considera los siguientes procesos estoc´sticos: a 1. 137 . 5 Yt−2 + at Yt = −1. ψ5 del modelo en forma M A(∞) en que. Contamos con la siguiente serie temporal estacionaria: 1. .2 0. 2. . p5 . 1. p3 . si es posible. sugiere un valor aproximado para el coeficiente de a autocorrelaci´n muestral de orden 1.5 Yt−1 + at 2 σa = 2 • ¿Son estacionarios? ¿Son invertibles? • Calcula las autocovarianzas. 3 at−1 Yt = −0. 4. sugiere valores aproxia mados para ρ1 y ρ2 .3 0. 3. . ψ2 . . 5. • Calcula los coeficientes de autocorrelaci´n parcial. γ5 . .2 0. γ0 . ρ2 . 7 at−1 − 0. 3. ρ5 . 6 Yt−1 + at + 0. .8 0. k = 0. Repres´ntalos gr´ficao e a mente. p4 .1 0. • Calcula los pesos ψ1 . Sean los modelos AR(1) siguientes: (a) (b) Yt = 0. 45 at−1 Yt = at + 0. γ1 .2. o ˆ • Dibuja Yt contra Yt+1 e Yt contra Yt+2 y. 09 Yt−2 + at − 0.6 1. . Repres´ntalos gr´ficameno e a te. p2 .An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 8. q) son? ¿Son estacionarios e invertibles? ¿Por qu´? e e Problema 3. Problemas Problema 1. . .1 1. 4 at−2 ¿Qu´ modelo ARM A(p. 4.9 1. p1 . . .8 1. ρ1 . Yt = 1.

¿es de esperar que Y51 sea mayor o menor que la media? 2 σa = 4 Problema 5. . Encuentra la funci´n de autocorrelaci´n simple o o de los siguientes procesos lineales: (1) Yt = at + 0. ρ1 . puede transformarse los dos modelos M A(1) dados.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Problema 4. o o • Si Y100 es mayor que la media del proceso. ρ2 . Dibuja la funci´n de autoo o correlaci´n te´rica. • Calcula los coeficientes de autocorrelaci´n simple. γ1 . Repres´ntalos gr´ficameno e a te. o o • Si Y50 = 21 . Problema 7. γ0 . . Problema 6. 2. 5 at−1 2 σa = 4 • ¿Son estacionarios? ¿Son invertibles? • Calcula las autocovarianzas. Considera el proceso AR(1) siguiente: Yt = 20 + 0. Dibuja la funci´n de autoo o correlaci´n te´rica. γ5 . ρ5 . . 5 at−1 ¿Crees que estos dos modelos lineales se pueden distinguir en base a observaciones de {Yt }?. . . . ¿es de esperar que Y101 sea tambi´n mayor? e 138 σ2 = 3 . π5 del modelo en forma AR(∞) en que. 9 at−1 Yt = at + 0. .6 Yt−1 + at • ¿Es estacionario? ¿Es invertible? • Calcula la media y la funci´n de autocovarianzas del proceso. si es posible. Sea at un proceso ruido blanco. Considera el proceso M A(1) siguiente: Yt = 5 + at + 0. . . . 2 at−1 • ¿Es estacionario? ¿Es invertible? • Calcula la media y la funci´n de autocovarianzas del proceso. • Calcula los pesos π1 . Yt = at − 0. 4 at−1 (2) Yt = at + 2. . π2 . Sean los modelos M A(1) siguientes: 1. .

. ρ5 . 7 at−1 − 0. 2 at−2 Yt = at − 1. e a • Calcula los pesos ψ1 . π2 . Calcula los coeficientes de autocorrelaci´n simo ple. ψ5 del modelo en forma M A(∞) en que. . 21 at−2 2 σa = 2 • ¿Son estacionarios? ¿Son invertibles? • ¿Cual es la estructura de la funci´n de autocorrelaci´n simple y de la funci´n de autocoo o o rrelaci´n parcial? o • Calcula las autocovarianzas. 3 Yt−1 − 0. ¿es de esperar que Y46 sea mayor o menor que la media? σ2 = 1 Problema 10. 4 at−2 Yt = at − 0. ρ5 . . 8 Yt−1 − 0. γ5 . • Si Y45 = 12. ρ1 . . γ0 . 3Yt−2 + at Yt = 1. ρ2 . . . . 5Yt−2 + at σ2 = 3 SARRIKO-ON 4/09 • ¿Son estacionarios? ¿Son invertibles? • ¿Cual es la estructura de la funci´n de autocorrelaci´n simple y de la funci´n de autocoo o o rrelaci´n parcial? o • Calcula las autocovarianzas. si es posible. 4Yt−2 + at Yt = 1. 2 Yt−2 + at • ¿Es estacionario? ¿Es invertible? o o o o • Calcula su media y funci´n de autocovarianzas. Considera el proceso AR(2) siguiente: Yt = 10 + 0. 2 at−2 Yt = at + 0. . . Problema 9. . Repres´ntalos gr´ficamente. 3 at−1 + 0. γ5 . 2. 2. e a • Calcula los pesos π1 . 8Yt−2 + at Yt = 0. . . . . . ρ2 . Yt = 0. puede transformarse los cuatro modelos AR(2) dados. . 4. 6 Yt−1 + 0. Calcula los coeficientes de autocorrelaci´n simo ple. . γ1 . . 8 Yt−1 − 0. 3. π5 del modelo en forma AR(∞) en que. puede transformarse los cuatro modelos M A(2) dados.An´lisis de Series Temporales: modelos ARIMA a Problema 8. Sean los modelos M A(2) siguientes: 1. 4. ρ1 . 4 at−1 + 1. 3. Dibuja la funci´n de autocorrelaci´n te´rica. . γ1 . Yt = at − 0. 1 at−1 + 0. γ0 . . si es posible. 139 . . . Sean los modelos AR(2) siguientes: 1. 2 Yt−1 − 0. . ψ2 . . Repres´ntalos gr´ficamente.

. . . si es posible. Encuentra un proceso invertible tal que: ρ0 = 1 ρ1 = 0. ρ5 . .2Yt−1 + 0. ψ5 del modelo en forma M A(∞) en que. 9 Yt−1 − 0.48Yt−2 + at + 0. 1) siguientes: (a) (b) Yt = 0. Sea el modelo ARMA(2.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Problema 11. 1) dados.6at−1 − 0. . γ1 . • Calcula los coeficientes de autocorrelaci´n simple. puede transformarse los dos modelos ARM A(1. • Calcula los pesos ψ1 . e 140 . . Indica a qu´ tipo de modelo ARM A(p. Sean los modelos ARM A(1. π5 del modelo en forma AR(∞) en que. Repres´ntalos gr´ficameno e a te. . . 8 at−1 Yt = 0. escribe un modelo equivalente a con menos par´metros. γ0 . si es posible. γ5 . . Supongamos que la serie Yt ha sido generada como sigue: Yt = −0. . . ψ2 . a Problema 13. . . 6 Yt−1 + at − 0. .16at−2 e • ¿Qu´ proceso lineal sigue la serie Yt ? ¿Es estacionario? ¿Es invertible? • ¿Est´ el modelo sobreparametrizado? En caso afirmativo. Problema 12. q) se puede asociar cada uno de los e siguientes pares de funciones de autocorrelaci´n simples y parciales te´ricas. . 9 Yt−1 + at + 0. ρ1 . π2 . 4 at−2 ¿Puede simplificarse este modelo? Problema 14. • ¿Pueden simplificarse estos modelos? • Calcula los pesos π1 . puede transformarse los dos modelos ARM A(1. 6 at−1 σ2 = 5 • ¿Son estacionarios? ¿Son invertibles? • Calcula las autocovarianzas. explicando por o o qu´. . 2 Yt−2 + at − 1.2) siguiente: Yt = 0. 3 at−1 + 0.49 ρk = 0 k > 1 Problema 15. 1) dados. ρ2 .

4 -0.200 4) 0 1 -0.1 0.8 -0.3 0.3 0.6 0. 0.8 0.6 -0.7 -0.2 0.2 0.AC.6 -0.4 0.4 0.100 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 -0.8 0.2 0.9 -0.AC.2 0.4 -0.5 -0.6 -0.8 -1 -1 0.1 2) 0 1 -0.5 1 1 0.700 -0.1 0.5 0.2 0.4 0.500 0.An´lisis de Series Temporales: modelos ARIMA a F.000 1 -0.2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0 1 -0.4 0.8 0.4 -0.8 0.3 0.600 -0.2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0 1 -0.7 0.6 0.5 -0.700 0.900 0.4 0.600 1 1 0.4 0.6 0.2 -0.6 -0.6 0.6 0.8 -1 -1 0.5 0.700 -0.6 0.500 -0.4 -0.8 -0.600 0.3 -0.800 0.8 -0.4 0.2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0.500 -0.600 0.100 0.2 0.2 8) 0 1 -0.100 5) -0.700 0.1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0 1 -0.6 -0.1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 -0.4 -0.8 0.400 -0.200 -0.4 -0.3 -0.2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 -0.6 0.7 0.200 6) 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0.6 0.3 -0.8 141 .4 -0.2 7) 0 1 -0.500 0.8 -0.3 -0.2 3) 0 1 -0.300 0.4 0.200 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 -0.2 -0.1 1) 1 -0.2 0.8 0.2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 -0.300 -0.5 0.400 0.4 0.2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 -0.6 -0.800 0.300 -0.1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 -0.1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 -0. 0.4 -0.3 0.7 0.4 0.S.9 0.300 0.8 0.P.4 -0.400 0.900 0.5 -0.000 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 -0.100 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 -0.6 -0.2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0 1 -0.4 -0.6 -0.400 -0.2 -0.5 SARRIKO-ON 4/09 F.

o • ¿Qu´ modelo ARM A(p.16 0. obt´n la predicci´n o e o para Y8 .) • Suponiendo que el error de predicci´n un periodo hacia adelante cometido al predecir Y6 o con informaci´n hasta el momento t = 5 es de −0.08 -0.57 3 0.43 4 0.36 y si Y7 = 1 . • Estima ´l/los par´metros del modelo propuesto (Nota: Recuerda las expresiones para la e a funci´n de autocorrelaci´n simple en funci´n de los par´metros del modelo tanto para los o o o a modelos AR como MA. A partir de una muestra de 64 observaciones se ha ajustado el siguiente modelo: (1 − 0.20 -0. 56 ρ3 = 0.6L) at ˆ Las funciones de autocorrelaci´n simple y parcial de los residuos. at .38 -0. q) posible para Yt .18 • Sugiere un modelo ARM A(p. ρk y pk bajo el o ˆ ˆ supuesto de que se trata de una realizaci´n que procede de un ruido blanco.03 • Calcula la desviaci´n t´ o ıpica asint´tica para cada coeficiente estimado.12 -0.06 pk ˆ -0.25 6 0. 42 ρ4 = 0.37 -0. 31 ρ5 = 0.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Problema 16. q) ha podido generar la serie de datos? e Problema 18. 75 ρ2 = 0. Problema 19.18 -0.38 -0.34 5 0. La funci´n de autocorrelaci´n estimada para una serie Yt de 144 observaciones o o es: k rk 0 1 1 0.8L) Yt = (1 + 0. q) pueden provenir estos coeficientes? (considera s´lo valores bajos e o de p y q).84 2 0. vienen dadas por: o ˆ 142 . 23 ¿De qu´ proceso ARM A(p. Las funciones de autocorrelaci´n simple y parcial estimadas para una serie o temporal de 110 obeservaciones son las siguientes: k 1 2 3 4 5 ρk ˆ -0. Considera la siguiente secuencia de coeficientes de autocorrelaci´n: o ρ1 = 0. Problema 17.

4 at−2 + 18 Se cuenta con la siguiente informaci´n acerca de at e Yt : o Y106 = 20 Y107 = 21 Y108 = 19 Y109 = 19 Y110 = 17 σ2 = 4 ˆ • Obt´n la predicci´n de Yt por punto para los periodos 111. e o • Calcula los errores cuadr´ticos medios de predicci´n. 9 Y99 = 9 Y98 = 9 Y97 = 9. actualiza la predicci´n de los periodos 102. 7. Y103 . ¿Qu´ predicciones para Y22 e proporcionar´ ambos modelos con informaci´n hasta t = 21. 112 y 113.033 4 0.025 5 -0.004 0. Y102 .390 0. ¿cual podr´ ser la reformulaci´n del modelo? ıa o Problema 20. Y104 tanto por punto como por intervalo.An´lisis de Series Temporales: modelos ARIMA a k ρk ˆ pk ˆ 1 0. a o • Obt´n la predicci´n de Yt por intervalo para los periodos 111. 5 Yt−1 + vt Yt = 50 + at + 0.021 0.390 2 0. 5 at−1 + 0. 6 2 σa = 0. En el momento t = 20. Problema 22.160 0. actualiza la predicci´n o o de los periodos 112 y 113. Se ha estimado con una muestra de 110 observaciones de la variable Yt el siguiente modelo: Yt = at + 0. 112 y 113.054 -0. Si se dispone de la informaci´n adicional: Y101 = 9. 1 µ = 9. las predicciones de ambos modelos para Y21 han sido de 110 y 90 respectivamente. Consideremos el proceso AR(1) siguiente: (1 − φL) (Yt − µ) = at donde: φ = 0. o o 103 y 104. 6 Predice Y101 . Supongamos que se cuenta con las siguientes observaciones: Y100 = 8. Problema 21. sabiendo que Y21 = 100? ıan o 143 . e o • Suponiendo que se dispone de la informaci´n adicional: Y111 = 17. Para predecir la serie Yt se han utilizado dos modelos diferentes: Yt = 20 + 0.030 3 0.026 SARRIKO-ON 4/09 A la vista de la informaci´n anterior. ¿consideras aceptable el modelo ajustado? En caso cono trario. 6 at−1 donde at y vt son procesos ruido blanco con media cero.

. Se desea 15 10 5 0 Y -5 -10 -15 1970 1975 1980 1985 1990 1995 2000 predecir la evoluci´n de la variable a lo largo de 2004. . 62 at−1 + 0.5.1) (8. propone los siguientes modelos: Yt = 90 + 0. a99 = 2. a o un experto ha propuesto el siguiente modelo para predecir Yt : Yt = µ + at + θ1 at−1 + θ2 at−2 + at ∼ N ID(0. . ¿Qu´ moo e o e delo proporciona las “mejores” predicciones?. La serie temporal representada en el gr´fico corresponde a una variable obsera vada trimestralmente desde el primer trimestre de 1966 al tercer trimestre de 2003. e • Representa ambas predicciones y compara sus caracter´ ısticas. σ 2 ) ¿Crees que la elecci´n es correcta? ¿Qu´ modelo hubieras propuesto t´? ¿Por qu´? o e u e 144 . o Bas´ndose en la informaci´n proporcionada por los correlogramas simple y parcial estimados. El economista del servicio de planificaci´n del Ayuntamiento quiere predecir o los ingresos mensuales por impuestos en base a los datos recogidos los ultimos 100 meses. ´ Analizando el correlograma estimado de la serie Yt . Yt . a100 = −10 • Obt´n las predicciones por punto de Y101 . 5 at−2 Sabiendo que Y100 = 280 y a98 = −0.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Problema 23. . Utiliza para compararlos aquellos criterios de precisi´n de la predicci´n que te parezcan m´s convenientes? o o a Problema 24. ¿Cu´l es la estructura de la a funci´n de predicci´n cuando → ∞ para ambos modelos? o o • Sabiendo que los verdaderos valores para Y son: t yt 101 295 102 310 103 302 104 275 105 320 106 310 107 290 108 283 109 315 110 303 (8. Y110 con ambos modelos. 7 Yt−1 + at Yt = 300 + at + 0.2) Representa los errores de predicci´n cometidos con ambos m´todos de predicci´n.

96/T^0. 37 ˆ θ2 = 0.8 2 0.2 siendo la media de y durante el periodo muestral cero. 0275 ˆ ˆ θ1 = −1.5 0 -0.5 -1 0 2 4 6 8 retardo 10 12 14 16 +.33 6 0.50 4 0.25 7 0. n n 145 .41 Problema 25. Una empresa tiene datos de sus ventas anuales y propone el siguiente modelo: Vt = 100 + yt donde Vt son las ventas del trimestre t-´simo. con los siguientes datos adicionales: Y145 = 23. ¿Est´s de acuerdo con su decisi´n? ¿Por qu´? a o e Dado que las ventas de a˜o 2008 han sido 213. µ son las ventas medias e yt es un proceso ese toc´stico. 51 Calcula las predicciones por punto para los cuatro primeros meses de 2004.62 Y146 = 23.5 0 -0. a Las correlaciones estimadas para los valores de y con datos de los ultimos a˜os son: ´ n k ρk ˆ 0 1 1 0. predice las ventas para el a˜o 2009.5 -1 0 2 4 6 8 retardo FACP de Y 1 0.1.5 10 12 14 16 +. El estad´ ıstico de la compa˜´ sugiere que el modelo apropiado para la y es: nıa yt = 0.40 5 0.An´lisis de Series Temporales: modelos ARIMA a FAC de Y 1 0.66 3 0. 8 yt−1 + at donde at es un ruido blanco con media cero.18 Y147 = 24.5 SARRIKO-ON 4/09 La estimaci´n del modelo propuesto ha producido los siguientes resultados: o µ = 0.96/T^0.1.

SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Problema 26. • Si suponemos que la serie Yt consta de una tendencia global lineal y una estacionalidad aditiva. el modelo apropiado es: Yt = (a + bt) St + at ¿Convierte el operador ∆12 en estacionaria a la serie Yt ? Si no es as´ encuentra el operador ı que lo hace. • ¿Es el proceso Yt estacionario en covarianza? ¿Es el proceso ∆Yt estacionario en covarianza? e • ¿Qu´ operador de diferencias se ha de aplicar para convertir al proceso Yt en estacionario?. b. • Si suponemos que la serie Yt consta de una tendencia global lineal y una estacionalidad multiplicativa. Sea una serie anual. 146 . el modelo apropiado es: Yt = a + b t + St + at ¿Es la serie Yt estacionaria? ¿Es la serie ∆ Yt estacionaria? Demuestra que la aplicaci´n o del operador ∆12 a la serie Yt la convierte en estacionaria. • ¿Existe alg´n otro m´todo para transformar al proceso Yt en estacionario? u e Problema 28. c son constantes. Yt que est´ generada por el siguiente proceso estoc´stico: a a Yt = a + b t + c t2 + at donde at es ruido blanco y a. St = St−12 y at una serie de perturbaciones estacionarias. Sea Yt = 7 + t + Xt . Discute la invertibilidad del proceso resultante. Sea Yt una serie mensual estacional con factores estacionales constantes. donde Xt es un proceso estacionaria de media cero y funci´n de autocovarianzas γk : o • ¿Cual es la funci´n media de Yt ? ¿Cual es la funci´n de autocovarianzas de Yt ? ¿Es Yt o o estacionario? • ¿Es ∆Yt estacionario? Problema 27.

7 at−1 Yt = 5 + Yt−1 + at − 0. ¿Qu´ moo e delo ARIM A(p. (1 − L) Yt = (1 − 1. 12L) at 6.7 Yt−1 + at Yt = 5 + 0. 5L) at 2.7 Yt−1 + at Yt = Yt−1 + at − 0. q) son? Problema 31. 9) o • ¿Es Yt estacionario? Si no lo es . 9) at ∼ RBN (0. 2 at−1 3.7at−1 at ∼ RBN (0. Para cada uno de los siguientes procesos estoc´sticos: a (1) (2) (3) (4) Yt = 0. (1 − L)2 Yt = at − 0. • En el caso de que no sea estacionario. q) son? e 147 . q) sigue? e • Comenta las caracter´ ısticas de cada uno de los procesos por separado. 72L2 ) a t 5. • Compara las caracter´ ısticas de los distintos procesos en las siguientes l´ ıneas: Funciones de autocorrelaci´n o Evoluci´n de las series generadas por los distintos modelos.An´lisis de Series Temporales: modelos ARIMA a Problema 29. (1 − 0.9Yt−2 + at Yt = 0. 5L + • ¿Es el proceso Yt estacionario? ¿Es invertible? • Si no son estacionarios busca una transformaci´n que los convierta en estacionarios. 38at−2 0. d. Sean los modelos siguientes: Yt = 0. d. n Problema 30. (1 − 0. Considera los siguientes procesos: 1. 2L2 ) at 0. 5L) at 7. 81at−1 + 0. Yt = −Yt−2 + at + 0. ¿existe alguna transformaci´n que lo convierta en estacionario? ¿Qu´ modelo ARIM A(p. 8L) Yt = (1 − 0. 9) at ∼ RBN (0.7Yt−2 + at − at−1 Yt = −Yt−1 + at • Analiza las condiciones de estacionariedad e invertibilidad del proceso Yt . 8L2 ) Yt = (1 − 1. (1 − 1. 99L) (1 − L) Yt = (1 − 0. 6L) Yt = (1 − 1. d. 9) SARRIKO-ON 4/09 at ∼ RBN (0. 100. 2L + 4. 200. 5at−1 8. o • Simula una serie temporal de tama˜o 50. ¿puede hacerse alguna transformaci´n para convero tirlo en estacionario? • ¿Qu´ modelo ARIM A(p.3Yt−1 + 0. Comenta los resultados. (1 − L) Yt = at + 0. 1 − 0.1Yt−1 + 0. 1L + 0.

Escribe estos siguientes modelos en forma ARIM A(p. An´lisis de Series Temporales: modelos ARIMA a A. 4.032 -0.329 3 -0.143 5 0. q) y en forma de ecuaci´n en o diferencias: 1. 3. 6. 2.043 -0. 1. 4. A partir de una muestra de 100 datos se ha ajustado el siguiente modelo: ∆ Yt = (1 − 0. Escribe los siguientes modelos en t´rminos del operador de retardos L : e 1. 2) Yt = µ (1 − φ1 − φ2 ) + φ1 Yt−1 + φ2 Yt−2 + at Yt = µ (1 − φ1 ) + φ1 Yt−1 − θ1 at + at Yt = Yt−1 − θ1 at−1 − θ2 at−2 + at Yt = 2 Yt−1 − Yt−2 − θ1 at−1 + at Yt = Yt−1 + φ1 (Yt−1 − Yt−2 ) + φ2 (Yt−2 − Yt−3 ) + at Problema 33. 5.508 2 0. 1) ARIM A(2. ¿consideras aceptable el modelo ajustado? En caso cono trario.015 -0. 2. 7. 8. Sea el modelo ARIM A(2. 1. 0.220 4 0.093 A la vista de la informaci´n anterior. o o o Problema 34. 2. ARIM A(1. 5. 324L) at ˆ Las funciones de autocorrelaci´n simple y parcial de los residuos vienen dadas por: o k ρk ˆ pk ˆ 1 -0. (1 − φL)(1 − L) Yt = at (1 − L)2 Yt = (1 − θL) at (1 − φL) Yt = (1 − θL) at (1 − L)Yt = (1 − θ1 L − θ2 L2 ) at Yt = (1 − θL2 ) at B.013 -0. ¿cual podr´ ser la reformulaci´n del modelo? ıa o 148 .508 -0. 0) siguiente: (1 − φ1 L − φ2 L2 ) ∆Yt = at • ¿Es el proceso Yt estacionario? • ¿Es el proceso Wt = ∆Yt estacionario? ¿Qu´ proceso lineal sigue la serie Wt ? e • Calcula la media y la funci´n de autocorrelaci´n simple te´rica del proceso Wt . d. 3. 1) ARIM A(0.SARRIKO-ON 4/09 Problema 32.

Considera los siguientes modelos: 1. 82 y 83. Y100 = 232. Y99 = 217. actualiza la predicci´n de los periodos 82 y 83.3. a100 = 0. (1 − L) Yt = (1 − θ1 L) at ˆ T = 100. Y99 = 18. a100 = 1. (1 − φ1 L − φ2 L2 ) Yt = (1 − θ1 L) at SARRIKO-ON 4/09 ˆ ˆ T = 100. • Calcula los errores cuadr´ticos medios de predicci´n y establece una banda de confianza a o del 95 % para la predicci´n. Y100 = 23. a100 = −2.6 ˆ ˆ ˆ ˆ θ1 = 0. • Dado Y79 = 40.3 ˆ ˆ2 ˆ θ1 = 0. Y99 = 1. Y99 = 53. θ2 = −0. Y100 = 1. Y100 = 28.5 ˆ ˆ ˆ2 ˆ θ1 = 0. σa = 8 ˆ2 4. predice Yt para los periodos 81. Y81 = 41 y a80 = 0. 3.8 θ1 = 0. a100 = −0. .8 σa = 1 ˆ2 = 1. φ1 = 0.5.4. a99 = 1.5 ˆ2 6. a100 = 1.8. (1 − φ1 L) Yt = (1 − θ1 L − θ2 L2 ) at ˆ T = 100. σa = 3. a99 = 0. µ = 50 ˆ 3. σa = 2. Y80 = 41.2. 5.4.3.An´lisis de Series Temporales: modelos ARIMA a Problema 35. σa = 2.3. 2.7. φ1 = 1. a100 = 0. Sea el modelo estimado: (1 + 0. obt´n las predicciones por punto y por intervalo para e Problema 36. o • Suponiendo que Y81 = 41. (1 − φ1 L)(1 − L) Yt = at ˆ T = 100. θ1 = 0.2. φ2 = −0. (1 − φ1 L) (∆ Yt − µ) = at ˆ T = 100. |mu = 100. a99 = 0. 4. o 149 . Yt = (1 − θ1 L − θ2 L2 ) at ˆ ˆ ˆ T = 100. 5.3. (1 − φ1 L) (1 − L) Yt = (1 − θ1 L) at ˆ ˆ T = 100.5. Y100 = 56. θ2 = −0. φ1 = 0. θ1 = 0. φ1 = 0.2. 2 ˆ ˆ ˆ 7.7.6 ˆ ˆ Para cada uno de ellos.5L) at + 0. φ1 = 0.005.8 µ = 0. Y100 = 103.7 ˆ ˆ2 5. a99 = −0. σa = 6.3. µ = 50 ˆ 2.6.7.3.7.3.6L)(1 − L) Yt = (1 − 0.

001 o valor estimado de (a .V. 0973 C.221 para la variable DTipo (220 observaciones v´lidas) a Media −0.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Problema 37. usando las observaciones 1 .1): -0.002 o valor estimado de (a . de curtosis −0. Contamos con 221 datos para analizar la evoluci´n temporal de la tasa de o cambio de Hungr´ T ipot . 31328 Exc.00164723 Estad´stico de contraste: tau nc(1) = -0. 162867 M´ ınimo 10. a o preguntas: • ¿Es estacionaria la serie T ipot ? ¿Por qu´? e • ¿Es preciso tomar alguna diferencia a la serie T ipot para que sea estacionaria? • ¿Qu´ modelo ARMA(p.567 o 150 . Con ayuda de los gr´ficos y la informaci´n siguientes.q) propones para la serie que has elegido como estacionaria? e Estad´ ısticos principales. 0174748 Desv..L)y = b0 + (a-1)*y(-1) + .. 357541 Contrastes aumentados de Dickey-Fuller. 3. 5407 Asimetr´ ıa −0. 0. contesta a las ıa. para Tipo: tama~o muestral 218 hip´tesis nula de ra´z unitaria: a = 1 n o ı contraste sin constante modelo: (1 .. 312477 Estad´ ısticos principales. 9115 Desv. 46. 4866 Asimetr´ ıa 0. 810736 Mediana −0. 00373450 C.4568 o contraste con constante modelo: (1 .. 8438 Exc.221 para la variable Tipo (221 observaciones v´lidas) a Media 19.43424 ı valor p asint´tico 0. T´ ıp. de autocorrelaci´n de primer orden de e: -0.0248391 Estad´stico de contraste: tau c(1) = -1. de autocorrelaci´n de primer orden de e: -0. 756369 M´ximo a 24. usando las observaciones 1 . + e Coef.L)y = (a-1)*y(-1) + . orden 2.602228 ı valor p asint´tico 0. + e Coef. de curtosis 0. T´ ıp.1): -0. 24292 Mediana 21. 0. 0622331 M´ximo a 2. 3946 M´ ınimo −2.V.

5 2 1.5 10 retardo 15 20 151 .5 0 -0.001 o valor estimado de (a .1): -1.98227 ı valor p asint´tico 1. de autocorrelaci´n de primer orden de e: -0.5 0 -0.124e-016 o contraste con constante modelo: (1 .5 12 -2 -2.5 -1 0 5 15 20 +.96/T^0.1. orden 2.1. + e Coef.96/T^0. para (1-L) Tipo: tama~o muestral 217 hip´tesis nula de ra´z unitaria: a = 1 n o ı contraste sin constante modelo: (1 .5 0 50 100 150 200 10 FAC de Tipo 1 0.5 1 0.5 -1 0 5 10 retardo 15 20 +.1.1): -1.5 0 -0.5 0 -0.11455 Estad´stico de contraste: tau c(1) = -8.5 10 retardo FACP de (1-L) Tipo 15 20 +.96/T^0..001 o valor estimado de (a .5 0 -0..1125 Estad´stico de contraste: tau nc(1) = -8.An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 Contrastes aumentados de Dickey-Fuller.5 -1 Tipo cambio 18 16 14 -1.749 e-016 o 26 2.5 -1 0 5 10 retardo FACP de Tipo 1 0. de autocorrelaci´n de primer orden de e: -0.1.974 ı valor p asint´tico 5..5 24 22 1 (1-L) Tipo cambio 0 50 100 150 200 20 0. + e Coef.5 -1 0 5 FAC de (1-L) Tipo +.L)y = b0 + (a-1)*y(-1) + ..L)y = (a-1)*y(-1) + .96/T^0.5 1 0.

Y102 . 113.5L) ∆Yt = (1 + 0. sabiendo que a110 = −0. Y105 . a o → ∞? • Calcula las predicciones por intervalo. Y103 . las predicciones obtenidas con informaci´n hasta T = 100 y las a o actualizadas con informaci´n hasta T = 101.04 ˆ2 t Yt 96 172 97 169 98 164 99 168 100 172 • Obt´n las predicciones para Y101 . o Problema 39. . • Representa la funci´n de predicci´n. 112. Y106 .5. . 114 y 115. 2 • Calcula los errores cuadr´ticos medios de predicci´n sabiendo que σa = 2. o • Calcula las predicciones de Yt para los periodos 111.5at−2 σa = 0. ¿Cu´l es su estructura cuando o o a • Expresa el modelo en la forma M A(∞). actualiza las predicciones para Y102 . .SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Problema 38.5 + at − at−1 + 0. e • ¿Cu´l es el comportamiento de la funci´n de predicci´n conforme a o o → ∞? • Calcula los Errores Cuadr´ticos Medios de Predicci´n y obt´n los intervalos de confianza a o e del 95 % para las predicciones. . Con una muestra de 110 observaciones se ha estimado el siguiente modelo: (1 − 0. Y106 . Los siguientes datos corresponden a la serie Yt a la que se ha ajustado el siguiente modelo: ∆Yt = 0. • Suponiendo que Y121 = 70 actualiza las predicciones. 152 . Representa gr´ficamente la serie.7L) at Tambi´n se dispone de la siguiente informaci´n: e o t yt 106 66 107 65 108 64 109 63 110 68 • Expresa el modelo en la forma de ecuaci´n en diferencias finitas. • Suponiendo que Y101 = 174. Y103 . Y104 .

d. q) ha propuesto el economista? e • Bas´ndote en este modelo obt´n las predicciones de la poblaci´n hasta el a˜o 2000 por a e o n punto y por intervalo.7L + 1. q).4) (8. llev´ndonos a la identificaci´n de un ARIM A(0. Con los datos de los ultimos 100 a˜os (1896-1995). 1).An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 Problema 40. el economista estima el n ´ n siguiente modelo: ∆Pt = (1 − 0. Supongamos que el modelo: ∆Yt = (1 − 0.9L + 0. Para ello cuenta con 78 observaciones diarias del ´ ındice de bolsa (Yt = DowJonest ). 1. Con la informaci´n presentada en los gr´ficos y tablas o a siguientes: 153 . 2) para la serie Yt .5 110 113. sabiendo que los ultimos datos de la poblaci´n y de la predicci´n ´ o o obtenida con un a˜o de antelaci´n son: n o Valor real de Poblaci´n o Pt 105 109 111 113 Predicci´n hecha el mes anterior o Pt−1 (1) 104 110. a o Problema 42. El director del Servicio de Estudios de una Divisi´n de la Uni´n Europea le ha o o pedido a uno de sus economistas que prediga la evoluci´n de la poblaci´n de la Uni´n Europea o o o hasta el a˜o 2000.5 Mes 1992 1993 1994 1995 ısticas del modelo propuesto. o o • Comenta como esta funci´n de autocorrelaci´n puede utilizarse para identificar un modelo para la serie et . d.2L2 )at • ¿Qu´ modelo ARIM A(p.5L)et se utiliza para predecir una serie que de hecho ha sido generada por el modelo: ∆Yt = (1 − 0. El servicio de estudios de un Banco quiere predecir el ´ ındice de Bolsa de New York mediante un modelo ARIM A(p. obtenidos del modelo ARIM A(0.3) • Obt´n la funci´n de autocorrelaci´n simple del error de predicci´n un periodo hacia adee o o o lante et . ¿c´mo se o • Dadas las predicciones obtenidas y las caracter´ comporta la poblaci´n a largo plazo? o Problema 41. 1.2L2 )at (8.

23000 Exc. usando las observaciones 1 .1): -0. 540 Asimetr´ ıa 0.L)y = (a-1)*y(-1) + .17663 ı valor p asint´tico 0. de autocorrelaci´n de primer orden de e: -0. 0. para (1-L) DowJones: tama~o muestral 74 hip´tesis nula de ra´z unitaria: a = 1 n o ı contraste sin constante modelo: (1 . 141083 Contrastes aumentados de Dickey-Fuller. 4731 M´ ınimo −1. 140 Exc. de curtosis 0. + e Coef.02141 o Contrastes aumentados de Dickey-Fuller. orden 2... 00684211 Desv. 2100 Asimetr´ ıa −0.09521 ı valor p asint´tico 2. 0.14076 Estad´stico de contraste: tau nc(1) = -8. T´ ıp.018 o valor estimado de (a . usando las observaciones 1 . usando las observaciones 1 . 770000 Asimetr´ ıa 0.. T´ ıp.L)y = (a-1)*y(-1) + .95062 ı valor p asint´tico 0. de autocorrelaci´n de primer orden de e: -0. 5.00309 o contraste con constante modelo: (1 . + e Coef. + e Coef. 755 C. 426950 Mediana 0.V.1): -2.008 o valor estimado de (a .. T´ ıp. 683 Desv. 0100000 C. 6263 Estad´ ısticos principales. 447974 Mediana −0. de autocorrelaci´n de primer orden de e: -0.78 para la variable DowJones (78 observaciones v´lidas) a Media 115. orden 2. 521255 M´ximo a 1.L)y = b0 + (a-1)*y(-1) + . 19487 M´ ınimo −0.78 para la variable (1 − L)2 DowJones (76 observaciones v´lidas) a Media −0.386798 Estad´stico de contraste: tau nc(1) = -2. 246937 M´ximo a 124. 50606 Mediana 113.1): -0.V..46437 Estad´stico de contraste: tau c(1) = -3. 133636 Desv. 0. 112599 M´ximo a 1.. de curtosis 0.654e-014 o 154 . de curtosis −1. para (1 − L)2 DowJones: tama~o muestral 73 hip´tesis nula de ra´z unitaria: a = 1 n o ı contraste sin constante modelo: (1 . 53000 Exc. 65.021 o valor estimado de (a . 3. 130000 C. 939981 Estad´ ısticos principales. 0475960 M´ ınimo 108.78 para la variable (1-L) DowJones (77 observaciones v´lidas) a Media 0.V.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Estad´ ısticos principales.

5 -1 0 5 10 retardo FACP de (1-L) DowJones 1 0.5 114 112 110 15 20 108 0 10 20 30 40 50 60 70 80 2 0.1.5 0 -0.5 -1 0 5 FAC de (1-L)(1-L) DowJones +.96/T^0.96/T^0.An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 Gr´fico 8.5 1.5 0 -0.5 -1 0 5 10 retardo 15 20 +.5 -1 00 5 10 retardo 15 20 0.5 -1 0 5 15 20 +.5 0 -0.96/T^0.5 0 -0.1.1.5 -0.5 Indice Dow Jones 118 116 0.5 1.5 0 (1-L)(1-L) Indice Dow Jones 1 (1-L) Indice Dow Jones 1 -0.5 10 retardo FACP de (1-L)(1-L) DowJones 15 20 +.96/T^0.5 0 -0.1: Gr´ficos y correlogramas a a 126 124 122 120 FAC de DowJones 1 +.1.5 1 0.5 -1 0 5 10 retardo FACP de DowJones 1 +. ¿es la serie Yt estacionaria en media o es preciso hacer alguna transformaci´n para convertirla en estacionaria? ¿Por qu´? o e • ¿Qu´ modelo (o modelos) ARM A(p.5 10 retardo 15 20 • Analiza la estacionariedad de la serie Yt .5 10 20 30 40 50 60 70 FAC de (1-L) DowJones 1 0.5 0 -0.5 0.96/T^0.96/T^0.5 -1 -1 10 20 30 40 50 60 70 80 -1.1. q) propones para la serie estacionaria? ¿Por qu´? e e 155 . es decir.5 1 0.1.

100102 estad´ ıstico t 4.5 0.1.190 M´dulo o 2. t´ ıpica 0. 0033 Frecuencia 0.5 0 +.9866 0.96/T^0. dependiente D. e • Analiza los resultados que obtiene en la estimaci´n de cada uno de los modelos.1.5 residuo 0.426950 0.0000 Media de la var. 1) • Discute si te parecen razonables los cuatro modelos que ´l propone.96/T^0. 0000 Imaginaria Residuos de la regresión (= DowJones observada − estimada) 1.133636 0.149332 −36.5 0 0 -0.5 -1 0 −1 10 20 30 40 50 60 70 80 5 10 retardo FACP de los residuos 15 20 1 0. 0000 valor p 0.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a El economista consultado por el servicio de estudios.499168 Desv. ¿Se ajustan o los modelos bien a los datos? • ¿Cu´l de los cuatro modelos estimados elegir´ para predecir el futuro de la serie Yt ? ¿Por a ıas qu´? e Modelo 1: estimaciones ARIMA utilizando las 77 observaciones 2–78 Variable dependiente: (1 − L)DowJones Desviaciones t´ ıpicas basadas en el Hessiano Coeficiente φ1 0.5 1 FAC de los residuos 1 +.0619386 0. 0033 0. ha identificado los siguientes modelos: u Modelo 1 Modelo 2 Modelo 3 Modelo 4 ∆Yt ∼ AR(1) ∆Yt ∼ ARM A(1. bas´ndose en la misma informaci´n de la a o que t´ dispones. de la variable dependiente media de las innovaciones Varianza de las innovaciones Log-verosimilitud Real AR Ra´ ız 1 2. 1) ∆2 Yt ∼ M A(1) ∆2 Yt ∼ ARM A(1.5 156 -0.T.5 −0.5 -1 0 5 10 retardo 15 20 .

0000 valor p 0.96/T^0.An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 Modelo 2: estimaciones ARIMA utilizando las 77 observaciones 2–78 Variable dependiente: (1 − L)DowJones Desviaciones t´ ıpicas basadas en el Hessiano Coeficiente φ1 θ1 0.1457 −2. t´ ıpica 0.447974 −0.5 Variable dependiente: (1 − L)2 DowJones -1 0 10 15 Desviaciones t´ ıpicas basadas en el 5 Hessiano retardo 20 Coeficiente θ1 −0. 0000 0.5 0.0000 Media de la var.689 M´dulo o 1.1.00664944 0.1.5 -1 0 5 10 retardo FACP de los residuos 1 0.5 10 20 30 40 50 60 70 80 Modelo 3: estimaciones ARIMA utilizando las 76 observaciones 3–78 -0.143363 −34. 0000 Imaginaria 157 .138465 0. de la variable dependiente media de las innovaciones Varianza de las innovaciones Log-verosimilitud Real AR Ra´ ız MA Ra´ ız 1. 1751 1.3153 −0. 3972 Frecuencia 0. 9002 Residuos de la regresión (= DowJones observada − estimada) FAC de los residuos 1 1 0.0655 0. 0000 1 1 1.201 M´dulo o 1. 1751 1.00684211 0.5 residuo 0 0 -0. 0000 0.96/T^0.0000 0.254785 estad´ ıstico t 6.0389 Media de la var.5 +.526265 Desv.850965 −0. 3972 0. dependiente D.T.5 −1 −1.5 Imaginaria 0. t´ ıpica 0.0341779 0. de la variable dependiente media de las innovaciones Varianza de las innovaciones Log-verosimilitud Real MA Ra´ ız 1 1.426950 0.715732 Desv.150368 −36.5 0 +.113333 estad´ ıstico t −6.5 15 20 −0. 9002 Frecuencia 0. 0000 valor p 0. dependiente D.133636 0.T.

5 0 +.848 10 15 20 valor p 0.839131 Desv.1.96/T^0.00684211 0. 0000 0. 0349 0.96/T^0.144924 −34.247838 −0. 1917 Frecuencia 0.5 1 0.5 15 +.1.447974 −0.96/T^0.0819245 0 5 estad´ retardo ıstico t 1.144741 0. 0349 1.5 -1 0 5 10 retardo 15 20 +.5 0 -0. 0000 1 4.5 10 20 30 40 50 60 70 +.SARRIKO-ON 4/09 Residuos de la regresión (= DowJones observada − estimada) 1.5 An´lisis de Series Temporales: modelos ARIMA a FAC de los residuos 1 1 0.5 -1 0 5 10 retardo FACP de los residuos 1 0.5 0. dependiente D.5 -0.1.5 15 20 10 20 30 40 50 60 70 −1.5 −1 20 −1.5 1 FAC de los residuos 0.5 Modelo 4: estimaciones ARIMA utilizando las 76 observaciones 3–78 0 Variable dependiente: (1 − L)2 DowJones -0.7123 −10. 0000 Residuos de la regresión (= DowJones observada − estimada) 1.0868 0.5 Desviaciones t´ ıpicas basadas en el Hessiano -1 Coeficiente φ1 θ1 0.5 residuo 0 −0.T. de la variable dependiente media de las innovaciones Varianza de las innovaciones Log-verosimilitud Real AR Ra´ ız MA Ra´ ız 1 1.5 0 -0. 1917 0.5 residuo 0 −0.0000 Media de la var.96/T^0.00467602 0. t´ ıpica 0. 0000 Imaginaria M´dulo o 4.5 −1 -1 0 5 10 retardo FACP de los residuos 1 0.2427 −0.5 158 .1.

Disponemos de 250 observaciones. 754934 M´ ınimo −0.1999:07 para la variable Interes (250 observaciones v´lidas) a Media 11. 4799 Desv. T´ ıp.V. 0. o Estad´ ısticos principales. 297328 M´ ınimo 5.90484 ı valor p asint´tico 9. d. 35361 Asimetr´ ıa −0. 0475899 Exc.124977 Estad´stico de contraste: tau nc(1) = -3. 0. 41329 Mediana 11..81022 ı valor p asint´tico 0.V..L)y = b0 + (a-1)*y(-1) + .034 o valor estimado de (a . orden 2.An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 Problema 43.1): -0. 0. e • Analiza la estacionariedad en media de la serie Yt en base a los gr´ficos y la informaci´n a o presentada. T´ ıp.481e-013 o 159 . usando las observaciones 1978:10 .453041 Estad´stico de contraste: tau c(1) = -7. de curtosis −1. 0477041 Desv. 2649 Exc. usando las observaciones 1978:10 . 0438 Estad´ ısticos principales.057 o valor estimado de (a .L)y = (a-1)*y(-1) + . de autocorrelaci´n de primer orden de e: 0.1999:07 para la variable (1-L) Interes (249 observaciones v´lidas) a Media −0. 0707997 M´ximo a 17. q) para la serie estacionaria.1): -0.0001392 o contraste con constante modelo: (1 . para (1-L) Interes: tama~o muestral 246 hip´tesis nula de ra´z unitaria: a = 1 n o ı contraste sin constante modelo: (1 . 273057 Contrastes aumentados de Dickey-Fuller. para analizar y predecir la serie de tipo de inter´s a largo plazo (Yt = Interest . 287116 M´ximo a 0.. ¿Es preciso hacer alguna transformaci´n a la serie Yt para que sea estacionaria? o ¿Por qu´? e • Prop´n razonadamente uno (o varios) modelos ARIM A(p. 2492 C.. 0360135 Mediana −0. + e Coef. 0499643 C. 3. desde octubre de 1978 hasta julio de 1999. de autocorrelaci´n de primer orden de e: 0. de curtosis −0. + e Coef. 130352 Asimetr´ ıa 0.

1.5 -1 0 5 10 retardo FACP de Interes 1 0.06 0.04 16 0.12 4 1980 1985 1990 1995 2000 -0.5 -1 0 5 (1-L) Interes Interes FAC de (1-L) Interes +.02 14 0 -0.5 0 -0.5 0 -0. 2) • ¿Te parecen apropiados los tres modelos propuestos? ¿Por qu´? e • Bas´ndote en los resultados de la estimaci´n de los tres modelos (tablas y correlogramas a o simple y parcial de los residuos) que se presentan a continuaci´n. Siguiendo con los datos del Problema anterior.96/T^0.06 -0.1.1.2: Gr´ficos y correlogramas a a 18 0.96/T^0. 0) Yt ∼ ARIM A(1.1 6 -0.5 1 0. 1.5 10 retardo FACP de (1-L) Interes 15 20 +.5 1 0. ¿cu´l de los tres modelos o a elegir´ para predecir el futuro de la serie Yt ? ıas 160 .1.5 10 retardo 15 20 Problema 44.04 -0.14 1980 1985 1990 1995 2000 12 10 8 FAC de Interes 1 0.02 -0.5 -1 0 5 15 20 +.5 -1 0 5 10 retardo 15 20 +. el economista de un servicio de estudios ha propuesto los siguientes modelos para el tipo de inter´s: e Modelo 1 Modelo 2 Modelo 3 Yt ∼ ARIM A(1.96/T^0. 1.5 0 -0.SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a Gr´fico 8.08 -0.1.96/T^0.5 0 -0. 1) Yt ∼ ARIM A(0.

0736799 Estad´ ıstico t −9.000160249 0.00506103 0.0515826 Estad´ ıstico t −10.00447042 0.0000 0.04 -0.108 M´dulo o 1. 6962 0. dependiente D.5 0 +.0360135 −0. 4297 0. dependiente D.5 15 20 -0.000847352 527.000220568 0.1. 6962 Frecuencia 0.4294 −0. t´ ıpica 0. de la variable dependiente media de las innovaciones Varianza de las innovaciones Log-verosimilitud Real AR Ra´ ız MA Ra´ ız 1 6.08 1980 1985 1990 1995 2000 -0.0628214 0.An´lisis de Series Temporales: modelos ARIMA a SARRIKO-ON 4/09 Modelo 1: estimaciones ARIMA utilizando las 249 observaciones 1978:11–1999:07 Variable dependiente: (1 − L)Interes Variable const φ1 Coeficiente −0.1.0000 Media de la var. 0000 1 1.0477041 0.699453 −0. de la variable dependiente media de las innovaciones Varianza de las innovaciones Log-verosimilitud Real AR Ra´ ız 0.04 Residuo Modelo 1 0.T. 4297 6.06 FAC de Residuo Modelo 1 1 0.08 Imaginaria 0.02 0 0 -0.96/T^0.5 0.589559 Desv.499 M´dulo o 1.1885 −0.0286 Media de la var.5 -0.0468605 0.02 -0.06 -1 0 5 10 retardo FACP de Residuo Modelo 1 1 0.5 +.1340 −2.0000 0.0471185 0. 2016 Frecuencia 0. 0000 10 retardo 15 20 valor p 0. 2016 0.96/T^0. 0000 0.0477041 0. 0000 valor p 0.5 Modelo 2: estimaciones ARIMA utilizando las 249 observaciones 1978:11–1999:07 -1 Variable dependiente: (1 − L)Interes 0 5 Variable const φ1 θ1 Coeficiente −0.5401 11.161248 Desv. 0000 1 1. t´ ıpica 0.0000 0.T.2591 11. 0000 Imaginaria 161 .000831130 529.0360135 −0.

0360135 −1.5 0. 3079 1 2 −0.9 = 0.06 FAC de Residuo Modelo 3 1 0. 3079 0.5 -1 0 5 10 retardo FACP de Residuo Modelo 3 1 0.5 +.5 15 20 +.746517 Desv. 1574 1.9 = 5.08 1980 1985 1990 1995 2000 Modelo 3: estimaciones ARIMA utilizando las0 249 observaciones 1978:11–1999:07 -0.0000 0.5 0.0477041 0. 0815 1.08 Imaginaria −1.04 Residuo Modelo 3 0.10 = 0.0402836 5 10 Estad´ ıstico 15t retardo 20 valor p 0.04 -0.5 15 20 -0. de la variable dependiente media de las innovaciones Varianza de las innovaciones Log-verosimilitud Real MA Ra´ ız Ra´ ız 0.00375620 0.10 = 5. dependiente D.06 1980 1985 1990 1995 2000 Sabiendo que: Y98.5 0 +. 35 a98.02 0 -0. e Calcula los errores cuadr´ticos medios de predicci´n ¿Hacia donde tiende la predicci´n del tipo a o o de inter´s a largo plazo? e 162 .615351 0.06 FAC de Residuo Modelo 2 1 0.96/T^0.02 -0. t´ 0 ıpica 0.96/T^0.85507e-05 0.96/T^0.06 -1 0 5 10 retardo FACP de Residuo Modelo 2 1 0.1. 4121 −0.02 0 -0.0437706 0.023 10 retardo 15 20 predice el tipo de inter´s a largo plazo desde Noviembre de 1998 hasta Diciembre de 1999.1.04 Residuo Modelo 2 0.1.T.5960 14.5 +.0000 0.5 0 -0.5 Variable dependiente: (1 − L)Interes -1 Variable const θ1 θ2 Coeficiente −0.0586 18.018 -1 0 5 a98.5 0 -0.501 Media de la var.5315 −0.02 -0. 37 Y98.0473130 0.5 -0.SARRIKO-ON 4/09 0. 1574 Frecuencia −0. 4121 0.96/T^0.1.08 An´lisis de Series Temporales: modelos ARIMA a 0.0000 −12. 0815 M´dulo o 1.000634269 562.04 -0.

Problema 46. Estima los o par´metros del modelo para Zt . 102. 2.7L4 )(1 − L) Yt = (1 − 0.5L4 ) at Tambi´n se dispone de la siguiente informaci´n: e o t Yt Se pide: 163 110 56 111 59 112 58 113 60 114 63 115 66 116 65 117 64 118 63 119 68 . a • Supongamos que las ultimas observaciones de la serie Yt son: ´ t Yt 95 145 96 141 97 142 98 148 99 150 100 143 y que el error de predecir Y100 con informaci´n hasta t = 99 es -0. Supongamos que la serie Yt sigue el siguiente modelo: (1 − φ1 L − φ2 L2 ) ∆Yt = at • ¿Qu´ modelo sigue la serie Yt ?. cuando o o → ∞. 104. . Yt = (1 − θ1 L)(1 − Θ1 L12 ) at 2.? Calcula los errores cuadr´ticos medios de predicci´n. ¿Es la serie Yt estacionaria? e • ¿Es estacionaria la serie Zt = ∆Yt ? ¿Qu´ modelo sigue? e SARRIKO-ON 4/09 e o o o • Obt´n la funci´n de autocorrelaci´n simple te´rica para la serie Zt . . sabiendo que la varianza del a o error de predicci´n un periodo hacia adelante es 2. ıa o o o • En base a una muestra de 100 observaciones para Zt . o Si sabemos que Y101 = 155. .81. Con una muestra de 120 observaciones se ha estimado el siguiente modelo: (1 − 0. ρk .5L)(1 + 0. ¿Cual es el comportamiento de la funci´n de predicci´n a largo plazo. . k = 1. 103. hemos obtenido que los dos primeros coeficientes de autocorrelaci´n simple estimados son r1 = 0. 105. Bas´ndote en el o a modelo para Yt con par´metros estimados: a Predice los valores de Yt para t = 101. Explica cual ser´ la estructura de la funci´n de autocorrelaci´n parcial te´rica. es decir.93 y r2 = 0. Compara los modelos estacionales siguientes: 1. 106. actualiza el resto de las predicciones.An´lisis de Series Temporales: modelos ARIMA a Problema 45. Yt = (1 − θ1 L − θ12 L12 − θ13 L13 ) at ¿Se puede distinguir entre las funciones de autocorrelaci´n del modelo (1) y del modelo (2)? o Problema 47.5.

actualiza las predicciones para los periodos 122. 1)4 ARIM A(2. 0. 3. o • Calcular los errores cuadr´ticos medios de predicci´n y las predicciones por intervalo. ARIM A(0. 2L + 0. 0)(0. ARIM A(0. Yt = (1 − 0. 1)7 ARIM A(1. 0. 1. 6. • Efectuar la predicci´n de Yt para los periodos 121. 1. 8L12 )(1 + 0. 5L12 )(1 − L)Yt = at ˆ Problema 50. 1)(0.3L24 ) (1 − 0. o • Expresar el modelo en la forma M A(∞).SARRIKO-ON 4/09 An´lisis de Series Temporales: modelos ARIMA a • Expresar el modelo en la forma de ecuaci´n en diferencias finitas. a o • Suponiendo que Y121 = 70. 1. 9L4 )(1 − 0. 2)12 ARIM A(0. 1. 1)12 4. (1 − 0. 8L4 ) at ˆ Yt = (1 − 0. Escribe los siguientes modelos en t´rminos del operador de retardos L y en forma e de ecuaci´n en diferencias: o 1. 0)(0. Problema 48. 5L2 ) at ˆ (1 − 1. Yt = (1 − 0. 1)4 164 . 122. Deriva la funci´n de autocorrelaci´n te´rica para los siguientes procesos: o o o 1. 124 y 125. 123. 5. 4L12 − 0. 3. 1. 6L) at 2. 1. 1)(1. 2)(2. 0)(0. 123. ¿Cu´les de los siguientes modelos estimados son estacionarios e invertibles? a 1. 2. 1)s ARIM A(1. 124 y 125. 5L2 )(1 − 0. 2. 1. 7L) at Problema 49. 2. 8L)(1 − L4 )Yt = (1 − 0. 1. 1.

Alianza editorial. Time series analysis: forecasting and control. Introducci´n al an´lisis de series temporales. Jenkins (1970). M´todos de Predicci´n en Econom´ Volumen II. Holden Day. y F. Time series models for business and economic forecasting. G.J. An´lisis de series temporales. d) Pe˜a. D. a) Aznar. y G. A. Cambridge University Press. c) Franses. (1998). Madrid. Madrid. Editorial AC.Lecturas recomendadas ıvez (1993). o a 165 .P. Ed. (2000). b) Box.H. Cambridge. n a e) Uriel.E. E. Ariel. (2005). San Francisco. P. e o ıa.M. Tr´ Barcelona.

Sign up to vote on this title
UsefulNot useful