You are on page 1of 117

Capitulo 2

Modelos de tiempo-serie estacionaria

La teoría de ecuaciones en diferencias lineales se puede extender para


permitir que el proceso de forzar [x,} para ser estocástico. Esta clase
de ecuaciones en diferencias lineales estocásticos subyace en gran
parte de la teoría de la econometría de series de tiempo.
Especialmente importante es la Box-Jenkins (1976) metodología para
la estimación de modelos de series de tiempo de la forma:

y, = a0 + a, Y, _, + - + APY, _p + e, + P, E, _, + - + P e, _,

Estos modelos se llaman autorregresivos integrados en


movimiento (modelos ARIMA) de series de tiempo promedio. Los
objetivos de este capítulo son:
1. Presentar la teoría de ecuaciones en diferencias estocásticas lineales
y considerar las propiedades de series de tiempo de modelos ARIMA
estacionarios; un modelo ARIMA estacionario se llama un modelo
ARMA. Se muestra que las condiciones de estabilidad del capítulo
anterior son condiciones necesarias para estacionariedad.
2. Desarrollar .Las herramientas utilizadas en la estimación de modelos
ARMA. Especialmente útiles son la autocorrelación y funciones de
autocorrelación parciales. Se muestra cómo la metodología Box-
Jenkins se basa en estas herramientas para estimar un modelo ARMA
de datos de la muestra.
3. Considerar varias pruebas estadísticas para comprobar la adecuación
del modelo. Varios ejemplos de modelos estimados ARMA se
analizan en detalle. Se muestra como un modelo adecuadamente
estimado puede ser utilizado para la predicción.

yo / •
1. MODELOS DE DIFERENCIA Ecuación estocástica

! En este capítulo, se sigue trabajando con discreta, en lugar de


continuas, tiempo-': modelos de la serie. Recordemos de la discusión
en el Capítulo 1 que podemos evaluar la functiony = / (:) en r0 y; 0-
h para formar YO: .
Ay * / (/ “+ />) - / ( '(>)

Como cuestión práctica, la mayoría de los datos de series de tiempo


económicas son recogidos por períodos de tiempo discreto. Por lo tanto, se
consideran sólo los r0 intervalos equidistantes, iQ + h, / 0 + 2h. t0 + 3h ,. .
. y convenientemente SET / i = 1. tener cuidado de reconocer, sin embargo,
que una serie de tiempo discreto implica l, pero no necesariamente v ,, es
discreta. Por ejemplo, aunque las precipitaciones anuales de Escocia es una
variable continua, la secuencia de este tipo de precipitación anual total para
los años 1 a t es una serie de tiempo discrcic. En muchas aplicaciones
económicas, t se refiere al “tiempo” de modo que h representa el cambio
en el tiempo. Sin embargo, t no es necesario que se refieren al tipo de
intervalo de tiempo medido por un reloj o calendario. En lugar de permitir
que nuestras unidades de medición a ser minutos, días, trimestres o años,
r
podemos utilizar t para referirse a una serie de eventos ordenada.
Podríamos Sea Y, denotar el resultado de la vuelta t en una rueda de ruleta;
y, a continuación, puede tomar cualquiera de los 38 valores de 00, 0, 1, ....
36.

Un discreto variable y se dice que es una variable aleatoria (es decir,


estocástico) si para cualquier número real r, existe una probabilidad p (y
<r) que y toma un valor menor que o igual a r. Esta definición es bastante
general; en el uso común, típicamente se da a entender que hay al menos
un valor de r para los que 0 <p (y = r) <1. Si hay algunos r para el que p (y
H = r) = 1, y es determinista en vez que al azar.
Es útil tener en cuenta los elementos de una serie de tiempo observado
(y0, yi, y2> ■ ■ ■ <y () como realizaciones (es decir, efectos) de un
proceso estocástico. Al igual que en el capítulo I, seguimos permitiendo
que la notación y, se refiere a un elemento de toda la secuencia [y,). En
nuestro ejemplo, la ruleta, y, denota el resultado de la vuelta t en una rueda
de ruleta. Si observamos giros 1 a T, podemos formar la secuencia y ,, y2,
.. •, YT, o de forma más compacta, (y,]. De la misma manera, el término
Y, podría ser utilizado para denotar PNB en el tiempo el período t. Puesto
que no podemos pronosticar PNB a la perfección, y, es una variable
aleatoria. una vez que se aprende el valor del PIB en el periodo t, y se
convierte en uno de los valores realizados a partir de un proceso
estocástico. (por supuesto, el error de medición puede impedirnos de saber
nunca el valor “verdadero” del PNB).

Para las variables discretas, la distribución de probabilidad de Y, está


dada por una fórmula (o tabla) que especifica cada posible valor realizado
de y, y la probabilidad asociada con ese icalization. Si las realizaciones están
vinculados a través del tiempo, existe la distribución de probabilidad
conjunta p (yt = r ,, y2 = r2, ■ ■ ■ ■ yr ~ rr)> donde r, es el valor dado cuenta
de y en el período i. Habiendo observado los primeros t realizaciones,
podemos formar el valor esperado de y, + l, y, + 2,. . . , Condicionado a los
valores observados de Y, a través de y, 0.1 Este; media condicional, o valor
esperado, de y, +, se denota por £, (Y, +, | y “y, _i ,. • •, yi) o E, y luego, si
v, se refiere al resultado de girar una rueda de ruleta justo, la distribución de
probabilidad se caracteriza fácilmente. Por el contrario, es posible que nunca
será capaz de describir por completo la distribución de probabilidad de PNB.
Sin embargo, la tarea de teóricos de la economía es desarrollar modelos que
capturan la esencia del verdadero proceso de generación de Datos-.
ecuaciones en diferencias estocásticas son una forma conveniente de
modelar proceso económico dinámico. Para poner un ejemplo sencillo,
supongamos que ese objetivo la oferta monetaria de la Reserva Federal crece
un 3% cada año. Por lo tanto,

= 1.03m * | (2.i)
o dada la condición inicial la solución particular es

metro* = (1,03) 'm $

donde en * = el logaritmo de la meta de la masa monetaria en años!

"> O = La condición inicial para el suministro niuucy objetivo en el


período cero

Por supuesto, la oferta de dinero real m, y el objetivo no tienen que ser


iguales. Supongamos que al final del período t - 1, existen m, _, dólares
pendientes que se llevan hacia adelante en el período t. Por lo tanto, al
comienzo de t existen m, _, dólares para que la brecha entre las tenencias de
dinero real y deseada es m * -m, _x. Supongamos que la Fed no puede
controlar perfectamente el suministro de dinero pero los intentos de cambiar
el suministro de dinero por p por ciento (p <100%) de cualquier brecha entre
el suministro de dinero deseada y real. Podemos modo! este comportamiento
como
Am, = P «-m, _,) + e,

o el uso de (2.1), obtenemos

metro
t = P (1 -03) '+ (1 - p) m, _x + e, (2,2)

dónde e, = la parte incontrolable de la oferta de dinero

Asumimos la media de e, es cero en todos los períodos de tiempo.


Aunque la teoría económica es demasiado simple, el modelo sirve para
ilustrar los puntos clave discutidos anteriormente. Tenga en cuenta lo
siguiente:

1. Aunque el suministro de dinero es una variable continua, (2.2) es una


ecuación de diferencia discreta. Dado que el proceso obligando {e,} es
estocástico, la oferta de dinero es estocástico; podemos llamar (2,2) una
ecuación de diferencia estocástico lineal.
, 2. Si supiéramos la distribución de {e,}, podríamos calcular la distribución
para cada elemento de la (, m) secuencia. Puesto que (2.2) muestra cómo las
realizaciones de la m,) secuencia {están vinculados a través del tiempo, que
sería capaz de calcular las distintas probabilidades conjuntas. Observe que
la distribución de la secuencia de la oferta de dinero es com- | completamente
determinado por los parámetros de la ecuación de diferencia (2,2) y la
distribución de la {e,} secuencia.

, 3. Habiendo observado las primeras observaciones en el t (secuencia de MRJ,


podemos hacer
previsiones de m, + 1, m, + 2 Por ejemplo, si nos ponemos al día (2.2)
por un periodo y
tomar expectativa theconditional, la previsión de MHI es p (l 0.03) '+ lmjj'
+ (1 - p) m ,. Por lo tanto, E / n, + l = p (1.03) '*' m ^ + (1 - p) m ,. ,

Antes de proceder demasiado lejos a lo largo de estas líneas, Volvamos al


bloque básico de construcción de modelos de series de tiempo ¡
y
o
estocástico discretos: el proceso de ruido blanco! Una secuencia de (e,) !
es un proceso de ruido blanco si cada valor en la secuencia tiene una
media de cero, una varianza constante, y es en serie no correlacionado.
Formalmente, si la notación E (.t) denota el valor medio teórico de x, la
secuencia { «,.} Es un proceso de ruido blanco si para cada periodo de
tiempo t.

E (e,) = £ (£, _,) = - = 0


E (q) = E (e; _t) = ■■■ = a2 [oryar (e,) = var (e,,.) = - = a2

y para todo j

En el resto de este texto, (e), se referirá siempre a un proceso de ruido


blanco y a2 a la varianza de ese proceso. Cuando es necesario hacer
referencia a dos o más procesos de ruido blanco, se utilizarán símbolos tales
como je ,,} y {E2R). Ahora, usa un proceso de ruido blanco para construir
la serie de tiempo más interesante:

(2,3)
Para cada período t, x, se construye tomando los valores e “e, _, ... ..e, _y
multiplicando cada por el valor asociado de P ,. Una secuencia formada de
esta manera se llama una media móvil de orden q y denota por MA (<y).
Para ilustrar un proceso de media móvil típica, supongamos que gana $ 1 si
una moneda muestra una cabeza y pierde SI si muestra una cola. Denotar el
resultado de cara o cruz t por correo, (es decir, para el lanzamiento de T, E,
es o bien + S1 o - $ 1). Si desea realizar un seguimiento de sus “golpes de
suerte”, es posible que desee para calcular sus ganancias promedio de los
últimos cuatro lanzamientos. Para cada sacudida de la moneda t, sus
ganancias promedio en los últimos cuatro lanzamientos son l / 4e, + l / 4e,
_, + l / 4e, _2 + l / 4e, _3. En términos de (2.3), esta secuencia es un proceso
de media móvil de tal manera que P, = 0,25 para / <3 y cero en caso contrario.

Aunque la secuencia {e,) es un proceso de ruido blanco, el construido


{x,} secuencia no será un proceso de ruido blanco si dos o más de la P,
difieren de cero. Para ilustrar el uso de un MA (1) de proceso, conjunto P “=
1. p, = 0.5, y todos los demás p, = 0. En esta circunstancia, E (x,) = £ (e, +
0.5e, _,) = 0 y var (.r) = var (e, + 0.5e, _,) = 1.25a2. Puede fácilmente
convencer a ti mismo que E (x,) = £ (x, _3) y var (.r) = var (.r, _3) para todo
s. Por lo tanto, las dos primeras condiciones para {.r,} para ser un proceso
de ruido blanco están satisfechos.
+ O ^ oe ^ e ^ j) = 0.5a2. Dado existe un valor distinto de cero de s tal
que £ '(. Trx, _J) s4 0, la secuencia (.T,) no es un proceso de ruido
blanco.
Ejercicio 1 al final de este capítulo le pide para encontrar la media, la
varianza y la co-varianza de su “rayas caliente” en lanzamiento de una
moneda. Para la práctica, usted debe completar ese ejercicio antes de
continuar.
2. Los modelos ARMA

Es posible combinar un proceso de media móvil con una ecuación de


diferencia lineal para obtener una autorregresivo mover modelo de media.
Considere el /; ecuación de diferencia th-orden:

y, -% + T x>
i=S

Ahora vamos {.tr} el proceso MA (^) dada por (2.3) de manera que podemos
escribir

Pi
+
y, = «o + XPl'e '- <' C2.5)
1 = 1 1 = 0.
Seguimos la convención de las unidades de normalización de manera que
po es siempre igual a la unidad. Si las raíces característicos de (2.5) están
todos en el círculo unidad, {y,} se denomina autorregresivo modelo de
media (ARMA) para y en movimiento ,. La parte autorregresiva del modelo
es la “ecuación de diferencia” dada por la porción homogénea de (2.4) y la
parte media móvil es la {x,} secuencia. Si la parte homogénea de la ecuación
de diferencia contienepag GAL y el modelo para x, q se retrasa, el modelo
se llama \ un ARMA (p, q) Modelo. Siq = 0, el proceso se denomina un
proceso autorregresivo puro denotado por AR (p), y si p =0, el proceso es
un proceso de media móvil de- puro: señalado por MA (^). En un modelo
ARMA, es perfectamente admisible para permitirpag y / o q a ser infinita.
En este capítulo, se consideran sólo los modelos en los que todas las raíces
características de (2.4) se encuentran dentro del círculo unitario. Sin
embargo, si una o más raíces característico es mayor que o igual a la unidad,
se dice que el {y,} de secuencia para ser un proceso integrado y (2.5) se
llama un autorregresivo integrado modelo de media (ARIMA) en
movimiento.

El tratamiento de (2.5) como una ecuación de diferencia sugiere que


podemos “resolver” para Y, en términos de la (e,} de la secuencia. La
solución de un ARMA (p, q) modelo que expresa Y, en términos de la (e,}
secuencia es la representación media móvil de y ,. El procedimiento no es
diferente de la expuesta en el Capítulo 1. Para el (1) modelo AR Y, = un" +
A, y_, + e ,, la representación media móvil se demostró que era
= a0 / (l-ai) + Xa! e'-i1 = 0
n
o
rt
(3,6
> ■, pag
e
)
=

Para el ARMA general (p, q) modelo, reescribir (2.5) utilizando operadores


de retardo de manera que

r 'yo
v, = a0 +] Tp,

de modo que el vr solución particular tor es


Afortunadamente, no será necesario que nosotros expandir (2.6) para
obtener el coeficiente específico para cada elemento en {e,} - El punto
importante a reconocer es que la expansión producirá un (°°) proceso MA.
La cuestión es si tal expansión es convergente de manera que la diferencia
ecuación estocástica dada por (2.6) es estable. Como se verá en la siguiente
sección, la condición de estabilidad es que las raíces características del
polinomio (1 - LAP) deben estar fuera del círculo unidad. También se
muestra .que si Y, es una ecuación de diferencia estocástico lineal, la
condición de estabilidad es una condición necesaria para la FYJ series de
tiempo para ser estacionario.
3. estacionariedad

Supongamos que la división de control de calidad de una empresa de


fabricación de muestras de cuatro máquinas cada hora. Cada hora, control

de calidad se encuentra la media de los niveles de producción de las


máquinas. La trama de producción por hora de cada máquina se muestra
en la Figura 2.1. Si Y “representa salida de la máquina y / s en hora t, los
medios (Y,) se calculan fácilmente como

Por hora 5, 10 y 15, estos valores medios son 5.57, 5.59, y 5.73,
respectivamente.

La varianza de la muestra por cada hora de manera similar se puede


construir. Desafortunadamente, aplicado económetras lo general no tienen
el lujo de ser capaz de obtener un conjunto (es decir, múltiples datos de series
temporales del mismo proceso en el mismo período de tiempo).
Típicamente, se observa sólo un conjunto de realizaciones for'any serie
particular. Afortunadamente, si (y,} es una serie estacionaria, la media, la
varianza y autocorrelaciones por lo general puede ser bien aproximada por
promedios de tiempo suficientemente largos basados en el único conjunto
de realizaciones. Supongamos que se observa sólo la salida de la máquina 1
durante 20 períodos. Si usted supiera que la salida era estacionaria, se puede
aproximar el nivel medio de la producción en
20

Y, = X-VI '/ 2 °

En el uso de esta aproximación, que, partiendo de que la media es la misma


para cada periodo. En este ejemplo, los medios de las cuatro series son 5.45,
5.66, 5.45,
Sunionarity 69
Figura 2.1 Producción horaria de cuatro
máquinas.

y 5,71. Formalmente, un proceso estocástico que tiene una media finita y la varianza
es co-varianza estacionario si para todot y ts,
E (y,) ~ E (y, -S) - pies (7.i)
E [(Y, - fi) 2] = [E (Y, _s - p) 2] = c2 [Var (y,) = var (y, _,) = cj] (2,8)

E [iy, - fl) (YM - | i)] = E [(yH - p) ^, p)] = ys


[Cov (y “ y, _s) = Cov (y, _ ;, y, (2,9)
dónde pag, Cy y todo ys son constantes
En (2.9), permitiendo s = 0 significa que y0 es equivalente a la diferencia de Y ,.En
pocas palabras, una serie de tiempo es estacionaria covarianza si su media y todas las
autocovarianzas no se ven afectados por un cambio de origen de tiempos. En la
literatura, un proceso estacionario de covarianza también se conoce como un
débilmente estacionaria, estacionaria de segundo orden, o proceso estacionario
sentido de amplio. Un proceso fuertemente estacionario no necesita tener una finito
media y / o la varianza (ic, p y / o y0 no tiene que ser finito); esta terminología
implica que estacionariedad débil puede ser una condición más rigurosa que la
estacionalidad fuerte. El texto considera única serie de covarianza estacionaria de
modo que no hay ambigüedad en el uso de los términos fijo estacionario y covarianza
de manera intercambiable. Una palabra más acerca de la terminología. En los modelos
multivariados, el término autocovariancia está reservado para la covarianza entreY,y
sus propios rezagos. Cross-covarianza se refiere a la covarianza entre una serie y otra.
En los modelos de series temporales univariantes, no hay ninguna ambigüedad y la
autocovariancia términos y covarianza se utilizan indistintamente.

Para una serie estacionaria covarihnce, podemos definir la autocorrelación entre Y,


e Y, _, como
p, = yA
donde y0 e Y, se definen por (2.9).

Puesto que y, y y0 son independientes del tiempo, los


coeficientes de autocorrelación ps también son independientes
del tiempo. Aunque la autocorrelación entre Y, e Y, _, puede
diferir de la autocorrelación entre Y, e Y, _2, la autocorrelación
entre Y, e Y, _, debe ser idéntico al que entre Y, _, y
Obviamente, p0= l-

Restricciones de estacionariedad para un AR (1) Proceso


Por conveniencia expositiva, considere primero las condiciones
necesarias y suficientes para una (1) Proceso de AR a ser
estacionario. Dejar j

y, = ao + uni.vi-i + e>

dónde e, = ruido
blanco

|
Supongamos que el proceso se inició en el período cero, de modo que
yQ es una inicial
determinista
|
condición. En la sección 3 del capítulo anterior, se demostró que la
solución a
este

|
et nente está (también véase la pregunta 2 en el extremo ol este capítulo)
Y, + n!> u + Xaie'-i
yo
(2,10)
i=O i=O

Tomando el valor esperado de (2.10), obtenemos


rl
Ey, - AOX “'+ a'y °
1=0
(2U1
Actualización por s períodos de rendimientos )

f + 3-I
mi
Y, + s * f oZfliHb °
i = i)

(2,12)

I' Comparamos (2.11) y (2.12), es claro que ambos medios son dependientes del
tiempo. 1 esdeEy,no es igual a £ y, + s, la secuencia no puede ser estacionaria. Sin
embargo, si ns grande, podemos considerar el valor límite deY,en (2.10). Si 1 a, I <1,
la expresión (uO'v'o converge a cero como r se hace infinitamente grande y la suma
u0 [l + a, + ID,) 2 + (a,) 3 + •••] converge a «, / (- a,). Así, como set -> = *> y si a,] <1

calizo, D0 = / (ld |)! ^ u + £ / -, l2-13'1


;=O

Ahora expectativas de (2.13) de manera que para valores suficientemente grandes de


r, Ey, = oJ {\ -Florida,). Thtas, el valor medio deY, es finito y independiente del
tiempo de manera que Ey, -
estacionariedad17

- M para * • En cuanto al valor límite de la varianza, encontramos

E (y, - F)1 2 3 = £ ■ [( «, + a, e, _, + (a,) 2e“2 + ...) 2]

= Cr [! + (A,) 2 + (a,)4 + •••] = 02 / [L - (a,) 2]

que también es finito y no depende del tiempo. Por último, se


+ -]}
demuestra fácilmente que los valores límite de todas las
autocovarianzas son finitos y no depende del tiempo: (2.14)

£
TTY; . FXV, F) 1 - £ {[e, + «] €, _, + (a,) 2e, ^ + ••• '] [€, _, + n + (a,)
2e, = o2 (a ,) s [l - + -. (a,) 2 + (a,) 4 = a2 (a,) 7 [l- (a,) 2]

En resumen, si podemos usar el valor límite de (2.10), el (y,)


secuencia será estacionaria. Para cualquier y0 y La dado, | <1, se deduce
que t debe ser suficientemente grande. Por lo tanto, si una muestra se
genera por un proceso que ha comenzado recientemente, las
realizaciones pueden no ser estacionaria. Es por esta razón que muchos
económetras asumen que el proceso de generación de datos ha estado
ocurriendo desde hace un tiempo infinitamente largo. En la práctica, el
investigador debe ser cuidadoso de los datos generados a partir de un
proceso de “nuevo”. Por ejemplo, {y,} podría representar el cambio
diario del tipo de cambio dólar / marca que comienza inmediatamente
después de la desaparición del sistema de tipo de cambio fijo de Bretton

1 La solución homogénea debe ser cero. O bien la secuencia debe haber empezado
infinitamente lejos en el pasado o el proceso debe estar siempre en equilibrio (de
modo que la constante arbitraria es cero).
2 La raíz característica a, debe ser menor que la unidad en valor absoluto.
Estas dos condiciones se generalizan fácilmente a todos los procesos ARMA (p, q).
Sabemos
que la solución homogénea a (2.5) tiene la forma
Las restricciones estacionarias para una, q) Modelo ARMAip18

Woods. una serie de este tipo puede no ser estacionaria debido al hecho
de que había condiciones iniciales deterministas (cambios de tipo de
cambio eran esencialmente cero en la era Bretton Woods).

, Que está littie] d cambio que no había sido dada la condición inicial.
Sin el valor y0 inicial, la suma de las soluciones homogéneas y
particulares para Y, es

y <~ao '(' - «i) + ^ aje, _1. + A (a,)'


(2,1
5)

1 = 0:

donde un = Una constante arbitraria

Si tomamos la expectativa de (2.15), es evidente que el {y,} secuencia


no puede ser estacionario a menos que la expresión A (a,)' es igual a
cero. O bien la secuencia debe haber empezado infinitamente hace
mucho tiempo (de modo que una [= 0) o la constante A arbitraria debe
ser cero. Recordemos que la constante arbitraria tiene la interpretación

5>
de una desviación de equilibrio a largo plazo. Una manera sucinta para
indicar las condiciones de estabilidad es la siguiente:

o si se repiten las raíces.


m r
u et
=>nA,r = n, +
o todos>
(3, para
2
Las restricciones estacionarias para una, q) Modelo ARMAip19

en el que el A, representan p valores arbitrarios, una son las raíces


repetidas, y el a, son el (p - m) raíces distintas.

Si cualquier parte de la ecuación homogénea está presente, la media,


la varianza y covarianzas todos serán dependiente del tiempo. Por lo
tanto, para cualquier modelo ARMA (p, q), requiere estacionarias que
la solución homogénea ser cero. La siguiente sección aborda las
restricciones de estacionariedad para la solución particular.

4. RESTRICCIONES estacionariedad
PARA UNA ARMAfp, q) MODELO

Como preludio a las condiciones estacionarias para el modelo general


ARMA (p, q), considere primero las restricciones necesarias para
asegurar que un ARMA (2, 1) modelo es estacionario. Puesto que la
magnitud del término de intercepción no afecta a la estabilidad (o
tionarity esta-) condiciones, establecer a0 = 0 y escribir

(2,16)
Y, = N, y, _, + avy, -2 + 6 / + (Wi

En la sección anterior, sabemos que la solución homogénea debe ser


cero. Como tal, sólo es necesario para encontrar la solución particular.
Utilizando el método de coeficientes indeterminados, podemos escribir
la solución como desafío
Las restricciones estacionarias para una, q) Modelo ARMAip20

Para (2,17) para ser una solución de (2,16), los distintos a, - debe satisfacer

Para que coincida con coeficientes de los términos que contienen e “e, _2 ...., es
necesario establecer
(2,17)
Las restricciones estacionarias para una, q) Modelo ARMAip21

El punto clave es que para i> 2, los coeficientes de satisfacer la


ecuación diferencia a, - = ai “, - i + a2«, - 2- ^ las raíces características
de (2.16) están dentro del círculo unidad, el (una ,) deben constituir una
secuencia convergente. Por ejemplo, reconsiderar el caso en el que al =
1,6, a2 = -0,9, y dejar que p, = 0,5. Hoja de trabajo 2.1 muestra que los
coeficientes que satisfacen (2.17) son 1, 2,1, 2,46, 2,046, 1,06, -0,146,
.... (véase también la Hoja de trabajo 1.2 del capítulo anterior).

HOJA DE TRABAJO 2.1 Coeficientes de la (2,1) de proceso


ARMA:
yt = 1-6 / ^, - 0.9yM + EF + 0,5 «M.

Si se utiliza el método de coeficientes indeterminados, la una, debe


satisfacer

Oo = 1

CT | = 1,6 + 0,5, por lo tanto, a, = 2,1

un,. = 1.6- a; _, - 0,9-a, _2 para todos / = 2, 3,4.

Observe que los coeficientes siguen una ecuación diferencial de


segundo orden con raíces imaginarias. Con el teorema de De Moivre,
los coeficientes satisfarán

un,. = 0.949'p, cos (0.567i +


P2) La imposición de las condiciones iniciales para
cq, y OT, rendimientos
Las restricciones estacionarias para una, q) Modelo ARMAip22

1 = P, cos (P2) y 2,1 = 0.949P, cos (0,567 + p2)


Puesto que P, = l / cos (P2), buscamos la solución a

cos (P2) - (0,949 / 2,1) ■ cos (0,567 + p2)


= 0 de una tabla trigonométrica, la solución para P2 es -
1,197. Por lo tanto, la una, - satisfacer

- 1 / 1.197 • 0.949' - cos (0,567-i-1.197) t

Alternativamente, podemos utilizar los valores iniciales de CQ, y una,


4

60

para encontrar la otra una, por iteración. La secuencia de la una, se


muestra en el siguiente gráfico.
Las restricciones estacionarias para una, q) Modelo ARMAip23

Los primeros 10 valores de la secuencia son

10 12 3 4 5 6 7 8 9 10

a, 2,10 2,46 2,046 1,00 1,06 -0,146 1,187 -1,786 -1,761 -1,226 -0,378

Para verificar que la secuencia (>',) generada por (2.17) es


estacionario, tomar la expectativa de (2,17) para formar Ey, = Ey = 0
para todo t y /. Por lo tanto, la media es finito y invariante en el tiempo.
Puesto que la secuencia (e,) se supone que es un proc ^ jj de ruido
blanco, la varianza de v, es constante y independiente del tiempo, que
es.

Var (y,) = E [o ^ e, + a, e, _, + A2E, _2 + A3E, _3 + -) 2]

= a2
jr ° T
i=0

Por lo tanto, var (y,) = var (y, _,) para todo t y s. Por último, la
covarianza entre Y y
y, _, es

,,) = £ T (e, + oqe, -, + ct2e <-2 + • ") (ei-i + cc, e, _2 + c ^ e, ^ + CHe;..


- 4 + '")] = <r (a, + a2a, + a3ot2 + ■■ •)

Cov (yr, y, _2) = £ [(E, + a, e, _, + + •• ■) (£, -2 + unIEI-3 + <* 2 *


1-4 + a3 * 1-5 + '")]

= A2 (CTJ + A3a, + a402 + -)


Las restricciones estacionarias para una, q) Modelo ARMAip24

así que eso

Co v (y “y, _s) = o2 (como + a, + 1 ° C, + oq * 2a2 + •••)


a.
m

Por lo tanto, cov (Y “Y, _s) es constante e independiente de t. En


cambio, si las raíces característicos de (2.16) no se encuentran dentro
del círculo unidad, el (ex,} secuencia no será convergente. Como tal, el
vr} sucesión {no puede ser convergente.

No es demasiado difícil generalizar estos resultados a toda la clase de


modelos ARMA (p, q). Empiece tomando en cuenta las condiciones que
garanticen la estacionariedad de un puro proceso MA ( “). Al restringir
adecuadamente la p ,, todo el MA-orden finito (<7) procesos se puede
obtener como casos especiales. Considerar .

-T = XP'e'-'

1=0 v•■ . .;
dónde {E,} = un proceso de ruido blanco con varianza a2

Ya hemos determinado que (.r,) no es un proceso de ruido blanco;


Ahora la cuestión es si (.t,} es estacionaria covarianza? (Si necesita
refrescar la memoria en relación con las expectativas matemáticas, debe
consultar el apéndice de este capítulo
Restricciones Slationariry para un (p. Q) Modelo ARMA25

. Antes de proceder) condiciones Considerando (2.7), (2.8) y (2.9), que


piden el siguiente:

¿Es la media finita y la independiente del tiempo? Tomar el valor


esperado de x, y recuerda que la expectativa de una suma es la suma
de las expectativas individuales. Por lo tanto,

E (x,) = £ (E, + p, e, _, + P2 €, _2 + ■■ •)

= £ e, + pl £ e, _L + p2 £ e, _2 + - = 0

Repite el procedimiento wun x, _ ,:

E (x, _s) = £ (€, _, + + Pe, ^ + •••) = 0

Por lo tanto, todos los elementos en la (*,) secuencia tienen la misma


media finita (p = 0).

Es la varianza finita y no depende del tiempo? Forma var (x,) como

Var (.r,) = £ [(E, + p, e, _, + P2E, _2 + -) 2]

Cuadrar el término entre paréntesis y tener expectativas. Puesto que


(e,) es un proceso de ruido blanco-, todos los términos £ e, e, _, = 0
para s un 0. Por lo tanto,

x,) = £ (e,) 2 + (P,) 2 £ (e, _,) 2 + (P2) 2 £ (e, _2) 2 + - =


o2 [l + (P,) 2 + (p2) 2 + -]
Restricciones de estacionariedad para un ARMAi. p, q) Modelo26

Mientras Z (p,) 2 es finito, se deduce que varfx,) es finito. Por lo


tanto, S (P,) 2 siendo finito es una condición necesaria para {x,} para
ser estacionario. Para determinar si var (x,) = varfx, ^), forma

Var (x, _j) = £ [(€, _, + P, + P2E, ^ _ 2 + -)] 2 = 02 [1 + (P,) 2 + (p2) 2


+ -]

Por lo tanto, var (x,) = varfx, ^) para todo t y t - s.

Son todos finitos y autocovarianzas independiente del tiempo? En


primer lugar el formulario E (x ^, _ s) como

E (* S, S) = £ [(,, e + P, e _, + P2E, _2 + -). (E (_J + p, + Pe, ^ + •••)]

Llevar a cabo la multiplicación y observando que £ (E, E, _,) = 0 para


j + 0, obtenemos

XRX, _s) = o2 (Pj + P i Pj + i + P2PJ + 2 + ■ ••)

La restricción de la suma P, + p, PJ + 1 + P2Ps + 2 + - para ser finito


significa que E (x ^, _,) es finito. Dada esta segunda restricción, está
claro que la covarianza entre X, y x, _, depende de sólo el número de
períodos que separan las variables (es decir, el valor de 5), pero no el
tiempo subíndice t.

En resumen, las condiciones necesarias y suficientes para cualquier


proceso de MA a ser estacionaria son para las sumas de (1), T (P,) ~, y
de (2), (P, + IFP + i + P2P.1 + 2 + '") • ser finito. Puesto que (2) debe
mantener para todos los valores de 5 y P“= 1, la condición (1) es
Restricciones de estacionariedad para un ARMAi. p, q) Modelo27

redundante. La implicación directa es que un proceso MA-orden finito


siempre será estacionaria. para una proceso infinito de orden, (2) debe
mantener durante todo s> 0.

Restricciones de estacionariedad para los coeficientes


autorregresivos

Consideremos ahora el modelo autorregresivo puro:

(219)
> '= ° o + Xa'.v'-' + e' ''

i=1

Si las raíces característicos de la ecuación homogénea de (2,19) se


encuentran todos dentro del círculo unidad, es posible escribir la
solución particular como

i=l
(2,20)

Dóndela una, = coeficientes indeterminados

Aunque es posible encontrar los coeficientes indeterminados (a,},


sabemos que (2.20) es una sucesión convergente, siempre y cuando las
raíces características de (2.19) están dentro del círculo unidad. Para
dibujar la prueba, el método de coeficientes indeterminados . nos
permite escribir la solución particular en forma de (2.20), pero también
Restricciones de estacionariedad para un ARMAi. p, q) Modelo28

sabemos que el ja-secuencia,} con el tiempo va a resolver la ecuación


en diferencias:

un, - - «2un/ -2-- unpai-P = 0 (2


-
21)

yo

yo

Si las raíces característicos de (2.21) son todos dentro del círculo


unidad, la secuencia (CQ) será convergente. Aunque (2.20) es un
infinito-fin en movimiento media, la convergencia de los coeficientes
MA implica que Zaj es finito. Por lo tanto, podemos utilizar (2.20) para
comprobar las tres condiciones de estacionariedad. Desde cq, = 1,

1. Ey, Ey =, _, = <i (/ (! "

Usted debe recordar del capítulo 1 que es una condición necesaria de


todas las raíces características mienta dentro del círculo unidad es 1 -
Za> Y 0. Por lo tanto, la media de la secuencia es finito y invariante en
el tiempo:

y
var O '/ - *) - E ^ rs + a I + a26M_2 + aje, _, _ 3 + -.) 2] =
a2Ia2
Restricciones de estacionariedad para un ARMAi. p, q) Modelo29

Teniendo en cuenta que ZCQ es finito, la varianza es finita y no


depende del tiempo.

3. Cov (y “ y, _s) = £ [(6, + a, e, _, + A2E, _2 + + A, + a2«,.,. 2 +


-. U + a, a + 1 + a2a ,, 2 + •••) .

Por lo tanto, la covarianza entre Y, y Y, _s es constante e invariable en


el tiempo para todos t y t - s.
Nada de la sustancia se cambia mediante la combinación de la
AR(pag) y MA(Q) modelos en el ARMA general (p, q) modelo:
Restricciones de estacionariedad para un ARMAi. p, q) Modelo30

PAG
y'= Ao + Y, a'y'-I + xt

9
*T Z^- (2,22)
= i=0

Si las raíces de la ecuación característica inversa se encuentran fuera del círculo


unidad [es decir, si las raíces de la forma homogénea de (2.22) se encuentran dentro
del círculo unidad] y el {*,} secuencia es estacionario, la {y,} secuencia será

- ,
estacionaria. Considerar

7, =
22 + PAG.6, -1 f P2E, _2
(2,23)
YO_
'-Z ^ * ^ -Z' za-
'"YO i=l J «1 / =!

Con muy poco esfuerzo-, puede convencerse de que la [Y,]secuencia satisface las
tres condiciones para estacionariedad. Cada una de las expresiones de la parte
derecha de (2.23) es estacionaria, siempre y cuando las raíces de 1 -Za ^'están fuera
del círculo unidad. Dado que (a :,) es estacionaria, sólo las raíces de la parte
autorregresiva de (2.22) determinar si el {y, | secuencia es estacionaria.

; ¿Qué pasa con la posibilidad de utilizar la solución de futuro? Por ejemplo, en el


modelo monetaria de Cagan viste que la solución a futuro produce una secuencia
convergente. normas econometría de series de tiempo de este tipo de solución
perfecta vista extremidades anteriores / prospectivas. Es elexpectativade eventos
futuros (no el valor dado cuenta de eventos futuros) que afecta a la presente. Después
de todo, si usted tenía perfecta
previsión, predicción econométrica sería innecesario.
Restricciones de estacionariedad para un ARMAi. p, q) Modelo31

5. La función de autocorrelación

Los autocovarianzas y autcorrelations del tipo encontrado en (2.IS) sirven como


herramientas útiles en la caja-Jcnkins (1976) enfoque para identificar y estimar los
modelos de series de tiempo. Ilustramos considerando cuatro ejemplos importantes:
la AR (1), AR (2), MA (1) y ARMA (1, 1) modelos. Para el modelo AR (I), y, =a0
+ + E ,, (2.14)

espectáculos

y0 = cr / [l- (u,) 2]
Y, - a2 (fl, wn - (a,) 2]

La formación de las autocorrelaciones dividiendo cada y, por Y “, nos encontramos


con que p0 = 1, p =

un,; p2 = (a,) 2 ........ p, = (a,)J. Para una (1) Proceso de AR, una condición necesaria
para esta-

tionarity es para | a, f <1. Por lo tanto, la trama dePD en contra s-llamadas la función
de autocorrelación (ACF) o correlogram-deberían converger a cero geométricamente
si la serie es estacionaria. Siai es positivo, la convergencia será directa, y si un,es
negativo, las autocorrelaciones seguirá una trayectoria oscilatoria amortiguada en
torno a cero. Los primeros dos gráficos de la izquierda-hand.side de la Figura 2.2
muestran las funciones de autocorrelación teóricas para una, = 0,7 y a, = -0,7,
respectivamente. Aquí, P0 no se muestra ya que su valor es necesariamente la unidad.
La función de autocorrelación de una (2) Proceso de AR
Restricciones de estacionariedad para un ARMAi. p, q) Modelo32
Consideremos ahora el (2) Proceso de AR más complicado Y, = A, Y, _, + ay, _2+ E
,. Nos omitir un término de intersección (a ,,), ya que no tiene ningún efecto sobre la
ACF. Para el proceso de segundo orden que sea estacionaria, sabemos que es
necesario restringir las raíces de (1 -Axl - A2L2) Para estar fuera del círculo unidad.
En la sección 4, que deriva el autocovarianzas de un ARMA (2, 1) proceso mediante
el uso del método de coeficientes indeterminados. Ahora queremos para ilustrar una
técnica alternativa usando las ecuaciones de Yule-Walker. Multiplicar la ecuación de
diferencia de segundo orden porY, _s para s = 0, s = 1, s= 2,. . . y tomar las
expectativas para formar

Ey, y, = axEy, _xy, + A2i v ^ y, + Ee., Y,


eyy<~ I = a \ Ey, ~ \ Y, - \ + “.ey, -? Y, -i + Eey, _,
Ey, y, _; = N, Eyr_, y, _2 +u2Ey, ^ y, _2 + Eepy_2

. Evjv, = Aley, _Ty, _S + a: Ey, _y, ^ s + Ee, Y, _s (2,24)

Por definición, las autocovarianzas de una serie estacionaria son tales que Eyy, _,
= Ev, _ j, = Ev, _ky, _k_s =Y ,. También se sabe que el coeficiente de correo, es la
unidad de manera que Ee, v, = a2. Desde Ee, v, _, = 0, podemos usar las ecuaciones
en (2.24) para formar

Yo = u, y, + a2y2 + O2 s ,: (2,25)
64 Los modelos de series de tiempo
estacionarias
Figura 2.2 patrones de FAS y FAP teóricos. ACF
65 Los modelos de series de tiempo
estacionarias
y, = 0,70 + 0,271 (2-26)
7, = 017, -1 + 0: 7, -: 0.21)

Dividiendo (2.26) y (2.27) por rendimientos y0

• P, = a, p0 + a2Pi "
(22
8)
P, = aP, -i + 02p, -2 (229)

Sabemos DITA p0 = 1, por lo que a partir de (2.28), p, = O, / (l •


“%). Por lo tanto, podemos find'all Pj para 5> 2 mediante la resolución
de la ecuación de diferencia (2,29). Por ejemplo, para r = 2 y
x = 3, j

Pi = (a,) 2 / (1 -A2) + a2

p3 = O, [(a,) 2 / (l -A2) + O2] + O2A, / (l -A2)

Aunque los valores de la p, son engorrosos para derivar, podemos


caracterizar fácilmente sus propiedades. Dadas las soluciones para p0
y p ,, el punto clave a destacar es que el p, todos satisfacen la ecuación
de diferencia (2,29). Como en el caso general de una ecuación de
diferencia de segundo orden, la solución puede ser oscilatorio o directa.
Tenga en cuenta que la condición estacionaria para y, requiere que las
raíces característicos de (2.29) se encuentran dentro del círculo unidad.
Por lo tanto, el (p,) secuencia debe ser convergente. El gramo correlo-
para un AR (2) el proceso debe ser tal que P0 = 1 y p, se determina por
Las autocorrelaciones muestrales de serie

(2.28). Estos dos valores pueden ser vistos como “valores iniciales” 66
estacionaria

para la ecuación de diferencia de segundo orden (2.29).

El cuarto gráfico de la parte izquierda de la figura 2.2 muestra la


ACF para el proceso y, - 0.7y, _, - 0.49> Y.2 + e ,. Las propiedades de
los diversos ps siguen directamente de la ecuación homogénea y, =
0.7y, _, + 0.49y, _2 = 0. Las raíces se obtuvieron a partir de la solución
a

cx = {0,7 ± [(-0,7) de 2 - 4 (0.49)] ,, 2) / 2

Desde el discriminante d - (-0,7) de 2 - 4 (0.49) es negativo, el raíces


características son imaginarios para que la solución oscila. Sin
embargo, puesto a2 = -0,49, la solución es convergente y el (y,)
secuencia es estacionaria.

Por último, es posible que desee encontrar las covarianzas en lugar


de las autocorrelaciones. Puesto que sabemos todas las
autocorrelaciones, si podemos encontrar la varianza de y, (es decir, y0),
podemos encontrar todos los demás ys. Para encontrar y0, utilizar
(2.25) y tenga en cuenta que p, - = y / y0, por lo

Var (y,) (p0-a, p, - A2P2) = O2

Sustitución para p0, p ,, y los rendimientos p2

y0 = var (y,) = [(! -A2) / (l + u2)

(A, + a2 - l) (a2 - - 1)
Las autocorrelaciones muestrales de serie
estacionaria 67

La función de autocorrelación de un MA (1) Proceso


Consideremos a continuación la MA (1) proceso y, = e, + Una vez más,
obtener el Yule-W: ecuaciones .lker multiplicando y, por cada uno y
tomar expectativas:

Yo = var0'i) = EYJ, = E [(E, + Pe, _,) (e, + Pe, _,)] = (l + 0 V


Yi = Ey, y, _, = E [(E , + Pe, -,) (e, _, + pe, _2)] = P <j2

Yi = EYJ, _s = E [(E, x Pe, _,) (€,., + Pe, _, _,)] = 0 para todo 5> 1

Por lo tanto, dividiendo cada Y, por Yo. se ve inmediatamente que el


ACF es simplemente Po = 1. Pi = P / (l + P2), y Pj = 0 para todo s> 1.
El tercer gráfico de la parte izquierda de la figura 2.2 muestra la ACF
para la MA (1) proceso y, = e, - 0.7e, _ ,. Como ejercicio, usted debe
demostrar que la ACF para el MA (2) proceso y, = e, + p, e, _, + p2 e,
_2 tiene dos picos y luego corta a cero.

La función de autocorrelación de un (1,1) de proceso ARMA

Por último, sea Y, = a, y, _, + e, + Usando el procedimiento ya


conocido, nos encontramos con las ecuaciones de Yule-Walker:
Las autocorrelaciones muestrales de serie

Eyy, = asey, ^ y, + Ee, y, + p, Ee, _, a, estacionaria


y, 7i
=>+ O2 + P, (o, + P,)
(2,30)
02 68
EYJ, -, = A, Ey, _, y, _, + Eepy., + P.Ee
= * Yi ^ = ^ Lyo + Pi <32
(2,31)
y0
Eyd,= -2 = A, Ey, _1y, _2 + E6ty, _2=> + Y2
P, = A, Y, (2,32)
.y ,,.
Ee, _,-,y,= _2
Eyy, A, Ey, _, y ^ + Eejv, + Plée,
=>_1yYi = a, Yi-i (2,33)
^5
Solución de (2.30) y (2.31) de forma simultánea para y0 e Y, los
rendimientos

. 1 + P? + 2tfiPi 2

■ Vi (L + fllpl) (FLL + Pl)


=

Por lo tanto,

p - (l + aipi) (Q | + Pi) (2-34)

pl
(L + p2 + 2a1p1)

y p, = para todos st 2.

Por lo tanto, la ACF para un ARMA (1, 1) el proceso es tal que la


magnitud de p, depende tanto de una, y P ,. Comenzando con este
valor de p ,, la ACF de un modelo ARMA (1, 1) el proceso se parece
a la de la (1) Proceso de AR. Si 0 <a <1, la convergencia será directa,
y si-1 <a <0, las autocorrelaciones oscilará. El ACF para la función
y, = -0,7> v, + e, - 0.7e, _i se muestra en el último gráfico de la parte
Las autocorrelaciones muestrales de serie
estacionaria
izquierda de la Figura 2.2. La parte superior de la hoja de trabajo 69

2.2 se deriva de estas autocorrelaciones.

Os dejamos con el ejercicio de derivar la correlogram del ARMA


(2, 1) el proceso utilizado en la hoja de trabajo 2.1. Usted debe ser
capaz de reconocer el punto de que el correlogram puede revelar el
patrón de los coeficientes autorregresivos. Para un modelo ARMA
(p, q) a partir de las lag q, los valores de la p, satisfarán

p, = a, p, -, + A2pi_2 + - + APPI “.

La primera p - 1 valores puede ser tratado como condiciones


iniciales que satisfacen las ecuaciones Yule- Walker.

La función de autocorrelación PARCIAL

En un AR (1) proceso, y, e y, _2 están correlacionados a pesar de


que Y, _2 no AP- no directamente pera en el modelo. La correlación
entre Y y Y, _2 (IC-, P2) es igual a la correlación entre Y y _yf_,
(es decir, p,) multiplicado por la correlación entre Y, _, y yr_2 (es
decir, p, de nuevo) de forma que p2 = p ,. Es importante tener en
cuenta que todos los tales correlaciones “indirectas" están presentes
en la ACF de cualquier proceso autorregresivo. En contraste, la
autocorrelación parcial entre Y y Y, _s elimina los efectos de los
valores de la intervención y, _, a través de y, _J 1. Como (1) tal
proceso, en un AR, la autocorrelación parcial entre y y y, _2 es igual
a cero. la forma más directa de encontrar la función de
Las autocorrelaciones muestrales de serie

autocorrelación parcial es formar primeroestacionaria


la serie (y *) por restando 70

la media de y (p) de cada observación:. y * = y, - p continuación,

dónde: mi, = Un término de error


En este caso, el símbolo {e,} se utiliza ya que este proceso de error
puede que no sea ruido blanco.

Dado que no existen valores intermedios, <j) n es tanto la


autocorrelación y autocorrelación parcial entre y, y ahora forman la
ecuación de autorregresión de segundo orden:

y*= + <T> 22y, *.2 + E,

Aquí, (j> 22 es el coeficiente de autocorrelación parcial entre Y, e


Y, _2. En otras palabras S, <J> 22 es la correlación entre Y y Y, _2
de controlar por (es decir, “la compensación out”) J
el efecto de Y, _ ,. La repetición de este procedimiento para
todos los GAL s adicionales produce la función de
autocorrelación parcial (FAP). En la práctica, con tamaño de la
muestra T, sólo 7/4 retardos se utilizan en la obtención de la
PACF muestra.
Dado que la mayoría de los paquetes informáticos estadísticos
realizan estas transformaciones, hay poca necesidad de dar más
detalles sobre el procedimiento de cálculo. Sin embargo, debe
Las autocorrelaciones muestrales de serie
estacionaria
señalarse que un simple método computional depender de las 71

denominadas ecuaciones Yule- Walker está disponible. Uno


puede formar las autocorrelaciones parciales de las
autocorrelaciones como

(2,35)
V, -\ '? !! " Pi (2,36)
<L> 22 = (p2-p?) / (I-P?)

y para retardos adicionales,

jl ' ■;

PJ ~~ y
(2,37)
--7 ~ i --------------------------------------- »S = 3, 4, 5, ...

Ji

donde ^ ^ = 1,2, 3... s - 1.


Para un proceso AR (p), no existe una correlación directa
entre Y y Y “, para s> p. Por lo tanto, todos los valores de <)>
“para s> p será cero y la PACF para un proceso puro AR (p)
debería reducir a cero para todos los GAL mayor que p. Esta
es una característica útil de la PACF que puede ayudar en la
identificación de un modelo AR (p). Por el contrario, considerar
la PACF para el MA (1) proceso y, = e, + P €, _ ,. Mientras p J
= -1, podemos escribir y, / (l + PL) = e “, que sabemos que tiene
la representación autorregresiva infinito orden:
Las autocorrelaciones muestrales de serie

y, - Py, -i + PV2 - P3Y, -3 + - = estacionaria 72

Como tal, el FAP será ni saltar a cero puesto que y, se


correlaciona con todos sus propios rezagos. En cambio, los
coeficientes de FAP exhiben un patrón geométricamente en
descomposición. Si P <0, la caries es directa, y si p> 0, los
coeficientes FAP oscile.
Hoja de trabajo 2.2 ilustra el procedimiento utilizado en la
construcción del PACF para el modelo ARMA (1,1) se muestra
en la quinta gráfico en el lado derecho de la Figura 2.2:

y, = -0.7y _, + e, -0.7e_,

En primer lugar calcular las autocorrelaciones. Claramente, p0 =


1; utilizar la ecuación (2.34) para calcular como p, = -0.8445. A
continuación, el ACF coeficientes de decrecimiento en la tasa de p,
= (-0,7) pw para i £ 2. Uso de (2.35) y (2.36), obtenemos <f> ,, = -
0.8445 y <J> 22 = -0.4250. Todos posterior y <)> ,, se puede calcular
a partir de (2.37) como en la hoja de trabajo
HOJA DE TRABAJO 2.2 Cálculo de autocorrelaciones tba
parciales de 1: Calcular las autocorrelaciones. Utilizar (2.34) para
calcular f>, como se

(1 + 0,49) (- 0,7-0; 7) __ _n RMS Pl" 1 + 0,49


+ 2 (0,491

Las correlaciones decaimiento restante a la tasa Pl = -0-7Pm. así que


eso
Las autocorrelaciones muestrales de serie

p2 = 0,591 p3 = -0 a 414 P4 = 0,290 estacionaria


= 73

p6 = 0,142 p7 = -0.010 P3 = 0,070 p9 = -0.049

SO 2: Calcula los primeros dos autocorrelaciones parciales usando (2.35)


y (2.36). Por lo tanto,

i _ p. _ AQ 44

^ == [0,591 - (- 0,8445) J1 / [1 - (-0,8445) 1) = -0.425

STHP 3: Construir todo restante iterativamente usando (2.37). Para


encontrar 4> 33, "Ote que <p21 - <ih i ^ 22 ^ n - 1.204 y la forma

) - (-0.425X-0.8445)] /

[1 - (-l.204X-fi.8445) - (-0,4251 (0,591) 1

P4-X ^ 3 / P4; I 1-X ^

Desde $ 3; = §2j - 4 se deduce que <t>31

Por lo tanto,

= -0,173

Jf “« CMTA. I. * tl * * posible que


demostrar, ha,
-0,117, 6 * 6 = -0,081, <> 77 = -0.056. aiKM »» * = -0 a 039.
Las autocorrelaciones muestrales de serie

Tabla 2.1: Las propiedades de la FASestacionaria


y la 74

FAP

Proceso ACF FAP


Ruido blanco
Todo pt = 0. Todo ()> “= 0.
AR (1): a,>decaimiento
0 exponencial directa:<)>] I = p !; ({> “= 0 para, r> 2.
p, = aj.
AR (1): a, decaimiento
<0 oscilante: p, = a \. ma = Pi'- <t = 0 para x> 2.
AR (p) Decae hacia cero. Coeficientes Spikes puedentravés lag p. Todo <)> “= 0forx> p.
oscilar.
MA (1): P>pico
0 positivo en el retardo I. p, =decaimiento
0 para Oscilante: <j> n> 0.
MA (1): P pico
<0v> negativo
° en el retardo 1. p, =Decay:
0 para p ,, <0.
ARMA (1, 1):decaimiento
x> 2. exponencial a partir decaimiento
de las oscilante a partir de las
a,> 0 P signo, el signo = (a, + p). lag 1. tn = p, -
lag 1.
ARMA (1,decaimiento
1): oscilante a partir dedecaimiento
las lag exponencial a partir de las
a, <0 P signo, el signo = (fl | + P). lag 1- TU = Pi y firmar (<j> “) = signo (p, |).
1.
ARMA (p,Decay
Q) (ya sea directa o oscilatoria)
Decaya(ya sea directa o oscilatoria) a partir de
partir de las lag q. las lag p.

Más generalmente, la PACF de un proceso estacionario ARMA (p,


q) en última instancia, debe decaer hacia cero principio en el
retardo p. El patrón de decaimiento depende de los coeficientes del
polinomio (1 + (3, L + (} 2L2 + ■■■ + pJLq). Tabla 2.1 resume
algunas de las propiedades en el ACF y PACF para diversos
procesos ARMA. También, el derecho - gráficos del lado de la
mano de la figura 2.2 muestran las funciones de autocorrelación
parciales de los cinco procesos indicados.
Las autocorrelaciones muestrales de serie
estacionaria
Para los procesos estacionarios, los puntos clave a tener en cuenta 75
son los siguientes:
. El ACF de un ARMA (/ r, q) proceso comenzará a decaer en el
retardo q. Comenzando en lag qf los coeficientes de la ACF (es
decir, la p,) satisfará la ecuación de diferencia (p, = AIP, _, + a2p,
._ 2 + ••• + app, -_ p). Puesto que las raíces características están en
el interior del círculo unidad, las autocorrelaciones se desintegran
a partir de las lag q. Por otra parte, el patrón de los coeficientes de
autocorrelación imitará la sugerida por las raíces características.
2. El PACF de un (, p q) proceso ARMA comenzará a decaer en el
retardo p. Comenzando en, Lag p, los coeficientes de la PACF (es
decir, el $ “) se imitan los coeficientes de ACF: a partir del modelo
y, / (L + P, L + (32f2 + ••• + PVZ - '') - : podemos ilustrar la utilidad
de las funciones FAS y FAP utilizando el modelo y ,: = u0 + 0.7y,
_, + e ,. Si comparamos los dos gráficos superiores de la figura 2.2,
el ACF muestra la desintegración monotónica de las
autocorrelaciones , mientras que el PACF exhibe el único pico en
el retardo 1. Supongamos que un investigador recoge datos de la
muestra y se representa gráficamente las funciones FAS y FAP. Si
los patrones reales se comparan favorablemente con los patrones
teóricos, el investigador podría tratar de estimar los datos usando
un AR (1 ) modelo.
Las autocorrelaciones muestrales de serie

una sola espiga y la 76


estacionaria
Correspondientemente, si el ACF exhibió
monotónica Cay de- PACF (véase el tercer gráfico de la figura para
el modelo y, = e, - 0.7e, _,), el investigador podría tratar de un (1)
Modelo MA .

Autocorrelaciones muestra de serie


estacionaria

En la práctica, los teóricos media, la


varianza, y las autocorrelaciones de una
(2,38)
serie son desconocidos para el
investigador. Dado que una serie es
estacionaria, podemos utilizar la media (2,39)

muestral, la varianza, y las autocorrelaciones para estimar los


parámetros del proceso real de generación de Data-. Que no haya
Tobservations y etiquetados, a través de yT. Podemos Lety, O2, y rs
estimaciones de p, O2, y P5, respectivamente, donde:

2>
- __ f = l

0,2 _ i = l (2,41
)

y para cada valor de r = 1,2


Las autocorrelaciones muestrales de serie

^ (Y, -yXyw-y) estacionaria 77

[^ + L_ --------------------------------------------------- (2,40)

X0v-y) 2

r=l

La función de ejemplo de autocorrelación [es decir, “la ACF derivado


de (2.40)] y PACF puede ser comparado con diversas funciones
teóricas para ayudar a identificar la naturaleza real del proceso de
generación de datos. Box y Jenkins (1976) discuten la distribución de
los valores de muestra de rs bajo la hipótesis nula de que Y, es
estacionario con errores tribuied normalmente dis-. Vai Permitir (RS),
que indica la varianza del muestreo de rs, obtienen

de s - de s>

si el verdadero valor de r, = 0 [es decir, si el verdadero proceso de


generación de datos es un MA (s - 1) Proceso]. Además, en muestras
grandes (es decir, para valores grandes de 7), r, será normalmente

distribuida con una media igual a cero. Para los coeficientes de FAP,
bajo la hipótesis nula de un modelo AR (p) (es decir, bajo la hipótesis
nula de que todos tji ^> + i son cero), la varianza de los lis §p +
aproximadamente T ~'.
Var (R5) =T
F \
En la práctica,
i + 2y
podemos utilizar estos
valores de muestra para formar la autocorrelación de la muestra y las
Las autocorrelaciones muestrales de serie

la prueba de significación 78
funciones de autocorrelación parcial yestacionaria
utilizando (2.41). Por ejemplo, si se utiliza un intervalo de confianza
del 95% (es decir, dos desviaciones estándar), y el valor calculado de
R, excede 2T u ~, es posible rechazar la hipótesis nula de que

- primer orden de autocorrelación es m: 'ztistically diferente de cero.


Rechazando esta hipótesis significa el rechazo de una MA (j - 1) = MA
(0) proceso y aceptar la q alternativa> 0. A continuación, intente s = 2;
var (r2) es (1 + 2-2''T. V es 0,5 y T 100, la varianza de r2 es 0,015 y la
desviación estándar sobre 0.123. Por lo tanto, si el valor calculado de
i2 excede 2 (0.123), se es posible rechazar la hipótesis r2 = 0. Aquí, el
rechazo de la hipótesis nula significa aceptar la alternativa que q> 1.
repetición para los diferentes valores de s es útil en la identificación de
la orden en el proceso. en la práctica, el número máximo de
autocorrelaciones de la muestra y autocorrelaciones parciales a utilizar
es 774.

Al mirar a través de un gran número de autocorrelaciones, veremos


que algunos exceder de dos desviaciones estándar, como resultado de
la casualidad, a pesar de que los verdaderos valores en el proceso de
generación de datos son cero. El 2-estadística se puede utilizar para
probar si un grupo de autocorrelaciones es significativamente diferente
de cero. Box y Pierce (1970) utilizaron las autocorrelaciones de
muestra para formar la estadística
Las autocorrelaciones muestrales de serie

2 = ^ I> 2 estacionaria 79

k=l

Si los datos se generan a partir de un proceso ARMA estacionario, Q


es asintóticamente X distribuye con s grados de libertad. La intuición
detrás de la utilización de la estadística es que autocorrelaciones de
frecuencias de muestreo conducir a grandes valores de P. Sin duda, un
proceso de ruido blanco-(en la que todas las autocorrelaciones deben
ser cero) tendría un valor Q de cero. Si el valor calculado de Q supera
el valor apropiado en una tabla% 2, podemos rechazar la hipótesis nula
de no autocorrelaciones significativas. Tenga en cuenta que el rechazo
de la hipótesis nula significa aceptar una alternativa no que al menos
uno de autocorrelación es cero, j Un problema con el estadístico Box-
Pierce 2 ~ es que funciona mal incluso en muestras moderadamente
grandes. Ljung y Box (1978) informan de un rendimiento reducido de
la muestra superior para el 2-estadística modificado calculado como

S
Q = T (T + 2) ^ r * / (Tk) ■ |
(2,42)
■ *=I

Si el valor de la muestra de Q calculado a partir de (2.42) supera el


valor crítico de x2 con S grados de libertad, a continuación, al menos
un valor de rk es estadísticamente diferente de cero al nivel de
significación especificado. Los Box-Pierce y Ljung-Box 2-estadísticas
Las autocorrelaciones muestrales de serie

para ver si los residuales de 80


también sirven como una comprobaciónestacionaria
una (p, q) modelo estimado ARMA se comportan como un proceso de
ruido blanco. Sin embargo, cuando formamos las correlaciones s de un
modelo estimado ARMA (p, q), los grados de libertad son reducidos
por el número de coeficientes estimados. Por lo tanto, si se utiliza los
residuos de un modelo ARMA (p. Q), Q tiene ay} con grados SPQ de
libertad (si se incluye una constante, los grados de libertad son spq- \).

Criterios de Selección del modelo


Una pregunta natural de cualquier modelo estimado es: ¿Qué tan bien
se ajusta a los datos? Adición de additiunai queda para p y / o q
necesariamente reducir la S '' ::: de los cuadrados de los residuos
estimados. Sin embargo, la adición de tales retardos implica la
estimación de los coeficientes adicionales y una pérdida asociada de
Degress de libertad. Además, la inclusión de coeficientes extraños
reducirá el rendimiento de la predicción del modelo ajustado. Existen
diversos criterios de selección de modelos que comercializan fuera de
una reducción de la suma de cuadrados de los residuos de un modelo
más parsimonioso. Los dos criterios de selección de modelo más
comúnmente usados son el Criterio de Información de Akaike (AIC) y
el criterio bayesiano Schwartz (SBC), calculado como

AIC = T ln (suma residual de cuadrados) + 2n


SBC = T suma lnfresidual de cuadrados) + n ln (7)
Las autocorrelaciones muestrales de serie

(p + q + posible término 81
estacionaria
donde n =número de parámetros estimados
constante); .
T = Número de observaciones utilizables.
Por lo general en la creación de variables retardadas, algunas
observaciones se pierden. Para comparar adecuadamente los modelos
alternativos, T debe mantenerse fijo. Por ejemplo, con 100 puntos de
datos, estimar un AR (1) y AR (2) usando sólo los últimos 98
observaciones en cada estimación. Comparación de los dos modelos
utilizando T = 98,2

Idealmente, la AIC y SBC serán tan pequeño como sea posible


(tenga en cuenta que ambos puedan ser negativo). Podemos utilizar
estos criterios para ayudar en la selección del modelo más apropiado;
Se dice que el modelo A para encajar mejor que el modelo B si el AIC
(o SBC) de A es menor que para el modelo B. En el uso de los criterios
para comparar modelos alternativos, debemos estimar durante el
mismo período de la muestra para que puedan ser comparables . Para
cada uno, aumentando el número de regresores aumenta rt, pero debe
tener el efecto de reducir la suma residual de cuadrados. Así, si un
regresor no tiene poder explicativo, de añadir a la modelo hará que tanto
el AIC y SBC aumenten. Desde ln (7) será mayor que 2, el SBC siempre
seleccionar un modelo más parsimoniosa que la AIC; el costo marginal
de agregar regresores es mayor con la CBS que la AIC.

De los dos criterios, el SBC tiene grandes propiedades de la muestra


superiores. Deje que el verdadero fin del proceso de generación de
Las autocorrelaciones muestrales de serie

usamos la AIC y SBC para 82


estacionaria
datos de CA (p *. Q *) y supongamos que
estimar los modelos ARMA de orden (p. Q) donde p> p * y q> q *.
Tanto la AIC y SBC seleccionarán los modelos de órdenes superiores
o iguales a (p *. * Q) como el tamaño de la muestra tiende a infinito.
Sin embargo, el SBC es asintóticamente consistente, mientras que el
AIC está sesgado hacia la selección de un modelo overparameterized.

Estimación de un AR (1) Modelo

Usemos un ejemplo específico para ver cómo la función de ejemplo de


correlación y correlación parcial se pueden utilizar como una ayuda en
la identificación de un modelo ARMA. Se utilizó un programa de
ordenador para dibujar 100 números aleatorios distribuidos
normalmente con una varianza teórica igual a la unidad. Llame a estos
variables aleatorias aleatoria e “donde t va de 1 a 100. A partir de t = 1,
los valores de v, se generaron utilizando la fórmula y, = 0,7 V, ^, + e,
y condición inicial yu = 0. Obsérvese que el problema de la no
estacionariedad se evita ya que la condición inicial es consistente con
equilibrio de largo plazo. La gráfica superior izquierda de la Figura 2.3
muestra el correlogram muestra y superior derecha de gráfico El PACF
muestra. Debe tomar un minuto para comparar la ACF y PACF a las de
los procesos teóricas ilustradas en la Figura 2.2.

En la práctica, nunca sabemos el verdadero proceso de gencrating


datos. Sin embargo, supongamos que fueron presentados con estos
valores de muestra 100 y preguntamos a descubrir el verdadero
Las autocorrelaciones muestrales de serie

comparar la ACF muestra y83


proceso. El primer paso podría ser la deestacionaria
PACF a los de los diversos modelos teóricos. El patrón de
descomposición de la ACF y el single

Figura 2.3 ACF y PACF para dos procesos simulados.


ACF para AR (1) Proceso FAP para el proceso
ÁRIDO
0.8
Las autocorrelaciones muestrales de serie
estacionaria 84

gran pico en el FAP muestra sugieren un (i) modelo AR. Los primeros
tres autocorrelaciones son /, = 0.74, r2 = 0.58, y r} = 0,47, que son algo
mayores que los valores teóricos de 0,7, 0,49 (0,72 = 0,49), y 0,343. En
el PACF, hay un pico considerable de 0,74 en el retardo uno y todos
los demás autocorrelaciones parciales (excepto para lag 12) son muy
pequeñas.

Bajo la hipótesis nula de un (0) proceso MA, la desviación estándar


de r> es 7' ~, / 2 = 0,1. Dado que el valor de la muestra de r, = 0,74 es
más de siete desviaciones estándar de cero, se puede rechazar la
hipótesis nula de que r, es igual a cero. *, .c desviación estándar de r2
se obtiene mediante la aplicación de (2.41) para los datos de muestreo,
donde s = 2:

Var (r2) = [l + 2 (0,74) *] /! 00 = 0,021

Puesto que (0.021) 1/2 = 0,1449, el valor de muestra de r2 es de


aproximadamente cuatro desviaciones estándar de cero; a niveles de
significación convencionales, podemos rechazar la hipótesis nula de
que R2 es igual a cero. Podemos probar de manera similar la
importancia de los otros valores de las autocorrelaciones.

Como se puede ver en la segunda parte de la figura, aparte de todas


las autocorrelaciones parciales (excepto para lag 12) son de menos de
2T ~ U1 = 0,2. La decadencia de la ACF y solo pico de la PACF dan la
Las autocorrelaciones muestrales de serie
estacionaria
fuerte impresión de un modelo autorregresivo de primer orden. Si no 85
sabíamos el verdadero proceso subyacente y pasó a estar utilizando
datos mensuales, que podría estar preocupado con la autocorrelación
parcial significativa en el retardo 12. Después de todo, con los datos
mensuales se podría esperar alguna relación directa entre Y, ey, _12.

Aunque sabemos que los datos eran en realidad generan a partir de


un AR (1) proceso, es esclarecedor comparar las estimaciones de dos
modelos diferentes. Supongamos que estimamos un (1) modelo AR y
también tratar de capturar el pico en el retardo 12 con un coeficiente de
MA. Por lo tanto, podemos considerar los dos modelos tentativos:

Modelo 1: y, = a, v, _, + e,
Modo] 2: y, = +E+

Tabla 2.2 los informes de los resultados de los dos estimations.2 El


coeficiente de modelo I satisface la condición de estabilidad | a, I <i y
tiene un bajo error estándar (el asociado /-estadística para una nula de
cero es más de 12). Como una comprobación de diagnóstico útil,
representamos gráficamente la correlogram de los residuos del modelo
equipada en la Figura 2.4. Los tics Q-estadís- para estos residuos
indican que cada una de las autocorrelaciones es inferior a dos
desviaciones estándar a partir de cero. Los Ljung-Box Q-estadísticas
de estos residuos indican que, como grupo, retardos 1 a 8, 1 a 16, y 1 a
24 no son significativamente diferentes de cero. Esta es una fuerte
evidencia de que la AR (1) modelo “se ajusta” los datos también.
Después de todo, si autocorrelaciones residuales fueron significativas,
Las autocorrelaciones muestrales de serie

la información disponible 86
estacionaria
la AR (1) modelo no sería utilizando toda
relativa a los movimientos en el (y, secuencia J. Por ejemplo,
supongamos que deseamos pronosticar y, + l condición de que toda la
información disponible hasta e incluyendo el período t. Con el modelo
1, el valor de y, *, es la siguiente:. Y, = ,, ATY, + e, + 1. Por lo tanto,
el pronóstico del modelo 1 es un año Si los tocorrelations au- residuales
habían sido significativa, esta previsión no se captura todo el conjunto
de información disponible.

Tabla 2.2: Las estimaciones de un AR (1) Modelo

modelo 1 modelo 2
y, = “xy, -i + «, Hurra,-\+ «. + Pi2 «.- i2
Grados de libertad 99 98
Suma de residuos85.2! al 85.17
Estimado a, (error estándar)
0,7910 (0,0622) 0,7953 (0,0683)
cuadrado
P estimada (error estándar) -0,033 CO, 1134)
A1C / SBC AIC = 442,07 / SBC AIC== 444,0 i / SBC =
449,21
444,67
Ljung-Box (3-estadísticas
(2 (8) = 6,43 (0,490) (2(3
(16)
(8) = 6,48 (0,485) (2
para los residuos (nivel
= 15,86
de (0.391) <2 (24)
(16) == 15,75 (0.400) <2
significación 21,74
entre (0,536) (24) = 21,56 (0,547)
paréntesis)
96 Los modelos de series de tiempo
estacionarias

El examen de los resultados para el modelo 2, tenga en cuenta que


ambos modelos producen estimaciones similares para el primer orden
autorregresivo-coeficiente y el error estándar asociado. Sin embargo, la
estimación de p12 es de mala calidad; el valor t insignificante sugiere
que debería ser retirado del modelo. Por otra parte, la comparación de
los valores de AIC y SBC de los dos modelos sugiere que los beneficios
de una suma residual reducida de cuadrados se ven abrumados por los
efectos perjudiciales de la estimación de un parámetro adicional. Todos
estos indicadores apuntan a la elección del modelo 1.

Figura 2.4 ACF de los residuos desde el modo! 1.

Ejercicio 7 al final de este capítulo implica diversas estimaciones


utilizando este conjunto de datos. En este ejercicio se le pide que
demostrar que el AR (1) el modelo se comporta mejor que algunas
97 Los modelos de series de tiempo
estacionarias

especificaciones alternativas. Es importante que complete este


ejercicio.

Estimación de un ARMA (1, 1) Modelo


Un segundo jy,} secuencia se construyó para ilustrar la estimación de
un Arma-(1, 1). Dada 100 valores distribuidos normalmente de la (E,),
100 valores de (y,) se generaron utilizando

> Y, = -0.7y, _1 + e, -

dónde y0 y e0 fueron ambos iguales a cero.

Tanto la ACF muestra y PACF partir de los datos simulados (véase


el segundo conjunto de gráficos en la Figura 2.3) son más o menos
equivalentes a las del modelo teórico mostrado en la Figura 2.2. Sin
embargo, si el verdadero proceso de generación de duta era
desconocida, el investigador podría estar preocupado por ciertas
discrepancias. An (2) modelo de AR podría producir un ACF muestra
y PACF similares a los de la figura. La Tabla 2.3 presenta los resultados
de la estimación de los datos usando los tres modelos siguientes:

Modelo 1: y, = axy, _x + e,

Modelo 2: y, = axy, ^ + e, + p, e,

Modelo 3: y, = AIY, _ {+ ayy, _2 + e,

Al examinar la Tabla 2.3, observe que todos los valores estimados de


una, son muy significativos; cada uno de los valores estimados es de al
menos ocho desviaciones estándar de cero. Está claro que la AR (1)
98 Los modelos de series de tiempo
estacionarias

modelo es inadecuado. El Q-estadísticas para el modelo 1 indican que


no existe autocorrelación significativa en los residuos. El ARMA
estimado (1, 1) el modelo no sufre de este problema. Por otra parte,
tanto la AIC y SBC seleccionar modelo 2 sobre el modelo 1.

Tabla 2.3: Las estimaciones de un (1,1) Modelo ARMA


Estimados* Q-Stntisticsb AIC / SBC
modelo 1un ,: -0,835 (0,053)Q (8) = 26,19 (0.000)
AICQ= 507,3 SBC

modelo 2un ,: -0,679 (0,076)(24)


Q[3(8),:= 41,10
= 3,86(0.001) =
'. 509,9
(0,695)
AIC Q= 481,4 SBC

modelo 3-0.676 (0,08!)


un ,: -1,16 (0,093)(24)
(8)=
Qay. 14,23
- = (0,892)
11,44 = 486,6
(0.057)
AIC Q= 492,5 SBC
0,378 (0,092) (24) = 22,59 (0,424)= 497,7

"Los errores estándar entre paréntesis.


'' Liung-Box (^-estadísticas de los residuales del modelo
empotrado. Los niveles de significación en parenthe-

Con el mismo tipo de razonamiento, el modelo 2 se prefiere modelar


3. Tenga en cuenta que para cada modelo, los coeficientes estimados
son altamente significativas y las estimaciones puntuales implican la
convergencia. Aunque el ^-estadística a los 24 grupos de acción local
indica que estos dos modelos no sufren de residuos correlacionados, el
Q-estadística a las 8 retardos indica la correlación serial en los residuos
de modelo 3. Por lo tanto, el (2) modelo AR no captura a corto dinámica
99 Los modelos de series de tiempo
estacionarias

plazo, así como el modelo (1, 1) ARMA. También tenga en cuenta que
la AIC y SBC tanto seleccione el modelo 2.

Estimación de una (2) Modelo AR

Una tercera serie de datos se simuló como

y, = 0.7y, _, - 0.49y, _2 + e,

Los coeficientes estimados de la FAS y la FAP de la serie son


ACF:

Retraso: 1:0.4655046-0.1607289-0.3216291-0.1077528-0.0518159
-0.1649841
7: -0.0995764 0.12834750.17957180.0343415-0.0869808 -
0.1133948
13: -0,1639613 -0.05790510,11510970.25400390.0460659 -
0,1745434
19: -0,1503307 0.01005100.0318942-0.0869327-0.0456013
0.0516806

FAP:
1: 0.4655046-0.48183440.02250890.0452089-0.2528370 -
0.1206075
7: 0.1011489 0.0367555-0.07587510.0229422-0.0203879 -
0.1391730
13: -0,1671389 0.20669150.00749960.0851050-0.2156580
0.0131360
19: -0,0223151 -0.03240780.0148130-0.06093580.0374894 -
100 Los modelos de series de tiempo
estacionarias

0.1842465

Tenga en cuenta la gran autocorrelación en el retraso de 16 grandes


y autocorrelaciones parciales en los retardos 14 y 17. Teniendo en
cuenta la forma en que el proceso se simuló, la presencia de estas
autocorrelaciones se debe a nada más que el azar. Sin embargo, un
econometrista inconsciente del proceso de generación de datos reales
podría estar preocupado por estas autocorrelaciones. Mediante el uso
de las 100 observaciones de la serie, los coeficientes de la (2) modelo
de AR se estiman como

Error de estimación del coeficiente estándar 1-Importancia


Estadística
un, 0,692389807 0,089515769 7.73484 0.00000000

a2 -0.480874620 0,089576524 -
5.36831 0.00000055

AIC = 219,87333, SBC = 225,04327

: En general, el modelo parece ser adecuada. Sin embargo, los dos AR


(2) coeficientes no son capaces de capturar las correlaciones en los
retardos muy largos. Por ejemplo, el au- parcial Jenkins argumentan
que los modelos parsimoniosos producen mejores torecasts que los
modelos overparameterized. Un modelo parsimonioso ajusta bien los
datos sin incorporar coeficientes innecesarias. El objetivo es aproximar
el verdadero proceso de generación de datos, pero no de precisar el
101 Los modelos de series de tiempo
estacionarias

proceso exacto. El objetivo de la parsimonia sugirió coeficiente de


eliminación de la MA (12) en el simulado AR (1) modelo anterior.

En la selección de un modelo apropiado, la econometrista tiene que


ser consciente de que varios modelos muy diferentes pueden tener
propiedades muy similares. Como un ejemplo extremo, tenga en cuenta
que la AR (1) modelo y, = 0.5yr_, + e, que tiene el equivalente infinito
orden de media móvil representación y, = e, + 0.5e, _, + 0.25e, _2 +
0.125e , _-, + 0.0625e, _j + .... En la mayoría de las muestras, apprpv;.,
" '' Ting este MA (°°) proceso con un MA (2) o MA (3) modelo dará
una muy buena encaja. Sin embargo, la AR (1) modelo es el modelo
más parsimonioso y se prefiere.

También ser conscientes del problema factor común. Supongamos


que queremos encajar el modelo ARMA (2, 3):

(1 - - A2L2) y, = (1 + P | Z- + P2L" + P3L3) e,


(2,43)

Además supongamos que (1 - n, L - a2Lr) y (1 + (3, L + (32L' + P3Z


/ 1) puede cada uno ser factorizado como (1 + Cl) (1 + Al) y (1 + Cl) (l
+ BLL + B2L2), respectivamente Puesto que (1 + cl) es un factor
común a cada uno, (2.43) que tiene el equivalente, pero más
parsimonioso, forma:. 4

(1 + al) y, = (1 + b, L + B2L2) t,
(2,
44)
102 Los modelos de series de tiempo
estacionarias

A fin de asegurar que el modelo es parsimonioso, los distintos a, y /


3; deberían tener /-estadísticas de 2,0 o mayor (de manera que cada
coeficiente es significativamente diferente de cero al nivel del 5%). Por
otra parte, los coeficientes no deben ser fuertemente correlacionadas
entre sí. Coelficients altamente alineados son inestables; por lo general
una o más pueden ser eliminadas del modelo sin reducir el rendimiento
previsto.

Estacionariedad y invertibilidad

La teoría de la distribución subyacente a la utilización de la ACF muestra


y PACF como aproximaciones a los <f el verdadero proceso de
generación de datos asume que la {y,} secuencia es estacionaria. Por
otra parte, /-estadísticas y (J-estadísticas también suponen que el
estacionaria data.are. Los coeficientes autorregresivos estimados debe
ser coherente con esta suposición subyacente. Por lo tanto, debemos ser
sospechoso de un AR (1) modelo si el valor estimado de una , es
cercano a la unidad para una (, 2 q) modelo ARMA, las raíces
características del polinomio estimada (1 - atL- A2L ~). deben estar
fuera del círculo unidad.

El enfoque Box-Jenkins también requiere que el modelo sea


invertible. Formalmente, {y, J es invertible si puede ser representado
por una orden finito o proceso autorregresivo convergente.
103 Los modelos de series de tiempo
estacionarias

Invertibilidad es importante porque el uso de la ACF y PACF asume


implícitamente que el (v,) secuencia puede ser bien aproximada por una
104 Los modelos de series de tiempo
estacionarias
modelo autorregresivo. Como demostración, considere la MM
simple (1) Modelo:

>', = E, “Pl *, - I
(
2,45)

de manera que si | P, | <1,


yj (\ - p, /.) = e,
o

-V, + Pl>; -? I + P y, _2 + Pl ^ -3 + - = e,
(
2,46)

Si 16,1 <1, (2.46) pueden estimarse utilizando el método de Box-


Jenkins. Sin embargo, si IP, I> 1, la {y,} secuencia no puede ser
representado por un proceso AR-orden finito; como tal, no es
invertible. Más en general, para un modelo ARMA para tener una
representación convergente AR, las raíces del polinomio (1 + P, L +
P2L2 + - + p ^ Z, ') deben estar fuera del círculo unidad. Tenga en
cuenta que no hay nada “impropia” de un modelo no reversible. La
secuencia {y,} implícita por y, = e, - e, _, es estacionaria en que tiene
una media invariante en el tiempo constante (Ey, - Ey, _, = 0, una
constante varianza invariante en el tiempo [var ( y,) = var (y, _,) =
a2 (l + P2)], y la autocovarianzas y, = - ~ p, a2 y todos los demás y,
105 Los modelos de series de tiempo
estacionarias
= 0. el problema es que la técnica no permite la estimación de tales
modelos. Si P, = 1, (2.46) se convierte

y, = -o', - 1 + y, ~ 2 - y, -3 + y, - »+ -

Claramente, las autocorrelaciones y autocorrelaciones parciales


entre Y e Y, _s nunca decaer.

Bondad de ajuste

Un buen modelo se ajusta bien a los datos. Obviamente, R2 y el


promedio de la suma de cuadrados residual son comunes “del ajuste
de la bondad” medidas de mínimos cuadrados ordinarios. El
problema de estas medidas es que el “ajuste” mejora necesariamente
como más parámetros se incluyen en el modelo. Parsimonia sugiere
el uso de la AIC y / o SBC como medidas más apropiadas del ajuste
global del modelo. Además, tenga cuidado de las estimaciones que
no logran converger rápidamente. La mayoría de los paquetes de
software estiman los parámetros de un modelo ARMA usando
procedimientos de búsqueda no lineales. Si la búsqueda no converge
rápidamente, es posible que los parámetros estimados son
inestables) En tales circunstancias, la adición de una observación
adicional o dos puede alterar en gran medida, las estimaciones. ■!
. .. 3, ■:

La tercera etapa de la metodología Box-Jenkins requiere la


comprobación de diagnóstico. La práctica habitual es graficar los
residuales para buscar los valores atípicos y las pruebas de los
106 Los modelos de series de tiempo
estacionarias
períodos en los que el modelo no se ajusta bien a los datos. Si todos
los modelos ARMA plausibles
107 Los modelos de series de tiempo
estacionarias
mostrar evidencia de un mal ajuste durante un tiempo
razonablemente largo porción de la muestra, es aconsejable
considerar el uso de análisis de intervención, el análisis de la función
de transferencia, o cualquier otro de los métodos de estimación de
variables múltiples discutidos en los capítulos posteriores. Si la
varianza de los residuos está aumentando, una transformación
logarítmica puede ser apropiado. Alternativamente, es posible que
desee modelar realidad cualquier tendencia de la varianza para
cambiar el uso de las técnicas de ARCH discutidos en el Capítulo 3.

Es particularmente importante que los residuos de un modelo


estimado en serie sean unconeiated. Cualquier evidencia de
correlación serial implica un movimiento sistemático en la {y,}
secuencia que no se explica por los coeficientes ARMA incluidos en
el modelo. Por lo tanto, cualquiera de los modelos tentativos
produciendo residuos no aleatorias deben ser eliminados de la
consideración. Para comprobar si hay correlación en los residuos, la
construcción de la ACF y PACF de la residualx del modelo
estimado. A continuación, puede utilizar (2.41) y (2.42) para
determinar si alguna o todas las autocorrelaciones residuales o
autocorrelaciones parciales son estadísticamente significant.5
Aunque no existe un nivel de significancia que se considera “más
adecuada,

En la sección anterior, recordar que la AR estimada (1) modelo


tenía Box-Ljung ^-estadísticas que indica un posible término MA en
108 Los modelos de series de tiempo
estacionarias
lag 12. Como resultado, también se estimó el modelo y, = 0.7953y,
_, + e, - 0.033e, _l2. El procedimiento de añadir otra se llama
coeficiente de sobreajuste. Overfit un modelo si las ACF y de
rendimiento PACF implicaciones ambiguas iniciales en relación con
la forma adecuada de los coeficientes ARMA. En el primer ejemplo,
el AR (1) modelo (es decir, modelo”1) superado la ARMA (1, 1)
modelo. Obviamente, en otras circunstancias, el modelo “overfitted”
puede superar el primer modelo. Como una comprobación de
diagnóstico adicional, algunos investigadores se overfit un modelo
mediante la inclusión de un coeficiente en algún retardo
seleccionado aleatoriamente. Si tales sobreajuste afecta en gran
medida el modelo, el modelo estimado es probable que el
rendimiento malos pronósticos.

Si hay suficientes observaciones, se ajusta el mismo modelo


ARMA a cada uno de dos submuestras puede proporcionar
información útil relativa a la suposición de que el proceso de
generación de datos es inmutable. En el (2) modelo AR estimado en
la última sección, la muestra se dividió por la mitad. En general,
supongamos que calculó un modelo ARMA (/ ?, <?) Con un tamaño
de muestra de T observaciones. Denotar la sum.of los residuos al
cuadrado como SSR. Dividir las observaciones T en dos
submuestras con observaciones tm en la primera y T “observaciones
= T- tm en el segundo. Use cada submuestra para estimar los dos
modelos:
109 Los modelos de series de tiempo
estacionarias
y, - a0 (\) + 0 | (l) y, _, + - + p (\) y “P + E, + PDL) s, -i + - y, =« 0
(2) + «, (2) y, _i + + ap (2) Pi (2) e Y, _r + e, +, _, +

+ PV (2) £, _,
utilizando ............. ....... ESO

+ P </ I) v ,?
usando r, t

Deje que la suma de los cuadrados de los residuos de cada modelo


sea SSR, y ssr2. respectivamente. Para probar la restricción de que
todos los coeficientes son iguales [es decir, A0 (1) = a0 (2) y a, (l) =
fl, (2) y. . . ap (I) = AP (2) y (3, (1) = (3, (2) y (3, (1) = (3/2)], utilice
un / "- test y la forma...: 6

(SSR-SSR, -SSR2) / (/ I)

' ' ~ (SSR1 + Ssr2) / (7--2r!)


(2,47)
110 Los modelos de series de tiempo
estacionarias
donde n = Número de parámetros estimados (n = p + q + 1 si se incluye una
intersección y p + q de otro modo) el número de grados de libertad
son (n, T - 2n).
Intuitivamente, si la restricción de que los dos conjuntos de
coeficientes no es vinculante, el total de los dos modelos (es decir,
SSR, + ssr2) debe ser igual a la suma de los residuos al cuadrado de
toda la estimación de la muestra. Por lo tanto, F debe ser igual a cero.
Cuanto mayor sea el valor calculado de F, más restrictiva es la
suposición de que los dos conjuntos de coeficientes son iguales.

Del mismo modo, el modelo puede ser estimado durante casi todo
el período de la muestra. Si usamos 20 años de datos trimestrales,
por ejemplo, el modelo puede ser estimado utilizando sólo los
primeros 19 años de datos. A continuación, el modelo puede ser
utilizado para hacer previsiones del último año de datos. Para cada
período de f, el error de pronóstico es la diferencia entre la previsión
y el valor conocido de y ,. La suma de los errores de predicción al
cuadrado es una forma útil para comparar la adecuación de los
modelos alternativos. Esos modelos con mala ambulatorios
previsiones de la muestra deben ser eliminados. Algunos de los
detalles de la construcción de ambulatorios previsiones de muestras
se analizan en t re siguiente sección.

9 LA FUNCIÓN PRONÓSTICO
111 Los modelos de series de tiempo
estacionarias
Quizás el uso más importante de un modelo ARMA es predecir
valores futuros de la {y,} sequence.7 Para simplificar la discusión,
se supone que el proceso real de generación de Datos- y
realizaciones actuales y pasados de la (e), y {y,} secuencias son
conocidas para el investigador. En primer lugar, tenga en cuenta las
previsiones de la AR (1) modelo y, = ao + <h> Vi + £ / •
Actualización de un período, obtenemos.

Y, + i = FL0 + «i>', + e, +.

Si conoce los coeficientes a0 yn ,, se puede pronosticar y, +,


condicionado a la información disponible en el período t como

£, V, + 1 = «o +« i V,
(
2,48)

donde E, Y, + j = Una manera corta a mano para escribir la esperanza


condicional de y ■ dada la información disponible en /

Formalmente, E, y “j = E (yrtj I y“y, _ ,, y, _2 mi" ).

€ (+,. la previsión de y, + 2 condicionado en


De la misma manera, puesto que y, + 2 - ao + ni> la información
disponible en el período t es

y el uso de (2.48), obtenemos


112 Los modelos de series de tiempo
estacionarias
Debe noi requerir demasiado £, _V, * 2 - CJ | l.'i) + "+ Vh” mucn
Lu esfuerzo convencerse de que
E, Y, ^ = A0 + A0A, + ana] + a] y,

: <30 (1 + a, +a] + - + ') + Vr (2,50)


E, Y,
-

y en general,

La ecuación (2.50) -llamado las previsiones de función-


rendimientos que-paso por delante previsiones

para cada valor Desde II <1. (2,50,


y.eMs, ^
|
yesos Si tomamos el límite de lo j - »nos encontramos con que Ey,
+ j -> Ajv a). lh resultado es realmente muy general. Para cualquier
modelo ARMA estacionario, el condicional de y para la fundición •
converge a la media incondicional como j - * Por desgracia las
previsiones de un modelo ARMA no serán perfectamente preciso.
Previsión del período de tiempo t, podemos definir la ./-step error
por delante pronosticar, /, (/) - como la diferencia entre el valor
realizado de yt + j y el valor pronosticado.
■ E,
f, U) Y,

Por lo tanto, el error de un solo paso por delante previsión es: /, (1)
- Y, + 1 ey, +,
113 Los modelos de series de tiempo
estacionarias
porción “unforecastable” de Y, + 1 dada la información mt
disponible). Para encontrar la

De dos pasos por delante de error pronosticado, necesitamos formar


/, (2) Y,2 Ar + 2-
iNCE > 5 + 2 o
ola0 + ah, + E, + 2 + «, T +, y £, y, + 2 = n0 +«, ««, + a? *, Se deduce
que

f. (2) = e, .u + a, e “

Usted debe tomar un momento para demostrar que para el (1)

+ + + (2,51)
j) = A +, + «| 6, + yi +
f, U):
modelo AR, Y 'el paso por delante error de pronóstico está dado por

La ecuación (2.51) muestra que las previsiones de 50 £) ^ ^ campo


Ased estimaciones de cada valor v La prueba es trivial; desde £, e,,
-. £, e, + yi - L'c, + i 'expectativa cional de (2.51) es £, /, (y) = 0.
Puesto que el valor esperado del error de pronóstico es cero, las
previsiones son imparciales.

Aunque no sesgada, las predicciones de un modelo ARMA son


necesariamente inexacta. Para encontrar la varianza del error de
pronóstico, seguir asumiendo que los elementos de la {e,} secuencia
son independientes con varianza a2. Por lo tanto, a partir de (2.51)
la varianza del error de pronóstico es

Var [/, (/)] = 02 [1 + a] + a * + A® + ••• +


114 Los modelos de series de tiempo
estacionarias
a2CM)]

(2,52)

Dado que la varianza del error de predicción de un solo paso es a2,


el de dos pasos varianza del error por delante previsión es a2 (l +
a2), etc. El punto esencial tener en cuenta es que la varianza del error
de pronóstico es una función creciente de j. Como tal, puede tener
mor ^ tucilCC semen en corto plazo en lugar de previsiones a largo
plazo. En el límite cuando j -> «>, la varianza del error de predicción
converge a A2 / (l - a2); por lo tanto, la varianza del error de
predicción converge a la varianza incondicional de la Y,} secuencia
(.

Por otra parte, en el supuesto de que la secuencia {€,} se distribuye


normalmente, puede colocar los intervalos de confianza alrededor de
los pronósticos. La un paso por delante previsión de y (+, es a0 +
ATY, y la varianza es a2. Como tal, el intervalo de confianza del
95% para la etapa de uno por delante pronóstico puede ser
construido como

a0 + a , Y, ± 1,96a

De la misma manera, los dos-paso por delante previsión es a0 (l +


a,) + a \ y, y (2.52) indica que var [/, (2)] es A2 (l + a?). Por lo tanto,
el intervalo de confianza del 95% para el paso de dos por delante
previsión es
115 Los modelos de series de tiempo
estacionarias
a0 (1 + a,) + a] y, ± 1,96o (1 + af) l / 2

Por supuesto, si hay alguna incertidumbre en cuanto a los


parámetros, los intervalos de confianza será más ancho que los
reportados aquí.

Las previsiones iterativos

La derivación de (2.50) - la función de pronóstico para un AR (1)


modelo de basó en la iteración hacia adelante. Para generalizar la
discusión, es posible utilizar la técnica iterativa para derivar la
función de pronóstico para cualquier modelo ARMA (p, q). Para
mantener el álgebra simple, considere la ARMA (2, 1) Modelo:

y, = a0 + A, Y, _, + a ^ y, _2 + e, + P, e
(_,

(2,53)

Actualización de uno rendimientos período

y, +, = FL0 + A1Y, + a2y, _, + e, + 1 + p, e,

Si seguimos suponiendo que (1) se conocen todos los coeficientes;


(2) todas las variables t subíndice, t- 1, t - 2, etc. Se conocen al
período r; y (3) E, € ni = 0 para j> 0, la expectativa condicional de
Y, + L es

£ TV, + | = «O + TFI>', +« z.Vi +


Pit,
116 Los modelos de series de tiempo
estacionarias

(2,54)

La ecuación (2.54) es la de un solo paso por delante previsión de


v, + l. Para encontrar a los dos pasos por delante pronosticar,
actualización (2.53) por dos períodos:

Y, + 2 - an + nl »Hl + a2 + EI + 2 + Pie, + I

La expectativa condicional de Y, + 2 es

= «» + «I £ <y, + i +
ay,

do ^

La ecuación (2.55) expresa los dos pasos por delante pronosticar


en términos de un paso por delante pronosticado y el valor actual de
y ,. La combinación de (2.54) y (2.55) los rendimientos

E, Y, + i = ao + ai (0O + a> y, + AZV-I + Pie,) + ay,

= A0 (l + al) + (A2L + a2) y, + aia7y, _L + alfil'i,


Usted debe ser capaz de demostrar que los tres pasos por delante
previsión es

£ <> Vi = O0 + a, Eyn2 + n2E, y, + 1


= A0 + a, (a0 (l + a,) + [A2T + a2] y, + a, mi,., + +
117 Los modelos de series de tiempo
estacionarias
aAa0 + a <y, + ATFn + P, e,)
= A0U + a2) + (a] + 2a, a2) y, + ( «un YA2 + \ + a \ + |?) Y, _, + P,
(a + a2) e
,

(2,56)

Por último, ally' paso por delante previsiones se puede obtener de

Ej, ^ = AQ + aiEy, + j_ {+ A2E, y, + J_ :. js 2. -


,

(2,57)

Las ecuaciones (2.56) y (2.57) sugieren que las previsiones se


satisfacer una ecuación de diferencia de segundo orden. Mientras las
raíces características de (2.57) se encuentran dentro del círculo
unidad, las previsiones se coverge a la media incondicional a0 / (1 -
a - a2).

Una derivación alternativa de la función de la previsión


En lugar de utilizar la técnica iterativa, a menudo es preferible para
derivar la función de predicción utilizando la metodología solución
discute en la Sección 4 del Capítulo 1. Para cualquier modelo
ARMA (p, q), la técnica de solución implica (1) la búsqueda de todas
las soluciones homogéneas; (2) la búsqueda de la solución
particular; (3) la formación de la solución general como la suma de
118 Los modelos de series de tiempo
estacionarias
las soluciones homogéneas y particulares; y (4) la imposición de las
condiciones iniciales. Esta metodología solución expresará y, en
términos de la p condiciones iniciales y0, y ,,. . ., Y q valores iniciales
e0, e ...................................................................... El único giro es
que la

función de la previsión expresa y, + j en términos de y ,.


............................................................................... .. .... Y, -P + iy €
,, e, _,

er _, + 1. Para ilustrar la modificación apropiada de los subíndices


de tiempo, considere el (2) modelo de AR;

v, ~ 3 + 0.9V, _, - 0.2y, _2 + e,

En la Sección 8 del Capítulo 1, se demostró que la solución es

=
10 + (0,4) '[5 (>' 0 - 10) - 10 (> '-10)] + (0,5)' [10 (^ | - 10) -4 (
“-i0 _y)] + ^ a ; €, _ ,.

donde los valores de a, satisfacen una, = 5 (0.5) '- 4 (0.4)'.

El problema es modificar este conation para expresar il + J en


términos de v ,. v, ,, y el {e,} secuencia. Actualización por periodos
j, encontramos "

Y, + j = 10 + (0,4)'[5 (> v_, - 10) - 10 (y, - 10)]

+ (0,5) '[10 (y, - 10) - 4 (y “, - 10)] + £ a, .e, +; _,


119 Los modelos de series de tiempo
estacionarias
t=0

Tomando la expectativa condicional de Y, + J se obtiene la


función de predicción:

mi
, Y, Y = 10 + (0.4y [50' , _, - 10) - 10 (_v, - 10)] + (0.5y [10 (y, -
10) - 4 (y, _, - 10)]

Obviamente, a medida; aumenta, la previsión se aproxima a la


media incondicional de 10 Para practicar, probar el ARMA (1, 1)
Modelo:

y, = FL0 + aLy, _, + e, +

donde (e,) es un proceso de ruido blanco, | n, | <I, y hay una


condición inicial dada para To-

. Usted sh ° ULD reconocer que la ecuación homogénea v, - A,


Y, _] = 0 tiene la solución A (a, y, donde A es una constante
arbitraria A continuación, utilice "operadores de espera para
obtener la solución particular como.
v, = a0 / (l- «i) + e, / (LA, L) + P, e, _, / (LO, L)
(
2,58)

de modo que la solución general es

y, -a “/ (l«,) + + (3, ■ + (2,5


9)

Automóvil club británico\


120 Los modelos de series de tiempo
estacionarias
i-0 i-0

Ahora imponer la condición inicial para y “. Puesto que (2.59)


debe mantener durante todos los períodos, incluyendo el período
cero, se deduce que

A - “-rt VO |) + ^ + Pl ^ n | e_l_i+ A 1 = 0 ,=O (2,60)

Resolución de (2,60) para una elimina la constante arbitraria. Combinando


(2.59) y (2.60), obtenemos

así que eso


»= N 1=0

Para este punto, (2,6!) Es simplemente la solución general de la


ecuación de diferencia estocástico representado por un proceso
ARMA (, 1 1). Esta solución expresa el valor actual deY, en función
121 Los modelos de series de tiempo
estacionarias
de las constantes un0 , y P , . ( E , ) s e c u e n c i a , y e l
valor inicial de v0.

El punto importante es que (2.61) se puede utilizar para


pronosticar y, condicionado a la información disponible en el
período cero. Dada 0e £, - = 0 parai> 0, se deduce que

£ oy, = OO / 0 -ap + Pia'r'eo + Lv'n-Vd ~ ai) M


La ecuación (2.62) se puede ver como el t-paso por
delantefunción de la previsión dada la información disponible en el
período cero. Para formar elj-paso por delante previsiones
acondicionado en información disponible en t, primero cambiar el
subíndice vez en (2.62), de modo que paso por delante previsiones
son

£ Avy = 0,7 (1 -FL,) + P, c <r' eo + bh -a ^ l - «i)] r4


= [ «, / (- a,) l (l - {IR) + Pri'i 'eo +}' ua \
A continuación, la actualización (2.63) por t de manera que los
períodos

£, y, +; = [N (/ (l - «i) K 1 - a \) + 'E, + yp

La ecuación (2.64) es en la forma deseada; (2.64) expresa la


previsión de v, +; condicionado a la información disponible en el
periodoyo. El variousy paso por delante previsiones son

£ <> AI = «O + + aj,
122 Los modelos de series de tiempo
estacionarias
£>', + o = [ «“/ (-! «,)] (1- «]) + P, A, E, + v ^ E, Y, “, = [ «“/ (1 -
«iM (1 - <I '\) + Pi «7er + r / 7!

Dado que I a, I <1, el valor límite de la previsión como j -> ° o; s


la media incondicional: lim E, il + J = aj {1 - a,).

Como comprobación, se puede comparar (2.64) a (2.50); después


de todo, la AR (1) y ARMA (1, 1) modelos son equivalentes si (3, =
0. Si [3, = 0, (2.64) se convierte

E, il + i = [aj {\ - fl |)] (1 -a \) + Y, A \
(
2,65)

Tenga en cuenta que (2.65) es idéntica a (2.50); para | a, | <1,

;-yo \ . .. .

° Oxa! = Tao / ( '- ai)] (LO /)

, ■. ; 1 = 0 '

El ejemplo ilustra el punto básico de que para cualquier modelo


ARMA (p, q), la función de previsión para Y, + j tendrá la forma

y> + j= «OO ') + ai (j) y, + Chu) y, ~ \ + ••• + aP (j) y, -P * t + y, OX + - +


(
2,66)
123 Los modelos de series de tiempo
estacionarias
dónde todos los valores de a, (j) e Y, (;) son coeficientes
indeterminados.

La notación a, {j) e y, 0) está diseñado para destacar el hecho de que


los coeficientes son una función de j. Puesto que estamos trabajando
con procesos estacionarios y invertibles, sabemos que la naturaleza
de la solución es tal que como j -> ° oo £ <, (/) -> aj {1 - ZAF), a,
(y) -> 0, y que e [y, 0' )] 2 es finito.

En la práctica, no se sabe el orden real del proceso ARMA o


coeficientes de ese proceso. En su lugar, para crear proyecciones
fuera de la muestra, es necesario el uso de los coeficientes estimados
a partir de lo que usted cree que es la forma más apropiada de un
modelo ARMA. La regla general es que los pronósticos de un
modelo ARMA nunca se debe confiar en si el modelo se estima con
menos de 50 observaciones. Suponga que tiene T observaciones de
la (, y) secuencia y elegir para adaptarse a una (2, 1) modelo a los
datos ARMA. Permiten un sombrero o intercalación (es decir: a ~)
durante un parámetro denotan el valor estimado de un parámetro y
dejar {€,} denotan los residuos del modelo estimado. Por lo tanto, la
AR estimada (2, 1) modelo puede ser escrito como

y, = «O + A, Y, -1 +« 2.v, -2 + e, + p, e, -,

Teniendo en cuenta que la muestra contiene T observaciones, las


predicciones fuera de la muestra se construyen fácilmente. Por
124 Los modelos de series de tiempo
estacionarias
ejemplo, puede utilizar (2.54) para pronosticar el valor de año +,
como se

^ 7.vr + i = ^ o + «i.V7 +«:>»- 1 + Ple7-


(
2,67)

Teniendo en cuenta los valores estimados ofd0, d |, andd2, (2.67)


puede ser fácilmente construido utilizando el año valores reales, y7_
,, y ER (es decir, el último residuo de su modelo estimado). Del
mismo modo, la previsión de yT + 2 puede ser construido como

7yr £ + 2 = d0 + af Ryn £, + «2) 'r

donde ETYT + x = La previsión a partir de (2.67):

Teniendo en cuenta estos dos previsiones, todas las previsiones


posteriores se pueden obtener de la ecuación en diferencias:

E7-.Vr + j = G <> + «i £ 7-yr * /. I + a2 fotjZl

10. un modelo de la WPL

Las estimaciones realizadas ARMA en la Sección 8 eran casi


demasiado sencillo. En la práctica, rara vez encontramos una serie
de datos se ajusten con precisión a un ACF teórico o FAP. Esta
sección está destinada a ilustrar algunas de las ambigüedades que se
encuentran frecuentemente en la técnica Box-Jenkins. Estas
ambigüedades pueden conducir dos económetras igualmente
125 Los modelos de series de tiempo
estacionarias
capacitados para estimar y pronosticar una serie de muy diferentes
procesos ARMA. Muchos ven en la necesidad de depender de un
juicio y experiencia del investigador como una seria debilidad de un
procedimiento que está diseñado para ser científica.

Es útil para ilustrar el procedimiento de modelado de Box-Jenkins


mediante la estimación de un modelo trimestral del índice de precios
al por mayor de los Estados Unidos (WPI). El archivo llamado
WPI.WKl en el disco de datos contiene los datos utilizados en esta
sección. Ejercicio 10 al final de este capítulo le ayudará a reproducir
los resultados se presentan a continuación.

El gráfico superior de la figura 2.5 revela claramente que no tiene


mucho sentido en el modelado de la serie como siendo estacionario;
hay una tendencia claramente positiva o la deriva a lo largo del
período de 1960: 1 a 1990: IV. La primera diferencia de la serie
parece tener una media constante, aunque la inspección del gráfico
central sugiere que la varianza es una función creciente del tiempo.
Como se muestra en el gráfico inferior de la misma figura, la primera
diferencia del logaritmo (denotado por AIwpi) es el candidato más
probable que sea estacionaria covarianza. La gran volatilidad del
IPM que acompaña a las crisis del petróleo en la década de 1970 nos
debe hacer un poco cuidadoso de la suposición de que el proceso
está parado covarianza. En este punto, algunos investigadores harían
transformaciones adicionales destinados a reducir la volatilidad
exhibida en la década de 1970. Sin embargo, parece razonable
126 Los modelos de series de tiempo
estacionarias
estimar un modelo de la (, AIwpi) secuencia. Como siempre, usted
debe mantener un escepticismo sano de la exactitud de su modelo.

.. Antes de seguir leyendo, usted debe examinar las funciones de


autocorrelación y autocorrelación parcial de la secuencia (AIwpi,}
se muestra en la Figura 2.6 Trata de identificar los modelos
tentativos que usted desea para estimar Al tomar su decisión, tenga
en cuenta lo siguiente:

1 El FAS y la FAP convergen a cero razonablemente rápido. No


queremos a overdifference los datos y tratar de modelar el 2lwpi,)
secuencia de \ &.

2 El ACF teórica de un proceso puro MA (q) corta a cero al retardo


de q y el ACF teórica de un AR (1) modelo decae geométricamente.
El examen de los dos gráficos de la figura 2.6 sugiere que ninguna
de estas especificaciones parece apropiado para los datos de la
muestra.

3 El FAP es tal que <j>,, = 0.609 y corta a 0.252 abruptamente (es


decir, <}) 22 =
0. 252). En general, el PACF sugiere que debemos
considerar modelos tales asp = 1 y p = 2. El ACF es sugerente de un
(2) Proceso de AR o un proceso con ambos componentes promedio
autorregresivos y móviles.
4 Tenga en cuenta el salto en ACF en el retardo 4 y el pequeño pico
en el FAP en el retardo 4 (<{> 4 4 =
127 Los modelos de series de tiempo
estacionarias
0. 198). Puesto que estamos utilizando datos trimestrales,
que MIGM desea incorporar un factor de temporada en lag 4.

Figura 2.5 EE.UU. índice de precios al por mayor (1985 = 100).

1960 1966 1972 1978 1984 1990

el cambio logarítmico en el WPI


1. Los puntos 1 a 4 sugieren un ARMA (1, 1) o AR (2) modelo.
Además, es posible que desee considerar los modelos con un término
de temporada en el retardo 4. Dado que el tiempo de cálculo es de
bajo costo, podemos estimar una variedad de modelos y comparar
sus resultados. Tabla 2.4 se presentan estimaciones de cinco
modelos tentativos; tenga en cuenta los siguientes puntos:5

5 El AR estimada (1) modelo confirma nuestro análisis en la etapa de


identificación. Aunque el valor estimado de un, (0.618) es menor que la
unidad, en valor absoluto y más de ocho desviaciones estándar de cero, el AR
(1) especificación es enadecuado. La formación de la Ljung-Box ^-estadística
para 12 retardos de los residuos produce un valor de 23,6; podemos rechazar
la hipótesis nula de que Q = 0 en el nivel de significación del 1%. Por lo tanto,
los residuos retardados de este modelo exhiben autocorrelación serial
sustancial. Entonces tenemos que eliminar este modelo de la consideración.
La (2) modelo de AR es una mejora sobre la AR (1) especificación.
Los coeficientes estimados (a, = 0.456 y a2 = 0,258) son cada uno
significativamente diferente de cero al nivel del 1% e implican raíces
características en el círculo unidad. dísticas Q-esta- indican que las
autocorrelaciones de los residuos no son estadísticamente
significativas. Como medida por el A1C, el ajuste de la (2) modelo
de AR es superior a la de la AR (I); el SBC es el mismo para los dos
modelos. En general, el AR (2) modelo domina la AR (1)
especificación.
El ARMAfl, I) especificación del modelo dominan ARF2). Los
coeficientes estimados son de alta calidad (con valores t de 14,9 y -
4,22). El valor estimado de una, es positivo pero menor que uni'y y
el Q-s'ntistic' indir-nte que las autocorrelaciones de los residuos no
son estadísticamente significativas. Por otra parte, todas las medidas
de bondad de ajuste seleccionar el ARMA (1, 1) Especificación sobre
el (2) modelo de AR. Por lo tanto, hay pocas razones para mantener
la AR (2) especificación.

4. Tabla 2.4: Las estimaciones de las WPI (primeras diferencias


tl II pies,

logarítmicas)
p~l P- 1 <7 = 1,4
P = 1 </ = 2
i 11 Se

?0,011
=O 0,011 0,012 0,011 0,012
(4,14) (3,31) (2,63) (2,76) (2,62)
0| 0,618 0,456 0,887 0,791 0,887
(8,54) (5,11) (14.9) (9,21) (13.2)
0,258
(2,89)
PAG. -0.484 -0.409 -0.483
(-4-22) (-3,62) (-4,19)
P2 -0.002
(-0,019)
?4' 0,315
(3,36)
SSR 0,0156 0,0145 0,0141 0,0134 0,0141
AIC -503.3 -506.1 -513.1 -518.2 -511.1
SBC -497.1 -497.7 -504.7 -507.0 -499.9
0 (12).
23,6 (0,008)11,7 (0,302) 11,7 (0,301)4,8 (0.898) 11,7 (0,301)
0 (24)28,6 (0,157)15,6 (0,833) 15,4 (0,842)9,3 (0.991) 15,3 (0,841)
0 (30)40,1 (0,082)22,8 (0,742) 22,7 (0,749)14,8 (0,972)22,6 (0,749)
Un modelo del IPM 109

notas: Cada coeficiente se informa con el r-estadística asociada para


la hipótesis nula de que la esli- acoplado valor es igual a cero.
RSS es la suma de los residuos al cuadrado.
Q (n) informa de la Ljung-Box (9-estadística para las
autocorrelaciones de los n residuos del modelo estimado. Con 122
observaciones, 7/4 es aproximadamente igual a 30. Los niveles de
significación están entre paréntesis.

Con el fin de dar cuenta de la posibilidad de la estacionalidad, se


estimó el ARMA (1,
1) modelo con un coeficiente de media móvil adicional en el retraso
4, es decir, se estima un modelo de la forma y, = aa + + E +
PAG, E, _, + P4e, _4. más Sophistipatrones estacionales CATed se
consideran en la siguiente sección. Por ahora, tenga en cuenta que la
expresión aditivo P4e, _4 es a menudo preferible a un término
autorregresivo aditivo de la forma <74v, _4. Para choques
verdaderamente estacionales, la expresión P4e, _4 mejores picos, no
capta las caries en los retardos trimestrales. Los coeficientes de la
ARMAfl estimado, (1, 4) J modelo son todos altamente significativa
con r-estadísticas de 9.21, -3.62, y 3.36.8 Los ^-estadísticas son
todos muy bajo, lo que implica que las autocorrelaciones de los
residuos son estadísticamente igual a cero. Por otra parte, la AIC y
Sea.sonu /
SBC seleccionar fuertemente este modelo sobre el modelo ARMA 110
IFV

(1,1).

En contraste, el ARMA (1, 2) contiene un coeficiente superfluo. El


/-estadística para p, es suficientemente baja para que debemos
eliminar este modelo.

Después de haber identificado y estimado un modelo plausible,


queremos realizar comprobaciones de diagnóstico adicionales de
adecuación del modelo. Debido a la alta volatilidad en la década de
1970, la muestra se divide en los dos subperiodos: 1960: 1 a 1971: 1
V y 1972: 1 a 1990: 1 V. Modelo estima para cada subperíodo se
Ahvpi, = 0,004 + 0,641 MWPI, _, + e, - 0,35 U, _, + 0.172 (1960:
1-1971: 1V) y

A / vvpt, = 0,016 + 0.753AZvvpt, _ | + E, - 0.394e, _, + 0.335e, _4


(1972: 1 a
1990: IV)

Los coeficientes de las dos modelos parecen ser bastante similar;


podemos probar formalmente por la igualdad de coeficientes usando
(2.47). Respectivamente, las sumas de cuadrados de los residuos
para los dos modelos son SSR, = 0,001359 y ssr2 = 0,011681, y de
la Tabla 2.4 podemos ver que SSR = 0,0134. Desde T = 122 y n = 4
(incluyendo la intersección significa que hay cuatro coeficientes
estimados), (2.47) se convierte
Sea.sonu /
F = [(0,0134 a 0,001359 - 0,011681) / 41 / [0,001359 + 0,011681)
IFV 111

/ (122-8)]

= 0.78681

Con 4 grados de libertad en el numerador y 114 en el


denominador, no se puede rechazar la hipótesis nula de ningún
cambio estructural en los coeficientes (es decir, se acepta la hipótesis
de que no hay ningún cambio en los coeficientes estructurales).

Como comprobación final, se construyeron fuera de la muestra


de previsiones para cada uno de los dos modelos. Mediante el uso de
los datos adicionales a través de 1902: 11, la varianza de los errores
de predicción fuera de muestra de la ARMA (1, 1) y ARMA [I. (1,4)]
modelos se calcularon para ser 0,00011 y 0,00008, respectivamente.
Evidentemente, todos los diagnósticos seleccionar el ARMA [1,
(1,4)] modelo. Aunque el ARMA [1. (1,4)] modelo parece ser
adecuada, otros investigadores podrían haber seleccionado un
modelo decididamente dilferent. Considere algunas de las
alternativas que se listan a continuación:

Tendencias: Aunque el cambio logarítmico de la venta al por mayor


WPI parece ser parado, el ACF converge a cero con bastante
lentitud. Por otra parte, tanto el ARMA (1, 1) y ARMA [1, (1,4)]
modelos de rendimiento valores estimados de a, (0,887 y 0.791,
respectivamente) que están cerca de la unidad. Algunos
investigadores podrían haber elegido para modelar la segunda
Sea.sonu /
los datos 112
diferencia de la serie. Otros podrían haber sin tendencia deIFV
utilizando una tendencia temporal determinista. Capítulo 4 se
analizan las pruebas formales de la forma apropiada de la tendencia.
La estacionalidad de me UATA se modeló utilizando un término
promedio móvil en el retardo 4: Sin embargo, hay muchas otras
maneras plausibles para modelar la estacionalidad en los datos,
como se discute en la siguiente sección. Por ejemplo, muchos
programas de ordenador son capaces de estimar los coeficientes
estacionales multiplicativos. Considere el modelo estacional
multiplicativo:
(1 - AXL) y, = (1 + P, L) (1 + p4L4) e,

Aquí, la expresión temporal P4e, _ ^ entra en el modelo en un


multiplicativo, en lugar de una lineal, moda. Experimentar con
diferentes coeficientes multiplicativos de temporada podría ser una
manera de mejorar el rendimiento de la predicción.

Dada la volatilidad de la {Alwpi,} secuencia durante la década de


1970, el supuesto de una varianza constante no puede ser apropiado.
La transformación de los datos utilizando una raíz cuadrada, en lugar
de logaritmo, puede ser más apropiado. Una clase general de
transformaciones fue propuesto por Box y Cox (1964). Supongamos
que todos los valores de {y,} son positivos de manera que es posible
construir la secuencia transformada (y *) como

y * = (y, x 1) / A., X AO
Sea.sonu /
= Ln (y,), 3- = 0 IFV 113

La práctica común es transformar los datos mediante un valor


preseleccionado de X. La selección de un valor de x que es cercano
a cero actúa para “alisar” la secuencia. Como en el ejemplo WPI
(que simplemente establecer X = 0), un modelo ARMA puede estar
en forma para los datos transformados. Aunque algunos programas
de software tienen la capacidad para estimar de forma simultánea X
junto con los otros parámetros del modelo ARMA, este enfoque ha
caído en desuso. En cambio, es posible modelar realidad la varianza
usando los métodos descritos en el Capítulo 3.

11. ESTACIONALIDAD

Muchos procesos económicos presentan algún tipo de


estacionalidad. Los, la construcción y los sectores agrícolas de viaje
tienen patrones estacionales obvias que resultan de su dependencia
de las condiciones meteorológicas. Del mismo modo, la temporada
de vacaciones de Acción de Gracias-Navidad tiene una marcada
influencia en el comercio minorista. De hecho, la variación
Sea.sonu /
estacional de algunas series puede dar cuenta de la preponderancia
IFV 114

de su varianza total. previsiones que


estacionalidad 113
ignorar los patrones estacionales importantes tendrán una alta
varianza. En la última sección, hemos visto cómo la inclusión de un
factor estacional de cuatro trimestres podría ayudar a mejorar el
modelo del IPM. Esta sección amplía que la discusión por ilustra
algunas de las técnicas que se pueden utilizar para identificar los
patrones de temporada.

Hay demasiadas personas que caen en la trampa de ignorar la


estacionalidad si están trabajando con datos desestacionalizados o
desestacionalizados. Supongamos que recoja un conjunto de datos
que la Oficina del Censo de Estados Unidos ha “ajustado
estacionalmente” utilizando su method.9 X-ll En principio, los datos
ajustados estacionalmente deberían tener el patrón estacional
eliminado. Sin embargo, la precaución es necesaria. Aunque un
procedimiento estandarizado puede ser necesario para una agencia
gubernamental informes cientos de serie, el procedimiento podría no
ser el mejor para una persona con ganas de modelar una sola serie.
Incluso si utiliza los datos desestacionalizados, un patrón estacional
podría permanecer. Esto es particularmente cierto si usted no utiliza
todo el espacio de datos; la parte de los datos utilizados en el estudio
de la estacionalidad puede mostrar más (o menos) que la duración
total. Hay otra razón importante para estar preocupado por la
estacionalidad de datos cuando se utiliza dcseasonal- lizadas.
Implícito en cualquier método de ajuste estacional es un
procedimiento de dos pasos. En primer lugar, se elimina la
estacionalidad 114
estacionalidad, y segundo, la autorregresivo y moviendo coeficientes
medios se estiman utilizando técnicas Box-Jenkins. Como surveyed'in
Bell y Hillmer (1984), a menudo se identifican mejor los coeficientes
de armar una áridas y estacionales estiman conjuntamente. En tales
circunstancias, es aconsejable evitar el uso de los datos ajustados
estacionalmente. a menudo se identifican mejor los coeficientes de
armar una áridas y estacionales estiman conjuntamente. En tales
circunstancias, es aconsejable evitar el uso de los datos ajustados
estacionalmente. a menudo se identifican mejor los coeficientes de
armar una áridas y estacionales estiman conjuntamente. En tales
circunstancias, es aconsejable evitar el uso de los datos ajustados
estacionalmente.

Modelos de datos estacionales

La técnica de Box-Jenkins para modelar los datos estacionales no es


diferente del de los datos no estacionales. El giro introducido por los
datos estacionales de periodo s es que los coeficientes estacionales de
la FAS y la FAP aparecen en los retardos s, 2S, 3S, ..., en lugar de en
los retardos 1, 2, 3, .... Por ejemplo, dos modelos puramente
estacionales para datos trimestrales podrían ser
v, = a4>', _ 4 + e “| aj <l (2.68)

y -j

v, = e, + P4e, _4
(
estacionalidad 115
2,69)

Usted puede convencer fácilmente a sí mismo que la correlogram


teórico para (2.68) es tal que p; = (A4y'4 si (74 es un número entero,
y p, = 0 en caso contrario, por lo que las exposiciones ACF

caries en los retardos 4, 8, 12 Para el modelo (2.69), el ACF


presenta un solo pico en el retardo 4 y todas las otras correlaciones
son cero.

En la práctica, la identificación se complica por el hecho de que el


patrón estacional va a interactuar con el patrón no estacional en los
datos. El ACF y PACF para un proceso de temporada / no estacional
combinado reflejarán ambos elementos. Tenga en cuenta que el
modelo final del índice de precios al por mayor estimado en la última
sección tenía la forma

Alternativamente, un coeficiente autorregresivo en el retardo 4


podría haber sido utilizado para capturar la estacionalidad:

y, = fli.Vi + a4, v, _j + e, + P | €, _ |
(2
,71)

Tanto estos métodos tratan los coeficientes estacionales aditiva; un


coeficiente de AR o MA se añade en el periodo estacional.
estacionalidad multiplicativa permite la interacción de la ARMA y los
efectos estacionales. Contras:.: .- las especificaciones multiplicativos:
5 (LA, L) y, = (1 + p, L) (L + P 4 L4) e,
estacionalidad 116
(2,72)
(1 - o./.)(l -. «, L4). Y, = 4 (1 + iy>, f,
(2,73)

La ecuación (2.72) difiere de (2.70) en que permite el término


promedio móvil en el retardo 1 para interactuar con el estacional
efecto promedio móvil en el retardo 4. De la misma manera, (2.73)
permite que el término autorregresivo en el retardo 1 para interactuar
con el efecto autorregresivo estacional en el retardo 4. Muchos
investigadores prefieren la forma multiplicativa desde un patrón de
interacción rico puede ser capturada con un pequeño número de
coeficientes. Vuelva a escribir (2.72) como

Y, = A \ y, -i + e, + .Piei-I + P4ef-4 + PiP4e, -5


yo
2
-74)

La estimación de sólo tres coeficientes (es decir, una “P ,, y P4) nos


permite capturar los efectos de un término autorregresivo en el retardo
1 y los efectos de los términos de promedio móvil en los retardos 1, 4
y 5. Por supuesto, no lo hace realmente obtener algo por nada. Las
estimaciones de los tres coeficientes medios móviles están
relacionados entre sí. Un investigador de la estimación del modelo no
restringido y, = A, Y, _ | + E + + P4e, + -4 Pse / -5
sería nec
estacionalidad 117
sariamente obtener una suma residual de cuadrados más pequeña, ya
que p3 no está limitado a la igualdad de p, p4. Sin embargo, (2.72) es
claramente el modelo más parsimonioso. Si el valor no restringida de
p5 se aproxima el producto P, p4, el modelo multiplicativo será
preferible. Por esta razón, la mayoría de los paquetes de software
tienen rutinas capaces de estimar los modelos multiplicativos. De lo
contrario, no hay razones teóricas que nos lleva a preferir una forma
de estacionalidad sobre otro. Como se ilustra en la última sección, la
experimentación y comprobaciones de diagnóstico son
probablemente la mejor manera de obtener el modelo más apropiado.

diferenciación estacional

España es, sin duda, el destino más popular para los turistas europeos.
Durante los meses de julio y agosto, las playas a lo largo de la costa
mediterránea se hinchan con los turistas tomando el sol. La figura 2.7
muestra el número mensual de turistas que visitan España entre enero
de 1970 y marzo de 1989; la fuerte patrón estacional domina el
movimiento de la serie. También tenga en cuenta que la popularidad
estacionalidad 118
ons Mill

Figura 2.7 Turismo en


España.
de España ha ido creciendo; la serie parece ser no estacionaria en que

lamedia está aumentando con el tiempo.

Esta combinación de una fuerte estacionalidad y no estacionariedad


se encuentra a menudo en los datos económicos. El ACF para un
proceso temporal no estacionario es similar a la de un proceso no
estacional no estacionario; con datos estacionales los picos en los
retardos s, 2s, 3s, ... no exhiben una rápida decadencia. Los otros
autocorrelaciones son pequeños comparados con los efectos
estacionales. Observe ACF para los datos turísticas españolas
muestran en la Figura 2.8. Los coeficientes de autocorrelación en los
retardos 12, 24, 36, y 48 son todos cerca de la unidad y los picos de
temporada decaimiento lentamente. Los coeficientes en los retardos
estacionalidad 119
6, 18, 30, y 42 son todos negativos ya que el turismo es siempre de 6
meses a contar desde el boom del verano.

Sea y, denotan el logaritmo del número de turistas que visitan


España cada mes; el primer paso en el método de Box-Jenkins es a
diferencia de {jy,} secuencia con el fin de hacer que sea estacionario.
En contraste con la otra serie examinamos, la forma apropiada de la
diferencia de datos fuertemente estacional es en el periodo estacional.
Las pruebas formales para la diferenciación estacional de arco
examinados en el capítulo 4. Por ahora, es suficiente observar que la
diferencia estacional (1 - Ln) y, = y, ~ y, _12 tendrán una variación
más pequeña que la primera diferencia y, - En los datos españoles, la
fuerte estacionalidad significa que enero-a-enero y cambios julio-a-
julio no son tan pronunciadas como los cambios entre junio y julio.
Figura 2.9 muestra los primeros y duodécimo diferencias de los datos;
claramente, la diferencia duodécima tiene menos variación y debe ser
más fácil de identificar y estimación.

La diferencia duodécima logarítmica (es decir, Y, - y, _12) muestra


un piso ACF que muestra poca tendencia a la descomposición. La
primera 12 de las autocorrelaciones son

Pi P2 Pensilvani
P 4 P5 PD ¿PAG? PDPAG',Alfiler pn Pi:
0.26 0.31 0.26
a 0.28 0.23 0.24 0,19 0,21 0,19 0.20 0.15 -0.17
estacionalidad 120
No hay manera razonable para adaptarse a un modelo de bajo
orden a los datos estacionalmente diferenciada; la diferenciación
estacional no eliminó la media variable en el tiempo. Con el fin de
impartir estacionariedad en la serie, el siguiente paso es tomar la
primera diferencia de los datos ya estacionalmente diferenciados. El
ACF y PACF para la serie (1 - L) i (1 - LL2) y, se muestran en la
figura 2.10; las propiedades de esta serie son mucho más

■ susceptibles a la metodología de Box-Jenkins. Durante los


primeros 10 coeficientes, el único
■ aumento en la ACF y la descomposición uniforme de la PACF
sugieren un MA (1) modelo. Los: coeficientes significativos en los
retardos II, 12, y 13 pueden ser el resultado de aditivo o factores
estacionales multiplicativos. Las estimaciones de los tres modelos
siguientes son reportados en la Tabla 2.5:

(1 - 6I2) (1 - L) (L - a ^ Ln) y, - (1 + P, £,) e, Modelo 1:


Autoregresivo

(1 - L'2) {1 - L) y, = (1 + (3, L) (1 + P, 2L12) e, Modelo 2:


multiplicativo media móvil

(1 - LL2) (l - L) y, = (1 + P, L + Pi2Z.l2) e, Modelo 3: Aditivo


media móvil

Las estimaciones puntuales de los coeficientes de todas implican


estacionariedad y invertibilidad. Por otra parte, todos son al menos
seis desviaciones estándar de cero. Sin embargo, las estadísticas de
estacionalidad 121
diagnóstico ail sugieren que se prefiere modelo 2. Modelo 2 tiene la
mejor opción, ya que tiene la suma más baja de los residuos al
cuadrado (SSR). Además, la 2-estadísticas para retardos

TTTTTTTTTT71
T ITT' 1 1 n 1 1 i "l 1-

-
'ITT 1 iTTT'f 1 1 1
TnTfrrn 111 111
l .l L1
W 'III1> |||> 'III1'

II 1 1 1 1 I II! LI 1 0,1 1 1 M I 11 I 1 I 1 1 I 1!1I 1 1 1. I'.l. 1 11 1.


II 1 1 M 1 II

Tabla 2.5:Tres Modelos de turismo español


L1 modelo modelo 2 modelo 3
-0.408
(-6,54) '
PAG, -0.738 ■ ' 0,740 s 6, -0.640
(-15,56) (-16,14) '(-14,75)
P, z -0 671 -0.306
(-13 02) (-7,00)
SSR 2.825 2.608 3,367
AIC 217,8 212,98 268.70
SBC 224,5 219,75 275,47
IR 2) G (24)
8,59Q (0,571) 4,38
41,11 (0,928) 25,54
15,71 (0,004) 66,58
(48) (0,007) 67,91 (0,019)(0,830) 37,61 (0,806)
(0,000) 99,31
(0,000)
estacionalidad 122
Claramente, no hay diferencia entre una estacionalidad aditivo
y multiplicativo estacionalidad cuando todos los demás
coeficientes autorregresivos son cero.
12, 24 y 48 indican que las autocorrelaciones residuales son
insignificantes. En contraste, las correlaciones residuales para el
modelo 1 son significativos en los retardos largos [es decir, Q (24) y
(2 (48) son significativas en los niveles de 0.007 y 0.019] y las
correlaciones residuales para el modelo 3 son significativos para
retardos 12, 24 y 48. Otros métodos de diagnóstico que incluyen
overfitting y la división de la muestra sugieren que el modelo 2 es
apropiado.

Los procedimientos ilustrados en este ejemplo de ajuste de un


modelo a los datos altamente estacionales are.typical de muchas
otras series. Con datos altamente estacionales, es necesario
complementar el método 3ox-Jenkins:

1 En la etapa de identificación, it.is necesario temporada: ';, TfiC.v


de datos y comprobar la ACF de la serie resultante''.... A menudo,
los datos diferenciados por estacionalidad no será estacionaria. En
tales casos, los datos también pueden necesitar ser primeras
diferencias. Usar la FAS y la FAP para identificar posibles modelos.
Tratar de estimar los modelos de bajo orden con coeficientes ARMA
no estacionales. Tenga en cuenta tanto aditivo y

2 estacionalidad multiplicativa. Permitir la forma apropiada de


estacionalidad a ser determinado por las diversas estadísticas de
diagnóstico.
La función de la previsión 101

A diferencia estacional se denota por A ,, donde r es el período de los


datos. El Dth tal diferencia estacional es Af. Por ejemplo, si queríamos
la segunda diferencia estacional de los datos españoles, podríamos
formar

A | 2 (V, = ApJ,' A 12 = y, -y, -i2- (v, -i2-.V24)

2,- 2>', _ 12 + T, -24

La combinación de la televisión ~ ':: yp, -f rendimientos de


diferenciación A ^ A ®. modelos multiplicativa arco escrita en forma
ARIMA (p, d, q) (P, D, Q) s

e p y q = los coeficientes ARMA no estacionales d = Número de


diferencias no estacionales

PAG = Número de coeficientes autorregresivos


multiplicativos;

■ D = número de diferencias estacionales

Q = Número de multiplicativos coeficientes promedio en


movimiento r = Periodo estacional
Usando esta notación, podemos decir que el modelo ajustado del
turismo español es un ARIMAfO, 1, 1) (0, 1, 1), 2 modelo. En el trabajo
aplicado, la ARIMA (0, 1, 1) (0, 1, 1), el modelo se produce
rutinariamente; se le llama el “modelo de avión” desde Box y Jenkins
La función de la previsión 102

(1976) utilizaron este modelo para analizar los datos de los viajes
aéreos.

s
raíces carac- de la ecuación de diferencia deben estar dentro del círculo unidad. Por
otra parte, el t | proceso debe haber empezado infinitamente lejos en el pasado o el
proceso debe ser siempre IAY

RESUMEN Y CONCLUSIONES

El capítulo se centra en la Box-Jenkins (1976) aproximación a la


identificación, Estima ción-ijj, la comprobación de diagnóstico y
pronóstico de una serie de tiempo univariante. modelos ARMA puede
ser la comprobación de diagnóstico y pronóstico de una serie de tiempo
univariante. modelos ARMA pueden ser vistos como una clase especial
de ecuaciones en diferencias lineales estocástico. Por deflni- 0,3 ción,
un modelo ARMA es estacionario covarianza en que tiene una media y
covarianzas invariante finito y tiempo-.J. Para un modelo ARMA para
ser estacionario, la carac-fequilibrio.

En la etapa de identificación, la serie se representa y la


autocorrelación de la muestra! ^ Y se examinan las correlaciones
parciales. Como se ilustra mediante los EE.UU. mayorista Pricej- |
Índice, una función de autocorrelación lenta descomposición sugiere
no estacionariedad benavpjd ior. En tales circunstancias, Box y Jenkins
recomiendan diferenciación del Dati '^

Las pruebas formales foi- no estacionariedad se presentan en el


Capítulo 4. Una práctica común ii'. • »a utilizar una transformación
logarítmica o Box-Cox si la varianza no parece ^ sea constante.
La función de la previsión 103

Capítulo 3 presenta algunas técnicas de módem que pueden ser


utilizados para modelar -3 la varianza.

Las autocorrelaciones de muestra y las correlaciones parciales de la


adecuadamente transformado A los datos se comparan con las de varios
procesos ARMA teóricos. Todo plausible. modelos se estiman y se
compararon utilizando una pieza de criterios diagnósticos. Un modelo
estimado y bien (1) es parsimonioso; (2) tiene coeficientes que implican
estacionariedad y: invertibilidad; (3) se ajusta bien a los datos; (4) tiene
los residuos que se aproximan a un ruido blanco, el proceso; (5) tiene
coeficientes que no cambian durante el período de muestra; y (6) tiene
.. buenas proyecciones fuera de la muestra.

: En la utilización de la metodología de Box-Jenkins, usted se


encontrará haciendo que muchos, Aparentemente ad hoc opciones. El
modelo más parsimonioso puede no tener el mejor ajuste o
proyecciones fuera de la muestra. Usted se encontrará frente a los
siguientes tipos de preguntas: ¿Cuál es la transformación de datos más
adecuada? Es un ARMA (2, I) Amodel más apropiado que un ARMA
(l, 2) especificación? Como mejor modelo v jeasonality? Dada esta
latitud, muchos me ven metodología Box-Jenkins como un ^ IJther que
una ciencia. Sin embargo, la técnica se aprende mejor a través de la
conveniencia. Los ejercicios al final de este capítulo están diseñados
para guiarlo a través de las ditypes de opciones que se encontrará en su
propia investigación.
Box-Jenkins Selección del modelo 108
utocorrelations muestra A de serie estacionaria 109
La función de autocorrelación parcial 85
Las autocorrelaciones muestrales de serie
estacionaria 86
Las autocorrelaciones muestrales de serie
estacionaria 87