You are on page 1of 35

MACROECONOMETR IA

Tema 2: Series temporales


Segundo Cuatrimestre (curso 2006/07), Depto. de Econom a, UC3M

Profesor: Genaro Sucarrat


(Coordinador: Juan J. Dolado)

Conceptos fundamentales: Esperanzas condicionales vs. esperanzas incondicionales Denic on: Autocovarianza de retardo k . La autocovarianza (autocovariance) de retardo k de un proceso estoc astico, denotado Cov (xt , xt k ), se dene como E [(xt t )(xt k t k )], donde t = E (xt ) y t k = E (xt k )

Conceptos fundamentales (cont.): Denic on: Estacionariedad d ebil. Un proceso estoc astico es estacionario d ebil (weakly stationary) o estacionario en covarianza (covariance stationary) si: E (xt ) = para todo t E [(xt )(xt k )] = k para todo t Nota 1: Efectivamente esto signica que ni la media E (xt ) ni la covarianza E [(xt )(xt k )] dependen del tiempo t . Nota 2: Estacionaridad d ebil es una propiedad no condicional. Por ejemplo, E (x ) es la media no condicional y E (x |y ) es la media condicional en y , y Cov (x , y ) es la covarianza no condicional y Cov (x , y |z ) es la covarianza condicional en z . Nota 3: Cuando k = 0 entonces E [(xt )(xt k )] es igual a la varianza E (xt )2 = Var (xt )

Conceptos fundamentales (cont.): Denici on: Ruido blanco. Se dice que el proceso { t } es ruido blanco (white noise) si: Var ( t ) Cov ( i j ) = = E( t) E( 2 t) E( i j) = = = 0 2 0

Para todo i = j : Notaci on:


t

WN
t

Ruido blanco Gaussiano: Para todo t ,

N (0, 2 )

Modelos ARMA: Denici on: Modelo ARMA. Un modelo autoregresivo-media m ovil (autoregressive moving averageARMA) de una serie estacionaria d ebil {yt } tiene la forma:
p q

yt = 0 +
i =1

i yt i +
j =0

t j ,

donde el proceso { t } es ruido blanco. Este modelo se denota como ARMA(p , q ), y normalmente se normaliza 0 a 1 Nota: si hay que diferenciar la serie para que sea estacionaria entonces a veces se usa la terminolog a ARIMA(p , d , q ), donde d es el orden de integraci on

Modelos ARMA (cont.): Con p = 0 obtendremos el modelo MA(q ):


q

yt = 0 +
j =0

t j

= 0 + (1 + 1 L + + q Lq )

donde { t } es ruido blanco y donde 0 = 1 = E (yt ) = 0


2 + + 2 ) 2 0 = Var (yt ) = (1 + 1 q

k = Cov (yt , yt k ) = (k + k +1 1 + + q q1 ) 2 , 0 para k > q Es el modelo MA(q ) estacionario? Si

k = 1, . . . , q

Modelos ARMA (cont.): Con p = 0 y q , obtendremos el modelo MA():

yt = 0 +
j =0

t j

= 0 + (1 + 1 L + 2 L2 + )

donde { t } es ruido blanco y donde 0 = 1 C omo podemos saber si MA() es un proceso estacionario? Cualquiera de las condiciones siguientes es suciente: a)
2 j =0 j

<

b)
j =0 |j |

<

Modelos ARMA (cont.): Esperanzas incondicionales del MA(): = 0


2 + 2 + 2 + ) 0 = 2 (0 1 2

k = 2 (k 0 + k +1 1 + k +2 2 + ) Implicaci on: todos los modelos MA(q ) con q < son estacionarios

Modelos ARMA (cont.): Con q = 0 obtendremos el modelo AR(p ):


p

yt = 0 +
i =1

i yt i +

= 0 + (1 L + + p Lp )yt +

Si todas las ra ces caracter sticas del polinomio p (1 1 L p L ) est an fuera del c rculo unidad, entonces: El modelo AR(p ) se puede escribir/representar como un modelo MA(): yt =
0 11 p

1 11 Lp Lp t

El modelo AR(p ) es estable y estacionario

Modelos ARMA (cont.): Entonces, tenemos que: =


0 11 p

0 = 1 1 + + p p + 2 k = k k 1 + + p k p

Modelos ARMA (cont.): M as generalmente, un modelo ARMA(p , q ):


p q

yt = 0 +
i =1

i yt i +
j =0

t j

es estable/estacionario si todas las ra ces caracter sticas del polinomio (1 1 L p Lp ) est an fuera del c rculo unidad Adem as, un modelo ARMA(p , q ) estable se puede expresar como un modelo MA(): yt 1 + 1 L + + q Lq 0 + 1 1 p 1 1 L p Lp = 0 + (L) t =
0 11 p t

donde 0 =

y (L) =

1+1 L++q Lq 11 Lp Lp

Modelos ARMA (cont.): Si un modelo AR(p ) es estable, entonces podemos expresarlo como un MA() Si un modelo MA(q ) es invertible, entonces podemos expresarlo como un AR() Denici on: Invertibilidad de MA(q ). Un modelo MA(q ) se puede expresar como yt 0 = (1 + 1 L + 2 L2 + + q Lq ) t . Si el MA(q ) se puede expresar como un modelo AR() utilizando la inversa de (1 + 1 L + 2 L2 + + q Lq ), entonces se dice que MA(q ) es invertible. Condici on suciente para la invertibilidad: Que todas las ra ces del polinomio (1 + 1 z + 2 z 2 + + q z q ) = 0 est en fuera del c rculo unidad

Tendencias: Consideramos la serie siguiente (PIB de Espa na, 1950-2000):

Tendencias (cont.): Se dice que esta serie tiene una tendencia (trend), porque crece durante toda la muestra Problema de regresi on/correlaci on esp urea: regresiones/ correlaciones sugieren una relaci on entre variables con tendencias aunque no hay ninguna relaci on Dos soluciones comunes a este problema son: 1) tratar la serie como si tuviera una tendencia deterministica (deterministic trend, trend stationarity) 2) tratar la serie como si tuviera una tendencia estoc astica (stochastic trend, dierence stationarity)

Tendencias (cont.): Dicho de otra manera, dos representaciones comunes de series econ omicas con tendencias son: 1) Modelos con tendencia deterministica: yt = 0 + t + et 2) Modelos con tendencia estoc astica: yt = 0 + 1 yt 1 + et donde t es el tiempo, et es una componente estacionaria, y donde |1 | 1 Nota: et puede tener una estructura ARMA(p , q ), por ejemplo, et = t + 1 t 1 (MA(1))

Tendencias (cont.): C omo reconocemos las series con tendencia? Por ejemplo, tiene esta serie una tendencia?:

Tendencias (cont.): Y esta?:

Tendencias (cont.): Trend stationarity (TS) denota la propiedad de que la serie {yt tendencia deterministica} es estacionaria (recuerda: {et } es estacionaria e igual a {yt tendencia deterministica}) Tambi en se dice que y t = yt tendencia deterministica es de-trended Dierence stationarity denota la propiedad de que la serie d yt es estacionaria Nota: se pueden combinar los dos propiedades. Por ejemplo, puede ser que {yt } se caracterice por una tendencia determin stica Es el problema de no-estacionariedad grave? Si, suele dar lugar a regresiones esp ureas

Tendencias (cont.): Intuitivamente, una regresi on es esp urea si las pruebas estad sticas sugieren que hay una relaci on entre las variables cuando no la hay Supongamos que estamos considerando estimar la regresi on yt = 0 + 1 xt +
t

(1)

donde {yt } y {xt } son series con tendencias Cu al es la probabilidad de una regresi on esp urea? Muy alta!

Tendencias (cont.): Ejemplo. Paseos aleatorios independientes (series que casi tienen tendencia): yt = yt 1 + xt = xt 1 +
y ,t y ,t , x ,t , y ,t x ,t 2) WN (0, y 2) WN (0, x

x ,t

independentes

yt y xt independentes Cu al es la relaci on emp rica entre yt y xt ? Granger y Newbold (1974) rechazaban la hip otesis de 1 = 0 (con un nivel de signicaci on del 5%) en (1) para el 75% de las muestras simuladas

Tendencias (cont.): Terminolog a: Una serie {yt } es integrada (integrated) de orden d si d yt es una serie estacionaria. Tambi en se dice que d es el orden de integraci on (order of integration) Notaci on: yt I (d ) y ARIMA(p , d , q ), donde d 0 Si d no es un n umero entero, por ejemplo, si d = 0.6 o si d = 2.6, diremos que el orden d es fraccional (fractional integration) Nota: En este curso no vamos a ver integraci on fraccional, siempre vamos a tratar las series como integradas de orden entero, es decir, de orden 0, 1, 2, . . .

Tendencias (cont.): Ejemplos: Si yt no es estacionaria, pero yt lo es, entonces denotamos yt I (1) Si ni yt , ni yt son estacionarias, pero 2 yt lo es, entonces denotamos yt I (2) . . . etc. Si yt ya es estacionaria, entonces denotamos yt I (0)

Tendencias (cont.): C omo encontramos el orden de integraci on adecuado? Para apoyar o rechazar una hip otesis de orden d = 1, por ejemplo, podemos utilizar varios tipos de informaci on: (a) Inspecci on visual de gr acos (b ) Propiedades y tests estad sticos (c ) Sentido com un (d ) Teor a Nota: Hay casos en los que los investigadores no est an de acuerdo. Por ejemplo, hay casos en que no est an de acuerdo si pt I (1) o si pt I (2), donde pt denota un ndice de precios en logaritmos

Prueba de Dickey-Fuller: Consideramos el modelo yt = 1 yt 1 + |1 | < 1: {yt } estacionario prueba de la t es v alida 1 = 1: {yt } no es estacionario {yt } prueba de la t no es v alida
t, t

WN (0, 2 )

(2)

Prueba de Dickey-Fuller (cont.): Dickey y Fuller (1979) mostraron que, aunque la prueba de la t no es v alida en (2) cuando 1 = 1, la prueba de la t es v alida para la especicaci on yt = 0 + yt 1 + t (3) cuando la hip otesis nula es 1 = 1 y donde = 1 1 Esta propiedad la utilizaron Dickey y Fuller (1979) para desarrollar una prueba de estacionalidad La prueba de Dickey-Fuller es una prueba de ra z unitaria (unit root), y para determinar los valores cr ticos para la h potesis nula de 1 = 1 se necesita el m etodo de Monte Carlo (simulaci on)

Prueba de Dickey-Fuller (cont.): La prueba de Dickey-Fuller: Estima yt = 0 + yt 1 + H0 : = 0 H1 : < 0 Compara el estad stico con el valor de la tabla de Dickey y Fuller (1979) o, mejor, con la tabla de MacKinnon (1996) Nota: EViews nos da los valores cr ticos de MacKinnon (1996) autom aticamente
t

con MCO

Prueba de Dickey-Fuller (cont.): Normalmente, las variables requieren una representaci on AR(p ) y no s olo AR(1) La prueba de Dickey-Fuller aumentada: Con MCO, estima yt = 0 + 0 yt 1 + 1 yt 1 + + p yt p + H 0 : 0 = 0 H 1 : 0 < 0 Compara el estad stico con el valor de la tabla de Dickey y Fuller (1979) o, mejor, con la tabla de MacKinnon (1996) Nota: EViews nos da los valores cr ticos de MacKinnon (1996) autom aticamente
t

(4)

Prueba de Dickey-Fuller (cont.): Problema pr actico: elegir p Soluciones posibles: Incluir retardos de yt hasta que el error sea ruido blanco Incluir retardos de yt signicativos Utilizar AIC, SBC, etc. (information criteria), para elegir p Sin embargo, la prueba de Dickey-Fuller es fr agil siempre hay que utilizar informaci on adicional (inspecci on visual de la serie, sentido com un, historia, teor a) antes de aceptar o rechazar lo que suguiere la prueba de Dickey-Fuller

Prueba de Dickey-Fuller (cont.): Tendencia lineal vs. tendencia estoc astica: la prueba de Dickey-Fuller nos permite incluir un t ermino de tendencia lineal t Es decir, contrastar 0 = 1 con la especicaci on yt = 0 + 0 yt 1 + t + 1 yt 1 + + p yt p +
t

(5)

Problema: si hay variables innecesarias en (5), es m as dif cil rechazar la hip otesis nula de 0 = 0 (ra z unitaria) cuando en realidad 0 < 0 Una soluci on: hacer tres pruebas 1. Sin la constante 0 y sin el t ermino t 2. Con la constante 0 pero sin el t ermino t 3. Con la constante 0 y el t ermino t

Descomposiciones: La descomposici on de Beveridge y Nelson (1981) empieza con un modelo ARIMA(p , 1, q ) de una serie {yt } Es decir, se supone que yt I (1), y nosotros vamos a estudiar solamente el caso p = 0 En este caso un modelo ARIMA(0, 1, q ) de {yt } es igual a yt = 0 + et , donde et =MA(q ), es decir, et =
q j =0 j t j

(6) con 0 = 1

El modelo (6) tambi en se puede representar como un paseo aleatorio yt = 0 + yt 1 + et , es decir, como un ARMA(1,q) no-estacionario

Descomposiciones (cont.): Para obtener la descompocici on Beveridge-Nelson, primero hay que calcular la predicci on condicional K > 0 periodos hacia al futuro Tenemos que
K

yt +K = 0 K + yt +
k =1

e t +k
K

Et (yt +K ) = 0 K + yt + Et (
k =1

e t +k )
t 1 , . . .)

donde Et () es la esperanza condicional E (|yt , t ,

El t ermino 0 K es la parte determin stica, y la tendencia estoc astica se dene como


K

lim [Et (yt +K ) 0 K ]

Descomposiciones (cont.): Ejemplo. Un modelo ARIMA(0,1,1) se puede escribir como: yt = 0 + yt 1 + y nos da


K K t +k k =1 t t

+ 1

t 1

yt + K

= 0 K + yt +

+ 1
k =1

t + k 1

Et (yt +K ) = 0 K + yt + 1
K

lim [Et (yt +K ) 0 K ] = yt + 1


t

Si yt = 10, 1 = 0, 1 y
K

= 1, entonces

lim Et (yt +K ) 0 K = 10, 1

Descomposiciones (cont.): La descomposici on de Hodrick y Prescott (1997) consiste en igualar los valores {yt } de una seria con tendencia a dos componentes t y et : yt = t + et Intuitivamente t es una tendencia, y et = yt t es una componente estacionaria con E (et ) = 0 para todo t El m etodo de Hodrick y Prescott consiste en estimar una serie 1 , . . . , T tal que las diferencias t +1 t oscilan suavemente

Descomposiciones (cont.): M as precisamente, el m etodo de Hodrick-Prescott consiste en: 1. Eligir un valor del coste de incorporar uctuaciones en la serie 1 , . . . , T 2. Minimizar 1 T
T

(yt t )2 +
t =1

T 1

[(t +1 t ) (t t 1 )]2
t =2

(7)

= 0: no hay coste de incorporar uctuaciones en la serie 1 , . . . , T , y el m nimo de (7) se obtiene cuando yt = t : coste alto de incorporar uctuaciones en la serie 1 , . . . , T , y el m nimo de (7) se obtiene cuando t +1 t = t t 1 . Es decir, cuando la diferencia t t 1 es constante. Cuanto m as grande es , m as suave es el cambio t t 1

Referencias: Beveridge, S. and C. Nelson (1981). A New Approach to Decomposition of Economic Time Series into Permanent and Transitory Components with Particular Attention to Measurement of the Business Cycles. Journal of Monetary Economics 7, 151174. Dickey, D. and W. Fuller (1979). Distribution of the estimators for autoregressive time series with a unit root. Journal of the American Statistical Association 74, 426431. Granger, C. W. and P. Newbold (1974). Spurious Regressions in Econometrics. Journal of Econometrics 2, 111120. Hodrick, R. J. and E. C. Prescott (1997). Postwar U.S. Business Cycles: An Empirical Investigation. Journal of Money, Credit and Banking 29, 116. MacKinnon, J. G. (1996). Numerical Distribution Functions for Unit Root and Cointegration Tests. Journal of Applied Econometrics 11, 601618.