You are on page 1of 277

FRANCISCO PARRA RODRÍGUEZ

(Doctor en Economía. Universidad Nacional de Educación a Distancia)

ECONOMETRÍA APLICADA II

Econometria Aplicada II by Francisco Parra Rodríguez is licensed under a Creative Commons


Reconocimiento-NoComercial-CompartirIgual 4.0 Internacional License

1
ÍNDICE
Parte II
1. NÚMEROS INDICES..........................................................................................................................4
1.1. INTRODUCCIÓN........................................................................................................................4
1.2. NÚMEROS ÍNDICES SIMPLES.................................................................................................6
1.3. NÚMEROS ÍNDICES COMPLEJOS O SINTÉTICOS...............................................................7
1.4. ÍNDICES DE PRECIOS.............................................................................................................10
1.5. ENLACES Y CAMBIOS DE BASE..........................................................................................12
1.6. DEFLACCIÓN POR UN INDICE DE PRECIOS. ....................................................................14
1.7. INDICES DE VOLUMEN ENCADENADOS. .........................................................................16
1.8. ELABORACIÓN DE ÍNDICES COMPUESTOS .....................................................................19
1.9. PROBLEMAS ............................................................................................................................23
2. SERIES TEMPORALES....................................................................................................................27
2.1. INTRODUCCIÓN......................................................................................................................27
2.2. COMPONENTES DE UNA SERIE TEMPORAL ....................................................................31
2.3. ANÁLISIS DE LA TENDENCIA..............................................................................................33
2.3.1. Método de los semipromedios ............................................................................................35
2.3.2. Método de mínimos cuadrados...........................................................................................38
2.3.3. Médias móviles...................................................................................................................41
2.3.4. Alisado Exponencial Simple...............................................................................................44
2.3.5. Alisado Exponencial Doble ................................................................................................48
2.3.6. Método de Holt-Winters. ....................................................................................................49
2.4. ANÁLISIS DE LA ESTACIONALIDAD .................................................................................51
2.4.1. Método del porcentaje promedio ........................................................................................55
2.4.2. Método del porcentaje promedio móvil..............................................................................57
2.4.3. Desestacionalización con Estacionalidad Cambiante .........................................................62
2.4.4. Ajuste estacional a través de medias móviles con R..........................................................64
2.5. PROBLEMAS ............................................................................................................................68
3. ANÁLISIS UNIVARIANTE DE SERIES TEMPORALES ..............................................................71
3.1. INTRODUCCIÓN......................................................................................................................71
3.2. PROCESOS ESTÓCÁSTICOS..................................................................................................72
3.3. PROCESOS ESTACIONARIOS ...............................................................................................74
3.3.1. Operador de Retardos y Operador Diferencia ....................................................................78
3.4. MODELIZACIÓN UNIVARIANTE DE SERIES TEMPORALES..........................................79
3.4.1. Procesos estocásticos lineales discretos..............................................................................79
3.4.2. Modelos Autorregresivos (AR(p))......................................................................................80
3.4.2.1. Modelos autorregresivos de primer orden AR(1) .....................................................81
3.4.2.2. Modelos autorregresivos de segundo orden AR(2) ...................................................83
3.4.2.3. Modelos autorregresivos de orden p, AR(p) .............................................................85
3.4.3. Procesos de Media Móvil (MA(q)).....................................................................................88
3.4.3.1. Modelos de medias móviles de primer orden MA(1).................................................88
3.4.3.2. Modelos de medias móviles de segundo orden MA(2) ..............................................90
3.4.3.3. Modelos de medias móviles de orden q, MA(q) ........................................................92
3.4.3.4. Relación entre procesos AR y MA.............................................................................93
3.4.4. Procesos ARMA(p, q) ........................................................................................................95
3.4.4.1. Modelos ARMA(1, 1).................................................................................................95
3.4.4.2. Modelos ARIMA........................................................................................................98
3.4.5. Procesos Estacionales .........................................................................................................99
3.5. FASES PARA LA ELABORACIÓN DE MODELOS UNIVARIANTES..............................111
3.5.1. Fase de identificación .......................................................................................................111
3.5.2. Fase de estimación............................................................................................................113
3.5.3. Fase de validación ............................................................................................................114
3.5.4. Fase de predicción ............................................................................................................119
3.6. EJEMPLOS PRÁCTICOS .......................................................................................................122
3.6.1. Ejemplo 1: Pasajeros en Lineas Aereas. ...........................................................................122
3.6.2. Ejemplo 2: Indice de Producción Industrial de Cantabria ................................................134
3.7. PROBLEMAS ..........................................................................................................................141

2
4. Cointegracion ...................................................................................................................................143
4.1. INTRODUCCIÓN....................................................................................................................143
4.2. PASEO ALEATORIO..............................................................................................................144
4.3. PRUEBA DE RAÍZ UNITARIA..............................................................................................147
4.4. COINTEGRACIÓN .................................................................................................................153
4.5. MECANISMO DE CORRECCIÓN DE ERRORES(MCE) ....................................................157
4.6. PROBLEMAS ..........................................................................................................................158
5. MODELOS VAR .............................................................................................................................161
5.1. INTRODUCCIÓN....................................................................................................................161
5.2. MODELOS VAR .....................................................................................................................162
5.2.1. Definición .........................................................................................................................162
5.2.2. Estimación ........................................................................................................................166
5.2.3. Predicción y Función de Respuesta al Impulso ................................................................168
5.3. VAR ESTRUCTURAL ............................................................................................................173
5.4. EJEMPLO DE ESTIMACION DE UN MODELO VAR CON R. ..........................................176
5.5. PROBLEMAS ..........................................................................................................................181
6. REGRESIÓN EN EL DOMINIO DE LA FRECUENCIA ..............................................................183
6.1. INTRODUCCIÓN....................................................................................................................183
6.2. REGRESIÓN BAND SPECTRUM .........................................................................................184
6.3. REGRESIÓN EN EL DOMINIO DE LA FRECUENCIA CON PARAMETROS
DEPENDIENTES DEL TIEMPO. .......................................................................................................191
6.4. DESESTACIONALIZACIÓN A TRAVÉS DE LA REGRESIÓN DEPENDIENTE DE LA
FRECUENCIA.....................................................................................................................................197
6.1. PROBLEMAS ..........................................................................................................................201
7. FILTROS LINEALES......................................................................................................................204
7.1. INTRODUCCIÓN....................................................................................................................204
7.2. FILTROS ELEMENTALES ....................................................................................................205
7.3. FILTROS FIR...........................................................................................................................211
7.4. EL FILTRO COMO PRODUCTO DE CONVOLUCIÓN ......................................................216
7.5. DESCOMPOSICIÓN DE SERIES DE TIEMPO MEDIANTE FILTROS LINEALES..........225
7.6. TIPOS DE FILTROS................................................................................................................230
7.7. DISEÑO DE FILTROS ............................................................................................................235
ANEXO I. SERIES DE FOURIER ..........................................................................................................244
BIBLIOGRAFÍA......................................................................................................................................270

3
1. NÚMEROS INDICES

1.1. INTRODUCCIÓN

El número índice es un valor expresado como porcentaje de una cifra que se toma como unidad
base. Por ejemplo, cuando decimos que el índice de precios de consumo (base media de
1992=100) correspondiente al mes de diciembre de 1997 es 122,9, estamos señalando que los
precios en diciembre de 1997 eran un 22,9 más elevados que los que estaban en vigor a lo largo
de 1992.

Los números índices no tienen unidades y pueden referirse tanto a precios (índice de precios de
consumo, índice de precios percibidos por los agricultores, índice de precios industriales) como
a cantidades (índice de producción industrial).

El número índice es un recurso estadístico para medir diferencias entre grupos de datos. Un
número índice se puede construir de muchas formas distintas. La forma de cada índice en
particular dependerá del uso que se le quiera dar.

Los números índices no tienen unidades y pueden referirse tanto a precios (índice de precios de
consumo, índice de precios percibidos por los agricultores, índice de precios industriales) como
a cantidades (índice de producción industrial).

El número índice es un recurso estadístico para medir diferencias entre grupos de datos. Un
número índice se puede construir de muchas formas distintas. La forma de cada índice en
particular dependerá del uso que se le quiera dar. Los números índices se elaboran tanto con
precios (p) como con cantidades (q). El año en que se inicia el cálculo de un número índice se
denomina año base y se nombran por p0 o q0 según tratemos de precios o de cantidades, a los
precios o las cantidades de los años sucesivos los indicamos por pt o qt.

4
Las comparaciones pueden ser de una única magnitud, en este caso hablaremos de índices
simples, o de varias magnitudes índices complejos o sintéticos. Si trabajamos con diferentes
magnitudes o tipos de mercancías utilizamos los subíndices (i) para referirnos a un tipo de
mercancía, de modo que utilizamos los símbolos pit o qit para señalar el precio o la cantidad de
la mercancía i en el período t.

Dentro de los índices complejos o sintéticos puede que todas las mercancías tengan la misma
importancia, índices no ponderados y en caso contrario índices ponderados. Los números
índices no ponderados son los más sencillos de calcular, pero deben de utilizarse con especial
cuidado. Los números índices ponderados requieren que definamos previamente a su
construcción los criterios de ponderación o de peso. Una vez definida una ponderación debe de
respetarse en los sucesivos períodos.

Las ventajas de los números índices son:

• Naturaleza adimensional, no tienen unidades y esto nos permite hacer comparaciones.

• Sirven para simplificar la complejidad de ciertos conceptos o fenómenos económicos.

A la hora de elaborar un número índice hay que tener presente una serie de propiedades
que el índice debe de cumplir. Dichas propiedades son:

a) Existencia: Todo número índice ha de tener un valor finito distinto de cero.

b) Identidad: Si se hacen coincidir el período base y el período actual el valor del índice tiene
que ser igual a la unidad (o 100 si se elabora en porcentajes).

c) Inversión: El valor del índice ha de ser invertible al intercambiar los períodos entre sí. Es
1
decir : I to = el índice del año o calculado con la base del año t, ha de ser igual al inverso del
I ot
índice del año t calculado en base del año o.

d) Proporcionalidad: Si en el período actual todas las magnitudes experimentan una variación


proporcional, el número índice tiene que experimentar también dicha variación.

e) Homogeneidad: Un número índice no puede estar afectado por los cambios que se realicen
en las unidades de medida.

5
1.2. NÚMEROS ÍNDICES SIMPLES

Sirven para estudiar la evolución de una sola magnitud en relación a un periodo base y
pueden ser:

a) Fijos: el año base es siempre el mismo.

Si xio y xit representan los valores de la magnitud en los periodos base y actual,

respectivamente, el número índice simple se denota por I t0 , y viene dado por:

xit
I 0t = × 100
xi 0

Que como se indica suele expresarse en porcentajes, aunque también podría expresarse en tanto
por uno y nos mide la variación que ha sufrido la magnitud entre los dos periodos considerados.

b) En cadena: cuando el año base varía, es decir cuando el año base es el inmediatamente
anterior.

xit
I tt−1 = × 100
xit −1

Para obtener un índice fijo a partir de un índice en cadena se utiliza la siguiente formula:

I 0t
I tt−1 =
I 0t −1

Para el caso contrario se utiliza esta fórmula:

t
I 0t = ∏ I ii−1
i =1

Los números índices más utilizados son los siguientes:

• Precio relativo: es el cociente entre el precio de un bien en el periodo actual ( pit ) y el

precio del mismo en el periodo base ( pi 0 )

pit
p0t = × 100
pI 0

6
• Cantidad relativa: es el cociente entre la cantidad de un bien en el periodo actual ( q it ) y

la cantidad del mismo en el periodo base ( q i 0 )

qit
q 0t = × 100
qI 0

• Valor relativo: es el cociente entre el valor de un bien de un bien en el periodo actual


( pit ⋅ q it ) y la cantidad del mismo en el periodo base ( pi 0 ⋅ q io )

pit ⋅ qit
v0t = × 100 = p0t ⋅ q0t
pi 0 ⋅ qit

1.3. NÚMEROS ÍNDICES COMPLEJOS O


SINTÉTICOS

Son indicadores sintéticos que se elaboran a partir de dos o más series de datos con el objeto de
estudiar su evolución conjunta y realizar comparaciones con otras series. Los números índices
compuestos se clasifican en:

a. No ponderados: Cuando todas las variables tienen asignada la misma importancia.

b. Ponderados: Cuando a cada variable se le asigna un peso o ponderación.

Partimos de una serie de magnitudes simples x1 , x 2 ,...., x n , para las que conocemos su valor en

el periodo base o de referencia, al que denotaremos por 0, y en el periodo actual t.

A continuación calculamos los índices simples para cada magnitud, de modo que disponemos
de la siguiente tabla:

7
Magnitudes Valor periodo base Valor periodo actual Índices simples

Magnitud 1 X10 X1t I1= X1t/ X10

Magnitud 2 X20 X2t I2= X2t/ X20

. . . .

. . . .

Magnitud N XN0 XNt In= XNt/ XN0

Con la serie de los N índices simples podemos obtener los siguientes índices compuestos:

a) índice media aritmética de índices simples cuando operamos del siguiente modo :

I1 + I 2 +...+ I N

i =1
Ii
I= =
N N

b) índice media geométrica de índices simples cuando operamos del siguiente modo :

N
I = N I1 . I 2 .... I N = N ∏ I i
i =1

c) índice media armónica de índices simples cuando operamos del siguiente modo :

N N
I= = N
1 1 1 1
+ +...+
I1 I 2 IN ∑I
i =1 i

d) índice media agregativa de índices simples cuando operamos del siguiente modo :

x + x 2t + ... + x Nt ∑x it
I = it = i =1

x1o + x 2 o + ... + x No N

∑x
i =1
io

8
Una ponderación wi es un valor de referencia para cada producto que determina su importancia
relativa en el índice total. Al ser el ponderador un valor relativo lo normal es que se presente
calculado en tanto por uno, por ciento ó por mil, expresando así el porcentaje que representa
dicho producto en la cesta de productos que cubre el índice:

pi 0qi 0
Wi = n

∑p q i0 i0

Una vez obtenidos los ponderadores (wi) se calculan el índice media aritmética ponderada de
índices simples cuando operamos del siguiente modo :

I w + I w +...+ I N wN ∑ I .w
i =1
i i
I= 1 1 2 2 =
w1 + w2 +...+ wN N

∑w
i =1
i

Ejemplo 1.1.
En la tabla siguiente aparece la información que disponemos sobre una cesta de productos:
2000 2001 2002
Productos Precio venta Unidades Precio venta Unidades Precio venta Unidades
M1 1 3000 1,2 4000 1,4 5500
M2 1,5 4000 1,5 3000 1,6 4500
M3 2 2500 2 2500 2,4 2000
M4 4 2000 4,5 1500 4,5 2000

Calculamos los índices simples de precios para los productos de la cesta:

Productos 2000 2001 2002


M1 100 120,00 140,00
M2 100 100,00 106,67
M3 100 100,00 120,00
M4 100 112,50 112,50

Los índices simples para la cesta de productos serán:

9
Indices simples 2000 2001 2002
Media aritmética 100 108,13 119,79
Media geométrica 100 107,79 119,16
Media armónica 100 107,46 118,55
Media agregativa 100 108,13 119,79

El ponderador sería tanto por uno el valor del producto, es decir el precio por la cantidad
vendida, en el total vendido:

2000 2001 2002


M1 0,13636364 0,2280285 0,26829268
M2 0,27272727 0,21377672 0,25087108
M3 0,22727273 0,23752969 0,16724739
M4 0,36363636 0,32066508 0,31358885

Y el índice media aritmetica ponderado resultarán ser los siguientes:

Indice ponderado 2000 2001 2002


Media aritmética 100 108,57 119,67

1.4. ÍNDICES DE PRECIOS.


Los índices de precios se elaboran usualmente utilizando índices complejos ponderados
siendo los más utilizados los denominados índices de Laspeyres, Paasche y Fisher.

a) Índice de Laspeyres

El índice de Laspeyres es una media aritmética ponderada de índices simples, cuyo


criterio de ponderación es wi = p io ⋅ qio . La fórmula que define el índice de Laspeyres es la

siguiente:

N N

∑ I i wi ∑p it qio
i =1 i =1
Lp = N
= N
(1.1.)
∑I
i =1
i ∑p
i=1
io qio

10
Se suele utilizar este índice a la hora de elaborar los índices de precios por cuestiones
prácticas ya que únicamente requiere investigar en el año base el valor de los ponderadores, que
es la parte mas costosa de la elaboración del índice, (téngase en cuenta que en el IPC se realiza
una encuesta de presupuestos familiares en los años base que requiere una muestra de 20.000
hogares). Una vez determinados los ponderadores el índice de Laspeyres únicamente requiere
que se investigue en los sucesivos períodos la evolución de los precios.

b) Índice de Paasche
También es una media aritmética ponderada de los índices simples, pero utilizando
como coeficiente ponderador wi = p io ⋅ q it ; por tanto su definición queda como:

N N

∑ I i wi ∑p it qit
i =1 i =1
Pp = N
= N
(1.2.)
∑I
i =1
i ∑p
i=1
io qit

La diferencia entre el índice Paasche y el índice Laspeyres es que exige calcular las
ponderaciones para cada periodo corriente “t”, haciendo su cálculo estadístico más laborioso, y
presentando el inconveniente de que sólo permite comparar la evolución del precio de cada año
con el año base, dado que las ponderaciones varían de período en período. Ambas razones han
determinado que este índice sea más inusual que el anterior.

c) Índice de Fisher.

El índice de Fisher es la media geométrica de los índices de Laspeyres y Paasche, es


decir :

Ep = Lp. Pp (1.4)

Como los índices de precios de consideran un año determinado para calcular el ponderador bien
sea a partir de q0 .p0 , o de qt .p0, utilizan la denominación de año base para referirse al año “0”
a partir del que se calcula el ponderador wi.

11
Ejemplo 1.2.

Utilizando los datos de la tabla del ejemplo 1.1, vamos a calcular el indice de precios de
Lasperyres (1.1), de Paasche (1.2) y de Fisher (1.3), para el año 2001.

N N

∑I w i i ∑p it qio
1,2 × 3000 + 1,5 × 4000 + 2 × 2500 + 4,5 × 2000
Lp = i =1
= i =1
= = 1,0727
N N
1 × 3000 + 1,5 × 4000 + 2 × 2500 + 4 × 2000
∑I
i =1
i ∑p
i =1
io qio

N N

∑ I i wi ∑p it qit
1,2 × 4000 + 1,5 × 3000 + 2 × 2500 + 4,5 × 15000
Pp = i =1
= i =1
== = 1,0795
N N
1 × 4000 + 1,5 × 3000 + 2 × 2500 + 4 × 1500
∑I
i =1
i ∑p
i =1
io qit

Ep = Lp.Pp = 1,0727 × 1,0795 = 1,0761

1.5. ENLACES Y CAMBIOS DE BASE.


Uno de los problemas que tienen los índices ponderados como el índice de Laspeyres es que
pierden representatividad a medida que los datos se alejan del periodo base. Téngase presente
que, por ejemplo, el IPC que el INE calculó en 1991 utilizó los ponderadores obtenidos en la
Encuesta de Presupuestos Familiares de 1983 que, a su vez, reflejaba la estructura media de
consumo de los españoles en aquel año. El tiempo transcurrido entre 1983 y 1991 era lo
suficientemente dilatado para que se hubieran producido cambios en los hábitos de consumo y
en consecuencia el INE procedió a elaborar una nueva Encuesta de Presupuesto Familiares (la
de 1992), cuya estructura de consumo ó cesta de compra es la que actualmente se utiliza como
base para obtener el IPC.

La decisión que tomó el INE de realizar un nuevo IPC con la estructura de consumo resultante
de la Encuesta de Presupuestos Familiares de 1992 es lo que provoca el Cambio de Base del
IPC. Al ser los ponderadores distintos los utilizados entre 1983 y 1991 y los actuales, los índices
de precios son esencialmente distintos, y por lo tanto no se pueden comparar a priori entre sí. El
procedimiento a través del cual hacemos comparables números índices obtenidos con bases
distintas es lo que se denomina Enlace. El enlace de índices se basa en la propiedad de inversión
de los números índices.

Supongamos que queremos efectuar un cambio de base desde un índice construido con base
1983, a otro en base 1982.

12
t t
Sea I 83 el índice construido en base 1983 e I 92 el índice construido con la base1992, entonces:

I 83t . I 9292 I 83t


t
I =
92 = 92
I 8392 I 83
I 9292

92
I 83
En el caso del IPC español el INE publica el valor del cociente 92
que denomina coeficiente
I 92
legal de enlace. El valor del coeficiente legal de enlace el la serie del IPC base 92 y el
construido con la base 1983 en el índice general de España es 0,545261 y en el índice general de
Castilla y León es 0,559529.

Cuando se dispone de los coeficientes legales de enlace, como ocurre en el caso del IPC, la
operativa aritmética se simplifica bastante, ya que enlazar la serie con base de 1983 a la serie de
base 1992 únicamente requiere el que multipliquemos la primera por el coeficiente legal de
enlace (en caso contrario habría que dividir).

El enlace del IPC base del IPC 2001, es similar aunque hay que tener presente que entre este
IPC y los anteriores hay una novedades metodológicas que no se resuelven aplicando los
coeficientes legales de enlace, este es el caso de la introducción de las rebajas en el calculo del
IPC.

El coeficiente de enlace legal se obtiene como cociente entre el índice de diciembre de 2001, en
base 2001 y, el índice para el mismo período en base 1992.

Las series enlazadas se calculan multiplicando cada uno de los índices en base 1992 por este
coeficiente. Con estas series se pueden obtener las tasas de variación mensual publicadas, pero
no sucede lo mismo con las tasas de variación anual del año 2002, ya que por ellas se utilizan
los índices del año 2001, en base 2001.

Los coeficientes de enlace se han obtenido de forma independiente para cada una de las series
de índices que tienen continuidad en la nueva base, lo cual implica que cualquier índice
agregado de una serie enlazada no es el resultado de la media ponderada de los índices
elementales que lo componen.

13
Por último, es preciso puntualizar que, si bien el nuevo Sistema tiene como base la media de los
índices del año 2001 en base 2001 igual a 100, los índices que se publicaron en ese año eran
índices calculados en base 1992 y, por tanto, las series enlazadas pueden no tener media 100 en
el año 2001.

Ejemplo 1.3.

A continuación vamos ha realizar un ejercicio de enlace de diferentes bases del índice de


precios percibidos por los agricultores. Por un lado, la seriee 1985-1990 del Índice de Precios
Percibidos por la Agricultores en Castilla y León, base 1985; y por otro la serie 1990-1995 de
dicho índice en base 1990. El enlace de la serie 1985-1990 a la base 1990 se realiza conforme a
la regla antes expuesta:
Base 1985 Base 1990 Base 1985 Base 1990
1985 100 100 94,04
1986 109,83 109,83 103,28
1987 102,29 102,29 96,19
1988 103,26 103,26 97,10
1989 111,05 111,05 104,43
1990 106,34 100 106,34 100,00
1991 99,84 106,17 99,84
1992 95,85 101,93 95,85
1993 99,84 106,17 99,84
1994 110,18 117,17 110,18
1995 113,36 120,55 113,36

1.6. DEFLACCIÓN POR UN INDICE DE


PRECIOS.

La utilidad más importante que tienen los índices de precios, aparte de describir el
comportamiento de los precios durante un período concreto, es la de deflactar series
cronológicas o temporales valoradas en moneda (euros, dolares, etc..). Deflactar es eliminar el
componente de subida de precios que es inherente a toda serie temporal que viene referida a un
valor monetario (ventas de una empresa, los salarios que cobran los trabajadores, los depósitos y
créditos bancarios, el PIB, etc...). Las ventas de una empresa, por ejemplo, se incrementan de un
año a otro (ó de un mes a otro), bien por haber aumentado el número de pedidos que realizan los
clientes o bien por que la empresa o el mercado haya decidido una subida en los precios de los
artículos pedidos. Si se valoramos el número de pedidos del año actual utilizando los precios
vigentes el ejercicio pasado, dispondremos de un elemento comparativo con respecto al

14
ejercicio anterior que nos señalaría de manera inequívoca si nuestro volumen de negocio se ha
incrementado con independencia de lo ocurrido con los precios

En consecuencia, cuando obtenemos el valor de la serie utilizando como referencia para su


valoración el precio que rige en un período determinado (un año en concreto), realizamos una
valoración a precios constantes en tanto que dicha serie valorada a los precios vigentes en cada
período nos da su valor a “precios corrientes”.

Elaborar un indice simple sobre una serie deflactada es obtener un indice de valor ó indice de
valor unitario.

En la práctica, para pasar de una serie en moneda corriente a moneda constante se realiza
dividiendo la primera por un índice de precios adecuado. Este procedimiento recibe el nombre
de deflactación y al índice de precios elegido se le denomina deflactor.

No obstante, hay que señalar que, cuando utilizamos como deflactor un índice de precios de
Laspeyres (1.1.):
vt Σpit . qit Σpit.qit
= = Σpio.qio
lp Σpit . qio Σpit.qio
Σpio . qio
No pasamos exactamente valores corrientes a constante, cosa que si ocurre con el índice de
precios de Paasche (1.2.):

vt Σpit . qit
= = Σpio. qio
lp Σpit . qit
Σpio . qit

Entonces el índice que realmente permite transformar los valores nominales en valores reales es
el índice de precios de Paasche. Sin embargo, los resultados de la deflación por este índice de
precios sólo es válida en el supuesto de que los bienes, y sus cantidades, incluidos en el índice
sean los mismos que en la serie de valores. Esta limitación, junto con el hecho de que en pocas
situaciones se dispone de un índice de precios de Paasche, debido a su complicada elaboración,
hace que en la práctica se utilice un índice de precios de Laspeyres.

15
Ejemplo 1.4.

En la tabla siguiente se ha deflactado la serie de salarios ordinarios en la construcción de


Cantabria por trabajador en el periodo 2002 a 2006 utilizando el Índice General de Precios al
Consumo de Cantabria de 2002 a 2006 (media trimestral) en base 2006:

Año Trimestre Coste IPC Coste Indice de


salarial salarial en Valor del
ordinario euros del Coste
2006 Salarial
2002 1 1105,61 87,04 1270,30 100,00
2002 2 1163,12 88,84 1309,25 103,07
2002 3 1197,78 88,80 1348,92 106,19
2002 4 1203,04 90,16 1334,33 105,04
2003 1 1180,87 90,05 1311,40 103,24
2003 2 1216,98 91,06 1336,41 105,20
2003 3 1200,49 90,96 1319,81 103,90
2003 4 1226,42 92,44 1326,78 104,45
2004 1 1215,01 91,77 1323,91 104,22
2004 2 1265,44 93,79 1349,28 106,22
2004 3 1247,24 93,66 1331,68 104,83
2004 4 1280,62 95,30 1343,79 105,79
2005 1 1288,86 94,52 1363,55 107,34
2005 2 1301,36 96,58 1347,48 106,08
2005 3 1295,75 96,89 1337,41 105,28
2005 4 1320,46 98,43 1341,50 105,61
2006 1 1359,89 98,31 1383,21 108,89
2006 2 1368,91 100,43 1363,00 107,30
2006 3 1386,91 100,31 1382,57 108,84
2006 4 1362,92 100,94 1350,25 106,29
2007 1 1355,71 100,52 1348,71 106,17
2007 2 1389,98 102,66 1353,99 106,59
2007 3 1428,71 102,76 1390,35 109,45

1.7. INDICES DE VOLUMEN ENCADENADOS.


Tradicionalmente, en los índices compuestos se comparan directamente dos puntos en el
tiempo, el periodo actual (t) y el periodo base (0). Las diferencias entre los distintos índices
surgen a la hora de agregar los índices simples o elementales. En los índices de tipo Laspeyres
se considera la utilización de ponderaciones del periodo base, mientras que los índices de tipo
Paasche utilizan las ponderaciones del periodo actual. En ambos casos, si se produce un cambio
importante en la composición de las unidades elementales entre los periodos base y actual, la
relevancia de ambos índices se ve reducida.

16
Los índices encadenados consideran que el paso del período 0 al t puede fragmentarse
considerando los incrementos parciales, esto es, que el encadenamiento de los índices (i.e. de las
variaciones) evaluados con la frecuencia de muestreo máxima posible constituye una valoración
más apropiada del cambio realizado desde 0 hasta t. Intuitivamente, se intenta reducir el
envejecimiento de la base.

La forma de resolver este problema consiste en efectuar las comparaciones entre períodos que
disten lo menos posible (por ejemplo, un período) mediante “eslabones”:

I sA/ s −1 = ∑ w j i s / s −1
j

A partir de los eslabones, la variación entre los periodos 0 y t se encadena:

t
CI tA/ 0 = ∏ I sA/ s −1
s =1

Un índice así construido carece de periodo base o de ponderaciones, ya que van cambiando a lo
largo de los distintos periodos. No obstante, se designa un periodo llamado de referencia, al que
arbitrariamente se le asigna el valor 100.

Ejemplo 1.5

En la siguiente tabla se ofrece un ejemplo con datos hipotéticos de dos productos (A y B) y tres
años (0, 1 y 2):

2000 2001 2002


PRODUCTO PRECIO CANTIDAD p0.q0 PRECIO CANTIDAD p1.q1 PRECIO CANTIDAD p2.q2
A 3 5 15 2 9 18 1 9 9
B 4 7 28 5 7 35 6 11 66
TOTAL 43 53 75

Primero, se calculan los eslabones:

17
2000 2001 2002
PRODUCTO PRECIO CANTIDAD p0.q0 PRECIO CANTIDAD P0.q1 PRECIO CANTIDAD P1.q2
A 3 5 15 2 9 27 1 9 18
B 4 7 28 5 7 28 6 11 55
TOTAL 43 55 73
Eslabón 100 127,9 137,7

p 0 q1 55
127,9 = = × 100
p 0 q 0 43
p1 q 2 73
137,7 = = × 100
p1 q1 53
El índice encadenado se obtiene multiplicando cada eslabón anual en forma de índice por la
cadena acumulada hasta el año precedente. La cadena así obtenida es un número índice por lo
que su conversión en términos monetarios se realiza multiplicándola por el valor a precios
corrientes observado en un año particular, llamado “de referencia”. En la siguiente tabla se
considera el año 0 como periodo de referencia:
2000 2001 2002
PRODUCTO PRECIO CANTIDAD p0.q0 PRECIO CANTIDAD P0.q1 PRECIO CANTIDAD P1.q2
A 3 5 15 2 9 27 1 9 18
B 4 7 28 5 7 28 6 11 55
TOTAL 43 55 73
Eslabón 100 127,9 132,7
Índice encadenado 100 127,9 176,2
Valoración monetaria 43 55 76

127,9 × 100
127,9 =
100
137,7 × 127,9
176,2 =
100

Debe señalarse que, a diferencia de lo que ocurría con la valoración a precios constantes en la
que el año de referencia y base coinciden, en el sistema de valoración a precios del año anterior
no son equivalentes. Así, el año de referencia es el que define la escala del índice encadenado
(haciéndolo 100), mientras que la base temporal es móvil, existiendo tantas bases como pares de

18
años consecutivos por lo que, en conjunto, la valoración encadenada carece de base fija (base
móvil).

La aplicación de esta metodología genera una pérdida de aditividad en las medidas encadenadas
de volumen (excepto en los datos correspondientes a los años de referencia y al inmediatamente
posterior). La pérdida de aditividad significa, por ejemplo, que la suma de los componentes del
Producto Interior Bruto (PIB) no coincide con éste (excepto en los datos correspondientes a los
años de referencia y al inmediatamente posterior). De forma general, una variable valorada
mediante medidas encadenadas de volumen no coincide con la suma de sus elementos
constituyentes igualmente evaluados a través de medidas encadenadas de volumen. La pérdida
de aditividad es una consecuencia directa de las propiedades matemáticas del sistema de
valoración, por lo que las discrepancias no reflejan deterioro alguno de calidad en el proceso de
medida.

1.8. ELABORACIÓN DE ÍNDICES COMPUESTOS

La fórmula básica para la construcción de los indicadores líderes compuestos es la siguiente:

donde
wi es el ponderador

s i es el método de normalización

ci es el indicador simple

Cuando se elabora un indicador compuesto es necesario que las series individuales presenten la
misma amplitud cíclica relativa, pues de lo contrario, las series con mayor amplitud cíclica
dominarían el comportamiento del indicador compuesto, impidiendo así que se revele la
información contenida en otras series de menor amplitud. Para lograrlo, se normalizan las series
componentes restándoles la media y dividiéndolas por el promedio de las desviaciones de la
media en valor absoluto, conforme la siguiente fórmula:

19
Otros métodos de normalización serían:
z-score:

Min-max:

Cuando se trabaja con balances de respuestas (encuestas de opiniones empresariales), es


conveniente utilizar índices de difusión:

xt + 100
IDt =
2
donde IDt es el índice de difusión y xt es el balance de respuestas correspondiente.

La diferencia entre un balance de respuestas y un índice de difusión es que el primero está


centrado en cero, con un valor máximo de 100 y un mínimo de -100, mientras que el segundo
está centrado en 50, con un valor máximo de 100 y un valor mínimo de cero. El uso de índices
de difusión resulta más cómodo que el uso de balances, ya que en tal transformación, las series
sólo toman valores positivos, lo que facilita el uso de logaritmos y descomposiciones
multiplicativas de las series temporales.

Cuando el índice de difusión es mayor que 50, significa que los entrevistados están optimistas
respecto a la evolución de la variable objetivo. Si es menor que 50, los entrevistados se
encuentran pesimistas.

La ponderación se puede obtener de datos base de la Contabilidad Nacional Anual, por ejemplo,
si se quiere construir un indicador de producción industrial, se puede agregar a partir de los
índices subsectoriales y el VAB o empleo de cada subsector.

A continuación se exponen dos metodologías estadísticas de obtención de ponderadores: el


método de Granger y Newbold (1986) y los componentes principales.

20
a. El método de Granger y Newbold

Para la construcción del indicador sintético se estima la siguiente ecuación, utilizando la serie
anual de la macromagnitud de referencia y el conjunto de variables seleccionadas anualizadas:

( ) ( ) ( )
YT = α1 a1 + b1 X T1 + α 2 a2 + b2 X T2 + ... + α k ak + bk X tk + µT = ZT + µT

donde:
YT es el valor de la variable a trimestralizar en el año T.
X Tj es el valor del indicador aproximativo, en el año T, proyectada hasta el último trimestre del
año actual a través de modelos ARIMA, siendo k el número de indicadores aproximativos
utilizados
aj es el término independiente de la regresión entre Y y Xj.
bj es el coeficiente de la regresión entre Y e Xj.
α j es el peso asignado a la estimación a través de la variable j

ZT es el indicador sintético

µT es el error del modelo en el año T.

El peso de cada variable en el indicador sintético se establece de forma inversamente


proporcional al error de su regresión con Y, σ j , tal que:

σ −j 1
αj = k

∑σ
h =1
−1
h

Una vez obtenido el indicador Z, se obtiene la serie estimada del valor trimestral de la variable y

( ) ( ) (
yt = α1 a1 + b1 xt1 + α 2 a2 + b2 xt2 + ... + α k ak + bk xtk )
b. Estimación del modelo con Componentes Principales

La metodología de componentes principales se realiza en dos fases. En primer lugar se realiza


una estimación de los componentes principales de los indicadores estratégicos relacionados con
la variable Y, y en segundo lugar se realiza una regresión entre Y y el valor anualizado de los
factores resultantes de la fase anterior.

21
Así pues, siendo X1, X2,….Xm los distintos indicadores que hemos seleccionado como
variables relacionadas con Y, este método nos va extraer las diferentes funciones lineales (Zs)
que existen entre ellas:

Z 1 = a11 X 1 + a12 X 2 + ....a1n X n


Z 2 = a 21 X 1 + a 22 X 2 + ....a 2 n X n
....
Z m = a m1 X 1 + a m 2 X 2 + ....a mn X n

Este método extrae las funciones lineales (Zs) seleccionando las así de tal modo que las
varianzas de las Zs sean maximizadas. De este modo, los componentes extraídos son las
combinaciones lineales de los indicadores que tienen mayor varianza, siendo Z1 el componente
con mayor varianza explicada, seguido del Z2 que contiene la segunda mayor varianza explicada
pero sin estar correlacionado con Z1 y así sucesivamente, de modo que la suma de la varianza de
todos los componentes explique el total de las variaciones de las Xn y, a su vez, estén
incorrelacionadas entre ellas.

Uno de los problemas de esta metodología radica en la determinación del número de


componentes que deben ser tomados en cuenta para la fase número dos. La práctica más
extendida es que sólo serán tomados aquellos componentes cuyos autovalores (raíces
características) superen la unidad.

En la segunda fase del modelo de componentes principales, se expresa la relación entre el Y


trimestral y los componentes principales (CP) extraídos del conjunto de indicadores originales.
YT = α + βCPT + µ T

Obteniéndose la estimación trimestral de Y a partir de:


yt = α + βCPt + µ t

22
1.9. PROBLEMAS

1.1 Partiendo de las siguientes observaciones de tres precios:


Año A B C
1 3 2 4
2 4 3,5 3,5
3 4,5 3 2
4 5 2,5 1,5
5 6 3 1

Se pide:
a) Calcular el índice simple de cada precio tomando como referencia en año 1
b) Calcula un indice compuesto media aritmética, armónica y geométrica.
c) Calcula un indice compuesto ponderado utilizando como ponderadores 0.60, 0.30 y
0.10 para el precio A, B y C respectivamente.

1.2 Partiendo de las siguientes observaciones de precios y cantidades de los artículos de la


tabla:
Precios Cantidades
Año A B C A B C
1 6 1 2 50 500 100
2 7 1,5 3,5 40 450 120
3 8 0,75 4 30 600 110

a) Obtener los índices de precios de Paache, Laspeyres y Fisher tomando como referencia
en periodo 1.
b) Obtener los índices de cantidades de Paache, Laspeyres y Fisher tomando como
referencia en periodo 1.

1.3 En un contrato de alquiler está establecido que la renta anual se tiene que revisar de acuerdo
al crecimiento anual del IPC, teniendo en cuenta que el año 2010 se pagaba de 700 euros de
alquiler, calcule la actualización de dicha renta en 2011, 2012 y 2013, utilizando los datos
de la tabla siguiente:
IPC(Base
2005)
2010 120
2011 122
2012 125,5
2013 125

23
1.4 En la tabla siguiente se recogen los incrementos de salarios mensuales medios de una
industría durante el periodo 2010-2013, utilizando el IPC que se recoge en el cuadro
anterior calcule:
Salario
medio por
trabajador y
Año mes
2010 1200
2011 1210
2012 1150
2013 1000

a) Los indices de precios con base 2010


b) Los salarios en valores constantes del 2010
c) Calcule un indice que refleje la evolución del poder adquisitivo de esos salarios durante
el periodo.

1.5 En el 2013 se ha procedido a un cambio de base en dicho IPC, teniendo presente que el IPC
de 2014 con la base 2013 es 101,35, indique como ha variado el poder adquisitivo del un
salario medio de 1150 euros por trabajador y mes pagado en 2012.

1.6 Se dispone de los siguientes datos de precios y cantidades producidas:


A B
Años p q p q
0 6 50 3 35
1 8 60 4 45
2 10 70 7 50
3 12 80 9 60

Obtenga los eslabones y los índices de volumen de Laspeyres encadenados, año de referencia 0
y 1.

24
SOLUCIONES

1.1 a)
Año A B C
1 100 100 100
2 133,333333 175 87,5
3 150 150 50
4 166,666667 125 37,5
5 200 150 25

b)
Año Aritmética Armónica Geometrica
1 100 100 100
2 131,944444 121,73913 126,861044
3 116,666667 90 104,004191
4 109,722222 73,7704918 92,1007875
5 125 58,0645161 90,8560296

c)
Año Ponderado
1 100
2 141,25
3 140
4 141,25
5 167,5

1.2 a)
Paache Laspeyres Fisher
100 100 100
147,849462 145 146,4178
113 117,5 115,228035

b)
Paache Laspeyres Fisher
100 100 100
94,8275862 93 93,9093473
96,1702128 100 98,0664126

1.3
Renta
2010 700
2011 711,666667
2012 732,083333
2013 729,166667

25
1.4
a)
Indice de
precios
(Base
Año 2010)
2010 100
2011 101,666667
2012 104,583333
2013 104,166667

b)
Salarios a
valores
Año constantes
2010 1200
2011 1190,16393
2012 1099,60159
2013 960

c)
Indice de
Año Valor
2010 100
2011 99,1803279
2012 91,6334661
2013 80

1.5.
1139,22

1.6.
Indice
Años Eslabon encadenado
0 100
1 122,222222 122,222222
2 115,151515 140,740741
3 116,190476 133,795094

26
2. SERIES TEMPORALES

2.1. INTRODUCCIÓN

El presente epígrafe pretende ser una breve introducción al estudio de las series temporales, las
cuales poseen una gran importancia en el campo de la Economía dada la abundancia de este tipo
de observaciones; de hecho, las series temporales constituyen la mayor parte del material
estadístico con el que trabajan los economistas.

Pero, ¿qué es una serie temporal? Por definición, una serie temporal es una sucesión de
observaciones de una variable realizadas a intervalos regulares de tiempo. Según realicemos la
medida de la variable considerada podemos distinguir distintos tipos de series temporales:

− Discretas o Continuas, en base al intervalo de tiempo considerado para su medición.

− Flujo o Stock. En Economía, se dice que una serie de datos es de tipo flujo si está
referida a un período determinado de tiempo (un día, un mes, un año, etc.). Por su parte,
se dice que una serie de datos es de tipo stock si está referida a una fecha determinada
(por ejemplo, el 31 de Diciembre de cada año). Un ejemplo de datos de tipo flujo serían
las ventas de una empresa ya que éstas tendrán un valor distinto si se obtiene el dato al
cabo de una semana, un mes ó un año; por su parte, la cotización de cierre de las
acciones de esa misma empresa sería una variable de tipo stock, ya que sólo puede ser
registrado a una fecha y hora determinadas. Obsérvese que existen relación entre ambos
tipos de variables, pues la cotización al cierre de las acciones no es más que el precio de
cierre del día anterior más, o menos, el flujo de precios de la sesión considerada.

− Dependiendo de la unidad de medida, podemos encontrar series temporales en pesetas o


en diversas magnitudes físicas (kilogramos, litros, millas, etc.)

− En base a la periodicidad de los datos, podemos distinguir series temporales de datos


diarios, semanales, mensuales, trimestrales, anuales, etc.

27
Antes de profundizar en el análisis de las series temporales es necesario señalar que, para
llevarlo a cabo, hay que tener en cuenta los siguientes supuestos:

− Se considera que existe una cierta estabilidad en la estructura del fenómeno estudiado.
Para que se cumpla este supuesto será necesario estudiar períodos lo más homogéneos
posibles.

− Los datos deben ser homogéneos en el tiempo, o, lo que es lo mismo, se debe mantener
la definición y la medición de la magnitud objeto de estudio. Este supuesto no se da en
muchas de las series económicas, ya que es frecuente que las estadísticas se
perfeccionen con el paso del tiempo, produciéndose saltos en la serie debidos a un
cambio en la medición de la magnitud estudiada. Un caso particularmente frecuente es
el cambio de base en los índices de precios, de producción, etc. Tales cambios de base
implican cambios en los productos y las ponderaciones que entran en la elaboración del
índice que repercuten considerablemente en la comparabilidad de la serie en el tiempo.

El objetivo fundamental del estudio de las series temporales es el conocimiento del


comportamiento de una variable a través del tiempo para, a partir de dicho conocimiento, y bajo
el supuesto de que no van a producirse cambios estructurales, poder realizar predicciones, es
decir, determinar qué valor tomará la variable objeto de estudio en uno o más períodos de
tiempo situados en el futuro, mediante la aplicación de un determinado modelo calculado
previamente.

Dado que en la mayor parte de los problemas económicos, los agentes se enfrentan a una toma
de decisiones bajo un contexto de incertidumbre, la predicción de una variable reviste una
importancia notoria pues supone, para el agente que la realiza, una reducción de la
incertidumbre y, por ende, una mejora de sus resultados.

Las técnicas de predicción basadas en series temporales se pueden agrupar en dos grandes
bloques:

− Métodos cualitativos, en los que el pasado no proporciona una información directa


sobre el fenómeno considerado, como ocurre con la aparición de nuevos productos en el
mercado. Así, por ejemplo, si se pretende efectuar un estudio del comportamiento de

28
una acción en Bolsa, y la sociedad acaba de salir a cotizar al mercado, no se puede
acudir a la información del pasado ya que ésta no existe.

− Métodos cuantitativos, en los que se extrae toda la información posible contenida en los
datos y, en base al patrón de conducta seguida en el pasado, realizar predicciones sobre
el futuro.

Indudablemente, la calidad de las previsiones realizadas dependerán, en buena medida, del


proceso generador de la serie: así, si la variable observada sigue algún tipo de esquema o patrón
de comportamiento más o menos fijo (serie determinista) seguramente obtengamos
predicciones más o menos fiables, con un grado de error bajo. Por el contrario, si la serie no
sigue ningún patrón de comportamiento específico (serie aleatoria), seguramente nuestras
predicciones carecerán de validez por completo.

Generalmente, en el caso de las series económicas no existen variables deterministas o


aleatorias puras, sino que contienen ambos tipos de elementos. El objeto de los métodos de
previsión cuantitativos es conocer los componentes subyacentes de una serie y su forma de
integración, con objeto de realizar de su evolución futura.

Dentro de los métodos de predicción cuantitativos, se pueden distinguir dos grandes enfoques
alternativos:

− Por un lado, el análisis univariante de series temporales mediante el cual se intenta


realizar previsiones de valores futuros de una variable, utilizando como información la
contenida en los valores pasados de la propia serie temporal. Dentro de esta
metodología se incluyen los métodos de descomposición y la familia de modelos
ARIMA univariantes que veremos más adelante.

− El otro gran bloque dentro de los métodos cuantitativos estaría integrado por el análisis
multivariante o de tipo causal, denominado así porque en la explicación de la variable o
variables objeto de estudio intervienen otras adicionales de ella o ellas mismas.

En el tratamiento de series temporales que vamos a abordar, únicamente se considerará la


información presente y pasada de la variable investigada. Si la variable investigada es Y y se
dispone de los valores que toma dicha variable desde el momento 1 hasta T, el conjunto de
información disponible vendrá dado por:

29
Y1, Y2, Y3, …, YT-1, YT

Dada esa información, la predicción de la variable Y para el período T+1 la podemos expresar
como:

YˆT +1 / T

Con esta notación queremos indicar que la predicción para el periodo T+1 se hace condicionada
a la información disponible en el momento T. El acento circunflejo sobre la Y nos indica que esa
predicción se ha obtenido a partir de un modelo estimado. Conviene también hacer notar que
T+1 significa que se está haciendo la predicción para un período hacia delante, es decir, con la
información disponible en t hacemos una predicción para el período siguiente.

Análogamente, la predicción para el período T+2 y para el período T+m, con la información
disponible en T, vendrá dada, respectivamente, por:

YˆT + 2 / T ; YˆT + m / T

que serán predicciones de 2 y m períodos hacia adelante.

Si, genéricamente, para el período t se efectúa una predicción con la información disponible en

t–1, y a la que designamos por Yˆt / t −1 , para el período t podemos hacer una comparación de este

valor con el que realmente observemos (Yt). La diferencia entre ambos valores será el error de
predicción de un período hacia adelante y vendrá dado por:

et / t −1 = Yt − Yˆt / t −1

Cuando un fenómeno es determinista y se conoce la ley que lo determina, las predicciones son
exactas, verificándose que et / t −1 = 0 . Por el contrario, si el fenómeno es poco sistemático o el
modelo es inadecuado, entonces los errores de predicción que se vayan obteniendo serán
grandes.

Para cuantificar globalmente los errores de predicción se utilizan los siguientes estadísticos: la
Raíz del Error Cuadrático Medio (RECM) y el Error Absoluto Medio (EAM).

30
En el caso de que se disponga de T observaciones y se hayan hecho predicciones a partir de la
observación 2, las fórmulas para la obtención de la raíz del Error Cuadrático Medio y el Error
Absoluto Medio son las siguientes:

T T


t =2
et2/ t −1 ∑ (Y − Yˆ
t =2
t t / t −1 )
2

RECM = =
T −1 T −1

T T


t =2
et / t −1 ∑ Y − Yˆ
t =2
t t / t −1

EAM = =
T −1 T −1

De forma análoga se pueden aplicar la RECM y el EAM en predicciones de 2, 3, …, m períodos


hacia adelante.

En el análisis de series temporales se aplican, en general, métodos alternativos a unos mismos


datos, seleccionando aquel modelo o aquel método que, en la predicción de períodos presentes y
pasados, arroja errores de predicción menores, es decir, arroja una RECM o un EAM menor.

2.2. COMPONENTES DE UNA SERIE TEMPORAL

Tradicionalmente, en los métodos de descomposición de series temporales, se parte de la idea de


que la serie temporal se puede descomponer en todos o algunos de los siguientes componentes:

− Tendencia (T), que representa la evolución de la serie en el largo plazo

− Fluctuación cíclica (C), que refleja las fluctuaciones de carácter periódico, pero no
necesariamente regular, a medio plazo en torno a la tendencia. Este componente es
frecuente hallarlo en las series económicas, y se debe a los cambios en la actividad
económica.

Para la obtención de la tendencia es necesario disponer de una serie larga y de un


número de ciclos completo, para que ésta no se vea influida por la fase del ciclo en que
finaliza la serie, por lo que, a veces, resulta difícil separar ambos componentes. En estos
casos resulta útil englobar ambos componentes en uno solo, denominado ciclo-
tendencia o tendencia generalizada.

31
− Variación Estacional (S): recoge aquellos comportamientos de tipo regular y repetitivo
que se dan a lo largo de un período de tiempo, generalmente igual o inferior a un año, y
que son producidos por factores tales como las variaciones climatológicas, las
vacaciones, las fiestas, etc.

− Movimientos Irregulares (I), que pueden ser aleatorios, la cual recoge los pequeños
efectos accidentales, o erráticos, como resultado de hechos no previsibles, pero
identificables a posteriori (huelgas, catástrofes, etc.)

En este punto, cabe señalar que en una serie concreta no tienen por qué darse los cuatro
componentes. Así, por ejemplo, una serie con periodicidad anual carece de estacionalidad.

La asociación de estos cuatro componentes en una serie temporal, Y, puede responder a distintos
esquemas; así, puede ser de tipo aditivo:

Y=T+C+S+I

También puede tener una forma multiplicativa:

Y=TCSI

O bien ser una combinación de ambos, por ejemplo:

Y=TCS+I

Una forma sencilla para ver como están asociadas las componentes de una serie temporal es
representar gráficamente la serie que estamos analizando. Si al realizar la representación gráfica
se observa que las fluctuaciones son más o menos regulares a lo largo de la serie, sin verse
afectadas por la tendencia (véase Figura. 2.1), se puede emplear el esquema aditivo.

32
Figura 2.1. Esquema aditivo

Si, por el contrario, se observa que la magnitud de las fluctuaciones varía con la tendencia,
siendo más altas cuando ésta es creciente y más bajas cuando es decreciente (véase Figura 2.2),
se debe adoptar entonces el esquema multiplicativo.

Figura 2.2. Esquema multiplicativo.

2.3. ANÁLISIS DE LA TENDENCIA

Como decíamos en el apartado anterior, la tendencia es el componente de la serie temporal que


representa la evolución a largo plazo de la serie. La tendencia se asocia al movimiento uniforme

33
o regular observado en la serie durante un período de tiempo extenso. La tendencia es la
información más relevante de la serie temporal ya que nos informa de si dentro de cinco, diez o
quince años tendrá un nivel mayor, menor o similar al que la serie tiene hoy día.

El análisis de la tendencia se realiza fundamentalmente con dos objetivos: por un lado, para
conocer cuáles son las pautas de comportamiento a lo largo del tiempo, de la variable objeto de
estudio, y por otro, para predecir sus valores futuros.

Las tendencias suelen representarse mediante funciones de tiempo continuas y diferenciables.


Las funciones de tendencia más utilizadas son:

1. Lineal.
2. Polinómica.
3. Exponencial.
4. Modelo autorregresivo
5. Función
6. Curva de Gompertz
7. Modelo logarítmico recíproco

Si una serie temporal Xt se ajusta a una tendencia lineal, la función de tiempo que se plantea es
la siguiente:

Xt =α+βt t= 1, 2, …, n

Una tendencia polinómica de grado p se ajustará a una función del siguiente tipo:

f(t) = α+β1 + β2t2 + …+βptp

Si la tendencia sigue una ley exponencial, entonces la función de ajuste será:

f(t) = aert
donde a y r son constantes.

Un modelo autorregresivo ajusta la tendencia de la forma siguiente:

Xt =γ0+γ1xt-1 + ut siendo γ>0

34
La curva logística se representa mediante la función:

T
T (t ) =
1 − be − rt
donde t, b y r son constantes positivas.

La curva de Gompertz responde a la siguiente ecuación:

f (t) = T·be-rt
donde T, r, b son parámetros positivos.

Finalmente, el modelo logarítmico recíproco, viene definido por la relación:

f(t) = a + b 1/t B<0

Para calcular las funciones de tendencia, lo habitual es linealizar las formas de las funciones no
lineales y proceder a su estimación como si fuera una función de tendencia lineal.

Una vez establecido un modelo teórico para la tendencia, se debe proceder a la determinación o
cálculo de los parámetros que desconocemos mediante diversos procedimientos estadísticos,
que pasamos a describir a continuación.

2.3.1. Método de los semipromedios

El método de los semipromedios es la forma más rápida de estimar una línea de tendencia recta.
El método requiere dividir la serie de datos en dos mitades y calcular el promedio de cada mitad
que se centra en el punto medio. La recta que una ambas medias (o semipromedios) será la línea
de tendencia estimada.

Ejemplo 2.1.

Utilizando la serie cronológica de ventas de gasolina en Castilla y Leon: años 1985-1994.


(Miles de Tm.) sobre la que vamos a realizar un ajuste de una tendencia basada en el método de
semipromedios:

35
AÑOS Tm.
1985 441.300
1986 441.200
1987 466.700
1988 496.700
1989 527.809
1990 536.445
1991 548.302
1992 599.525
1993 613.849
1994 610.370

Dividimos la serie en dos mitades, cada una de cinco años, y calculamos los promedios de cada
mitad. Los promedios los centramos en las observaciones centrales, las correspondientes a 1987
y 1992:

441.300 + 441.200 + 466.700 + 496.700 + 527.809


Promedio centrado en 1987 = = 474.742
5

536.445 + 548.302 + 599.525 + 613.849 + 610.370


Promedio centrado en 1992 = = 581698
.
5

La ecuación de la línea de tendencia será:

Yt* = a + bt

donde Yt* es el valor de la tendencia estimada de las ventas de gasolina.

El valor de a se obtiene al hacer t=0, y se hace corresponder con el valor del primer promedio:

a = Y0* = 474.472

El coeficiente de la pendiente de la recta b representaría el incremento anual de la tendencia, y


se calcula a partir de los dos promedios:

36
581.698 − 474.742
b= = 21391
.
5

Nótese que al ser cinco los años que hay de diferencia entre 1992 y 1987, años en los que hemos
centrado los promedios, el denominador que utilizamos para calcular el incremento anual es
igual a 5.

La ecuación Yt*=474.742+21391t nos sirve para obtener la tendencia una vez conocidos los
valores t o del regresor, que ha de tener necesariamente valor cero en 1987. Los valores de Xt se
elaboran a partir de una sucesión de puntuaciones consecutivas que van desde un mínimo de -2
de 1985 hasta un máximo de 7 en 1994:

Tm. Semipromedio t Tendencia


1985 441300 -2 431959
1986 441200 -1 453351
1987 466700 474742 0 474742
1988 496700 1 496133
1989 527809 2 517524
1990 536445 3 538916
1991 548302 4 560307
1992 599525 581698 5 581698
1993 613849 6 603089
1994 610370 7 624481

La tendencia se representa en la figura 2.3:

37
Tendencia de las ventas de gasolina

650.000

600.000

550.000

500.000 Tm.
Tendencia

450.000

400.000
1985 1986 1987 1988 1989 1990 1991 1992 1993 1994

Figura 2.3.

2.3.2. Método de mínimos cuadrados

El método de mínimos cuadrados es el que más se utiliza para ajustar tendencias. Este método
da los mismos resultados que el método anterior cuando es utilizado para obtener tendencias
lineales. Si realizamos sencillas transformaciones aritméticas de los datos puede también ser
utilizado para representar funciones de tendencias no lineales.

Estimar una tendencia lineal por el método de MCO equivale a estimar la siguiente función:

Yt* = a + bt (2.1.)

utilizando como variable explicativa un vector de números secuenciales {1,2,3,…,n}


representativos del periodo.

38
Si se quiere obtener una tendencia exponencial, debemos linealizar la función lo que requiere su
transformación en logaritmos:

Y = bert (2.2.)

Entonces:

ln Yt = ln b + rt

Una vez estimada la tendencia lineal por mínimos cuadrados, calculamos la exponencial del
logaritmo para devolver la tendencia a la escala de los datos originales.

Ejemplo 2.2

En la siguiente tabla en la que se muestra la evolución de las ventas de gasolina en Castilla y


León Años 1985-1994. (Miles de tm.). Con los datos transformados para estimar por MCO una
tendencia lineal y una tendencia exponencial.

Tm.(Y) Logaritmo (Y) X Tendencia exponencial Tendencia

1985 441300 13.00 1 12.98 435719


1986 441200 13.00 2 13.03 454039
1987 466700 13.05 3 13.07 473130
1988 496700 13.12 4 13.11 493024
1989 527809 13.18 5 13.15 513754
1990 536445 13.19 6 13.19 535355
1991 548302 13.21 7 13.23 557865
1992 599525 13.30 8 13.27 581322
1993 613849 13.33 9 13.31 605764
1994 610370 13.32 10 13.36 631235

Ambas tendencias se representan en la figura 2.4:

39
Tendencia de las ventas de gasolina

650.000

600.000

550.000

500.000 Tm.
Tendencia
T.Exponencial
450.000

400.000
1985 1986 1987 1988 1989 1990 1991 1992 1993 1994

Figura 2.4.

Para analizar la calidad del ajuste realizado hay que considerar los estadísticos de la regresión
mínimo cuadrada1 :

Estadísticas de la regresión
Coeficiente de correlación múltiple 0,984248834
Coeficiente de determinación R2 0,968745767
2
R ajustado 0,964838988
Error típico 0,023756892
Observaciones 10

En el ejercicio que hemos realizado la magnitud del coeficiente de determinación (R2=0,9687)


sería indicativo de un aceptable ajuste.

La estimación MCO da lugar a los coeficientes b y m que figuran en la tabla siguiente:

Coeficientes Error típico Estadístico t Probabilidad Inferior 95% Superior 95%


Intercepción 12.9435651 0.016229 797.55546 6.8409E-21 12.9061409 12.98098942
Variable X 1 0.04118681 0.0026155 15.746915 2.6424E-07 0.03515534 0.047218276

1
El capítulo 8.4 dedicado a la regresión minimo-cuadrada estudia los fundamentos de dicha técnica y los
estadísticos que se mencionan.

40
La intercepción en el origen es el coeficiente a, y la “Variable X 1” es el coeficiente b. La tabla
da el abanico de valores más probables para ambos coeficientes al nivel de confianza del 95%,
estos valores son los que figuran en las casillas Inferior y Superior. En el caso del coeficiente a,
el ajuste mínimo-cuadrado da como resultado que lo más probable es que se encuentre entre el
intervalo que va desde el valor 12,91 hasta el 12,98, siendo su valor medio 12,94; en tanto que
el coeficiente b estará en el intervalo que va desde 0,035 hasta 0,047, resultando ser su valor
medio 0,041. Se rechaza en ambos casos la hipóteis nula H 0 : β = 0 a un α = 0,05 , por lo que

consideramos que los coeficientes estimados son estadísticamente significativos.

En el ejemplo la función lineal estimada (2.1) sería:

Yt* = 12,94 + 0,041t

La estimación de la tendencia en forma exponencial (2.2) quedaría:

Yt = 242801,6.e0,041t

2.3.3. Médias móviles

En el análisis de series temporales, el método de medias móviles tiene diversas aplicaciones:


así, este método puede sernos útil si queremos calcular la tendencia de una serie temporal sin
tener que ajustarnos a una función previa, ofreciendo así una visión suavizada o alisada de una
serie, ya que promediando varios valores se elimina parte de los movimientos irregulares de la
serie; también puede servirnos para realizar predicciones cuando la tendencia de la serie tiene
una media constante.

Veamos qué es una media móvil: se trata, sencillamente de una media aritmética que se
caracteriza porque toma un valor para cada momento del tiempo y porque en su cálculo no
entran todas las observaciones de la muestra disponible.

Entre los distintos tipos de medias móviles que se pueden construir nos vamos a referir a dos
tipos: medias móviles centradas y medias móviles asimétricas. El primer tipo se utiliza para la

41
representación de la tendencia, mientras que el segundo lo aplicaremos para la predicción en
modelos con media constante.

Las medias móviles centradas se caracterizan porque el número de observaciones que entran
en su cálculo es impar, asignándose cada media móvil a la observación central. Así, una media
móvil centrada en t de longitud 2n + 1 viene dada por la siguiente expresión:

1 n
Y + Yt − n +1 + ... + Yt + ... + Yt + n −1 + Yt + n
MM ( 2n + 1) t = ∑
2n + 1 i = − n
Yt +i = t −n
2n + 1

Como puede observarse, el subíndice asignado a la media móvil, t, es el mismo que el de la


observación central, Yt. Obsérvese también que, por construcción, no se pueden calcular las
medias móviles correspondientes a las n primeras y a las n últimas observaciones.

Por su parte, en el caso de las medias móviles asimétricas se asigna cada media móvil al
período correspondiente a la observación más adelantada de todas las que intervienen en su
cálculo. Así la media móvil asimétrica de n puntos asociada a la observación t tendrá la
siguiente expresión:

1 t Y + Yt − n + 2 + ... + Yt −1 + Yt
MMA( n ) t = ∑ Yt +i = t −n +1
n i =t − n +1 n

Este tipo de medias móviles se emplea en la predicción de series cuya tendencia muestra una
media constante en el tiempo, utilizándose la siguiente ecuación:

1 T +1 Y Y
MMA( n ) T +1 = ∑ Yt = MMA( n ) T + T +1 − T −n +1
n i =T − n + 2 n n

Es decir, para predecir el valor de la serie en el período siguiente se suma a la media móvil, la
media aritmética de los n últimos períodos, siendo n la longitud de la media móvil.

La utilización de medias móviles implica la elección arbitraria de su longitud u orden, es decir,


del número de observaciones que intervienen en el cálculo de cada media móvil. Cuanto mayor
sea la longitud, mejor se eliminarán las irregularidades de la serie, ya que al intervenir más
observaciones en su cálculo se compensarán las fluctuaciones de este tipo, pero por el contrario,
el coste informativo será mayor. Por el contrario, cuando la longitud es pequeña, la media móvil

42
refleja con mayor rapidez los cambios que puedan producirse en la evolución de la serie. Es
conveniente, pues, sopesar estos factores al decidir la longitud de la media móvil.

Ejemplo 2.3

Veamos a continuación un ejemplo, utilizando de nuevo la serie de ventas de gasolina, optamos


por calcular una media móvil trienal que ofrece los siguientes resultados:

Tm. Media móvil trienal

1985 441300
1986 441200 449733
1987 466700 468200
1988 496700 497070
1989 527809 520318
1990 536445 537519
1991 548302 561424
1992 599525 587225
1993 613849 607915
1994 610370

El valor de la media móvil trienal asignado a 1986 se calcula así:


441300 + 441200 + 466700
449733 =
3
A su vez, el valor de la media móvil trienal asignado a 1987 se calcula así:
441200 + 466700 + 496700
468200 =
3

Tendencia en medias móviles trienales de las ventas de gasolina

650.000

600.000

550.000
Tm.
500.000
Media movil trienal
450.000

400.000
1985 1986 1987 1988 1989 1990 1991 1992 1993 1994

Figura 2.5.

43
Como se aprecia en la figura 2.5., el inconveniente que tiene la media móvil es que perdemos
información de la tendencia en los ejercicios inicial y final. En este sentido, volvemos a resaltar
que las medias móviles, comparadas con métodos basados en ajustes aritméticos, tienen un
coste informativo.

2.3.4. Alisado Exponencial Simple

El método del alisado exponencial simple consiste, al igual que en el caso de las medias
móviles, en una transformación de la variable original. Si una variable Y es sometida a un
proceso de alisado exponencial simple se obtiene como resultado la variable alisada St.
Teóricamente, la variable alisada St se obtendría según la expresión:

St = (1 – w) Yt + (1 – w) wYt-1+ (1-w) w2 Yt-2 + (1 – w) w3 Yt-3 + … (2.3.)

donde w es un parámetro que toma valores comprendidos entre 0 y 1, y los puntos suspensivos
indican que el número de términos de la variable alisada puede ser infinito. La expresión
anterior en realidad no es más que una media aritmética ponderada2 de infinitos valores de Y.

Se denomina alisada ya que suaviza o alisa las oscilaciones que tiene la serie, al obtenerse como
una media ponderada de distintos valores. Por otra parte, el calificativo de exponencial se debe a
que la ponderación o peso de las observaciones decrece exponencialmente a medida que nos
alejamos del momento actual t. Esto quiere decir que las observaciones que están alejadas tienen
muy poca incidencia en el valor que toma St. Finalmente, el calificativo de simple se aplica para
distinguirla de otros casos en que, como veremos más adelante, una variable se somete a una
doble operación de alisado.

Una vez que se han visto estos aspectos conceptuales, vamos a proceder a la obtención operativa
de la variable alisada, ya que la expresión no es directamente aplicable, por contener infinitos
términos. Retardando un período en la expresión anterior se tiene que:

2
Para que pueda aceptarse que es una media aritmética ponderada debe verificarse que las ponderaciones,
sumen 1. La demostración, que excede las pretensiones de este texto, se basa en el cálculo de la suma de
infinitos términos de una progresión geométrica convergente.

44
St-1 = (1 – w) Yt-1 + (1 – w) wYt-2 + (1-w) w2 Yt-3 + …

Multiplicando ambos miembros por w se obtiene:

wSt-1 = (1 – w) wYt-1 + (1 – w) w2 Yt-2 + (1 – w) w3 Yt-3 + … (2.4.)

Restando (2.4) de (2.3) miembro a miembro y ordenando los términos se tiene que:

St = (1 - w) Yt + wSt-1

O también:

St = αYt + (1 - α) St-1 (2.5.)

donde α = 1 – w.

Ahora ya sólo nos falta calcular los valores de α y S0, parámetros a partir de los cuales resulta
sencillo hallar los valores de la variable alisada de forma manera recursiva, tal que:

S1 = αY1 + (1 - α) S0
S2 = αY2 + (1 - α) S1
S3 = αY3 + (1 - α) S2
………………………
Al asignar un valor a α hay que tener en cuenta que un valor pequeño de α significa que estamos
dando mucho peso a las observaciones pasadas a través del término St-1. Por el contrario, cuando
α es grande se da más importancia a la observación actual de la variable Y. En general, parece
que un valor de α igual a 0.2 es apropiado en la mayor parte de los casos. Alternativamente, se
puede seleccionar aquel valor de α para el que se obtenga una Raíz del Error Cuadrático Medio
menor en la predicción del período muestral.

Respecto a la asignación de valor a S0 se suelen hacer estos supuestos: cuando la serie tiene
muchas oscilaciones se toma S = Y1; por el contrario, cuando la serie tiene una cierta estabilidad
se hace S0 = Y .

45
Ejemplo 2.4

La macro de análisis estadístico de EXCEL incluye un procedimiento para realizar el suavizado


exponencial (2.5):

46
En el menú de la macro hay que indicar el rango donde están los datos, el coeficiente α = 0,20 ,
y la celda en donde se grabará la salida de resultados, elegimos que nos realice el gráfico y nos
calcule los errores típicos (RECM).

47
2.3.5. Alisado Exponencial Doble

Una variante más avanzada del método anterior es el Alisado Exponencial Doble, también
conocido como método de Brown. Básicamente, lo que se hace mediante este método es
someter a la variable a una doble operación de alisado: en la primera operación se alisa
directamente la variable objeto de estudio, mientras que en la segunda operación se procede a
alisar la variable alisada previamente obtenida. Así pues, las fórmulas del Alisado Exponencial
Doble son las siguientes:

Primer alisado: S’t = αYt + (1–α) S’t-1


Segundo alisado: S’’t = αS’t + (1–α) S’’t-1

Obsérvese que en los dos alisados se utiliza el mismo coeficiente α. A partir de las dos variables
alisadas se estiman los coeficientes de la recta para utilizarlos en la predicción.

Las fórmulas que permiten pasar de los coeficientes de alisado a los coeficientes de la recta son
las siguientes:

b0t = 2 S t' − S t''


α
b1t = ( S t' − S t'' )
1−α

Finalmente, si con la información disponible en t, deseamos realizar una predicción de la


variable para el momento t+m, aplicaremos la siguiente fórmula:

Yˆt + m = b0t + b1t m

Asimismo, al igual que en el caso del Alisado Exponencial Simple, para poder obtener St' y St’’
es necesario conocer los valores iniciales, que en este caso serían dos, S0’ y S0’’. Para
determinarlos se utilizan las siguientes relaciones que permiten obtener b0t y b1t, aunque en
sentido inverso.

Realizando un ajuste de la recta por mínimos cuadrados con toda la información disponible se

obtendrán las estimaciones bˆ0 t y bˆ1t .

48
Haciendo que:

b00 = bˆ0t y b10 = bˆ1t

y tomando t = 0, se obtiene:

1−α
S 0' = b00 − b10
α
1−α
S 0'' = b00 − 2b10
α

A partir de estos valores se inicia la recursión ya señalada.

En lo que respecta al valor de α, es válido lo que se dijo en el caso del Alisado Exponencial
Simple, siendo aconsejable tomar α = 0.2 o, alternativamente, seleccionar aquel valor de α que
haga mínima la RECM cuando realicemos predicciones.

2.3.6. Método de Holt-Winters.

El método de Holt-Winters es una técnica de suavizado que utiliza un conjunto de estimaciones


recursivas a partir de la serie histórica. Estas estimaciones utilizan una constantes de nivel, α ,
una constante de tendencia, β , y una constante estacional multiplicativa, γ . Las estimaciones
recursivas se basan en las siguientes ecuaciones:
Y
Yˆt = α (Yˆt −1 − Tt −1 ) + (1 − α ) t , (0 < α < 1)
Ft − 2

Tt = βTt −1 + (1 − β )(Yˆt − Yˆt −1 ), (0 < β < 1) (2.6.)

Yt
Ft = γFt − s + (1 − γ ) , (0 < γ < 1)

t

donde s=4 en el caso de datos trimestrales y s=12 en el caso de los datos mensuales.
Yˆt sería el

nivel suavizado de la serie, Tt la tendencia suavizada de la serie y Ft el ajuste estacional

suavizado de la serie.

49
Ejemplo 2.5

Utilizando el programa R se va a desarrollar un alisado exponencial doble, para lo cual hay que
invocar la función “HoltWinters”, que tiene la siguiente estructura:

HoltWinters(x, alpha = NULL, beta = NULL, gamma = NULL,


seasonal = c("additive", "multiplicative"),
start.periods = 2, l.start = NULL, b.start = NULL,
s.start = NULL,
optim.start = c(alpha = 0.3, beta = 0.1, gamma = 0.1),
optim.control = list())

Hay que tener presente que “x” es el conjunto de datos, alpha, beta y gamma, son las
constantes α , β , y γ de (2.6). Si se desea la función elege los coeficientes α , β , y γ
optimos, en la opción “optim.start”, hay que indicar los valores de partida, la function
intenta encontral el valor optimo minimizando el RECM en la opción por defecto. Si no se le
indican los valores de partida los encuera a través de una simple descomposición temporal de la
serie utilizando medias móviles.

Utilizando la base de datos co2 que se obtiene en R, relativa a concentraciones atomosféricas de


CO2 en partes por millón (ppm), realizamos un suavizado por el metodo de Holt-Winter en R:
> m <- HoltWinters(co2)

> m
Holt-Winters exponential smoothing with trend and additive seasonal
component.

Call:
HoltWinters(x = co2)

Smoothing parameters:
alpha: 0.5126484
beta : 0.009497669
gamma: 0.4728868

Coefficients:
[,1]
a 364.7616237
b 0.1247438
s1 0.2215275
s2 0.9552801
s3 1.5984744
s4 2.8758029
s5 3.2820088
s6 2.4406990
s7 0.8969433
s8 -1.3796428
s9 -3.4112376
s10 -3.2570163
s11 -1.9134850
s12 -0.5844250

50
Realizamos una representación gráfica de los resultados con:
> plot(fitted(m)

2.4. ANÁLISIS DE LA ESTACIONALIDAD

En este apartado pasamos a examinar el análisis de la estacionalidad de las series temporales,


entendiéndose por tal, aquellos ciclos regulares cuya duración es inferior al año. Las variaciones
o ciclos estacionales son muy frecuentes en las series temporales, sea cual sea su naturaleza, y
pueden presentar un esquema horario, diario, semanal, mensual, trimestral o incluso semestral,
no siendo necesario que tengan alguna relación con las estaciones del año. Lo verdaderamente
importante de los ciclos estacionales es su temporalidad o repetición regular.

Algunos ejemplos de ciclos estacionales serían:

− El aumento de viajeros en los autobuses urbanos en determinadas horas del día.

− Las ventas diarias de un supermercado que suelen presentar entre semana un esquema
bastante regular.

51
− El movimiento de viajeros en los establecimientos hoteleros que se concentra en
determinados meses del año.

− El consumo de energía eléctrica que suele ser mayor los meses de invierno.

El motivo principal que induce a estudiar los ciclos estacionales es que, de no tenerse en cuenta
estas variaciones, se obtienen bastantes distorsiones a la hora de analizar la evolución de las
series, actuando muchas veces el factor estacional como una máscara que impide captar
adecuadamente la evolución del fenómeno objeto de estudio. Un ejemplo de estas distorsiones
ocurre, por ejemplo, cuando se compara el consumo de electricidad en el primer y segundo
trimestre del año, ya que el ciclo estacional al delimitar un aumento del consumo en los meses
de invierno, impide una interpretación correcta sobre el uso subyacente de la energía de dicho
período.

Por ello, será conveniente eliminar el influjo de los ciclos estacionales en la serie, a fin de poder
realizar comparaciones entre dos estaciones sucesivas y predecir correctamente el
comportamiento futuro de la variable.

Para ello, existen diferentes procedimientos: utilización de filtros lineales, X11-ARIMA,


SEATS (Signal Extraction in ARIMA Time Series), etc., cuya solución requiere de un cálculo
matemático relativamente complejo; aquí únicamente estudiaremos los procedimientos de
desestacionalización más sencillos: el método de porcentaje promedio y el método del
porcentaje promedio móvil.

Asimismo, cabe señalar que, con carácter previo a la desestacionalización, a menudo hay que
realizar una serie de ajustes en la serie temporal para tener en cuenta hechos o eventos que
pueden afectar al ciclo estacional que tratamos de analizar. Estos eventos que suelen ser
festividades, interrupciones del trabajo debido a huelgas, paros, regulaciones de empleo, etc., no
siempre son eliminados por los promedios dentro del mes o trimestre en que se producen, de ahí
que sea necesario corregir previamente los datos iniciales. Una forma de compensar estas
variaciones es multiplicar la serie de datos origínales por la siguiente razón:

Número de días efectivos de un mes en un promedio de años (ó en un calendario laboral)


Número de días efectivos del mes dado

52
en la que la definición de los días efectivos dependerá de la serie cronológica que nos interesa y
de los motivos por los que realizamos el ajuste.

Finalmente, para saber si una serie temporal presenta variaciones estacionales de relevancia, se
suele hacer un análisis de la varianza del componente estacional-irregular de la serie, utilizando
como factor de variación la referencia temporal de la serie (semanal, mensual, trimestral,
etc.…). Dicho análisis proporciona como estadístico la F de Snedecor, cuyo valor comparado
con el que figura en las tablas del Anexo, nos permite determinar si tiene significación el factor
temporal para explicar la varianza de la serie; de admitirse dicha posibilidad, quedaría
demostrado que los movimientos estacionales de la serie son lo suficientemente determinantes
como para proceder a su desestacionalización posterior.

Ejemplo 2.6

Veamos a continuación un ejemplo: vamos a realizar un test de presencia de estacionalidad a la


serie mensual de ventas de gasolina en Castilla y León durante el período 1985-1994.

Años
Meses 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994
1 26000 29100 28400 31000 35689 37229 32745 37621 35299 40157
2 24800 24200 27600 32400 32566 35146 28720 37208 39508 39203
3 29400 34900 33700 38700 45225 40100 42681 43175 45681 51174
4 35400 33400 40600 39700 35800 46117 44134 49106 55183 48357
5 31900 35200 34300 36500 44900 42894 43489 46905 46689 47538
6 31000 34700 39100 39900 42808 42972 42395 47682 50162 52353
7 56500 47300 50100 49700 54817 54729 57811 62712 66180 58967
8 74400 56900 60700 66100 67900 67200 70278 77667 75607 74335
9 35700 40200 40800 45300 46800 46200 50466 53616 53087 52880
10 34400 36700 38700 40200 40485 43940 46597 49400 49777 49722
11 28900 30300 33600 36100 36760 39572 40813 43204 44232 42519
12 32900 38300 39100 41100 44059 40346 48174 51229 52444 53165
TOTAL 441300 441200 466700 496700 527809 536445 548302 599525 613849 610370

Para ello, obtenemos la componente estacional-irregular de la serie como diferencia entre la


serie original y una tendencia que calculamos mediante una media móvil centrada de 12
términos.

53
Años
Meses 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994
1 0 -7992 -9617 -9067 -7695 -7370 -11358 -10774 -15852 -10918
2 0 -11433 -10733 -8117 -10968 -9395 -15639 -11802 -11472 -11766
3 0 -1108 -4683 -2192 1566 -4391 -2034 -6098 -5255 223
4 0 -2800 2050 -1317 -7883 1338 -802 -401 4216 -2590
5 0 -1117 -4525 -4725 1163 -2119 -1551 -2800 -4364 -3266
6 -5775 -2067 208 -1492 -1176 -1732 -3297 -2279 -992 1489
7 19467 10592 10992 7918 10705 10399 11713 12945 14621 0
8 37417 19908 21192 24304 23573 23405 23472 27708 24074 0
9 -1742 3308 875 2960 2900 2190 3619 3449 1096 0
10 -2875 -792 -1150 -1815 -4275 96 -665 -1274 -1645 0
11 -8650 -7117 -6433 -6615 -7833 -4322 -6733 -7451 -7261 0
12 -4958 517 -1000 -1857 -548 -3500 188 366 768 0

Para realizar un test de presencia de estacionalidad utilizamos la técnica de Análisis de Varianza


de un factor, utilizando como factor la agrupación por meses de los datos de ventas de gasolina.

El análisis de varianza ofrece en este caso los siguientes resultados:

Análisis de la varianza de la serie de ventas de gasolina en CYL


Origen de las Suma de Grados de Promedio de Valor crítico
variaciones cuadrados libertad cuadrados F Probabilidad para F
Entre grupos 7788660568 11 708060052 161.680764 1.2494E-51 1.90453875
Dentro de los grupos 367867165 84 4379371.01

Total 8156527733 95

Como se puede apreciar, el valor de la F es lo suficientemente grande para admitir la hipótesis


H 0 de que el factor temporal mensual explica una parte de la varianza que tiene toda la serie.
Como vemos en dicha salida también aparece el valor crítico de la F por debajo del cual
rechazamos la hipótesis H0 .

54
2.4.1. Método del porcentaje promedio

El método del porcentaje promedio es un procedimiento rápido y simple para elaborar un índice
estacional. El primer paso consiste en expresar la información de cada mes (o trimestre) como
un promedio para el año; en un segundo paso se obtienen porcentajes de los promedios anuales;
y, finalmente, en un tercer paso, dichos porcentajes se promedian en cada mes, obteniéndose
como resultado el índice estacional.

Ejemplo 2.7.

Para ilustrar el método del porcentaje promedio utilizamos el anterior ejemplo de las ventas
mensuales de gasolina en Castilla y León para el período 1985-1994.

• En primer lugar obtenemos el promedio mensual de las ventas anuales:

Años
Meses 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994
1 26000 29100 28400 31000 35689 37229 32745 37621 35299 40157
2 24800 24200 27600 32400 32566 35146 28720 37208 39508 39203
3 29400 34900 33700 38700 45225 40100 42681 43175 45681 51174
4 35400 33400 40600 39700 35800 46117 44134 49106 55183 48357
5 31900 35200 34300 36500 44900 42894 43489 46905 46689 47538
6 31000 34700 39100 39900 42808 42972 42395 47682 50162 52353
7 56500 47300 50100 49700 54817 54729 57811 62712 66180 58967
8 74400 56900 60700 66100 67900 67200 70278 77667 75607 74335
9 35700 40200 40800 45300 46800 46200 50466 53616 53087 52880
10 34400 36700 38700 40200 40485 43940 46597 49400 49777 49722
11 28900 30300 33600 36100 36760 39572 40813 43204 44232 42519
12 32900 38300 39100 41100 44059 40346 48174 51229 52444 53165
TOTAL 441300 441200 466700 496700 527809 536445 548302 599525 613849 610370
MEDIA 36775 36767 38892 41392 43984 44704 45692 49960 51154 50864

• Después calculamos en cada año el porcentaje del promedio, que es la relación que se da
entre las ventas de cada mes y su promedio anual.

55
Años
Meses 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994
1 70.70% 79.15% 73.02% 74.89% 81.14% 83.28% 71.66% 75.30% 69.01% 78.95%
2 67.44% 65.82% 70.97% 78.28% 74.04% 78.62% 62.86% 74.47% 77.23% 77.07%
3 79.95% 94.92% 86.65% 93.50% 102.82% 89.70% 93.41% 86.42% 89.30% 100.61%
4 96.26% 90.84% 104.39% 95.91% 81.39% 103.16% 96.59% 98.29% 107.88% 95.07%
5 86.74% 95.74% 88.19% 88.18% 102.08% 95.95% 95.18% 93.88% 91.27% 93.46%
6 84.30% 94.38% 100.54% 96.40% 97.33% 96.13% 92.78% 95.44% 98.06% 102.93%
7 153.64% 128.65% 128.82% 120.07% 124.63% 122.43% 126.52% 125.52% 129.37% 115.93%
8 202.31% 154.76% 156.07% 159.69% 154.37% 150.32% 153.81% 155.46% 147.80% 146.14%
9 97.08% 109.34% 104.91% 109.44% 106.40% 103.35% 110.45% 107.32% 103.78% 103.96%
10 93.54% 99.82% 99.51% 97.12% 92.04% 98.29% 101.98% 98.88% 97.31% 97.75%
11 78.59% 82.41% 86.39% 87.22% 83.58% 88.52% 89.32% 86.48% 86.47% 83.59%
12 89.46% 104.17% 100.54% 99.30% 100.17% 90.25% 105.43% 102.54% 102.52% 104.52%

• El índice estacional sería el promedio para cada mes de los diez datos anuales:

Años Índice
Meses 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 estacional

1 71% 79% 73% 75% 81% 83% 72% 75% 69% 79% 76%
2 67% 66% 71% 78% 74% 79% 63% 74% 77% 77% 73%
3 80% 95% 87% 93% 103% 90% 93% 86% 89% 101% 92%
4 96% 91% 104% 96% 81% 103% 97% 98% 108% 95% 97%
5 87% 96% 88% 88% 102% 96% 95% 94% 91% 93% 93%
6 84% 94% 101% 96% 97% 96% 93% 95% 98% 103% 96%
7 154% 129% 129% 120% 125% 122% 127% 126% 129% 116% 128%
8 202% 155% 156% 160% 154% 150% 154% 155% 148% 146% 158%
9 97% 109% 105% 109% 106% 103% 110% 107% 104% 104% 106%
10 94% 100% 100% 97% 92% 98% 102% 99% 97% 98% 98%
11 79% 82% 86% 87% 84% 89% 89% 86% 86% 84% 85%
12 89% 104% 101% 99% 100% 90% 105% 103% 103% 105% 100%
1200%

El índice nos señala que en el período estudiado las ventas de enero han estado un 75.71%
por debajo de las ventas mensuales promedio de cada año, y que en el mes de agosto el
nivel de ventas fue un 158.07% superior al nivel de venta mensuales promedio anual. Dado
que el valor medio mensual del índice ha de ser igual a 100, la suma de los 12 datos de que
consta el índice mensual debe ser igual a 1200.

56
• Para obtener una serie de las ventas ajustadas estacionalmente, esto es, descontando el
efecto que provoca el ciclo estacional, se dividiría las ventas de cada mes por el
correspondiente índice estacional y se multiplicaría por 100:

Años
Meses 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994
1 34341 38436 37511 40945 47139 49173 43250 49690 46624 53040
2 34122 33297 37975 44579 44807 48357 39516 51194 54359 53939
3 32051 38047 36739 42190 49303 43716 46530 47069 49801 55789
4 36503 34440 41865 40937 36915 47554 45509 50636 56902 49863
5 34276 37822 36854 39218 48244 46089 46728 50398 50166 51078
6 32350 36211 40803 41637 44672 44843 44241 49758 52346 54633
7 44293 37081 39276 38963 42974 42905 45321 49163 51882 46227
8 47066 35996 38400 41816 42954 42512 44459 49133 47830 47025
9 33806 38067 38636 42897 44317 43749 47789 50772 50271 50075
10 35237 37593 39642 41178 41470 45009 47731 50602 50988 50932
11 33898 35540 39411 42343 43117 46415 47871 50675 51881 49872
12 32936 38342 39143 41145 44107 40390 48227 51285 52502 53223

2.4.2. Método del porcentaje promedio móvil

El método del porcentaje del promedio móvil es uno de los métodos más usados para la
medición de la variación estacional. Su cálculo es también bastante sencillo: en primer lugar se
obtiene un promedio móvil de 12 meses de la serie de datos originales (o de 4 trimestres si se
utilizan los datos trimestrales) tal que:

L/2

∑Y t +i
( − L / 2 ) +1 L L L
MM ( L) t +0.5 = , t= , + 1,..., N −
L 2 2 2

Luego se recurre a un promedio móvil de 2 meses para centrar convenientemente el promedio


anterior, al que se le denomina promedio móvil centrado de doce meses; es decir:

MM ( L) t −0.5 + MM ( L) t +0.5 L L L
MM ( L x 2) t = , t = + 1, + 2,..., N −
2 2 2 2

57
Finalmente se obtiene el índice dividiendo los datos originales por el promedio móvil centrado,
MM(L x 2)t:

Yt
EI t =
MM ( L x 2) t

es decir, una estimación conjunta del componente estacional y del componente irregular. A los
valores obtenidos mediante la expresión anterior se los denomina índices brutos de variación
estacional.

Si disponemos de información para K años completos, el número total de observaciones es N y


la longitud del período estacional es L, se verificará que K·L = N. Bajo estos supuestos, para
cada estación se dispone de K–1 índices brutos de variación estacional, ya que se pierden L/2
datos al principio y L/2 datos al final, es decir, se pierde un dato en cada estación.

Para cada estación se puede calcular una media de todos los índices brutos disponibles. Así,
para la estación h, la media se obtendrá sumando todos los índices brutos de variación
estacional correspondientes a esa estación y dividiendo por K–1, que es el número de datos
disponibles en cada caso; es decir:

E h* =
∑ EI t
, h = 1,2,..., L
K −1

Al haber realizado un promedio de K–1 datos, el componente irregular queda eliminado si K es


suficientemente grande. En todo caso, al promediar siempre se atenuará el efecto del
componente irregular. Por ello, el resultado obtenido es un índice de variación estacional en el
que se supone que el componente irregular ha desaparecido completamente.

Sin embargo, estos índices no van a ser los definitivos, ya que se trata de índices no
normalizados. Si existe estacionalidad, ésta no debe afectar al nivel de la serie, por lo que es
razonable exigir a los coeficientes de estacionalidad el requisito de que su media sea 1, ó,
alternativamente, que su suma sea L. Cuando los índices de estacionalidad cumplen este
requisito se dice que están normalizados. Los índices de variación estacional normalizados se
pueden calcular fácilmente aplicando una proporción. Así, si utilizamos el símbolo Ê h para
designar el índice de variación estacional de la estación h, su expresión vendrá dada por

58
L
Eˆ h =ˆ E h* L

∑E
h =1
*
h

Finalmente, la serie desestacionalizada se obtendrá dividiendo cada valor de la serie original por
el índice de variación estacional correspondiente. Así, en el caso de que el período t pertenezca
a la estación h, entonces el valor de la serie desestacionalizada, al que designaremos por Dt,
vendrá dado por:

Yt
Dt =
Eˆ h

Ejemplo 2.8.

Veamos a continuación un ejemplo, utilizando de nuevo la serie de ventas de gasolina de


Castilla y León para obtener dicho índice estacional.

Años Meses Ventas Media móvil 12 meses


1985 1 26000
2 24800
3 29400
4 35400
5 31900
6 31000 36775
7 56500 37033
8 74400 36983
9 35700 37442
10 34400 37275
11 28900 37550
12 32900 37858
1986 1 29100 37092
2 24200 35633
3 34900 36008
4 33400 36200
5 35200 36317

El primer promedio móvil se centra en el 6º mes (Junio), lo que implica dejar sin valores seis
meses al final de la serie.

59
El segundo promedio, que es una media móvil de dos meses, se realiza para centrar
convenientemente el promedio móvil anterior, el primer valor que aparece es el valor promedio
de 36775 y 37033, y se centra en el 7º mes (Julio), quedando así ambos extremos de la serie
resultante con seis meses de ausencia de datos:

Años Meses Ventas Media móvil 12 meses Promedio móvil centrado


1985 1 26000
2 24800
3 29400
4 35400
5 31900
6 31000 36775
7 56500 37033 36904
8 74400 36983 37008
9 35700 37442 37213
10 34400 37275 37358
11 28900 37550 37413
12 32900 37858 37704
1986 1 29100 37092 37475
2 24200 35633 36363
3 34900 36008 35821
4 33400 36200 36104
5 35200 36317 36258

Finalmente se calcula el índice dividiendo los datos originales por el promedio móvil centrado y
multiplicando por cien:

60
Años Meses Ventas Media móvil Promedio Índice
12 meses móvil centrado estacional

1985 1 26000
2 24800
3 29400
4 35400
5 31900
6 31000 36775
7 56500 37033 36904 153.10%
8 74400 36983 37008 201.04%
9 35700 37442 37213 95.94%
10 34400 37275 37358 92.08%
11 28900 37550 37413 77.25%
12 32900 37858 37704 87.26%
1986 1 29100 37092 37475 77.65%
2 24200 35633 36363 66.55%
3 34900 36008 35821 97.43%
4 33400 36200 36104 92.51%
5 35200 36317 36258 97.08%

La serie desestacionalizada de las ventas de gasolina en Castilla y León sería el promedio móvil
centrado de 12 meses:

Desestacionalización de las ventas de gasolina por media móvil


de 12 meses.

80000

70000

60000

50000

40000

30000

20000 Ventas
Media movil 12 meses
10000

0
86 Ene.

90 Ene.
May
Jun.

Abr.
Sep.

Mar.
Ago.

Jun.

Abr.
Sep.

May.

Mar.
Ago.
Feb.
Jul.
Dic.

Oct.

Feb.
Jul.
Dic.

Oct.
Nov.

Nov.

Figura 2.6.

61
Los coeficientes de estacionalidad calculados en el epígrafe anterior pueden ser utilizados para
realizar predicciones de la variable. Para ello, vamos a considerar el supuesto de que
disponemos de una muestra de tamaño T y deseamos realizar predicciones para los L períodos
siguientes (por ejemplo, si los datos son trimestrales y la muestra comprende años completos, se
trataría de predecir los valores que toma la variable en los trimestres del primer año
postmuestral).

Bajo el supuesto de estacionalidad estable, el predictor vendrá dado por la siguiente expresión:

Yˆt + h / T = TˆT + h Eˆ h , h = 1, 2, …, L

donde TˆT + h es la predicción obtenida de la tendencia mediante el ajuste de una función a los
datos desestacionalizados.

2.4.3. Desestacionalización con Estacionalidad Cambiante

Hasta ahora hemos considerado el supuesto de que los coeficientes de estacionalidad eran
estables, es decir, que se repetían año tras año. Sin embargo, en muchas ocasiones este supuesto
no es realista, pudiendo ocurrir que estos coeficientes estén afectados por una tendencia.

Bajo el supuesto de estacionalidad cambiante, las fases para la aplicación del método de la razón
a la media móvil son las siguientes:

1. Obtención de unas medias móviles de orden estacional.


2. Obtención de unas medias móviles centradas.
3. Obtención de los índices brutos de variación estacional.
4. Obtención de los índices de variación estacional sin normalizar.

Las tres primeras fases son las mismas que se aplicaban bajo el supuesto de estacionalidad
estable. Una vez obtenidos los índices brutos de variación estacional, se debe proceder a la
representación de este indicador para cada estación por separado. A la vista de esta

62
representación se tomará la decisión de cuál es la función matemática adecuada para representar
la tendencia de la estacionalidad.

Recuérdese que los índices brutos de variación estacional son una estimación conjunta del
componente estacional y del componente irregular. Por ello, al realizar el ajuste de modelos que
recojan la tendencia de la estacionalidad, lo que estamos haciendo en realidad es separar estos
dos componentes. Así, adoptando el supuesto de que están integrados de forma aditiva, se
tendrá la siguiente descomposición:

EI t = E t* + I t , h = 1, 2, …, L

donde Et* son los valores estimados al ajustar una función del tiempo en la que la variable
dependiente es EI. En la mayor parte de las ocasiones es adecuado el ajuste de una recta para tal
finalidad. Si éste es el caso resulta:

E t* = aˆ h 0 + aˆ h1 r , h = 1, 2, …, L

donde r es el año en que se encuentra el período t. Teniendo en cuenta que al calcular los índices
brutos de variación estacional se pierden L/2 datos al principio y L/2 al final y suponiendo que
se dispone de información sobre K años completos, entonces r variará, según los casos, entre 2 y
K o entre 1 y K–1.

Después de realizado el ajuste se procederá a la predicción de los coeficientes de estacionalidad


de cada uno de los años que integran la muestra. De esta forma se obtienen unos índices de
variación estacional sin normalizar, aunque distintos para cada año.

Seguidamente, la obtención de los índices de variación estacional normalizados se realizará


haciendo una ligera modificación en la fórmula ya estudiada. Concretamente, la fórmula a
aplicar será la siguiente:

L
Eˆ t =ˆ E t* , m = 1, 2, …, r
∑E
m
*
m

Como puede verse en la fórmula anterior, la normalización se realiza año a año. Por ello, el
factor de normalización es igual a L dividido por la suma de los índices de variación estacional
correspondientes al mismo año (r) en que se encuentra el período t.

63
Finalmente, la serie desestacionalizada, al igual que antes, se obtiene dividiendo la serie original
por el índice de variación estacional correspondiente, es decir,

Yt
Dt =
Eˆ t

Obsérvese que, bajo el supuesto de estacionalidad cambiante, a cada dato de la variable le corresponde un
índice de variación estacional distinto, a diferencia de lo que ocurría bajo el supuesto de estacionalidad
constante, donde el índice de variación estacional permanecía fijo dentro de cada estación.

Bajo el supuesto de estacionalidad cambiante, el predictor vendrá dado por la siguiente


expresión:

Yˆt + h / T = TˆT + h Eˆ h , h = 1, 2, …, L

donde TˆT + h es la predicción obtenida de la tendencia mediante el ajuste de una función a los
datos desestacionalizados y E es la predicción de la estacionalidad para el período T+h,
obtenida a partir de un ajuste y su posterior normalización.

2.4.4. Ajuste estacional a través de medias móviles con R.

La función R “decompose”, obtiene las series de tendencia, estacionalidad e irregular de una


serie temporal a través de medias móviles, además permite obtener los componentes en base a
un esquema aditivo ó multiplicativo.

Es una función generica de R, lo que significa que no requiere de la instalación de ninguna


librería, su uso es el siguiente:

decompose(x, type = c("additive", "multiplicative"), filter = NULL)

El modelo aditivo que usa la función es:

64
Y[t] = T[t] + S[t] + e[t]

Y el multiplicativo:

Y[t] = T[t] * S[t] * e[t]

La función calcula el componente de tendencia utilizando medias móviles, (si filter = NULL, se
utilizan medias móviles simétricas), los índices de estacionalidad son promedios de los indices
de estacionalidad que se obtienen al desestacionalizar la serie por el modelo elegido, por último,
el componente irregular se obtiene eliminando la tendencia y estacionalidad de la serie
temporal.

La función requiere que los datos tengan forma de serie temporal, “ts” es la función genérica de
R para que los datos tengan forma de serie temporal. Su sintasis es la siguiente:

ts(data = NA, start = 1, end = numeric(), frequency = 1, deltat = 1,


ts.eps = getOption("ts.eps"), class = , names = )

De esta sintasis hay que tener presentes los siguiente argumentos:


data
Vector, “data frame” o matriz de datos
start
Referencia de la primera observacion, es un vector con dos valores numericos, el
primero relativo al año y el segundo relativo al trimestre y mes de inicio (1 para el
primer trimestre y 1 para enero en series de datos mensuales)
end
Referencia de la ultima observación
frequency
Número de observaciones por año (4 en series trimestrales, 12 en series anuales)

Un ejemplo de elaboración de un objeto “ts” es el siguiente:


> ts(1:10, frequency = 4, start = c(1959, 2)) # 2nd Quarter of 1959
Qtr1 Qtr2 Qtr3 Qtr4
1959 1 2 3
1960 4 5 6 7
1961 8 9 10

A continuación se realiza un sencillo ejercicio de utilización de la función “descomponse”:


> x <- c(-50, 175, 149, 214, 247, 237, 225, 329, 729, 809, 530,
489, 540, 457, 195, 176, 337, 239, 128, 102, 232, 429, 3,98, 43, -141,
-77, -13, 125, 361, -45, 184)

> x <- ts(x, start = c(1951, 1), end = c(1958, 4), frequency = 4)

> m <- decompose(x)

> m

65
$x
Qtr1 Qtr2 Qtr3 Qtr4
1951 -50 175 149 214
1952 247 237 225 329
1953 729 809 530 489
1954 540 457 195 176
1955 337 239 128 102
1956 232 429 3 98
1957 43 -141 -77 -13
1958 125 361 -45 184

$seasonal
Qtr1 Qtr2 Qtr3 Qtr4
1951 62.45982 86.17411 -88.37946 -60.25446
1952 62.45982 86.17411 -88.37946 -60.25446
1953 62.45982 86.17411 -88.37946 -60.25446
1954 62.45982 86.17411 -88.37946 -60.25446
1955 62.45982 86.17411 -88.37946 -60.25446
1956 62.45982 86.17411 -88.37946 -60.25446
1957 62.45982 86.17411 -88.37946 -60.25446
1958 62.45982 86.17411 -88.37946 -60.25446

$trend
Qtr1 Qtr2 Qtr3 Qtr4
1951 NA NA 159.125 204.000
1952 221.250 245.125 319.750 451.500
1953 561.125 619.250 615.625 548.000
1954 462.125 381.125 316.625 264.000
1955 228.375 210.750 188.375 199.000
1956 207.125 191.000 166.875 72.000
1957 -9.250 -33.125 -36.750 36.250
1958 103.000 131.625 NA NA

$random
Qtr1 Qtr2 Qtr3 Qtr4
1951 NA NA 78.254464 70.254464
1952 -36.709821 -94.299107 -6.370536 -62.245536
1953 105.415179 103.575893 2.754464 1.254464
1954 15.415179 -10.299107 -33.245536 -27.745536
1955 46.165179 -57.924107 28.004464 -36.745536
1956 -37.584821 151.825893 -75.495536 86.254464
1957 -10.209821 -194.049107 48.129464 11.004464
1958 -40.459821 143.200893 NA NA

$figure
[1] 62.45982 86.17411 -88.37946 -60.25446

$type
[1] "additive"

attr(,"class")
[1] "decomposed.ts"

Para realizar una representación gráfica:


> plot(m)

66
Una función técnicamente más elaborada para descomponer series temporales en R es la
función “stl”, cuya referencia bibliográfica es Cleveland, R.B. , Cleveland W. S., McRae J. E, y
Terpenning I. (1990

El ejercicio anterior realizado con la función “stl”.

> s <- stl(x,"per")


> plot (s)

67
2.5. PROBLEMAS
2.1.- En la tabla siguiente se recogen las ventas de una empresa en millones de euros

Trimestres/Años
2006 2007 2008 2009 2010
Primero 3 4 3 6 7
Segundo 3 6 6 7 9
Tercero 4 7 7 10 11
Cuarto 4 6 6 4 7

Se pide:

a) Obtener una tendencia lineal por el método de semipromedios


b) Obtener una tendencia lineal ajustando una recta de MCO
c) Obtener una tendencia lineal utilizando medias móviles de tres periodos centrada.

2.2.- Con los datos de la tabla siguiente realice un suavizado exponencial simple con α = 0.4 y
calcule el del Error Cuadrático Medio y el Error Absoluto Medio.

t Y
0 58
1 54
2 60
3 55
4 62
5 62
6 65
7 63
8 70

2.3.- Utilizando los datos del problema 2.1.-, realice una desestacionalización por el método del
porcentaje promedio y porcentaje promedio móvil, y obtenga el índice estacional.

2.4.- Descomponga en la serie co2 que incluye la librería genérica R utilizando el modelo
multiplicativo y presente los resultados gráficos.

SOLUCIONES

2.1.-
Solución:

68
a) V*=4,6+0,28t , t=(-4,-3,…..,15)
b) V*=3,06+0,28t , t=(1,2,…..20)
c)

Año Tendencia Estacional e Irregular


1.2006
2.2006
3.2006 3,625 1,103
4.2006 4,125 1
1.2007 4,875 0,821
2.2007 5,5 1,091
3.2007 5,625 1,244
4.2007 5,5 1,091
1.2008 5,5 0,545
2.2008 5,5 1,091
3.2008 5,875 1,191
4.2008 6,375 0,941
1.2009 6,875 0,873
2.2009 7 1,000
3.2009 6,875 1,455
4.2009 7,25 0,552
1.2010 7,625 0,918
2.2010 8,125 1,108
3.2010
4.2010

2.2.-

Pronostico
58,000
55,600
58,240
56,296
59,718
61,087
63,435
63,174

EAM=1,370
RECM=1,505

69
2.3.-
Serie desestacionalizada por el método de porcentaje promedio
Trimestres/Años
2006 2007 2008 2009 2010
Primero 3,9363179 5,2484238 3,9363179 7,8726357 9,1847417
Segundo 2,9484662 5,8969325 5,8969325 6,8797546 8,8453987
Tercero 3,1208187 5,4614327 5,4614327 7,8020467 8,5822513
Cuarto 4,2613335 6,3920003 6,3920003 4,2613335 7,4573337

Serie desestacionalizada e índice estacional por el método de porcentaje promedio móvil

Serie Índice
Año Desestacionalizada estacional
1.2006
2.2006
3.2006 3,625 90,6%
4.2006 4,125 103,1%
1.2007 4,875 121,9%
2.2007 5,5 91,7%
3.2007 5,625 80,4%
4.2007 5,5 91,7%
1.2008 5,5 183,3%
2.2008 5,5 91,7%
3.2008 5,875 83,9%
4.2008 6,375 106,3%
1.2009 6,875 114,6%
2.2009 7 100,0%
3.2009 6,875 68,8%
4.2009 7,25 181,3%
1.2010 7,625 108,9%
2.2010 8,125 90,3%
3.2010
4.2010

2.4.- A realizar por el alumno.

70
3. ANÁLISIS UNIVARIANTE DE SERIES
TEMPORALES

3.1. INTRODUCCIÓN

La publicación de la obra Time Series Analysis: Forecasting and Control por G. E. P. Box y G.
M. Jenkins en 1976 estableció un punto de inflexión en las técnicas cuantitativas de predicción
en Economía. La metodología propuesta por estos autores, también conocida como metodología
ARIMA, trata de realizar previsiones acerca de los valores futuros de una variable, utilizando
únicamente como información la contenida en los valores pasados de la propia serie temporal.
Este enfoque supone una alternativa a la construcción de modelos uniecuacionales o de
ecuaciones simultáneas, pues supone admitir que las series temporales poseen un carácter
estocástico, lo que implica que deben analizarse sus propiedades probabilísticas para que éstas
“hablen por sí mismas”.

El análisis univariante de series temporales presenta como ventaja frente a otros métodos de
predicción el no depender de los problemas de información asociados a las variables endógenas
o exógenas. Como hemos visto en capítulos anteriores, los modelos económicos que hemos
estimado hasta el momento requerían un conjunto de variables exógenas que se utilizaban para
explicar el comportamiento de una variable endógena. Sin embargo, en muchas ocasiones no se
dispone de observaciones para alguna de las variables exógenas, ya sea porque no es posible
medir la variable (por ejemplo, las expectativas de los agentes) o porque la muestra de datos de
que disponemos para representar dicha variable presenta errores de medida (cuyas
consecuencias se vieron en el capítulo 4). Este problema desaparece cuando se trata de
modelizar una variable endógena mediante un modelo de tipo univariante como el propuesto por
Box y Jenkins, ya que se hace depender a dicha variable tan sólo de su propio pasado y un
conjunto de perturbaciones aleatorias, pero no de otras variables, caracterizando así las series
económicas en su dimensión temporal.

En el presente capítulo vamos a definir y caracterizar una amplia familia de estructuras


estocásticas lineales así como la metodología a seguir para seleccionar aquel modelo univariante
que resulte más adecuado para representar la estructura estocástica de la variable económica que
estemos analizando.

71
3.2. PROCESOS ESTÓCÁSTICOS

Podemos definir un proceso estocástico como un conjunto de variables aleatorias asociadas a


distintos instantes del tiempo. Así, en cada período o momento temporal se dispone de una
variable que tendrá su correspondiente distribución de probabilidad; por ejemplo, si
consideramos el proceso Yt, para t = 1, tendremos una variable aleatoria, Y1, que tomará
diferentes valores con diferentes probabilidades.

La relación existente, por tanto, entre una serie temporal y el proceso estocástico que la genera
es análoga a la que existe entre una muestra y la población de la que procede, de tal forma que
podemos considerar una serie temporal como una muestra o realización de un proceso
estocástico, formada por una sola observación de cada una de las variables que componen el
proceso. La tarea del investigador será, por tanto, inferir la forma del proceso estocástico a partir
de las series temporales que genera.

Un proceso estocástico, Yt, se suele describir mediante las siguientes características: esperanza
matemática, varianza, autocovarianzas y coeficientes de autocorrelación.

La esperanza matemática de Yt se traduce en la sucesión de las esperanzas matemáticas de las


variables que componen el proceso, a lo largo del tiempo tal que:

E(Yt) = µt, t = 1,2,3...

Por su parte, la varianza de un proceso aleatorio es una sucesión de varianzas, una por cada
variable del proceso:

Var (Yt) = E(Yt – µt)2, t = 1,2,3...

Las autocovarianzas, por su parte, son las covarianzas entre cada par de variables del proceso
tales que:

γk = Cov(Yt,Yt+k) = E[(Yt - µt)(Yt+k - µt+k)] = γt,t+k , t = 1,2,3...

72
Finalmente, los coeficientes de autocorrelación son los coeficientes de correlación lineal entre
cada par de variables que componen el proceso:

γ t ,t + k
ρ t ,t + k = , t = 1,2,3..., con − 1 ≤ ρ t ,t + k ≤ 1
Var (Yt )·Var (Yt + k )

Por último, a partir de los coeficientes de autocorrelación, vamos a definir dos funciones que
nos serán muy útiles a lo largo del presente capítulo:

− Por un lado, la función de autocorrelación simple (fas) o correlograma, la cual es la


representación gráfica de los coeficientes de autocorrelación en función de los distintos
retardos o desfases entre las variables.

− La función de autocorrelación parcial (fap), que mide la correlación existente entre dos
variables del proceso en distintos períodos de tiempo, pero una vez eliminados los
efectos sobre las mismas de los períodos intermedios. Por ejemplo, puede que exista
cierta correlación entre Yt e Yt-2 debido a que ambas variables estén correlacionadas con
Yt-1.

Dado que en la práctica se dispone de una muestra de un proceso estocástico, Y1, ...YT, se pueden
obtener los coeficientes de autocorrelación simple y parcial muestral y utilizarlos como
estimadores de los parámetros de la función de autocorrelación simple y parcial teórica.
Así, la función de autocorrelación simple (fas) puede estimarse a partir de las autocovarianzas
del proceso tal que:

γˆ k
ρˆ k =
γˆ 0
Siendo:

∑ (Y
t =1
t − Y )2
γˆ0 =
T

73
T T

∑ (Yt − Y )(Yt +k − Y )
t = k +1
∑ (Y
t = k +1
t+k − Y )(Yt − Y )
γˆk = =
T −k T −k

La estimación de los parámetros de la función de autocorrelación parcial (fap) resulta algo más
compleja, por lo que se verá en epígrafes posteriores.

3.3. PROCESOS ESTACIONARIOS

Se dice que un proceso estocástico es estacionario en sentido estricto si todas las variables
aleatorias que componen el proceso están idénticamente distribuidas, independientemente del
momento del tiempo en que se estudie el proceso. Es decir, la función de distribución de
probabilidad de cualquier conjunto de k variables (siendo k un número finito) del proceso debe
mantenerse estable (inalterable) al desplazar las variables s períodos de tiempo tal que, si P(Yt+1,
Yt+2, …, Yt+k ) es la función de distribución acumulada de probabilidad, entonces:

P(Yt+1, Yt+2, …, Yt+k ) = P(Yt+1+s, Yt+2+s, …, Yt+k+s ), ∀t, k, s

Sin embargo, la versión estricta de la estacionariedad de un proceso suele ser excesivamente


restrictiva para las necesidades prácticas de un economista. Es por ello que generalmente nos
conformaremos con un concepto menos exigente, el de estacionariedad en sentido débil o de
segundo orden la cual se da cuando la media del proceso es constante e independiente del
tiempo, la varianza es finita y constante, y el valor de la covarianza entre dos periodos depende
únicamente de la distancia o desfase entre ellos, sin importar el momento del tiempo en el cual
se calculan. Dicho de otro modo, todos los momentos de primer y segundo orden de un proceso
estocástico que sea estacionario en sentido débil deben ser invariantes en el tiempo.

La contrastación empírica de algunas de estas condiciones puede realizarse fácilmente mirando


el gráfico de la serie temporal. Así, una serie temporal que exhiba una marcada tendencia
creciente tendrá una media también creciente en el tiempo por lo que lo más probable es que el
proceso estocástico que ha generado dicha serie temporal no sea estacionario en media; del
mismo modo, una serie temporal que muestre fluctuaciones de amplitud desigual en el tiempo
seguramente no procederá de un proceso estocástico estacionario en varianza. La diferencia

74
entre ambos tipos de series queda patente en los gráficos que se muestran en las figuras 3.1. y
3.2.

Serie no estacionaria en media Serie no estacionaria en media y varianza

Figura. 3.1. Ejemplo de series no estacionarias.

Serie estacionaria en media y varianza Serie estacionaria en media pero no en varianza

Figura. 3.2. Ejemplo de series estacionarias.

Sin embargo, en la práctica el aspecto visual de la serie no siempre será una herramienta
suficiente para decidir si ésta es estacionaria o no, debiendo recurrir al diagrama desviación
típica – media, esto es, a la representación gráfica de la media (eje de abscisas) contra la
desviación típica (eje de ordenadas), calculadas sobre subdivisiones de la serie en grupos del
mismo tamaño. En función de la configuración que adopte dicho gráfico decidiremos si la serie
es estacionaria o no, tal y como puede apreciarse en los gráficos de la figura 3.3.

75
Serie estacionaria en media y varianza Serie no estacionaria en varianza

Serie no estacionaria en media Serie no estacionaria en media ni en varianza

Figura. 3.3. Gráfico media-desviación típica.

Pero, ¿por qué resulta importante para el investigador que el proceso analizado sea estacionario?
La razón fundamental es que los modelos de predicción de series temporales que veremos a
continuación están diseñados para ser utilizados con procesos de este tipo. Si las características
del proceso cambian a lo largo del tiempo, resultará difícil representar la serie para intervalos de
tiempo pasados y futuros mediante un modelo lineal sencillo, no pudiéndose por tanto realizar
previsiones fiables para la variable en estudio.

Sin embargo, por regla general, las series económicas no son series que procedan de procesos
estacionarios, sino que suelen tener una tendencia, ya sea creciente o decreciente, y variabilidad
no constante. Dicha limitación en la práctica no es tan importante porque las series no
estacionarias se pueden transformar en otras aproximadamente estacionarias después de aplicar
diferencias a la serie en una ó más etapas. Por ello, cuando estemos analizando una serie
económica que no sea estacionaria en media deberemos trabajar con la serie en diferencias,
especificando y estimando un modelo para la misma. Si además observamos que la serie

76
presenta no estacionariedad en varianza, deberemos transformarla tomando logaritmos antes de
aplicar diferencias en la serie3.

Posteriormente la predicción que realicemos con las series transformadas habrá que traducirla a
una predicción para la serie original, en cuyo análisis estaba interesado inicialmente el
investigador, deshaciendo las diferencias y aplicando antilogaritmos según convenga.

Por último, antes de continuar avanzando, debemos hacer mención a un tipo de proceso
estacionario particular: es el denominado ruido blanco, un proceso estocástico en el que las
variables aleatorias que lo forman no están correlacionadas entre sí, siendo su esperanza
matemática igual a cero y su varianza constante e igual a σ2.

En particular, supondremos que los errores de los procesos que veremos a continuación son
ruidos blancos gaussianos, formados por una sucesión de variables aleatorias con distribución
Normal, esperanza cero, varianza constante e incorrelacionadas serialmente entre sí. Es decir:

εt es ruido blanco gaussiano si εt ∼ N(0,σ2), para cualquier t, tal que Cov(εt,εt’) = 0, ∀ t≠t'

Seguramente el lector recuerde de anteriores capítulos que, en el modelo de regresión lineal


clásico, se supuso implícitamente que el término de error incluido en el mismo respondía a las
características de un ruido blanco gaussiano.

En la figura 3.4. se muestra la representación de un ruido blanco, en la que se puede apreciar


claramente la estacionariedad de este proceso:

Figura. 3.4. Representación de un ruido blanco.

3
La aplicación de logaritmos a la serie para hacerla estacionaria en varianza es lo que se conoce como
transformación Box-Cox. Para más detalles, véase Venables y Ripley (2002).

77
3.3.1. Operador de Retardos y Operador Diferencia
Antes de seguir avanzando, debemos mencionar dos operadores que utilizaremos
frecuentemente a lo largo del capítulo. Por un lado, se define el operador de retardos, que
denotaremos por B, como aquel operador que al ser aplicado a la serie la transforma de tal forma
que:

BYt = Yt-1

Es decir, el resultado de aplicar el operador B corresponde a retardar las observaciones un


período.

Aplicada dos veces sobre la variable Yt tendremos que:

B(BYt) = B2Yt = Yt-2

y, en general, podemos decir que el operador Bk aplicado sobre una variable en el periodo t, la
retarda k períodos tal que:

BkYt = Yt-k

Por su parte, el operador diferencia, el cual denotaremos por ∆, aplicado a una serie la
transformará de tal forma que:

∆Yt = Yt – Yt-1 = (1 – B) Yt

Si aplicamos el operador diferencia dos veces a la serie tendremos que:

∆2Yt =∆(∆Yt) = ∆(Yt – Yt-1) = ∆Yt – ∆Yt-1 = Yt – 2Yt-1 +Yt-2 = (1–B)2Yt

Y en general, podemos escribir:

∆kYt = (1 – B) kYt

78
Por lo que resulta evidente que la relación existente entre el operador diferencia y el operador
retardo es:

∆k = (1 – B) k

3.4. MODELIZACIÓN UNIVARIANTE DE SERIES


TEMPORALES
La representación formal de los procesos aleatorios que generan series reales se puede realizar
mediante modelos lineales de series temporales. Considerando que una determinada serie
temporal ha sido generada por un proceso estocástico, en este epígrafe pasamos a describir los
posibles modelos teóricos que permiten explicar el comportamiento de la misma y, por tanto, el
de su proceso generador.

Las estructuras estocásticas estacionarias lineales que se tratarán de asociar a una serie de datos
económicos se clasifican en tres tipos: modelos autorregresivos, modelos de medias móviles y
modelos mixtos, los cuales pasamos a ver a continuación.

3.4.1. Procesos estocásticos lineales discretos


Se dice que un proceso estocástico discreto es lineal si se puede expresar de la forma:

Yt = µ + ε τ + ψ 1ε τ −1 + ψ 2ε τ − 2 + ... + ψ k ε τ − k + ... = µ + ε τ + ∑ψ ι ε τ −ι (3.1)
ι =1

con µ, ψ1 , ψ2 , ...,parámetros (normalmente desconocidos) y ετ , ετ −1, ετ −2 , ..., un ruido blanco

de media 0 y varianza σ 2 .Con frecuencia, ετ ,se denomina innovación porque se corresponde


con el error de predicción un periodo hacia delante que cometemos si utilizamos la predicción
adecuada. Es decir, es la parte de Yt no predecible aunque se utilice óptimamente toda la
información pasada, Yt-1, Yt-2, ….

¿Por qué el análisis de series temporales se ha centrado en este tipo de procesos? La principal
justificación es el Teorema de la descomposición de Wold (1938): Un proceso estocástico
discreto, estacionario en covarianza, se puede representar unívocamente como la suma de dos
procesos mutuamente incorrelacionados, Yt = Dt + Wt , siendo Dt un proceso puramente

determinista y Wt un proceso puramente no determinista, que se puede escribir como un media


móvil infinita (3.1).

79
Restringiremos el estudio a los procesos lineales discretos que dependan de pocos parámetros
conocidos como procesos autorregresivos de medias móviles de órdenes p y q, abreviadamente
ARMA(p,q), que se definen:

Yt = δ + φ1Yt −1 + φ 2Yt − 2 + ... + φ p Yt − p + ε t + θ1ε t −1 + θ 2 ε t − 2 + ... + θ q ε t − q , ε t ≈ RB (0, σ 2 )

Estos procesos se pueden escribir de otras dos formas:


• En la forma media móvil, es decir, en función únicamente de la innovación,
Yt = ε t + θ1ε t −1 + θ 2 ε t − 2 + ...
• En la forma autorregresiva, es decir, en función del pasado de la variable y la
innovación actual,
Yt = δ + φ1Yt −1 + φ 2Yt − 2 + ...
En principio, consideramos únicamente los procesos ARMA que posean las propiedades de
estacionariedad y ergodicidad, que garantizan la resolución del problema de estimación al
disponer de estimadores consistentes. Esta hipótesis implica que los parámetros de la forma
media móvil cumplen la condición lim s →∞ ψ s = 0 . Además, introducimos la hipótesis de

invertibilidad con objeto de que el modelo sea útil para predecir, y que implica la condición
lim s →∞ ϕ s = 0 en la forma autorregresiva.

Pasamos a mostrar las propiedades que caracterizan a los distintos procesos ARMA. Dentro de
esta clase general de modelos encontramos dos casos particulares, los procesos autorregresivos
(cuando q=0) y los procesos médias móviles (si p=0).

3.4.2. Modelos Autorregresivos (AR(p))


Los procesos autorregresivos son aquellos que representan los valores de una variable durante
un instante del tiempo en función de sus valores precedentes. Así, un proceso autorregresivo de
orden p, AR(p), tendrá la siguiente forma:

Yt = δ + φ1Yt-1 + φ2Yt-2 + ...+ φpYt-p + εt

donde δ es un término constante y εt es un ruido blanco, que representa los errores del ajuste y
otorga el carácter aleatorio al proceso.

80
Asimismo, haciendo uso del operador de retardos que veíamos anteriormente, el proceso
también puede expresarse como:

Yt = δ + φ1BYt + φ2B2Yt + ...+ φpBpYt + εt

O también:

(1 – φ1B – φ2B2 – ...– φpBp)Yt = δ + εt

φp(L)Yt = δ + εt

Veamos a continuación las características particulares de dos procesos autorregresivos


elementales, el de orden 1 ó AR(1) y el de orden 2, ó AR(2). Posteriormente, los resultados
obtenidos se generalizarán al caso de un proceso autorregresivo de orden p, AR(p).

3.4.2.1. Modelos autorregresivos de primer orden AR(1)


Sea el proceso autorregresivo de primer orden:

Yt = δ + φ1Yt-1 + εt

Si el proceso es estacionario en media y varianza entonces se verificará que E(Yt) = E(Yt-1) y


Var (Yt) = Var(Yt-1), ∀t de tal forma que:

δ
E (Yt ) = E (Yt −1 ) = µ ⇒ µ = δ + φ1 µ ⇒ µ = (3.2)
1 − φ1

σ ε2
Var (Yt ) = Var (Yt −1 ) = γ 0 ⇒ γ 0 = φ12γ 0 + σ ε2 ⇒ γ 0 =
1 − φ12

La condición a cumplir para que µ y γ0 sean positivas y finitas es que |φ1| < 1 . En ese caso el
proceso será estacionario en media y varianza. Del mismo modo, si el proceso es estacionario,
también se verificará para las covarianzas que:

81
Cov(Yt −1 , Yt ) = Cov (Yt , Yt +1 ) = γ 1 , ∀t
(3.3)
Cov(Yt −1 , Yt ) = E [(Yt −1 − µ )(Yt − µ )] = E ( y t −1 y t )

Donde las variables en minúscula expresan que los datos están expresados en desviaciones
respecto a la media.

Despejando en la expresión (3.2) el valor de δ y sustituyéndolo en la ecuación del proceso


queda que:

Yt = δ + φ1Yt −1 + ε t = µ (1 − φ1 ) + φ1Yt −1 + ε t

Yt − µ = φ1 (Yt −1 − µ ) + ε t ⇒ y t = φ1 y t −1 + ε t

Sustituyendo el valor de yt en (3.3) tenemos que:

γ 1 = E ( y t −1 y t ) = E ( y t −1 (φ1 y t −1 + ε t )) = φ1 E ( y t2−1 ) + E ( y t −1ε t ) = φ1γ 0

El resultado anterior puede generalizarse si tomamos esperanzas entre yt e yt-k obteniéndose que,
en general:
γ k = φ1k γ 0

A partir de los resultados anteriores podemos obtener la estimación de los coeficientes de la


función de autocorrelación simple (fas) para un proceso autorregresivo de orden 1 mediante las
siguientes expresiones:

ρ0 = 1
γ
ρ1 = 1 = φ1
γ0
γ
ρ 2 = 2 = φ12
γ0
LLL
γk
ρk = = φ1k
γ0

Del resultado anterior se deduce que los valores de la función de autocorrelación son las
sucesivas potencias del parámetro φ1. La condición |φ1|<1 garantiza que los sucesivos valores ρk

82
convergerán a cero, si bien la función puede presentar dos aspectos distintos, dependiendo del
signo de φ1 como puede observarse en la figura 3.5.

φ1 >0 φ1 <0

Figura 3.5. Función de autocorrelación simple para un proceso AR(1)

La condición |φ1|<1 para que el proceso AR(1) sea estacionario es equivalente a la condición de
que la raíz del operador polinomial φ(Β) = 0 debe caer fuera del círculo unidad, es decir:

1
1 − φ1 B = 0 ⇒ B > 1 ⇒ > 1 ⇒ φ1 < 1
φ1

3.4.2.2. Modelos autorregresivos de segundo orden AR(2)


La expresión para un proceso autorregresivo de orden dos es la siguiente:

Yt = δ + φ1Yt-1 + φ2Yt-2 + εt

Del mismo modo que antes, si el proceso es estacionario en media y varianza tenemos que E(Yt)
= E(Yt-1)= E(Yt-2) y Var(Yt) = Var(Yt-1) = Var(Yt-2), ∀t.

Así, en el caso de la media tenemos que:

δ
E (Yt ) = E (Yt −1 ) = µ ⇒ µ = δ + φ1 µ + φ 2 µ ⇒ µ =
1 − φ1 − φ 2

Debiéndose verificar, para que la media sea finita, que φ1+φ2 ≠ 1.

En el caso de la varianza tenemos que:

83
σ ε2
Var(Yt ) = Var(Yt −1 ) = Var(Yt −2 ) = γ 0 ⇒ γ 0 = φ12 γ 0 + φ 22 γ 0 + σ ε2 ⇒ γ 0 =
1 − φ12 − φ22
Finalmente, para las covarianzas se verificará que:

Cov (Yt −1 , Yt ) = Cov (Yt , Yt +1 ) = γ 1 , ∀t


γ 1 = Cov (Yt −1 , Yt ) = E [(Yt −1 − µ )(Yt − µ )] = E ( y t −1 y t ) = E [ y t −1 (φ1 y t −1 + φ2 y t − 2 + ε t )] = φ1γ 0 + φ2 γ 1
γ 2 = Cov (Yt −2 , Yt ) = E [(Yt − 2 − µ )(Yt − µ )] = E ( y t − 2 y t ) = E [ y t − 2 (φ1 y t −1 + φ2 y t − 2 + ε t )] = φ1γ 1 + φ2γ 0
...
γ k = Cov (Yt − k , Yt ) = E [(Yt − k − µ )(Yt − µ )] = E ( y t − k y t ) = E [ y t −k (φ1 y t −1 + φ2 y t −2 + ε t )] = φ1γ k −1 + φ2γ k − 2 ( k > 0)

De donde podemos derivar las expresiones para los coeficientes de la función de


autocorrelación simple:

ρ0 = 1
γ φ γ + φ2γ 1 φ
ρ1 = 1 = 1 0 = φ1 + φ 2 ρ 1 → ρ1 = 1
γ0 γ0 1 − φ2
γ2 φ2
ρ2 = = φ1 ρ 1 + φ 2 → ρ 2 = 1 + φ 2
γ0 1 − φ2
LLL
γk
ρk = = φ1 ρ k −1 + φ 2 ρ k − 2 , k > 0
γ0

La condición de estacionariedad utilizando la notación en retardos es que las raíces del


polinomio de retardos, al igual que en el caso del proceso AR(1), estén fuera del círculo unidad
de tal forma que verifiquen:

1 − φ1 B + φ2 B 2 = 0

84
Asimismo, si el parámetro φ2 fuera negativo, la resolución de las raíces del polinomio podría
generar raíces imaginarias; en tal caso, Yt presentará ciclos de periodo T que vendrán dados por
la expresión:

2π φ1
cos =
T 2 − φ2

Al igual que en el caso anterior, la función de autocorrelación simple converge a cero si bien
ahora puede presentar cuatro aspectos distintos en función de los signos de φ1 y φ2, como puede
apreciarse en la figura 3.6.

φ1>0, φ2>0 φ1<0, φ2>0

φ1>0, φ2<0 φ1<0, φ2<0

Figura 3.6. Función de autocorrelación simple para un AR(2)

3.4.2.3. Modelos autorregresivos de orden p, AR(p)


A partir de los resultados obtenidos para los procesos AR(1) y AR(2), podemos generalizar las
expresiones obtenidas para un proceso de orden p.

Sea el proceso autorregresivo de orden p:

85
Yt = δ + φ1Yt-1 + φ2Yt-2 + ...+ φpYt-p + εt

Si el proceso es estacionario en media y varianza entonces E(Yt) = E(Yt-1) = ... = E(Yt-p) y


Var(Yt) = Var(Yt-1) =...= Var(Yt-p), ∀t, y por tanto:

δ
µ=
1 − φ1 − φ 2 − ... − φ p

Por lo que para que la media sea finita, deberá verificarse que φ1 + φ 2 + ... + φ p ≠ 1

Del mismo modo, generalizando los resultados obtenidos para los coeficientes de la función de
autocorrelación simple se tiene que:

γ 1 = φ1γ 0 + φ 2 γ 1 + ... + φ p γ p −1
γ 2 = φ1γ 1 + φ 2 γ 0 + ... + φ p γ p − 2
.............................. ..............
γ k = φ1γ k −1 + φ 2 γ k − 2 + ... + φ p γ 0

El sistema de ecuaciones obtenido se conoce como ecuaciones de Yule-Walker y relaciona las p


primeras autocovarianzas con los parámetros del proceso.

Dichas ecuaciones también se pueden expresar en términos de los coeficientes de


autocorrelación dividiendo por γ0 ambos miembros tal que:

ρ 1 = φ1 ρ 0 + φ 2 ρ 1 + ... + φ p ρ p −1
ρ 2 = φ1 ρ 1 + φ 2 ρ 0 + ... + φ p ρ p − 2
.............................. ..............
ρ k = φ1 ρ p −1 + φ 2 ρ p − 2 + ... + φ p ρ 0

Si se resuelve sucesivamente el sistema de ecuaciones de Yule-Walker bajo la hipótesis de que


la serie es un AR(1), AR(2), AR(3), etc., y se toma el último coeficiente de cada uno de los
procesos se obtiene lo que se conoce como función de autocorrelación parcial (fap); dicha
función mide el coeficiente de correlación entre observaciones separadas k períodos, eliminando
el efecto de los valores intermedios.

86
Dado que p es el orden del proceso autorregresivo, resulta evidente que los coeficientes de
autocorrelación parcial serán distintos de cero para retardos iguales o inferiores a p. Así, para un
proceso AR(1) tendríamos una función de autocorrelación parcial como la que se muestra en la
figura 3.7.

φ1 >0 φ1 <0

Figura 3.7. Función de autocorrelación parcial para un AR(1)

Del mismo modo, la función de autocorrelación parcial para un proceso AR(2) tendrá la
siguiente forma (fig. 3.8.):

φ1>0, φ2>0 φ1<0, φ2>0

φ1>0, φ2<0 φ1<0, φ2<0

Figura 3.8. Función de autocorrelación parcial para un AR(2)

87
Finalmente, y de forma análoga a los resultados obtenidos en los procesos AR(1) y AR(2), para
que un proceso autorregresivo de orden p sea estacionario, las raíces del polinomio de retardos
del proceso, 1 − φ1 B + φ2 B 2 + ... + φ p B p = 0 , deberán ser menores a la unidad en valor absoluto.

3.4.3. Procesos de Media Móvil (MA(q))


En los procesos de media móvil de orden q, cada observación Yt es generada por una media
ponderada de perturbaciones aleatorias, con un retardo de q períodos tal que:

Yt = δ + εt – θ1εt-1 – θ2εt-2 – ... – θqεt-q

donde εt es un ruido blanco.

Pasamos a ver a continuación las características particulares de dos procesos de medias móviles
básicos, el de orden 1 ó MA(1), y el de orden 2 ó MA(2). Posteriormente, los resultados
obtenidos se generalizarán, como ya hicimos en el caso de los procesos autorregresivos, al caso
de un proceso de medias móviles de orden q, MA(q).

3.4.3.1. Modelos de medias móviles de primer orden MA(1)


Veamos el caso particular de un proceso de media móvil de orden 1 ó MA(1). Formalmente su
expresión sería:

Yt = δ + εt – θ1εt-1

siendo su media E(Yt) = δ, y su varianza Var (Yt) = Var(εt) + θ12 Var(εt-1) = σ ε2 (1+ θ12 ) = γ0

En el caso de las covarianzas tenemos que:

γ 1 = E [(Yt −1 − δ )(Yt − δ )] = E [(ε t −1 − θ1ε t −2 )(ε t − θ1ε t −1 )] = −θσ ε2


γ 2 = E [(Yt −2 − δ )(Yt − δ )] = E [(ε t −2 − θ1ε t −3 )(ε t − θ1ε t −1 )] = 0
L
γ k = 0, ∀k > 1

88
El resultado obtenido pone de manifiesto que los procesos de media móvil poseen memoria de
sólo un período, ya que cualquier valor de Yt está correlacionado con Yt-1 e Yt+1 pero con ningún
otro valor de la serie.

A partir de las expresiones anteriores, y de modo análogo a como procedíamos en el caso de los
modelos AR, podemos obtener los coeficientes de la función de autocorrelación simple:

ρ0 = 1
γ − θ1
ρ1 = 1 =
γ 0 1 + θ12
γ
ρ k = k = 0, ∀k > 1
γ0

De todos estos resultados se desprende que un proceso MA(1) siempre es estacionario con
independencia del valor de θ1.

La representación gráfica de la función de autocorrelación simple viene determinada por el


signo de θ1, tal y como puede apreciarse en la figura 3.9.

θ1 > 0 θ1 < 0

Figura 3.9. Función de autocorrelación simple para un MA(1)

89
3.4.3.2. Modelos de medias móviles de segundo orden MA(2)
Veamos ahora el caso de un proceso MA(2). Dicho proceso viene definido por la siguiente
ecuación:

Yt = δ + εt – θ1εt-1 – θ2εt-2

con media E(Yt)=δ y varianza Var(Yt)=Var(εt)+ θ12 Var(εt-1)+ θ 22 Var(εt-2)= σ ε2 (1+ θ12 + θ 22 )=γ0

Las covarianzas del proceso son:

γ 1 = E [(Yt −1 − δ )(Yt − δ )] = E [(ε t −1 − θ1ε t − 2 − θ 2 ε t −3 )(ε t − θ 1ε t −1 − θ 2 ε t − 2 )] = ( −θ1 + θ1θ 2 )σ ε2


γ 2 = E [(Yt − 2 − δ )(Yt − δ )] = E [(ε t − 2 − θ 1ε t −3 − θ 2 ε t − 4 )(ε t − θ 1ε t −1 − θ 2 ε t − 2 )] = −θ 2 σ ε2
L
γ k = 0, ∀k > 2

Expresión de la que podemos obtener los coeficientes de la función de autocorrelación simple:

ρ0 = 1
γ − θ 1 + θ 1θ 2
ρ1 = 1 =
γ 0 1 + θ12 + θ 22
γ − θ2
ρ2 = 2 =
γ 0 1 + θ 12 + θ 22
L
γk
ρk = = 0, ∀k > 2
γ0

De los resultados obtenidos para el modelo MA(2) también se desprende que siempre es
estacionario con independencia del valor de sus parámetros, siendo su memoria en este caso de
dos períodos.

90
La representación gráfica de la función de autocorrelación simple, la cual depende del signo de
θ1 y θ2, es la que se muestra en la figura 3.10.

θ1 >0, θ2 >0 θ1 <0, θ2 >0

θ1 >0, θ2 <0 θ1 <0, θ2 <0

Figura 3.10. Función de autocorrelación simple para un MA(2)

91
3.4.3.3. Modelos de medias móviles de orden q, MA(q)
Una vez analizados los resultados obtenidos para los procesos de media móvil de orden 1 y 2,
ya podemos obtener una generalización de las expresiones anteriores para un proceso de media
móvil de orden q cualquiera.

Sea el proceso MA(q):

Yt = δ + εt – θ1εt-1 – θ2εt-2 – ... – θqεt-q

con media E(Yt)=δ y varianza Var(Yt)=Var(εt)+ θ12 Var(εt-1)+ θ 22 Var(εt-2)+…+ θ q2 Var(εt-q)=

σ ε2 (1+ θ12 + θ 22 +…+ θ q2 ) = γ0

Por su parte, las covarianzas de un proceso MA(q) son:

γ 1 = E [(Yt −1 − δ )(Yt − δ )] = ( −θ1 + θ1θ 2 + θ 2θ 3 + ... + θ q −1θ q )σ ε2


γ 2 = E [(Yt − 2 − δ )(Yt − δ )] = ( −θ 2 + θ1θ 3 + θ 2θ 4 + ... + θ q − 2θ q )σ ε2
L
γ q = −θ q σ ε2
L
γ k = 0, ∀k > q

Los coeficientes de la función de autocorrelación simple pueden ser obtenidos a partir de las
expresiones anteriores de autocovarianzas, no siguiendo los mismos una expresión regular. En
cualquier caso, cualquier proceso MA de orden finito es estacionario.

92
3.4.3.4. Relación entre procesos AR y MA
Cualquier proceso MA(q) puede expresarse como un AR de orden infinito. Así, por ejemplo, si
consideramos un modelo MA(1) cuya expresión es, como sabemos:

Yt = δ + εt – θ1εt-1 (3.4)

Por analogía, podemos escribir:

Yt-1 = δ + εt-1 – θ1εt-2


Yt-2 = δ + εt-2 – θ1εt-3
…………………………

Despejando en (3.4) el valor de εt y sustituyendo de forma recursiva los valores de εt-1 y εt-2,
tenemos que:

ε t = Yt − δ + θ1ε t −1 = Yt − δ + θ1 (Yt −1 − δ + θ1ε t − 2 ) =


Yt − δ + θ1Yt −1 − θ1δ + θ12 ε t − 2 = Yt − δ + θ1Yt −1 − θ1δ + θ 12 (Yt − 2 − δ + θ1ε t −3 ) =
Yt − δ + θ1Yt −1 − θ1δ + θ12Yt − 2 − θ12δ + θ13ε t −3
( )
⇒ Yt = δ 1 + θ1 + θ12 − θ1Yt −1 − θ12Yt − 2 − θ13ε t −3 + ε t

Si continuamos sustituyendo εt-3 y siguientes, el procedimiento continuará hasta el infinito, lo


que permite expresar a Yt como función de todos sus valores pasados más una constante y un
término de error.

El resultado anterior tendrá sentido sólo si |θ1|< 1 (o su equivalente en términos de raíces de


polinomio de retardos, 1 − θ1 B = 0 ⇒ B > 1 ) ya que, de otro modo, el efecto del pasado sería más

importante para explicar el comportamiento actual.

Del mismo modo, puede comprobarse que en el caso de un modelo MA(2), la condición que
debe verificarse es |θ1+θ2|< 1 ó, en términos de raíces del polinomio de retardos, 1–θ1B–θ2B2=0
⇒ B >1, y en general, para cualquier modelo MA(q), la condición es 1–θ1B–θ2B2–...–θqBq = 0
⇒ B >1

93
Si se verifica esta condición, denominada condición de invertibilidad, entonces es posible
expresar un proceso MA(q) como un proceso AR de orden infinito, lo que implica que un
proceso de media móvil consta de infinitos coeficientes de autocorrelación parcial distintos de
cero, si bien a partir de q comenzarán a decaer rápidamente. Así, la función de autocorrelación
parcial de un proceso de media móvil se comportará de manera análoga a como lo hace la
función de autocorrelación simple de un proceso autorregresivo, como puede apreciarse en la
figura 3.11. para un proceso MA(1) y en la figura 3.12. para un proceso MA(2).

θ1 >0 θ1 <0

Figura 3.11. Función de autocorrelación parcial para un MA(1)

θ1 >0, θ2 >0 θ1 <0, θ2 >0

θ1 >0, θ2 <0 θ1 <0, θ2 <0

Figura 3.12. Función de autocorrelación parcial para un MA(2)

94
3.4.4. Procesos ARMA(p, q)
Los procesos ARMA (p, q) son, como su nombre indica, un modelo mixto que posee una parte
autorregresiva y otra de media móvil, donde p es el orden de la parte autorregresiva y q, el de la
media móvil. La expresión genérica de este tipo de procesos es:

Yt = δ + φ1Yt-1 + φ2Yt-2 + ... + φpYt-p + εt – θ1εt-1 – θ2εt-2 – ... – θqεt-q

En este tipo de modelos deben verificar las dos condiciones que hemos visto hasta el momento:
por un lado, la condición de estacionariedad, debiéndose cumplir que las raíces del polinomio de
retardos de la parte autorregresiva, φ(Β) = 0, estén fuera del círculo unidad; y por otro, la
condición de invertibilidad, debiéndose verificar que las raíces del polinomio de retardos de la
parte MA, θ(L) = 0, estén fuera del círculo unidad.

3.4.4.1. Modelos ARMA(1, 1)


Veamos las características particulares de un modelo ARMA (1,1). La ecuación que define este
tipo de proceso es:

Yt = δ + φ1Yt-1 + εt – θ1εt-1

el cual presenta las siguientes características:

δ
Media: µ = < ∞, φ1 ≠ 1
1 − φ1

Varianza: γ 0 = E (δ + φ1Yt −1 + ε t − θ 1ε t −1 )2 = φ12 γ 0 + σ ε2 + θ12σ ε2 − 2φ1σ ε2

σ ε2 (1 + θ 12 − 2φ1σ ε2 )
⇒γ0 = , con φ1 < 1
1 − φ12

Por su parte, las autocovarianzas del proceso serán:

95
γ 1 = E [Yt −1Yt ] = φ1γ 0 − θ1σ ε2
γ 2 = E [Yt −2Yt ] = φ1γ 1
L
γ k = E [Yt − k Yt ] = φ1γ k −1 , ∀k ≥ 2

A continuación se presentan en las figuras 3.13. y 3.14. las funciones de autocorrelación simple
y parcial de un proceso ARMA (p, q).

φ1>0, θ1<0, |φ1| = |θ1| φ1<0, θ1>0, |φ1| = |θ1|

φ1>0, θ1>0, |φ1| > |θ1| φ1>0, θ1>0, |φ1| < |θ1|

φ1<0, θ1<0, |φ1| > |θ1| φ1<0, θ1<0, |φ1| < |θ1|

Figura 3.13. Funciones de autocorrelación simple para un ARMA(1,1)

96
φ1>0, θ1<0, |φ1| = |θ1| φ1<0, θ1>0, |φ1| = |θ1|

φ1>0, θ1>0, |φ1| > |θ1| φ1>0, θ1>0, |φ1| < |θ1|

φ1<0, θ1<0, |φ1| > |θ1| φ1<0, θ1<0, |φ1| < |θ1|

Figura 3.14. Funciones de autocorrelación parcial para un ARMA(1,1)

97
El simple examen de los gráficos anteriores pone de manifiesto que no resulta nada sencillo en
la práctica identificar un proceso ARMA (1, 1) a través de sus funciones de autocorrelación
simple y parcial, ya que es fácil confundir dichas funciones con las de otros procesos
univariantes. Por ello, normalmente el investigador seguramente especifique y estime
inicialmente un modelo más sencillo, como por ejemplo un AR(2); posteriormente el análisis de
los residuos obtenidos en dicha estimación pondrá de manifiesto la presencia de otras
estructuras. Si, por ejemplo, el investigador detecta en las funciones de autocorrelación simple y
parcial de los residuos obtenidos una estructura de MA(1) será necesario incorporar dicha
estructura especificando un modelo ARMA (2, 1), el cual sin duda tendrá una mayor capacidad
explicativa.

3.4.4.2. Modelos ARIMA


Si la serie Yt no fuera estacionaria y tomando d diferencias logramos que lo sea tal que ωt=∆dYt
sí es estacionaria, entonces diremos que Yt sigue un proceso autorregresivo integrado de media
móvil de orden (p, d, q) y se denominará ARIMA (p,d,q) o, lo que es lo mismo, que ωt sigue un
proceso estacionario de tipo ARMA (p, q) tal que:

ω t = δ + φ1ω t −1 + φ 2 ω t − 2 + ... + φ p ω t − p + ε t − θ 1ε t −1 − θ 2 ε t − 2 − ... − θ q ε t − q

O también, expresando el proceso en notación de polinomios de retardos:

(1 − φ1 B − φ2 B 2 − ... − φ p B p )ωt = δ + (1 − θ1 B − θ 2 B 2 − ... − θ q B q )ε t

φ ( B )ωt = δ + θ ( B )ε t

El modelo ARIMA(p, d, q) puede ser considerado como el modelo estocástico lineal general,
del cual derivan el resto de procesos que hemos visto. Así, si p = d = 0, estaremos ante un
modelo ARIMA(0, 0, q) equivalente a un modelo MA(q); si q = 0 tendríamos un modelo
ARIMA (p, d, 0) ó ARI(p,d) (es decir, un modelo autorregresivo en el que se han tomado d
diferencias para hacer estacionaria a la serie analizada).

98
3.4.5. Procesos Estacionales
Cuando trabajamos con series temporales cuya frecuencia de medida es inferior al año
(mensuales, trimestral, cuatrimestrales), es frecuente encontrarse con patrones estacionales, es
decir, ciclos u oscilaciones estrictamente periódicos, siendo dicho período igual o inferior al
año. Por ejemplo, si una serie trimestral presenta estacionalidad diremos que su periodo
estacional será igual a cuatro cuando en dicha serie se aprecian similitudes en su
comportamiento cada cuatro trimestres.

La presencia de este componente se explica por la existencia de las estaciones y su impacto


sobre la actividad económica (por ejemplo, en la producción agropecuaria o en el turismo), las
costumbres (fin de año, Semana Santa) o los procesos físicos (temperatura, pluviosidad, etc.).

Otra manera para detectar un comportamiento estacional consiste en analizar las funciones de
autocorrelación simple y parcial de la serie de la que se sospecha que presenta un
comportamiento de tipo estacional. Si al representar dichas funciones se aprecian valores muy
altos, significativamente distintos de cero, para los retardos estacionales podremos concluir que
la serie presenta un componente estacional el cual debe presentar un carácter estacionario, es
decir, debemos exigir que el componente estacional se mantenga constante a lo largo del
tiempo.

Nuevamente, el análisis de las funciones de autocorrelación simple y parcial en los retardos


estacionales nos dirá si el componente estacional de la serie es estacionario o no. Así, si
observamos que la función de autocorrelación simple presenta un lento decaimiento en los
valores correspondientes a los retardos estacionales y el valor del primer retardo estacional es
próximo a uno tanto en la función de autocorrelación simple como parcial, es muy probable que
el comportamiento estacional de la serie no presente un carácter estacionario, por lo que será
necesario tomar diferencias de tipo estacional.

En caso de que la serie Yt presente un comportamiento estacional no estacionario, habrá que


tomar diferencias entre aquellas observaciones separadas por el periodo que presenta el

99
comportamiento estacional, aplicando para ello el operador diferencia estacional, ∆s, que se
define como:

∆sYt = Yt – Yt-s = (1–Bs) Yt


donde s es el periodo estacional de la serie.

La detección del comportamiento estacional de la serie y su carácter estacionario es importante


ya que, tal y como Box y Jenkins plantearon, es posible incorporar a un modelo ARIMA (p, d,
q) las correlaciones existentes entre pares de observaciones separadas por periodos estacionales
suponiendo que el término de error de un modelo ARIMA para la parte estacional está
correlacionado serialmente.

Así, podemos especificar el siguiente modelo para la parte estacional detectada en la serie:

(1 − Φ 1 B s − Φ 2 B 2 s − ... − Φ P B Ps )(1 − B s ) D Yt = (1 − Θ1 B s − Θ 2 B 2 s − ... − ΘQ B Qs )·u t (3.5)

Que se denomina ARIMA(P, D, Q) para la parte estacional de la serie.

A su vez, podemos suponer que el término de error de este modelo, ut, viene generado por un
proceso ARIMA(p, d, q) en lugar de ser ruido blanco tal que:

(1 − φ1 B − φ2 B 2 − ... − φ p B p )(1 − B ) d ut = (1 − θ1 B − θ 2 B 2 − ... − θ q B q )ε t (3.6)

Sustituyendo ahora (3.5) en (3.6) obtendremos la expresión del proceso estacional


multiplicativo general, el cual denotaremos por ARIMA(p, d, q) × ARIMA(P, D, Q)s, y que
podemos escribir como:

(1 − Φ 1 B s − Φ 2 B 2 s − ... − Φ P B Ps )(1 − φ1 B − φ2 B 2 − ... − φ p B p )(1 − B s ) D (1 − B ) d Yt =


(1 − Θ1 B s − Θ 2 B 2 s − ... − ΘQ B Qs )(1 − θ1 B − θ 2 B 2 − ... − θ q B q )·ε t

100
O, de forma más abreviada, expresando el modelo en notación de retardos y generalizándolo
incluyendo un término constante:

Φ ( B s )φ ( B )[(1 − B s ) D (1 − B ) d Yt − δ ] = Θ( B s )θ ( B )ε t

donde:

φ (B ) es el polinomio de retardos autorregresivo de la parte regular de la serie.

θ (B ) es el polinomio de retardos de medias móviles de la parte regular de la serie.

d es el número de diferencias aplicadas a la parte regular de la serie para hacerla estacionaria.

Φ ( B s ) es el polinomio de retardos autorregresivo de la parte estacional de la serie.

Θ( B s ) es el polinomio de retardos de medias móviles de la parte estacional de la serie.

D es el número de diferencias aplicadas a la parte estacional de la serie para hacerla


estacionaria.

Así, por ejemplo, si deseamos especificar un modelo para una serie con estacionalidad mensual
podemos especificar un ARIMA(1, 1, 1) × ARIMA(1,1, 1)12, el cual puede escribirse como:

(1 − Φ 1 B s )(1 − φ1 B )[(1 − B12 )(1 − B )Yt − δ ] = (1 − Θ1 B 12 )(1 − θ1 B )·ε t

La estructura de las funciones de autocorrelación simple y parcial suele ser generalmente muy
compleja de este tipo de modelos por lo que no vamos a entrar en detalle en sus expresiones,
limitándonos a presentar a continuación la forma de las funciones de autocorrelación simple y
parcial de algunos procesos típicos de muchas series económicas.

101
Funciones de autocorrelación simple y parcial de algunos
procesos ARIMA(p, d, q) × ARIMA(P, D, Q)s

ARIMA(1, 0, 0) × ARIMA(1, 0, 0)12

a) φ1>0, Φ1>0, φ1 = Φ 1

Función de autocorrelación simple Función de autocorrelación parcial

b) φ1>0, Φ1<0, φ1 = Φ 1

Función de autocorrelación simple Función de autocorrelación parcial

c) φ1<0, Φ1>0, φ1 = Φ 1

Función de autocorrelación simple Función de autocorrelación parcial

102
d) φ1<0, Φ1<0, φ1 = Φ 1

Función de autocorrelación simple Función de autocorrelación parcial

ARIMA(2, 0, 0) × ARIMA(1, 0, 0)12

a) φ1>0, φ2>0, Φ1>0, φ2 < φ1 < Φ 1

Función de autocorrelación simple Función de autocorrelación parcial

b) φ1<0, φ2>0, Φ1>0, φ2 < φ1 < Φ 1

Función de autocorrelación simple Función de autocorrelación parcial

103
c) φ1>0, φ2<0, Φ1>0, φ2 < φ1 < Φ 1

Función de autocorrelación simple Función de autocorrelación parcial

d) φ1<0, φ2<0, Φ1>0, φ2 < φ1 , φ2 < Φ 1 , φ1 = Φ 1

Función de autocorrelación simple Función de autocorrelación parcial

e) φ1>0, φ2>0, Φ1<0, φ2 < φ1 < Φ 1

Función de autocorrelación simple Función de autocorrelación parcial

104
f) φ1<0, φ2>0, Φ1<0, φ2 < φ1 < Φ 1

Función de autocorrelación simple Función de autocorrelación parcial

g) φ1>0, φ2<0, Φ1<0, φ2 < φ1 < Φ 1

Función de autocorrelación simple Función de autocorrelación parcial

h) φ1<0, φ2<0, Φ1<0, φ2 < φ1 , φ2 < Φ 1 , φ1 = Φ 1

Función de autocorrelación simple Función de autocorrelación parcial

105
ARIMA(0, 0, 1) × ARIMA(0, 0, 1)12

a) θ1>0, Θ1>0, θ1 = Θ1

Función de autocorrelación simple Función de autocorrelación parcial

b) θ1>0, Θ1<0, θ1 = Θ1

Función de autocorrelación simple Función de autocorrelación parcial

c) θ1<0, Θ1>0, θ1 = Θ1

Función de autocorrelación simple Función de autocorrelación parcial

106
d) θ1<0, Θ1<0, θ1 = Θ1

Función de autocorrelación simple Función de autocorrelación parcial

ARIMA(0, 0, 2) × ARIMA(0, 0, 1)12

a) θ1>0, θ2>0, Θ1>0, θ 2 < θ1 < Θ1

Función de autocorrelación simple Función de autocorrelación parcial

b) θ1<0, θ2>0, Θ1>0, θ 2 < θ1 < Θ1

Función de autocorrelación simple Función de autocorrelación parcial

107
c) θ1>0, θ2<0, Θ1>0, θ 2 < θ1 < Θ1

Función de autocorrelación simple Función de autocorrelación parcial

d) θ1<0, θ2<0, Θ1>0, θ 2 < θ1 , θ 2 < Θ1 , θ1 = Θ1

Función de autocorrelación simple Función de autocorrelación parcial

e) θ1>0, θ2>0, Θ1<0, θ 2 < θ1 < Θ1

Función de autocorrelación simple Función de autocorrelación parcial

108
f) θ1<0, θ2>0, Θ1<0, θ 2 < θ1 < Θ1

Función de autocorrelación simple Función de autocorrelación parcial

g) θ1>0, θ2<0, Θ1<0, θ 2 < θ1 < Θ1

Función de autocorrelación simple Función de autocorrelación parcial

h) θ1<0, θ2<0, Θ1<0, θ 2 < θ1 , θ 2 < Θ1 , θ1 = Θ1

Función de autocorrelación simple Función de autocorrelación parcial

109
ARIMA(0, 0, 1) × ARIMA(2, 0, 0)12

a) θ1>0, Φ1>0, Φ2>0, Φ 2 < Φ 1 < θ1

Función de autocorrelación simple Función de autocorrelación parcial

b) θ1>0, Φ1<0, Φ2<0, Φ 2 < Φ 1 , Φ 2 < θ1 , θ1 = Φ 1

Función de autocorrelación simple Función de autocorrelación parcial

ARIMA(0, 0, 1) × ARIMA(2, 0, 1)12

a) θ1>0, Φ1>0, Φ2<0, Θ1>0, θ1 = Θ1 , Φ 2 < Φ 1 < Θ1

Función de autocorrelación simple Función de autocorrelación parcial

110
b) θ1>0, Φ1<0, Φ2<0, Θ1>0, θ1 = Φ 1 = Θ1 , Φ 2 < Θ1

Función de autocorrelación simple Función de autocorrelación parcial

3.5. FASES PARA LA ELABORACIÓN DE MODELOS


UNIVARIANTES

Aunque las fases que vamos a explicar a continuación son válidas para cualquier tipo de proceso
univariante, vamos a centrarnos fundamentalmente en los procesos de tipo ARIMA.
Básicamente se trata de buscar un proceso ARIMA que de forma verosímil haya podido generar
la serie temporal, es decir, que se adapte mejor a las características de la misma. Para ello
seguiremos las siguientes fases:

− Fase de identificación
− Fase de estimación
− Fase de validación
− Fase de predicción

3.5.1. Fase de identificación


Dado que los procesos ARIMA están diseñados para modelizar datos de carácter estacionario, lo
primero que debemos hacer es efectuar un análisis de la estacionariedad de los datos. Con tal fin
se utilizan los siguientes instrumentos:

− Representación gráfica de los datos. Si el gráfico de la serie temporal presenta fluctuaciones


cuya amplitud cambia para distintos intervalos del período muestral, seguramente el proceso
que genera la serie es no estacionario. Lo mismo sucede cuando la tendencia es creciente o
decreciente con el tiempo.

111
− A través del gráfico desviación típica-media. Si en el gráfico realizado observamos que,
conforme crece la media, la desviación típica aumenta, la varianza del proceso será
creciente por lo que diremos que la serie es no estacionaria en varianza.

− Análisis del correlograma. El hecho de que la función de autocorrelación simple o


correlograma de la serie decrezca muy lentamente al aumentar el retardo ha demostrado ser
una señal de tendencia no estacionaria. Puesto que en la práctica se dispone de una
realización de un proceso estocástico, podemos obtener los coeficientes de autocorrelación
muestral y, a partir de ellos, el correlograma muestral. Una vez representado el
correlograma muestral, podrá analizarse si la serie es o no estacionaria. Asimismo, en este
punto también es conveniente examinar la apariencia de la función de autocorrelación
parcial de la serie para ver si existen similitudes con alguno de los patrones estudiados.
Si la serie temporal que estamos analizando no es estacionaria se deberán aplicar las
transformaciones adecuadas con objeto de convertirla en estacionaria. Si la serie no es
estacionaria en varianza, deberemos tomar logaritmos sobre la serie; si además la serie presenta
no estacionariedad en media, se aplicará el proceso de diferenciación que ya hemos comentado
al comienzo del capítulo.

En este punto cabe señalar que es preferible trabajar con series económicas en niveles en lugar
de tasas de variación ya que, en caso de detectarse no estacionariedad en la varianza, no
podremos aplicar logaritmos si existe alguna tasa negativa. Asimismo, debemos tener en cuenta
que normalmente las series originales transformadas aplicando logaritmos y tomando
posteriormente una diferencia constituyen una aproximación a una tasa de variación tal que
∆lnYt ≅ (Yt – Yt-1) / Yt-1

Una vez transformada la serie en estacionaria, se determinará el orden de la parte autorregresiva


(p) y el de la parte de media móvil (q) del proceso ARMA que se considere que haya podido
generar la serie estacionaria. Para tal fin utilizaremos la representación gráfica de las funciones
de autocorrelación simple y parcial de la serie transformada, con objeto de obtener pistas acerca
del proceso univariante del que puede proceder la serie transformada. Las siguientes reglas
pueden resultar útiles a la de inspeccionar los gráficos de la fas y la fap de la serie:

− En los modelos AR(p), la función de autocorrelación parcial presenta los p primeros


coeficientes distintos de cero y el resto nulos. Asimismo, generalmente la función de
autocorrelación simple presenta un decrecimiento rápido de tipo exponencial, sinusoidal o
ambos.

112
− En los modelos MA(q), se da el patrón opuesto: la función de autocorrelación simple se
anula para retardos superiores a q y la función de autocorrelación parcial decrece
exponencial o sinusoidalmente.

− Sin embargo, como ya hemos visto, la especificación de los modelos ARMA no se ajusta a
unas normas tan bien definidas. Por ejemplo, en un modelo AR(1), la función de
autocorrelación parcial es cero para k>1, pero esto no ocurre en un ARMA(1,1), pues a la
componente AR(1) hay que superponer la MA(1) cuya función de autocorrelación parcial
converge exponencialmente a cero.

Lo habitual en estos casos es que el investigador especifique inicialmente un modelo más


simple y, posteriormente, mediante el análisis de los residuos de la estimación de dicho
modelo se detecte un proceso que no ha sido especificado inicialmente y que debe ser
incorporado al modelo.

− En cualquier caso, para que una serie sea fácilmente identificable hay que considerar un
tamaño muestral elevado, superior a 50 observaciones.

En general, la etapa de identificación suele plantear ciertas dificultades y su objetivo es


determinar la especificación tentativa de unos pocos modelos con estructuras sencillas. Las
posteriores etapas de estimación y validación de los resultados confirmarán los indicios o, por el
contrario, servirán de base para reformular el modelo propuesto.

3.5.2. Fase de estimación


Una vez identificado el modelo de series temporales apropiado, se procede a la estimación
definitiva de sus parámetros. En este punto, no debemos olvidar que si hemos tomado d
diferencias en la serie se perderán d observaciones, quedando T–d datos disponibles para la
estimación.

Asimismo, debemos tener presente que el proceso estimado debe verificar las siguientes
hipótesis:

a) El término εt posee estructura de ruido blanco y sigue una distribución Normal con
media 0 y varianza σ ε2 .

113
b) La parte AR del proceso es estacionaria.

c) La parte MA del proceso es invertible.

Veamos a continuación brevemente cómo se realiza la estimación de los distintos modelos


univariantes que hemos visto en los epígrafes anteriores:

• Estimación de procesos AR. Un proceso autorregresivo no cumple la hipótesis del


modelo clásico de regresión basada en regresores fijos que veíamos en el capítulo 2, ya
que los retardos de Yt son variables aleatorias al serlo la propia Yt. Sin embargo, en
presencia de errores que no presentan autocorrelación, los estimadores mínimo-
cuadráticos son consistentes por lo que en la práctica la estimación de un proceso
autorregresivo se realiza por MCO, siendo los retardos de la variable endógena las
variables explicativas del modelo. Sólo si el término de error presentase algún tipo de
correlación y no fuera ruido blanco, los estimadores obtenidos dejarían de ser
consistentes.

• Estimación de procesos MA y ARMA. La estimación de modelos de medias móviles y


ARMA resulta algo más compleja y se lleva a cabo maximizando el logaritmo de la
función de verosimilitud mediante algoritmos de optimización numérica, similares a los
que veremos en el capítulo 11, debido a que los errores no son función lineal de los
parámetros. Por ello generalmente la estimación de estos procesos se realiza utilizando
algún programa informático especializado, como puede ser Eviews, SPSS o TRAMO.

3.5.3. Fase de validación


En esta etapa se comprobará la capacidad de ajuste del modelo propuesto y estimado a los datos.
En caso de que el modelo no supere satisfactoriamente este paso, será necesario reformularlo.
En este sentido, cabe señalar que los resultados de la comprobación de la validez del modelo,
suelen dar pistas para la especificación de un modelo alternativo.

Para la aceptación del modelo, éste debe cumplir los siguientes requisitos:

• Análisis de los residuos. Como sabemos, una de las hipótesis de los modelos
univariantes es que el término de error del modelo es ruido blanco. Por ello, los residuos
obtenidos tras la estimación del modelo deben seguir un proceso puramente aleatorio
con distribución Normal, ya que de lo contrario, contendrían información relevante para
la predicción que se estaría despreciando.

114
Con objeto de estudiar si los residuos se aproximan al comportamiento de un proceso de
ruido blanco, se disponen de las siguientes herramientas:

− Estadístico de Ljung-Box: se trata del siguiente estadístico, propuesto por


Ljung y Box (1979) para contrastar si una serie posee estructura de ruido
blanco:

k
rˆj2
Q ( k ) = T (T + 2 ) ∑
j =1
T−j

T −k

∑ε ε
t =1
t t −k
donde T es el número de observaciones y rˆk = T −k
es el coeficiente
∑ t =1
ε t2

de autocorrelación de orden k de los residuos.

La elección de k es arbitraria, si bien debe tenerse en cuenta que cuanto


mayor sea el valor de k, el test se extenderá a desfases mayores pero la
precisión en la estimación de los rk será menor y disminuirá la potencia del
contraste, es decir, la probabilidad de rechazar la hipótesis nula cuando ésta
es falsa.

Dicho estadístico, bajo la hipótesis nula de que los residuos del modelo son
ruido blanco sigue una distribución χ 2 con k grados de libertad, por lo que
se rechazará la hipótesis nula si el valor del estadístico obtenido es superior
al tabulado en la distribución a un nivel de significación dado.

− Representación de las funciones de autocorrelación simple y parcial de


los residuos. Si los coeficientes de dichas funciones son estadísticamente
iguales a cero, la serie de residuos será considerada aleatoria. Anderson
(1942) demostró que los coeficientes de la función de autocorrelación
procedentes de un ruido blanco siguen asintóticamente la siguiente
distribución:

rˆk ≈ N (0, 1 / T )

115
En consecuencia, bajo la hipótesis nula de que r̂k =0, se puede construir un
2
intervalo de confianza acotado por ± . Si algún r̂k cayera fuera de este
T
intervalo, entonces se rechazará la hipótesis de no autocorrelación.

Las funciones de autocorrelación simple y parcial de los residuos del


modelo estimado son instrumentos valiosos a la hora de reformular el
modelo en caso de que no se comporten como un proceso ruido blanco, ya
que si se detecta algún tipo de estructura univariante que no se había
especificado inicialmente en el modelo, podremos incorporarla y estimar
de nuevo el modelo.

− Representación gráfica de los residuos. La representación de la evolución


de los residuos a lo largo del tiempo permite observar si su varianza se
mantiene constante en el tiempo y si la media está próxima a cero, así como
detectar la presencia de valores atípicos, esto es, residuos que en valor
absoluto exceden en tres o cuatro veces su desviación típica (suponiendo
que su media es igual a cero).

Asimismo podemos verificar si las frecuencias de los residuos se ajustan a


una distribución Normal mediante el test de Jarque-Bera, cuya expresión es:

 A 2 ( K − 3) 2 
JB = N ⋅  + 
 6 24 
 

Donde A el coeficiente de asimetría muestral, K el coeficiente de curtosis


muestral y N el tamaño muestral4.

4
Recordemos que los coeficientes de asimetría y curtosis se calculan de la siguiente manera:

n n
( xi − x ) 3 ( xi − x ) 4

i =1
n ∑
i =1
n
A= K= −3
;

σ x3 σ x4

Para el caso de una distribución Normal, se verificará que A = 0 y K = 3, valores que sustituidos en la
expresión del estadístico de Jarque-Bera hacen que sea igual a 0.

116
Bajo la hipótesis nula de Normalidad en la distribución de los residuos, el
estadístico JB se distribuye según una χ2 con 2 grados de libertad, por lo
que valores muy elevados del estadístico sugerirán la no normalidad de la
serie de residuos analizada.

− Otros contrastes. También es posible aplicar a los residuos los contrastes


sobre autocorrelación y heteroscedasticidad que vimos en el capítulo 3.

• Análisis de los coeficientes estimados.

− Significatividad de los coeficientes. Lo primero es verificar si los


coeficientes son significativos mediante el estadístico t. Dicho estadístico
está construido bajo la hipótesis nula de que el coeficiente es cero y sigue
una distribución t-Student con T–m grados de libertad, siendo m el número
de parámetros incluidos. Si concluimos que alguno no es significativo
(estadístico t mayor, en valor absoluto, que su valor en tablas) se puede
eliminar del modelo.

− Condiciones de estacionariedad e invertibilidad. El modelo debe


verificar las condiciones ya vistas a lo largo del capítulo; de lo contrario, si
alguna de las raíces del polinomio de retardos del componente
autorregresivo o del componente media móvil fuese inferior a la unidad (o,
alternativamente, alguno de los parámetros estimados fuera mayor de uno),
se rechazaría automáticamente el modelo.

En el límite, si alguna de las raíces del polinomio de retardos (o alguno de


los parámetros) del componente autorregresivo estuviera muy próxima a
uno, es posible que la serie original esté subdiferenciada por lo que puede
que sea necesaria tomar alguna diferencia adicional.

Del mismo modo, si las raíces del polinomio de retardos (o alguno de sus
parámetros) del componente media móvil del modelo estuviera cercana a
uno, posiblemente el modelo esté sobrediferenciado.

• Análisis de la bondad de ajuste. Generalmente en este aspecto se suele utilizar el


coeficiente de determinación, R2, si bien los coeficientes de determinación de diferentes

117
modelos univariantes sólo son comparables en aquellos modelos en los que se hayan tomado
idéntico número de diferencias, debido a que para que éste sea un elemento de comparación
directa, la varianza de la variable debe ser la misma. Para paliar este inconveniente, se han
propuesto medidas alternativas como el estadístico AIC (Akaike Information Criterion),
formulado por Akaike (1974) o el SIC (Schwarz Information Criterion), formulado por
Schwarz (1978)5. Las expresiones de dichos estadísticos son:

l k
AIC = −2 +2
T T

l log(T )
SIC = −2 +k
T T

Donde l es el valor en el óptimo del logaritmo de la función de verosimilitud con k


parámetros estimados y T observaciones. Siguiendo estos criterios, se seleccionará aquel
modelo para el que se obtenga un AIC o SIC más bajo.
• Análisis de la estabilidad. Finalmente, de cara a la predicción, conviene saber si el modelo
estimado para el período muestral sigue siendo válido para períodos futuros. Para ello,
podemos aplicar el test de estabilidad estructural de Chow, estimando el modelo con toda la
muestra disponible y después con dos submuestras obtenidas a partir de la muestra original.
Seguidamente se calcula el siguiente estadístico:

T  T1 T2 

 t =1  ∑
 ε t2 −  ε 12t + ∑ ε 22t  / k

 t =1 
F=
t =1
~ Fk, T–2k
 T 1 T 2 
 ∑
 ε2 +
1t ∑ 2 
ε 2 t / T − 2k

 t =1 t =1 

donde:

k es el número de parámetros estimados.


T = T1+T2 es el total de datos en la muestra.
εt es el residuo del modelo estimado utilizando todo el período muestral.

5
La mayor parte de paquetes informáticos dedicados al análisis de series temporales calcula de forma
automática cuando se realiza la estimación de un modelo.

118
ε1t es el residuo obtenido en la estimación del modelo utilizando los T1 primeros datos.
ε2t es el residuo obtenido en la estimación del modelo utilizando los T2 últimos datos.

Lo que se pretende contrastar con el test de Chow es si el último tramo muestral ha estado
generado por la misma estructura que el resto de las observaciones. En este sentido, algunos
autores recomiendan tomar como segundo tramo muestral el último tercio o cuarto de la
muestra.

En caso de que el estadístico F obtenido sea mayor que su valor tabulado a un determinado
nivel de significación, se rechazará la hipótesis nula de estabilidad estructural.

3.5.4. Fase de predicción


Una vez que el modelo ha superado la fase de diagnosis, se convierte en un instrumento útil para
la predicción. La realización de predicciones y el error cometido al realizar dicha predicción
dependerá del tipo de modelo univariante que estemos considerando:

− En el caso de los modelos autorregresivos, bastará con sustituir los retardos de la


ecuación por sus correspondientes realizaciones en la serie. Si tratamos de realizar
predicciones varios periodos hacia delante, veremos que cuanto más adelante en el
tiempo tratamos de predecir el valor de la serie, menor será la ponderación de la última
observación y la esperanza matemática de la variable tiene cada vez más peso. De
hecho, en un régimen de total incertidumbre (o, alternativamente, cuando el horizonte
de predicción tiende a infinito) la predicción óptima para una variable aleatoria es su
esperanza matemática, mientras que si realizamos predicciones a corto plazo para los
valores de la serie, dispondremos de información muestral reciente que nos permitirá
mejorar nuestra predicción, la cual en este caso será más precisa que la esperanza
matemática.

En la siguiente tabla se presenta un resumen de las expresiones para las previsiones a 1


y 2 periodos con modelos autorregresivos sencillos, el error cometido y la varianza de
dicho error:

119
PROCESO AR (1)
Valor Futuro Error de Predicción Varianza del Error

Predicción a 1 periodo YT+1 = δ + φ1YT εT+1 σ ε2

Predicción a 2 periodos YT+2 = δ(1+φ1)+ φ12YT εT+2+φ1εT+1 σ ε2 (1+φ12)

Y, en general, para k periodos hacia delante se verifica que YT+k = δ(1+φ1+φ12+…+φ1k)+ φ1kYT

PROCESO AR (2)
Valor Futuro Error de Predicción Varianza del Error

Predicción a 1 periodo YT+1 = δ + φ1YT+φ2YT-1 εT+1 σ ε2

Predicción a 2 periodos YT+2 = δ(1+φ1) + (φ12+ φ2)YT+φ1φ2YT-1 εT+2+φ1εT+1 σ ε2 (1+φ12)

La previsión con modelos AR(p) con un orden p superior a 1 genera estructuras complejas
en horizontes de predicción superiores a 1.

− Por su parte, la predicción basada en modelos de medias móviles es siempre igual al


término constante (o igual a cero en caso de que éste no hubiera sido especificado en el
modelo) para un número de periodos hacia delante mayor que su orden.

Por tanto, las expresiones para las previsiones a 1 periodo con modelos de medias
móviles sencillos, el error cometido y la varianza de dicho error son:

Proceso Predicción a 1 periodo Error de Predicción Varianza del Error

MA(1) YT+1 = δ – θ1εT εT+1 σ ε2

MA(2) YT+1 = δ + θ1εT – θ2εT-1 εT+1 σ ε2

Y en general se verifica que YT+k = δ, ∀k > q

− Finalmente, en el caso de los modelos ARMA la superposición de los resultados que


acabamos de comentar lleva a la conclusión de que cuando el horizonte de predicción
tiende a infinito, la predicción convergerá a su esperanza matemática.

120
Por tanto, las expresiones para las previsiones a 1 y 2 periodos con un modelo
ARMA(1,1), el error cometido y la varianza de dicho error son:

Valor Futuro Error de Predicción Varianza del Error

Predicción a 1 periodo YT+1 = δ + φ1YT – θ1εT εT+1 σ ε2

Predicción a 2 periodos YT+2 = (1+φ1)δ + φ12YT –φ1θ1εT εT+2+(φ1 – θ1)εT+1 [1+(φ1 – θ1)2]+ σ ε
2

Y en general, la predicción a k periodos para un ARMA estacionario es:

δ
lim YT + k =
k →∞ 1 − φ1

Es decir, converge a la media del proceso.

Asimismo, debemos recordar que hay que deshacer las transformaciones que hayamos realizado
en la variable original para hacerla estacionaria. Así, si hemos tomado una diferencia, la
predicción para YˆT +1 es ωˆ T +1 + YˆT para la predicción a un periodo y, de forma más genérica,

YˆT + k = ωˆ T + k + ωˆ T + k −1 + ωˆ T + k −2 + ... + ωˆ T +1 + YˆT ; del mismo modo, si hemos tomado dos diferencias

tendremos que YˆT +1 = ωˆ T +1 + 2YˆT − YT −1 , y así sucesivamente.

Posteriormente, si también habíamos aplicado logaritmos a la serie original, deberemos elevar a


e el resultado obtenido tras deshacer las diferencias más la mitad de la varianza del error de
predicción tal que:

 1 
 ωˆT + k + ·Var eT ( k ) 
YˆT + k = e  2 

Dependiendo del tamaño de la varianza del error de predicción, supondría una diferencia
significativa o no con respecto a la aplicación de antilogaritmos a la predicción de la serie
diferenciada, aunque por lo general en la práctica el término asociado a la varianza del error
suele ser despreciable.

121
3.6. EJEMPLOS PRÁCTICOS

3.6.1. Ejemplo 1: Pasajeros en Lineas Aereas.


El siguiente ejemplo utiliza los totales mensuales de pasajeros de líneas aéreas internacionales
para el periodo comprendido entre Enero de 1949 y Diciembre de 1962 incluidos en libro de
Box y Jenkins. Esta base de datos está disponible en R:

> data(AirPassengers)
> x<-AirPassengers

En la figura 3.15. se muestra la representación gráfica de la serie en la que puede apreciarse


claramente una fuerte estacionalidad en los datos y una varianza creciente en el tiempo.
> plot(x)

Figura 3.15. Pasajeros de líneas aéreas internacionales


(serie original)

El hecho de que la varianza de la serie no sea constante en el tiempo sugiere que lo primero que
debemos hacer es transformar la serie tomando logaritmos para hacer que sea estacionaria en
varianza.
> x <- log(x)
Tras tomar logaritmos, la serie presenta ahora el siguiente aspecto (fig. 3.2.):

122
> plot(x)

Figura 3.16. Pasajeros de líneas aéreas internacionales


(serie en logaritmos)

El análisis de la serie en logaritmos y de sus funciones de autocorrelación simple y parcial


confirman que la serie no es estacionaria en media por lo que debemos tomar una diferencia.
> par(mfcol = c(1, 2))
> acf(x)
> pacf(x)

123
Figura 3.17. Funciones de autocorrelación simple y parcial (serie en logaritmos)

Tras tomar una diferencia, el aspecto de la serie es el siguiente (figura. 3.18):


> par(mfcol = c(1, 1))
> x1 <- diff(x)
> plot(x1)

124
Figura 3.18. Pasajeros de líneas aéreas internacionales
(serie logarítmica en diferencias)

Las funciones de autocorrelación simple y parcial de la serie logarítmica en diferencias se


muestran en la figura 3.19, en las que puede apreciarse el marcado componente estacional en los
meses de Diciembre, lo que nos obliga a tomar una diferencia estacional de 12 meses para hacer
estacionaria la parte estacional de la serie.
> par(mfcol = c(1, 2))
> acf(x1)
> pacf(x1)

125
Figura 3.19. Funciones de autocorrelación simple y parcial (serie logarítmica en
diferencias)

El gráfico de la figura 3.20. muestra la serie logarítmica con una diferencia regular y una
diferencia estacional de periodo 12; en ella podemos apreciar la pérdida de las 13 primeras
observaciones al haber aplicado las diferencias indicadas. Tras haber aplicado las
transformaciones que hemos comentado, la serie presenta ahora un claro comportamiento
estacionario, el cual viene confirmado por las funciones de autocorrelación simple y parcial de
la serie (figura 3.21).
> par(mfcol = c(1, 1))
> x1_12 <- diff(x1,12)
> plot(x1_12)

126
Figura 3.20. Pasajeros de líneas aéreas internacionales
(serie logarítmica con una diferencia regular y una diferencia estacional)

> par(mfcol = c(1, 2))


> acf(x1_12)
> pacf(x1_12)

Figura 3.21. Funciones de autocorrelación simple y parcial


(serie logarítmica con una diferencia regular y una diferencia estacional)

127
De las funciones de autocorrelación simple y parcial podemos extraer algunas conclusiones: por
un lado, en la parte regular podemos comprobar que las funciones de correlación simple y
parcial son muy parecidas, siendo el primer retardo significativo para ambos casos. Esto indica
que quizás el modelo sea un ARIMA(1,1,0), un ARIMA(0,1,1) o un ARIMA(1,1,1), en
cualquier caso un modelo de primer orden.

Por otro lado, en la parte estacional vemos que el retardo 12 es significativo y que en sus
cercanías hay muy poca correlación, lo que sugiere un proceso con muy poca memoria,
posiblemente un ARIMA(0,1,1)12 en la parte estacional.

Las conclusiones anteriores nos llevan a estimar tres modelos: un ARIMA(1,1,0)×(0,1,1)12, un


ARIMA(0,1,1)×(0,1,1)12 y un ARIMA(1,1,1)×(0,1,1)12. Presentamos a continuación, de forma
resumida, los resultados obtenidos para los tres modelos.

Para estimar un modelo ARIMA en R hay que utilizar la función “arima”, cuya estructura es la
siguiente:
arima(x, order = c(0L, 0L, 0L),
seasonal = list(order = c(0L, 0L, 0L), period = NA),
xreg = NULL, include.mean = TRUE,
transform.pars = TRUE,
fixed = NULL, init = NULL,
method = c("CSS-ML", "ML", "CSS"), n.cond,
SSinit = c("Gardner1980", "Rossignol2011"),
optim.method = "BFGS",
optim.control = list(), kappa = 1e6)

destacar, la opción order, en donde se especifican los elementos (p,d,q) de la parte no estacional
del modelo arima, y seasonal, en donde se especifican los elementos de la parte estacional.

a) Resultados de la estimación

ARIMA(1,1,0)×(0,1,1)12
> mod1 <- arima(x,c(1,1,0),c(0,1,1))
> mod1

Call:
arima(x = x, order = c(1, 1, 0), seasonal = c(0, 1, 1))

Coefficients:
ar1 sma1
-0.3395 -0.5619
s.e. 0.0822 0.0748
sigma^2 estimated as 0.001367: log likelihood = 243.74, aic = -
481.49

128
ARIMA(0,1,1)×(0,1,1)12
> mod2 <- arima(x,c(0,1,1),c(0,1,1))
> mod2

Call:
arima(x = x, order = c(0, 1, 1), seasonal = c(0, 1, 1))

Coefficients:
ma1 sma1
-0.4018 -0.5569
s.e. 0.0896 0.0731

sigma^2 estimated as 0.001348: log likelihood = 244.7, aic = -483.4

ARIMA(1,1,1)×(0,1,1)12
> mod3 <- arima(x,c(1,1,1),c(0,1,1))
> mod3
Call:
arima(x = x, order = c(1, 1, 1), seasonal = c(0, 1, 1))
Coefficients:
ar1 ma1 sma1
0.1960 -0.5784 -0.5643
s.e. 0.2475 0.2132 0.0747

sigma^2 estimated as 0.001341: log likelihood = 244.95, aic = -481.9

Como puede observarse, la estimación de este último modelo contiene un parámetro no


significativo, AR1, por lo que podemos excluirlo de nuestro análisis.

129
b) Ajuste del modelo

ARIMA(1,1,0)×(0,1,1)12
> par(mfcol = c(1, 2))
> plot(x)
> lines(x-mod1$residuals,col="red")
> plot(mod1$residuals)

Figura 3.22. Resultados de la estimación y residuos del modelo


ARIMA(1,1,0)×(0,1,1)12

ARIMA(0,1,1)×(0,1,1)12
> par(mfcol = c(1, 2))
> plot(x)
> lines(x-mod2$residuals,col="red")
> plot(mod2$residuals)

130
Figura 3.23. Resultados de la estimación y residuos del modelo
ARIMA(0,1,1)×(0,1,1)12

c) Funciones de autocorrelación simple y parcial.


ARIMA(1,1,0)×(0,1,1)12

> par(mfcol = c(1, 2))


> acf(mod1$residuals)
> pacf(mod1$residuals)

131
ARIMA(0,1,1)×(0,1,1)12

> par(mfcol = c(1, 2))


> acf(mod2$residuals)
> pacf(mod2$residuals)

d) Test de Normalidad en los residuos

ARIMA(1,1,0)×(0,1,1)12

> summary(mod1$residuals)
Min. 1st Qu. Median Mean 3rd Qu.
-0.1115000 -0.0232700 -0.0004461 0.0004500 0.0238100
Max.
0.1032000

> par(mfcol = c(1, 1))


> hist(mod1$residuals)

132
> library(tseries)
> jarque.bera.test(mod1$residuals)

Jarque Bera Test

data: mod1$residuals
X-squared = 3.607, df = 2, p-value = 0.1647

ARIMA(0,1,1)×(0,1,1)12

> summary(mod2$residuals)
Min. 1st Qu. Median Mean 3rd Qu.
-0.1186000 -0.0191600 -0.0000515 0.0005731 0.0223300
Max.
0.1085000
> hist(mod2$residuals)

133
> jarque.bera.test(mod2$residuals)

Jarque Bera Test

data: mod2$residuals
X-squared = 5.2265, df = 2, p-value = 0.0733

En definitiva los dos primeros modelos que hemos estimado superan las pruebas de diagnosis
perfectamente y realizan un ajuste muy parecido de los datos. La elección del modelo ahora sí
resulta sencilla a la luz de los valores de los estadísticos AIC, pues el segundo modelo presenta
valores para estos estadísticos menores, en términos absolutos, que el primero. Así pues, el
modelo seleccionado para modelizar el número de pasajeros que viaja mensualmente en líneas
aéreas internacionales es un ARIMA(0,1,1)×(0,1,1)12.

3.6.2. Ejemplo 2: Indice de Producción Industrial de Cantabria

El siguiente ejemplo utiliza los totales mensuales del índice de producción industrial (IPI) de
Cantabria Base 2010 para el periodo comprendido entre Enero de 2000 y Abril de 2014
incluidos en libro de Box y Jenkins. Esta base de datos está disponible en la librería
“descomponer” de R:
> library(descomponer)
> data(ipi)
> x<-ts(ipi,c(2000,1),frequency=12)

134
En la figura 3.24. se muestra la representación gráfica de la serie en la que puede apreciarse
claramente una fuerte estacionalidad en los datos y una varianza creciente en el tiempo.
> plot(x)

Figura 3.24. Índice de Producción Industrial de Cantabria


(serie original)

El hecho de que la varianza de la serie no sea constante en el tiempo sugiere que lo primero que
debemos hacer es transformar la serie tomando logaritmos para hacer que sea estacionaria en
varianza.
> x <- log(x)

Tras tomar logaritmos, la serie presenta ahora el siguiente aspecto (figura 3.25.):
> plot(x)

135
Figura 3.25 Índice de Producción Industrial de Cantabria
(serie en logaritmos)

En la librería “forecast” hay una función “auto.arima” que selecciona el mejor modelo ARIMA
atendiendo al AIC. Su estructura es la siguiente:
auto.arima(x, d=NA, D=NA, max.p=5, max.q=5,
max.P=2, max.Q=2, max.order=5, max.d=2, max.D=1,
start.p=2, start.q=2, start.P=1, start.Q=1,
stationary=FALSE, seasonal=TRUE,
ic=c("aicc","aic", "bic"), stepwise=TRUE, trace=FALSE,
approximation=(length(x)>100 | frequency(x)>12), xreg=NULL,
test=c("kpss","adf","pp"), seasonal.test=c("ocsb","ch"),
allowdrift=TRUE, lambda=NULL, parallel=FALSE, num.cores=2)

La función permite, establecer el orden de diferenciación regular o estacional, si no se indica


ningún orden, utiliza el test KPSS6 para establecer el orden regular, y el test OCSB7 para el
estacional , en la opción test, se puede cambiar este criterio de diferenciación por el “test Dikey-
Fuller Aumentado”8 (“adf”) ó el test de Phillips-Perron (“pp”)9 y en “sasonal.test” permite elegir el

6
Kwiatkowski, D.; Phillips, P. C. B.; Schmidt, P.; Shin, Y. (1992). "Testing the null hypothesis of
stationarity against the alternative of a unit root". Journal of Econometrics 54 (1–3): 159–178
7
Osborn DR, Chui APL, Smith J, and Birchenhall CR (1988) "Seasonality and the order of integration for
consumption", Oxford Bulletin of Economics and Statistics 50(4):361-377.
8
Se explica en el apartado siguiente
9
Phillips, P.C.B and P. Perron (1988), "Testing for a Unit Root in Time Series Regression", Biometrika,
75, 335–346

136
test “ch”10. En la función se puede indicar el orden de los coeficientes AR(p) y MA(q) regulares,
y AR(P) y MA(Q) estacionales con que iniciar la selección del mejor modelo (“start”) y con que
acabar la selección del mejor modelo (“max”), si no se le indica nada los valores por defecto son
los que figuran en la estructura de la función, señalar, por último, que en “ic” se puede optar por
el criterio de selección: AICC, AIC y BIC11) .

A continuación, buscamos con los parámetros de los coeficientes establecidos por defecto, y
cambiando el test KPSS por el test Dikey-Fuller Aumentado para testear la existencia de alguna
raiz unitaria, el mejor AIC para un modelo ARIMA en la serie del IPI de Cantabria:

> mod1 <- auto.arima(x,test="adf")


> mod1

Series: x
ARIMA(3,1,1)(1,0,2)[12]
Coefficients:
ar1 ar2 ar3 ma1 sar1 sma1
-0.1254 -0.0285 0.0697 -0.5843 0.9835 -0.4231
s.e. 0.3026 0.2221 0.1532 0.2862 0.0107 0.0951
sma2
-0.1829
s.e. 0.0984

sigma^2 estimated as 0.00337: log likelihood=197.53


AIC=-379.06 AICc=-378.02 BIC=-355.14

Estimamos a continuación el modelo ARIMA seleccionado de forma automática:


> mod1 <- arima(x,c(3,1,1),c(1,0,2))
> mod1

Series: x
ARIMA(3,1,1)(1,0,2)[12]

Coefficients:
ar1 ar2 ar3 ma1 sar1 sma1
-0.1254 -0.0285 0.0697 -0.5843 0.9835 -0.4231
s.e. 0.3026 0.2221 0.1532 0.2862 0.0107 0.0951
sma2
-0.1829
s.e. 0.0984

sigma^2 estimated as 0.00337: log likelihood=197.53


AIC=-379.06 AICc=-378.02 BIC=-355.14

Dado que los coeficientes AR(1),AR(2) y AR(3) no son significativos, optamos por el modelo
ARIMA(0,1,1)×(1,0,2)12

10
Canova F and Hansen BE (1995) "Are Seasonal Patterns Constant over Time? A Test for Seasonal
Stability", Journal of Business and Economic Statistics 13(3):237-252.
2k (k + 1)
11
AICC = AIC + , siendo n el numero de datos y k los parámetros del modelo
n − k −1
seleccionado; el estadístico BIC (Bayesian information criterion) es una denominación alternativa del

137
> mod2 <- arima(x,c(0,1,1),c(1,0,2))
> mod2

Series: x
ARIMA(0,1,1)(1,0,2)[12]

Coefficients:
ma1 sar1 sma1 sma2
-0.6522 0.9841 -0.4145 -0.2237
s.e. 0.0580 0.0110 0.0962 0.0979

sigma^2 estimated as 0.003429: log likelihood=196.67


AIC=-383.34 AICc=-382.91 BIC=-368.38

El AIC es menor pero el modelo no esta sobre parametrizado. Comprobamos sus resultados12:
> par(mfcol = c(1, 2))
> plot(x)
> lines(x-mod1$residuals,col="red")
> plot(mod1$residuals)

Figura 3.26. Resultados de la estimación y residuos del modelo ARIMA(0,1,1)×(1,0,2)12

> par(mfcol = c(1, 2))


> acf(mod2$residuals)
> pacf(mod2$residuals)

SIC (Schwarz Information Criterion),


12
En la librería “forecast” hay creada una funcion R “tsdisplay”, que presenta el gráfico de la serie, y los
gráficos acf y acp.

138
> summary(mod2$residuals)

Min. 1st Qu. Median Mean 3rd Qu. Max.


-0.185500 -0.038210 -0.004946 -0.001943 0.035560 0.138200

> par(mfcol = c(1, 1))


> hist(mod2$residuals)

> library(tseries)

139
> jarque.bera.test(mod2$residuals)

Jarque Bera Test

data: mod2$residuals
X-squared = 1.8029, df = 2, p-value = 0.406

El modelo elegido presenta residuos en apariencia normal, si bien puede que precise de alguna
diferenciación estacional, debido a que algunos de los coeficientes de la función de
autocorrelación parcial están en el límite del intervalo de confianza. En consecuencia podría
probarse el modelo ARIMA(0,1,1)×(1,1,1)12:
> mod3 <- arima(x,c(0,1,1),c(1,1,1))
> mod3

Series: x
ARIMA(0,1,1)(1,1,0)[12]

Coefficients:
ma1 sar1
-0.6141 -0.2768
s.e. 0.0578 0.0846

sigma^2 estimated as 0.004001: log likelihood=180.41


AIC=-354.82 AICc=-354.63 BIC=-346.1

> par(mfcol = c(1, 2))


> acf(mod3$residuals)
> pacf(mod3$residuals)

Con el que tampoco se mejora la funcion de autocorrelación parcial de los residuos. En


consecuencia, la mejor opción es ARIMA(0,1,1)×(1,0,2)12

140
3.7. PROBLEMAS

3.1 Considere la siguiente serie temporal univariante:

[y = 2.82, 0.09,−0.97,−1.13,−1.21,−0.81,−0.37, 2.02, 1.52, 2.44]′ .

Suponiendo que la serie y ≡ [y1 , ...,yN ]′ anterior es una realización particular de una
muestra Y ≡ [Y1 , ...,YN ]′ de tamaño N = 10 procedente de un proceso estocástico
estacionario (Yt):

a) Estime la media y la varianza del proceso Yt.


b) Contraste la hipótesis nula H0: µ = 0 frente a la alternativa H0: µ ≠ 0.
c) Estime la acf y la pacf del proceso Yt hasta el retardo 6

3.2 En la librería “forecast” de R, se encuentra una base de datos en formato de serie temporal,
“gas”, que recoge la producción australiana de gas durante mes a mes durante los años de
1956 a 1996. Estudie la estacionariedad de la serie en R a través de us gráfica y de las
funciones de autocorrelación y autocorrelación parcial.
3.3 Compare el modelo estacionario elegido con alguno de los procesos de Funciones de
autocorrelación simple y parcial de procesos ARIMA(p, d, q) ARIMA(P, D, Q)s teóricos
representados en el texto. Elija los modelos que crea más probables y estimelos con R.
3.4 Realice en R una estimación automática del modelo estacionario y discuta los resultados.
3.5 Sea el siguiente proceso autoregresivo:
Yt = 1 + 0,5Yt −1 + ε t

a) Calcule la esperanza matemática de Yt .

b) Calcule la varianza de Yt , suponiendo que ε t es un ruido blaco

gaussiano de media cero y varianza 1.


3.6 Sabiendo que se dispone de 100 observaciones de Yt y que Y99 = 1,2 e Y100 = 1,5 realice

una predicción a dos periodos utilizando el modelo Yt = 0,5Yt −1 − 0,2Yt − 2 + ε t

141
SOLUCIONES
3.1.
a) µ = 0.44, σ 2 = 2.284
b) Se acepta la hipótesis nula
c) acf: {0.443 0.137 –0.250 –0.399 –0.434 –0.313} ;
pacf: {0.443 –0.074 –0.353 –0.204 –0.192 –0.150}

3.2. A realizar por el alumno


3.3. A realizar por el alumno
3.4. A realizar por el alumno
3.5
a) µ = 2

b) Var (Yt ) = 1,1905

3.6
Y101 = 0,51 ; Y101 = −0,045

142
4. COINTEGRACION

4.1. INTRODUCCIÓN

Los análisis econométricos basados en series de tiempo parten de la suposición de que la


serie de tiempo es estacionaria (ver apartado 3.3). Cuando se estudia la autocorrelación en
los problemas de la regresión por mínimos cuadrados ordinarios, se señala que este es un
problema muy habitual en las regresiones con series temporales, y a menudo es la no
estacionariedad de las series de tiempo utilizadas en la regresión lineal es la causa del
problema de la autocorrelación de los residuos. De hecho, al efectuar la regresión de una
variable de serie de tiempo sobre otra variable de serie de tiempo con frecuencia se obtiene
2
un R muy elevado (superior a 0.9) aunque no haya una relación casual entre las dos. Una
regresión de este tipo se conoce en econometría como regresión espuria o regresión sin
sentido, fue descubierta por Yule, quien mostró además que la correlación (espuria) puede
persistir en las series de tiempo no estacionarias aunque la muestra sea muy grande. En una
2
regresión espuria, además del R muy elevado, se obtiene un valor extremadamente bajo de

la d de Durbin-Watson, lo que indicaría una autocorrelación muy fuerte de primer orden.

De acuerdo con Granger y Newbold (1974), obtener un R > d es una buena regla práctica
2

para sospechar que la regresión estimada es espuria. Ni que decir tiene que en estas
regresiones el estadístico t es engañoso ya que no está distribuido como una t de Student y,
por tanto, no se pueden probar con ellos hipótesis sobre los parámetros

En el apartado 3.3 se señala también que un proceso estocástico es estacionario en sentido


estricto si todas las variables aleatorias que componen el proceso están idénticamente
distribuidas, independientemente del momento del tiempo en que se estudia el proceso. En
términos más generales, se dice que un proceso estocástico es estacionario si su media y su
varianza son constantes en el tiempo y si el valor de la covarianza entre dos periodos
depende sólo de la distancia o rezago entre estos dos periodos, y no del tiempo en el cual se
calculó la covarianza..

143
Si una serie de tiempo no es estacionaria en el sentido antes definido, se denomina serie de
tiempo no estacionaria. En otras palabras, una serie de tiempo no estacionaria tendrá una
media que varía con el tiempo o una varianza que cambia con el tiempo, o ambas. En dicho
aparatado se señalaba la importancia de este tipo de series, debido a que si una serie de
tiempo no es estacionaria, sólo podemos estudiar su comportamiento durante el periodo de
estudio. Si las características del proceso cambian a lo largo del tiempo, resultará difícil
representar la serie para intervalos de tiempo pasados y futuros mediante un modelo lineal
sencillo, no pudiéndose por tanto realizar previsiones fiables para la variable.

También se menciono un tipo especial de proceso estocástico: el proceso puramente


aleatorio o de ruido blanco. Se dice que un proceso es puramente aleatorio si tiene una
media igual a cero, una varianza constante y no está serialmente correlacionado. De hecho
una prueba sencilla de estacionariedad se basa en el análisis de función de autocorrelación
(FAC) de la serie de tiempo. Dado que en un proceso puramente de ruido blanco, las
autocorrelaciones en los distintos retardos se ubican alrededor del cero, ocurrirá igual en un
correlograma de una serie de tiempo estacionaria. Por tanto, si el correlograma de una serie
de tiempo real (económica) se parece al correlograma de una serie de tiempo de ruido
blanco, podemos decir que dicha serie de tiempo es quizá estacionaria. La elección de la
longitud del retardo al realizar un correlograma es básicamente de un asunto empírico, y
una regla práctica es calcular la FAC hasta un tercio o una cuarta parte de la longitud de la
serie de tiempo

4.2. PASEO ALEATORIO

El paseo aleatorio o camino aleatorio (RW) es una formalización matemática de la


trayectoria que resulta de realizar sucesivos pasos aleatorios (la ruta trazada por una
molécula mientras viaja por un líquido o un gas, el camino que sigue un animal en su
búsqueda de comida, ó el precio de una acción fluctuante ), el término fue introducido por
Pearson en 1905 y los resultados de su análisis han sido aplicados a muchos campos como
la computación, la física, la química, la ecología, la biología, la psicología o la economía.
La teoría del paseo aleatorio en economía se debe a Burton G. Malkiel en su obra A
Random Walk Down Wall Street, que viene a indicar que en un mercado eficiente, los
precios del mercado siguen un camino aleatorio y por lo tanto, impredecible.

144
En su formulación matemática se entiende que
Yt es un paseo aleatorio si :

Yt − Yt −1 = u t (4.1)

Donde
u t es un término de error de ruido blanco, con media 0 y varianza σ 2 .

En el modelo de paseop aleatoria, es por tanto, es un proceso AR(1) cuyas características se


estudian en el apartado 10,

Tomando en consideración (4.1), se tiene que:


Y1 = Y0 + u1
Y2 = Y1 + u 2 = Y0 + u1 + u 2
Y3 = Y2 + u 3 = Y0 + u1 + u 2 + u 3

En general:
T
Yt = Y0 + ∑ u t
t =1 (4.2)
Tomando esperanzas matemáticas en (4.2) , resulta que

 T 
E (Yt ) = E (Y0 ) + E  ∑ u t  = Y0
 t =1 
y
2
 T 
E [Yt − E (Yt )] = E  ∑ u t  = Tσ 2
2

 t =1 

Es decir la media de
Yt es igual a su valor inicial (constante), pero conforme se incrementa

T , su varianza aumenta de manera indefinida, lo que viola una de las condiciones de la


estacionariedad. En resumen, un RW es un proceso estocástico no estacionario.

La expresión (4.1) puede escribirse:

Yt − Yt −1 = ∆Yt = ut (4.3)

donde ∆ es el operador de primeras diferencias, que también analizamos en el apartado


3.3.1, de manera que tenemos que si bien Yt es no estacionaria, sí lo es la serie de sus

primeras diferencias, ya que ut se definió como ruido blanco

145
Si se modifica (4.1) en el sentido siguiente:
Yt = δ + Yt −1 + u t

donde δ se conoce como parámetro de deriva, en el sentido de que t se deriva o desvía


Y

hacia arriba o hacia abajo, según δ sea positiva o negativa.

Estamos ante otro proceso no estacionario ya que al tomar esperanzas resulta :


E (Yt ) = Y0 + Tδ
y

E [Yt − E (Yt )] = Tσ 2
2

Pero sus primeras diferencias,


∆Yt = δ + u t , dan lugar a una serie estacionaria de media no

nula.

En definitiva en un RW con deriva, la media, al igual que la varianza, se incrementa con el


tiempo, lo que viola de nuevo las condiciones de la estacionariedad, aunque al igual que el
paseo aleatorio sin deriva, la serie de sus primeras diferencias sigue siendo estacionaria.

El modelo de RW no es más que un caso específico de una clase más general de procesos
estocásticos conocidos como procesos integrados. El paseo aleatorio estudiado se llama
proceso integrado de orden 1 y se denota como I(1). De manera similar, si una serie de
tiempo tiene que diferenciarse dos veces (es decir, se toman primeras diferencias de la serie
de primeras diferencias) para hacerla estacionaria, esa serie de tiempo se denomina
integrada de orden 2. En general, si una serie de tiempo (no estacionaria) debe diferenciarse
d veces para hacerla estacionaria, decimos que la serie es integrada de orden d. Una serie de
tiempo Yt integrada de orden d se denota como I(d).

La mayoría de las series de tiempo económicas son I(1); es decir, por lo general se
convierten en estacionarias sólo después de tomar sus primeras diferencias.

En Gujarati y Porter (2010), señalan las siguientes propiedades de las series de tiempo
integradas.

146
Sea X t , Yt y Z t tres series de tiempo:

1. Si X t ~ I (0) y Yt ~ I (1) , Z t = (Yt + X t ) ~ I (1) ; es decir, una combinación lineal o


suma de series de tiempo estacionaria y no estacionaria es no estacionaria.
2. Si X t ~ I (d ) , Z t = (a + bX t ) ~ I (d ) , donde a y b son constantes. Es decir, una
combinación lineal de una serie I(d) es también I(d).
3. Si X t ~ I (d1) y Yt ~ I (d 2) , Z t = (aX t + bYt ) ~ I (d 2) donde d1 < d2.

4. Si X t ~ I (d ) y Yt ~ I (d ) , Z t = (aX t + bYt ) ~ I (d1) ; d1 es por lo general igual a d, pero


en algunos casos d1 < d .

4.3. PRUEBA DE RAÍZ UNITARIA

Partimos de un RW con la siguiente formulación:

Yt = φYt −1 + u t , − 1 < φ < 1 (4.4)

donde ut es un término de error de ruido blanco.

Este modelo es un modelo autorregresivo de primer orden similar al que se utiliza para
explicar la autocorrelación (Contraste de Durbin-Watson). Si φ = 1 , se transforma en un
RW sin deriva, y por tanto en una serie no estacionaria en varianza. La no estacionariedad
de este tipo de modelos también se denomina problema de raíz unitaria.

Sin embargo, si φ < 1 , se demuestra que la serie de tiempo Yt es estacionaria13.

13
En el apartado 3.4.2.1 en el que se estudia el AR(1) se considera que si el proceso es estacionario en
1 σ u2
media y varianza, se verifica que E (Yt ) = y Var (Yt ) = y que la condición a cumplir para
1−φ 1−φ 2
que la media y varianza sean positivas y finitas es que φ <1

147
En la practica, la manera de averiguar si una serie de tiempo tiene una raíz unitaria, es a
través de un test en el que la hipótesis que se contrasta es el valor unitario del coeficiente
autorregresivo ( φ ) a través del análisis de la nulidad de (φ − 1) .

En definitiva se trata de transformar (4.4) restando Yt −1 :

Yt − Yt −1 = φYt −1 − Yt −1 + u t = (1 − φ )Yt −1 + u t

que también se expresa como:

∆Yt = δYt −1 + ut (4.5)

Por tanto, en vez de estimar (4.4), obtenemos (4.5) y probamos la hipótesis (nula) de que δ
= 0, y la hipótesis alternativa es que δ < 0 (nota 25). Si δ = 0, entonces φ = 1 ; es decir,
tenemos una raíz unitaria, lo cual significa que la serie de tiempo en consideración es no
estacionaria.

δ
τ=
σδ
En este contraste de hipótesis el estadístico no sigue la distribución t ni siquiera en
muestras grandes. Dickey y Fuller calcularon los valores críticos del estadístico τ con base
en simulaciones Monte Carlo. Por este motivo, en el estadístico o prueba tau se conoce
como prueba Dickey-Fuller (DF).

La hipótesis nula, Ho: no estacionariedad, se acepta si τ toma un valor situado a la derecha


del valor crítico correspondiente al nivel de significación establecido (los programas
proporcionan los valores críticos, que son negativos, para niveles de significación del 1%,
5% y 10%, siendo el 5% el más utilizado en la práctica) y se rechaza si toma un valor
menor que el valor crítico.

El modelo (4.5) puede incorporar un término constante y una tendencia, a través de un


índice temporal t (t=1,2,…T):

∆Yt = β1 + β 2 t + δYt −1 + u t

148
De hecho en la mayor parte del software informático sobre el test se permite elegir las
opciones de incorporar término constante sin tendencia, término constante y tendencia ó no
incorporar ninguno de ambos términos.

El test ADF, denominado test “aumentado” de Dickey y Fuller, consiste también en


contrastar la hipótesis de nulidad de pero en una relación “aumentada” con la inclusión de

valores retardados de la variable dependiente


∆Yt :

m
∆Yt = β 1 + β 2 t + δYt −1 + ∑ α i ∆Yt − m +u t
i =1

Siendo
∆Yt −1 = (Yt −1 − Yt − 2 ) , ∆Yt − 2 = (Yt − 2 − Yt −1 ) , etc…

Ejemplo 4.1

En la tabla Cantabria tenemos datos trimestrales del PIB de Cantabria en Índices de


Volumen y de ocupación en miles de ocupados, para el period 2005-2014 procedentes de la
Contabilidad Trimestral de Cantabria y de la EPA.

Vamos a realizar el test de Dikey-Fuller (DF) para ver el grado de integración de la serie del
PIB, para ello grabamos (install) y cargamos la librería “urca”.

En la tabla Cantabria tenemos datos trimestrales del PIB de Cantabria en Índices de


Volumen y de ocupación en miles de ocupados, para el period 2005-2014 procedentes de la
Contabilidad Trimestral de Cantabria y de la EPA.

> cantabria <- read.table(file="cantabria.txt",header=T,dec=",")


> str(cantabria)
'data.frame': 38 obs. of 4 variables:
$ año : int 2005 2005 2005 2005 2006 2006 2006 2006 2007 2007
...
$ Trimestre: int 1 2 3 4 1 2 3 4 1 2 ...
$ PIB : num 92.5 93.3 93.8 93.9 95.3 95.9 96.7 97.5 98.3 98.8
...
$ Ocupados : num 233 238 248 246 248 ...

Se trata de comprobar la estacionariedad de la serie del PIB


> plot(ts(cantabria$PIB,frequency=4,start=2005))

149
Vamos a realizar el test de Dikey-Fuller (DF) para ver el grado de integración de la serie del
PIB, para ello grabamos (install) y cargamos la librería “urca”.

> library(urca)

Para realizar el test, vale esta sentencia (si no se especifican los retardos el test se realiza
con un retardo):

> pib.df <- ur.df(y=cantabria$PIB, type='none')


> summary(pib.df)

###############################################
###############################################
# Augmented Dickey-Fuller Test Unit Root Test #
###############################################

Test regression none

Call:
lm(formula = z.diff ~ z.lag.1 - 1 + z.diff.lag)

Residuals:
Min 1Q Median 3Q Max
-1.7575 -0.4745 0.1939 0.5426 1.3763

Coefficients:
Estimate Std. Error t value Pr(>|t|)
z.lag.1 -0.0001002 0.0013083 -0.077 0.939
z.diff.lag 0.3311003 0.1606497 2.061 0.047 *
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 0.7518 on 34 degrees of freedom


Multiple R-squared: 0.1112, Adjusted R-squared: 0.05888
F-statistic: 2.126 on 2 and 34 DF, p-value: 0.1349

150
Value of test-statistic is: -0.0766

Critical values for test statistics:


1pct 5pct 10pct
tau1 -2.62 -1.95 -1.61

Se comprueba que la serie no es estacionaria, ya que el valor del estadístico (-0.0766), es


inferior al valor crítico (-1.95), lo que quiere decir que se acepta la hipótesis nula de no
estacionariedad. Repetimos el ejercicio, considerando tres retardos, deriva (drift) y
tendencia (trend):
> pib.df <- ur.df(y=cantabria$PIB, lags=3, type='drift')
> summary(pib.df)

###############################################
# Augmented Dickey-Fuller Test Unit Root Test #
###############################################

Test regression drift

Call:
lm(formula = z.diff ~ z.lag.1 + 1 + z.diff.lag)

Residuals:
Min 1Q Median 3Q Max
-1.32952 -0.41679 0.05446 0.47788 1.05791
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 9.65519 4.97144 1.942 0.06189 .
z.lag.1 -0.10059 0.05183 -1.941 0.06208 .
z.diff.lag1 0.28123 0.17392 1.617 0.11670
z.diff.lag2 0.55538 0.16358 3.395 0.00201 **
z.diff.lag3 -0.11551 0.18850 -0.613 0.54480
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 0.6717 on 29 degrees of freedom


Multiple R-squared: 0.3869, Adjusted R-squared: 0.3023
F-statistic: 4.575 on 4 and 29 DF, p-value: 0.005491

Value of test-statistic is: -1.9406 1.8868

Critical values for test statistics:


1pct 5pct 10pct
tau2 -3.58 -2.93 -2.60
phi1 7.06 4.86 3.94

> pib.df <- ur.df(y=cantabria$PIB, lags=3, type='trend')


> summary(pib.df)

###############################################
# Augmented Dickey-Fuller Test Unit Root Test #
###############################################

Test regression trend

Call:
lm(formula = z.diff ~ z.lag.1 + 1 + tt + z.diff.lag)

Residuals:
Min 1Q Median 3Q Max
-1.0315 -0.4394 0.1123 0.3433 1.1701

151
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 20.81894 5.96966 3.487 0.00163 **
z.lag.1 -0.20734 0.06002 -3.454 0.00178 **
tt -0.04575 0.01624 -2.818 0.00877 **
z.diff.lag1 0.19561 0.15915 1.229 0.22928
z.diff.lag2 0.44990 0.15163 2.967 0.00609 **
z.diff.lag3 -0.14243 0.16959 -0.840 0.40811
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 0.6034 on 28 degrees of freedom
Multiple R-squared: 0.5223, Adjusted R-squared: 0.437
F-statistic: 6.124 on 5 and 28 DF, p-value: 0.0005953

Value of test-statistic is: -3.4543 4.2059 6.3042

Critical values for test statistics:


1pct 5pct 10pct
tau3 -4.15 -3.50 -3.18
phi2 7.02 5.13 4.31
phi3 9.31 6.73 5.61
La serie rechaza la hipótesis de estacionariedad en todos los casos.

Diferenciamos la serie, para ello utilizamos la función genérica de R “diff”:


> dPIB <- diff(cantabria$PIB,differences=1)
> plot(ts(dPIB,frequency=4,start=2005))

Realizamos el test ADF con la serie diferenciada:


> dPIB.df <- ur.df(y=dPIB, type='none')
> summary(dPIB.df)

152
###############################################
# Augmented Dickey-Fuller Test Unit Root Test #
###############################################

Test regression none

Call:
lm(formula = z.diff ~ z.lag.1 - 1 + z.diff.lag)

Residuals:
Min 1Q Median 3Q Max
-1.65584 -0.43986 0.06371 0.50584 1.16911

Coefficients:
Estimate Std. Error t value Pr(>|t|)
z.lag.1 -0.3896 0.1838 -2.120 0.0416 *
z.diff.lag -0.4246 0.1573 -2.699 0.0109 *
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 0.6897 on 33 degrees of freedom
Multiple R-squared: 0.4574, Adjusted R-squared: 0.4245
F-statistic: 13.91 on 2 and 33 DF, p-value: 4.162e-05

Value of test-statistic is: -2.1197

Critical values for test statistics:


1pct 5pct 10pct
tau1 -2.62 -1.95 -1.61

La serie diferenciada del PIB rechaza la hipótesis nula de no estacionariedad, valor del
estadístico (-2.1197), está por encima del valor crítico (-1.95) incluso cuando incluimos
deriva y tendencia.

4.4. COINTEGRACIÓN

Se dice que dos o más series están cointegradas si las mismas se mueven conjuntamente a lo
largo del tiempo y las diferencias entre ellas son estables (es decir estacionarias), aún
cuando cada serie en particular contenga una tendencia estocástica14 y sea por lo tanto no

14 Una tendencia es determinista cuando:


Yt = a + bt + u t
Si ahora se parte de un paseo aleatorio con deriva:
Yt − Yt −1 = ∆Yt = δ + u t
Yt mostrará una tendencia positiva (δ > 1) o negativa (δ < 1) . Tal tendencia se llama tendencia
estocástica.
El modelo:
Yt = a + bt + δYt −1 + u t c
ontiene tanto una tendencia estocástica como una tendencia determinista.

153
estacionaria. De aquí que la cointegración refleja la presencia de un equilibrio a largo plazo
hacia el cual converge la relación entre ambas variables a lo largo del tiempo.

Sea X t , Yt dos series de tiempo I(1), Dado que las dos series comparten la misma
tendencia común, la regresión de una sobre la otra no será necesariamente espuria:

Yt = aˆ + bˆX t + uˆ t (4.6)

Se calcula uˆ t = Yt − aˆ + bˆX t y se verifica con la prueba de raíz unitaria que los residuos de

la regresión son I(0) o estacionarios (ver apartado 3.2).

En este caso la metodología tradicional de regresión es aplicable a las series de tiempo (no
estacionarias) y la regresión no es espúrea. En opinión de Granger: “Una prueba para la
cointegración puede considerarse como una pre-prueba para evitar las situaciones de
regresiones espurias”.

En el lenguaje de la teoría de la cointegración, una regresión como la planteada se conoce

como regresión cointegrante, y el parámetro de pendiente b̂ como parámetro cointegrante.

En definitiva probar la cointegración entre dos series I(1) es igual que probar la
estacionariedad de los residuos. Para testar la cointegración sólo hay que estimar los
residuos del modelo de regresión y pasar la prueba de DF o DFA a los residuos estimados
(û t ) . Si se cumple Ho entonces X t , Yt están cointegradas y b̂ es consistente.

Esta prueba de raíz unitaria DF o DFA sobre los residuos estimados a partir de la regresión
cointegrante se conoce como Prueba de Engle-Granger (EG) o prueba de Engle-Granger
Aumentada (EGA)

Sin embargo, debe tenerse en cuenta que û t se basa en el parámetro de cointegración

estimado b̂ , y los valores críticos de la prueba DF y DFA no son del todo apropiados. Engle
y Granger calcularon estos valores que se incluyen los principales software econométricos.

Ejemplo 4.2

154
Se realiza ahora el test de Dikey-Fuller (DF) para la serie de Ocupados que se representa a
continuación:

> plot(ts(cantabria$Ocupados,frequency=4,start=2005))

> dOcup <- diff(cantabria$Ocupados,differences=1)


> Ocup.df <- ur.df(y=cantabria$Ocupados, type='none')
> summary(Ocup.df)

Call:
lm(formula = z.diff ~ z.lag.1 - 1 + z.diff.lag)

Residuals:
Min 1Q Median 3Q Max
-8.6618 -4.3752 -0.3451 4.9139 12.4019

Coefficients:
Estimate Std. Error t value Pr(>|t|)
z.lag.1 -0.001476 0.003856 -0.383 0.704
z.diff.lag 0.108089 0.170337 0.635 0.530

Residual standard error: 5.676 on 34 degrees of freedom


Multiple R-squared: 0.01658, Adjusted R-squared: -0.04127
F-statistic: 0.2866 on 2 and 34 DF, p-value: 0.7526

Value of test-statistic is: -0.3828

Critical values for test statistics:


1pct 5pct 10pct
tau1 -2.62 -1.95 -1.61

> dOcup.df <- ur.df(y=dOcup, type='none')


> summary(dOcup.df)

155
###############################################
# Augmented Dickey-Fuller Test Unit Root Test #
###############################################

Test regression none

Call:
lm(formula = z.diff ~ z.lag.1 - 1 + z.diff.lag)

Residuals:
Min 1Q Median 3Q Max
-9.2258 -4.2283 -0.3936 2.9457 7.6578
Coefficients:
Estimate Std. Error t value Pr(>|t|)
z.lag.1 -1.3406 0.1951 -6.871 7.62e-08 ***
z.diff.lag 0.4768 0.1494 3.191 0.0031 **
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 4.852 on 33 degrees of freedom


Multiple R-squared: 0.6036, Adjusted R-squared: 0.5796
F-statistic: 25.13 on 2 and 33 DF, p-value: 2.338e-07

Value of test-statistic is: -6.8709

Critical values for test statistics:


1pct 5pct 10pct
tau1 -2.62 -1.95 -1.61

La serie temporal de Ocupados en Cantabria es integrada de orden 1, I(1). En consecuencia


la regresión MCO entre los Ocupados y el PIB de Cantabria, puede realizarse ya que ambas
series tienen el mismo orden de integración.

El test de EG requiere realizar la regresión mínimo cuadrática entre ocupados y PIB y


verificar que los residuos son I(0) es decir estacionarios.

> eq <- lm(cantabria$Ocupados~cantabria$PIB)


> dres.df <- ur.df(y=eq$resid, type='none')
> summary(dres.df)

###############################################
# Augmented Dickey-Fuller Test Unit Root Test #
###############################################

Test regression none

Call:
lm(formula = z.diff ~ z.lag.1 - 1 + z.diff.lag)

Residuals:
Min 1Q Median 3Q Max
-9.9445 -2.2775 0.0041 2.2536 9.3488

156
Coefficients:
Estimate Std. Error t value Pr(>|t|)
z.lag.1 -0.5039 0.1498 -3.363 0.00192 **
z.diff.lag 0.2797 0.1694 1.651 0.10786
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 4.077 on 34 degrees of freedom


Multiple R-squared: 0.2497, Adjusted R-squared: 0.2056
F-statistic: 5.658 on 2 and 34 DF, p-value: 0.007567

Value of test-statistic is: -3.3634

Critical values for test statistics:


1pct 5pct 10pct
tau1 -2.62 -1.95 -1.61

Se comprueba que los residuos son estacionarios.

4.5. MECANISMO DE CORRECCIÓN DE


ERRORES(MCE)

Si X t , Yt estan cointegradas, es decir, hay una relación de equilibrio de largo plazo entre
las dos, dado que en el corto plazo, puede haber desequilibrio, se puede utilizar el término
de error de la relación cointegrada para relacionar el comportamiento de corto plazo de Yt
con su valor de largo plazo. El mecanismo de corrección de errores utilizado por primera
vez por Sargan y popularizado más tarde por Engle y Granger, corrige dicho desequilibrio.

Partimos del siguiente modelo:

∆Yt = βˆo + βˆ1 ∆X t + βˆ2 uˆ t −1 + ε t (4.7)

donde
ε t es un término de error de ruido blanco y uˆ t −1 es el valor del término de error de la

ecuación cointegrada (4.6) retrasada un periodo.

El modelo relaciona el cambio de Yt con el cambio de X t y el “error equilibrador” en el

período anterior. ∆Yt , recoge las perturbaciones de corto plazo de X t e uˆ t −1 recoge el


ajuste hacia el equilibrio de largo plazo.

157
Ejercicio 4.3

Planteamos el siguiente modelo de corrección de error:


∆GC = β o + β1 ∆PIB + β 2 uˆ t −1 + ε t

En donde uˆ t −1 son los residuos del MCO realizado en el Ejercicio 4.2.

> res_1 <- diff(eq$resid,lag=1)


> eq2 <- lm(dOcup~dPIB+res_1)
> summary(eq2)

Call:
lm(formula = dOcup ~ dPIB + res_1)

Residuals:
Min 1Q Median 3Q Max
-3.373e-14 -6.780e-16 1.113e-15 2.549e-15 4.810e-15

Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -1.214e-15 1.036e-15 -1.172e+00 0.249
dPIB 5.047e+00 1.346e-15 3.750e+15 <2e-16 ***
res_1 1.000e+00 2.316e-16 4.318e+15 <2e-16 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 6.288e-15 on 34 degrees of freedom


Multiple R-squared: 1, Adjusted R-squared: 1
F-statistic: 1.441e+31 on 2 and 34 DF, p-value: < 2.2e-16

4.6. PROBLEMAS

4.1. Genere con R dos paseos aleatorios (RW) utilizando el siguiente código R:
rw <- function(n){
x=numeric(n)
xdir=c(TRUE, FALSE)
step=c(1,-1)
for (i in 2:n)
if (sample(xdir,1)) {
x[i]=x[i-1]+sample(step,1)
} else {
x[i]=x[i-1]
}
list(x=x)
}

158
donde rw(n) sería un paseo aleatorio de “n” datos, diferencie las series obtenidas y realice
la regresión de una sobre otra, calcula el coeficiente de determinación y el estadístico de
Durbin-Watson.. Analice los resultados obtenidos.

4.2. Genere con R un nuevo RW y obtenga el estadístico DFA. Diferencie la serie y repita
el proceso. Analice los resultados obtenidos.

4.3. Considere la siguiente regresión :


∆X t = 2 − 0.8 X t −1 + et
Siendo el error estandar de la constante , 0.5, y el de la pendiente, 0.3, tomando como valor
critico en las en las tablas del estadístico DFA a 5% τ = −2.95 y a 10% τ = −2.60 ,
responda:
a) La serie X t es ¿estacionaria?.
b) Con el 10 % de significación cabe afirmar que el orden de integración de la serie
es I(1).

4.4. La serie del PIB de un pais es I(2) y la del empleo I(1):


a) Plantee una relación de regresión entre el PIB y el Empleo
b) Indique que orden de integración espera que hayan de tener los residuos obtenidos.

4.5. En la librería “forecast” de R, se encuentra una base de datos en formato de serie


temporal, “gas”, que recoge la producción australiana de gas durante mes a mes durante los
años de 1956 a 1996. Estudie la estacionariedad de la serie en R a través del estadistico de
Dikey-Fuller.

SOLUCIONES:
4.1 A realizar por el alumno
4.2 A realizar por el alumno
4.3
a) No estacionaria al 5% y estacionaria al 10%.
b) Falso.
4.4
a) ∆PIBt = a + bEmpleot + u t
b) Los residuos serán I(0)

159
4.5 A realizar por el alumno

160
5. MODELOS VAR

5.1. INTRODUCCIÓN
El enfoque estructural aplicado a los modelos de series temporales (modelos de ecuaciones
sumultaneas) utiliza conceptos de teoría económica para representar relaciones entre distintas
variables. Sin embargo, a veces la teoría económica no es capaz de ofrecer una especificación
dinámica que identifique todas estas relaciones. Ello obliga al investigador a especificar a priori,
y en muchas ocasiones de forma subjetiva, cuál o cuáles deben ser las variables exógenas del
modelo y en qué ecuaciones deben aparecer, lo que puede afectar a los resultados de la
identificación del modelo y conducir a estimaciones y relaciones entre variables incorrectas.

Por ello, en 1980, Sims realiza una fuerte crítica hacia la especificación de modelos
estructurales de ecuaciones simultáneas, proponiendo, frente a la arbitrariedad que supone la
especificación de los modelos estructurales, una nueva metodología: la metodología VAR
(Vectores Autorregresivos), en la que no se impone una decisión acerca de qué variables deben
ser tratadas como exógenas. Según Sims, si existe verdadera simultaneidad entre un conjunto de
variables, todas deben ser tratadas del mismo modo; en este sentido, la metodología VAR
rompe con el principio de causalidad, al no existir una distinción previa a la estimación entre
variables exógenas y endógenas.

La metodología VAR se ha utilizado principalmente en el campo de los modelos


macroeconómicos, en el que los modelos estructurales de múltiples ecuaciones desarrollados en
los años 50 y 60 no resultaban todo lo satisfactorios que los investigadores deseaban. La
superior capacidad predictiva de los modelos basados en la metodología de Sims frente a estos
modelos, muchos de ellos compuestos por cientos de ecuaciones lo que suponía un enorme
coste computacional, parecía indicar que existía un problema en la metodología de los modelos
de ecuaciones simultáneas.

El punto álgido en el declive de los modelos de ecuaciones simultáneas se alcanzó en los años
70 con las elevadas tasas de inflación y desempleo registradas en ese periodo y que no pudieron
ser previstas mediante los modelos de tipo keynesiano. En ese momento comenzaron a aparecer
las primeras críticas contra el enfoque de los modelos estructurales con múltiples ecuaciones. La
primera de ellas la realizó Lucas en 1976, argumentando que los parámetros de las reglas de

161
decisión incorporadas en los modelos de ecuaciones estructurales no permanecen estables a lo
largo del tiempo cuando las reglas de política económica varían. Este ataque a los modelos
estructurales condujo a los investigadores a utilizar sistemas de ecuaciones menos estructurados
para realizar previsiones de las variables macroeconómicas y delinear los efectos de los cambios
en la política monetaria y de shocks externos sobre la economía, como son los modelos VAR
que pasamos a ver seguidamente.

5.2. MODELOS VAR

5.2.1. Definición
Un modelo de Vectores Autorregresivos (VAR) se define como una descripción estadística de
las interrelaciones existentes entre un conjunto de diferentes variables en la que no se hace uso
de ninguna teoría económica previa acerca de cómo se espera que dichas variables se relacionen
entre sí. Por tanto, los modelos VAR no pueden ser utilizados para validar ninguna teoría, no
pudiendo tampoco utilizarse para interpretar los datos en términos de principios económicos
generales.

El uso de modelos VAR queda así restringido básicamente a dos campos que serán analizados
en detalle más adelante: por un lado, a la predicción de los valores futuros de un conjunto de
variables que aparecen interrelacionadas en el sistema; y por otro, al análisis del efecto a lo
largo del tiempo, sobre cada una de las variables del sistema, de perturbaciones aleatorias o
shocks producidos en el tiempo.

El enfoque VAR elimina por tanto la necesidad de especificar un modelo estructural mediante la
representación de cada variable endógena del sistema como una función de sus propios valores
retardados así como de los retardos de todas las variables endógenas presentes en el sistema.

La representación genérica de un VAR de orden p es la siguiente:

y1t = µ1 + φ11,1 y1t −1 + φ11,2 y1t −2 + ... + φ11, p y1t − p + ... + φ1k ,1 y kt −1 + φ1k ,2 y kt −2 + ... + φ1k , p y kt − p + ε 1t
y 2t = µ 2 + φ21,1 y1t −1 + φ21,2 y1t −2 + ... + φ21, p y1t − p + ... + φ2k ,1 y kt −1 + φ2k ,2 y kt −2 + ... + φ2k , p y kt − p + ε 2t
(5.1)
...
y kt = µ k + φk1,1 y1t −1 + φk1,2 y1t −2 + ... + φk1, p y1t − p + ... + φkk ,1 y kt −1 + φkk ,2 y kt −2 + ... + φkk , p y kt − p + ε kt

162
Donde:

φij, p es el parámetro a estimar, en el que i es el número de ecuación en el que aparece, j

es el número de variable al que está asociado y p representa el retardo de la variable a la


que está asociado el parámetro. El valor máximo de p es lo que se denomina orden del
VAR, el cual también puede ser estimado como veremos más adelante.

yit–p son las variables incluidas en el modelo, donde i y p poseen el mismo significado
que acabamos de señalar.

ε kt es el término de error o perturbación de la ecuación k, el cual posee media cero y

matriz de varianzas y covarianzas triangular de la forma:

 σ 12 0 0 0 
 
 σ 22 0 0 
Σ = E [ε kt ·ε ' kt ) =  
 O 0 
 σ k2 

El sistema (5.1) se expresa de forma matricial :

y t = µ + Φ 1 y t −1 + Φ 2 y t −2 + ... + Φ p y t − p + ε t (5.2)

donde yt es un vector compuesto por las variables sin retardar, µ es un vector de términos
constantes, φi son matrices de coeficientes asociados a las variables retardadas i periodos y εt es
un vector de ruidos que pueden estar correlacionados contemporáneamente pero que están
incorrelacionados con sus retardos y con todas las variables que aparecen a la derecha de la
igualdad.

163
Las matrices yt, µ y εt son vectores de orden k×1, mientras que Φ i es una matriz de orden k×k

tal que:

 y1t   µ1   φ11,i φ12,i ... φ1k ,i   y1t −i   ε 1t 


         
 y 2t   µ2  φ φ22,i ... φ 2 k ,i   y 2 t −i  ε
yt =  ; µ =   ; Φ i =  21,i ; y t −i = ; ε t =  2t 
...  ... ... ... ... ...  ...  ...
         
y  µ  φ φk 2,i .... φkk ,i  y  ε 
 kt   k  k1,i  kt −i   kt 

Por tanto, a la hora de estimar los parámetros de un modelo VAR deberemos estimar k
parámetros constantes, más p×k×k parámetros correspondientes a las variables explicativas del
modelo.

En los modelos VAR también cabe la posibilidad de que aparezcan variables explicativas, que
denotaremos por xt, que no sean retardos de las variables dependientes de tal forma que la
expresión (5.2) pasaría a ser:

y t = µ + Φ 1 y t −1 + Φ 2 y t −2 + ... + Φ p y t − p + βx t + ε t

Siendo:

 β11,i β12,i ... β1k ,i 


 
 β 21,i β 22,i ... β 2 k ,i 
β = ; x t = (x1t x 2t ... x kt )
... ... ... ... 
 
β β k 2,i .... β kk ,i 
 k 1,i

Donde β es una matriz de orden k×k y xt es un vector fila de orden 1× k.

Veamos a continuación un ejemplo concreto de aplicación de un modelo VAR; supongamos que


la renta, Y, y la oferta de dinero, M, vienen determinados conjuntamente por un modelo VAR
con término constante. Si imponemos que el orden de retardos máximo de los regresores es 2,
tendríamos que:

164
Yt = µ1 + φ11,1Yt −1 + φ11,2Yt −2 + φ12,1 M t −1 + φ12,2 M t −2 + ε 1t
M t = µ 2 + φ21,1Yt −1 + φ21,2Yt −2 + φ22,1 M t −1 + φ22,2 M t −2 + ε 2t

donde φij, p son los parámetros a estimar.

Otra forma de expresar un modelo VAR es mediante la notación en retardos que veíamos en el
capítulo 3. Así, el modelo de la expresión 5.2. puede escribirse como:

( I − Φ 1 B − Φ 2 B 2 − ... − Φ p B p ) y t = µ + ε t

Φ ( B )· y t = µ + ε t (5.3)

Dicho modelo VAR será estacionario si y solo si se verifica que los autovalores del polinomio
de retardos caen fuera del círculo unidad:

I − Φ 1 B − Φ 2 B 2 − ... − Φ p B p = 0, ∀B > 1 (5.4)

Si el modelo VAR verifica la condición de estacionariedad, entonces es posible escribir el


modelo autorregresivo como un Vector de Medias Móviles (VMA) de orden infinito tal que:

y t = µ + ε t + Ψ1ε t −1 + Ψ2 ε t −2 + ... = µ + Ψ ( B )·ε t , Ψ ( B ) = I + Ψ1 B + Ψ2 B 2 + ...

Esta representación del modelo (10.2.) será clave para comprender la función de respuesta al
impulso que veremos más adelante.

El cálculo de los parámetros Ψ puede realizarse a partir de la siguiente expresión:

Ψ ( B ) = [Φ ( B )]−1

Lo que exige que se verifique:

( I − Φ 1 B − Φ 2 B 2 − ... − Φ p B p )( I + Ψ1 B + Ψ2 B 2 + ...) = I

El desarrollo de esta expresión permite obtener las ecuaciones que relacionan los parámetros Φ
y Ψ del modelo tal que:

165
Ψ1 = Φ 1
Ψ2 = Φ 1 Ψ1 + Φ 2
LLLLLLLL
Ψs = Φ 1Ψs −1 + Φ 2 Ψs −2 + ... + Φ p Ψs − p , ∀s = 1, 2, ...

Siendo Ψ0 = I y Ψs = 0, ∀s < 0 .
Si el modelo no verificara la condición (5.4) será necesario proceder como en el caso de los
modelos univariantes, tomando las diferencias suficientes sobre las variables para hacerlas
estacionarias.

5.2.2. Estimación

Dado que los valores retardados de las variables sólo aparecen como regresores y no como
variables dependientes, no existen problemas de simultaneidad en el modelo por lo que las
estimaciones obtenidas para los coeficientes aplicando Mínimos Cuadrados Ordinarios a cada
ecuación serán consistentes; asimismo, la matriz de varianzas y covarianzas de las
perturbaciones puede ser estimada utilizando el sumatorio de cuadrados y productos cruzados de
los residuos mínimo-cuadráticos. Si además las perturbaciones se ajustan a una distribución
Normal, entonces los estimadores obtenidos coincidirán con los obtenidos por el método de
Máxima Verosimilitud.

Sin embargo, previamente a la estimación del modelo, debemos decidir el número óptimo de
retardos, p, esto es, el orden del VAR. Antes de presentar el procedimiento para calcular p cabe
tener en cuenta la siguiente advertencia: la inclusión de muchos retardos en el modelo reduce en
gran medida el número de observaciones disponibles, disminuye el número de grados de
libertad a la hora de realizar contrastes y aumenta el riesgo de aparición de multicolinealidad;
por su parte, la inclusión de pocos retardos en el modelo provocará seguramente errores de
especificación.

Una forma de decidir sobre el orden del modelo es examinar los criterios información. Los más
utilizados en este tipo de modelos son los de Akaike (AIC) , Schwarz (SIC ó SC) y el de
Hannan-Quin (HQ):
2l n
AIC = − +2
T T
2l ln(nT )
SC = − +2
T T

166
2l k ln(ln(T ))
HQ = − +2
T T
Tk Tk T ˆ
Siendo l i = − log(2π ) − + ln Σ , d es el número de variables exógenas, p el orden
2 2 2
del VAR, k el número de variables y n = k (d + pk ) el número deparámetros estimados en el

modelo VAR y Σ̂ el determinante de la matriz de varianzas y covarianzas asociada con el

modelo VAR ∑ (
ˆ = T −1

T
t −1
)
uˆ t uˆ t' .

No obstante, existe un contraste más formal para seleccionar el orden del VAR basado en el
contraste de razón de verosimilitudes. Supongamos que estimamos un VAR de orden p1 y
queremos contrastar la hipótesis nula de que el orden del VAR es p0, siendo p1 > p0. Es decir, se
trata de contrastar H0: VAR(p0) frente a H1: VAR(p1). El procedimiento para realizar el contraste
es el siguiente:

− Se estima el modelo VAR bajo cada uno de los supuestos de las hipótesis a contrastar.

− Calculamos el siguiente estadístico de razón de verosimilitudes:

[ ]
λMV = 2(l 1 − l 0 ) = (T − k ) ln ∑ˆ ( p o ) − ln ∑ˆ ( p1 ) ~ χ q2

Tk Tk T ˆ
Siendo l i = − log(2π ) − + ln Σ( p i ) el máximo del logaritmo de la función
2 2 2
de verosimilitud del VAR, donde k es y Σˆ ( pi ) es el determinante de la matriz de

varianzas y covarianzas asociada con el modelo VAR de orden pi.

El estadístico λMV sigue una distribución χ 2 con q grados de libertad, siendo q el

número de restricciones impuestas en la hipótesis nula. Por ejemplo, si en un VAR con


dos variables pretendemos contrastar la presencia de tres retardos frente a cinco
retardos, estaremos excluyendo cuatro variables en cada una de las ecuaciones del VAR,
si suponemos que la hipótesis nula es cierta, en relación al número de variables que se
considera bajo la hipótesis alternativa por lo que q será igual a 4 · 2 = 8, y en general, q
= k2(p1 – p0).

El contraste de razón de verosimilitudes que acabamos de presentar permite la realización de


pruebas secuenciales que permiten determinar el orden del VAR con bastante exactitud. El

167
investigador puede así, comenzar especificando un orden elevado para el modelo, por ejemplo
p1 = 15, e ir realizando contrastes sucesivos en los que se van reduciendo progresivamente los
órdenes comparados hasta que el valor del estadístico supere por primera vez al valor en tablas
de la distribución χ 2 , momento en el que se rechazará la hipótesis nula del contraste y

habremos determinado el orden del VAR, que será el último valor asignado a p1.

5.2.3. Predicción y Función de Respuesta al Impulso


Como comentábamos al principio del capítulo, la utilización de modelos VAR se dirige
fundamentalmente a la realización de predicciones, especialmente a corto plazo, así como al
análisis del efecto a lo largo del tiempo, sobre cada una de las variables del sistema, de un shock
inesperado. Pasamos a continuación a examinar estos dos puntos en detalle.

Por un lado, la realización de predicciones es análoga a la que veíamos en el capítulo 3. Así,


supongamos el caso de un VAR(1) mediante el que pretendemos realizar predicciones uno o
varios periodos hacia delante. Así, la predicción óptima para yt+1 será la esperanza condicional
de yt+1 en el periodo t tal que:

yˆ t +1 = E ( y t +1 | y t , y t −1 ,..., y1 ) = Φ· y (5.5)

Donde para simplificar hemos suprimido el término constante del modelo. Si deseáramos
obtener la predicción óptima para yt+2 bastaría con aplicar de forma recursiva el resultado
obtenido en (5.5) tal que:

yˆ t + 2 = E ( y t + 2 | y t +1 , y t ,..., y1 ) = Φ (Φ y ) = Φ 2 y

Generalizando el resultado anterior tenemos que:

yˆ t + s = Φ s y

168
Con vector de errores de predicción para s periodos hacia delante:

e s = y t + s − yˆ t + s = ε t + s + Φε t + s −1 + ... + Φ s −1ε t +1

De manera análoga podríamos obtener expresiones para modelos VAR de orden superior y
sustituyendo las expresiones que aparecen por sus valores estimados.

En la práctica, la obtención de predicciones en un modelo VAR resulta tan sencilla como


sustituir en el modelo los valores muestrales contemporáneos y retardados de que dispongamos
y obtengamos el valor de las variables en el periodo siguiente.

Por su parte, la obtención de funciones de respuesta al impulso permite conocer el efecto que
tendrá a lo largo del tiempo un shock inesperado sobre las variables del sistema. Recordemos
que si el modelo VAR es estacionario entonces es posible expresarlo como un VMA de orden
infinito tal que:

y t = µ + Ψ ( B )·ε t = µ + ε t + Ψ1ε t −1 + Ψ2 ε t −2 + ...

Si reescribimos el modelo considerando como último periodo t+s tenemos que:

y t + s = µ + ε t + s + Ψ1ε t + s −1 + Ψ2 ε t + s −2 + ... + Ψs ε t + Ψs +1ε t −1 + ... (5.6)

Cada elemento ij de la matriz Ψs de la expresión (5.6) puede interpretarse como el efecto que
tendría un aumento de una unidad en la innovación j sobre el valor de la variable i en el
momento t+s, manteniendo el resto de innovaciones constantes en todos los periodos, tal que:

∂y t + s
= Ψs
∂ε t

Es decir, si se produce una variación de δ unidades en alguna de las innovaciones del modelo
tendremos que:

169
∂y t + s
= Ψs δ
∂ε t

A la representación gráfica del efecto que produce sobre las variables del modelo una variación
en una de las perturbaciones se la conoce como función de respuesta al impulso.

Para calcular la función de respuesta al impulso, suponiendo que especificamos el siguiente


modelo VAR de orden 1 en desviaciones respecto a la media:

y1t = φ11,1 y1t −1 + φ12,1 y 2t −1 + ε 1t


y 2t = φ21,1 y1t −1 + φ22,1 y 2t −1 + ε 2t

Y donde la estimación que se ha obtenido para los parámetros del modelo es:

 y1t   0.4 0.1  y1t −1   ε1t 


  =  ·  +  
 y 2t   0.2 0.5  y 2t −1   ε 2t 

Supongamos que se produce un shock inesperado en la perturbación asociada a y2t, aumentando


en una unidad; en el instante en que se produce dicho shock no afecta por el momento a y1t. Pero
en el siguiente periodo, el shock que se produjo en el momento t afectará tanto a y1t+1 como a
y2t+1 a través del efecto que se ha producido en y2t. Así, en el momento en que se produce un
efecto inesperado en alguna de las variables se produce una reacción en cadena a lo largo del
tiempo en todas las variables del VAR.

La transmisión del shock a lo largo del tiempo se producirá de la siguiente manera:

170
 y10   0 
 = 
 y20   1 
 y11   0.4 0.1   0   0.10 
 y  =  0.2 · =
0.5   1   0.50 
 21  
 y12   0.4 0.1   y11   0.4 0.1   0.10   0.09 
 = · = · =
0.5   y21   0.2 0.5   0.50   0.27 
 y22   0.2
 y13   0.4 0.1   y12   0.4 0.1   0.09   0.06 
 = · y  =  0.2 0.5 · 0.27  =  0.15 
y
  23  0.2 0.5   22      
 y14   0.4 0.1   y13   0.4 0.1   0.06   0.04 
 = ·  =  · = 
 y24   0.2 0.5   y23   0.2 0.5   0.15   0.09 
 y15   0.4 0.1   y14   0.4 0.1   0.04   0.03 
 = ·  =  · = 
 y25   0.2 0.5   y24   0.2 0.5   0.09   0.05 

Los resultados obtenidos se resumen en la siguiente tabla:

Periodo y1 y2

0 0 1
1 0.10 0.50
2 0.09 0.27
3 0.06 0.15
4 0.04 0.09
5 0.03 0.05

Finalmente, representamos gráficamente la función de respuesta al impulso:

171
Función de Respuesta al Impulso

1.2

0.8
y1
0.6
y2
0.4

0.2

0
0 1 2 3 4 5
Periodo

Figura 5.1.Función respuesta al impulso .

Sin embargo, en la práctica normalmente no se producen shocks de forma aislada en una sola
variable sino que dichos shocks suelen producirse de forma simultánea (por ejemplo, no tendría
sentido pensar que se produce un shock en el consumo y simultáneamente no se produce un
shock en la renta). En este caso la obtención de la función de respuesta al impulso resulta poco
menos que imposible por lo que se suele adoptar como solución la transformación de los
términos de error del modelo en un nuevo conjunto de errores ortogonales, los cuales no están
correlacionados entre sí y poseen varianzas unitarias.

Retomando la expresión del VAR como un VMA de orden infinito tenemos que:


yt = µ + ∑Ψ ε
i =0
i t −i , Ψ0 = I

Sea Σ la matriz de varianzas y covarianzas del término de error del modelo; y sea P una matriz
no singular tal que PΣP' = I . Multiplicando el sumatorio de la expresión 10.22 por P −1 P queda
que:


yt = µ + ∑Ψ P
i =0
i
−1
Pε t −i

Si llamamos M i = Ψi P −1 y wi = Pε t −i tenemos que:

172

yt = µ + ∑M w
i =0
i i

Calculando la esperanza matemática del nuevo término de error, wi, se tiene que:

( ) ( ) ( )
E wt wt' = E Pε t ε t' P ' = PE ε t ε t' P' = PΣP' = I

Lo que implica que los componentes del término de error transformado, wt, no están
correlacionados y que poseen varianza unitaria.

El resultado anterior implica que la función de respuesta al impulso pasa a ser ahora:

∂y t + s
= M s = Ψs P −1
∂wt

Sin embargo, la solución al problema que aparece cuando pretendemos calcular la función de
respuesta al impulso con más de shock simultáneo en las perturbaciones presenta consecuencias
indeseables puesto que no existe una matriz P única. Ello provoca que los resultados numéricos
obtenidos no sean interpretables económicamente, debiéndonos limitar a darles una
interpretación de tipo cualitativo.

5.3. VAR ESTRUCTURAL

Hasta el momento hemos considerado a los modelos VAR como un modelo completamente
ateórico y sin restricciones. Sin embargo, los modelos VAR pueden ser entendidos como la
expresión de un modelo económico estructural en forma reducida, lo que permite reconciliar la
utilización de modelos VAR con el enfoque de modelos estructurales (modelos de ecuaciones
simultáneas). La utilización de los modelos VAR en estos casos sí posee fundamento teórico
pues el investigador comienza elaborando un modelo basado en la teoría económica, a partir del
cual obtendrá su forma reducida, que tendrá la forma de un VAR.

Sin embargo, ¿es posible recuperar los parámetros de la forma estructural del modelo a partir de
la forma reducida? El siguiente ejemplo responde a esta cuestión: supongamos que el
investigador especifica y estima el siguiente modelo estructural de orden 1:

173
y1t = µ1 − γ 12 y 2t + φ11,1 y1t −1 + φ12,1 y 2t −1 + ε 1t
(5.7)
y 2t = µ 2 − γ 21 y1t + φ21,1 y1t −1 + φ22,1 y 2t −1 + ε 2t

Que consta de 10 parámetros (8 coeficientes más 2 varianzas de los términos de error) que
debemos estimar.

Dado que un modelo VAR es una función de los valores retardados de las variables que lo
componen exclusivamente. Si reordenamos el modelo (5.7) y lo expresamos en forma matricial
tenemos que:

 1 γ 12  y1t   µ1   φ11,1 φ12,1   y1t −1   ε 1t 


   =   +  ·
  +  
 γ 21 1  y 2t   µ 2   φ21,1 φ22,1   y 2 t −1   ε 2t 

(5.8)
Γy t = µ + Φy t −1 + ε t

Premultiplicando (5.8) por Γ −1 podemos obtener la expresión de la forma reducida del modelo
VAR tal que:

y t = Γ −1 µ + Γ −1Φy t −1 + Γ −1ε t = µ * + Φ * y t −1 + ε t* (5.9)

El modelo (5.9) es la forma reducida del modelo estructural que especificamos en (5.7) y que
puede ser estimado aplicando MCO a cada ecuación del modelo. Sin embargo, la estimación de
los parámetros del modelo (5.9) no nos va a permitir recuperar el valor de los parámetros del
modelo estructural, ya que ahora sólo disponemos de 9 parámetros (coeficientes+varianzas y
covarianza de los errores); es decir, la forma reducida de un modelo VAR estructural siempre
está subidentificada

Sin embargo, si imponemos alguna restricción en los parámetros del VAR estructural, la forma
reducida pasará a estar exactamente identificada. Así, si en el modelo (5.7) hacemos γ 21 = 0
queda que:

174
 1 γ 12  y1t   µ1   φ11,1 φ12,1   y1t −1   ε 1t 
   =   +  ·
  +  
 0 1  y 2 t   µ 2   φ21,1 φ22,1   y 2t −1   ε 2t 

 1 γ 12 
Premultiplicando el modelo estructural por la inversa de la matriz   tenemos que:
0 1 

−1 −1 −1
 y1t   1 γ 12   µ1   1 γ 12   φ11,1 φ12,1   y1t −1   1 γ 12   ε 1t 
  =     +   
φ
·
  +    
 y 2t   0 1   µ2   0 1   21,1 φ 22,1   y 2t −1   0 1   ε 2t 

 y1t   µ1 *   φ1* φ2*   y1t −1   ε 1t * 


  =   +  * ·
*
 +  

 y 2t   µ 2 *  φ3 φ4   y 2 t −1   ε 2t *

A partir de la expresión anterior ahora sí es posible recuperar los parámetros del modelo
estructural tal que:

Cov (ε 1t *, ε 2t *)
γ 12 = −
Var (ε 2t *)
Cov(ε 1t *, ε 2t *)
µ1 = µ1 * − µ2 *
Var (ε 2t *)
µ1 * = µ1 − γ 12 µ 2
µ2 = µ2 *
µ2 * = µ2
Cov (ε 1t *, ε 2t *) *
φ1* = φ11,1 − γ 12φ21,1 φ11,1 = φ1* − φ2
Var (ε 2t *)
φ2* = φ21,1 Cov(ε 1t *, ε 2t *) *
φ12,1 = φ3* − φ4
φ3* = φ12,1 − γ 12φ22,1 ⇒ Var (ε 2t *)
φ4* = φ22,1 φ21,1 = φ2*
Var (ε 1t *) = σ ε21t + γ 12
2 2
σ ε 2t φ22,1 = φ4*
2
Var (ε 2t *) = σ ε22 t  Cov (ε 1t *, ε 2t *) 
σ ε 1t
2
= Var (ε 1t *) −   Var (ε 2t *)
Cov(ε 1t *, ε 2t *) = −γ 12σ ε22 t  Var (ε 2 t *) 
σ ε22 t = Var(ε 2t *)
Var (ε 2 t *)
σ ε22 t = Cov (ε 1t *, ε 2 t *)· = Var (ε 2t *)
Cov (ε 1t *, ε 2t *)

175
5.4. EJEMPLO DE ESTIMACION DE UN MODELO VAR
CON R.

Se va a estimar un modelo VAR con datos relativos al mercado de trabajo de Canadá, tomado
de Breitung, Bruggemann, and Lutkepohl (2004). Se utilizan las siguientes series: productividad
del trabajo, definida como la diferencia entre el logaritmo del PIB y el logaritmo del empleo;
empleo, medido en logaritmo, tasas de desempleo; y salarios reales definido como el logaritmos
del índice de evolución de los salarios reales. En la base de datos se denominan, “prod”, “e”,
“U” y “rw”, respectivamente. Los datos procede de la base de datos de la OCDE y cubren el
periodo comprendido entre el primer trimestre de 1980 y cuarto trimestre de 2004 (Pfaff, 2008).
P realizar el ejercicio hay que cargar el “package” o la librería R : “vars”.

> library("vars")
> data("Canada")
> summary(Canada)

e prod rw
Min. :928.6 Min. :401.3 Min. :386.1
1st Qu.:935.4 1st Qu.:404.8 1st Qu.:423.9
Median :946.0 Median :406.5 Median :444.4
Mean :944.3 Mean :407.8 Mean :440.8
3rd Qu.:950.0 3rd Qu.:410.7 3rd Qu.:461.1
Max. :961.8 Max. :418.0 Max. :470.0
U
Min. : 6.700
1st Qu.: 7.782
Median : 9.450
Mean : 9.321
3rd Qu.:10.607
Max. :12.770

La representación gráfica de las series realizada en R:


> plot(Canada, nc = 2, xlab = "")

176
Figura 5.2. Productividad, empleo, desempleo y salarios reales en Canada.

En primer lugar se realizó el test ADF a las series para conocer su orden de integración.
> adf1 <- summary(ur.df(Canada[, "prod"], type = "trend", lags = 2))
> adf1

###############################################
# Augmented Dickey-Fuller Test Unit Root Test #
###############################################

Test regression trend

Call:
lm(formula = z.diff ~ z.lag.1 + 1 + tt + z.diff.lag)

Residuals:
Min 1Q Median 3Q Max
-2.19924 -0.38994 0.04294 0.41914 1.71660
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 30.415228 15.309403 1.987 0.0506 .
z.lag.1 -0.075791 0.038134 -1.988 0.0505 .
tt 0.013896 0.006422 2.164 0.0336 *
z.diff.lag1 0.284866 0.114359 2.491 0.0149 *
z.diff.lag2 0.080019 0.116090 0.689 0.4927
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 0.6851 on 76 degrees of freedom


Multiple R-squared: 0.1354, Adjusted R-squared: 0.08993
F-statistic: 2.976 on 4 and 76 DF, p-value: 0.02438

Value of test-statistic is: -1.9875 2.3 2.3817

177
Critical values for test statistics:
1pct 5pct 10pct
tau3 -4.04 -3.45 -3.15
phi2 6.50 4.88 4.16
phi3 8.73 6.49 5.47
> adf2 <- summary(ur.df(diff(Canada[, "prod"]), type = "drift",lags =
1))
> adf2

###############################################
# Augmented Dickey-Fuller Test Unit Root Test #
###############################################

Test regression drift

Call:
lm(formula = z.diff ~ z.lag.1 + 1 + z.diff.lag)

Residuals:
Min 1Q Median 3Q Max
-2.05124 -0.39530 0.07819 0.41109 1.75129
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 0.11534 0.08029 1.437 0.155
z.lag.1 -0.68893 0.13350 -5.160 1.83e-06 ***
z.diff.lag -0.04274 0.11275 -0.379 0.706
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 0.6971 on 78 degrees of freedom


Multiple R-squared: 0.3615, Adjusted R-squared: 0.3451
F-statistic: 22.08 on 2 and 78 DF, p-value: 2.526e-08

Value of test-statistic is: -5.1604 13.3184

Critical values for test statistics:


1pct 5pct 10pct
tau2 -3.51 -2.89 -2.58
phi1 6.70 4.71 3.86

Los resultados obtenidos figuran en la Tabla siguente:

Tabla 5.1.- Resultados del test ADF (Package Vars).

178
Se observa que son I(1) las primeras diferencias de “prod”, “e”, “rw” y la serie original “U”.

A continuación con la función “VARselect” buscan el modelo VAR óptimo partiendo de un


número máximo de 8 desfases. La función utiliza los criterios de información AIC, HQ, SC y
FPE15..

> VARselect(Canada, lag.max = 8, type = "both")


$selection
AIC(n) HQ(n) SC(n) FPE(n)
3 2 1 3

$criteria
1 2 3 4
AIC(n) -6.272579064 -6.636669705 -6.771176872 -6.634609210
HQ(n) -5.978429449 -6.146420347 -6.084827770 -5.752160366
SC(n) -5.536558009 -5.409967947 -5.053794411 -4.426546046
FPE(n) 0.001889842 0.001319462 0.001166019 0.001363175
5 6 7 8
AIC(n) -6.398132246 -6.307704843 -6.070727259 -6.06159685
HQ(n) -5.319583658 -5.033056512 -4.599979185 -4.39474903
SC(n) -3.699388378 -3.118280272 -2.390621985 -1.89081087
FPE(n) 0.001782055 0.002044202 0.002768551 0.00306012

De acuerdo con el AIC y FPE el numero optimo de retardos es 3, el criterio HQ sería 2 y según
el SC sería 1. La estimación en R de un VAR con p = 1 , se realiza con la siguente sentencia:
> Canada <- Canada[, c("prod", "e", "U", "rw")]
> p1ct <- VAR(Canada, p = 1, type = "both")
> p1ct

VAR Estimation Results:


=======================

Estimated coefficients for equation prod:


=========================================
Call:
prod = prod.l1 + e.l1 + U.l1 + rw.l1 + const + trend

prod.l1 e.l1 U.l1 rw.l1 const


0.96313671 0.01291155 0.21108918 -0.03909399 16.24340747
trend
0.04613085

Estimated coefficients for equation e:


======================================
Call:
e = prod.l1 + e.l1 + U.l1 + rw.l1 + const + trend

prod.l1 e.l1 U.l1 rw.l1


0.19465028 1.23892283 0.62301475 -0.06776277
const trend
-278.76121138 -0.04066045

15

K
 T + n*  ˆ
FPE (n) =≤ ft   ∑
* 
 T − n 
Siendo ∑ = T ∑ uˆ t uˆ t , n el número de parámetros en cada ecuación y n el orden de los retardos.
ˆ −1 T ' *
t −1

179
Estimated coefficients for equation U:
======================================
Call:
U = prod.l1 + e.l1 + U.l1 + rw.l1 + const + trend

prod.l1 e.l1 U.l1 rw.l1


-0.12319201 -0.24844234 0.39158002 0.06580819
const trend
259.98200967 0.03451663

Estimated coefficients for equation rw:


=======================================
Call:
rw = prod.l1 + e.l1 + U.l1 + rw.l1 + const + trend
prod.l1 e.l1 U.l1 rw.l1
-0.22308744 -0.05104397 -0.36863956 0.94890946
const trend
163.02453066 0.07142229

El resultado gráfico para el logaritmo del empleo se obtiene:

> plot(p1ct, names = "e")

Figura 5.2. Estimación y residuos del modelo VAR para el empleo de Canada.

180
5.5. PROBLEMAS

5.1. Comente las diferencias existentes entre los tres métodos de predicción económica que se
han visto hasta el momento: modelos de ecuaciones simultáneas, modelos univariantes de series
temporales y modelos VAR.

5.2. ¿En qué sentido es ateórico un modelo VAR?

5.3. Suponga que se ha estimado el siguiente modelo VAR de orden 3:

 y1t   0.3 0.1 0.2   y1t −1   ε 1t 


      
 y 2t  =  0.5 0.3 0.05· y 2t −1  +  ε 2t 
 y   0.4 0.1 0.3   y   ε 
 3t     3t −1   3t 

Calcule y represente gráficamente la función de respuesta al impulso cuando se produce


un shock de 7 unidades en ε 2t .
5.4. Realice predicciones 3 periodos hacia delante con el siguiente VAR de orden 2:

y1t = 0.5 y1t −1 + 0.1 y2t −1 + ε1t


y2t = 0.3 y1t −1 + 0.5 y2t −2 + ε 2t

Para ello, utilice la siguiente información muestral:

Periodo y1 y2

1 5 8
2 6 4
3 4 3
4 8 2
5 3 6

181
SOLUCIONES
5.1. A realizar por el lector
5.2. A realizar por el lector
5.3. Los primeros valores de la función de respuesta al impulso se presentan en la siguiente
tabla:

Periodo y1 y2 y3

0 0 7 0
1 0.7 2.1 0.7
2 0.56 1.02 0.7
3 0.41 0.62 0.54
4 0.29 0.42 0.39
5 0.21 0.29 0.27

5.4.

Prev. y1t y2t


T+1 4.6 1.9
T+2 2.5 4.4
T+3 1.7 1.7

182
6. REGRESIÓN EN EL DOMINIO DE LA FRECUENCIA

6.1. INTRODUCCIÓN

Nerlove (1964) y Granger (1969) fueron los primeros investigadores en aplicar el Análisis
espectral a las series de tiempo en economía. El uso del análisis espectral requiere un cambio en
el modo de ver las series económicas, al pasar de la perspectiva del tiempo al dominio de la
frecuencia. El análisis espectral parte de la suposición de que cualquier serie X t , puede ser

transformada en ciclos formados con senos u cósenos:


n
  ft   ft 
xt = µ + ∑ a j cos 2π  + b j seno 2π  (6.1)
j =1   n  n 

donde µ es la media de la serie, a j y b j son su amplitud, f son las frecuencias que del

conjunto de las n observaciones, t es un índice de tiempo que va de 1 a N , siendo N el


numero de periodos para los cuales tenemos observaciones en el conjunto de datos, el cociente
ft
convierte cada valor de t en escala de tiempo en proporciones de 2n y rango j desde 1
n
N
hasta n siendo n = (es decir, 0,5 ciclos por intervalo de tiempo). Las dinámica de las altas
2
frecuencias (los valores más altos de f ) corresponden a los ciclos cortos en tanto que la

dinámica de la bajas frecuencias (pequeños valores de f ) van a corresponder con los ciclos

f
largos. Si nosotros hacemos que = ω la ecuación (6.1) quedaría, así:
n

[
xt = µ + ∑ a j cos(ω j t ) + b j seno(ω j t )]
n
(6.2)
j =1

El análisis espectral puede utilizarse para identificar y cuantificar en procesos aparentemente a


aperiodicos, sucesiones de ciclos de periodo de corto y largo plazo. Una serie dada xt puede

contener diversos ciclos de diferentes frecuencias y amplitudes, y esa combinación de


frecuencias y amplitudes de carácter cíclico la hace aparecer como una serie no periódica e
irregular. De hecho la ecuación (2), muestra que cada observación t de una serie de tiempo, es

183
el resultado sumar los valores en t que resultan de N ciclos de diferente longitud y amplitud, a
los que habría que añadir si cabe un termino de error.

Realizar un análisis de Fourier a una serie temporal de n datos, equivale a estudiar la


variabilidad de dicha serie en base a los ciclos de diferentes frecuencias a que da lugar:
2π 4π 2π × p
, ,..., π . La frecuencia ω p = recibe el nombre de armónico , p . Y los
n n n
n
armónicos p ≠ , pueden expresarse de la siguiente forma:
2
a p cos(ω p ) + b p seno(ω p ) = R p cos(ω p t + φ p )

 bp 
donde R p = a p + b p y φ p = tan −1  
a 
 p 

nR p2
La representación gráfica de I (ω ) = frente ω recibe el nombre de periodograma de las

serie de datos. Una tendencia produce un pico en la representación gráfico del periodograma en
la frecuencia cero, mientras que las variaciones estacionales procuren "picos" en las frecuencias
estacionales y sus múltiplos enteros, de manera que si un peridograma presenta un "pico" en
alguna frecuencia ω , presentará también "picos" en las frecuencias 2ω ,3ω ,...

6.2. REGRESIÓN BAND SPECTRUM

Hannan (1963) fue quien propuso la regresión en dominio de la frecuencia (regresión band
spectrum). Engle (1974), demostró que dicha regresión no alteraba los supuestos básicos de la
regresión clásica, cuyos estimadores eran Estimadores Lineales Insesgados y Óptimos (ELIO).

En Engel (1974) el periodograma de la explicativa , x , es definido como:

fˆx (θ k ) = wk x
2

siendo wk el vector fila:

(
wk = 1, e iθ k , e 2iθ k ,..., e (T −1)iθ k )

184
donde θ k = 2πk
wk x
; y t=0;1;…;T-1; sería el elemento k-ésimo de la transformada finita
T T
de Fourier del vector columna de xt .

El cross-periodograma entre las series xt e yt

fˆxy (θ k ) = (wk x ) (wk y )


donde * es la compleja conjugada de la transpuesta.

El periodograma es un estimador insesgado del espectro, sin embargo es asintóticamente


insesgado e inconsistente con la varianza de cada estimador espectral a medida que la muestra
tiende a infinito. Esta inconsistencia que obligaría al uso de ventanas en el periodograma con el
fin de obtener estimaciones del espectro, no anula las propiedades de la regresión realizada con
el periodograma.

Haciendo

 w0 
 
 w1 
W =  w2 
 
 . 
w 
 t −1 
Se cumple que WW ' = I = W 'W debido a las ortogonalidad de los productos de senos y
cósenos.

Y obteniendo el vector ~
x como la transformada de Fourier de x en T periodos, podemos
transformar el modelo de regresión múltiple:
y = xβ + u (6.3)
En
~ x β + u~
y=~

Se trata de una regresión con variables aleatorias complejas pero que no afecta a los supuestos
básicos del modelo de regresión clásico. Las propiedades del error u~ :

var(u~ ) = E (u~u~ ' ) = E (Wuu 'W ' ) = WE (uu ' )W ' = σ u2WΩW '

185
Si Ω = I , entonces var(u~ ) = σ u2 I .

Asumiendo que x es independiente de u , el teorema de Gauss-Markov implicaría que

βˆ = (~x ' ~x )−1 ~x ' ~y

es un estimador ELIO con la siguiente matriz de varianza y covarianzas: var(βˆ ) = σ u2 ( ~


x'~
x ) −1

El estimador mínimo-cuadrático β̂ en términos del periodograma se formularía:

−1 T −1
 T −1 
βˆ = ∑ fˆxx (θ k ) ∑ fˆ (θ )
xy k
 k =0  k =0

donde
fˆxx (θ k ) es la matriz de cross-periodogramas de cada frecuencia e fˆxy (θ k ) es el vector del

cross-periodograma de
xt e y t .

La transformación de los datos originales del dominio del tiempo al dominio de la frecuencia
utilizando series finitas de senos y cósenos en la regresión band spectrium, se realiza a través de
la matriz ortogonal A, con el elemento (j,t)th (Harvey, 1978) :
 1

  1  2
  ∀j = 1
 T 
 1
 2  2  πj (t − 1) 
 T  cos  T ∀j = 2,4,6,..., (T − 2) /(T − 1)
a j ,t =   1  
 2  2  π ( j − 1)(t − 1) 
  sin  ∀j = 3,5,7,..., (T − 1) / T
 T   T
1


  1 2 t +1
  (−1) ∀j = T
 T  (6.4)

De esta forma los problemas derivados del uso de la transformada compleja de Fourier pueden
ser eludidos. Asimismo afirma que el vector de residuos definido en (6.3) da lugar a un vector
de residuos del modelo transformado a través de A:
vˆ = A( y − Xβ ) = Auˆ
de forma que :

186
 T 
 p j = vˆ2 j + vˆ2 j +1 , j = 1,...,  2 − 1 si T par
2 2

  
 p = vˆ 2 + vˆ 2 , j = 1,...,  T − 1  si T impar
pj =  j 2j 2 j +1
 2 
 T
 p j = 2vˆ22 j , j = y T impar
 2
 p o = 2vˆ12

Puede ser utilizado de forma consistente como estimador del periodograma de û .Al ser β̂ un

estimador MCO de β , puede utilizarse el test del periodograma acumulado de Durbin (Durbin,
1969) (ver anexo I).

Hui T and Ashley R (1999), señalan que el procedimiento de elaboración del cross-
periodograma consta de tres etapas:

1.- Transformar los datos originales del dominio del tiempo al dominio de la frecuencia
utilizando series finitas de senos y cósenos. Implicaría premultiplicar los datos originales por
una matriz ortogonal, A, sugerida por Harvey (1978).
2.- Permitir la variación de β k a través de m bandas de frecuencia usando variables Dummy

( D1j ...D mj ) . Estas variables se elaboran a partir de submuestras de las T observaciones del

dominio de frecuencias, de esta forma D sj = ~


x jk si la observación j está en la banda de

frecuencias s y D sj = 0 , en el resto de los casos. Para obtener las submuestras proponen el

“stabilogram” test (Ashley, 1984).

3.- Re-estimar el resultado del modelo de regresión en el dominio del tiempo con las

estimaciones
β1 ...β k y los coeficientes de las m variables Dummy. Implicaría premultiplicar la
ecuación de regresión ampliada por las variables Dummy por la transpuesta de A.

Ejemplo 6.1

En la tabla siguiente se recogen las cifras de Consumo de energía final eléctrica (TEP) y del PIB
en Millones de euros de España en el periodo 1992 y 2007.

187
Consumo de Energía Final Eléctrica (TEP) PIB (Mill euros año 2000)
1992 11244 484580,9
1993 11237 479583,3
1994 11777 491011,6
1995 12116 515405
1996 12655 527862,4
1997 13672 548283,8
1998 14202 572782
1999 15241 599965,8
2000 16205 630263
2001 17279 653255
2002 17759 670920,4
2003 18916 691694,7
2004 19834 714291,2
2005 20827 740108
2006 22052 769850,2
2007 22548 797366,8
2008 22817 804223,1

Fuente: INE

La regresión Mínimo Cuadrática en el dominio del tiempo de ambas series ofrece los siguientes
resultados:

Estadísticas de la regresión
Coeficiente de correlación múltiple 0,99827044
Coeficiente de determinación R^2 0,99654387
R^2 ajustado 0,99629701
Error típico 244,666006
Observaciones 16

Coeficientes Error típico Estadístico t


Intercepción -6648,76729 374,426101 -17,7572217
Variable X 1 0,03679065 0,00057906 63,53565298

La transformación de los datos del dominio del tiempo al dominio de la frecuencia se realiza
premultiplicando los datos originales por la matriz ortogonal A definida en (6.4).

188
aj,t 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16

1 0,250 0,250 0,250 0,250 0,250 0,250 0,250 0,250 0,250 0,250 0,250 0,250 0,250 0,250 0,250 0,250

2 0,354 0,327 0,250 0,135 0,000 -0,135 -0,250 -0,327 -0,354 -0,327 -0,250 -0,135 0,000 0,135 0,250 0,327

3 0,000 0,135 0,250 0,327 0,354 0,327 0,250 0,135 0,000 -0,135 -0,250 -0,327 -0,354 -0,327 -0,250 -0,135

4 0,354 0,250 0,000 -0,250 -0,354 -0,250 0,000 0,250 0,354 0,250 0,000 -0,250 -0,354 -0,250 0,000 0,250

5 0,000 0,250 0,354 0,250 0,000 -0,250 -0,354 -0,250 0,000 0,250 0,354 0,250 0,000 -0,250 -0,354 -0,250

6 0,354 0,135 -0,250 -0,327 0,000 0,327 0,250 -0,135 -0,354 -0,135 0,250 0,327 0,000 -0,327 -0,250 0,135

7 0,000 0,327 0,250 -0,135 -0,354 -0,135 0,250 0,327 0,000 -0,327 -0,250 0,135 0,354 0,135 -0,250 -0,327

8 0,354 0,000 -0,354 0,000 0,354 0,000 -0,354 0,000 0,354 0,000 -0,354 0,000 0,354 0,000 -0,354 0,000

9 0,000 0,354 0,000 -0,354 0,000 0,354 0,000 -0,354 0,000 0,354 0,000 -0,354 0,000 0,354 0,000 -0,354

10 0,354 -0,135 -0,250 0,327 0,000 -0,327 0,250 0,135 -0,354 0,135 0,250 -0,327 0,000 0,327 -0,250 -0,135

11 0,000 0,327 -0,250 -0,135 0,354 -0,135 -0,250 0,327 0,000 -0,327 0,250 0,135 -0,354 0,135 0,250 -0,327

12 0,354 -0,250 0,000 0,250 -0,354 0,250 0,000 -0,250 0,354 -0,250 0,000 0,250 -0,354 0,250 0,000 -0,250

13 0,000 0,250 -0,354 0,250 0,000 -0,250 0,354 -0,250 0,000 0,250 -0,354 0,250 0,000 -0,250 0,354 -0,250

14 0,354 -0,327 0,250 -0,135 0,000 0,135 -0,250 0,327 -0,354 0,327 -0,250 0,135 0,000 -0,135 0,250 -0,327

15 0,000 0,135 -0,250 0,327 -0,354 0,327 -0,250 0,135 0,000 -0,135 0,250 -0,327 0,354 -0,327 0,250 -0,135

16 0,250 -0,250 0,250 -0,250 0,250 -0,250 0,250 -0,250 0,250 -0,250 0,250 -0,250 0,250 -0,250 0,250 -0,250

i Y X Constante Y ajustado
dominio de la
frecuencia
1 67284 2551717 4 67284
2 -1713 -56628 0 -2083
3 -12669 -334387 0 -12302
4 -2162 -52088 0 -1916
5 -5702 -160516 0 -5905
6 -2397 -70960 0 -2611
7 -3077 -89304 0 -3286
8 -2053 -64772 0 -2383
9 -2023 -60838 0 -2238
10 -2129 -62400 0 -2296
11 -1083 -38099 0 -1402
12 -2069 -57905 0 -2130
13 -924 -26001 0 -957
14 -2306 -55621 0 -2046
15 -557 -11901 0 -438
16 -1366 -38885 0 -1431

La regresión MCO con los datos en el dominio de la frecuencia es:

Estadísticas de la regresión
Coeficiente de correlación múltiple 0,99991214
Coeficiente de determinación R^2 0,99982429
R^2 ajustado 0,92838317
Error típico 244,666006
Observaciones 16

189
Coeficientes Error típico Estadístico t
Intercepción 0 #N/A #N/A
X 0,03679065 0,00057906 63,53565298
Cte -6648,76729 374,426101 -17,7572217

Se crea ahora una variable Dummy para separar altas frecuencias de las bajas frecuencias. Las
variables transformadas al dominio de la frecuencia y las Dummys utilizadas (D1 y D2)
aparecen en la Tabla siguiente:

i Y D1 D2 Y ajustado
dominio
Cte frecuencia
1 67,284 2,551,717 0 4 67.284
2 -1,713 -56,628 0 0 -2.101
3 -12,669 -334,387 0 0 -12.405
4 -2,162 -52,088 0 0 -1.932
5 -5,702 -160,516 0 0 -5.955
6
-2,397 -70,960 0 0 -2.632
7 -3,077 -89,304 0 0 -3.313
8
-2,053 0 -64,772 0 -2.242
9 -2,023 0 -60,838 0 -2.105
10 -2,129 0 -62,400 0 -2.159
11 -1,083 0 -38,099 0 -1.318
12
-2,069 0 -57,905 0 -2.004
13
-924 0 -26,001 0 -900
14 -2,306 0 -55,621 0 -1.925
15 -557 0 -11,901 0 -412
16 -1,366 0 -38,885 0 -1.346

Los resultados de la regresión MCO de los valores transformados en el dominio de la


frecuencia son:

Estadísticas de la regresión
Coeficiente de correlación múltiple 0,99992471
Coeficiente de determinación R^2 0,99984942
R^2 ajustado 0,92290317
Error típico 235,050452
Observaciones 16

Coeficientes Error típico Estadístico t


Intercepción 0 #N/A #N/A
D1 0,03709794 0,000594141 62,4395755
D2 0,0346064 0,001584053 21,8467372
Cte -6844,79449 383,5483218 -17,8459769

190
La representación gráfica de los resultados obtenidos, requiere transformar los datos ajustados
en el dominio de la frecuencia a datos ajustados en el dominio utilizando la transpuesta de A.

Figura nº6.1. Datos centrados y datos ajustados en el dominio del tiempo.

6.3. REGRESIÓN EN EL DOMINIO DE LA FRECUENCIA


CON PARAMETROS DEPENDIENTES DEL TIEMPO.

El objetivo es estimar un modelo de tipo


Yt = β t X t + u t (6.5)

Donde X t es un vector de T x 1 observaciones de la variable independiente,


β t , es un vector

de T x 1 parámetros , e
Yt es un vector de T x 1 observaciones de la variable independiente y

ut es un vector de T x 1 errores de media cero y varianza constante, asumiendo que las series

X t , β t e Yt son transformadas en series de Fourier:

191
[
Yt = η y + ∑ a jy cos(ω j ) + b jy sin (ω j ) ]
N

j =1

β t = η β + ∑ [a βj cos(ω j ) + b βj sin (ω j )]
N

j =1

[
u t = η u + ∑ a uj cos(ω j ) + b uj sin (ω j ) ]
N
(6.6)
j =1

T
Pre-multiplicado cada observación de (6.6) por W se obtiene:
Y& = X&β& (6.7)
donde Y& = AT Yt , X& = AT X t , y β& = AT β t .

El sistema (6.7) puede reescribirse como:


Y& = AX t I N AT β& + AI N AT u& (6.8)

Si denominamos, e& = AI N AT u& , se buscaría una solución que minimizara la suma cuadrática
de los errores: eˆt = Ae& .

Una vez encontrada la solución a dicha optimización se transformarían las variables y


parámetros al dominio del tiempo para obtener el sistema (6.5).

Para obtener una solución a la minimización de los errores e& que ofrezca el mismo resultado
que la regresión lineal por mínimos cuadrados ordinarios, requiere utilizar una matriz de
regresores X cuya primera columna sería el vector de tamaño T (1,0,0,...), la segunda columna
sería la primera fila de la matriz AX t I N AT y las columnas, corresponderían las filas de

AX t I N AT correspondientes a las frecuencias de senos o cósenos que queremos regresar.

Denominando a nueva esta matriz de tamaño N × p , X , donde p = 2 + j , siendo la j


frecuencias de seno y coseno elegidas como explicativas, los coeficientes de la solución MCO
serían:

β& = ( X ' X )−1 X ' y&

donde β&o ,1 sería el parámetro asociado a la constante, β&1,1 el asociado a la pendiente, y β&1, j los

asociados a las frecuencias de senos y cósenos elegidas.

192
Ejemplo 1.2

Utilizando los datos del ejemplo 1 vamos a plantear la regresión en el dominio de la frecuencia
con parámetros dependientes del tiempo. Para ello se ha obtenido la matriz θ jjX
X
= AX t I N AT :

θ jjX
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16

1 637929 -14157 -83597 -13022 -40129 -17740 -22326 -16193 -15209 -15600 -9525 -14476 -6500 -13905 -2975 -9721

2 -14157 628721 -28375 -22555 -74899 -20658 -39130 -23575 -22522 -21686 -15351 -20863 -8839 -19958 -4596 -13905

3 -83597 -28375 647137 43325 2534 17621 2242 9052 -1513 6158 -1214 4631 -1198 4596 -515 2975

4 -13022 -22555 43325 626479 -10755 -21041 -65847 -19444 -32972 -22377 -17891 -21171 -10755 -20863 -4631 -14476

5 -40129 -74899 2534 -10755 649379 52377 1020 23779 1028 13683 -2712 10755 -1729 8839 -1198 6500

6 -17740 -20658 17621 -21041 52377 627693 -4596 -19843 -61216 -18929 -28375 -22377 -13683 -21686 -6158 -15600

7 -22326 -39130 2242 -65847 1020 -4596 648165 57008 -178 28375 513 17891 -2712 15351 -1214 9525

8 -16193 -23575 9052 -19444 23779 -19843 57008 628208 0 -19843 -57008 -19444 -23779 -23575 -9052 -16193

9 -15209 -22522 -1513 -32972 1028 -61216 -178 0 647650 61216 -178 32972 1028 22522 -1513 15209

10 -15600 -21686 6158 -22377 13683 -18929 28375 -19843 61216 627693 4596 -21041 -52377 -20658 -17621 -17740

11 -9525 -15351 -1214 -17891 -2712 -28375 513 -57008 -178 4596 648165 65847 1020 39130 2242 22326

12 -14476 -20863 4631 -21171 10755 -22377 17891 -19444 32972 -21041 65847 626479 10755 -22555 -43325 -13022

13 -6500 -8839 -1198 -10755 -1729 -13683 -2712 -23779 1028 -52377 1020 10755 649379 74899 2534 40129

14 -13905 -19958 4596 -20863 8839 -21686 15351 -23575 22522 -20658 39130 -22555 74899 628721 28375 -14157

15 -2975 -4596 -515 -4631 -1198 -6158 -1214 -9052 -1513 -17621 2242 -43325 2534 28375 647137 83597

16 -9721 -13905 2975 -14476 6500 -15600 9525 -16193 15209 -17740 22326 -13022 40129 -14157 83597 637929

La matriz de regresores X ' para obtener la solución lineal sería:


1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

637929 -14157 -83597 -13022 -40129 -17740 -22326 -16193 -15209 -15600 -9525 -14476 -6500 -13905 -2975 -9721

El sistema (6.7) daría lugar a los siguientes coeficientes:


β&o ,1 -26595,06915
β&1,1 0,147162612

El desarrollo de dichos coeficientes en el dominio de la frecuencia y el tiempo es el siguiente:

193
β& βˆ0t = Aβ&oi β&1i βˆ1t = Aβ&1i
oi
-26595,0691 -6648,76729 0,14716261 0,03679065
0 -6648,76729 0 0,03679065
0 -6648,76729 0 0,03679065
0 -6648,76729 0 0,03679065
0 -6648,76729 0 0,03679065
0 -6648,76729 0 0,03679065
0 -6648,76729 0 0,03679065
0 -6648,76729 0 0,03679065
0 -6648,76729 0 0,03679065
0 -6648,76729 0 0,03679065
0 -6648,76729 0 0,03679065
0 -6648,76729 0 0,03679065
0 -6648,76729 0 0,03679065
0 -6648,76729 0 0,03679065
0 -6648,76729 0 0,03679065
0 -6648,76729 0 0,03679065

La matriz de regresores X ' considerando los dos ciclos de bajas frecuencias sería:

1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

637929 -14157 -83597 -13022 -40129 -17740 -22326 -16193 -15209 -15600 -9525 -14476 -6500 -13905 -2975 -9721

-14157 628721 -28375 -22555 -74899 -20658 -39130 -23575 -22522 -21686 -15351 -20863 -8839 -19958 -4596 -13905

-83597 -28375 647137 43325 2534 17621 2242 9052 -1513 6158 -1214 4631 -1198 4596 -515 2975

-13022 -22555 43325 626479 -10755 -21041 -65847 -19444 -32972 -22377 -17891 -21171 -10755 -20863 -4631 -14476

-40129 -74899 2534 -10755 649379 52377 1020 23779 1028 13683 -2712 10755 -1729 8839 -1198 6500

Los coeficientes de la solución mínimo cuadrática quedarían:


β&o ,1 -20721,14907
β& 1,1 0,137708056
β&1, 2 0,000254003
β&1, 3 -0,001743429
β&1, 4 -0,00046199
β&1, 5 -0,000230558

En la tabla siguiente se recogen los resultados en términos de dominio de frecuencia y de tiempo

194
j/t Y& Yt β 0 ,i β 0 ,t β1,i β1,t e& et
1 67284 11295 -20721 -5180,29 0,137708056 0,03435348 0,00 -58,07
2 -1713 11564 0 -5180,29 0,000254003 0,03410096 0,17 213,32
3 -12668 12330 0 -5180,29 -0,00174343 0,03397314 1,49 -213,64
4 -2161 12741 0 -5180,29 -0,00046199 0,03394976 0,10 -85,52
5 -5694 13447 0 -5180,29 0 0,03397396 7,44 224,92
6 -2481 14292 0 -5180,29 0 0,03399631 -84,41 -90,19
7 -3058 15224 0 -5180,29 0 0,03400917 19,25 16,95
8 -2248 16280 0 -5180,29 0 0,0340503 -195,44 -75,36
9 -2083 17144 0 -5180,29 0 0,03417387 -59,87 135,03
10 -2157 17904 0 -5180,29 0 0,03440679 -28,32 -144,93
11 -1305 18834 0 -5180,29 0 0,03471786 -221,29 82,13
12 -2000 19834 0 -5180,29 0 0,03501998 69,51 -0,18
13 -890 20877 0 -5180,29 0 0,03520675 33,88 -49,51
14 -1920 21922 0 -5180,29 0 0,03520399 385,65 130,49
15 -408 22734 0 -5180,29 0 0,03500789 149,04 -185,84
16 -1342 22717 0 -5180,29 0 0,03468801 24,01 100,39

Con objeto de comprobar los resultados de la estimación, se calcula el periodograma de


eˆt = θ XX A' e& y su representación gráfica figura a continuación:
&&

Frecuencia Periodo ap bp Periodograma sj c0+j/m -c0+j/m


1 16 0,17 1,49 2,849786802 0,0000081 0,5583700 -0,3083700
2 8 0,10 7,44 70,54491094 0,0002080 0,6833700 -0,1833700
3 5 -84,41 19,25 9544,292064 0,0272526 0,8083700 -0,0583700
4 4 -195,44 -59,87 53196,21836 0,1779889 0,9333700 0,0666300
5 3 -28,32 -221,29 63368,80313 0,3575501 1,0583700 0,1916300
6 3 69,51 33,88 7612,459849 0,3791207 1,1833700 0,3166300
7 2 385,65 149,04 217645,6808 0,9958394 1,3083700 0,4416300
8 2 24,01 0,00 1468,320911 1,0000000 1,4333700 0,5666300

Figura 6.2 Periodograma de êt

195
Figura 6.3.- Periodograma acumulado de êt y bandas del test de Durbin.

Finalmente se representan las estimaciones del Consumo de consumo de energía final eléctrica,
en MCO y en el dominio de la frecuencia con coeficientes dependientes del tiempo:

Figura nº5. Estimaciones del Consumo de consumo de energía final eléctrica.

196
6.4. DESESTACIONALIZACIÓN A TRAVÉS DE LA
REGRESIÓN DEPENDIENTE DE LA FRECUENCIA
La regresión en el dominio de la frecuencia puede utilizarse para descomponer unas serie
temporal en sus componentes de tendencia, estacionalidad e irregular, de una serie temporal y t

de frecuencia b , o con b datos por intervalo de tiempo. Por ejemplo, una serie de frecuencia 7
sería una serie de datos diarios, y el intervalo temporal la semana, las frecuencias 4 y 12
indicarían series trimestrales y mensuales, en el periodo de tiempo de un año equivales.

π
Si la observación se toma a intervalos de tiempo ∆t , entonces la frecuencia angular es ω = .
∆t
ω 1
La frecuencia equivalente expresada en ciclos por unidad de tiempo es f = = ∆t .
2π 2
1
Cuando solo hay una observación por año, ω = π radianes por año o f = ciclos por año (un
2
ciclo por cada dos años), variaciones con una oscilación de un año tienen una frecuencia de
ω = 2π radianes por año o f = 1 ciclos por año.

Por ejemplo en una serie mensual de n = 100 datos, el ciclo estacional o las oscilaciones que
100
ocurren al cabo del año, tienen una frecuencia de f = = 8,33 ciclos por cada 100 datos.
12
Una serie mensual que completa 8 ciclos, al ser su menor frecuencia estacional 1 ciclo por año,
tendrá un total de 96 observaciones (8 ciclos), y los múltiplos enteros que también destacaran en
n 2n 3n
su periodograma corresponderán a las frecuencias f = , , ,... ; las oscilaciones de
12 12 12
tendencia o de baja frecuencia, las que ocurren con un ciclo inferior al año corresponderán a las
n
frecuencias f < .
12

Puede utilizarse (6.8) para estimar los coeficientes de Fourier de la serie temporal y t :

Y& = AI n AT β& + AI N AT u& (6.9)

o
Y& = AtI n AT β& + AI N AT u& (6.10)

En (6.9)

197
1 0 0 ... 0
 
0 1 0 ... 0
W = At I n A =  0
T
0 1 ... 0
 
. . . ... .
0 1 
 0 0 ...

Si queremos regresar sobre los cuatro primeros coeficientes, entonces:

1 0 0 0 0 ... 0
 
0 1 0 0 0 ... 0
0 0 1 0 0 ... 0
 
W * = At I n AT =  0 0 0 1 0 ... 0
0 0 0 0 0 ... 0 

. . . . . ... .
 
0 0 0 0 0 ... 0
2n
Las − 1 primeras filas de la matriz A son utilizadas para estimar los coeficientes de Fourier
12
2n
que corresponden a los ciclos de bajas frecuencias, los ciclos de tendencia, y las filas y
12
2n
+ 1 permiten regresar sobre los coeficientes de Fourier que dan lugar a oscilaciones de un
12
6n 6n 8n
ciclo en cada año, los múltiplos enteros de dicha frecuencia y + 1 , el ...deben de ser
12 12 12
utilizados para obtener la frecuencia estacional.

Ejemplo 1.2

Se realiza un ejercicio de descomponer en tendencia, estacionalidad e irregularidad por


regresión en dominio de frecuencia con coeficientes dependientes del tiempo el IPI base 2009
de Cantabria en R. Este procedimiento requiere cargar la librería “descomponer”.

> library (descomponer)

El índice de precios industriales de Cantabria se representa en la figura siguiente.

>data(ipi)

198
La función descomponer, requiere indicar la serie, la frecuencia de la serie temporal, el tipo de
ajustes , 1, si se quiere realizar un ajuste utilizando (6.9) o 2 si se desea realizar un ajuste
utilizando (6.10), y el numero de datos a proyectar.

La serie de tendencia y estacionalidad se denomina TDST y se obtiene realizando un regresión


en el dominio de la frecuencia, entre la serie y t y el índice temporal t ,en el que se filtran las

bajas frecuencias y las frecuencias estaciones y sus múltiplos absolutos. TD se calcula


realizando una regresión en el dominio de la frecuencia entre la serie y t y el índice temporal t

pero dejando pasar solo las bajas frecuencias. La serie estacional ST es TD menos TDST, y la
serie irregular IR resulta de restar TDST de y t (figure 8). El índice temporal t se obtiene a

través de un MCO entre el IPI y la línea de tendencia (1,2,3,...., n )' .

>desc1 <- descomponer(ipi,12,1,0)

> summary(desc1)
y TDST
Min. : 58.6 Min. : 69.11
1st Qu.: 94.5 1st Qu.: 96.32
Median :101.7 Median :102.55
Mean :101.8 Mean :101.77
3rd Qu.:110.0 3rd Qu.:108.56
Max. :129.7 Max. :123.98
TD ST
Min. : 90.88 Min. :-26.929130
1st Qu.: 97.15 1st Qu.: -1.375028
Median :100.35 Median : 1.901078
Mean :101.77 Mean : 0.000005
3rd Qu.:105.66 3rd Qu.: 6.090043
Max. :115.65 Max. : 11.248954
IR
Min. :-13.108033
1st Qu.: -4.199689
Median : -0.446392
Mean : 0.002388
3rd Qu.: 3.389198
Max. : 14.937375

La representación gráfica se realize con la función “gdescomponer”, que requiere además


indicar el año y el mes ó trimestre de inicio de la serie.

>gdescomponer(ipi,12,1,0,2002,1)

199
Para realizar una representación gráfica del periodograma de los residuos se invoca la función
“gperiodograma”.

> gperiodograma(desc1$IR)

Para realizar un test sobre la aleatoriedad de la serie irregular (IR) basado en el periodograma
acumulados puede utilizarse la función “cpgram”.

200
> cpgram(ts(desc1$IR,frequency=12))

6.1. PROBLEMAS

6.1 Partiendo de los siguentes datos

t y x
1 15,25 12
2 12,65 7
3 16,55 15
4 20,45 23
5 22,05 25
6 14,85 11

Se pide:

a) Transformar x e y en el dominio de la frecuencia.


b) Realizar una regresión band-spectrum de y frente a x
c) Realizar una regresión band-spectrum utilizando dummies para las frecuencias
altas (i=3) y las frecuencias bajas.

201
6.2 Utilizando los datos de la tabla anterior hacer una regresión en el dominio de la frecuencia
con parámetros dependientes del tiempo, dejando pasar la frecuencia correspondiente al primer
coseno.

6.3.- Estimar un modelo lineal en el dominio de la frecuencia con parámetros dependientes del
tiempo del tipo y& = β&0 + β&1 x& + β&&z& + e& t . Siendo z:

t z
1 5
2 2
3 2
4 4
5 1
6 1

6.4.- Descomponer utilizando la función R descomponer la serie co2.

SOLUCIONES

6.1
a)
i y x
1 41,559676 37,96709101
2 -6,20651539 -12,70170592
3 -3,85 -7
4 1,52997821 3,464101615
5 1,65 3
6 2,40866491 4,490731195

b)
y& = 9,1489 + 0,5044 x& + e& t
c)
y& = 9,1712 + 0,5029 D1 + 0,5117 D 2 + e& t

202
6.2.
β 0 ,i β 0 ,t β1,i β1,t
21,322274 8,70478192 1,31850568 0,560483
0 8,70478192 0,03846073 0,54938035
0 8,70478192 0 0,52717504
0 8,70478192 0 0,51607238
0 8,70478192 0 0,52717504
0 8,70478192 0 0,54938035

6.3.
y& = 24,782 + 1,235 x& − 2,123 z& + e& t
6.4. A realizar por el alumno

203
7. FILTROS LINEALES

7.1. INTRODUCCIÓN
Un filtro lineal se define como:

a( L) = ∑a L
j = −∞
j
j

donde los ponderadores son números reales, i. e. a j ∈ ℜ ; no dependen del tiempo y satisfacen

∑a
j = −∞
2
j < ∞ . Aplicando el filtro lineal a ( L) a un proceso estocástico estacionario, xt , da como

resultado un nuevo proceso estocástico:



y t = a ( L ) xt = ∑a
j = −∞
j xt − j (7.1)

donde las propiedades de xt se transmiten a y t por medio del filtro lineal a ( L) . Para

examinar el efecto que tiene un filtro lineal hay que analizarlo en el dominio de la frecuencia.
Utilizando la transformada de Fourier, se obtiene el espectro del filtro lineal aplicado a xt :
2
S y (ω ) = a (e −iω ) S x (ω )

( ) ∑a e

− iω j
donde: a e −iω = j .
j = −∞

es conocido como la respuesta de frecuencia del filtro lineal o función de transferencia. Esta
función describe como el espectro de la serie xt es afectado por la aplicación del filtro a ( L) .

Dado que la respuesta de frecuencia puede resultar en valores complejos resulta conveniente
expresarla como:
( )
a e −iω = G (ω )e −iF (ω )

 ∞ 
 − ∑ a j sin(ϖj ) 
Donde G (ω ) = a (e − iω ) , y F (ω ) = tan −1  ∞
j = −∞
 , son respectivamente el módulo
 
 ∑ a j cos(ϖj ) 
 j = −∞ 
y el argumento de la respuesta de frecuencia.

204
En este contexto el módulo, G (ω ) , es conocido como la ganancia del filtro; el cual determina la
medida en la que la amplitud de los movimientos observados en cierta frecuencia en el espectro
de xt son transferidos al espectro de y t . Por ejemplo una ganancia de cero alrededor de la

frecuencia ω1 ∈ [0, π ]1 significa que el proceso filtrado no mostrará movimientos alrededor de

dicha frecuencia.

Por su parte el argumento, F (ω ) , es conocido como el desplazamiento de fase del filtro, el


cual esta asociado a desplazamientos de la serie en el dominio del tiempo16. Es importante notar
que cuando a j = − a j para toda j , es decir cuando se trata de un filtro simétrico; el

desplazamiento de fase del filtro es igual a cero 17, i. e F (ω ) = 0 .

7.2. FILTROS ELEMENTALES

Los filtros más utilizados en el análisis de series temporales son las tasas de variación y las
medias móviles.

Las tasas de variación son operadores lineales invariantes en el tiempo pero no lineales. Dado
que la teoría elemental de los filtros se refiere a operadores lineales invariantes, hay que
aproximar las tasas a operadores de diferencia. Así la primera diferencia de un logaritmo es una
buena aproximación de una tasa de variación mensual.

( xt − xt −1 )
Sea T = , utilizando operadores de diferencia obtenemos el filtro lineal
xt
invariante más elemental:
a( L) Ln( xt ) = (1 − L) Ln( xt )

16
A veces el desplazamiento de fase se expresa como
F (ω ) , lo cual permite expresar el desfase en
ω
unidades de tiempo.
17
Para entender esta propiedad de los filtros lineales, se utilizan los siguientes resultados trigonométricos:
sin(−ω ) + sin(ω ) = 0
sin(0) = 0

Esto implica que cuando h j = −h j , el producto en ∑h
j = −∞
j sin(ωj ) (1) es igual a cero, lo cual a su vez

implica que
F (ω ) = 0 dado que tan −1 (0) = 0 .

205
Las aproximaciones lineales de las tasas más utilizadas y los filtros lineales equivalentes
aparecen en el tabla 7.1.

Una media móvil simple es la media aritmética de los n datos anteriores Mientras más grande
sea n, mayor será la influencia de los datos antiguos.

Las medias móviles centradas se caracterizan porque el número de observaciones que entran
en su cálculo es impar, asignándose cada media móvil a la observación central. Así, una media
móvil centrada en t de longitud 2n + 1 viene dada por la siguiente expresión:

1 n
x + xt − n +1 + ... + xt + ... + xt + n−1 + xt + n
MM (2n + 1) t = ∑
2n + 1 i = − n
xt + i = t − n
2n + 1

Como puede observarse, el subíndice asignado a la media móvil, t, es el mismo que el de la


observación central, Yt. Obsérvese también que, por construcción, no se pueden calcular las
medias móviles correspondientes a las n primeras y a las n últimas observaciones.

En las medias móviles asimétricas se asigna cada media móvil al período correspondiente a la
observación más adelantada de todas las que intervienen en su cálculo. Así la media móvil
asimétrica de n puntos asociada a la observación t tendrá la siguiente expresión:

1 t x + xt − n + 2 + ... + xt −1 + xt
MMA(n) t = ∑ Yt +i = t − n+1
n i =t − n +1 n

Los filtros lineales asociados a las medias móviles se denotan de la siguiente forma:
1 n j
a ( L ) xt = ∑ L xt
n j =0

206
Expresión Filtro lineal Equivalente
 xt 
12
 (1 − L)
1
T   − 1 ⋅ 100
1 xt −1 
 
 xt 
2
 (1 − L6 )
 − 1 ⋅ 100
1
T 
6 x
 t −6 

 x  − 1 ⋅ 100 (1 − L12 )
T  t
1
 
12 x
 t −12 

 z t 
12
 zt =
(xt + xt −1 + xt −2 ) (1 − L)(1 + L + L2 ) = (1 − L3 )
 − 1 ⋅ 100
3
T  3
1 z
 t −1 

 z  − 1 ⋅ 100
4 (xt + xt −1 + xt −2 ) (1 − L3 )(1 + L + L2 ) = (1 − L)(1 + L + L3 ) 2
T  t
3
 
zt =
3
3 z t −1 
 
 z  − 1 ⋅ 100
12
zt =
(xt + xt −1 + ... + xt −5 ) (1 − L)(1 + L + L2 + ... + L5 ) = (1 − L6 )
T  t
6
  6
1 z t −1 
 
 z (xt + xt −1 + ... + xt −11 ) (1 − L)(1 + L + L2 + ... + L11 ) = (1 − L12 )
 − 1 ⋅ 100
12
zt =
T  t
12
 
12
1 z t −1 
 
 z  − 1 ⋅ 100
12
zt =
(xt + xt −1 + ... + xt −11 ) (1 − L12 )(1 + L + L2 + ... + L11 ) = (1 − L )
12 2

T  t
12 (1 − L)
z t −12 
12  12
 
Fuente: Melis (1991)
Tabla 7.1.- Tasas de Variación y Filtros Lineales equivalentes

El método idóneo de análisis de filtros es el estudio de las correspondientes funciones de


respuesta frecuencial, que se obtienen al sustituir en la función de transferencia el operador de
retraso por la exponencial compleja e iϖt , de manera que obtenemos como salida la misma
función multiplicada por una expresión que ya no depende de t , que se denomina función de
respuesta frecuencial.

Si aplicamos una primera diferencia, por poner el ejemplo más simple, a la función
característica, obtenemos como salida:

a( L)e iϖt = (1 − L)e iϖt = (1 − e − iϖ )e iϖt = a(ϖ )e iϖt

207
La función de respuesta a (ϖ ) es una función compleja de la frecuencia cuyo módulo se conoce
como función de ganancia del filtro y cuyo argumento se denomina función de fase del filtro.

A partir de la función de respuesta de frecuencia de este filtro:

 e iϖ 2 − e −iϖ 2  = e −iϖ 2 2i sin  ϖ i (π −ϖ ) ϖ 


( ) (
a (ϖ ) = a e −iϖ = 1 − e −iϖ = e ) − iϖ
2
 

 = e 2 2 2 sin  
2  2


donde se ha hecho uso de la igualdad e 2
= 1 y del Teorema de Moivre18, se obtienen su
función de ganancia y de fase:

ϖ 
G (ω ) = 2 sin  
2
π ϖ
F (ω ) = −
2 2
π ϖ 
 − 
F (ϖ )  2 2  T − 2
El desfase temporal de este filtro = = , si se consideraϖ = 2π .
ϖ ϖ 4 T

1 n j
El operador de medias móviles a ( L) xt = ∑ L xt tiene la función de respuesta frecuencial
n j =0
siguiente:

(
a e −iϖ = ) 1
3
(
1 + e −iϖ + e − 2iω )
A partir de la respuesta de frecuencia del filtro:
1
3
( )1
3
( 1
3
)
1 + e −iω + e − 2iω = e −iω e iω + 1 + e −iω = e −iω (1 + 2 cos(ω ) )

se obtienen su ganancia19 y desplazamiento de fase:

G (ω ) =
1
(1 + 2 cos(ω ) )
3
F (ω ) = −ω
−ω
φ (ω ) = = −1
ω

18
e − iω = cos(ω ) − i sin(ω ) y e iω = cos(ω ) + i sin(ω )
19

( )
ya que e − iω e iω = 1 , e iω + e − iω = (2 cos(ω ) ) ,aplicando el teorema de De Moivre y las
igualdades sin( −ω ) = − sin(ω ) y cos(−ω ) = − cos(ω )

208
Ejemplo 7.1

Partimos de la serie xt = sin π ⋅ t ( 3


) y aplicamos el filtro lineal a( L) = 1 − L . El resultado se
ilustra en la siguiente figura:

0,5

0
1 3 5 7 9 11 13 15 17 19 21 23 25 27
-0,5

-1

Serie original Serie filtrada

La función de ganancia del filtro a ( L) = 1 − L es:

2
1,8
1,6
1,4
1,2
1
0,8
0,6
0,4
0,2
0
-0,36 0,14 0,64 1,14 1,64 2,14 2,64 3,14

1 2 j
Cuando aplicamos el filtro lineal a ( L) = ∑ L , el resultado obtenido es:
3 j =0

209
1

0,5

0
1 3 5 7 9 11 13 15 17 19 21 23 25 27
-0,5

-1

Serie original Serie filtrada

En el gráfico se observa que las oscilaciones de la serie filtrada son de amplitud menor a las de
la serie original, y que hay un desplazamiento de la serie filtrada con respecto a la original.

1 2 j
La función de ganancia del filtro a ( L) = ∑ L es:
3 j =0

1
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
-0,36 0,14 0,64 1,14 1,64 2,14 2,64 3,14

Se aprecia que la ganancia del filtro es igual a cero en la frecuencia ω = 2π . Esto significa
3
que el filtro anula el efecto de cualquier componente de la serie que tenga fluctuaciones con
periodo 3. Por ejemplo, si se trata de una serie de tiempo mensual el filtro eliminará cualquier
efecto trimestral presente en la serie.

210
F (ω )
Normalizando el desplazamiento de fase se obtiene que
ω = −1 . Esto significa que el
filtro introduce un desfase temporal de un periodo en la serie filtrada.

Las funciones de ganancia (modulo) fase y desfase de los principales filtros lineales figuran en
la Tabla 7.2.
Filtro Modulo Periodo de Fase Desfase
máxima ganancia temporal
para un
periodo
p
(1 − L) ( 2)
2 sin ω 2 π

ω p−2
2 2 4
(1 − L3 ) ( 2)
2 sin 3ω 6,2 π
−3
ω p−6
2 2 4
(1 − L6 ) (
2 sin 6 ω
2
) 12,4,24 π
−6
ω p − 12
2 2 4
(1 − L12 ) (
2 sin 12 ω
2
) 24,8,4.8,3.43,2.7,2.8 π
− 12
ω p − 24
2 2 4
(1 − L3 )(1 + L + L2 ) = (1 − L)(1 + L + L3 ) 2 ( 2)
2 sin 2 3ω 8 π
−5
ω p − 10

3 sin (ω )
2 2 4
2
(1 − L12 )(1 + L + L2 + ... + L11 ) = (1 − L ) 2 sin (12 ω ) π ω p − 46
12 2
2 32
(1 − L) 2 − 23
12 sin ( )
2 2 4
ω
2
Fuente: Melis (1991)
Tabla 7.2. Modulo, fase y desfase temporal de los filtros de la Tabla 7.1

7.3. FILTROS FIR

Las tasas y las medias móviles forman parte de lo que en señales digitales se denominan filtros
de respuesta impulsional finita (FIR), ya que se basan en obtener las salidas a partir,
exclusivamente, de las entradas actuales y anteriores. Generalizando, para un filtro lineal de
longitud N:
N −1
yt = ao xt + a1 xt −1 + ... + a N −1 xt − N +1 = ∑ a j xt − j
j =0

donde a j son los coeficientes del filtro.

211
Una media móvil de orden tres, sería entonces el siguiente filtro FIR:
1 1 1
yt = xt + xt −1 + xt − 2
3 3 3

Y una tasa de crecimiento:


y t = xt − xt −1

Los filtros FIR se clasifican según los siguientes tipos:

Tipo Número de términos Simetría


I Impar Simétrico a j = a N −1− j

II Par Simétrico a j = a N −1− j

III Impar Antisimétrico a j = − a N −1− j

IV Par Antisimétrico a j = − a N −1− j

La media móvil de orden tres es por tanto un filtro FIR tipo I, es decir simétrico de orden impar,
y la tasa de crecimiento sería un filtro FIR tipo IV, es decir antisimétrico de orden par.

La función de respuesta frecuencial de un filtro tipo I es20


N −1
N −1  2 −1 
( ) −iϖ
 2a cosϖ . N − 1 − j  + a 
∑
a e iw = e 2
j  N −1  
j =0  2   2 
 
 
Con lo que:
N −1
−1

 N −1 
2

G (ω ) == ∑ 2a
j =0
j cosϖ .
 2
− j  + a  N −1 
  2 

N −1
F (ϖ ) = −ϖ
2

( ) (
a e − iw = a o + a1e − iw + a 2 e −2iw + a 3 e −3iw + a 4 e −4iw + ... = )
 N −1   N −1   N −1   N −1 
20
− iw
N −1  N −1 iw  −1  iw  −2  iw  −3  iw  −4  
=e 2  a e iw 2 + a e  2  + a e  2  + a e  2  + a e  2  + .. 
 o 1 2 3 4

 
N −1 N −1 N −1 N −1 N −1 N −1 N −1 N −1
− iw iω iw −iw −iw iω − iw iω −iw
ya que e 2
e 2
=e 2 2
= e =1 y e
0 2
e 2
e =e
iw 2
e 2

212
1 1
Un filtro media movil de 3 términos (N=3), donde a 0 = y a  N −1  = a 2 = , tendrá entonces
3 
 2 
 3

las siguientes funciones de ganancia y fase:

G (ω ) = 2 cos(ϖ ) + y F (ϖ ) = −ϖ
1 1
3 3

Un filtro tipo II tiene la siguiente función de ganancia y fase:

N
−1

 N −1 
2

G (ω ) = ∑ 2a
j =0
j cosϖ .
 2
− j

N −1
F (ϖ ) = −ϖ
2
1
Un promedio móvil anual, es una tasa Tipo II, con doce coeficientes N=12 de valor a j = .
12
Con lo que:
12
−1
2
1  12 − 1 
G (ω ) = ∑ 2 12 cosϖ .
j =0 2
− j =

1   12 − 1   12 − 1   12 − 1   12 − 1   12 − 1   12 − 1 
= cosϖ  + cosϖ − 1 + cosϖ − 2  + cosϖ − 3  + cosϖ − 4  + cosϖ − 5  =
6  2   2   2   2   2   2 
1   11   9  7  5  3  1 
= cosϖ  + cosϖ  + cosϖ  + cosϖ  + cosϖ  + cosϖ 
6  2  2  2  2  2  2 

F (ϖ ) = −ϖ
11
.
2

Ejemplo 7.2

Partimos de la serie xt = sin π ⋅ t ( 3


)+ sin (π ⋅ t 12) y aplicamos el filtro lineal

1 11 j
a( L) = ∑L .
12 j = 0
El resultado se ilustra en la figura siguiente:

213
2,5
2
1,5
1
0,5
0
-0,5 1 3 5 7 9 111315171921232527293133353739414345474951
-1
-1,5
-2
-2,5

Serie original Serie filtrada

El promedio movil de 12 términos produce una salida en donde se promedian las oscilaciones
de periodo inferior a 12 “t”, si se tratara de datos mensuales, la función representada incluye

como se ve un ciclo de 6 meses que es el que generalmos con la función sin π ⋅ t ( 3


) y otro de 2
años (24 meses) que es el que generamos con la función sin π ⋅ t ( 12
), la serie filtrada elimina
las oscilaciones de 6 meses, que son las más frecuentes (en un conjunto de 50 datos dan lugar a
8 ciclos), las que más se dan, y nos presenta las de dos años, que son menos frecuentes que las
anteriores (dos ciclos en el conjunto de datos representado). El promedio móvil de 12 términos
es por tanto un filtro desestacionalizador, en el sentido de que anula las oscilaciones
estacionales, es decir la que tienen lugar al cabo de un año.

1 11 j
La función de ganancia del filtro a ( L) = ∑ L es:
12 j = 0

214
1,2

0,8

0,6

0,4

0,2

0
-0,86 0,14 1,14 2,14 3,14

La ganancia del filtro es igual a cero en la frecuencia ω = 2π , 2π , 2π , 2π . Esto


12 6 4 3
significa que el filtro anula el efecto de cualquier componente de la serie que tenga
fluctuaciones con periodo 12, 6, 4 ó 3. Por ejemplo, si se trata de una serie de tiempo mensual el
filtro eliminará cualquier oscilación cuatrimestral, semestral o anual presente en la serie.
F (ω )
Normalizando el desplazamiento de fase se obtiene que
ω = −5,5 . Esto significa que el
filtro introduce un desfase temporal de 5,5 meses en la serie filtrada.

Un filtro tipo III tiene a su vez la siguiente función de ganancia y fase:

N −1
−1

 N −1 
2

G (ω ) = ∑ 2a
j =0
j sin ϖ .
 2
− j

π N −1
F (ϖ ) = −ϖ
2 2
Y un filtro tipo IV tiene la siguiente función de ganancia y fase:
N
−1

 N −1 
2

G (ω ) == ∑ 2a
j =0
j sin ϖ .
 2
− j

π N −1
F (ϖ ) = −ϖ
2 2

215
La tasa de crecimiento trimestral a ( L) = 1 − L3 sería un filtro tipo IV, de 4 coeficientes (N=4),

con los siguientes valores a 0 = 1 , a1 = 0 , a 2 = 0 y a 3 = −1 . Su función de ganancia se

calcularía:

4
−1
2
 4 −1    4 −1  4 − 1   3
G (ω ) = ∑ 2a j sin ϖ .

− j  == 2 1 sin ϖ
 
 + 0. cosϖ
 
− 1 == 2 sin ϖ 
  2
j =0 2  2 2

π
Su función de desfase será F (ϖ ) = −ϖ
2

La tasa de crecimiento interanual a ( L) = 1 − L12 sería un filtro tipo III, de 13 coeficientes

(N=13), con los siguientes valores a 0 = 1 , a1 ...a11 = 0 y a12 = −1 . Su función de ganancia se

calcularía:

13 −1
−1
2
 13 − 1 
G (ω ) = ∑j =0
2a j sin ϖ .
 2
− j =

  13 − 1   13 − 1   13 − 1   13 − 1   13 − 1   13 − 1  
= 21sin ϖ  + 0. cosϖ − 1 + 0 sin ϖ − 2  + 0 sin ϖ − 3  + 0 sin ϖ − 4  + 0 sin ϖ − 5  =
  2   2   2   2   2   2 
 12 
= 2 sin ϖ 
 2
π
y su función de desfase F (ϖ ) =
12
−ϖ
2 2

7.4. EL FILTRO COMO PRODUCTO DE CONVOLUCIÓN

Sean y y z dos vectores de dimensión N. Se define su producto de convolución y ∗ z ; como


el vector:

 z 0 y 0 + z1 y N −1 + z 2 y N −2 + ... + z N − 2 y 2 + z N −1 y1 
 z y + z y + z y + ... + z y + z y 
 0 1 1 0 2 N −1 N −2 3 N −1 2 
 z 0 y 2 + z1 y1 + z 2 y 0 + ... + z N −2 y 4 + z N −1 y 3 
y∗z =  
 . 
 z 0 y N −2 + z1 y N −3 + z 2 y N −4 + ... + z N − 2 y 0 + z N −1 y N −1 
 
 z 0 y N −1 + z1 y N −2 + z 2 y N −3 + ... + z N −2 y1 + z N −1 y 0 

216
El producto de convolución se puede expresar de forma matricial:

 yo y N −1 y N −2 . y2 y1   z o 
 y yo y N −1 . y2 y 2   z1 
 1
 y y1 yo . y4 y3   z 3 
y∗z =  2 ⋅ 
 . . . . . .   . 
 y N −2 y N −3 y N −4 . y0 y N −1   z N − 2 
   
 y N −1 y N −2 y N −3 . y1 y 0   z N −1 

La matriz cuadrada del producto de convulsión recibe el nombre de matriz circulante ya que los
elementos de la primera columna van rotando su posición en las columnas sucesivas.
La transformada discreta de Fourier del producto de convolución de y ∗ z es el producto de
Hadamard de las correspondientes transformadas de y y de z :

DFT ( y ∗ z ) = DFT ( y ) ⋅ DFT ( z )

Una forma de calcular y ∗ z es a traves de la multiplicación coordenada a coordenada de las

transformadas de y y de z ; obteniendo la transformada inversa de este vector ( DFT ( y ∗ z ) ).


Filtrar una serie puede entenderse como el producto de una convolución; así por ejemplo al
emplear el filtro lineal (1 − L) se realizaría el siguiente producto de convolución:

− 1 1 0 . 0 0   zo 
 0 −1 1
 . 0 0   z1 
 0 0 −1 . 0 0   z3 
y∗z =  ⋅ 
 . . . . . .   . 
0 0 0 . − 1 1   z N −2 
   
 1 0 0 . 0 − 1  z N −1 

donde el vector y sería

217
− 1
0
 
0
y= 
0
0
 
 1 
Una media móvil centrada de tres términos se expresaría por el siguiente producto de
convolución:
1 1 1 . 0 0  z 
 3 3 3  o

0 1 1 . 0 0   z1 
 3 3   
0 0 1 . 0 0   z3 
y∗z =  3 ⋅ 
 . . . . . .   . 
 
 13 0 0 . 1 1   z N −2 
3 3  
1 1 1   z N −1 
 3 0 . 0
3 3 
donde el vector y sería:

1 
 3
0
0
y= 
 . 
1 
 3
1 
 3

Para obtener los gráficos de las funciones de ganancia y desfase utilizando la transformada
discreta de Fourier, se emplean las siguientes expresiones:

G ( w) = R(ϖ ) + I (ϖ )

 − I (ϖ ) 
F (ω ) = tan −1  
 R(ϖ ) 

Centrar el filtro equivale a realizar la siguiente multiplicación matricial

218
1 1 1 . 0 0  z 
 3 3 3  o

 0 13 1 . 0 0   z1 
 3   
0 0 1 . 0 0   z3 
y∗z =  3 ⋅ 
 . . . . . .   . 
 
0 0 0 . 1 0   z N −2 

3  
0 . 1 1   z N −1 
 0 0
3 3 
[(N − 2) × 1] = [(N − 2 ) × N ] × [N × 1]

Es decir habría que eliminar las dos últimas filas de la matriz que desarrolla el filtro lineal.

Ejemplo 7.3

Utilizando R vamos a filtrar la serie.


> t <- seq(0, 49, by=1)
> Z <- sin(pi*t/3)+sin(pi*t/12)

Representamos la serie temporal creada

> plot.ts (Z, type="l")

Obtenesmos la transformada de Fourier:


> z <- fft(Z)

219
Aplicamos un filtro de media móvil de 12 términos a la serie z y la representamos :

> Y <- c(1/12, rep(0, 38), rep(1/12,11))


> Y
[1] 0.08333333 0.00000000 0.00000000 0.00000000
[5] 0.00000000 0.00000000 0.00000000 0.00000000
[9] 0.00000000 0.00000000 0.00000000 0.00000000
[13] 0.00000000 0.00000000 0.00000000 0.00000000
[17] 0.00000000 0.00000000 0.00000000 0.00000000
[21] 0.00000000 0.00000000 0.00000000 0.00000000
[25] 0.00000000 0.00000000 0.00000000 0.00000000
[29] 0.00000000 0.00000000 0.00000000 0.00000000
[33] 0.00000000 0.00000000 0.00000000 0.00000000
[37] 0.00000000 0.00000000 0.00000000 0.08333333
[41] 0.08333333 0.08333333 0.08333333 0.08333333
[45] 0.08333333 0.08333333 0.08333333 0.08333333
[49] 0.08333333 0.08333333
>

>y <- fft(Y)


>X <- fft(y*z,inverse=TRUE)/50
> plot.ts (X[1 :39], type="l")
0.2 0.4 0.6
MVZ[1:39]

-0.2
-0.6

0 10 20 30 40

Time

Obtenemos la función de ganancia del filtro y la representamos:

>GW = abs(y)
>P = GW[1:25]
>f = (0:24)*pi/25
>plot(f, P, type="l")

220
1.0
0.8
0.6
P

0.4
0.2
0.0

0.0 0.5 1.0 1.5 2.0 2.5 3.0

La instrucción en R para filtrar series es:

> convolve(x, y, conj = TRUE, type = c("circular", "open", "filter"))

De tal manera que el filtrado de una serie por una media móvil de 12 términos centrada con R se
realizaría de la siguiente manera:
>Y <- c(rep(1,12))/12
>X <- convolve(Z,Y,type="filter")
>plot (t [6:44], Z[6:44], main="Filtro MM12 utilizando convolve(.)" )
>lines(t[6:44], X, col="red")

221
Filtro MM12 utilizando convolve(.)
1
Z[6:44]

0
-1

10 20 30 40

t[6:44]

Los filtros pueden ser aplicados en serie, por ejemplo la tasa media de crecimiento trimestral
(1 − L3 )(1 + L + L2 ) , sería la multiplicación matricial de

1 1 1 
3  − 1 1
0 . 0 0 . 0 0   zo 
 3 3
 0 1 3 13 . 0 0  0 −1 1 . 0 0   z1 
  
0 0 1 . 0 0   0 0 −1 . 0 0   z3 
x × ( y × z) = ( x × y) × z =  3 × × =
 . . . . . .   . . . . . .   . 
 
 13 0 0 . 1 1  0 0 0 . − 1 1   z N −2 
1
3 3    
1 0 . 0 1   1 0 0 . 0 − 1  z N −1 
 3 3 3 
− 1 0 0 −1 . 0   z 
 3 3  o

 0 1 0 0 . 0   z1 
 . 3 
 . . . . 0   z 3 
×
 1 0 0 0 . 0   . 
 3 
 0 1 0 0 . 0   z N −2 

3  
0 0 1 0 . − 1   z N −1 
 3 3 

Utilizando la transformada discreta de Fourier, el filtro se desarrollaría:


DFT (x × y × z ) = DFT ( x) × DFT ( y ) × DFT ( z )

222
siendo
− 1
0
 
0
y= 
0
0
 
 1 
1 
 3
0
0
x= 
 . 
1 
 3
1 
 3
O bien, DFT (x × y × z ) = DFT ( x × y ) × DFT ( z ) .
siendo

− 1 
 3
 0 
 . 
x= 
 13 
 0 
 
 0 

Ejemplo 7.3

Aplicamos un filtro de diferencia regular para la serie Z del ejemplo 7.2:


> Y <- c(-1, rep(0, 48), 1)
> Y
[1] -1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
[18] 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
[35] 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1

> y <- fft(Y)


> MVZ <- fft(y*z,inverse=TRUE)/50

223
A continuación diseñamos un filtro de media movil de 3 términos, para obtene un filtro
multiplicativo en el que uno de sus múltiplos es el filtro z antes construido.

>X <- c(1/3, rep(0, 47), rep(1/3,2))


> X
[1] 0.3333333 0.0000000 0.0000000 0.0000000 0.0000000
[6] 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000
[11] 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000
[16] 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000
[21] 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000
[26] 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000
[31] 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000
[36] 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000
[41] 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000
[46] 0.0000000 0.0000000 0.0000000 0.3333333 0.3333333
>x <- fft(Y)
>MVZ <- fft(x*y*z,inverse=TRUE)/50
>plot.ts (MVZ[1 :39], type="l")

224
1.0
0.5
MVZ[1:39]

0.0
-0.5
-1.0

0 10 20 30 40

Time

7.5. DESCOMPOSICIÓN DE SERIES DE TIEMPO


MEDIANTE FILTROS LINEALES.

Dada una serie temporal expresada en forma de serie de fourier, el modelo básico de tendencia
sería:
Tt = a ot cos(0 ⋅ t ) + bot sin(0 ⋅ t ) = aot

donde las componentes cíclica y estacional es, stωj = a jt cos(ω j ⋅ t ) + b jt sin(ω j ⋅ t ) , y la

componente irregular, et .

El modelo completo de dicha serie temporal tiene la siguiente representación:

[ ]
R
Yt = ∑ a jt cos(ω j ⋅ t ) + b jt sin(ω j ⋅ t ) + et
j =0

Vista así una serie temporal utilizar la teoría de filtros lineales para describir los componentes
de una serie temporal.

225
Ejemplo 7.4

π ⋅t  π ⋅t 
Generamos la serie temporal Yt = 2 + 0,25 cos  + 0,50 cos  + et donde et es una
 3   12 
distribución normal de números aleatorios con media cero y varianza 0,25 et → N (0;0,25) .

La representación gráfica de esta serie sería:

4,5 1
4 0,8
3,5 0,6
3 0,4
2,5 0,2
2 0
1,5 -0,2
1 -0,4
0,5 -0,6
0 -0,8
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49

Serie temporal Ciclo

Se aprecia que la serie temporal sigue el perfil del ciclo creado, si bien difiere de este en el
mayor nivel que introduce la tendencia (de valor constante igual a 2), y la mayor irregularidad
que le incorpora de la serie aleatoria. El ciclo como se aprecia es un ciclo largo de 24 datos
(periodo 24) (de máximo a máximo), que tiene lugar dos veces al cabo de los 50 datos, y un
ciclo corto o más frecuente ya que se repite unas 8 veces a los largo del conjunto de datos, y que
tiene lugar cada 6 datos (periodo 6).

Pretendemos ahora extraer las señales relevantes de la serie, en este caso serían los dos ciclos a
través de filtros lineales, si queremos representar el ciclo largo tenemos varias posibilidades de
filtros la media móvil de 12 términos que anulan las siguientes frecuencias
1 5 j
ω = 2π 12 , 2π 6 , 2π 4 , 2π 3 , ó una media móvil de 6 datos, a( L) = ∑ L que anularía las
6 j =0

frecuencias ω = 2π , 2π , y cuya función de ganancia sería:


6 3

226
6
−1
2
1  6 −1 
G (ω ) = ∑ 2 6 cosϖ .
j =0 2
− j =

1   6 − 1  6 −1   6 −1 
=  cosϖ  + cosϖ − 1 + cosϖ − 2  =
3  2   2   2 
1   5  3  1 
= cosϖ  + cosϖ  + cosϖ  
3   2   2   2 

1,2

0,8

0,6

0,4

0,2

0
-0,36 0,14 0,64 1,14 1,64 2,14 2,64 3,14

El desfase de la media móvil de 12 datos sabemos que es de -5,5 y la de 6 términos:


6 −1
−ϖ
F (ϖ ) 2 = −2,5 . En los resultados gráficos se aprecia que una y otra nos representan
=
w w
el ciclo largo pero la media móvil de 12 términos con un coste informativo menor:

227
4,5
4
3,5
3
2,5
2
1,5
1
0,5
0
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49

Serie temporal MV(12)

4,5
4
3,5
3
2,5
2
1,5
1
0,5
0
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49

Serie temporal MV(6)

El menor coste informativo de la media móvil de 6 términos la hace más deseable para extraer
en este caso el ciclo de periodo 24 que la media móvil de 12 datos.

La media móvil de 3 datos, cuya función de ganancia también hemos representado

anteriormente iguala a cero la frecuencia ω = 2π , es decir las que tienen lugar cada 3 datos
3
(periodo 3), que nosotros no tenemos y atenúa sin anularlas completamente las de menor
periodo, es decir el efecto de esta media móvil a nuestro conjunto de datos es anular las
frecuencias más altas, es decir las oscilaciones que más veces se dan, que en este caso las que
induce la serie aleatoria irregular y dejar pasar las de periodo superior a tres. El resultado
gráfico de utilizar esta media móvil es el siguiente:

228
4,5
4
3,5
3
2,5
2
1,5
1
0,5
0
1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46 49

Serie temporal MV(3)

Como vemos ahora el filtro deja pasar la tendencia y los dos ciclos que forman la serie, el de 24
datos y el de 6 datos.

Todos los filtros que hemos utilizado tienen en la función de ganancia un uno en las muy bajas
frecuencias, esto quiere decir que dejan pasar los ciclos de muy largo plazo, esto es las
tendencias, y por el contrario atenúan cuando no anulan las mas altas frecuencias, por ello en su
salida las tres medias móviles ha suavizado las oscilaciones irregulares, que persisten en la serie
pero muy atenuadas.

El filtro, yt = xt − xt −3 = (1 − L3 ) xt , tiene el efecto contrario, ya que su función de ganancia

es, G (ϖ ) = 2 sin 3 ω( 2) .
2,5

1,5

0,5

0
-0,36 0,14 0,64 1,14 1,64 2,14 2,64 3,14

229
En la representación gráfica vemos que el filtro anula las oscilaciones de baja frecuencia, es
decir, las tendencias, y anula únicamente oscilaciones las que tienen lugar cada tres datos,
dejando pasar las de mayor frecuencia. El efecto de este filtro sobre nuestro conjunto de datos
sería el siguiente:

0
1

15

22

29

36

43

50
-1

-2

-3

Serie temporal T(3,1)

Como se aprecia el filtro ha eliminado la tendencia de la serie, ya que la ha centrando la serie en


cero y ha dejado pasar su perfil más irregular. En consecuencia a partir de la función de
ganancia se podría construir un filtro lineal a nuestros datos que dejara pasar ó anulara la
componente deseada.

7.6. TIPOS DE FILTROS

En la literatura de proceso de señales digitales, los filtros como la media movíl de orden 2

 1 2 
 a ( L) = (1 + L )  se conocen como filtros de corte (notch filter), son aquellos que
 2 
contienen uno o más profundos cortes o muescas en su función de ganancia. Este en concreto

anula las frecuencias de periodo 4 ω = 2π ( 4


), siendo su función de ganancia la que se
representa en el gráfico siguiente:

230
3 −1
−1
 3 −1   3 −1  1
− 0  = cos(ϖ ) , ya que a 0 = y a  3−1  = 0 ,
2
1
G (ω ) = ∑ 2 2 cosϖ .
j =0 2
− j  + 0 = cosϖ
  2  2  
 2 

1
y a2 =
2

1
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
-0,36 0,14 0,64 1,14 1,64 2,14 2,64 3,14

Si el filtro introduce ceros uniformemente espaciados en el eje de frecuencias, como el sumador


1 5 j
estacional se denominan filtros en peine (comb filters). Los filtros a ( L) = ∑L y
6 j =0

1 11 j
a( L) = ∑ L , son filtros de peine, en los que se introduce un cero en el período p
12 j =0
(frecuencia 2π/p).

1
El operador autoregresivo a ( L) = , equivale a una media móvil de ∞ términos; cuyo
(1 − L)
1
desarrollo sería : a ( L) = 1 + L + L2 + ...L∞ . La función de ganancia del filtro a ( L) = ,
(1 − L)

sería G (ω ) = 1 , (ver Tabla nºIV.2). Un operador autoregresivo de la forma


ϖ 
2 sin 
2

1
a( L) = , se desarrolla en el siguiente proceso de medias móviles
(1 + L2 )

a( L) = 1 − L2 + L4 − L6 ...L∞ , y tendría una función de ganancia del tipo : G (ω ) = 1 .


2 cos(ϖ )

Este filtro se comporta de forma opuesta a a ( L) = 1 + L2 , acentuando las oscilaciones de cuatro

231
meses. La ganancia del filtro es muy pequeña salvo en las proximidades del cero estacional, en
donde crece muy rápidamente, como puede verse en el Gráfico siguiente.

100
90
80
70
60
50
40
30
20
10
0
0 0,5 1 1,5 2 2,5 3 3,5

Los filtros pueden estar constituidos por un operador autoregresivo y una media media móvil,

(1 − L4 )
a( L) = , es un ejemplo de este tipo de filtros, y cuando lo desarrollamos, obtenemos
(1 − L)
el siguiente filtro lineal:
(1 − L4 )
a( L) = = (1 − L4 )(1 + L + L2 + ... + L∞ ) = (1 + L + L2 + ... + L∞ ) − ( L4 + L5 + L6 + ... + L∞ ) =
(1 − L)
= (1 + L + L2 + L3 )

4
−1
2
 4 −1   3ϖ  ϖ 
Cuya función de ganancia es G (ω ) = ∑ 2 cosϖ .
j =0 2
− j  = 2 cos
  2 
 + 2 cos  , otra
2

 4ϖ 
sin 
forma alternativa de obtener esta función de ganancia es G (ω ) =  2  , que se obtendría
ϖ 
sin 
2

dividiendo las funciones de ganancia de ambos filtros 2 ⋅ sin 4ϖ  y 2 ⋅ sin ϖ  .


 2  2

232
4

3,5
3

2,5
2
1,5

1
0,5

0
-0,36 0,14 0,64 1,14 1,64 2,14 2,64 3,14

1
Si el operador autorregresivos es de la forma a ( L) = , el filtro lineal que lo desarrolla
(1 − aL)
es a ( L) = 1 + aL + a 2 L2 + ...a ∞ L∞ , si a < 1 ,la potencia a ∞ llegará un punto en que acercara a
cero y el filtro podrá desarrollarse en términos finitos, expresado en su forma más general un
1
filtro autoregresivo toma la forma de α ( L) = M −1
;de igual manera el operador de medias
∑α
j =0
j L j

N −1
móviles se expresa en la forma mas general como β ( L) = ∑β
j =0
j L j , y en consecuencia un filtro

ARMA(M,N) daría lugar a la siguiente expresión:


N −1

∑β
j =0
j Lj
a( L) = M −1
.
∑α
j =0
j L j

Ejemplo 7.5.

El modelo ARMA(1,1), (1 − 0,5L )Yt = (1 − 0,8)et da lugar al siguiente filtro

1 − 0,8L
a( L) = et , su linearización sería
1 − 0,5L

233
( )
Yt = (1 − 0,8) + 0,5(1 − 0,8) L + 0,5 2 (1 − 0,8) L2 + 0,5 3 (1 − 0,8) L3 + ... ⋅ et =
= (0,2 + 0,1L + 0,05L2 + 0,0125L3 + 0,00078125L4 + 3,05 ⋅ 10 −6 L4 + ...).et

Haciendo N=4, el filtro quedaría

 0,2 0,1 0,05 0,0125 0,00078125 0 . 0   zo 


 0 0,2 0,1 0,05 0,0125 0,00078125 . 0   
   z1 
 0. 0 0,2 0,1 0,05 0,0125 . 0.   z 
  3
. . . . . . . .   . 
y∗z= ⋅ 
0,00078125 0 0 0 0 0 . 0,0125  . 
 
 0,0125 0,00078125 0 0 0 0 . 0,05   . 
 
 0,05 0,0125 0,00078125 0 0 0 . 0,1   z N − 2 
   
 0,1 0,05 0,0125 0,00078125 0 0 . 0,2   z N −1 

En donde el vector y sería

 0,2 
 0 
 
 . 
y=  0, 00078125 
 0,0125 
 
 0,05 
 
 0,1 

Utilizando R, construimos el filtro, representamos su función de ganancia.

> Y <- c(0.2, rep(0, 45), 0.00078125, 0.0125,0.05, 0.1)


> y <- fft(Y)
> GW = abs(y)
> P = GW[1:25]
> f = (0:24)*pi/25
> plot(f, P, type="l")

234
0.35
0.30
0.25
P

0.20
0.15

0.0 0.5 1.0 1.5 2.0 2.5 3.0

El filtro diseñado atenúa las altas frecuencias y deja pasar las bajas frecuencias. Este tipo de
filtros se denominan de paso bajo.

7.7. DISEÑO DE FILTROS

Los filtros digitales se aplican usualmente en el dominio del tiempo convolucionando el dato
con los coeficientes del filtro, pero también pueden diseñarse en el dominio de las
frecuencias.

Existen varias estrategias para el diseño de filtros. En general se busca reproducir, de la manera
más precisa posible con un número predeterminado de coeficientes, la respuesta en frecuencia
(espectro) deseada del filtro. Una vez diseñado el espectro del filtro a través del cálculo de la
Transformada de Fourier Inversa se obtendrían los coeficientes. Dado que no es posible obtener
un filtro de longitud finita que se ajuste en forma exacta al espectro deseado, es en este punto
donde entran en juego diversas estrategias que buscan obtener un filtro lo más aproximado al
efecto que de el se desea. La longitud del filtro es, entonces, uno de los elementos más
importantes a tener en cuenta. Por razones prácticas, cuanto más corta es la respuesta impulsiva
del filtro, mejor, pero un filtro muy corto puede producir efectos indeseados en las frecuencias
cercanas a la que pretendemos atenuar, en tanto que un filtro muy largo, si bien se aproxima

235
más a la respuesta en frecuencias deseada, presenta como desventaja los desfases o su tiempo de
respuesta. El uso de ventanas apropiadas para truncar la respuesta impulsiva convenientemente
es una técnica muy usual. Otra técnica consiste en modificar iterativamente los coeficientes del
filtro obtenidos hasta satisfacer el espectro de frecuencia deseado. Y en el dominio de las
frecuencias existen métodos basados en digitalizar funciones racionales de la frecuencia (filtros
de Chebyshev, Butterworth, elípticos, etc.).

El uso de ventanas (“window carpentry”), surgió hace ya tres décadas y consiste en toda una
batería de métodos y ventanas especialmente diseñadas para obtener un filtro “ideal”. Cada
ventana tiene sus propias características en el sentido que producen filtros con determinadas
propiedades en la banda de paso, de rechazo y/o de transición. Entre las ventanas más conocidas
podemos mencionar: triangular (Bartlet), Hamming, Hanning, Parzen, Daniell, etc., siendo la de
Hamming una de las más utilizadas.

Consideremos la ventana mas sencilla; la ventana rectangular. La ventana se define como:


1 0 ≤ n ≤ N − 1
ϖ ( n) 
 0 n≥N
su expresión en el dominio e − iϖ es:

1 − e − i ϖN
( )
a e iϖ = 1 + e −iϖ + ... + e −iϖ ( N −2 ) + e −iϖN =
1 − e −iϖ

236
con lo que su respuesta en frecuencia resulta,

 Nϖ 
 N −1  sin  
( )
−iϖ 
a e iϖ = e  2 

 2 
ϖ 
sin  
2
 Nϖ 
sin  
 2   N −1
Su función de ganancia sería G (W ) = y su desfase −  
ϖ   2 
sin  
2

Una ventana rectangular o boxcar, tiene el efecto de una media móvil, por ejemplo una media

ω = 2π 3 ω = 2π 6
móvil de 6 términos es igual a cero las frecuencia y y deja pasar la
oscilaciones o ciclo de frecuencia más baja y atenúa relativamene las de frecuencia más alta, y
2π 2π
las intermedias entre 3 y 6 .

La ventana de Hanning por ejemplo, para N=6 da lugar a los siguientes coeficientes :

1  2π ⋅ n  
ϖ (n) = 1 − cos  
2  N −1 

ϖ (0) =
1
(1 − cos(0)) = 0
2
1  2π  
ϖ (1) = 1 − cos   = 0,5
2  5 
1  4π 
ϖ (2) = 1 − cos   = 1,5
2  5 
1  6π 
ϖ (3) = 1 − cos   = 2
2  5 
1  8π 
ϖ (4) = 1 − cos   = 1,5
2  5 
1  10π 
ϖ (5) = 1 − cos   = 0,5
2  6 
1  12π 
ϖ (6) = 1 − cos   = 0
2  6 

237
su expresión en el dominio e − iϖ es:
( )
a e iϖ = 0 + 0,5e −iϖ + 1,5e −2iϖ + 2e −3iw + 1,5e −4iϖ + 0,5e −4iϖ + 0e −5iϖ
Se trata de un filtro FIR simétrico impar (tipo I), que daría lugar a la siguiente respuesta en
frecuencia:
N −1
N −1  2 −1 
( ) − iϖ
 2a cos w. N − 1 − j  + a 
∑
a e iϖ = e 2
 N −1 
  2  
j
j =0  2
 

( )
a e iϖ = e −i 3ϖ (cos(2ϖ ) + 3 ⋅ cos(ϖ ) + 2)
Es decir tendría un desfase de -2 periodos y una función de ganancia de G (ϖ ) = (cos(2ϖ ) + 1)

 N −1
y un desfase de −   = −3
 2 
La representación de la función de ganancia es:

1,2

0,8

0,6

0,4

0,2

0
0 0,5 1 1,5 2 2,5 3 3,5

Se comprueba que el filtro atenúa considerablemente las altas frecuencias, las que superan los

3.

El método de las ventanas se basa en truncar la respuesta impulsional infinita de un filtro ideal.
Como el producto en el dominio del tiempo equivale a una convolución en el dominio de la
frecuencia, podemos estudiar el efecto que este enventanado tiene sobre la respuesta frecuencial
del filtro:

238
La convolución de una ventana boxcar y una ventana de Hanning ambas con N=6, da lugar a
una función de ganancia que se obtendría multiplicando punto a punto las funciones de ganancia
calculadas para la media móvil de 6 términos y la ventana de Hanning (6):

Da lugar a un filtro en el que ahora están considerablemente atenuadas las oscilaciones de

periodo superior a 6 datos, o las frecuencias más altas a 2π .


6
El desarrollo lineal del filtro lo resolvemos con el operador de retardos:

( )(
a( L) = 1 + L2 + L3 + L4 + L5 + L6 0 + 0,5L + 1,5L2 + 2 L3 + 1,5L4 + 0,5L5 + 0 L6 )

239
Que una vez operado da lugar al siguiente filtro FIR tipo II:

(
a( L) = 0 + 0,5L + 2 L2 + 4 L3 + 5,5L4 + 6 L5 + 6 L6 + 5,5L7 + 4 L8 + 2 L9 + 0,5L10 + 0 L10 )

Cuya función de ganancia también puede calcularse como:

 9  7  5  3   1 
G ( w) =  cos w  + 4 ⋅ cos w  + 8 ⋅ cos w  + 11 ⋅ cos w  + 12 ⋅ cos w  
 2  2  2  2   2 

Ejemplo 7.6
π ⋅t  π ⋅t  e
Generamos la serie temporal Yt = sin   + sin   + et donde t es una distribución
 3   12 
normal de números aleatorios con media cero y varianza 0,25 et → N (0;0,25) . Esta serie

genera como vemos en la gráfica ciclos de periodo 24 y de periodo 6, y la irregularidad que


introduce el error aleatorio incorporado.

En la representación gráfica de la serie se puede comprobar los efectos de las ventanas boxcar21,
la ventana Hanning, y la convolución de ambas, en la convolución se puede apreciar como se ha
eliminado las pequeñas oscilaciones que presentaba la media móvil de 6 términos, quedando
prácticamente aisladas las oscilaciones de periodo 24:

21
Para reducir la amplitud de las ventanas hay que dividir por 6 la boxcar y la ventan Hanning, y
consecuentemente por 36 la convolución de las dos ventanas.

240
Los filtros de Butterworth, de Chebyshev (tipo I y tipo II) y de Jacobi (elípticos), son filtros RC
analógicos cuya respuesta en frecuencia es bien conocida y ajustable de acuerdo a la selección
apropiada de sus componentes. Su características es que los espectros de potencia de estos
filtros se pueden expresar como funciones racionales de ω, lo que permite, en principio, su
factorización.

No obstante diseñar filtros es una tarea compleja que requiere el uso de software matemático y
un buen conocimiento de la teoría de filtros digitales. En general requiere tres pasos:
• Establecer las especificaciones del filtro para unas determinadas prestaciones
(frecuencias de paso, atenuaciones, ganancias, etc…)
• Determinar la función de transferencia que cumpla dichas especificaciones
• Realizar la función de transferencia con el software estadístico utilizado

Ejemplo 7.7

El paquete Signal de R, ofrece diversas utilidades para el diseño de filtros, está disponible en
CRAN-R / http://cran.r-project.org/web/packages/signal/index.html), su manual se descarga en
: http://cran.r-project.org/web/packages/signal/signal.pdf

En primer lugar vamos a realizar una representación gráfica de las ventanas más usuales:

>n <- 51
>op <- par(mfrow = c(3,3))
>plot(bartlett(n), type = "l", ylim = c(0,1))
>plot(blackman(n), type = "l", ylim = c(0,1))
>plot(boxcar(n), type = "l", ylim = c(0,1))
>plot(flattopwin(n), type = "l", ylim = c(0,1))
>plot(gausswin(n, 5), type = "l", ylim = c(0,1))
>plot(hanning(n), type = "l", ylim = c(0,1))
>plot(hamming(n), type = "l", ylim = c(0,1))
>plot(triang(n), type = "l", ylim = c(0,1))
>par(op)

241
blackman(n)

boxcar(n)
bartlett(n)

0.0

0.0

0.0
0 20 40 0 20 40 0 20 40

Index Index Index

gausswin(n, 5)
flattopwin(n)

hanning(n)
0.0

0.0

0.0
0 20 40 0 20 40 0 20 40

Index Index Index


hamming(n)

triang(n)
0.0

0.0

0 20 40 0 20 40

Index Index

Ahora, vamos a desarrolla un ejercicio similar al ejercicio 7.3 utilizando la técnica de ventanas:

> n <- length(x <- -20:24)


> y <- sin(pi*x/6) +sin(pi*x/12) + rnorm(x)/8
> n <- length(x <- -20:24)
> Filtro <- function(y) convolve(y, hanning(6)/6, type = "filter")
> plot(x,y, main="Using Hanning(.) for filters")
> lines(x[-c(1:3 , (n-1):n) ], Filtro(y), col="red")

242
Using Hanning(.) for filters
1
0
y

-1
-2

-20 -10 0 10 20

> Filtro <- function(y) convolve(y, convolve( boxcar(6)/6,


hanning(6)/6) , type = "filter")
> plot(x,y, main="Using convolve(.) for filters")
> lines(x[-c(1:3 , (n-1):n) ], Filtro(y), col="red")

Using convolve(.) for filters


1
0
y

-1
-2

-20 -10 0 10 20

243
ANEXO I. SERIES DE FOURIER

SERIE DE FOURIER

Una serie de Fourier es una serie infinita que converge puntualmente a una función continua y
periódica.

f (t ) = 1 a 0 + ∑ a n cos(n ⋅ ω 0 t ) + bn sin(n ⋅ ω o t )
2 n =1


Donde ω 0 = se denomina frecuencia fundamental; a n y bn se denominan
T
COEFICIENTES DE FOURIER.
Los coeficientes de una serie de fourier pueden calcularse gracias a la ortogonalidad de las
funciones seno y coseno.
Una manera alternativa de presentar una la serie de Fourier es:

f (t ) = C 0 + ∑ C n cos(nω 0 t − θ n )
n =1

Siendo;

a0  bn 
Co = ; Cn = an2 + bn2 y θ n = arctan 
2
 an 
Ya que cada par de términos:
a n cos(nω 0 t ) + bn sen(nω o t )

se pueden expresar como:

 an bn 
an2 + bn2  cos(nω0t ) + sen(nω0t ) 
 a 2 + b2 an2 + bn2 
 n n 
haciendo

 an
 2 = cos θ n
a
 n n+ b 2


 bn = senθ n
 a2 + b2
 n n
y

 bn 
θ n = arctan 
a
 n

244
la suma puede expresarse solo en función del coseno:
C n [cos θ n cos(nω 0 t ) + senθ n sen(nω 0 t )] = C n cos(nω 0 t − θ n )

ORTOGONALIDAD
Se dice que las funciones del conjunto { f k (t )} son ortogonales en el intervalo a < t < b si

dos funciones cualesquiera f m (t ) ; f n (t ) de dicho conjunto cumplen:


b
0 para m ≠ n

a
f m(t)f n(t)dt = 
rn para m = n

Las funciones sen t y cos t son ortogonales en el intervalo − p < t < p ; ya que:
π π
sen 2t
∫ sent cos tdt =
−π
2 −π
=0

Las funciones del conjunto:


{1, cos(ω o t ), cos(2ω o t ), cos(3ω o t ),..., sin(ω o t ), sin(2ω o t ), sin(3ω o t ),...};
2π T T
donde ω 0 = son ortogonales en el intervalo − < t < ;
T 2 2
Se verifica probándolo a pares:
a) f n (t ) = 1 y . f m (t ) = cos(mω 0 t ) :
T/ 2 T/ 2
sen(mω0t)
∫ 1 cos (mω0t)dt =
−T/ 2
mω0 −T/ 2
=

2sen(mω0T/ 2 ) 2sen(mπ )
= = =0
mω0 mω0
b) f n (t ) = 1 y . f m (t ) = sen(mω 0 t ) :

− cos (mω0t)
T/ 2 T/ 2

∫ 1 sen(mω0t)dt =
−T/ 2
mω0 −T/ 2
=

−1
= [ cos (mω0T/ 2 )- cos (mω0T/ 2 )] = 0
mω0
c) f n (t ) = cos(nω 0 t ) y f m (t ) = cos(mω 0 t ) :
T /2
 0 para m ≠ n
∫ cos(mω t)cos(nω t)dt = T / 2
−T / 2
0 0
para m = n ≠ 0

utilizando las identidades trigonométricas

245
cos A cos B = 1 [cos( A + B ) + cos( A + B)] y cos 2 θ = 1 (1 + cos 2θ ) .
2 2

d) f n (t ) = sen(nω 0 t ) y f m (t ) = sen(mω 0 t ) :
T/ 2
 0 para m ≠ n
∫ sen(mω t)sen(nω t)dt = T/ 2
−T/ 2
0 0
para m = n ≠ 0
utilizando las identidades trigonométricas

senAsenB = 1 [− cos( A + B) + cos( A − B)] y sen 2θ = 1 (1 − cos 2θ ) .


2 2
d) f n (t ) = sen(nω 0 t ) y f m (t ) = cos(mω 0 t ) :
T/ 2

∫ sen(mω t) cos (nω t)dt = 0


−T/ 2
0 0 para cualquier m,n

utilizando la identidades trigonométricas

senA cos B = 1 [sen( A + B) + sen( A − b)]


2

CÁLCULO DE LOS COEFICIENTES FOURIER


Los coeficientes de fourier se calculan multiplicando f (t ) por cos(mω 0t )º e integrando de –

T/2 a T/2:
T /2 T /2 ∞ T/2

∫ f (t ) cos(mω t )dt =
−T / 2
0
1
2 a0 ∫ cos (mω t)dt + ∑ a ∫ cos (nω t) cos (mω t)dt +
−T / 2
0
n =1
n
−T / 2
0 0

∞ T /2

∑ bn
n =1
∫ sen(nω t) cos (mω t)dt
0 0
−T / 2

que dada la ortogonalidad de las funciones de seno y coseno implica que:


T /2
2
T −T∫/ 2
a0 = f (t )dt

T /2
am = 2
T ∫ f (t ) cos(mω t )dt
−T / 2
0 m = 1, 2, 3,...

T /2
bm = T2 ∫ f (t )sen(mω t )dt
−T / 2
0 m = 1, 2, 3,...

FORMA COMPLEJA DE LA SERIE DE FOURIER



Consideremos la serie de Fourier para una función periódica f (t ) ; con periodo T = :
ω0

246

f (t ) = 1 a 0 + ∑ a n cos(n ⋅ ω 0 t ) + bn sin(n ⋅ ω o t )
2 n =1

Es posible obtener una forma alternativa usando las fórmulas de Euler:

cos(nω0t ) = 12 (einω0t + e − inω0t )

sustituyendo: sen(nω0t ) = 1
2i (einω0t − e −inω0t )


f (t ) = 12 a0 + ∑ [an 12 (e inω0t + e −inω0t ) + bn 1
(e inω0t − e −inω0t )]
dado que 1 = −i n =1
2i
i

f (t ) = 12 a0 + ∑ [ 12 (an − ibn )einω0t + 12 (an + ibn )e −inω0t ]
definiendo: n =1

c0 ≡ 12 a0 , cn ≡ 12 (an − ibn ), c− n ≡ 12 (an + ibn )


quedaría como:

f (t ) = ∑c
n = −∞
n e in ω 0 t
expresión que se conoce como forma compleja de fourier.

Y sus coeficientes c n pueden obtenerse a partir de los coeficientes a n ; bn como ya se dijo; o

bien:

T
cn = 1
T ∫ f ( t ) e − in ω 0 t dt
TRANSFORMADA DE FOURIER. 0
La Transformada de Fourier; F (ω ) ; se define para una función continua de variable real; f (t ) ;
mediante la siguiente formula:
+∞
− 2π iω t
F(ω ) = ∫ f(t)e dt
−∞

siendo i = − 1 ; e 2π i ωt = cos(2πω t ) + isen(2πω t ) y u una variable que representa las

distintas frecuencias.
La Transformada de Fourier es una función compleja con una parte real y otra parte imaginaria;
es decir:
F (ω ) = R (ω ) + I (ω )
donde R (ω ) es la parte real y I (ω ) es la parte imaginaria.

La representación gráfica de la función de magnitud F (ω ) se le denomina Espectro de Fourier

y se expresa en términos del modulo del número complejo:

F (ω ) = R 2 (ω ) + I 2 (ω )

247
y al cuadrado de dicha función F (ω ) se le denomina Espectro de potencias.
2

El gráfico de los módulos al cuadrado frente a la frecuencia es el periodograma o espectro


empírico de la sucesión f (x) .
El periodograma recoge la contribución que tiene cada armónico a la hora de explicar la
varianza de cada serie; y cada armónico esta caracterizado por la frecuencia en que tienen lugar
los ciclos. Los ciclos que tienen un elevado periodo (desde que tiene lugar un máximo al
siguiente máximo) tendrán una baja frecuencia y viceversa.

CÁLCULO DEL PERIODOGRAMA.


Consideremos la serie temporal X t de la que disponemos de un conjunto discreto y finito de

observaciones T observaciones; generadas por un proceso aleatorio x(t ) como el descrito en el

tema 1. Dado que se busca una representación de X t que se ajuste a T observaciones; ajustamos

los datos a un polígono trigonométrico que se asemeje a una serie de fourier; escogiendo ω i

como:
2π ⋅ i
ω i =
T
es decir:

( ) ( )
k
X t = 1 a o + ∑ a i cos i ⋅ 2π ⋅ t + bi sin i ⋅ 2π ⋅ t
2 i =1
T T

( )+ b sin (i ⋅ 2π ⋅ t T )
k
xt = ( X t − µˆ ) = ∑ a i cos i ⋅ 2π ⋅ t 22

i =1
T i

La forma habitual de obtener el periodograma; es estimar por mínimos cuadrados los

coeficientes ai y bi para cada k = T armónico si el número de observaciones es par T o


2

k = (T − 1) si es impar; en un modelo especificado de la siguiente forma:


2
x t = a cos ω ⋅ t + b sin ω ⋅ t + v t

En la que xt sería la serie armónica; ω = ω p =


2π ⋅ p ; T es el tamaño de la serie y coincide
T
con el periodo de mayor ciclo que es posible estimar con el tamaño de la serie; p indica el
T v
orden del armónico de los ciclos; t es un residuo no explicado al que se puede considerar
2

∑X t
2 T
22
nótese que 1 a 0 =
2
i =1

T
, lo que implica que a 0 = ∑ Xt
T i =1

248
irrelevante (caso deterministico) o que verifica las propiedades clásicas de la perturbación de los
modelos econométricos.
El periodograma o estimador del espectro se obtendría entonces a partir de la representación de

T (a 2p + b p2 )
I (ω i ) = frente a los p armónicos; en tanto que la contribución de la varianza por

cada armónico; sería


(a 2
p + b p2 )
.
2
Si una serie temporal de ciclos empíricos presenta en su periodograma unos pocos ciclos que
explican un porcentaje significativo de su varianza; se puede obtener el ciclo teórico de dicha
serie temporal a partir de los ω i y de los armónicos correspondientes a dichos ciclos.

CALCULO DEL PERIODOGRAMA A TRAVÉS DE LA TRANSFORMADA


DISCRETA DE FOURIER
Tomando N muestras de una señal periodica y k = f (t k ) de periodo T en instantes separados

por intervalos regulares:

T 2T kT ( N − 1)T
t 0 = 0, t1 = , t2 = ,..., t k = ,..., t N −1 =
N N T N
Cabe aproximarla mediante una combinación g (t ) de funciones T-periódicas conocidas que
tome en dichos puntos el mismo valor que f. Este procedimiento se conoce como interpolación
trigonométrica.

Las funciones T-periódicas que se utilizan son los armónicos complejos e jnwt con w = y
T
puesto que hay N puntos; si queremos que el problema tenga solución única debemos combinar
un total de N armónicos.
La función g (t ) utilizada en la aproximación; toma entonces la forma general:

( )
N −1
1 1
g (t ) =
N
β 0 + β1e jwt + β 2 e j 2 wt + ... + β N −1e j ( N −1) wt =
N
∑β
n =0
n e inwt

Tal que y k = g (t k ) para cada k=0;1;…;N-1.

Entonces:
N −1 N −1 ink 2π N −1
1 1 1
yk =
N
∑ βη e jnwt =
n =o
k

N
∑ βη e
n=0
N
=
N
∑ βη w
n=0
nk
N ; k = 0,1,..., N − 1

Siendo wN = exp
j 2π  la raíz primitiva N-ésima de la unidad.
 N 
En forma matricial se expresa:

249
 y0  1 1 1 . 1 . 1  β 0 
 y  1 w w2 . wη . w N −1   β 1 
 1  
 y2  1 w 2 w4 . w 2η . w 2( N −1)   β 2 
  1   
 .  = N . . . . . . .  . 
 yk  1 w k w2k . wηk . w ( N −1)k   β k 
    
 ,  . . . . . . .  , 
y  1 w −1
N 2 ( N −1) η ( N −1)
. w ( N −1)( N −1)   β N −1 
 N −1   w . w

donde FN = w nk[ ] N −1
n ,k =0 la matriz de Fourier de orden N.

Al vector β se le denomina transformada discreta de Fourier del vector y ; denotándose como

: β = DFT ( y ) .
Una forma de obtener la DFT es a través del algoritmo FFT (Fast Fourier Transform);
desarrollado por diseñado por J.W. Cooley y John Tukey en 1965.
Si la función que interpolamos es una función real de periodo T; g (t k ) = y k ;
donde k = 0,1,..., N − 1 ; que utiliza la forma general:

g (t ) = ∑n (a n cos(nwt ) + bn sin(nwt ) )

con w = 2π ; suponiendo que N = 2 M ; si β = DFT ( y ) ; entonces:


T
β0 2 Re( β n ) − 2 Im(β n ) β
ao = ; an = ; bn = ; (n = 1,2,..., M − 1) ; a M = M ;
N N N N
y el polinomio trigonométrico:
M −1
g (t ) = a 0 + ∑ (a n cos(nwt ) + bn (nwt ) ) + a M cos( Mwt )
n =0

250
Ejemplo
Utilizamos los datos del ejemplo 2; serie X t ; sin tendencia; que se cargan en R:
>y <- c(0.323027827 ; -0.738124684; -0.281638647; 1.202761696;
2.604736789; 4.537192839; 2.548626219; 2.505164067; 3.786603757;
2.882018343; 2.369627491; 0.852706545; -0.824994893; -1.637716864; -
2.25061832; -4.212245866; -4.628168995; -4.884516748; -4.606265808; -
4.832662799, -5.024859396 , -5.264607805; -3.795776075; -
3.75917228; -3.827743607; -4.227666609; -2.146472166; -1.176118654;
1.299914689; 0.741084701; 2.494315284; 0.969390431; 1.591509703;
2.572570135; 4.566052768; 4.551800817; 4.093968956 ; 4.8307686;
4.506804092; 5.317472861; 3.922041704; 3.119257741; 1.637838373;
1.310811053; 1.30987963; 1.365242501; 1.065470411; 3.278613974;
1.550471324; 0.824032479; -1.747812061; -0.298707783; -1.581339071; -
2.24208859;-1.495846423; -1.044908103; -0.190374706; 0.380989772; -
1.01953942; -2.168259106; -1.511547698; -1.230496273; -2.216220919; -
2.507357658; -2.430312769; -1.93130783; -1.855687473; -2.8340453; -
1.020897877; -0.609700176; -0.617763633; 0.127473247; 0.900574754;
0.170835155; -0.849866595; 0.159510213; -1.147782448; -2.817090398; -
2.220483265; -1.701096798; 0.381269939; 1.697401014; 2 .869379435;
2.846112408; 2.707533939; 3.016404109; 2.841756183; 1.633645998; -
0.298897198; 0.367395225; 0.645278822; 1.092542147; 1.131070577; -
0.075107037; 0.979539535; 0.480475826; -0.551598408; -1.569180997; -
2.198930053; -2.85734981)

Se calcula la transformada de Fourier

>z <- fft(y)


A través de la inversa se obtiene de nuevo la serie y:

>y2 <- fft(z;inverse=TRUE)/100

Para representar el periodograma solo se necesitan los (n/2)+1 valores de la FFT:

>CF = abs(fft(y)/sqrt(100))^2
>P = (4/100)*CF[1:51]

Obtenemos las frecuencias armónicas de 1/100 en pasos de 0 a 0.5;

> f=(0:50)/16
y realizamos la representación gràfica del periodograma:

> plot(f; P; type="l")

251
4
3
P

2
1
0

0.0 0.5 1.0 1.5 2.0 2.5 3.0

Se puede calcular directamente el espectro con:

> spec.pgram(y)

252
Series: y
Raw Periodogram
1e+01
spectrum

1e-01
1e-03

0.0 0.1 0.2 0.3 0.4 0.5

frequency
bandwidth = 0.00289

TEST SOBRE EL PERIODOGRAMA


Una forma de contrastar la existencia de algún ciclo en el periodograma de una serie temporal es
el test de Fisher; estadístico g (Fisher; 1929) o relación entre la mayor varianza asociada a una
determinada frecuencia ( ω i ); y la varianza total de la serie.
2
max w p
g= n
2

2∑
2
n w p
P =1

Para probar la significación del periodo p se contrasta el estadístico g contra la z de una


distribución normal (0;1); siendo la regla de decisión rechazar la hipótesis nula sobre un
componente periódico en Yt si la g calculada excede de la z en un nivel de significación del

100α%.
La manera habitual de contrastar la existencia de algún ciclo en el periodograma de una serie
temporal a través del estadístico es calculando:

253
max S 2
G=
2S 2
El ciclo es significativo si el valor G de esta relación es igual al valor crítico calculado según la
siguiente fórmula:
ln( p ) − ln( m )
Gc = 1 − e m −1

Siendo ln(p) el logaritmo neperiano del nivel de probabilidad elegido y m el número total de
datos de la serie (en series de más de 30 datos).
Una prueba para estudiar la dependencia serial (Durbin; 1969) en series de observaciones
estacionarias y1 ,..., yT se realiza sobre la grafica del periodograma acumulado:
j
pr
sj = ∑ m
r =1
∑p
r =1
r

donde r = 1,..., m es el periodograma ordinario:


T 2
2 (2πirt ) T
pr =
T
∑y e
t =1
t

El periodograma p j calculado para series y1 ,..., yT de variables independientes N ( µ , σ 2 ) ; se

calcula:

2 T  2πjt  2 T  2πjt  2  1  
aj = ∑
T t =1
y i cos
 T 
 ; b j = ∑
T t =1
y i sin
 T 
 ; p j = a j + b j ,  j = 1,...,  T  ,
2

 2 
1  1 1 1
donde  T  = T para T y T − para el extremo de T; por simplicidad asumimos que el
2  2 2 2
extremo de T es T = 2m + 1 .
Y su representación gráfica de p j contra j presenta una alta apariencia de irregularidad en su

inspección visual. Por ello; una mejor manera de presentar la información de los p j ' s es

hacerlo a través del gráfico del periodograma acumulado; s j .

Se presupone que cuando y1 ,..., yT esta independientemente y normalmente distribuida;

s1 ,..., s m −1 se distribuye igual que el orden estadístico de m − 1 muestras independientes de la


distribución uniforme (0;1). Bartlett’s (1954;1966; p 361) sugiere para probar la independencia
serial; probar la máxima discrepancia entre s j y su expectativa; ie. j / m . Para una probar un

exceso de bajas frecuencias relativas frente a altas frecuencias; que equivaldría a la expectativa
de presencia de correlación serial positiva este enfoque conduce al estadístico:

 j
c + = max s j − 
j
 m

254
Por el contrario un test contra excesos de variaciones de alta frecuencia el estadístico apropiado
es:

 j 
c − = max − s j 
j
m 
El estadístico que corresponde a las dos partes de la prueba sería:

c = max s j −
j
j
m
(
= max c + , c − )
Este estadístico esta estrechamente relacionado con el de Kolmogoroiv-Smirnov Dn+ , Dn− , Dn y

su forma modificada C n+ , C n− , C n considerado por Pyke (1959) y Brunk (1962). Por ejemplo;

Dn− = max{s j − ( j − 1) (m − 1)}y C n− = c + .


j

Los valores críticos para estos estadísticos están dado en la Tabla nºI.1; y el procedimiento para
utilizar estos valores es como sigue. Si deseamos probar el test de un exceso de bajas
frecuencias frente a las altas frecuencias; entonces el valor obtenido en la tabla, c0 es el valor

crítico apropiado al valor de c + ;se dibujaría en el gráfico la línea; y = co + j m y la

trayectoria que muestra s j ; obteniendo los valores que sobrepasan la línea (j m , s j ) . Si s j


cruza la línea; se rechaza la hipótesis de independencia serial. De igual manera; un test sobre al
exceso de altas frecuencias frente a las bajas frecuencias se rechaza si el trayectoria de s j cruza

la línea y = −co + j m .

255
Ejemplo
Partimos de una serie temporal generada a partir de un paseo aleatorio o random walk:
Yt = 0,5 + Yt −1 + u t .

La serie Yt presenta una tendencia estocástica; y vamos a descomponerla utilizando un modelo

armónico; partiendo de una representación de la tendencia ó movimiento relevante de la serie

256
temporal obtenida a partir de una tendencia cuadrática; T ciclos armónicos ( k ) y un residuo
2
aleatorio vt :

Yt = a + bt + ct 2 + ∑ (a p cos pω 0 t + b p sin pω o t ) + vt
k

de manera que

Yt − a − bt − ct 2 = X t = ∑ (a p cos pω 0 t + b p sin pω o t ) + vt
k

En las figuras siguientes se representa la serie de tendencia y la serie de ciclo en la que se va a


estimar un modelo de regresión armónica:

60

50

40

30
serie
tendencia
20

10

0
1 8 15 22 29 36 43 50 57 64 71 78 85 92 99
-10

El armónico de periodo 100 se elabora a partir de cos 2π ⋅ t ( 100


) y sin (2π ⋅ t 100)para
t=1;….;100. La representación gráfica de ambas series aparece en la figura siguiente:

257
La regresión minimo cuadrática entre ambas series y la serie libre de tendencia ( X t ); ofrece el

siguiente resultado:

(
X t = 1,9645989 cos 2π ⋅ t
100
)+ 0,1982775 sin (2π ⋅ t 100)+ v t

El armónico de periodo 100 tendrá la apariencia de la figura siguiente:

Este proceso repetido para los 50 periodos permite obtener los coeficientes con los que elaborar
el peridograma y obtener la contribución de cada armónico a la varianza de la serie:

258
Frecuencia Periodo
I (ω ) =
( T a 2p + bp2 ) (a 2
p + b p2 )
ap bp

i
2
1 100;0 1;9645989 0;1982775 31;0269598 1;94948138

2 50;0 -4;5393342 -1;2467640 176;3434804 11;0799877

3 33;3 -0;8601427 0;9799692 13;5296423 0;8500925

4 25;0 0;0835776 0;8487047 5;7875496 0;36364247

5 20;0 0;4166653 -0;3232265 2;2129323 0;13904264

6 16;7 -0;2059344 -0;3631882 1;3871519 0;08715732

7 14;3 0;4043324 -0;6204093 4;3639683 0;27419622

8 12;5 0;9442994 0;2493234 7;5906052 0;47693179

9 11;1 0;3926785 -0;0310192 1;2347129 0;0775793

10 10;0 0;1283672 -0;0894678 0;1948265 0;01224131

11 9;1 0;5348622 -0;1026948 2;3604572 0;1483119

12 8;3 0;4157705 -0;6015541 4;2552659 0;26736624

13 7;7 -0;0913588 -0;1203558 0;1816908 0;01141597

14 7;1 -0;3283259 -0;6568280 4;2909838 0;26961046

15 6;7 0;2314942 -0;3688880 1;5093294 0;09483396

16 6;3 0;0228915 -0;5384152 2;3110490 0;14520749

17 5;9 0;6861954 0;2823306 4;3813344 0;27528736

18 5;6 -0;0680460 0;2345241 0;4745347 0;02981589

19 5;3 0;3848785 -0;1703442 1;4097036 0;08857429

20 5;0 0;0347357 0;6665654 3;5453033 0;22275798

21 4;8 0;1779031 -0;4472488 1;8436590 0;11584051

22 4;5 -0;4350383 0;1164205 1;6139270 0;10140602

23 4;3 0;1130713 -0;3521380 1;0885109 0;06839315

24 4;2 0;1497142 -0;0947065 0;2497433 0;01569184

25 4;0 -0;0408499 -0;2790311 0;6328565 0;03976354

26 3;8 0;4000049 -0;0587758 1;3007618 0;08172927

27 3;7 -0;1788847 0;1668144 0;4760862 0;02991338

28 3;6 0;0722675 -0;0849189 0;0989451 0;0062169

29 3;4 0;3224180 -0;0273876 0;8332036 0;05235173

30 3;3 -0;2087289 0;0631024 0;3783880 0;02377482

31 3;2 0;1048227 -0;2653191 0;6476174 0;040691

32 3;1 0;1786666 -0;3176133 1;0567885 0;06639998

33 3;0 -0;1230019 -0;1984293 0;4337265 0;02725184

34 2;9 -0;0622384 0;0264338 0;0363857 0;00228618

35 2;9 -0;1590939 -0;1623496 0;4111630 0;02583413

36 2;8 0;1014609 -0;1111765 0;1802790 0;01132727

37 2;7 0;2002842 -0;1353838 0;4650711 0;02922128

38 2;6 0;0203165 -0;3006128 0;7224110 0;04539042

259
Frecuencia Periodo
I (ω ) =
( T a 2p + bp2 ) (a 2
p + b p2 )
ap bp

i
2
39 2;6 -0;1624371 -0;1121361 0;3100362 0;01948015

40 2;5 0;0803258 -0;0195769 0;0543950 0;00341774

41 2;4 0;2538179 -0;0592717 0;5406229 0;03396834

42 2;4 0;1153917 0;0975809 0;1817332 0;01141864

43 2;3 0;0424267 -0;0466046 0;0316083 0;00198601

44 2;3 -0;1812651 0;0086732 0;2620665 0;01646612

45 2;2 0;1713397 -0;1175139 0;3435104 0;0215834

46 2;2 0;1209881 0;0456828 0;1330937 0;00836253

47 2;1 0;2881007 -0;3457646 1;6118830 0;1012776

48 2;1 0;0070527 0;0817615 0;0535929 0;00336734

49 2;0 0;0804486 -0;1183934 0;1630461 0;01024449

50 2;0 0;0000000 -0;0938575 0;0701016 0;00440461

Como vemos es el segundo armónico; el ciclo de periodo 50; el que más contribuye a la
varianza de la serie.

La representación gráfica del periodograma de la serie de ciclo sería entonces el siguiente:

Para comprobar la significación estadística del ciclo de o periodo 50; calculamos es

max S 2 11,07999
estadístico G = = = 0,37605
2S 2
2 × 18,0681
El ciclo es significativo para un nivel de probabilidad del 95% ya que el valor G de esta relación
ln( 0 , 05 ) − ln( 50 )
superior al valor crítico calculado Gc = 1 − e 49
= 0,1315 .
La representación gráfica del test sobre el periodograma acumulado:

260
1,4000000

1,2000000
1,0000000
0,8000000
0,6000000
0,4000000

0,2000000
0,0000000
0,02
0,08
0,14
0,2
0,26
0,32
0,38
0,44
0,5
0,56
0,62
0,68
0,74
0,8
0,86
0,92
0,98
-0,2000000

Contrastar la presencia de ciclos de baja frecuencia frente a los ciclos de alta frecuencia; al
cruzar la trayectoria de s j ; la banda superior de los valores críticos del test.

ENVENTANADO

Hasta ahora hemos supuesto que las frecuencias eran frecuencias de Fourier y por tanto

ω = ω p = 2π ⋅ p T ; donde p indica el orden del armónico de los ciclos si T es par o


T
2
T −1
si T es impar; y se interpreta como el número de veces que un sinusoide (un armónico) de
2
frecuencia ω p ejecuta un ciclo completo en la muestra considerada; es decir si p = 4 ; la

frecuencia asociada ω 4 = 2π ⋅ 4 al armónico determina que este ejecute 4 ciclos completos a


T
lo largo de T. A este tipo de frecuencias se denominan frecuencias de Fourier;
Si suponemos que existe un armónico que se repite cuatro veces y media; dicha frecuencia no
producirá ciclos enteros en la muestra y nos encontramos con una frecuencia que no es de
Fourier.

Estas frecuencias originan un problema que se denomina “leakage” o distorsión; que determina
que los pesos significativos del periodograma se repartan entre frecuencias contiguas.
Una de las maneras de solucionar el “leakage” consiste en aplicar transformar la serie original
multiplicándola por una expresión que se denominan “Data Windows” o “taper”; y obtener el
periodograma a partir de la serie transformada.

Así es estimador de la función de densidad espectral puede considerarse como:

fˆ (ω ) = w ⋅ I

261
Donde w es la función de pesos o ventana espectral y I es el periodograma.
Dado de que lo que se trata es de promediar algunos valores contiguos del periodograma; podría
utilizarse una media móvil de amplitud n :

1 n −1
 ; t = 0 ± 1 ± 2 ± ... ±
wt =  n 2
 0; en otro caso

Han sido propuestas gran número de ventanas; las más utilizadas son:
Ventana de Tuckey

 t
wt = 1 − 2a + 2a cos π  ; t = 1,2,...., T
 T

Cuando a = 1 ; tenemos la ventana de Tuckey-Hamming.


4

• Ventana de Parzen

 t
2
 t 
3
T
1 − 6  + 6  , t = 1,2,...,
 T  T  2

wt =  3
 t  T
21 −  , t = ,..., T
  M  2


• “Boxcar”;


 1

1 − cos
(
 π t + 1  )
2 , t = 1,2,..., m
 2  m 
   

wt =  1, t = m + 1, m + 2,...T − m
 
1  (
 2π t + 1 
 )
2 , t = T − m + 1,..., T
 2 1 − cos T 
   

donde m es arbitrario; si bien suele elegirse un valor de m m tal que 2m se sitúe entre 0;1 y
T
0;2.

RELACIÓN DEL PERIODOGRAMA Y LA FUNCIÓN DE AUTOCOVARIANZA


En un sentido amplio; para que un proceso sea estacionario es suficiente que su esperanza y su
función de autocovarianza sea independiente de t.
Es decir;

262
E ( xt ) = E ( xt + k ); ∀k .

1 n
Si un proceso es estacionario en media; entonces µ̂ = ∑ xi es un estimador insesgado y
n i =1
consistente de E ( xt ) .

Si un proceso es estacionario en covarianza; se cumple la siguiente igualdad


γ (t ,τ ) = E ({x(t ) − E[x(t )]}⋅ {x(t + τ ) − E [x(t + τ )]}) = γ (τ ) ; lo que significa que la función
de autocovarianza no depende de t; γ (τ ) = γ (−τ ) ; y el estimador de γ (τ ) viene dado por
1 n−k
C(K ) = ∑ ( xt − µˆ )( xt + k − µˆ ) .
n t =1
1 n
La varianza; γ (0) ; se estimaría a partir de C (0) = ∑ ( xt − µˆ )( xt − µˆ ) .
n t =1
La idea básica del análisis espectral es que todo proceso estocástico estacionario admite una
descomposición única de su varianza; en la aportación que a la misma realizan armónicos de
diferentes frecuencias. Un armónico de frecuencia ω es una función de la forma:
aω cos(ω ⋅ t ) + bω sin(ω ⋅ t ) 23
En el análisis armónico; las series temporales no son consideradas funciones continuas como
tal; sino que se obtienen a partir de una suma de n ciclos con una amplitud y un periodo
determinado; o lo que es lo mismo n de diferentes armónicos:
n
x(t ) = ∑ a i cos(ω i ⋅ t ) + bi sin(ω i ⋅ t ) ; 0 < ω1 < ω 2 < ... < ω n ≤ π
i =1

Siendo a i y bi variables aleatorias con24

E (ai ) = E (bi ) = 0
σ 2 ; si i = j
E (ai a j ) = E (bi b j ) = 
 0; si i ≠ j
E (ai b j ) = 0 ∀i, j

En este tipo de procesos la función de autocovarianza γ (τ ) se obtiene:


n
γ (τ ) = ∑ σ i2 cos(ω i ⋅ τ )
i =1

23
La expresión aω cos(ω ⋅ t ) + bω sin(ω ⋅ t ) da lugar a una función periódica de periodo 2π
ω
24
La estacionariedad de este proceso aleatorio puede seguirse en Contreras, D y Escolano J (1984): EI
análisis espectral como instrumento para detectar la estacionalidad. ESTADISTICA ESPAÑOLA
Núm. 104, i 984, págs. 101 a 144 http://www.ine.es/revistas/estaespa/104_6.pdf

263
n
En donde σ i es la varianza del armónico i-esimo; de manera que en γ (0) = ∑σ
i =1
i
2
se muestra

que la varianza total del proceso es la suma de las varianzas de cada armónico.

TEOREMA DE PASERVAL
Sea f una función continua en el intervalo [− π , π ] de periodo 2π ; con desarrollo de Fourier

de f :


f ( x) = ∑c e
x = −∞
n
inx

donde los coeficientes


c n han sido obtenidos a partir de los coeficientes a n , bn .

Entonces se verifica que:

∞ π
∫ π f (x )
1
∑a =
2 2
dx

n

n = −∞


Particularizando a la serie función periódica f (t ) , con periodo T = :
ω0

f (t ) = 1 a 0 + ∑ a n cos(n ⋅ ω 0 t ) + bn sin(n ⋅ ω o t )
2 n =1

La identidad de Paaserval quedaría:


[ f (t )]2 = 1 ao2 + ∑ a n2 + bn2
1 −π

π ∫π 2 n =1

Las series temporales no son consideradas funciones continuas como tal; sino muestras de
señales continuas tomadas a una misma distancia temporal a partir de un valor inicial Yo y

siendo T el tamaño de la serie. De acuerdo a lo anterior; en la función periódica f (t ) la


potencia promedio está dada por:
T
1 −T 2
T ∫T 2
[ f (t ) ]2
=
1 2 1 2 2
4
ao + ∑ a n + bn2
2 n =1
( )
que muestra así que el periodograma estudia de hecho la distribución de la varianza o potencia
de la serie en función de los diversos armónicos:

1 q −1 2
σ2 = ∑
2 n=1
(
a n + bn2 + aT2 , q = T
2
)2

CROSS-ESPECTRO DE UN PROCESO BIVARIANTE

264
Un proceso bivariante z (t ) es un par formado por dos procesos univariantes; x(t ) y y (t ) ;

donde E [x(t )] = µ x (t ) y E [ y (t )] = µ y (t ) .

La función de autocovarianza de x(t ) será:

γ x (t ,τ ) = E{( x(t ) − µ x (t ) )( x(t + τ ) − µ x (t + τ ) )}


en tanto que la función de autocovarianza de y (t ) será:

γ y (t ,τ ) = E {( y (t ) − µ y (t ) )( y (t + τ ) − µ y (t + τ ) )}
Se denomina función de cross-varianza o covarianza cruzada a:
γ xy (t ,τ ) = E {( x(t ) − µ x (t ) )( y (t + τ ) − µ y (t + τ ) )}
Hay que señalar que γ xy (t ,τ ) no es igual a γ yx (t ,τ ) ; pero existe una relación entre las dos

funciones; ya que
γ xy (t ,τ ) = γ yx (t + τ ,−τ )
Señalar; por último; que la covarianza entre x(t ) y y (t ) sería γ yx (t ,0) .

Si se asume la estacionariedad de x(t ) y y (t ) ; entonces E [x(t )] = µ x y E [ y (t )] = µ y ; y la

función de cross-varianza no dependerá más que del retardo τ .


Suponiendo que µ x = µ y = 0 ; se comprueba que γ xy (t ,τ ) ; no depende más que del retardo τ ;

es decir γ xy (t ,τ ) = γ xy (τ ).

γ xy (t ,τ ) = E{(x(t ) )( y (t + τ ) )} = E{( x(t + s) )( y (t + s + τ ) )}, ∀s, t


La función de correlación cruzada se define como:
γ xy (τ )
ρ xy (τ ) =
γ x (0)γ y (0)

Cuando τ = 0 ; γ xy (0) es la covarianza habitual y

γ xy (0)
ρ xy (0) =
γ x (0)γ y (0)

el coeficiente de correlación de Pearson entre x(t ) y y (t ) .

Los estimadores de γ xy (τ ) y ρ xy (τ ) se calculan así:

 1 T −k
 T ∑ ( x(t ) − x )( y (t + k ) − y ) ; k = 0, 1, ... , T − 1
C xy (k ) =  T − k t =1
 1 ∑ ( x(t ) − x )( y (t + k ) − y ) ; k = −1, −2, ... ,−(T − 1)
T t =1

265
C xy (k )
rxy (k ) =
C x ( 0) ⋅ C y ( 0)

La función de autocovarianza que obtenemos en el dominio temporal; tiene también su


correspondiente representación en el dominio frecuencial; esta es el cross-espectro o espectro
cruzado. Así; si partimos de dos procesos estacionarios x(t ) y y (t ) ; con la siguiente
representación espectral:
π π
x(t ) = ∫ cos ωt ⋅ dU x (ω ) + ∫ senωt ⋅ dV x (ω )
0 0

π π
y (t ) = ∫ cos ωt ⋅ dU y (ω ) + ∫ senωt ⋅ dV y (ω )
0 0

Donde U i (ω ) e Vi (ω ) ; i = x, y son procesos estocásticos con dominio definido en (0, π ) ; con

media 0 y de incrementos incorrelacionados. Dado que dichos procesos son conjuntamente


estacionarios en covarianza; se demuestra que:
[ ] [ ] [ ] [ ]
E dU x (ω ) ⋅ dU y (ω ' ) = E dV x (ω ) ⋅ dV y (ω ' ) = E dU x (ω ) ⋅ dV y (ω ' ) = E dV x (ω ) ⋅ dU y (ω ' ) = 0

si ω ≠ ω '

[ ] [ ]
E dU x (ω ) ⋅ dU y (ω ) = E dV x (ω ) ⋅ dV y (ω ) = C (ω )dω

E [dU x (ω ) ⋅ dV y (ω )] = − E [dV (ω ) ⋅ dU (ω )] = q (ω )dω


x y

Funciones que permiten expresar la cross-varianza como:


π π
γ xy (τ ) = ∫ cos ωt ⋅ C (ω )dω + ∫ senωt ⋅ q (ω )dω
0 0

Que implica que la covarianza entre x(t ) e y (t ) sea:


π
γ xy (0) = ∫ C (ω )dω
0

El cross-espectro se formula como:



1
f xy (ω ) =
πτ
∑γ = −∞
xy (τ ) ⋅ e −iωτ ; 0 ≤ ω ≤ π

Dado que en general el cross-espectro es complejo; se define el cross-espectro (C) como la parte
real de cross-espectro y el espectro de cuadratura (Q) como la parte imaginaria; que además
coinciden con C (ω ) y q (ω ) :

f xy (ω ) = C (ω ) − iq (ω )

266
Entonces se deduce que:

1
C (ω ) = ∑ γ xy (τ ) ⋅ cos ωτ
π τ =−∞

1
q (ω ) = ∑ γ xy (τ ) ⋅ senωτ
π τ = −∞
Otra forma de presentar las funciones C (ω ) y q (ω ) ; sería la siguiente:

1
C (ω ) =
2π τ
∑γ = −∞
xy (τ ) ⋅ cos ωτ


1
C (ω ) =
2π τ
∑γ = −∞
xy (τ ) ⋅ cos ωτ ; − π ≤ ω ≤ π

La representación trigonométrica del cross-espectro será:


iφ xy (ω )
f xy (ω ) = α xy (ω ) ⋅ e
Donde

α xy (ω ) = C 2 (ω ) + q 2 (ω )

Se conoce como espectro de cross-amplitud.


Y
 − q(ω ) 
φ xy (ω ) = arctg  
 C (ω ) 
Llamado espectro de fase.
Del cross-espectro y de la función de densidad espectral individual de las dos series x(t ) e y (t )
se obtiene la función de coherencia:

C 2 (ω ) + q 2 (ω )
R(ω ) = .
f x (ω ) ⋅ f y (ω )
El cross-espectro representa la aportación a la covarianza entre x(t ) y y (t ) de sus diversos
componentes armónicos. Como su interpretación no es simple; se utilizan las funciones de
espectro de fase y coherencia; ya que el espectro de fase revela el desfase o retardo que en el
comportamiento cíclico sigue una serie respecto a la otra; y el análisis de la función de
coherencia permite identificar si la correlación que se da entre las dos series se debe a que
ambas siguen un comportamiento cíclico en determinados periodos; permitiendo identificar la
duración o periodo de los armónicos que dominan en ambas series a la vez y que producen una
alta correlación.

267
La construcción del cross-espectro cuando τ = 0 ; y γ xy (0) es la covarianza habitual; da lugar a

las siguientes funciones C (ω ) y q (ω ) :

γ xy (0)
C (ω ) =

q (ω ) = 0
Ya que el coseno de ωτ = 0 ; es uno; y su seno es cero.
Si E [x(t )] = µ x = 0 y E [ y (t )] = µ y = 0 ; es decir ambas series tienen un valor medio igual a
T
cero; la covarianza entre xt e y t ; sería γ xy (0) = ∑x y
t =1
t t ;y la parte real del cross-espectro se

obtendría a partir de:


T
1
C (ω ) =

∑x y
t =1
t t

TEOREMA DE PLANCHAREL
Sean A(x) y B (x) dos funciones continuas de periodo 2π cuyos desarrollos de Fourier son


A( x) = ∑a e
x = −∞
n
inx


B( x) = ∑b e
x = −∞
n
inx

Entonces se verifica la relación de Plancharel entre los correspondientes productos escalares:

∞ π
∫ π A(x )B(x )dx
1
∑a b
n = −∞
n n =
2π −

Si A( x) = B ( x) se obtiene la identidad de Parseval

∞ π
∫ π A(x )
1
∑a =
2 2
dx

n

n = −∞

De igual manera que la identidad de Parseval estudia la distribución de la varianza de una serie
desarrollada en sus armónicos, la de Plancharel estudia la covarianza entre dos series
desarrolladas en sus armónicos.

268
∑ (a cos pϖ 0 t + b p sin pω o t ) y otra definida como
k
Partiendo de una serie armónica xt = p
p =1

( )
k
yt = ∑ a *p cos pϖ 0 t + b *p sin pω o t , en donde k = T armónicos si el número de
p =1
2

( )
observaciones es par T o k = T − 1 si es impar, la expresión de la igualdad de Plancharel
2
sería:
T
1 −T 2
∫T
T 2
y t x t =
1 2 *

2 n =1
(
a n a n + bn*bn )
El producto escalar de xt por y t

T  k 
(
∑ (a p cos pϖ 0 t + b p sin pϖ o t ) a p cos pϖ 0 t + b p sin pϖ o t  )
T

∑ x t ⋅ y t = ∑
t =1  p =1
* *

t =1 
T
T ∑ p p
(
2 a a +b b
*
p p
*
)
2 t =1 2
equivale a .

269
BIBLIOGRAFÍA

Albright,R., Lerman,S. y Manski,C. (1977), “Development Of An Estimation Program For The


M. Probit Model”. Federal Highway Administration

Akaike, H. (1974), “A new look at the statistical model identification”, IEEE Transactions on
Automatic Control AC-19, pp. 716–723.

Amemiya, T. (1978), “On A Two-Step Estimation Of A Multivariate Logit Model”, Journal Of


Econometrics 8.

Anderson, R. L. (1942), “Distribution of the Serial Correlation Coefficient”, Annals of


Mathematical Statistics, 1942: 1-13.

Aznar, A. y Trívez, F. J. (1993), Métodos de Predicción en Economía II: Análisis de Series


Temporales, Ed. Ariel.

Balestra, P. y Nerlove, M. (1966), “Pooling Cross Section And Time Series Data In The
Estimation Of Coefficients In A Structural Equation”, Econometrica 34.

Bassmann, R. (1957). “A Generalized Classical Method Of Linear Estimation Of Coefficients


In A Structural Equation.” Econometrica 25, pp. 77-83

Box, G.E.P., Jenkins, G.M. y Reinsel, G.C. (1994), Time Series Analysis - Forecasting and
Control, 3rd Edition, Prentice Hall.

Breitung J, Bruggemann R, L Lutkepohl H (2004). “Structural Vector Autoregressive Modeling


and Impulse Responses”. In H Lutkepohl, M Kratzig (eds.), “Applied Time Series
Econometrics,” chapter 4, pp. 159–196. Cambridge University Press, Cambridge

Burns, A.F. y Mitchell, W.C. (1947), Measuring Business Cycles, New York: Columbia
University Press For The NBER.

Chateld, Cris (2004). The Analysis of Time Series: An Introduction (6th edn.), 2004. CRC Press

270
Chow, G.C. (1983), Econometrics, McGraw-Hill, New York.

Christ (1960). “Simultaneus Equations Estimation: Any Veredict Yet?”. Econometrica 28, pp.
835-845.

Cleveland, R.B. , Cleveland W. S., McRae J. E, y Terpenning I. (1990). “STL: A Seasonal-


Trend Decomposition Procedure Based on Loess”. Journal of Official Statistics, 6, 3–73.

Cochrane, D. y Orcutt, G. H. (1949a), “Application Of Least Squares Regression To


Relationships Containing Autocorrelated Error Terms”, Journal of American Statistical
Association 44, pp. 32-61.

Cochrane, D. y Orcutt, G. H. (1949b), “A Sampling Study Of The Merits Of Autorregressive


And Reduced Form Transformations In Regression Analysis” Journal of American Statistical
Association 44, pp. 356-372.

Contreras, D y Escolano J (1984): “EI análisis espectral como instrumento para detectar la
estacionalidad”. ESTADISTICA ESPAÑOLA Núm. 104, i 984, págs. 101 a 144 .

Dickey, D.A. y W.A. Fuller (1979), “Distribution of the Estimators for Autoregressive Time
Series with a Unit Root,” Journal of the American Statistical Association, 74, p. 427–431.

Durbin, J. y Koopman, S. J. (2001), Time Series Analysis by State Space Models (Oxford
Statistical Science Series, nº 24), Oxford University Press.

Durbin, J. y Watson, G. S. (1950), “Testing for Serial Correlation Least Squares Regressions”,
Biometrika, vol 37. pp. 409-428.

Engle, Robert F. (1974), Band Spectrum Regression,International Economic Review 15,1-11.

Frisch, R. (1933). Pitfalls In The Statistical Construction Of Demand and Supply Analysis,
Hans Buske Verlag. Leipzig.

Frisch, R. (1936). “Note On Term 'Econometrics' “, Econometrica 1, pp. 1-4.

Gallant, A. R.(1981) "On the Bias in Flexible Functional Forms and an Essentially Unbiased
Form." J. Econometrics 15(1981):211-45.

271
Gallant, A. R.(1984) "The Fourier Flexible Form." Amer. J. Agr. Econ. 66(1984):204-15

Goldfield, S. M. y Quandt, R. E. (1965), “Some test for Homocedasticy”, Journal of American


Statistical Association. Vol 37. pp 539-547.

Granger, C. W. J. (1969), “Investigating causal relations by econometric models and cross-


spectral methods”, Econometrica 37, p. 424-438.

Granger, C.W.J.(1981), “Some properties of time series data and their use in econometric model
specification”, Journal of Econometrics 16, pp. 121-130.

Granger, C.W.J., y Newbold, P. (1974), “Spurious regressions in econometrics”, Journal of


Econometrics 2, pp. 111-120

Greene, W. H. (2000), Análisis Econométrico, Ed. Prentice Hall

Gujarati, D. (1997), Basic Econometrics, McGraw-Hill

Gujarati, D. (2003), Econometría, Ed. McGraw-Hill

Haavelmo, T. (1943). “The Statistical Implications Of A System Of Simultaneous Equations.”


Econometrica 11, pp. 1-12.

Haavelmo, T. (1944). “The Probability Approach In Econometrics”, Suplemento de


Econometrica 12. pp. 1-118.

Hamilton, J. D. (1994), Time Series Analysis, Princeton University Press.

Hannan, E.J. (1963), Regression for Time Series, in Rosenblatt, M. (ed.), Time Series Analysis,
New York, John Wiley.

Harvey, A.C. (1978), Linear Regression in the Frequency Domain, International Economic
Review, 19, 507-512.

Hausman, J.A. (1974), “Estimation and Inference in Nonlinear Structural Models”, Annals of
Economic and Social Measurement, con Berndt E., Hall R.E. y Hall, B.H. October 1974.

272
Hausman, J.A. (1974): “Full Information Instrumental Variables Estimations of Simultaneas
Equations Systems”, Annals of Economic and Social Measurement, Vol 3. nº 4. pp. 641-652.

Hausman, J.A. (1978), “Specification tests in econometrics”, Econometrica, 46, pp. 1251-71.

Hildreth, C. (1960). “Simultaneus Equations Estimation: Any Veredict Yet?”. Econometrica 28,
pp. 846-854.

Hyndman, R. (2014): Forecasting functions for time series and linear models. R-Package
Version 5.5, URL http://cran.r-project.org/web/packages/forecast/index.html

Hsiao, C. (1986), Analysis of Panel Data. Cambridge University Press.

Johnston, J. (1997), Econometric Methods. McGraw-Hill.

Johnston, J. y Dinardo, J. (2001), Métodos De Econometría, Ed. Vicens-Vives 3ª Ed.

Intriligator, M. D. (1978). Econometrics Models. Techniques And Applications. North-Holland.


New York.

Klein, L. R. (1960). “Single Equation Vs. Equation System Methods Of Estimation In


Econometrics.” Econometrica 28, pp. 866-871.

Klein, L. R. y Goldberger, A. (1955), An Econometric Model Of United States, 1929-1952.


North-Holland, Amsterdam.

Koopmans, T.C., Rubin, H. y Leipnik, R.B. (1950). “Measuring The Equation System Of
Dinamic Economics”, en Statistical Inference In Dinamic Economic Models, Cowles
Commision Monografico nº 10. John Wiley. Nueva York.

Kuh, L.M. (1959), “The Validity Of Cross-Sectionally Estimated Behavior Equations”


Econometrica 27.

Liu, T. (1960), “Underidentification, Structural Estimation, And Forecasting” Econometrica 28,


pp. 855-865.

273
Lucas, R.E. (1972), “Expectations And The Neutrality Of Money” Journal Of Economic Theory
4, pp. 103-124.

Lucas, R.E. (1973), “Some International Evidence On Output-Inflation Tradeoffs”, American


Economic Review 63, pp.326-334.

Lucas, R. E. (1976), “Econometric Policy Evaluation: A critique”, Journal of Monetary


Economics 1, nº 2, Supplementary Series: 19-46.

McFadden, D. (1974), “Conditional Logit Analysis Of Qualitative Choice Behaviour”, en


Frontiers In Econometrics, Ed. P. Zarembka, Academic Press. Nueva York.

McFadden, D. (1976), “Quantal Choice Analysis: A Survey”, Annals Of Economic And Social
Measurement.

Melis F.(1991):La estimación del ritmo de variación de las series económicas. Estadística
Española Vol 22,Num. 126, pgs 7 a 56.

Mitchell, W. C. (1928), Business Cycles: The Problem In Its Setting. National Bureau Of
Economic Research.

Mood, A. M. (1950), Introduction to the Theory of Statistics, McGraw-Hill.

Moore, H. L. (1914), Economic Cycles: Their Law And Causes. Macmillan Press. Nueva York.

Moore, H. L. (1917), Forecasting The Yield And The Price Of Cotton. Macmillan Press.

Muth, J.F. (1961), “Rational Expectations And The Theory Of Price Movements”,
Econometrica 29, pp. 315-335.

Novales, A. (1993), Econometría, 2ª Edición, McGraw-Hill.

Parra F (2014): Seasonal Adjustment by Frequency Analysis. Package R Version 1.1. URL:
http://cran.r-project.org/web/packages/descomponer/index.html

274
Pindyck, R. S. y Rubinfield, D. L. (1976), Econometric Models and Economic Forecast,
McGraw-Hill.

Pindyck, R. S. y Rubinfield, D. L. (1980), Modelos Econométricos, Ed. Labor.

Pfaff B (2008). “VAR, SVAR and SVEC Models: Implementation Within R Package vars."
Journal of Statistical Software, 27(4). URL http://www.jstatsoft.org/v27/i04/.

Pfaff B (2013).”Unit root and cointegration tests for time series data”. Package R.Version 1.2-8.
URL: http://cran.r-project.org/web/packages/urca/index.html

Pulido, A. (1983), Modelos Econométricos, Ed. Pirámide

R CoreTeam (2013). R: A language and environment for statistical


computing. R Foundation for Statistical Computing, Vienna, Austria.
URL http://www.R-project.org/.

Rosenberg, B. (1973), “A Survey Of Stochastic Parameter Regression”, Annals Of Economic


And Social Measurement 2.

Ripley, B (2002): “Time Series in R 1.5.0”. R News. The Newsletter of the R Project. Volume
2/2, June 2002.

Samuelson, P. A., Koopmans, T. C. y Stone, J. (1954), “Report Of The Evaluative Committe


For Econometrica”, Econometrica 22, pp. 141-146.

Sargan, J. D. (1958), “The Estimation Of Economic Relationships Using Instrumental


Variables”, Econometrica 26, pp. 393-415.

Sargent, T. (1973), “Rational Expectations, The Real Rate Of Interest And The Natural RateOf
Unemployment”, Brookings Papers On Economic Activity 2, pp. 429-472.

275
Sargent, T.J. (1984), “Vector autoregressions, expectations and advice”, American Economic
Review 74, pp.408-415

Sargent, T. y Wallace, N. (1975), “Rational Expectations And The Theory Of Economic


Policy”, Journal Of Monetary Economics 2, pp. 169-184.

Schultz, M. (1938), “The Theory And Measurement Of Demand”, Chicago University Of


Chicago Press.

Schwarz, G. (1978), “Estimating the dimension of a model”, Annals of Statistics 6, 461–464.

Signal developers (2013).signal: Signal processing R-Package URL http://cran.r-


project.org/web/packages/signal/.

Sims, C. A. (1980), “Macroeconomics and Reality”, Econometrica, vol. 48, p. 1-48

Sims, C.A. (1982), “Policy Analysis With Economic Models”, Brookings Papers On Economic
Activity 1, pp. 107-164.

Stewart, M. y Wallis, K. (1984), Introducción a la Econometría, Alianza Editorial.


Swamy, P. A. y Menhta, J. S. (1977), “Estimation Of Linear Models With Time And Cross-
Sectionaly Varying Coefficients”, Journal Of The American Statistical Association 72.

Theil, H. (1954), “Estimation Of Parameters Of Econometrics Models”, Bulletin Of


International Statistics Institute 34, pp.122-128.

Tinbergen, J. (1930), “Bestimmung Und Deutung Von Angebotkurven”, Zeitschrift Für


Nationalökonomie 1.

Venables, W. N. y Ripley, B. D. (2002), Modern Applied Statistics with S. 4ª Ed., Springer.

276
White, H. (1980), “An Heteroskedastic-Consistent Regression with Independent Observation”,
Econometrica 48, pp. 817-838.

Working, E.J. (1927), “What Do Statistical Demand Curves Show?”, Quarterly Journal Of
Economics 41.

Wright, P.G. (1915), “Review Of Economic Cycles By Henry Moore”, Quarterly Journal Of
Economics 29.

Wright, P.G. (1928), “The Tariff On Animal And Vegetable Oils”, New York, The Mcmillan

277

You might also like