You are on page 1of 10

Analisis espectral no parametrico de series de tiempo

Julio 2017

1
Indice

Indice 2

2. Introduccion 2

3. Desarrollo Teorico 2
3.1. Representacion espectral de un proceso estacionario . . . . . . . . . . . . . . . . . . . . 3
3.2. Densidad Espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3.3. Periodograma y transformada discreta de Fourier . . . . . . . . . . . . . . . . . . . . . . 4
3.4. Propiedades asintoticas del periodograma . . . . . . . . . . . . . . . . . . . . . . . . . . 5
3.5. Suavizamiento del periodograma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.5.1. Idea general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.5.2. Otros metodos de suavizamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

Referencias 10

2. Introduccion
La representacion espectral de un proceso estacionario {Xt = 0, + 1, +2, ...} descompone {Xt } como la
suma de componentes sinusoidales con coeficientes aleatorios no correlacionados. As mismo, junto a
esta descomposicion existe tambien una descomposicion sinusoidal de la funcion de autocovarianza de
{Xt }. De este modo, la descomposicion espectral es el analogo de la representacion de series de Fourier
de funciones determinsticas pero aplicado a procesos estocasticos estacionarios.
Por lo tanto, el punto de partida de este trabajo es considerar que la regularidad de una serie de tiempo
puede expresarse en terminos de variaciones periodicas del fenomeno subyacente que produce las reali-
zaciones de la serie expresadas como frecuencias de Fourier por medio de senos y cosenos.
Desde el punto de vista teorico, el analisis de las series de tiempo estacionarias a traves de su represen-
tacion espectral se refiere al estudio de la serie en su dominio de frecuencias. Esto representa un enfoque
alternativo para observar el proceso, en el cual en ciertos fenomenos provee informacion valiosa mas alla
de solo el estudio de la funcion de autocovarianza.
Para efectos de la presente investigacion se hace un breve estudio de la representacion espectral del
proceso. Luego se estudiara la representacion espectral de la funcion de autocovarianza lo cual nos per-
mite introducir la funcion de densidad espectral. A partir de esta funcion de densidad veremos que bajo
ciertas condiciones la funcion de autocovarianza y la densidad espectral contienen la misma informa-
cion. Posteriomente se introducira el periodograma que constituye la version muestral de la funcion de
densidad espectral. A partir del periodograma se exploraran sus propiedades asintoticas, suavizamiento
e intervalos de confianza del espectro.

3. Desarrollo Teorico
En esta seccion se presenta el desarrollo teorico del modelo. As mismo se muestran los principales
supuestos del modelo, as como detalles especficos de la estimacion e inferencia de sus parametros.

3.1. Representacion espectral de un proceso estacionario


El objetivo de esta seccion es presentar una representacion espectral {Xt } y de esta forma considerar
un proceso estocastico estacionario de la siguiente forma:
q
X
Xt = [Uj1 cos(2j t) + Uj2 sin(2j t)] (1)
j=1

2
j
donde Uk1 , Uk2 para k = 1, 2, ..., q son variable aleatorias con media cero y varianza k2 y j = n
corresponden a los ciclos.
De esta forma, conviene primero definir que es un proceso estacionario evaluado en los complejos.
2
Definicion 1 El proceso {Xt } se dice ser un proceso estacionario complejo si E|Xt | < , E(Xt ) es
independiente de t y E(Xt+h Xt ) es independiente de t.

Definicion 2 La funcion de autocovarianza () de un proceso estacionario complejo {Xt } es:

(h) = E(Xt+h Xt ) E(Xt+h )E(Xt )

Analogo al caso real, la funcion de autocovarianza mostrada en la definicion (2) cumple las siguientes
propiedades:

1. (0) 0.

2. |(h)| (0) para todo h entero.


3. () es una funcion Hermitiana; es decir, (h) = (h).
Pn
4. () es una funcion definida no negativa; es decir, s,t=1 as (st)at 0 para todo entero positivo
n y todo vector a = (a1 , ..., an )0

A partir de las propiedades anteriores, tenemos la siguiente propiedad que nos permite definir a funcion
de autocovarianza de un proceso estocastico complejo.

Propiedad 1 Una funcion () definida en los enteros es la funcion de autocovarianza de una serie de
tiempo estacionario (posiblemente compleja) si y solo si () es hermitiana y definida no negativa.
La propiedad anterior nos permite definir la funcion de distribucion espectral F () la cual cumple las
siguientes condiciones: es monotona no decreciente, continua por la derecha, toma los valores F (1/2) =
0 y F (1/2) = 2 = X (0).

1, +
Propiedad 2 Una funcion (h) para h = 0, + 2, ... es definida no negativa si y solo si puede expre-
sarse como: Z 1 2
(h) = e2ih dF ()
1
2

donde F () es no decreciente, continua por la derecha y acotada en [ 1 1


2 , 2]

A continuacion, presentamos una version del teorema de representacion espectral para el proceso esta-
cionario {Xt }. 1 Esta propiedad es la que permite expresar el proceso estacionario como la suma de
senos y cosenos de la ecuacion (1).

Propiedad 3 Teorema de Representacion Espectral Si {Xt } es un proceso estocastico de media


cero, con funcion de densidad espectral F () con las condiciones de la propiedad (2), entonces existe
un proceso estocastico complejo Z() en el intervalo [ 1 1
2 , 2 ] que tiene incrementos estacionarios no
correlacionados, de manera que {Xt } puede escribirse como la integral estocastica.
Z 1
2
{Xt } = e2ih dZ()
1
2

1 1
Donde, para 2 1 2 2 se tiene que var{Z(2 ) Z(1 )} = F (2 ) F (1 ).
1 Ver [3] para mas detalles.

3
3.2. Densidad Espectral
En general, la funcion de densidad espectral puede ser una mixtura de distribuciones continuas y dis-
cretas. Sin embargo, a lo largo del presente trabajo supondremos el caso en que F es absolutamente
continua, de este modo se cumple dF () = f ()d. Por lo tanto, a partir de la propiedad (2) junto con
la hipotesis de que (h) es absolutamente sumable se tiene la siguiente propiedad.

Propiedad 4 Funcion de densidad Espectral PSi () es la funcion de autocovarianza de un proceso


estacionario {Xt } que satisface la condicion |(h)| < . Entonces para 1/2 1/2 la
densidad espectral se define como:


X
f () = |(h)|e2ih (2)

La ecuacion (2) cumple ser periodica, par y su funcion de autocovarianza se puede escribir en el dominio
de frecuencias como:
Z 1/2 Z 1/2
(h) = e2ih f ()d = cos 2hf ()d (3)
1/2 1/2

Por otro lado vemos que (h) en la ecuacion 3 es la funcion caracterstica de la funcion espectral definida
en la ecuacion 2. De este modo, cuando se cumplen las condiciones de la propiedad (4) tenemos que
la funcion de autocovarianza y la funcion de densidad espectral contienen la misma informacion. Sin
embargo, la informacion es expresada en formatos diferentes. En el caso de la autocovarianza, esta
funcion muestra la informacion en terminos de lags, mientras que la densidad espectral lo muestra en
terminos de ciclos.

3.3. Periodograma y transformada discreta de Fourier


En esta seccion se muestra el periodograma, que representa la version muestral de la funcion de densidad
espectral.

Definicion 3 Transformada discreta de Fourier (TDF)


Definimos la TDF de (x1 , ..., xt ) como:
n
X
d(j ) = n1/2 xt e2ij t
t=1

para j = 0, 1, ..., n 1
De esta forma, el periodograma es el modulo al cuadrado de la TDF.

Definicion 4 Periodograma
Dados los datos x1 , ..., xn , se define el periodograma como:

I(j ) = |d(j )|2

para j = 0, 1, ..., n 1
A partir del periodograma se tienen representaciones backward y forward para desplazarnos entre el anali-
sis temporal (Funcion de autocovarianza muestral) y el analisis de frecuencias. De esta forma asumiendo
datos centrados tenemos que:

nX 2

I(0) =

(h)e2ij h
P
I( )
j = |h|<n Si j 6= 0

4
Pn|h|
donde (h) = t=1 (Xt + |h| X)(Xt X) y X es la media muestral.
Por otro lado, dada la naturaleza del analisis de Fourier conviene trabajar con las partes reales e imagi-
narias de la TDF las cuales definimos a continuacion:

Definicion 5 Dado los datos x1 , ..., xn definimos la transformacion coseno como:


n
X
dc (j ) = n1/2 xt cos(2j t)
t=1

Mientras que la transformacion seno esta dada por:


n
X
ds (j ) = n1/2 xt sin(2j t)
t=1

con j = j/n para j = 0, 1, ..., n 1.


De la definicion anterior se cumple entonces que d() = dc () + i ds () y por lo tanto |d()|2 =
(dc ())2 + (ds ())2 .

3.4. Propiedades asintoticas del periodograma


En esta seccion consideramos las propiedades asintoticas del periodograma de X1 , ..., Xn cuando {Xt }
es una serie de tiempo estacionaria con media y funcion de autocovarianza absolutamente sumable
(). En este caso, conviene tener presente la siguiente representacion del periodograma:

n|h|
1 X X
I(j ) = (Xt+|h| )(Xt ) e2ij h (4)
n t=1
|h|<n

con j 6= 0. Al tomar esperanza en la ecuacion (4) se obtiene:


X  n |h| 
E[I(j )] = (h)e2ij h (5)
n
|h|<n

De esta forma, cuando j:n se tiene gracias a la ecuacion (2) que:



X
E[I(j )] f () = |(h)|e2ih (6)

El resultado anterior se puede generalizar de la siguiente manera:

Propiedad 5 Distribucion del periodograma Si:



X
X
Xt = tj || <

P
donde wt iid(0, 2 ), |h||(h)| < , entonces para cualquier coleccion de m frecuencias distintas
j (0, 1/2) con wj:n j se tiene que:
2I(j:n ) d
iid 22 (7)
f (j )
Donde f () > 0 para j = 1, ..., m.
En este caso, la expresion (7) nos permite aproximar un intervalo de confianza con un nivel de signifi-
cancia de la siguiente forma:

2I(j:n ) 2I(j:n )
2 f (j ) 2 (8)
1 (2) (2)
2 2

5
Ejemplo 1 Distribucion del periodograma para el ruido blanco gaussiano.
Ahora se muestra un ejemplo sencillo sobre la distribucion del periodograma del ruido blanco normal.
Se sabe de la definicion que I() = (0); ademas, f () = (0), para cualquier . Se procede a estudiar
la distibucion de 2fI()
() , para fijo.

Conforme a la definicion (5) se tiene que:


X
dc () = n1/2 xt cos(2t)
t

y debido a que cada xt es normal, dc () es combinacion lineal de normales, por lo que es tambien normal
con media 0 y varianza (0)/2. Para ds () vale un resultado analogo. De esta manera, las variables:

2 (dc ())2 2 (ds ())2


y
(0) (0)
2 2
tienen distribucion chi cuadrado con un grado de libertad, por lo que su suma (i.e. (0) |d()| ) distribuye
chi cuadrado con 2 grados de libertad. De lo anterior se deduce que :

I()
2
f ()
tiene distribucion chi cuadrado con 2 grados de libertad, por lo que se tiene
 
I()
E 2 = 2 E[I()] = f ()
f ()
y el resultado mas interesante
 
I()
var 2 = 4 var(I()) = f 2 ()
f ()
De este segundo resultado se puede identificar que para este ejemplo el estimador I() de f () es
insesgado, pero no es un estimador consistente, pues su varianza no importa el tamano de muestra, por
lo que la estimacion de f () nunca va a mejorar por mas observaciones que se incluyan.
El comportamiento inconsistente observado en la varianza del estimador I(j ) se puede explicar de
la siguiente manera: Conforme aumenta el tamano de muestra, tambien la cantidad de frecuencias de
Fourier aumenta, por lo que la informacion que se agrega al modelo mediante un tamano de muestra
mayor queda diluida ante la mayor cantidad de parametros que se deben calcular para cada frecuencia.
Esta observacion respecto a la inconsistencia de I() es la motivacion para explorar los metodos de la
seccion siguiente.

3.5. Suavizamiento del periodograma


Como se observo en la seccion anterior, el estimador I() de la densidad espectral no es consistente,
por lo que muestra alta variabilidad. Para evitar esto, existen tecnicas que disminuyen esa variabilidad
bajo el costo de aumentar el sesgo del estimador. De esta forma, el proposito de la presente seccion es
mostrar con detalle como se logra esto mediante el suavizador de Daniell, y se exploran en la practica
otras tecnicas como los kernels de Daniell modificado, Dirichlet y Fejer.

3.5.1. Idea general


La idea general de los suavizadores consiste en ponderar las frecuencias alrededor de una frecuencia
meta. El grado del suavizamiento depende entonces de dos aspectos principales:

La cantidad L = 2m+1 de frecuencias circundantes utilizadas para generar el estimador suavizado.


Los pesos asignados a las frecuencias circundantes.

6
Los diferentes metodos difieren basicamente en la forma en que se asignan esos pesos.

Definicion 6 Ventana espectral


Una ventana espectral es una funcion Wm () sobre las densidades de Fourier tal que

Wm (k) 0
Wm (k) = Wm (k)
Pm
k=m Wm (k) = 1

Bajo este concepto se puede describir cualquier metodo de suavizamiento mediante:


m
X
f() = Wm (k)I( + k/n) (9)
k=m

Existe literatura en la que la descripcion anterior se hace en funcion de bandas, de forma que se define
una banda B con L elementos mediante

B = { : j m/n j + m/n}
y se define su ancho de banda por Bw = L/n. Bajo el esquema anterior, se define el suavizador de
Daniell :

Definicion 7 Suavizador de Daniell


El suavizador de Daniell esta descrito por
1 1
Wm (k) = =
2m + 1 L
Ahora se detalla en la manera en que el suavizamiento contribuye a crear un estimador consistente a
cambio de incorporar algo de sesgo:
En primer lugar, se tiene que a partir de los resultados asintoticos de la seccion anterior y aproximando
por Taylor:

m
X
E[f()] Wm (k)f ( + k/n)
k=m
m  2
X k 0 1 k
Wm (k)[f () + f () + f 00 ()
n 2 n
k=m

Por la simetra de los pesos Wm (k) se cancelan los terminos asociados a f 0 y resulta:
m
1 f 00 () X 2
E[f ()] f () + 2 k Wm (k)
n 2
k=m

por lo que el sesgo del estimador esta dado aproximadamente por:


m
1 f 00 () X 2
k Wm (k)
n2 2
k=m

Note que para el caso de Daniell, esto es proporcional a:


m m
k2
 3
m2

1 X 2 1 X 2 m m
k W m (k) = = + +
n2 n2 2m + 1 n2 (2m + 1) 3 2 6
k=m k=m

que tiende a 0 en tanto n y m/n 0.

7
Por el otro lado, para la varianza se tiene la aproximacion
m
X
var f() 2
(k)f 2 ()

Wm
k=m

y en el caso de Daniell se tiene que como los pesos son uniformes, entonces
m
X
2 1
Wm (k) =
2m + 1
k=m

Note que esto tiende a 0 en tanto m .


En resumen, para disminuir la varianza se requiere utilizar cada vez mas observaciones para el suaviza-
miento, y para mantener el sesgo controlado se requiere que m sea pequeno respecto a n.

3.5.2. Otros metodos de suavizamiento


A partir de la definicion de ventana espectral se pueden definir infinidad de suaviazadores. Se hara
mencion de algunas tecnicas usuales.

Daniell modificado Consiste en asignar un peso menor a las frecuencias en los extremos de la
banda. Su funcion Wm () se describe por
1
2m , si |k| < m
Wm (k) =
1
, si |k| = m

4m

Iteraciones de la misma ventana Otra tecnica usual consiste en suavizar el periodograma crudo
para obtener un estimador f1 . Seguidamente, se puede suavizar al periodograma suavizado f1 para
obtener otro suavizador f2 , y as de manera iterada.
Lo anterior es equivalente a aplicar el suavizador reultante de la convolucion iterativa del mismo
suavizador base.

Una forma alternativa de describir los metodos de suavizamiento es utilizando conocimiento respecto a
la funcion de autocovarianza de la serie. Historicamente, esto fue especialmente util antes de la imple-
mentacion de la transformada rapida de Fourier.
Partiendo de (9) y utilizando el hecho de que I(j ) = |h|<n (h)e2ij h se tiene:
P

m
X
f() = Wm (k)I( + k/n)
k=m
m
" n1
#
k
X X
2i(j + n )h
= Wm (k) (h)e
k=m h=n+1
n1
" m
#
k
X X
2i
= (h) Wm (k)e n h
e2ij h
h=n+1 k=m

Note que por las caractersticas de la funcion ventana espectral la expresion entre parentesis cuadrados
en la formula anterior satisface, como funcion de h/n , las siguientes propiedades:

w(x) = w(x)
w(0) = 1
w(x) 1 si |x| 1

Se define la lag window como cualquier funcion que satisfaga las propiedades de arriba, y a partir de la
misma se definen estimadores de la forma

8
X
f() = w(h/r)(h)e2ih (10)
|h|r

donde r es la cantidad de valores de la funcion de autocovarianza que se desean incorporar al calculo


del estimador. Note que si se hace r = n el estimador sera efectivamente el periodograma crudo.
Se mencionaran unos cuantos metodos adicionales usuales en la literatura y de uso comun en las imple-
mentaciones de software:

Dirichlet
Esta definido por la lag window
w(x) = 1 ,para |x| 1

y satisface
n o 2r
var f() f 2 ()
n
Fejer Esta definido por la lag window

w(x) = 1 |x| ,para |x| 1

y satisface
n o 2r 2
var f() f ()
3n
Por ultimo, a partir de las ecuacion (9) es posible redifinir el intervalo de confianza de la aproximacion
dado que se puede mejorar la aproximacion de f con variables aleatorias 22 independientes e identica-
mente distribuidas.
En este caso, esta distribucion puede aproximarse por medio de la distribucion de cY donde c es una
constante y Y 2 . Mediante este procedimiento, c y se pueden estimar mediante el metodo de
momentos; es decir, se define la media y la varianza de cY igual que la media y la varianza asintotica
de f(). Esto produce las ecuaciones:

c = f ()
2c2 =
P 2
Wm (k)f 2 ()
|k|m

De modo que se tiene:


X W 2 (k)f () 2
m
c= y =P 2
2 |k|m Wm (k)
|k|m

En este caso se conoce como los grados de libertad equivalente del estimador f. Por lo tanto, la
distribucion de f()/f () se puede aproximar mediante una distribucion chi cuadrado con grados
de intervalo y con un 100(1 ) % de confianza en el intervalo para f () mediante:

f() f()
2 f (j ) 2 (11)
1 () ()
2 2

para 0 < < . A efectos de suavizar la expresion (11) se pueden aplicar logaritmos a ambos lados del
intervalo.

9
Referencias
[1] Brockwell, Peter J. y Davis, Richard A.(2002) Introduction to time series and forecasting. Springer.
[2] Brockwell, Peter J. y Davis Richard A. (2009) Time Series Theory and Methods (Springer Series
in Statistics).Springer.
[3] Cryer, Jonathan D. y Chan, Kung-Sik. (2008) Time Series Analysis with Applications in R. Springer.

[4] Shumway, Robert H y Stoffer, David S. (2010) Time Series Analysis and Its Applications. Springer.

10

You might also like