Professional Documents
Culture Documents
Julio 2017
1
Indice
Indice 2
2. Introduccion 2
3. Desarrollo Teorico 2
3.1. Representacion espectral de un proceso estacionario . . . . . . . . . . . . . . . . . . . . 3
3.2. Densidad Espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3.3. Periodograma y transformada discreta de Fourier . . . . . . . . . . . . . . . . . . . . . . 4
3.4. Propiedades asintoticas del periodograma . . . . . . . . . . . . . . . . . . . . . . . . . . 5
3.5. Suavizamiento del periodograma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.5.1. Idea general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.5.2. Otros metodos de suavizamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
Referencias 10
2. Introduccion
La representacion espectral de un proceso estacionario {Xt = 0, + 1, +2, ...} descompone {Xt } como la
suma de componentes sinusoidales con coeficientes aleatorios no correlacionados. As mismo, junto a
esta descomposicion existe tambien una descomposicion sinusoidal de la funcion de autocovarianza de
{Xt }. De este modo, la descomposicion espectral es el analogo de la representacion de series de Fourier
de funciones determinsticas pero aplicado a procesos estocasticos estacionarios.
Por lo tanto, el punto de partida de este trabajo es considerar que la regularidad de una serie de tiempo
puede expresarse en terminos de variaciones periodicas del fenomeno subyacente que produce las reali-
zaciones de la serie expresadas como frecuencias de Fourier por medio de senos y cosenos.
Desde el punto de vista teorico, el analisis de las series de tiempo estacionarias a traves de su represen-
tacion espectral se refiere al estudio de la serie en su dominio de frecuencias. Esto representa un enfoque
alternativo para observar el proceso, en el cual en ciertos fenomenos provee informacion valiosa mas alla
de solo el estudio de la funcion de autocovarianza.
Para efectos de la presente investigacion se hace un breve estudio de la representacion espectral del
proceso. Luego se estudiara la representacion espectral de la funcion de autocovarianza lo cual nos per-
mite introducir la funcion de densidad espectral. A partir de esta funcion de densidad veremos que bajo
ciertas condiciones la funcion de autocovarianza y la densidad espectral contienen la misma informa-
cion. Posteriomente se introducira el periodograma que constituye la version muestral de la funcion de
densidad espectral. A partir del periodograma se exploraran sus propiedades asintoticas, suavizamiento
e intervalos de confianza del espectro.
3. Desarrollo Teorico
En esta seccion se presenta el desarrollo teorico del modelo. As mismo se muestran los principales
supuestos del modelo, as como detalles especficos de la estimacion e inferencia de sus parametros.
2
j
donde Uk1 , Uk2 para k = 1, 2, ..., q son variable aleatorias con media cero y varianza k2 y j = n
corresponden a los ciclos.
De esta forma, conviene primero definir que es un proceso estacionario evaluado en los complejos.
2
Definicion 1 El proceso {Xt } se dice ser un proceso estacionario complejo si E|Xt | < , E(Xt ) es
independiente de t y E(Xt+h Xt ) es independiente de t.
Analogo al caso real, la funcion de autocovarianza mostrada en la definicion (2) cumple las siguientes
propiedades:
1. (0) 0.
A partir de las propiedades anteriores, tenemos la siguiente propiedad que nos permite definir a funcion
de autocovarianza de un proceso estocastico complejo.
Propiedad 1 Una funcion () definida en los enteros es la funcion de autocovarianza de una serie de
tiempo estacionario (posiblemente compleja) si y solo si () es hermitiana y definida no negativa.
La propiedad anterior nos permite definir la funcion de distribucion espectral F () la cual cumple las
siguientes condiciones: es monotona no decreciente, continua por la derecha, toma los valores F (1/2) =
0 y F (1/2) = 2 = X (0).
1, +
Propiedad 2 Una funcion (h) para h = 0, + 2, ... es definida no negativa si y solo si puede expre-
sarse como: Z 1 2
(h) = e2ih dF ()
1
2
A continuacion, presentamos una version del teorema de representacion espectral para el proceso esta-
cionario {Xt }. 1 Esta propiedad es la que permite expresar el proceso estacionario como la suma de
senos y cosenos de la ecuacion (1).
1 1
Donde, para 2 1 2 2 se tiene que var{Z(2 ) Z(1 )} = F (2 ) F (1 ).
1 Ver [3] para mas detalles.
3
3.2. Densidad Espectral
En general, la funcion de densidad espectral puede ser una mixtura de distribuciones continuas y dis-
cretas. Sin embargo, a lo largo del presente trabajo supondremos el caso en que F es absolutamente
continua, de este modo se cumple dF () = f ()d. Por lo tanto, a partir de la propiedad (2) junto con
la hipotesis de que (h) es absolutamente sumable se tiene la siguiente propiedad.
X
f () = |(h)|e2ih (2)
La ecuacion (2) cumple ser periodica, par y su funcion de autocovarianza se puede escribir en el dominio
de frecuencias como:
Z 1/2 Z 1/2
(h) = e2ih f ()d = cos 2hf ()d (3)
1/2 1/2
Por otro lado vemos que (h) en la ecuacion 3 es la funcion caracterstica de la funcion espectral definida
en la ecuacion 2. De este modo, cuando se cumplen las condiciones de la propiedad (4) tenemos que
la funcion de autocovarianza y la funcion de densidad espectral contienen la misma informacion. Sin
embargo, la informacion es expresada en formatos diferentes. En el caso de la autocovarianza, esta
funcion muestra la informacion en terminos de lags, mientras que la densidad espectral lo muestra en
terminos de ciclos.
para j = 0, 1, ..., n 1
De esta forma, el periodograma es el modulo al cuadrado de la TDF.
Definicion 4 Periodograma
Dados los datos x1 , ..., xn , se define el periodograma como:
para j = 0, 1, ..., n 1
A partir del periodograma se tienen representaciones backward y forward para desplazarnos entre el anali-
sis temporal (Funcion de autocovarianza muestral) y el analisis de frecuencias. De esta forma asumiendo
datos centrados tenemos que:
nX 2
I(0) =
(h)e2ij h
P
I( )
j = |h|<n Si j 6= 0
4
Pn|h|
donde (h) = t=1 (Xt + |h| X)(Xt X) y X es la media muestral.
Por otro lado, dada la naturaleza del analisis de Fourier conviene trabajar con las partes reales e imagi-
narias de la TDF las cuales definimos a continuacion:
2I(j:n ) 2I(j:n )
2 f (j ) 2 (8)
1 (2) (2)
2 2
5
Ejemplo 1 Distribucion del periodograma para el ruido blanco gaussiano.
Ahora se muestra un ejemplo sencillo sobre la distribucion del periodograma del ruido blanco normal.
Se sabe de la definicion que I() = (0); ademas, f () = (0), para cualquier . Se procede a estudiar
la distibucion de 2fI()
() , para fijo.
y debido a que cada xt es normal, dc () es combinacion lineal de normales, por lo que es tambien normal
con media 0 y varianza (0)/2. Para ds () vale un resultado analogo. De esta manera, las variables:
I()
2
f ()
tiene distribucion chi cuadrado con 2 grados de libertad, por lo que se tiene
I()
E 2 = 2 E[I()] = f ()
f ()
y el resultado mas interesante
I()
var 2 = 4 var(I()) = f 2 ()
f ()
De este segundo resultado se puede identificar que para este ejemplo el estimador I() de f () es
insesgado, pero no es un estimador consistente, pues su varianza no importa el tamano de muestra, por
lo que la estimacion de f () nunca va a mejorar por mas observaciones que se incluyan.
El comportamiento inconsistente observado en la varianza del estimador I(j ) se puede explicar de
la siguiente manera: Conforme aumenta el tamano de muestra, tambien la cantidad de frecuencias de
Fourier aumenta, por lo que la informacion que se agrega al modelo mediante un tamano de muestra
mayor queda diluida ante la mayor cantidad de parametros que se deben calcular para cada frecuencia.
Esta observacion respecto a la inconsistencia de I() es la motivacion para explorar los metodos de la
seccion siguiente.
6
Los diferentes metodos difieren basicamente en la forma en que se asignan esos pesos.
Existe literatura en la que la descripcion anterior se hace en funcion de bandas, de forma que se define
una banda B con L elementos mediante
B = { : j m/n j + m/n}
y se define su ancho de banda por Bw = L/n. Bajo el esquema anterior, se define el suavizador de
Daniell :
m
X
E[f()] Wm (k)f ( + k/n)
k=m
m 2
X k 0 1 k
Wm (k)[f () + f () + f 00 ()
n 2 n
k=m
Por la simetra de los pesos Wm (k) se cancelan los terminos asociados a f 0 y resulta:
m
1 f 00 () X 2
E[f ()] f () + 2 k Wm (k)
n 2
k=m
7
Por el otro lado, para la varianza se tiene la aproximacion
m
X
var f() 2
(k)f 2 ()
Wm
k=m
y en el caso de Daniell se tiene que como los pesos son uniformes, entonces
m
X
2 1
Wm (k) =
2m + 1
k=m
Daniell modificado Consiste en asignar un peso menor a las frecuencias en los extremos de la
banda. Su funcion Wm () se describe por
1
2m , si |k| < m
Wm (k) =
1
, si |k| = m
4m
Iteraciones de la misma ventana Otra tecnica usual consiste en suavizar el periodograma crudo
para obtener un estimador f1 . Seguidamente, se puede suavizar al periodograma suavizado f1 para
obtener otro suavizador f2 , y as de manera iterada.
Lo anterior es equivalente a aplicar el suavizador reultante de la convolucion iterativa del mismo
suavizador base.
Una forma alternativa de describir los metodos de suavizamiento es utilizando conocimiento respecto a
la funcion de autocovarianza de la serie. Historicamente, esto fue especialmente util antes de la imple-
mentacion de la transformada rapida de Fourier.
Partiendo de (9) y utilizando el hecho de que I(j ) = |h|<n (h)e2ij h se tiene:
P
m
X
f() = Wm (k)I( + k/n)
k=m
m
" n1
#
k
X X
2i(j + n )h
= Wm (k) (h)e
k=m h=n+1
n1
" m
#
k
X X
2i
= (h) Wm (k)e n h
e2ij h
h=n+1 k=m
Note que por las caractersticas de la funcion ventana espectral la expresion entre parentesis cuadrados
en la formula anterior satisface, como funcion de h/n , las siguientes propiedades:
w(x) = w(x)
w(0) = 1
w(x) 1 si |x| 1
Se define la lag window como cualquier funcion que satisfaga las propiedades de arriba, y a partir de la
misma se definen estimadores de la forma
8
X
f() = w(h/r)(h)e2ih (10)
|h|r
Dirichlet
Esta definido por la lag window
w(x) = 1 ,para |x| 1
y satisface
n o 2r
var f() f 2 ()
n
Fejer Esta definido por la lag window
y satisface
n o 2r 2
var f() f ()
3n
Por ultimo, a partir de las ecuacion (9) es posible redifinir el intervalo de confianza de la aproximacion
dado que se puede mejorar la aproximacion de f con variables aleatorias 22 independientes e identica-
mente distribuidas.
En este caso, esta distribucion puede aproximarse por medio de la distribucion de cY donde c es una
constante y Y 2 . Mediante este procedimiento, c y se pueden estimar mediante el metodo de
momentos; es decir, se define la media y la varianza de cY igual que la media y la varianza asintotica
de f(). Esto produce las ecuaciones:
c = f ()
2c2 =
P 2
Wm (k)f 2 ()
|k|m
En este caso se conoce como los grados de libertad equivalente del estimador f. Por lo tanto, la
distribucion de f()/f () se puede aproximar mediante una distribucion chi cuadrado con grados
de intervalo y con un 100(1 ) % de confianza en el intervalo para f () mediante:
f() f()
2 f (j ) 2 (11)
1 () ()
2 2
para 0 < < . A efectos de suavizar la expresion (11) se pueden aplicar logaritmos a ambos lados del
intervalo.
9
Referencias
[1] Brockwell, Peter J. y Davis, Richard A.(2002) Introduction to time series and forecasting. Springer.
[2] Brockwell, Peter J. y Davis Richard A. (2009) Time Series Theory and Methods (Springer Series
in Statistics).Springer.
[3] Cryer, Jonathan D. y Chan, Kung-Sik. (2008) Time Series Analysis with Applications in R. Springer.
[4] Shumway, Robert H y Stoffer, David S. (2010) Time Series Analysis and Its Applications. Springer.
10