Professional Documents
Culture Documents
Licenciatura en Matemticas
6 Semestre
Estadstica III
Clave:
05143633/06143633
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
ndice
Unidad 2. Identificacin, estimacin y validacin de modelos .............................................. 3
Presentacin de la unidad ........................................................................................................ 3
Propsitos de la unidad ........................................................................................................... 3
Competencia especfica ........................................................................................................... 3
2.1. Estimacin de la media y momentos de 2o orden............................................................ 3
2.1.1. Estimacin del valor esperado ................................................................................... 4
2.1.2. Estimacin de la sucesin de autocorrelacin ......................................................... 5
2.1.3. Estimacin de la sucesin de autocorrelacin parcial ............................................. 9
2.2. Uso de las sucesiones de autocorrelacin para identificar modelos .......................... 11
2.2.1. Identificar el modelo MA(q) usando la ACF ............................................................. 11
2.2.2. Identificar el modelo AR(p) usando la PACF ........................................................... 13
Actividad 1. Autocorrelacin muestral y estimacin mximo verosmil ............................. 15
2.3. Estimacin de parmetros autorregresivos y de promedios mviles .......................... 15
2.3.1. Mtodo de mxima verosimilitud ............................................................................. 15
2.3.2. Otros estimadores ..................................................................................................... 22
2.4. El problema de prediccin .............................................................................................. 34
2.4.1. Teorema de Proyeccin ortogonal ........................................................................... 35
Actividad 2. Uso de software. ................................................................................................ 36
2.4.2. Las ecuaciones de prediccin .................................................................................. 36
2.5 Validacin de modelos ..................................................................................................... 40
2.5.1. Anlisis de residuales ............................................................................................... 40
2.5.2. Pruebas de normalidad, no correlacin y heterocedasticidad ............................... 44
Actividad 3. Identificacin y estimacin de modelos ........................................................... 45
Autoevaluacin ....................................................................................................................... 45
Evidencia de Aprendizaje. Reporte de modelacin .............................................................. 46
Cierre de la unidad.................................................................................................................. 46
Referencias bibliogrficas ..................................................................................................... 47
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
Unidad 2. Identificacin, estimacin y validacin de modelos
Presentacin de la unidad
En esta unidad estudiars mtodos para identificar modelos posibles para un conjunto de
observaciones 1 , 2 , , . Para ello, se comienza por estudiar cmo estimar la media y la
sucesin de autocorrelacin de un proceso estocstico estacionario de segundo orden. Una vez
propuestos estos estimadores, se revisarn propiedades estadsticas de los mismos; en
particular se notar que para tamaos de muestra grandes, estos estimadores estn
cercanos a los valores de los parmetros del proceso.
Los estimadores de la sucesin de autocorrelacin servirn para identificar modelos dentro de
la clase de procesos (, ) estudiada en la unidad anterior, los cuales podran ser tiles
en la descripcin de las observaciones.
Una vez identificados estos modelos, aprenders a estimar los parmetros que los caracterizan
usando los datos.
Por ltimo, estudiars cmo validar el modelo propuesto para los datos analizando sus
residuales.
Propsitos de la unidad
Al trmino de esta unidad logrars:
Competencia especfica
Estimar los parmetros autorregresivos y de promedios mviles para llevar a cabo pruebas
estadsticas y validar el modelo mediante herramientas computacionales estadsticas.
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
Un proceso estacionario de segundo orden { } se caracteriza, de acuerdo con sus momentos
de segundo orden, por su media y su funcin de autocovarianza (). La estimacin de , y la
1 + +
,
(1 )
1
= 2 ( , )
=1 =1
= 2 ( | |) ( )
=
= 1 (1
=
( 2)
||
) ()
) () ,
| |<
() 0
|()| <
=
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
Para hacer inferencias acerca de se utiliza la media muestral ; en ocasiones es necesario
conocer la distribucin o una aproximacin a la distribucin de . Si la serie de tiempo es
Gaussiana, entonces:
1/2 ( )~ (0, (1
| |<
||
) ())
(Vase: Brockwell, J. y Davis. (2009). Time series: Theory and Methods. New York: SpringerVerlag, p. 220.)
No es difcil construir intervalos de confianza exactos para utilizando este resultado si () es
conocido. Los intervalos de confianza aproximados requieren estimar () usando las
observaciones.
Para muchas series de tiempo, en particular para los modelos lineales y los modelos ,
es aproximadamente normal con media y varianza 1 || < () para grande. Un
intervalo de confianza aproximado del 95% de es:
( 1.96 1/2 / )
(3)
donde = ||< (). Por supuesto, generalmente no es conocido, por lo que debe ser
estimado a partir de los datos. Para los procesos sta es una buena aproximacin a la
para grande.
(4)
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
Para todo y , cuando no exista una posible confusin sobre a qu serie se refiere, se va a
omitir el subndice y escribir (, ) como (, ).
Ntese que (, ) = (, ) para todos los puntos en el tiempo y . La autocovarianza mide
la dependencia lineal entre dos puntos en la misma serie observada en diferentes tiempos.
Recuerda que en la estadstica clsica, cuando (, ) = 0, y no estn relacionadas
linealmente, pero todava puede existir alguna estructura de dependencia entre ellas. Sin
embargo, si y tienen distribucin normal bivariada y (, ) = 0, esto garantiza su
independencia. Es claro que, para = , la autocovarianza se reduce a la varianza (que se
supone finita), ya que
(, ) = [( )2 ] = ( )
Definicin 2.1.2.2. [Funcin de autocorrelacin]
La funcin de autocorrelacin (ACF) se define como
(, ) =
(, )
(, )(, )
(5)
, tales que +
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
,
0
= 0, 1, 2,
(+|| )( ),
< < .
=1
.
0
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
En libros como Shumway, R. y Stoffer, D. (2010). Time Series Analysis and Its Applications: with
R examples y Brockwell, J. y Davis, A. (2009). Time series: Theory and Methods, se demuestra
que si 50, entonces:
~(0,1),
1
donde (0,1) es la distribucin normal estndar. Usando este resultado, se puede graficar
primeramente los valores { } contra las . En la misma grfica se trazan dos lneas paralelas
al eje de las abscisas y tales que pasen por los puntos (0,1.961) y (0, 1.961).
Aquellos valores de { } que caen dentro de la banda delimitada por estas lneas no resultan
1 : 0
Supn que la figura 1 fue obtenida al calcular { }, para unas observaciones 1 , , . En tal
caso se estar identificando que dentro de la clase de procesos MA, el modelo que ayudara a
describir los datos es un MA(2).
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
2.1.3. Estimacin de la sucesin de autocorrelacin parcial
Para los modelos MA(q), el ACF ser cero para las mayores que en valor absoluto.
Adems, dado que 0, el ACF no se anula para = . Por lo tanto, como se explic en el
ejemplo de la seccin 1.4. de la unidad 1, el ACF proporciona una considerable cantidad de
informacin acerca del orden de la dependencia cuando el proceso es de medias mviles. Si el
proceso, por otro lado, es ARMA o AR, el ACF dice poco acerca de los rdenes de la
dependencia. Por lo tanto, vale la pena estudiar una funcin de correlacin que se comporte
como el ACF de modelos MA, pero que sea adecuada para los modelos AR, a saber, la
sucesin de autocorrelacin parcial (PACF).
Para motivar esta idea, se propone un modelo casual AR (1), = 1 + . En la seccin
1.4. de la unidad 1 se vio que ,
( , + ) = 2 ( || 1 2 ), = 0, 1, 2,
La covarianza entre y 1 no es cero, sta vale ( , 1 ) = 2 1 2, adems
[1 , 2 ] = [ , 1 ]. De esta forma, en un proceso AR(1) depende de 1 y 1
depende de 2 . Por lo tanto depende de 2, esto no sucede en un proceso MA(1).
Suponga que se rompe la cadena de dependencia mediante la eliminacin (o la salida parcial)
del efecto 1 . Es decir, se puede calcular la correlacin entre 1 y 2 1 , ya
que se tiene la correlacin entre y 2 con la dependencia lineal de cada uno sobre 1
eliminada. De este modo se ha roto la cadena de dependencia entre y 2 . En efecto,
( 1 , 2 1 ) = ( , 2 1 )
= [ , 2 + 3 + 2 4 + ]
[ , 1 + 2 + 2 3 + ]
=0+0=0
Para el clculo se us la casualidad del proceso { } . Por lo tanto, la herramienta que se
necesita es autocorrelacin parcial, que es la correlacin entre y , donde fue eliminado el
efecto lineal de las variables del proceso, tales que
<<
En la ecuacin (43) de la seccin 1.5. en la unidad 1 se defini la sucesin de autocorrelacin
parcial { } . La ecuacin (41) de esta unidad plantea esta correlacin como: la correlacin
entre +1 y 1 , habiendo eliminado el efecto lineal de las variables 2 , , sobre +1 y
sobre 1 .
Dadas observaciones 1 ,. . . , , se puede estimar { } como sigue:
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
Definicin 2.1.3.1. [Sucesin de autocorrelacin parcial muestral]
La sucesin = 1,2, de auto-correlacin parcial (PACF) muestral de una serie estacionaria,
{ } denotada , para = 1,2, es
11 = 1
22
33
1
|
1
=
1
|
1
1
|1
= 2
1
|1
2
1
1
1
1
1
1
1
|
2
,
1
|
1
1
2 |
3
, , .
2
1 |
1
1,
(5)
donde
0
= ( 1
1
0
2
1
1
2
)
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
1
2
= (
)
_
Compara esta definicin de con la ecuacin (42) de la unidad 1.
( ) = ( ) = 0,
=0
= [( ) ( + )]
=0
=0
9[]
2 +||
=0
{0
|| >
Recuerda que = , por lo que slo se trabaja con valores de > 0. Adems, de la unidad 1
se sabe que se anula si || > es una caracterstica de los modelos MA(q). Dividiendo por
0 ajustado a la ACF de un MA(q):
=0 +
= {1 + 12 + + 2
0
. . .
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
Observacin: usando la informacin recabada 1 , 2 , , x de una serie de tiempo, una forma
de identificar un modelo para los datos es que su ACF muestral se comporte como la ACF
terica de un modelo conocido. En particular, si la ACF muestral h es significativamente
diferente de cero para 0 y despreciable para > . Entonces un modelo MA(q) sera
adecuado para los datos. Para ilustrar lo anterior, la figura A) muestra una realizacin de un
proceso MA(2) simulado usando el paquete R.
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
2.2.2. Identificar el modelo AR(p) usando la PACF
+ = +.
=1
vs
1 = 0
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
La razn por la cual el valor distribucional asinttico para tamaos de muestra grandes de
estimador . Para tamaos de muestra tales que 0, se sabe que los estimadores
{ } de { } , se distribuyen de forma independiente, con media ( ) = 0 y con
( ) 1 ,
cuando
> ,
En libros como Shumway, R. y Stoffer, D. (2010). Time Series Analysis and Its Applications: with
R examples y Brockwell, J. y Davis, A. (2009). Time series: Theory and Methods se puede
profundizar ms en el tema.
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
Actividad 1. Autocorrelacin muestral y estimacin mximo verosmil
El propsito de esta actividad es que relaciones los modelos de ARMA y resuelvas problemas
de procesos estacionarios utilizando la autocorrelacin muestra y estimacin de mximo
verosmil, para ello:
ende los valores de y propuestos (los modelos ARMA(p,q) propuestos) para los datos
tampoco cambian para las observaciones centradas. De lo anterior, se asumir que se trabaja
con procesos ARMA(p,q) con ( ) = 0; Si el modelo ajustado a los datos de media corregida
es :
() = () , { }~(0, 2 ),
entonces el modelo correspondiente para la serie estacionaria original { } se encuentra
sustituyendo para cada t por , donde = 1 =1 es la media muestral de los datos
originales, tratados como una constante fija.
Cuando se conocen p y q, los estimadores de y se pueden encontrar, imaginando que los
datos son observaciones de una serie de tiempo estacionaria Guassiana y maximizando el
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
verosmil con respecto a los + + 1 parmetros 1 , , , 1 , , y 2 . Los estimadores
obtenidos por estos procedimientos son conocidos como estimadores de mxima verosimilitud
(o de mxima verosimilitud Gaussiana).
Supn que { } es un proceso de ruido blanco con distribucin normal media cero y varianza 2 ,
se obtiene la funcin densidad conjunta de los errores aleatorios:
(++1 , ++2 , . . . , ) =
( )
2
(2)
++
exp {
=++1
2
}
22
(6)
=+++1
= (++1 , ++2 , . . . , ) =
(2)( )/2 ++
exp {
(1 1 0 +1
1 ++
=++1
(7)
/22 }
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
++
( , 0 , , 2 | ) = (2)()/2
exp{ ( , 0 , ) /22 }
~
~
~
~
~
(8)
con
( , 0 , ) =
~
~
2 =
=++1
(9)
( 1 1 . . . 0 + 0 + 11 + + )
=++1
2
( , 0 , ) y posteriormente se determina el estimador de . Supngase en principio, que ya
~
~
(2 , | ; , 0 , ) = log [ (2 , | ; , 0 , )]
~ ~
~ ~
~
~
( , 0 , )
( )
=
~ 2 ~ .
2[log(2) log(2 )]
2
(10)
+ + (~, 0 , ~)
| 2 2=
+
,
2 =
22
que produce
(11)
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
( , 0 , )
~
~
2 =
,
(12)
y que, como puede verificarse, produce un mximo de (2 , | ; , 0 , ); de esta manera
~ ~
~
puede usarse (2.3.1.5) como el estimador de 2 , pero en la prctica se suele usar el estimador
insesgado (2.3.1.7), que se denota igualmente por 2 , y se considera la correlacin por grados
de libertad usados en estimar a todos los parmetros del modelo
( , 0 , )
~
~
2 =
.
1
(13)
() = ( + 1 + 2 2 + + 1 1 )2 ,
=1
con esta expresin, se pude pensar en maximizar () al encontrar el valor que fue solucin
de
()
| =0
=
pero esta ecuacin no resulta ser lineal en y no tiene solucin analtica. Por consiguiente,
deber utilizarse algn procedimiento numrico para encontrar el mnimo de (); dicho
procedimiento podra consistir en evaluar () en diversos puntos de dentro de la regin
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
admisible 1 < < 1, de esta manera se obtendra una grfica como la de la figura 4. De una
grfica como sta sera posible estimar a con la exactitud deseada.
, 0 y basado en el
~
~
algoritmo Marquardt (1963), que es utilizado por varios paquetes de cmputo estadsticos y que
permiten obtener no slo estimaciones puntuales de los parmetros, sino tambin intervalos de
confianza. Dicho mtodo tiene como fundamento un desarrollo en series de Taylor que linealiza
valores iniciales de los parmetros , 0 y . Los valores iniciales sern recogidos con el
~
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
n
1
1
L(n ) = (2)2 (det n )2 exp ( n n 1 n )
2
(14)
(15)
(16)
)Dn (X X
) =
= (X X
)2
=1(X X
1
(17)
y
= ( C )2 ( D ) = 0 1 1
(18)
1
(2) 0 1
)2
1 =1(X X
}
2
1
(19)
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
Incluso si { } no es Gaussiana, esto an tiene sentido para considerar la ecuacin (6) como
una medida de bondad de ajuste del modelo de los datos y para escoger los parmetros
1 , , , en un camino tal como la maximizacin (6). Debe hacer referencia siempre a los
estimadores 1 , , obtenidos como estimadores de mxima verosimilitud, incluso cuando { }
no es Gaussiana. Sin tomar en cuenta la distribucin conjunta de 1 , , , se debe hacer
referencia a (6) y a sus equivalencias algebraicas (6) como la verosimilitud (o verosimilitud
Gaussiana) de 1 , , . Una justificacin para usar estimadores de mxima verosimilitud
Gaussiana de los coeficientes de ARMA es que la distribucin muestral grande de los
estimadores es la misma para {Z }~(0, 2 ), sin tener en cuenta si {Z } es o no Gaussiana.
La verosimilitud para los datos de un proceso ARMA(p,q) es fcilmente calculada de las
innovaciones formadas de la verosimilitud de la ecuacin (6) evaluando los predictores paso a
paso +1 y la correspondiente media cuadrada del error .
(+1 +1 ), 1 n < ,
=1
(20)
1 + + +1 + (+1 +1 ),
{
=1
y
+1 )2 = 2
(+1 +1 )2 = 2 (+1
(21)
1
(2 2 ) 0 1
)2
1 =1(X X
}
2 2
1
(22)
2 = 1 (, )
(23)
donde
(, ) =
)2
=1(X X
1
(24)
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
(, ) = ln(
(, ) +
(25)
=1
(, )
( , )
2( + + 1)
)+
Para cualesquiera y es claro que la AICC se minimiza cuando y son vectores que
minimizan 2 ( , ,
( , )
decisiones finales con respecto a la seleccin de orden deben hacerse por consiguiente con
base en los estimadores de mxima verosimilitud.
Para una muestra de tamao grande el estimador de mxima verosimilitud de
(1 , , , 1 , , ) es aproximadamente distribuida normalmente con media y matriz de
covarianza [1 ()], la cual puede ser aproximada por 2 1 (), donde es la matriz Hessian
+
[ 2 ()/ ],=1 .
(26)
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
Los mtodos Yule-Walker y Burg aplicados para el ajuste de modelos autorregresivos puros.
(Aunque lo anterior puede adaptarse a modelos con > 0, esto es menos eficiente que cuando
= 0).
Para el algoritmo de Burg de modelos de autorregresin pura, usualmente da verosimilitudes
ms altas que las ecuaciones de Yule-Walker. Para modelos puros de promedios mviles, el
algoritmo de innovaciones frecuentemente da verosimilitudes ligeramente mayores que el de
Hannan-Rissanen. Para modelos mixtos (es decir aquellos con > 0 y > 0), el algoritmo de
Hannan-Rissanen es usualmente muy exitoso encontrando modelos causales (los cuales son
requeridos para inicializar la maximizacin de verosimilitud).
Estimacin Yule-Walker
Supn que { } es un proceso AR(p) casual, y tal que ( ) = 0, donde { } es ruido blanco
con ( ) = 0 para todo t:
1 1 = ,
(27)
para un entero 0, se multiplica (27) de ambos lados por y se calcula el valor esperado
[ ] 1 [ 1 ] [ ] = ( ).
Es decir
1 1 = (( ) ),
(28)
=0
( ) = [ ],
=0
=0
si
si 0.
= = 0.
Concretamente
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
2
[ ] = {0
0
=0
si = 0
en otro caso.
1 1 . . . 0
= 2
=0
=
= 0,
(29)
(30)
(31)
y
2 = 0 .
Estas ecuaciones pueden ser usadas para determinar (0), , () de 2 y . O bien para
determinar como sigue: si se reemplazan las covarianzas (), = 0, , que aparecen en
(30) y (31) por la correspondiente covarianza muestral (), se obtiene un conjunto de
ecuaciones para los llamados estimadores Yule-Walker y 2 de y 2 , especficamente,
=
p
(32)
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
y
=
p
(33)
donde
Si (0) > 0, entonces m es no singular para toda = 1,2, , por lo que se puede reescribir las
ecuaciones (32) y (33) como las ecuaciones de Yule-Walker de la siguiente manera:
= (1 , , ) = 1
(34)
2 = (0)[1 1 ]
(35)
donde
= ((1), , ()) =
(0)
.
(0)
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
mxima verosimilitud. Sin embargo, los estimadores de Yule-Walker de los coeficientes
1 , , de un proceso AR(p) tienen aproximadamente la misma distribucin que las muestras
grandes, como la correspondiente de la estimacin por mxima verosimilitud.
Para una muestra suficientemente grande de un proceso AR(p), (, 1 2 p1 ).
Si se remplaza 2 y p por sus estimaciones 2 y p , se puede usar este resultado para
encontrar regiones de confianza para y cada componente como en las expresiones (24) y
(25).
En la prctica no se sabe el verdadero fin del modelo de la generacin de los datos. De hecho,
por lo general ser el caso de que no existe un modelo AR cierto, en cuyo caso nuestro objetivo
es simplemente encontrar uno que represente los datos de forma ptima en algn sentido. Dos
tcnicas tiles para la seleccin adecuada de un modelo AR son las siguientes. La segunda es
ms sistemtica y se extiende ms all de la clase limitada de modelos autorregresivos puros.
Definicin 1. [El modelo ajustado Yule-Walker AR(m) ]
Es:
1 1 = , { }~(0, )
donde
1
= (1 , , ) =
y
1
= (0)[1
]
(36)
(37)
(38)
En ambos enfoques para ordenar la seleccin se tiene que ajustar los modelos AR de
incrementos graduales con el fin de obtener los datos. Aqu es posible utilizar exactamente el
mismo esquema del algoritmo de Levinson-Durbin para resolver las ecuaciones de Yule-Walker
(22) y (23), con la nica diferencia de que las covarianzas en (20) y (21) se sustituyen por sus
equivalentes de la muestra.
Bajo el supuesto de que el orden del modelo ajustado es el valor correcto, se puede utilizar la
distribucin asinttica de para obtener regiones de confianza aproximadas con muestras
grandes para el verdadero coeficiente del vector y para sus componentes individuales .
2 ()
Por lo tanto, si 1
denota el cuantil (1 ) de la distribucin chi-cuadrada con grados de
libertad, entonces para un tamao grande de la muestra , la regin
2 ()}
{ : ( )p n1 1
(39)
2
1 n2
2
(40)
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
contiene con probabilidad cercana (1 ).
Los coeficientes de Yule-Walker 1 , , son precisamente los coeficientes del mejor
predictor lineal de +1 en trminos de { , . , 1 } bajo la hiptesis de que la ACF de { }
coincide con la muestra ACF en los residuos 1, , .
El algoritmo de Burg estima la PACF{11 , 22 , } por medio de minimizar sucesivamente sumas
de cuadrados de los errores de prediccin hacia delante y hacia atrs de un solo paso con
respecto a los coeficientes . Dadas las observaciones {1 , . , } de una serie de tiempo
estacionaria de media cero, { } se define (), = + 1, , , 0 < , que es la diferencia
entre +1+1 y la mejor estimacin lineal de ++1 en trminos de las observaciones
anteriores. Esto puede mostrar que las predicciones de errores hacia atrs y hacia delante
{ ()} y { ()} satisface las recursiones
0 () = 0 () = ++1 , () = 1 ( 1) 1 ()
(41)
() = 1 () 1 ( 1)
(42)
()
1
12
[12 () + 12 ()]
2( 1)
=2
22
[22 () + 22 ()]
2( 2)
=3
()
()2
, 1. La estimacin de
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
1 1 . . . =
= + 1 1 +. . . + ,
donde { } variables aleatorias idnticamente distribuidas con
[ ] = 0 y [ ] = 2
y los polinomios () y () no tienen ceros en comn.
Sea el estimador de mxima verosimilitud
= (1 ,. . . , , 1 , . .. , )
= ( , )
Si es casual e invertible entonces:
Los estimadores de mnimos cuadrados , son los valores causales e invertibles de y que
minimizan ln(1 (, )) = (, ) 1 1 ln 1 . Debido a la invariabilidad del trmino
1 1 ln 1 , es asintticamente pequeo cuando y los estimadores y tienen la
misma propiedad asinttica como y . Se sigue que { }~(0, 2 ) y () y () son causales
e invertibles sin ceros en comn, entonces
( ) (0, ()),
(43)
() = [
] ,
(44)
(45)
() = .
(46)
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
Ejemplos.
() = 2 [ ] ,
donde () = . Por lo tanto
() = 2 1 ,
donde = ( ) = [ ]
,=1
es (, 1 2 1 ).
En este caso especial = 1 y = 2, esto se puede expresar como 1 en trminos de
, dando los resultados:
AR(1): es asintticamente (, 1 (1 2 )),
AR(2): [
1 22
(1 + 2 )
1
] es asintticamente N ([ 1 ] , 1 [
]).
1 (1 + 2 )
1 22
2
2
() = 2 [ ] ,
donde () = . Entonces,
() = 2 [ ],
donde es la matriz de covarianza [ ]
,=1
de procesos autorregresivos
+ 1 1 + + = .
Para el caso de MA(1) y MA(2).
MA(1): es autoresivo (, 1 (1 )),
1 22
1 (1 2 )
MA(2): [ 1 ] es autorregresivo ([ 1 ] , 1 [
]).
1 (1 2 )
1 22
2
2
En el caso de ARMA(1,1) se tiene
Ciencias Exactas, Ingenieras y Tecnologas |Licenciatura en Matemticas
29
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
2
(, ) = [
]
2
(1 2 )2
(1 2 )2
(1 )2
] ,
(1 2 )2
donde
1 (1 2 )(1 + )
1
[ ] es autorregresivo ([ ] ,
[
( + )2 (1 2 )(1 2 )
(1 2 )(1 2 )
(1 2 )(1 + )
].)
Estas distribuciones asintticas proporcionan una tcnica general para el clculo de las
regiones de confianza asintticas para y de mxima verosimilitud o estimaciones
de mnimos cuadrados. Esta discusin se puede seguir con detalle en el libro de
Brockwell y Davis.
()
mnimo de
()
(1) = ( 02 ( 1) + 02 ()),
=2
()
2
=
1 ( )1 ( 1),
()
( + 1) =
=+1
()2
(1 ) ()
()2
()2
[(1
) ()]
[2( )]
2 ( + 1) + 12 (),
La distribucin de una muestra grande de los coeficientes estimados para los estimadores de
Burg de los coeficientes de un proceso AR(p) son lo mismo que para los estimadores de YuleWalker, llamado (, 1 2 p1 ).
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
As como se pueden ajustar modelos autorregresivos de orden 1,2,, para los datos {1 , . , }
a travs de aplicar el algoritmo de Durbin-Levinson para las autocovarianzas muestrales,
tambin se pueden ajustar modelos de promedios mviles:
= + 1 1 + + , { }~(0, )
(46)
para el orden = 1,2, por medio del algoritmo de innovacin. Los vectores de coeficientes
estimados : = (1 , , ) y varianzas de ruido blanco , = 1,2, , se especifican en la
siguiente definicin.
Definicin 2. [El modelo MA(m) de ajuste de innovaciones]
Es
= + 1 1 + + , { }~(0, ),
donde y son obtenidos del algoritmo de innovaciones con ACF remplazada por la PACF
muestral.
Nota 1. Este puede mostrar que si { } es un proceso MA(q) invertible
= + 1 1 + + , { }~(0, 2 )
con (4 ) < , si se define 0 = 1 y = 0 para > , entonces la estimacin de innovacin
tiene las siguientes propiedades de una muestra grande. Si y () es cualquier
1
secuencia de enteros positiva, tal que () , pero 3 () 0, entonces para cada entero
positivo la funcin de distribucin conjunta de
1
2 (1 1 , 2 2 , , )
converge a una distribucin normal multivariada con media 0 y matriz de covarianza =
[ ],=1 , donde
min(,)
(47)
=1
Este resultado permite encontrar los intervalos de confianza aproximados de una muestra
grande para los coeficientes de promedios mviles de la estimacin de innovacin. Por tanto, el
estimador es consistente para 2 en el sentido de que para cada > 0, (| 2 | > )
0 como .
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
Nota 2. Aunque el ajuste de recursin del modelo de promedios mviles usando el algoritmo de
innovacin es cercano al ajuste de recursin de los modelos autorregresivos usando el
algoritmo Durbin-Levinson, hay una distincin importante. Para un proceso AR(p) los
estimadores de Yule-Walker y Burg son estimadores consistentes de (1 , , ) de tamao
muestral . Sin embargo, para un proceso MA(q) el estimador = (1 , , ) no es
consistente para (1 , , ). Para la consistencia es necesario usar los estimadores
(1 , , ) con () satisfaciendo la Nota 1. La opcin de m para cualquier tamao de la
muestra fija puede hacerse incrementando m hasta el vector (1 , , ) estabilizado. Se
encuentra en la prctica que hay un rango grande de valores de para los cuales las
1
1 2
fluctuaciones en son pequeas comparadas con las estimadas con 2 (=0
)2 , como se
encontr en la expresin (29) cuando los coeficientes fueron reemplazados por cada uno de
sus valores estimados .
Existen tres tcnicas tiles para seleccionar un apropiado modelo MA como se muestra a
continuacin. La tercera es ms sistemtica y se extiende ms all de la clase de modelos
puros de promedios mviles.
Se sabe que para un proceso MA(q) la autocorrelacin (), > , son cero. Adems, se
conoce que la autocorrelacin muestra que (), > se distribuye de forma normal
aproximadamente con media () = 0 y varianza 1 [1 + 22 (1) + + 22 (1)]. Este resultado
habilita el uso de la grfica de (), = 1,2, , para decidir si un conjunto de datos dados se
puede modelar como un proceso de promedios mviles y obtener una estimacin preliminar de
orden q como el valor ms pequeo de tal que () no es significativamente diferente de
cero para todo > . Para propsitos prcticos significativamente diferente de cero es
interpretado como no tan grande como el valor absoluto de
1.96
.
1 2
desviacin normal aproximada = 2 (=0
)2 , se puede observar cul de los coeficientes
estimados es el ms significativamente diferente de cero. Estimando el orden del modelo se
puede ajustar como un residuo para el cual el radio es tan largo como 1, y al mismo tiempo
leer los valores estimados para cada uno de los coeficientes. Como est incrementando los
valores 1 , , , se estabiliza en el sentido de que las fluctuaciones en cada uno de los
1
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
Como para modelos autorregresivos, una mayor aproximacin sistemtica de orden de
seleccin para modelos de promedios mviles es encontrar los valores de y =
(1 , , ) que minimiza la estadstica como:
= 2 ( ,
( )
2( + 1)
,
)+
() =
( 1 1 1 1 )2
=+1+
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
+
++1
+1
+
+ +1
++1 +
++1
++2
+1
+2
]
= .
max(, ) ,
= {
,
=1
> max(, )
=1
, max(, ) ,
= {
+ ,
> max(, )
=1
y
0, max(, ) ,
= {
+ , > max(, )
=1
()
( + )2
=max(,)+1
=1
=1
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
En este momento la incertidumbre es algo que atrae la atencin de la mayora de la poblacin;
tomando en cuenta que las cosas a futuro no son seguras y menos en este tiempo, es
imprescindible contar con el conocimiento adecuado para hacer frente a este tipo de
situaciones. Es ah donde entra en juego la prediccin, la cual se usa en muchas reas para
determinar un futuro lo ms preciso posible. En este apartado se utilizar para la parte
estadstica como se ha estado viendo a lo largo del tema, como lo son las series de tiempo. Un
claro ejemplo ya aplicado se puede ver en las empresas que hacen sus proyecciones a futuro
para ver cmo es que actan stas y poder prevenir los malos escenarios que la perjudicaran.
= .
=1
< , >
.
< , >
Teorema (proyeccin ortogonal de un vector sobre el subespacio generado por una lista
ortogonal). Sea un espacio vectorial con producto interno, sean (1 , , ) vectores
ortogonales no nulos y sea . Si se coloca al subespacio generado por (1 , , ):
: = (1 , , ).
Entonces existe un nico par de vectores (, ), tal que
= + , ,
Los vectores y se calculan mediante las siguientes frmulas:
=
=1
< , >
, = .
< , >
Demostracin. Unicidad. Supn que , cumplen con (1). Entonces para todo {1, , }, se
tiene < , >= 0 y
< , >=< , + >=< , > +< , >=< , >
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
La condicin significa que es una combinacin lineal de (1 , , ):
= .
=1
Los coeficientes se calculan por la Proposicin de los coeficientes de una combinacin lineal
de vectores no nulos:
=
< , >
< , >
=
.
< , > < , >
< , >=
=1
< , >
< , >=< , >.
< , >
as que .
(48)
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
se refiere a la prediccin del operador basada en el infinito prximo { , < }.
Anlogamente se refiere a la prediccin del operador basada en el infinito prximo
{1 , , }.
Determinacin de +
Como + , la mejor prediccin lineal + donde { } es una media cero del proceso
estacionario con funcin autocovarianza (. ), es caracterizada por la ecuacin
[(+ + )+1 ] = 0, = 1,2,
(49)
Si se puede encontrar una solucin a esta ecuacin, sera necesario en la nica prediccin
definida + . Una aproximacin a este problema es casi siempre efectiva asumiendo que
+ puede ser expresada de esta forma
+ = +1 ,
(50)
=1
[(+ +1 ) +1 ] = 0, = 1,2,
=1
(51)
o equivalentemente,
( ) = ( + 1),
= 1,2,
=1
(52)
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
Estas propiedades algunas veces pueden ser usadas para simplificar el clculo de + ,
cuando el proceso { } es un proceso ARMA.
Sea { = (1 , , ) } donde la variable de las series de tiempo con media = y la
funcin de covarianza dado por la matriz ,
(, ) = ( ) .
(53)
(54)
(55)
(56)
(57)
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
), = 1, , ,
(+1 +1 ) = (+1 +1
(58)
( + 1 ) = ( + 1, + 1 ), = 1, , .
(59)
=1
( ) = (), = 1, , .
(60)
=1
(61)
La Recursin De Kalman
Se van a considerar tres problemas fundamentales asociados con el estado del modelo
definido. Se trata de lo relacionado con encontrar el mejor estimador lineal (en el sentido del
error medio cuadrado) del estado del vector en trminos de las observaciones 1 , 2 , y un
vector aleatorio 0 , esto es ortogonal a y para todo 1. En muchos casos 0 ser la
constante del vector(1,1, ,1) Estimado de en trminos de:
a. 0 , , 1 define la prediccin del problema.
b. 0 , , define las filtraciones del problema.
c. 0 , , ( > ) define los problemas suavizados.
Cada uno de los problemas puede ser resuelto recursivamente usando una propiedad de
recursin del conjunto de Kalman.
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
En definiciones siguientes de la mejor prediccin lineal, se notar que no se incluye
automticamente la constante 1 entre las variables de prediccin, como se vio anteriormente;
sin embargo, se puede escoger 0 = (1,1, ,1).
=
Es decir, los residuales miden la discrepancia entre los valores observados y los valores
estimados por el modelo. Adems, cuando el tamao de la muestra es grande, los errores
aleatorios y los residuales (que tambin son variables aleatorias) son esencialmente iguales;
por esta razn, al analizar los residuales observados { } se analiza bsicamente lo que debera
ser una relacin del proceso de ruido blanco { }.
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
Por lo anterior, los supuestos acerca del proceso { } pueden verificarse y posiblemente
corregirse de la siguiente manera:
Supuesto 1. { } Tiene Media Cero
Verificacin. Calcula la media aritmtica y la desviacin estndar muestral de los residuales.
() = /( )
=
[ ()]2
=
=
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
Supuesto 3 . Las variables aleatorias { } son mutuamente independientes.
Verificacin. Debido a que independencia implica no autocorrelacion, se debe requerir que
() = 0 para toda 0. Esto ultimo puede verificarse calculando, primero, FAC muestral de
los residuales { ()}, que en el supuesto de que su media es cero est dada por
() =
+
=
, = 1,2,
= 2
Con = + + 1, y posteriormente:
Estimndose la desviacin estndar de () como
[ ()]=1/ .
= ( ) 2 ().
=1
En donde, si es grande ( > 20), sigue aproximadamente una distribucin ji-cuadrada con
grados de libertad; de aqu que el valor de deba ser comparado con los valores de
tablas de ji-cuadrada, con los correspondientes grados de libertad, para efectuar la prueba de
significancion. Sin embargo, conviene hacer notar que en ocasiones la aproximacin lograda
con no es del todo apropiada. Por esta razn Ljung y Box modifiacaron la expresin para
obtener el estadstico
2
= ( )( + 2)
)/( ),
=1 (
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
() = () con ( ) = 0 y { } ruido blanco. Pero el modelo identificado errneamente
fue () = () , donde { } no es ruido blanco. Entonces { } seguir el comportamiento
dictado por el siguiente proceso ARMA
()() = ()() .
Por ejemplo, si el proceso verdadero es = (1 1 2 2 ) , pero el modelo identificado
fue = (1 ) ,entonces { } seguir el proceso ARMA(1,2): (1-) =(1-1 2 2 ) .
Esto indica, en particular, que faltaron componentes del tipo ARMA (1,2) en el modelo
originalmente identificado y que se debera estimar ahora un modelo del tipo (1-) = (1
1 2 2 )(1 ) , en donde los resultados esperados son = 1 = 1 2 = 2 y =
, lo cual conducira a un modelo adecuado para representar al proceso real.
Supuesto 4. { } tiene una distribucin normal,para toda .
Verificacin. Se sabe que para una distribucin normal aproximadamente el 95% de las
observaciones debe estar dentro de un intervalo que se extienda dos desviaciones estndar por
debajo y por arriba de la media; entonces, si se cumple que la media de los residuales sea cero,
se esperara, mximo, que un total de ( )/20 observaciones estarn fuera del intervalo
(2 , 2 ). Para verificar esto se sugiere utilizar la misma grfica de los residuales contra el
tiempo que se recomend emplear en la verificacin del supuesto de varianza constante.
Tambin se puede trazar un histograma de los residuales mediante el cual se vizualice la forma
de su distribucin, con esto se detectara en particular si la distribucin contiene asimetra.
Correccin. Es importante advertir que el supuesto de normalidad se debe cumplir para los
errores aleatorios { }, pero no tiene por qu ser satisfecho exactamente por los residuales { };
por esta razn cabe esperar pequeas violaciones a este supuesto que no causen problemas
en lo absoluto. Por otro lado, si las violaciones son muy notorias, podra pensarse en aplicar
una trasformacin nomalizante.
Supuesto 5. Implcitamente se ha supuesto que no existen observaciones aberrantes
(posiblemente ajenas a la serie de estudio).
Verificacin. De nuevo, la grfica de residuales contra el tiempo permitir visualizar si existe
este tipo de observaciones anmalas, Por ejemplo, un residuo que se encuentra fuera de
(3, 3 ) implicar que, o bien sucedi un evento cuya probabilidad de ocurrencia era de
aproximadamente 0.2% (lo cual sera muy extrao), o el residuo en cuestin corresponde a una
observacin que no fue generada por el mismo proceso generado del resto de la serie. De esta
manera, como una regla emprica de trabajo, podran considerarse como sospechosas las
observaciones cuyos residuales estn fuera del intervalo (3, 3 ).
Correccin. Conviene recordar que toda observacin puede contener informacin muy valiosa
para los fines del estudio que se est realizando, es por esto que no hay que descartar la
Ciencias Exactas, Ingenieras y Tecnologas |Licenciatura en Matemticas
43
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
posibilidad de que realmente haya ocurrido un evento altamente improbable y que, al desechar
la observacin (o ajustarla de alguna manera) se perjudique el anlisis. Por ello antes de llevar
a cabo cualquier accin, debe investigarse la causa de que tal observacin sea sospechosa, ya
que esto podra deberse a un cambio estructural en el comportamiento del fenmeno, causado
quiz por una intervencin exgena a la serie en estudio, lo cual ameritara un anlisis
especfico de tal intervencin (dicho anlisis podra realizarse con la metodologa expuesta).
Asimismo, podra ocurrir tambin que la causa de que una observacin resulte sospechosa sea
un error de copiado de datos, y en este caso corregir la informacin es la solucin obvia.
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
Autoevaluacin
Para reforzar los conocimientos relacionados con los temas que se abordaron en esta unidad
del curso, es necesario que resuelvas la autoevaluacin.
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
Evidencia de Aprendizaje. Reporte de modelacin
A travs de esta actividad podrs resolver modelos autorregresivos, y basndote en los
resultados realizars un reporte de los procesos realizados. Para ello:
Cierre de la unidad
En esta unidad has aprendido cmo utilizar los correlogramas muestrales de datos para
determinar un modelo dentro de la clase ARMA(p,q) que sea potencialmente adecuado para los
mismos. Tambin has visto que una vez estimados los parmetros de los modelos con los
mtodos estudiados a lo largo de la unidad, la forma de juzgar si en realidad el modelo
propuesto es adecuado a travs del anlisis de sus residuales, los cuales deben ser
homocedsticos, no correlacionados y deben tener distribucin normal. Entonces, si las pruebas
de hiptesis estadsticas aplicadas a los residuales no rechazan estos supuestos, estaremos
autorizados a utilizar el modelo con fines de descripcin, prediccin y otras formas de inferencia
estadstica que se requieran para sacar conclusiones sobre el fenmeno al cual corresponden
los datos. Dentro de los aspectos estadsticos revisados est la distribucin para tamao de
muestra grande de los estimadores mximo verosmiles de los parmetros, esto es til para
juzgar si un parmetro es estadsticamente significativo (es decir, que su valor no es cero). El
teorema de proyeccin ortogonal ilustra la idea de que la forma de hacer prediccin, en
procesos estacionarios de segundo orden, es usando una combinacin lineal de observaciones
de la historia del proceso. Si para unos datos se obtienen varios modelos con residuales que se
comportan en forma satisfactoria, una forma de seleccionar un modelo es usando el criterio de
informacin de Akaike. El modelo ms adecuado es aquel cuya estadstica de Akaike sea
mnima.
Para saber ms
Se puede profundizar en la propiedades de los estimadores de mxima verosimilutud en el libro
de Brockwell, J. y Davis, A. (2009). Time series: Theory and Methods. New York: SpringerVerlag.
El ACF y PACF no son informativos para determinar el orden de un modelo ARMA (p,q). Tsay y
Tiao (1984) proponen un nuevo enfoque que utiliza la autocorrelacin extendida
funcin (EACF) para especificar el orden de un proceso ARMA(p,q). La idea basica de EACF es
relativamente simple. Si se puede obtener una estimacin consistente de la AR
componente de un modelo ARMA, entonces se puede derivar el componente MA. Desde
derivada serie MA, puede utilizar ACF para identificar el orden del componente MA. Esto se
desarrolla con todo detalle en Tsay, R.(2010). Analysis of Financial Time Series. Chicago:
WILEY. El captulo dos del libro habla acerca de los modelos univariantes, dando una
introduccin al tema; tambin ayuda a reforzar el tema de los procesos estocsticos
estacionarios con apoyo de las Funciones de Autocorrelacin ACF y de Autocorrelacin Parcial
Ciencias Exactas, Ingenieras y Tecnologas |Licenciatura en Matemticas
46
Estadstica III
Unidad 2. Identificacin, estimacin y validacin de modelos
PACF. Por su parte, el captulo tres trata el tema de la Funcin de Autocorrelacin ACF y la
Funcin de Autocorrelacin Parcial PACF. En cuanto a las unidades uno y dos, explican los
temas bsicos de las series de tiempo y de los procesos estacionarios.
http://www.masys.url.tw/Download/2002-BrockwellIntroduction%20Time%20Series%20and%20Forecasting.pdf
Tambin puedes ver el siguiente enlace para revisar sobre modelos univariantes y procesos
estocsticos estacionarios.
http://pendientedemigracion.ucm.es/info/ecocuan/jam/JAM-IAST-Libro.pdf
Referencias bibliogrficas
Brockwell, J. y Davis, A. (2009). Time series: Theory and Methods. New York:
Springer-Verlag.
Shumway, R. y Stoffer, D. (2010). Time Series Analysis and Its Applications: with
R examples. New York: Springer-Verlag.