ECONOMETRÍA PRÁCTICA

CON RATS 4.3

SERGIO ZUÑIGA Universidad Católica del Norte Julio, 2001

Revisado, junio 2009

1

PRESENTACION
Es sabido que el estudio de la econometría requiere, en apoyo al estudio de los aspectos conceptuales, la estimación empírica de los modelos econométricos para análisis, contrastación y predicción. Para esto el estudiante debe estar familiarizado con un buen programa de ordenador, de los cuales existen en el mercado muchas alternativas, como por ejemplo E-Views, Limdep, Gauss, Stata o SAS, cada uno de ellos con características especiales. Este libro se ocupa de introducir al lector en el programa RATS (Regresion Analysis of Time Series). Si bien RATS es actualmente utilizado principalmente por investigadores de primer nivel de todo el mundo, a través de este libro intentamos poner el programa al alcance de los estudiantes, y mostrar como éste posee la suficiente capacidad y flexibilidad para resolver la casi totalidad de los problemas econométricos. En efecto, RATS es un programa del tipo avanzado y está especializado en el análisis de series de tiempo, pero como se verá, tiene implementadas las instrucciones requeridas como para ser utilizado en los cursos de econometría a nivel de licenciatura en administración y economía. Además, RATS tiene una estructura de programación sencilla, la cual es necesaria para facilitar el trabajo repetitivo, especialmente en investigaciones formales. En adición existe una importante cantidad de rutinas especializadas (procedures) que están disponibles gratuitamente en el sitio web de los proveedores del programa: www.estima.com. El objetivo principal de este libro es servir como texto de apoyo en los laboratorios computacionales de econometría, es decir un objetivo netamente práctico, por lo cual hemos intentado presentar y resolver gran número de ejemplos numéricos, a costa de centrarnos solo en los aspectos fundamentales de la teoría subyacente, la que asumimos será estudiada en alguno de los numerosos libros de texto introductorio existentes, tales como “Introducción a la Econometría” de Maddala, “Análisis Econométrico” de Green, “Introduction to the Theory and Practice of Econometrics” de Judge et al., y “Econometría” de Gujarati. Respecto al uso avanzado de RATS, como siempre el RATS User’s Manual es de gran ayuda, al igual que el libro “RATS Handbook for Econometric Time Series” de Enders. Respecto a las series de datos utilizadas en los distintos ejemplos a través del libro, éstas se encuentran listadas en el apéndice del libro, y también pueden ser bajadas libremente en la dirección de Internet www.eic.cl/szuniga/. Debe tenerse en cuenta que tales series son mucho más cortas que las normalmente utilizadas en los estudios reales, y que también muchas de ellas son ficticias, por lo que los resultados pueden carecer de sentido económico, un costo que se estará dispuesto a asumir si el objetivo fundamental es el de ilustrar los procedimientos de estimación econométrica en RATS, con la posibilidad que el estudiante verifique los resultados y experimente con otras opciones. El libro está organizado como sigue: En el primer capítulo entregamos una introducción al uso del programa, lo que incluye el uso del editor de RATS, los diferentes tipos de datos y la instrucción COMPUTE, la forma de ingresar y visualizar datos, y el trabajo con series de datos, lo que involucra la instrucción SET. El capítulo 2 desarrolla la estimación de regresiones simples en RATS a través de la instrucción LINREG. El capítulo 3 implementa mínimos cuadrados restringidos, los que permiten evaluar distintas hipótesis a través de las pruebas de Wald, de la Razón de Verosimilitud y del Multiplicador de Lagrange. El capítulo 4 discute los problemas relacionados con la heterocedasticidad, autocorrelación y multicolinealidad, incluyendo los procedimientos de detección y corrección implementados en RATS. El capítulo 5 introduce una serie de tópicos relacionados con el modelo de regresión lineal múltiple: predicción, variables dummy, error en las variables a través del uso de variables instrumentales, y datos del tipo panel. El capítulo 6 implementamos la estimación de modelos no lineales a través de la instrucción FIND y NLLS, incluyendo el procedimiento de máxima verosimilitud a través de la instrucción MAXIMIZE. En el capítulo 7 implementamos sistemas de ecuaciones lineales y no lineales, e introducimos la estimación de sistemas de ecuaciones simultáneas a través de mínimos cuadrados en 2 y 3 etapas. En el capítulo 8 analizamos los conceptos de estacionariedad a través de correlogramas y pruebas de raíces unitarias, y el concepto de cointegración a través de la prueba de Engle-Granger. Finalmente, el capítulo 9 está dedicado al análisis de series de tiempo, lo que incluye procesos ARIMA a través de la metodología de Box y Jenkins, y los modelos de vectores autorregresivos (VAR).

2

INDICE

PRESENTACION ............................................................................................................................................................. 2  CAPITULO 1 ..................................................................................................................................................................... 1  EL PROGRAMA RATS ................................................................................................................................................... 1  1.1.  INTRODUCCIÓN ................................................................................................................................................ 1  1.1.1  CORRIENDO EL PROGRAMA: EL EDITOR DE RATS ............................................................................... 1  1.1.2. LÍNEAS Y BLOQUES DE COMENTARIOS ...................................................................................................... 3  1.1.3. SINTAXIS DE LAS INSTRUCCIONES DE RATS .............................................................................................. 4  1.2.  TIPOS DE DATOS ............................................................................................................................................... 5  1.2.1.  TIPO SIMPLE (BÁSICOS)............................................................................................................................. 5  1.2.2. TIPO COMPUESTO (AGREGADOS)................................................................................................................ 5  1.3.  LA INSTRUCCIÓN COMPUTE .......................................................................................................................... 7  1.3.1.  COMPUTE PARA EL CASO DE ENTEROS Y REALES ............................................................................... 8  1.3.2.  COMPUTE PARA LABELS Y STRINGS........................................................................................................ 9  1.3.3.  COMPUTE PARA ARREGLOS ..................................................................................................................... 9  1.3.4.  COMPUTE PARA SERIES .......................................................................................................................... 10  1.4.  INGRESO Y VISUALIZACIÓN DE DATOS SIMPLES Y ARREGLOS ......................................................... 11  1.4.1.  INGRESO DE DATOS: INSTRUCCIONES READ E INPUT ...................................................................... 11  1.4.2.  VISUALIZACIÓN DE DATOS: INSTRUCCIÓN WRITE Y DISPLAY ......................................................... 14  1.4.3  DECLARE Y DIMENSION .......................................................................................................................... 16  1.4.4  OPERACIONES ARITMETICAS: EJEMPLOS ........................................................................................... 17  1.5.  SERIES DE DATOS: INSTRUCCIONES BÁSICAS ........................................................................................ 19  1.5.1. ANTES DE INGRESAR DATOS: ALLOCATE Y CALENDAR ......................................................................... 19  1.6.2. INGRESO Y VISUALIZACION DE SERIES: DATA Y COPY .......................................................................... 20  1.6.3. EXAMINANDO LOS DATOS ........................................................................................................................... 23  1.6.4. GRAFICOS ....................................................................................................................................................... 25  1.6.  TRANSFORMACIONES DE SERIES ............................................................................................................... 27  1.6.1.  INSTRUCCIÓN SET .................................................................................................................................... 27  1.6.2. CREANDO SERIES A PARTIR DE OTRAS CON %IF .................................................................................... 29  1.6.3. CREANDO VARIABLES DUMMIES ............................................................................................................... 29  1.6.4. OTRAS INSTRUCCIONES COMUNES PARA SERIES ................................................................................... 30  1.7.  FACILITANDO EL TRABAJO REPETITIVO .................................................................................................. 31  1.7.1.  LA INSTRUCCIÓN DO ............................................................................................................................... 31  1.7.2.  LA INSTRUCCIÓN DOFOR ........................................................................................................................ 32  ANEXO: FUNCIONES ................................................................................................................................................. 33  CAPITULO 2 ................................................................................................................................................................... 35  EL MODELO DE REGRESION LINEAL ................................................................................................................... 35  2.1.  INTRODUCCION: ¿QUE ES LA ECONOMETRIA?........................................................................................ 35  2.2.  EL METODO DE MINIMOS CUADRADOS .................................................................................................... 36  2.3.  IMPLEMENTACION DE MCO ......................................................................................................................... 37  2.3.1.  CORRIENDO REGRESIONES LINEALES EN RATS ................................................................................. 38  2.3.2.  LA DISTRIBUCIÓN DE b............................................................................................................................ 40  2.3.3.  LA MATRIZ DE COVARIANZAS DE LOS ERRORES ................................................................................ 41  2.3.4.  UNA MEDIDA DEL ÉXITO DE AJUSTE.................................................................................................... 43  2.4.  CARACTERISTICAS ADICIONALES DE LINREG ....................................................................................... 44  2.4.1  SALIDAS OPCIONALES DE LINREG ........................................................................................................ 44  2.4.2.  OPCIONES DE LINREG ............................................................................................................................. 45 

3

2.5.  INTERPRETACION DE LOS COEFICIENTES DE REGRESION .................................................................. 47  2.5.1.  INTRODUCCION ........................................................................................................................................ 47  2.5.2.  FORMA DOBLE LOGARITMICA ............................................................................................................... 48  2.5.3  MODELO LOGARÍTMICO LINEAL (DE CRECIMIENTO CONSTANTE) ................................................ 49  2.5.4.  OTRA VISION DE LOS COEFICIENTES DE PENDIENTE....................................................................... 49  2.6  RESUMEN: UNA CRÍTICA AL MODELO....................................................................................................... 51  CAPITULO 3 ................................................................................................................................................................... 53  MINIMOS CUADRADOS RESTRINGIDOS .............................................................................................................. 53  3.1.  MCO CON ERRORES NORMALES ................................................................................................................. 53  3.2.  DISTRIBUCIONES DE PROBABILIDAD ....................................................................................................... 54  3.3.  POTENCIA DE UN TEST Y SIGNIFICANCIA ................................................................................................ 55  3.3.1.  APLICACIÓN: SELECCIÓN ENTRE TESTS ALTERNATIVOS ................................................................. 55  3.3.2.  EL NIVEL DE SIGNIFICANCIA MARGINAL: CDF O P-VALUE.............................................................. 56  3.4.  PRUEBAS SOBRE UN COEFICIENTE ............................................................................................................ 57  3.5.  TRES TESTS EQUIVALENTES........................................................................................................................ 58  3.5.1. TEST DE RAZON DE VEROSIMILITUD (LR) ................................................................................................ 58  3.5.2. LR BAJO ESPECIFICACION LINEAL-LINEAL ............................................................................................. 59  3.5.3. TEST DE WALD ............................................................................................................................................... 60  3.5.4. WALD BAJO ESPECIFICACION LINEAL-LINEAL ....................................................................................... 61  3.5.5. TEST DEL MULTIPLICADOR DE LAGRANGE ............................................................................................. 62  3.5.6.  EQUIVALENCIA BAJO ESPECIFICACION LINEAL-LINEAL.................................................................. 62  3.6.  EJERCICIOS MATRICIALES DEL TEST DE WALD ..................................................................................... 62  3.6.1.  USANDO LA PRUEBA t .............................................................................................................................. 63  3.6.2.  USANDO LA PRUEBA F............................................................................................................................. 63  3.6.3.  LA PRUEBA F PARA DOS O MÁS COMBINACIONES LINEALES DEL VECTOR BETA ....................... 64  3.7.  PRUEBA DE SIGNIFICANCIA GLOBAL ........................................................................................................ 65  3.8.  PRUEBA DE EXCLUSION DE VARIABLES .................................................................................................. 66  3.9.  CAUSALIDAD (GRANGER, 1969) .................................................................................................................. 67  3.10.  TEST DE ESTABILIDAD (CAMBIO ESTRUCTURAL) .............................................................................. 69  3.11.  ESTIMANDO REGRESIONES RESTRINGIDAS ........................................................................................ 71  ANEXO AL CAPITULO 3 ............................................................................................................................................ 72  PARSIMONIA ............................................................................................................................................................ 72  RESTRICCIONES NO LINEALES SOBRE LOS COEFICIENTES ............................................................................ 72  NORMALIDAD: TEST DE BERA-JARQUE .............................................................................................................. 74  CAPITULO 4 ................................................................................................................................................................... 81  VIOLACION DE ALGUNOS DE LOS SUPUESTOS ................................................................................................. 81  4.1.  MÍNIMOS CUADRADOS GENERALIZADOS ............................................................................................... 81  4.2.  HETEROCEDASTICIDAD ............................................................................................................................... 82  4.2.1.  CORRECCION CON MCG (ϕ CONOCIDA) ............................................................................................. 84  4.2.2.  DETECCION DE LA HETEROCEDASTICIDAD ....................................................................................... 85  4.2.3.  CORRIGIENDO POR HETEROCEDASTICIDAD EN RATS ...................................................................... 87  4.3.  CORRELACIÓN SERIAL.................................................................................................................................. 90  4.3.1.  CORRECCION CON MCG (ϕ CONOCIDA) ............................................................................................. 91  4.3.2.  DETECCION DE AR(1): DURBIN-WATSON (1951) ................................................................................. 92  4.3.3.  DETECCION EN MODELOS CON Y REZAGADA: Test h de Durbin ....................................................... 94  4.3.4.  DETECCION DE LA AUTOCORRELACION DE ORDEN SUPERIOR ..................................................... 95  4.3.4.  CORRIGIENDO LA AUTOCORRELACION EN RATS: PRIMERAS DIFERENCIAS ................................ 98  4.4.  ESTIMACION ROBUSTA .............................................................................................................................. 101  4.4.1.  CORRECCION DE WHITE (1980) ........................................................................................................... 102  4.4.2.  CORRECCION DE NEWEY Y WEST (1987) ............................................................................................ 103  4.5.  MULTICOLINEALIDAD ................................................................................................................................ 106  4.5.1.  MULTICOLINEALIDAD PERFECTA ....................................................................................................... 106  4.5.2.  MULTICOLINEALIDAD MUY ALTA........................................................................................................ 107 

4

4.5.3. 

SOLUCIONES A LA MULTICOLINEALIDAD ......................................................................................... 108 

CAPITULO 5 ................................................................................................................................................................. 109  TOPICOS EN EL MODELO LINEAL GENERAL .................................................................................................. 109  5.1.  INTRODUCCION A LA PREDICCION EN RATS ......................................................................................... 109  5.1.1.  EL ERROR DE PREDICCION .................................................................................................................. 109  5.1.2.  PREDICCION ESTATICA: INSTRUCCIÓN PRJ...................................................................................... 110  5.1.3.  CASO PRACTICO ..................................................................................................................................... 113  5.2.  VARIABLES DUMMY (BINARIAS).............................................................................................................. 120  5.2.1.  DIFERENCIAS ENTRE INTERCEPTOS Y PENDIENTES ............................ Error! Bookmark not defined.  5.2.2.  VARIABLES DUMMIES EN EL CALCULO DE MEDIAS ........................................................................ 126  5.3.  ERROR EN LAS VARIABLES: INSTRUMENTOS ....................................................................................... 130  5.3.1. VARIABLES INSTRUMENTALES.................................................................................................................. 130  5.3.2.  ESTIMACION CON INSTRUMENTOS EN RATS ..................................................................................... 131  5.3.3.  EL ESTIMADOR DE VARIABLES INSTRUMENTALES........................................................................... 132  CAPITULO 6 ................................................................................................................................................................. 134  MODELOS NO LINEALES ........................................................................................................................................ 134  6.1.  INTRODUCCION A LOS METODOS ITERATIVOS: LA INSTRUCCION FIND ....................................... 134  6.2.  MINIMIZACION DE LA SUMA CUADRADOS DE ERRORES ................................................................... 137  6.3.  MINIMOS CUADRADOS NO LINEALES ..................................................................................................... 138  6.3.1.  LA ESTIMACION POR MINIMOS CUADRADOS NO LINEALES........................................................... 138  6.3.2.  PROPIEDADES DE LOS ESTIMADORES DE MC NO LINEALES ......................................................... 140  6.3.3.  MINIMOS CUADRADOS NO LINEALES EN RATS ................................................................................. 141  6.4.  ESTIMACION POR MAXIMA VEROSIMILITUD ........................................................................................ 145  6.4.1.  MAXIMA VEROSIMILITUD EN RATS ..................................................................................................... 145  6.4.2.  APLICACION: MODELOS GARCH ......................................................................................................... 146  6.5.  RESUMEN........................................................................................................................................................ 150  CAPITULO 7 ................................................................................................................................................................. 152  SISTEMAS DE ECUACIONES ................................................................................................................................... 152  7.0.1.  ECUACIONES ESTRUCTURALES Y REDUCIDAS ...................................... Error! Bookmark not defined.  7.0.2.  EL PROBLEMA DE LA IDENTIFICACION ............................................................................................. 153  7.1.  ESTIMACION DE ECUACIONES SIMULTÁNEAS ..................................................................................... 154  7.4.1.  MINIMOS CUADRADOS INDIRECTOS................................................................................................... 155  7.4.2.  MÍNIMOS CUADRADOS EN 2 ETAPAS .................................................................................................. 155  7.4.3.  MÍNIMOS CUADRADOS EN 3 ETAPAS .................................................................................................. 156  7.2.  SISTEMAS: SIMULACION Y PREDICCION ................................................................................................ 158  7.1.  SEEMINGLY UNRELATED REGRESSIONS, SUR ...................................................................................... 159  7.1.1.  LA INSTRUCCION SUR ............................................................................................................................ 162  7.1.2.  SUR CON RESTRICCIONES (Equate) ...................................................................................................... 162  7.1.3.  SUR CON RESTRICIONES LINEALES GENERALES (Restrict) .............................................................. 164  5.4.  DATOS DE PANEL.......................................................................................................................................... 166  5.4.1.  INGRESO DE DATOS DE PANEL ............................................................................................................ 170  5.4.2.  ESTIMACION DE EFECTOS FIJOS......................................................................................................... 172  5.4.3.  ESTIMACION DE EFECTOS ALEATORIOS ............................................................................................ 174  5.4.4.  CASO DE ESTUDIO: FUNCION TRANSLOGARITMICA ....................................................................... 176  7.7.  SISTEMAS DE ECUACIONES NO-LINEALES ............................................................................................ 179  7.7.1.  LA INSTRUCCIÓN NLSYSTEM ................................................................................................................ 179  CAPITULO 8 ................................................................................................................................................................. 181  ESTACIONARIEDAD Y COINTEGRACION .......................................................................................................... 181  8.1.  INTRODUCCION ............................................................................................................................................ 181  8.2.  ESTACIONARIEDAD ..................................................................................................................................... 181 

5

8.2.1. DEFINICION ................................................................................................................................................. 181  8.2.2.  PRUEBAS DE ESTACIONARIEDAD: CORRELOGRAMA ...................................................................... 183  8.2.3.  PRUEBAS DE ESTACIONARIEDAD: RAICES UNITARIAS .................................................................... 185  8.2.4.  DIFERENCIACION DE SERIES I(1) ........................................................................................................ 188  8.3.  COINTEGRACION: PRUEBA DE ENGLE-GRANGER ................................................................................ 191  8.3.1.  INTRODUCCION ...................................................................................................................................... 191  8.3.2.  PRUEBA DE ENGLE-GRANGER (1987).................................................................................................. 191  CAPITULO 9 ................................................................................................................................................................. 193  MODELOS ARIMA Y VAR ........................................................................................................................................ 193  9.1.  AUTOCORRELACIONES SIMPLES Y PARCIALES ................................................................................... 193  9.2.  PROCESOS AUTORREGRESIVOS (AR)....................................................................................................... 195  9.2.1.  SIMULACION DE PROCESOS AR(1) ...................................................................................................... 195  9.2.2.  ESTIMACION DE UN PROCESO AUTOREGRESIVO ............................................................................ 198  9.3.  PROCESOS DE MEDIAS MOVILES .............................................................................................................. 199  9.3.1.  SIMULACION DE PROCESOS MA(1) ..................................................................................................... 199  9.3.2.  ESTIMACION DE UN PROCESO DE MEDIAS MOVILES ...................................................................... 202  9.3.  PROCESOS ARIMA ........................................................................................................................................ 202  9.4.  EL ENFOQUE DE BOX Y JENKINS............................................................................................................... 204  9.4.1.  PASO 1: IDENTIFICACIÓN ..................................................................................................................... 204  9.4.2.  PASO 2: ESTIMACIÓN ............................................................................................................................. 205  9.4.3.  PASO 3: VERIFICACIÓN / DIAGNÓSTICO ............................................................................................ 208  9.4.4.  PASO 4: PREDICCIÓN ............................................................................................................................. 209  9.5.  MODELOS VAR .............................................................................................................................................. 211  9.5.1.  ESTIMACION DE UN MODELO VAR...................................................................................................... 212  9.5.2.  PRUEBAS PARA LA LONGITUD DE LOS REZAGOS ............................................................................. 214  9.5.3  PREDICCION ............................................................................................................................................ 217  9.5.4.  CAUSALIDAD A LO GRANGER ............................................................................................................... 219  9.5.5.  ANALISIS DE IMPULSO RESPUESTA..................................................................................................... 219  REFERENCIAS ............................................................................................................................................................ 223  ANEXO: DATOS UTILIZADOS EN EL LIBRO ....................................................................................................... 225 

6

CAPITULO 1 EL PROGRAMA RATS

1.1. INTRODUCCIÓN
RATS (Regresion Analysis of Time Series) es un software econométrico y un lenguaje de programación especialmente diseñado para trabajar con series de tiempo (también permite el análisis de cross-section y panel data) por lo que es muy apropiado para el estudio de series financieras y predicción1. En adición, posee una sintaxis de programación de mucha claridad. − Algunas de las cosas que se pueden hacer con RATS son: Estimar varios tipos de modelos de regresión: simple, múltiple, mínimos cuadrados generalizados, regresiones aparentemente no relacionadas (SUR), mínimos cuadrados no lineales, sistemas no lineales, métodos generalizados de momentos, y máxima verosimilitud (incluyendo ARCH, GARCH Y modelos relacionados). Ejecutar prácticamente cualquier técnica de series de tiempo, incluyendo modelos ARIMA, funciones de transferencia y modelos de intervención, vector autorregresivo (VAR), y análisis espectral. Hacer predicciones y ejecutar simulaciones.

− −

En RATS existen una serie de subprogramas (procedures) especializados que vienen en los archivos del programa, otros están disponibles para ser bajados libremente desde el sitio Web de Estima, donde muchos economistas comparten los procedures que han desarrollado. Existe una lista de discusión bastante activa en Internet (RATS-L) en que participan usuarios y gurus de Estima respondiendo rápidamente las dudas. Para utilizar RATS debe ubicar el archivo ejecutable de acuerdo a la versión que usted utilice, sin confundirlo con otros archivos ejecutables que pueden estar incluidos en su versión, como por ejemplo archivos de datos comprimidos, algún programa editor de gráficos, una versión anterior en DOS o algún administrador de datos como el programa Rats Data.

1.1.1 CORRIENDO EL PROGRAMA: EL EDITOR DE RATS
RATS puede operar en modo Batch o en modo Interactivo. En modo Batch, RATS ejecuta las instrucciones y guarda los resultados en otro archivo. En cambio en modo Interactivo, es posible ejecutar directamente porciones o el total del programa y entregar los resultados en el mismo archivo, lo que facilita la revisión rápida de éstos. Debido a esta gran ventaja aquí estamos interesados sólo en el modo Interactivo, el cuál se encuentra generalmente ya seleccionado al ingresar a RATS.

Para mayor información de versiones y características, la dirección del sitio Web de los proveedores (ESTIMA) es: www.estima.com.

1

1

Al ingresar a RATS aparecerá el editor de texto que permite escribir y ejecutar las instrucciones, ver las salidas, grabar archivos, imprimir resultados y gráficos, etcétera, tal como se muestra en la Ilustración. Generalmente la primera ventana o archivo que RATS crea es NONAME00.PRG{io} o con extensión TXT, dependiendo de la versión que se utilice. En la Ilustración lo mostramos dentro de óvalo rojo.

a) Archivos {io} RATS identifica las ventanas / archivos de entrada (instrucciones) y salida (resultados) con la siguiente notación: {i} identifica una ventana para entrada en modo batch, {o} identifica una ventana para salida en modo batch, {io} indica que es una ventana de entrada y salida para modo interactivo, y que las salidas serán enviadas a la misma ventana de entrada. En modo Interactivo, tal como trabajaremos en este libro, se utiliza una sola ventana con la notación {io}, por lo que debe verificarse que ésta aparezca. Si esto no ocurriera automáticamente al abrir un archivo, entonces se logrará haciendo click en el menú Window Æ Use for input, y nuevamente en Window Æ Use for output. b) Modos Run/Local Otra característica importante son los modos Run y Local haciendo click en el icono o presionando <Ctrl>+L. Dentro del menú, el icono nos permite cambiar entre ambos modos.

(el icono con el Para ejecutar las instrucciones se debe estar en modo “Run” hombrecito caminando se ve claramente). El modo Run permite, dentro de una ventana {io}, ejecutar las instrucciones a través de cualquiera de las siguientes formas:

2

1. Terminada de escribir una línea, presionar <Enter>. 2. Si la línea ya se encuentra escrita previamente, ubicar el cursor en cualquier lugar sobre la línea, y entonces <Enter>. 3. Si se quiere ejecutar un grupo de líneas, éstas deben ser seleccionadas (ya sea con el Mouse o con <Shift>+<flecha abajo>), y entonces <Enter>. Así, si bien la tecla <Enter> es la más usada para ejecutar instrucciones, alternativamente es posible hacerlo presionando .

Si uno desea ingresar texto sin ejecutar inmediatamente las líneas, entonces se debe cambiar del (el icono con el hombrecito caminando no se ve o se ve borroso), modo "Run" al modo "Local" y aquí el editor de RATS se convierte en un editor de textos común con formato plano (ascii). Este modo es útil para escribir varias líneas de instrucciones, y ejecutarlas posteriormente cambiando al modo Run.

1.1.2. LÍNEAS Y BLOQUES DE COMENTARIOS
Aquellas líneas en que aparezca un asterisco '*' como primer carácter en la línea son interpretadas como comentarios y son ignoradas por el programa. En la Ilustración 1.2 mostramos un ejemplo. Cuando las líneas de instrucción son demasiado largas, el símbolo '$' indica que la instrucción continúa en la siguiente línea. En la Ilustración 1.2 ingresamos un vector de labels llamado PAISES que contiene los nombres de varios países. Puesto que la lista de países puede ser muy larga, puede ser dividida en dos o más líneas con el símbolo $. También puede usarse una misma línea para establecer varias instrucciones usando un punto y coma ';'. A menudo se usa para agregar comentarios a una fila que ya contiene una instrucción. En la siguiente Ilustración mostramos lo almacenado anteriormente en el vector PAISES, y agregamos un comentario en la misma línea.

3

1.1.3. SINTAXIS DE LAS INSTRUCCIONES DE RATS
El lenguaje de RATS no es sensitivo a las mayúsculas. Además todas las instrucciones pueden ser reconocidas solo por las tres primeras letras. Ejemplo: La instrucción GRAPH, para hacer gráficos, puede escribirse GRAPH, Graph, graph, GRA o Gra.

La forma general de todas las instrucciones en Rats es la siguiente: Nombre_de_la_instrucción(opción1, opción2,...) parámetros # cartas suplementarias Las opciones de cada instrucción van entre paréntesis (no hay que dejar un espacio entre el nombre de la instrucción y el primer paréntesis) y separadas por comas. Es posible que algunas instrucciones no tengan opciones, o que no necesitemos cambiar los valores predispuestos de ésta2. Los parámetros normalmente identifican el nombre de las series y los rangos muestrales a las cuales debe aplicarse la instrucción, o el número de series con las que la instrucción operará. Cartas suplementarias (supplementary cards): Algunas instrucciones requieren debajo de éstas una cantidad de cartas suplementarias. Estas comienzan con un signo # y después de un espacio, la información requerida, que puede ser de muy diverso tipo según sea la instrucción. La instrucción para correr una regresión lineal de la serie Y, sobre las series X1, X2, más un término constante es LINREG(ROBUST,LAGS=1) SerieY # CONSTANT SerieX1 SerieX2 ;* donde “LINREG” es la instrucción, “ROBUST” es la opción 1, “LAGS” es la opción 2, “SerieY” es un parámetro, “CONSTANT”, “SerieX1”, “SerieX2”, son las cartas adicionales. Ejemplo: La instrucción para calcular la matriz de correlación de las series Y, X1, X2 y X3 es CMOM(CORR, PRINT) # Y X1 X2 X3 ;* donde “CMOM” es la instrucción, “CORR” es la opción 1, “PRINT” es la opción 2, no hay parámetros, e “Y”, “X1”, “X2”, “X3” son las cartas adicionales.

-

Ejemplo:

Todas las opciones vienen con opciones predefinidas, por lo tanto si a la opción no se le especifica se asume que se aceptan esos valores. Por ejemplo, en el menú de ayuda (Help) cuando aparece la opción “Unit=[data]/input”, lo predispuesto es data, porque se encuentra entre paréntesis, es decir, seleccionado. Para ver las opciones que tiene cada instrucción ver ayuda de RATS.

2

4

1.2. TIPOS DE DATOS
RATS trabaja con varios tipos de datos los que son almacenados en la memoria del programa para su uso posterior en variables. La primera clasificación corresponde a aquellos datos Simples y a los datos Compuestos.

1.2.1. TIPO SIMPLE (BÁSICOS)
Estos datos son los que almacenan en una sola variable, tales como números enteros, reales, complejos, labels y strings de hasta 255 caracteres. Veamos ejemplos de cada caso: a) Enteros (INTEGER), Reales (REAL) y Complejos (COMPLEX) Una variable de enteros es aquella que se definirá para todas las operaciones como número entero, mientras que una variable de reales es aquella que se definirá para todas las operaciones como número real. Lo mismo es para el caso de los números complejos, sin embargo este tipo de dato sólo es de interés al trabajar con series complejas, por lo que no lo analizaremos aquí. Ejemplo: A1=5; A3=3.5; A2= -320 A4=1/2 ;* corresponden a variables enteras ;* corresponden a variables reales

b) Labels y Strings La variable de Label es un texto de hasta 16 caracteres (contando los espacios) y que puede contener números y letras, la que generalmente se utiliza para nombres de series. Los strings son segmentos de textos sin uso específico como el caso de los labels, pero que pueden contener hasta 255 caracteres. Ejemplo: A5 = ‘Santiago’, A6= ‘La Serena’, A7= ‘Temuco’ ;* A5, A6 y A7 son labels A8 = ‘esto es un string’ ;* A8 es un string A9 = ‘el número 1 es el 3ro de la serie x’ ;* A9 es un string

c) Ecuaciones (EQUATION) y Modelos (MODEL) Las ecuaciones son descripciones de una relación lineal en una regresión, que pueden incluir especificaciones del tipo autorregresivo. Por otra parte, los modelos son grupos de fórmulas (relaciones no lineales), pero que al ser agrupadas en un modelo, son tratadas como un dato del tipo simple. Los modelos son utilizados para simulación y predicción en sistemas de ecuaciones simultáneas, las cuales se verán más adelante. Ejemplo:

Yt = β 0 + β1Yt −1 + β 2 X t + ε t

;* es una ecuación, donde Yt y Xt representan

series de datos, β los coeficientes, y εt el error.

1.2.2. TIPO COMPUESTO (AGREGADOS)
Estos tipos de datos están compuestos por varios datos del tipo simple. Los datos agregados en Rats son los arreglos, series y fórmulas. Un dato agregado no puede tener elementos reales y enteros al mismo tiempo.

5

a) Fórmulas (FRML) Son similares a las ecuaciones, pero describen una relación posiblemente no-lineal en los parámetros. Son usadas para mínimos cuadrados no lineales y simulaciones de modelos generales. Ejemplo:

Yt = β 0 + β 1Yt −1 + β 22 X t + et

;*es una fórmula en Rats. Representa un

relación no lineal puesto que el coeficiente de X está al cuadrado.

b) Arreglos Como arreglos se identifican los vectores (arreglos de una sola dimensión) y las matrices (arreglos de 2 o más dimensiones). Las Matrices pueden ser Rectangulares (RECTANGULAR) que son el tipo general de cualquier dimensión, y las Simétricas3 (SYMMETRIC).

Ejemplo:

V1=

⎡1 ⎤ ⎢ 2⎥ , ⎢ ⎥ ⎢ ⎦ ⎣3 ⎥

V2=(a, b, c)

;* V1 y V2 son Vectores

Ejemplo:

M1=

⎡1 0⎤ ⎢0 4⎥ , ⎣ ⎦

M2=

⎡ 2 3 4⎤ ⎢3 1 5 ⎥ ⎥ ⎢ ⎢4 5 3⎥ ⎦ ⎣

;* M1 y M2 son Arreglos simétricos.

Ejemplo:

M3=

⎡4 8 2 ⎤ ⎢6 8 10⎥ , ⎣ ⎦

M4=

⎡2 1 ⎤ ⎢ 8 4⎥ ⎢ ⎥ ⎢ ⎥ 3 6 ⎣ ⎦

;* M3 y M4 son Arreglos Rectangulares

c) Series Son probablemente la forma más importante de datos en Rats, y contienen la información experimental recopilada por el investigación para su estudio. Son esencialmente arreglos de elementos de una dimensión, como los vectores, pero tienen una estructura mucho más compleja, puesto que, por ejemplo, pueden tener elementos definidos y no definidos. Por ejemplo, en una serie “Consumo Nacional Anual” es posible que no dispongamos del dato de un año en particular, pero aún así podemos construir la serie. Las series de datos pueden ser de 3 tipos: corte transversal (cross section), series de tiempo (time series) y del tipo panel o combinadas (panel data). tiempo. Las series de Corte transversal son observaciones de determinadas variables en un momento del

Ejemplo:

Las series Capital y Reservas (en millones de pesos) de los bancos nacionales, en enero de 1990, constituyen una serie de corte transversal.

3

Una matriz A (n*n) es simétrica si AT = A. Es decir, debe tener el mismo número de filas y de columnas, y los números de arriba de la diagonal serán los mismos que los de abajo de la diagonal.

6

Banco 1 2 3 4 5 6 7

Capital y Reservas 3.661 5.590 3.047 9.296 6.604 6.908 8.122

Las series de tiempo están constituidas por observaciones de un número de variables a través del tiempo (diarias, mensuales, anuales, etc.). Ejemplo: La serie Producto Interno Bruto anual de Chile en $ reales de 1986 entre 1972 y 1976 es una serie de tiempo. AÑO 1972 1973 1974 1975 1976 PIB ($ reales 1986) 2.659.800 2.544.814 1.864.085 2.341.477 2.329.343

tiempo.

Los datos de panel están constituidos por combinaciones de datos de corte transversal y series de

Ejemplo:

La siguiente tabla muestra 3 series de colocaciones de 3 bancos entre enero y julio de 1990, por lo que se trata de un panel de datos. Fecha 90.01 90.02 90.03 90.04 90.05 90.06 90.07 Colocaciones Colocaciones Colocaciones Banco 1 Banco 2 Banco 3 5132 2525 507 4704 3223 518 4941 2200 517 4806 3012 527 4943 2553 535 4566 3101 541 4167 3176 550

1.3. LA INSTRUCCIÓN COMPUTE
La instrucción COMPUTE es una de las más importantes y poderosas en Rats, pues permite evaluar expresiones y almacenar el resultado trabajando con escalares, arreglos (matrices) y elementos de una serie. La estructura de la instrucción es la siguiente: COMPUTE variable, arreglo, elemento de un arreglo o elemento de una serie = expresión

Opcionalmente uno puede indicar el tipo de variable / dato entre [ ] antes del nombre de la variable, arreglo o elemento. Nota 1: Los operadores estándar en Rats son +, -, *, / y ** para la exponenciación. Nota 2: Cuando se ha asignado a una variable un tipo de dato, no es posible cambiar esta definición a menos que a se borren los datos de la memoria. Para esto puede usarse en el menú FileÆClear Program, como se muestra en la siguiente ilustración:

7

Esta operación borrará también los datos de las series que se hubieren ingresado previamente, lo que implicará que deba ejecutarse nuevamente tales instrucciones. En cambio, tiene la ventaja que no se borra ningún texto de la pantalla, además no se cierra ninguna de las ventanas ni archivos que se encuentren abiertos.

1.3.1. COMPUTE PARA EL CASO DE ENTEROS Y REALES
Veamos esto a través de los siguientes ejemplo: Ejemplo: ;* RATS determinará que START es una variable en que se almacenarán solamente números enteros. COM [INTEGER] H=2 ;* indicando entre paréntesis cuadrado antes de la variable se precisa que la variable H será utilizada solamente para números enteros. COM VAR2=15. ;* escribiendo el número con decimales o sólo el punto decimal se indica que la variable VAR2 almacenará solamente números reales. COMPUTE [REAL] VAR1=20 ;* indicando entre paréntesis cuadrado antes de la variable se precisa que VAR1 solamente servirá para almacenar números reales. COMPUTE START=5

Nótese que una variable “X” definida de un modo, no podrá definirse nuevamente de un modo diferente. Ejemplo: COM N = 10 ;* define la variable N como entero. Supongamos que deseamos ahora que N sea multiplicada por un real y el resultado almacenado en la misma variable N, como sigue: ;* Rats entregará el siguiente mensaje:

COM N = N*1.2

## SX22. Expected Type INTEGER, Got REAL Instead

8

>>>>COM N = N*1.2

;<<<<

;* Rats no acepta esta orden debido a que el resultado de la multiplicación es un real, y N se definió previamente como entero.

Nótese también que al realizar una operación matemática y almacenar el resultado de una variable o arreglo nuevo, no definido previamente, RATS determinará automáticamente el tipo de variable correspondiente de acuerdo al resultado, es decir, si el resultado es un número real, la variable se definirá como real. Ejemplo: El resultado de una multiplicación entre una variable definida como real y otra como entero, quedará determinado como real. COM X = 20.0 COM Y = 3 COM Z = X * Y DIS Z ;* Para visualizar el resultado usamos la instrucción DISPLAY (veremos más adelante) 60.00000 ;* apreciamos que se trata de un número real, es decir admite decimales.

1.3.2. COMPUTE PARA LABELS Y STRINGS
La instrucción Compute permite definir labels y strings tal como mostramos en los siguientes ejemplos: Ejemplo: COM [VECTOR[LABEL]] PAIS= ||‘USA’, ‘CANADA’, ‘JAPAN’, ‘MEXICO’|| ;* aquí se define un vector de cuatro labels llamado PAIS, el que contiene los nombres de 4 países. DIS PAIS(3) ;* para visualizar el label número 3 del vector PAIS usamos la instrucción DISPLAY, y el resultado será JAPAN

Ejemplo:

COM resultado = ’El resultado de los cálculos es:...’ ;* la variable RESULTADO contiene un string. Al igual que en el caso de Labels, para ver el contenido de este string usamos el comando DISPLAY.

1.3.3. COMPUTE PARA ARREGLOS
Con Compute también es posible ingresar arreglos, aunque tal como veremos más adelante, pueden existir formas más rápidas cuando se trata de matrices y vectores de grandes dimensiones. Para escribir una matriz usando COMPUTE se debe encerrar los elementos del arreglo en pares de barras verticales ( || ), y separe cada elemento con una coma, y separa las filas con una sola barra ( | ). A continuación mostramos algunos ejemplos del uso de Compute para el caso de arreglos: Ejemplo: ;* se define un vector V1 de números enteros y de 1 fila por 3 columnas. COM [VECTOR[REAL]] V = ||1.0, 0.0|| ;* permite definir un vector V de números reales. COM [SYMM] ABCD=||1.,2.|2.,1.|| ;* se define una matriz ABCD simétrica de números reales. COM V1=||2,3,7||

9

COM AA = ||1.0 , 2.0| 3.0,5.0|| ;* se define una matriz AA cuadrada, de números reales. WRITE AA ;* La instrucción WRITE permite ver el contenido de la matriz AA Nótese que con COMPUTE no es necesario definir previamente el tamaño de los arreglos. También, que COMPUTE no permite crear series, fórmulas, ecuaciones o modelos, pues existen instrucciones especializadas para cada caso. Sin embargo COMPUTE permite trabajar con elementos específicos de una serie, tratados como escalar. La instrucción especializada para trabajar con series completas (o segmentos de series) es SET, la que veremos más adelante.

1.3.4. COMPUTE PARA SERIES
Ejemplo: COM SERIE1(56) = -99.0 ;* para modificar la observación 56 de la SERIE1, la que tomará el valor -99.0 10.00 ;* para modificar el dato con fecha enero de 1990 de la SERIE 2, el que tomará el valor de 10.00

COM SERIE2(1990:01) =

10

1.4. INGRESO Y VISUALIZACIÓN DE DATOS SIMPLES Y ARREGLOS
1.4.1. INGRESO DE DATOS: INSTRUCCIONES READ E INPUT
Existen básicamente 3 instrucciones para el ingreso de datos en Rats (INPUT, READ y DATA) ya sea desde pantalla o desde un archivo de datos, según la opción UNIT que se utilice. En el caso de leer matrices, requiere que estas sean previamente dimensionadas con DECLARE. INPUT se usa para leer arreglos, escalares o strings solo desde pantalla, y al no tener opciones, es útil para un ingreso rápido de datos. READ se usa para leer arreglos4, escalares o strings, desde pantalla o desde un archivo, con varias opciones de formato. READ sólo puede leer desde archivo datos sin formato o en formato libre, las versiones vigentes no permiten leer datos en formato xls. DATA se usa solamente para leer series de datos, y requiere generalmente ser usada con otras instrucciones (ALLOCATE y CALENDAR), por lo que será visto más adelante (permite leer en formato xls). Las instrucciones READ y DATA tienen la opción UNIT para la entrada de datos:
Instrucción READ Significado de la opción (UNIT=INPUT) : Indica que los datos se leerán desde pantalla (UNIT=DATA) : Indica que los datos se leerán desde un archivo Instrucción Previa

-

-

READ

Previo a la instrucción READ se debe indicar donde se encuentra el archivo con OPEN DATA C:\xxx.xx

4

Recuerde que las matrices también pueden ser leídas por pantalla y asignadas a variables con el comando COMPUTE.

11

a) Lectura de datos por pantalla (INPUT y READ) Debe digitarse los elementos de esta matriz por pantalla, sin embargo cuando la dimensión de la matriz en alta, es decir son muchos los elementos de ésta, resulta más conveniente digitar los datos en una planilla de cálculo como Excel, y luego copiar éstos desde Excel, y luego pegarlos al editor de RATS.

Ejemplo:

Si los datos son ingresados a Excel como sigue:

la forma de ingresarlos a RATS por pantalla usando las instrucciones INPUT y READ es como sigue:

DECLARE RECT MAT3(3,2) INPUT MAT3 1.5 3.2 2.3 5.6 6.5 7.4 WRI MAT3 1.5000 2.3000 6.5000

;* Se declara la matriz MAT3. La instrucción DECLARE se explica más adelante ;* Usando INPUT, es decir ingreando por pantalla

;* para ver el contenido de MAT3 3.2000 5.6000 7.4000

Ejemplo:

DECLARE RECT M4(3,2) READ(UNIT=INPUT) M4 1.5 3.2 2.3 5.6 6.5 7.4 WRI M4 1.5000 2.3000 6.5000

;* usando READ, por pantalla, es equivalente a INPUT

;* para ver el contenido 3.2000 5.6000 7.4000

12

b) Lectura de datos desde Archivos tipo .txt o .prn (READ) Ejemplo: Para leer una matriz desde un archivo llamado file1.txt, el que ha sido creado, por ejemplo, con el block de notas o con cualquier editor sin formato (de texto plano).

DEC RECT DATAVEC(2,3) OPEN DATA C:\file1.txt READ(UNIT=DATA) DATAVEC wri datavec 1.0000 4.6000

;* el archivo de origen es identificado ;* los datos son leidos y almacenados en DATAVEC

;* para verificar el contenido de DATAVEC 2.0000 5.9000 3.5000 6.2000

-

Anteriormente señalamos que la instrucción DATA se usa solamente para leer series de datos y requiere generalmente ser usada con otras instrucciones (ALLOCATE y CALENDAR), por lo que será vista más adelante.

13

1.4.2. VISUALIZACIÓN DE DATOS: INSTRUCCIÓN WRITE Y DISPLAY
Para la visualización de datos del tipo arreglos, escalares o strings existen tres instrucciones: DISPLAY, WRITE y COPY. DISPLAY es usado para visualizar resultados de cálculos siempre y cuando estos sean expresiones escalares, esto es, números y mensajes de texto de una línea (strings). Pueden mostrarse en pantalla o guardarse en un archivo. WRITE es usado para matrices en general, y pueden mostrarse en pantalla o guardarse en un archivo. COPY es usado para series de datos, ya sea en pantalla o para guardar en archivos. PRINT es usado para series de datos, con la restricción de visualización solamente por pantalla. Puesto que COPY y PRINT se refieren a series, serán vistas más adelante. El siguiente es el esquema de funcionamiento de la opción UNIT en estas instrucciones:
Significado de la opción UNIT=COPY : Indica que los datos de guardaran en un archivo UNIT= OUTPUT: Indica que los datos Hacia pantalla Instrucción Previa Para grabar datos a un archivo, previamente debe indicarse donde se encontrará el archivo: OPEN COPY C:\yyy.yy

Anteriormente, en el ingreso de datos, hemos mostrado la forma en que operan las instrucciones WRITE y DISPLAY para mostrar datos en pantalla. Veamos ahora como operan al guardar datos en archivos: Ejemplo: OPEN COPY c:\salida01.txt DISPLAY(UNIT=COPY) 'Este texto aparecerá en el archivo salida02.txt’ END ;* con END se escriben los resultados al archivo al salir de RATS.

La salida es mostrada en el archivo.

sigue:

Recuerde que no es posible escribir matrices con DISPLAY. Para esto puede usarse WRITE como

Ejemplo:

DECLARE RECT M4(3,2) READ(UNIT=INPUT) M4 1.5 3.2 2.3 5.6 6.5 7.4 OPEN COPY c:\salida02.txt WRITE(UNIT=COPY) M4 END

14

;* el archivo de salida es entonces:

Nótese que pueden agregarse datos al mismo archivo de salida cada vez que se ejecuta la instrucción WRITE(UNIT=COPY) en RATS. También, que simultáneamente pueden guardarse datos a diferentes archivos.

15

1.4.3 DECLARE Y DIMENSION
La instrucción DECLARE permite crear y definir cualquier tipo de variable (no solamente arreglos), reservando espacio para ella. Siempre debe usarse DIMENSION en el caso de los arreglos (ya sean VECTORS, RECTANGULAR o SYMMETRIC) y en los datos leídos con INPUT y READ. La excepción es que cuando se ingresan arreglos con COMPUTE no es necesario usar DIMENSION. La definición puede hacerse simultáneamente con la lectura o previamente usando DECLARE. Ejemplo: DECLARE RECT B DECLARE VECTOR A DIM A(5) B(10,10) ;* puede usarse la instrucción DIMENSION (poco usada) INPUT Q 1.0000 0.9654 0.0184 0.9654 1.0000 -0.0418 0.0184 -0.0418 1.0000 DECLARE RECTANG Q(3,3) INPUT Q 1.0000 0.9654 0.0184 0.9654 1.0000 -0.0418 0.0184 -0.0418 1.0000 ;* Los arreglos pueden dimensionarse en la misma instrucción DECLARE.

Ejemplo:

Ejemplo:

COM A1 = ||100|106|107|| COM[VECTOR[INTEGER]] V2 = ||1,2,3,4||

;* la forma más directa es en una misma instrucción declarar, dimensionar e ingresar los datos. COMPUTE [RECT[REAL]] V3 = || 1.0, 0.0 | 0.0, 1.0 ||

Note también que si no se declara una matriz (con DECLARE), entonces al asignarle valores enteros (sin decimales) no los reconoce como números y en consecuencia no se pueden efectuar operaciones aritméticas sobre estas. Ejemplo: DEC RECT A1 ;* declaramos solamente A1 COM A1 = ||100|106|107|| COM A2 = ||100|106|107|| WRI A1 100.0000 106.0000 107.0000 WRI A2 100 106 107 COM A3 = a2+A1 ## SX27. Illegal Combination of Data Types for Operation >>>>COM A3 = a2+A1<<<<

16

;* A2 es reconocido como un vector de labels, y no pueden hacerse operaciones matemáticas con él

Por este problema se recomienda siempre declarar los arreglos a usar. Este problema no existe cuando se trata de crear nuevas matrices como resultados de cálculos matriciales (no es necesario usar DECLARE), puesto que RATS ya sabe las características del resultado de la operación al momento de crear la matriz xx. Ejemplo: COM XX = A1+A1 WRI XX 200.0000 212.0000 214.0000 ;* siguiendo con el ejemplo anterior creamos XX como resultado aritmético de dos matrices previamente declaradas. ;* el resultado son números reales, es decir lo que se deseaba.

1.4.4 OPERACIONES ARITMETICAS: EJEMPLOS
Ejemplo: COM A=1, B=2.1 DIS A+B 3.10000 ;* Con la instrucción compute definimos A y B ;* Display muestra automáticamente el resultado a pantalla

Ejemplo:

COM C=A+2*B DIS 'EL RESULTADO ES: ' C EL RESULTADO ES: 5.20000

Nótese que RATS respeta la precedencia de las operaciones aritméticas, es decir primero multiplicará 2*2.1, y luego ese resultado será sumado a 1.0, es decir un resultado de 5.2 Ejemplo: Definimos dos matrices A y B COM [RECT[REAL]] A = ||-3,1|2,5|4,2|| COM [RECT[REAL]] B = ||2|4|| WRI A -3.0000 2.0000 4.0000 WRI B 2.0000 4.0000 COM C=A*B WRI C -2.0000 24.0000 16.0000 ;* multiplicamos A por B ;* visualizamos el resultado ;* para visualizar los datos 1.0000 5.0000 2.0000

Ejemplo:

Leer dos matrices X e Y por pantalla

17

DEC RECT X(9,3) Y(9,1) INPUT X 1 100 100 1 104 99 1 106 110 1 111 126 1 111 113 1 115 103 1 $ 120 102 1 124 103 1 126 98 INPUT Y 100 106 107 120 110 116 123 133 137 ;* calculamos ahora (X’X)-1 X’Y, paso por paso, donde ( )‘ indica transpuesta, y ( )–1 significa inversa. COM BETA = INV(TR(X)*X)*(TR(X)*Y) WRI BETA -49.3413 1.3642 0.1139 El lector notará que hemos hecho uso de las funciones INV() para calcular la inversa, y de TR() para calcular las traspuestas. Véase el Anexo para un listado de algunas de las principales funciones disponibles en RATS. ;* guardamos en la matriz BETA el resultado ;* visualizamos el resultado

18

1.5. SERIES DE DATOS: INSTRUCCIONES BÁSICAS
Anteriormente hemos señalado que las Series son los datos más importantes en RATS, así como en cualquier investigación, de modo que hemos diferido la discusión de éstas, incluyendo las instrucciones de ingreso y salida de series para este capítulo. Comenzaremos justamente por especificar la forma en que las series deben ingresarse a RATS como paso previo a su utilización.

1.5.1. ANTES DE INGRESAR DATOS: ALLOCATE Y CALENDAR
El número máximo de observaciones (un número entero) a usar en el estudio está definido por la instrucción ALLOCATE, sin considerar los títulos o nombres de las series que pudieran venir en un mismo archivo. Ejemplo: ALLOCATE 150000

Por tratarse de un programa profesional, el número de observaciones que RATS permite trabajar es extremadamente alto. Si consideramos que una planilla Excel puede contener a lo más 65.000 filas u observaciones, RATS puede trabajar con archivos mucho más extensos, lo que ocurre por ejemplo en las series de rendimientos de instrumentos de renta fija que se transan diariamente en la diferentes Bolsas de Valores, en que cada transacción sería una fila. También hemos señalado que los datos econométricos pueden ser de 3 tipos: corte transversal, series de tiempo y datos de panel. Estos últimos serán tratados en un capítulo más adelante, por lo que nos referiremos aquí solamente a los dos primeros. El ingreso de series de datos de corte transversal a RATS es muy sencillo, pues basta la instrucción ALLOCATE. Sin embargo para series de tiempo debe especificarse la frecuencia de las observaciones, fecha de inicio, fecha de término con la instrucción CALENDAR, esto, pues las series de tiempo contienen una frecuencia calendaria anual, trimestral, mensual, semanal o diaria (por ejemplo) CALENDAR permite definir la periodicidad de las observaciones, de modo que cada observación será identificada por un periodo calendario. Esto tiene por ventaja que todas las instrucciones posteriores se podrán referir a fechas calendario en cuanto a los rangos que se desee trabajar, incluyendo regresiones, predicciones, gráficos, etcétera. En series de tiempo cada observación o rango de observaciones de una serie es especificada por fechas calendario (ejemplo 1990:06 1995:12), mientras que para series de corte transversal se usará el número de cada observación (ejemplo 5 20, que indica desde la observación número de 5 hasta la número 20, inclusive). La instrucción CALENDAR es bastante flexible5 y su estructura es como sigue: CALENDAR n1 n2 n3 donde el primer año es n1, el primer periodo en ese año es n2, y el número de periodos / año es n3 ó CALENDAR n1 n2 n3 n4 donde n1 es el primer año, n2 es el primer mes, n3 es el primer día y n4 es el periodo. n4=1 para 7 días por semana, n4=7 para datos semanales, n4=14 para datos quincenales. Ejemplo: CALENDAR 1985 2 4 ;* indica que la primera fila de datos corresponde al segundo trimestre de 1985. ALLOCATE 1443 calendar 1995 6 1 7 ;* establece que existe un máximo de 1443 observaciones semanales y que la primera de ellas ocurre el 1/junio/1995.

Ejemplo:

5

La instrucción calendar tiene opciones más específicas que se pueden revisar en la ayuda de RATS.

19

1.6.2. INGRESO Y VISUALIZACION DE SERIES: DATA Y COPY
Hemos señalado anteriormente que la instrucción DATA es la apropiada para leer series de datos, ya sea desde un archivo o desde pantalla, y que la instrucción COPY es la que escribe series de datos, generalmente a un archivo, ya que para examinar series en pantalla sin formato es más conveniente usar PRINT. Estas instrucciones son usadas exclusivamente con series, y tienen la siguiente estructura respectivamente: DATA(opciones) comienzo término serie1 serie2 ...

COPY(opciones) comienzo término serie1 serie2 ... < text cards > líneas que serán reproducidas como comentarios (sólo con la opción HEADER)

Para leer series desde pantalla, la opción a usar con DATA es Unit=input, acompañada con la opción ORG=obs, la que permite leer las observaciones de datos por columnas, como es tradicional. La lectura por pantalla es recomendada cuando el número de series y de observaciones es muy pequeño. Respecto a los parámetros de DATA, debe indicarse el comienzo y el fin de los datos a ser leídos, de modo que no es necesario leer todas las observaciones de cada serie. A pesar de esto, lo más simple es leerlas por completo, desde la primera a la última. En este caso puede usarse el símbolo ‘/’ para indicar esto. Los parámetros que siguen en la instrucción DATA son las series a ser leídas. Cuando se leen por pantalla debe indicarse aquí los nombres que se les asignará a cada serie. Ejemplo: ALL 4 ;* se indica que se leerán 4 observaciones de cada serie. DATA(UNIT=INPUT,ORG=OBS) / y x2 x3 ;* se indica que se leerán por pantalla todas las observaciones y que el nombre de cada una es Y, X2 y X3 respectivamente. Puesto que no aparece la instrucción CALENDAR se entiende que se trata de series de corte transversal. 100 10 100 106 14 99 107 16 110 120 11 126 Print ;* para ver las series por pantalla 100.00000000000 99.00000000000 110.00000000000 126.00000000000

ENTRY Y X2 X3 1 100.00000000000 10.000000000000 2 106.00000000000 14.000000000000 3 107.00000000000 16.000000000000 4 120.00000000000 11.000000000000

En el caso que las series estén contenidas en archivos de datos, analizaremos dos casos: que el archivo sea del tipo plano (txt) o del tipo Excel. En cualquier caso nótese que requerimos previamente la instrucción OPEN DATA. Ejemplo: Supongamos un archivo de datos plano conteniendo la información de 3 series como sigue:

20

all 4 Open data c:\series01.txt DATA(UNIT=data,ORG=OBS) / yy xx2 xx3 Print ENTRY 1 2 3 4

;* note que la opción es unit=data

;* para ver las series por pantalla YY 100.00000000000 106.00000000000 107.00000000000 120.00000000000 XX2 XX3 10.000000000000 100.00000000000 14.000000000000 99.00000000000 16.000000000000 110.00000000000 11.000000000000 126.00000000000

Veamos ahora el caso en que los datos vienen en una planilla Excel. Debe tenerse presente que esta planilla deberá estar guardada como hoja de cálculo de Excel, y no como libro de Excel. Ejemplo: Si el archivo de las series es el siguiente:

all 4 Open data c:\hoja1.xls

;* el archivo contiene el nombre de cada serie en la primera fila. Además el archivo está guardado como hoja de cálculo (y no como libro de hojas múltiples). DATA(UNIT=data,ORG=OBS,format=xls) / ;* note que no indicamos el nombre de las series. Al visualizar las series con PRINT se apreciará que el nombre aparece asignado.

Antes de seguir considere las siguientes notas: Nota 1: RATS reconoce puntos decimales y no comas, por lo que puede ser necesario modificar la configuración de los números en el Panel de Control (si está usando Windows), y allí Configuración

21

Regional. Para que estos cambios tengan efecto deben hacerse cuando el programa Excel este cerrado, de modo que al ejecutarlo lo haga con esta nueva especificación. Nota 2: La estructura típica del archivo de datos en Excel contiene en la primera fila el nombre de las series (variables) sin que éstas contengan espacios intercalados (no es aceptado por ejemplo 'tasa interes' sino tasa_interes). Nota 3: Si no están disponibles algunas observaciones, complételas con 'na' (no available). Veamos ahora el ingreso de las series de tiempo con la instrucción CALENDAR en adición a ALLOCATE, DATA y OPEN DATA. Ejemplo: Supongamos que se tiene información de Producción, Precios y Consumo. Asumamos que los datos son mensuales.

;* para leer datos desde un archivo Excel ;* se indica que los datos son mensuales comenzando en enero del año 1970 ALLOCATE 16 ;* se trata de 16 observaciones OPEN DATA C:\DEPASO.XLS DATA(unit=DATA,ORG=OBS,FORMAT=XLS) / PRINT / ;* para ver la información ingresada CAL 1970 1 12

22

ENTRY 1970:01 1970:02 1970:03 1970:04 1970:05 1970:06 1970:07 1970:08 1970:09 1970:10 1970:11 1970:12 1971:01 1971:02 1971:03 1971:04

PRODUCCION 77.00000000000 86.00000000000 87.00000000000 92.00000000000 84.00000000000 93.00000000000 92.00000000000 100.00000000000 102.00000000000 113.00000000000 101.00000000000 116.00000000000 118.00000000000 88.00000000000 110.00000000000 117.00000000000

PRECIOS 52.00000000000 56.00000000000 60.00000000000 91.00000000000 117.00000000000 105.00000000000 102.00000000000 100.00000000000 105.00000000000 116.00000000000 125.00000000000 134.00000000000 121.00000000000 127.00000000000 138.00000000000 120.00000000000

CONSUMO 7275.0000000000 7409.0000000000 7726.0000000000 7972.0000000000 7826.0000000000 7926.0000000000 8272.0000000000 8551.0000000000 8808.0000000000 8904.0000000000 8784.0000000000 8798.0000000000 8825.0000000000 9148.0000000000 9462.0000000000 9682.0000000000

;* nótese que la primera columna de la izquierda contiene las fechas en el formato de RATS.

Para la salida de series de datos, las instrucciones pueden ser COPY y PRINT. La instrucción PRINT muestra las series por pantalla, y en el ejemplo anterior mostramos su uso. Para el caso de COPY, ésta permite mostrar las series en pantalla o guardarlas en un archivo. Ambos casos son ilustrados a continuación: Ejemplo: COPY(UNIT=OUTPUT, ORG=OBS) / X1 X2 X3 X4 X5 ;* muestra las 5 series por pantalla.

Ejemplo:

OPEN COPY c:\DATA.WKS COPY(FORMAT=WKS,ORG=OBS) / x1 x2 x3 ;* envía datos en formato de observaciones hacia el archivo data.wks las series x1 x2 y x3 en su rango completo.

Nótese que COPY con la opción (UNIT=output) muestra datos por pantalla con más flexibilidad que PRINT, sin embargo el uso de PRINT en más rápido cuando no nos interesa el formato de la salida.

1.6.3. EXAMINANDO LOS DATOS
El siguiente paso, luego de leer los datos, es obtener estadísticas para asegurarse de que éstos han sido leídos correctamente. Las instrucciones más usadas para este fin son las siguientes6: TABLE calcula varias estadísticas básicas de un grupo de series. STATISTICS entrega estadísticas detalladas de solamente una serie. PRINT permite examinar los datos en detalle, con la precaución de que siempre debe dársele un rango para las series (o un /). EXTREMUM calcula los valores extremos de una serie, sin embargo las funciones: %maxvalue(A) y %minvalue(A) son más directas, donde A puede ser una serie o un vector.

Otras instrucciones estadísticas de RATS son: CROSS (correlaciones cruzadas), MVFRACTILE (fractiles móviles), MVSTATS (estadísticas móviles), PSTATS (hace análisis de varianza para datos panel), THEIL (medidas de calidad de predicción), VCV (la matriz de covarianza), CMOM (con la opción CORR calcula la matriz de correlación de una lista de series).

6

23

La estructura básica de éstas instrucciones es: Nombre_de_la_Instrucción(opciones) Ejemplo: comienzo término variables

Para los ejemplos siguientes continuemos con los datos de producción, precios y consumo: TABLE Series PRODUCCION PRECIOS CONSUMO STAT produccion Statistics on Series PRODUCCION Monthly Data From 1970:01 To 1971:04 Observations 16 Sample Mean 98.5000000000 Standard Error 13.1097927774 t-Statistic 30.05387 Skewness 0.18270 Kurtosis -1.23355 EXTREMUM produccion Extreme Monthly Minimum Maximum Values of Series PRODUCCION Data From 1970:01 To 1971:04 Value is 77.00000000000 at 1970:01 Value is 118.00000000000 at 1971:01 Obs Mean 16 98.50000000 16 104.31250000 16 8460.50000000 Std Error Minimum Maximum 13.10979278 77.00000000 118.00000000 27.10158359 52.00000000 138.00000000 714.50570327 7275.00000000 9682.00000000

Variance SE of Sample Signif Level Signif Level Signif Level

171.866667 Mean 3.277448 (Mean=0) 0.00000000 (Sk=0) 0.78698875 (Ku=0) 0.42503499

Entry 1 Entry 13

Para calcular las correlaciones entre dos o más series, existen 3 instrucciones en RATS: VCV, CMOM y MCOV. Sin embargo la usual es VCV, mientras las otras son más generales pues calculan los momentos cruzados (CMOM) y matriz de covariogramas (MCOV). Ejemplo: En el ejemplo anterior de producción, precios y consumo: vcv(centered) ;* entrega la matriz de covarianza y de correlación (elementos sobre la diagonal). # produccion precios consumo Covariance\Correlation Matrix PRODUCCION PRECIOS CONSUMO PRODUCCION 161.1250000 0.6855314086 0.7979839875 PRECIOS 228.3437500 688.5898437 0.8269901945 CONSUMO 7007.5625000 15013.1562500 478611.0000000 ;* verificamos que la correlación entre producción y consumo es 0.7979839875, mientras que la covarianza entre ambas series es 7007.5625000. También la varianza de la serie Precios es 688.5898437

24

cmom(print,centered,corr) # produccion precios consumo Correlation Matrix Monthly Data From 1970:01 PRODUCCION PRODUCCION 1.000000000000 PRECIOS 0.685531408621 CONSUMO 0.797983987469

To 1971:04 PRECIOS CONSUMO 0.685531408621 0.797983987469 1.000000000000 0.826990194470 0.826990194470 1.000000000000

;* cmom con la opción corr entrega la matriz de correlación. Sin la opción corr entrega solamente

∑ (X

i

− X )(Yi − Y ) ,

es decir sin dividir por el número de

grados de libertad.

1.6.4. GRAFICOS
Otra forma útil de examinar los datos es a través de gráficos. Las principales instrucciones para construir gráficos en RATS son GRAPH y SCATTER. a) GRAPH Produce gráficos de series, histogramas, gráficos de barras y gráficos de doble escala. La estructura básica de la instrucción es: GRAPH número de series # series start end

Ejemplo:

Graph(patterns, key=loright, Header='Produccion vs. Precios') 2 ;* se graficarán 2 series respecto al tiempo, la clave se ubicará a la derecha-abajo, y el título será Produccion vs. Precios. # produccion # precios

Produccion vs. Precios
140

130

120

110

100

90

80

70

60
PRODUCCION PRECIOS

50 J F M A M J 1970 J A S O N D J F M A

25

Nota: Es posible que, según la configuración de RATS, los gráficos aparezcan en otra ventana, siendo necesario ir al menú, Windows para visualizarlos, tal como se muestra en la siguiente ilustración:

Ejemplo:

Graph(patterns, key=upleft, STYLE=BARGRAPH, min=20, max=180) 2 # produccion # precios ;* produce un gráfico de estilo barras para 2 series con rango definido por un máximo y un mínimo.

180

PRODUCCION PRECIOS

160

140

120

100

80

60

40

20 J F M A M J 1970 J A S O N D J F M A

b) SCATTER Este es un tipo de gráfico en el cual una de las series es ubicada en el eje X, por este motivo son conocidos como gráficos X-Y (scatter plots). La estructura básica de la instrucción es:

26

SCATTER pares de series # x-series y-series start end Ejemplo: scatter(style=lines, patterns, key=loright) 2 # consumo produccion # consumo precios ;* produce un gráfico de 2 pares de series en su rango completo
140

130

120

110

100

90

80

70

60
PRODUCCION PRECIOS

50 7000 7500 8000 8500 9000 9500 10000

Gráficos más complejos pueden generarse con la instrucción SPGRAPH (special purpose graph) tales como múltiples gráficos en una página, áreas sombreadas dentro del gráfico o agregar texto a los gráficos con GRTEXT. Todos los gráficos obtenidos en RATS pueden ser copiados y pegados a otra aplicación en Windows, tal como WORD, sin embargo a veces resulta más conveniente grabar el archivo desde RATS con la extensión .WMF y luego insertarlo como imagen en cualquier otra aplicación. Si el gráfico obtenido en RATS no es exactamente el que queremos, entonces podemos grabar un archivo simple desde RATS y luego incorporar / insertar textos y otras imágenes similares desde cualquier editor de imágenes. Opcionalmente Ud. puede hacer doble click desde WORD para modificarlo. Finalmente, si ninguna de estas alternativas le permite obtener el gráfico deseado, uno puede exportar los datos y generar el gráfico en otra aplicación tal como Excel.

1.6. TRANSFORMACIONES DE SERIES
1.6.1. INSTRUCCIÓN SET
La más importante instrucción para trabajar con series es SET, la que permite generar nuevas series o revisar las actuales. Con SET se define una fórmula que será aplicada a cada observación de la serie o a segmentos de ésta. La estructura general de la instrucción es: SET series start end = function(T)

27

donde se asigna las entradas / elementos de la serie igual a los valores de la expresión evaluada haciendo T igual al número de la entrada / elemento. La expresión del lado derecho del signo igual puede ser cualquier combinación de series existentes, escalares o funciones. Ejemplos: SET LOGX = LOG(X) ;* calcula el logaritmo de la serie X y lo almacena en la serie LOGX SET TOT = X1*X2 ;* multiplica las series X! y X2 y guarda el resultado en la serie TOT SET serie1 = (%beta(4) * term01{1}**(2*%beta(3)))**.5 ;* efectúa un cálculo relativamente complejo, donde term01 es una serie rezagada en 1 periodo, %beta son valores de coeficientes constantes, y ** corresponde al exponenciador. SET serie2 1980:1 1988:4 = 0.5 ;* asigna a todos los elementos de la serie2 entre 1980:1 y 1988:4 el valor 0.5

Existen varias instrucciones matemáticas para transformar series, las que no requieren el comando SET (por ejemplo EXP, LOG, ABS, EXP, LOG , SQRT, COS, SIN, TAN y otras como DIFF. (véase Anexo de este capítulo), sin embargo puede resultar más fácil usar siempre el comando SET, pero recordando que algunas instrucciones poseen opciones para requerimientos específicos más avanzados, como por ejemplo DIFF. Ejemplo: LOG x2 / s1 SET s1 = log(x2) ;* ambas instrucciones son equivalentes, y consisten en calcular el log de la serie x2 en su rango completo y almacenar a esta nueva serie en s1. DIFFERENCE / xx1 ;* calcula la primera diferencia7 de la serie xx1 y la almacena en X2 SET xx1 = x2-x2{1} ;* es igual a la instrucción DIFFERENCE anterior. X2

Ejemplo:

La letra T denota en RATS el número de observaciones, de modo que es posible crear series con tendencia fácilmente como sigue: Ejemplo: Ejemplo: SET trend = T ;* crea una tendencia lineal ;* crea una tendencia logarítmica.

SET logtr = log(T)

;* más claramente: ALL 5 DATA(UNIT=INPUT,ORG=OBS) / Y X1 X2 X3 120 132 145 198 154 168 182 192 187 109 186 164 111 155 154 188 176 198 165 162 SET TREND = T COPY(UNIT=OUTPUT) / TREND 1.000000 2.000000 3.000000 4.000000 5.000000

SET LOGTR = LOG(T) COPY(UNIT=OUTPUT) / LOGTR 0.000000 0.693147 1.098612 1.386294 1.609438

La primera diferencia de una serie corresponde a los elementos de la serie original menos el primer rezago de ésta serie. Los rezagos en RATS se identifican con {1} para el primero, {2} para el segundo, etcétera.

7

28

1.6.2. CREANDO SERIES A PARTIR DE OTRAS CON %IF
La función %IF es de mucha utilidad pues permite definir series más complejas en base al cumplimento de condiciones lógicas complejas. La estructura de función es la siguiente: %IF(X,Y,Z) si X es distinto de cero (es decir verdadero) entrega Y, y entrega Z si X es cero. (X,Y, y Z pueden ser del tipo REAL o ENTERO) Ejemplo: SET ALZAS = %IF( PRECIO. GT. PRECIO{1}, PRECIO - PRECIO{1}, 0) ;* define la nueva serie ALZAS como el monto en que la serie PRECIO aumentó respecto al valor inmediatamente anterior, o cero en cualquier otro caso. Note que si las caídas desean ser excluidas en la serie ALZAS, puede escribirse %NA en lugar de cero. Note que hacemos uso del operador lógico GT8. ALL 3 DATA(UNIT=INPUT) / bdos 100. 105. 110. stat(noprint) bdos set mean = %mean ;* almacena el promedio de la serie bdos en la serie mean clear bdos2 ;* crea la serie bdos2 set bdos2 = %if(bdos<mean, bdos+100., %if(bdos==mean,bdos+200, $ bdos+500)) ;* es un ejemplo de dos funciones %if anidadas. Asigna a la serie bdos2=bdos+100 si bdos<mean, bdos2=bdos+200 si bdos=mean y bdos2=bdos+500 si bdos>mean.

Ejemplo:

1.6.3. CREANDO VARIABLES DUMMIES
Las variables Dummies serán tratadas en términos aplicados en un capítulo posterior. Digamos que las variables dummies son aquellas que toman el valor 0 ó 1, por lo que sirven para identificar la presencia o ausencia de una determinada característica entre las series. Nos referimos aquí a los aspectos referidos a su construcción. El camino largo para crear una variable dummy es con dos o más instrucciones: Ejemplo: SET Dum 1970:1 1979:4 = 1 comprendido SET Dum 1980:1 1988:4 = 0 comprendido ;* asigna a la serie Dum el valor 1 para el periodo entre 1970:1 1979:4 ;* asigna a la serie Dum el valor 0 para el periodo entre 1980:1 1988:4

Si la expresión establecida en SET genera una condición lógica pura, automáticamente se crea una variable dummy que toma los valores 0 (FALSO) o 1 (VERDADERO). Luego, la instrucción directa para la creación de dummies es: Ejemplo: SET D70 = T <= 1979: 4 SET D70 = T <= 55 ;* cuando se usa calendar. ;* cuando no se usa calendar.

Ejemplo:

SET SMALL = POP<2000 ;*será 1 para cuando todos aquellos elementos de la serie POP sean menores que 2000, y 0 para el resto.

Existen varias instrucciones que permiten trabajar sólo con los rangos definidos en variables dummies, y estas instrucciones contienen la opción SMPL=nombre de la serie dummy:

8 Operadores lógicos incluyen ' == ' ó .EQ. para la igualdad, .GT. ó > para mayor que, .GE., ó >= para mayor o
igual que, .LT. y .LE. para menor y meor o igual que, .NOT. , .AND., .OR.

29

Ejemplo:

SET(scratch) S = SEMANA>=1994.0 .and. SEMANA<1995.0 ;* crea la variable dummy S que tendrá valores 1 cuando se cumple la condición especificada. SAMPLE(smpl=s) semana / xsemana ;* SAMPLE crea una serie nueva 'xsemana' extrayendo las entradas de la serie original 'semana' cuando la variable dummy S es 1, y asignando NA en los otros casos. SAMPLE(smpl=s) term SAMPLE(smpl=s) yield / xterm / xyield ;* igual al anterior pero con la serie term ;* igual al anterior pero con la serie yield

Ejemplo:

SET CAIDAS = T>=1990:6.AND.T<=1991:3.OR.T>=1993:10.AND.T<=1994:7 ;* crea la serie dummy CAIDAS que identifica con el número 1 los periodos en que se cumple la condición. En este caso se trata por ejemplo de periodos ce caída en la actividad económica. GRAPH(PATTERNS,SHADING=CAIDAS, KEY=UPRIGHT) 2 ;* crea un gráfico para las series VAR12M y SPREAD_5 a partir de 1985:5, identificando en oscuro los periodos de caída del producto. # VAR12M 1989:5 * # SPREAD_5 1989:5 *

Ejemplo:

SET SMALL = POP<2000 ;* crea la variable dummy SMALL LINREG(smpl=small) Y ;* la regresión se saltará aquellas observaciones en que SMALL=0, o de otro modo, solo se considerarán en la regresión las observaciones en que SMALL=1.

1.6.4. OTRAS INSTRUCCIONES COMUNES PARA SERIES
En adición a SET, otras instrucciones para trabajar con series son:
INSTRUCCION CLEAR limpia el contenido de series existentes y también crea nuevas series EQV y LABELS en conjunto cambian nombres de series Ejemplos CLEAR X Y Z EQV 1 2 3 X1 X2 X3 LABELS 1 2 3 # 'RESID1' 'RESID2' 'RESID3' ;* las series X1, X2 y X3 se renombrarán por RESID1, etcétera. MAKE RRR 48:1 90:12 # X1 X2 ;* crea el arreglo RRR a partir de las series X1 y X2 en el periodo señalado ORDER X2 / X1 ;* X1 será ordenado en paralelo a X2 SAMPLE(INTERVAL=2) x1 / x4 SEASONAL DECEMB 1948:1 1991:10 12 1948:12 ;* crea la dummy DECEM entre 1948:1 y 1991:10 en que la separación será cada 12 meses(habrán '1' cada 12 meses y el resto '0'), comenzando en 1948:12 SMPL 1981:1 1981:4 ;* no siempre es recomendable, pues en casi todas las instrucciones puede definirse el rango sobre el cual operará la instrucción.

MAKE crea un arreglo a partir de series

ORDER ordena series SAMPLE extrae datos con diferente frecuencia SEASONAL crea dummies estacionales

SMPL establece globalmente el rango de trabajo

30

1.7. FACILITANDO EL TRABAJO REPETITIVO
Existen básicamente 4 instrucciones para hacer ciclos: DO, DOFOR, WHILE y UNTIL. Aquí comentaremos solamente las dos primeras, que son las más usadas.

1.7.1. LA INSTRUCCIÓN DO
DO hace ciclos hasta END, mientras se cumpla que index > endvalue (si los incrementos son positivos). DO index = startvalue, endvalue, [increment] Index debe ser un INTEGER instrucciones que serán ejecutadas para cada valor tomado por el índice(index). END Ejemplo: Para obtener el factorial del número 5: COM FA=1 DO K =1,5 COM FA=FA*K END DO K DIS FA 120 Ejemplo: Para correr una serie de regresiones lineales, con un rango inicial constante de 1980:1 hasta un periodo final variable de 1994:1 hasta 1994:12 DO REGEND=1994:1,1994:12 LINREG Y 1980:1 REGEND # CONSTANT X1 X2 DIS %BETA(2) END DO Para obtener el promedio de una columna de la matriz TE2 com length = 3 , sum = 0 do i=1,length compute sum = sum + fix(TE2(i,2)) end do i Com MeanTE = Sum/%Rows(TE2) Dis 'Mean =' MeanTE Mean = 5 Ejemplo: Para definir una variable Dummy SERIE1 A partir de los valores de Y CLEAR SERIE1 DO I=1,435 IF Y(I)>0.0 COM SERIE1(I)=1.0 ELSE COM Y(I)=SERIE1(I)=0.0 END DO I

Ejemplo:

Ejemplo:

Una forma de traspasar las columnas de una matriz a series all 3 comp start = 1 do i=1,3 comp end = start set serie1 start end = TE2(i,1) set serie2 start end = TE2(i,2)

31

comp start = start + 1 end

1.7.2. LA INSTRUCCIÓN DOFOR
DOFOR hace ciclos hasta END DOFOR para cada uno de los índices listados, los que no requieren tener ninguna secuencia. El índice puede ser de cualquier tipo, pero si no es entero debe ser previamente declarado. DOFOR index = list of values Instrucciones que serán ejecutadas para cada valor del índice END DOFOR

Ejemplo:

DOFOR INDICE = 3 5 7 DIS INDICE END DOFOR 3 5 7

Ejemplo:

Para hacer un loop corriendo regresiones con Y1, Y2 y Y3 como variables independientes. DOFOR S = Y1 Y2 Y3 LINREG S # CONSTANT X1{0 1} X2 dis %beta(2) dis %RSQUARED END DOFOR

32

ANEXO: FUNCIONES
Las funciones permiten hacer cálculos, mostrar información y para los usuarios avanzados, programar. La sintaxis de todas las funciones en RATS es la siguiente: Nombre(argumento1,argumento2,...) El paréntesis izquierdo debe encontrarse inmediatamente después del nombre de la instrucción, sin espacios entre ambos. Aquí se usa la siguiente convención: x, y indican números reales o expresiones de valor real m, n indican enteros o expresiones de valor entero A y B indican arreglos Z indica un valor complejo o expresiones de valor complejo. A continuación mostramos un listado de las principales funciones (omitimos las funciones de programación y de números complejos): Ejemplos ABS(X) EXP(X) LOG(X) %IF(X,Y,Z) COS(X) SIN(X) TAN(X) %ANNUITY(P,R,N) %BOXCOX(X,Y) %FRAC(X) , %MAX(X,Y), %IMAX(M,N), %MIN(X,Y), %IMIN(M,N), %PAYMENT(A,R,N), Definición valor absoluto exponencial logaritmo natural Entrega Y si X es distinto de cero (i.e. verdadero), Entrega Z si X es cero (X,Y, y Z pueden ser real o entero) Coseno Seno Tangente valor presente de una anualidad con P(pago), R(interés) y N(período) reales (X**y-1)/y,(log(x) para y=0) X- [X] Máximo de 2 reales Máximo de 2 enteros Mínimo de 2 reales Mínimo de 2 enteros Pago requerido para un anualidad con principal A, interés R y período N, donde A,R,N son reales Crear serie con 2 labels Entrega como un label el primer caracter N de Label Entrega los caracteres de Label, comenzando con M=1, si N=0 Entrega el string entero comenzando en M Entrega (como un string) el último caracter N de string Entrega el string correspondiente al entero N Entrega el entero correspondiente a la especificación [(M-1) modulo N]+1, de 1,...N. Entrega el string asociado con el entero T Entrega el día del mes para T Para datos de panel Entrega el número de días desde enero 1, 1901 para T Entrega el entero para el número de mes T Para datos de panel Entrega el día de la semana que corresponde a T Entrega el año calendario para T

1. Funciones Numéricas

2.- Funciones de String/Label

%CONCAT(FIRST,LAST) %LEFT(LABEL,N) %MID(LABEL,M,N) %RIGHT(LABEL,N) %STRING(N)

3. Funciones de entrada, fechas, y panel

%CAL(YEAR,PERIOD) %DATELABEL(T) %DAY(T) %INDIV(T) %JULIAN(T) %MONTH(T) %PERIOD(T) %WEEKDAY(T) %YEAR(T)

33

4. Funciones de Distribución y Probabilidad

%RAN(X) %UNIFORM(L,H) %CDF(X) %CHISQR(X,R) %DENSITY(X) %LOGDENSITY(A,B), %FTEST(X,N1,N2) %INVCHISQR(X,R) %INVNORMAL(X) %LNGAMMA(X) %RANGAMMA(X) %MILLS(X) %DMILLS(X) %POISSON(MEAN,K) %TTEST(X,N) %ZTEST(X)

Número normal aleatorio con media 0, y varianza X Distribución uniforme Entrega cdf(X), la función de densidad acumulativa de una normal estándar ( φ ) Entrega la probabilidad de

χ 2 con R grados de libertad

Función de densidad normal estándar Entrega -.5*(log|A| + B’A-1B), donde A es un arreglo simétrico y B es un vector. Entrega la probabilidad de F(n1, n2) Función inversa χ 2. Entrega Y, tal que X=G(Y), G es cdf de la distribución

χ

2

, con R g. de l..0<=X<=1.

Función normal inversa. Entrega Y, tal que X=cdf(Y), 0<=X<=1. Entrega el log natural de una función Gamma para X Entrega el log de la función Gamma para X Entrega φ (X)/ Φ (X)= la inversa del ratio Mills Entrega la derivada de la inversa del ratio Mills Entrega P(x<=K| μ = MEAN) para un proceso x Poisson con media dada por MEAN Entrega la probabilidad de t con N g. De l. Entrega la probabilidad de una normal estándar Inversa Traspuesta Descomposición de Choleski (solo para simétricas) Entrega la matriz diagonal para un vector Entrega el producto Kroneker para A y B Entrega la diagonal de un arreglo A como un rectangular (n*1) Una técnica de descomposición Entrega (A * I)B Entrega B’AB. A(n*n), B(n*m) Entrega el determinante Entrega la suma de elementos Entrega la traza Entrega el máximo valor en A Entrega el mínimo valor en A Entrega el producto punto Entrega la covarianza de A y B Entrega la correlación de A y B Entrega B’AB. A(n*n), B(n*1) Entrega A(1,1) o A(1) Entrega el número de filas en A Entrega el número de columnas en A

6. Funciones Matriciales

INV(A) TR(A) %DECOMP(A) %DIAG(A) %KRONEKER(A,B) %XDIAG(A) %LUSOLVE(A,B) %KRONID(A,B) %MQFORM(A,B) %DET(A) %SUM(A) %TRACE(A) %MAXVALUE(A) %MINVALUE(A) %DOT(A,B) %COV(A,B) %CORR(A,B) %QFORM(A,B) %SCALAR(A) %ROWS(A) %COLS(A)

34

CAPITULO 2 EL MODELO DE REGRESION LINEAL

2.1. INTRODUCCION: ¿QUE ES LA ECONOMETRIA?
Diccionarios especializados definen econometría como “la aplicación de técnicas matemáticas y estadísticas a la economía en el estudio de problemas, análisis de datos, el desarrollo y la prueba de teorías y modelos." En efecto, cuando un economista plantea un determinado modelo en el cual existe una variable dependiente de otras variables explicativas a través de una determinada especificación funcional, esta es susceptible de ser estimada con datos de la realidad. En casos simples, el modelo no requiere estar especificado demasiado formalmente, pues en muchos casos es aceptada cierta relación ente variables, por ejemplo Ventas-Publicidad, Ingreso-Consumo, Nivel de tasas de interés-Inversión, etcétera. Esto es en breve lo que se entiende por econometría. Así, como iremos viendo a través de este libro, los tres principales usos de la econometría incluyen: 1) Medición de Parámetros (estimación de modelos) 2) Prueba de Hipótesis 3) Predicción Los modelos econométricos pueden ser lineales o no lineales en los parámetros. Son lineales cuando la variable explicada (dependiente) puede ser escrita como una combinación lineal de las variables explicativas (independientes). Por ahora trabajaremos solamente con modelos lineales. Ejemplo:

Yt = β 0 + β 1Yt −1 + β 2 X t + ε t

;* es un modelo lineal en los parámetros. Los

parámetros a estimar o incógnitas son los coeficientes β, mientras que las variables explicativas son X e Y rezagada. La variable explicada o endógena es Y. Ejemplo:

Yt = β 0 + β 1Yt −1 + β 22 X t + ε t

;* es un modelo no lineal en los parámetros,

pues hay un coeficiente β que se encuentra al cuadrado, y no hay forma de eliminar ese exponente sin afectar la linealidad de los restantes parámetros. La segunda clasificación importante es la de modelos de regresión ser simples o múltiples, de acuerdo al número de variables que explican a la variable dependiente. Cuando solamente existe una variable explicativa se llama a éste un modelo de regresión simple y cuando son varias se le llama modelo de regresión múltiple.

35

Ejemplo:

VENTASt = β 0 + β 1 PUBLICIDADt + ε t

;* es un modelo de regresión simple:

La relación lineal entre las ventas (y) y los gastos en publicidad (x) Ejemplo:

CONSUMO t = β 0 + β 1 INGRESOS t + β 2 ACTIVOS t + β 3TAMAÑO t + ε t

;* es un

modelo de Regresión Múltiple. La relación lineal entre el gasto en consumo de las familias (y) en función del ingreso (x1), los activos financieros de la familia (x2) y del tamaño de la familia (x3).

2.2. EL METODO DE MINIMOS CUADRADOS
Supongamos que disponemos de información de Ingreso (variable exógena) y de Consumo (variable endógena) de 20 familias en un determinado periodo (ver datos en la Tabla 4 del Anexo al final del libro). Esta información es mostrada en el siguiente gráfico (scatter).
45

40

35

30

consumo

25

20

15

10

5 6 12 18 24 30 36 42 48

ingreso

Al obtener la información real, esta no se ajustará exactamente al modelo (que suponemos en este caso es lineal), pues algunos puntos se ubican sobre y otros por debajo de la recta. Las observaciones parecen una nube de puntos, y nuestro objetivo es determinar el mejor ajuste a la línea, lo que implica estimar el intercepto y la pendiente de la recta de mejor ajuste a la nube de puntos. Puesto que existe una desviación o error entre cada valor observado de ), entonces el mejor ajuste será el que minimice tales errores9.

Y

ˆ y cada valor predicho por la recta ( Y

Puesto que habrá errores positivos y negativos, una posibilidad es encontrar la recta óptima (es decir el parámetro de intercepto y pendiente) minimizando la suma cuadrara de los errores (SCErr), procedimiento llamado Mínimos Cuadrados Ordinarios. Estos parámetros de intercepto y pendiente son llamados también parámetros de posición.

Se agrega un término de Error (e) pues la relación entre X e Y es estocástica, lo que se puede deber a: - Elementos impredecibles (aleatorios) del comportamiento humano. - Gran número de variables omitidas, algunas no cuantificables. - Errores de medición en y.

9

36

Es conveniente suponer que Y es una variable aleatoria, es decir las observaciones de Y son sucesos observados en un experimento, y que éstos tienen alguna distribución como se muestra a continuación:

Variable endógena Y

Valores posibles de Y dado un valor de X Y=a+bX

Variable Exogena X

Así, si efectivamente la relación subyacente es lineal, uno esperaría que a través de repeticiones sucesivas de Y (experimentos repetidos) se obtendría observaciones con frecuencias como las descritas en cada distribución de la Ilustración, de modo que el error esperado de cada observación sea cero. Un supuesto importante en esta parte es que si bien Y y X son observables, X está fijo es decir es una variable completamente definida por el investigador. Por el contrario Y es estocástico, producto que existe el error en el modelo, y este error es estocástico, efecto que se transmite a Y.

2.3. IMPLEMENTACION DE MCO
Hemos dicho que un modelo del tipo lineal simple contiene una sola variable explicativa (X). La especificación general es un modelo lineal múltiple con muchas variables explicativas. Considerando todas las observaciones (supongamos que se trata de T observaciones disponibles), esta relación puede escribirse entonces de un modo matricial como sigue:

YTx1 = X TxK β Kx1 + ε Tx1
es decir:

⎡ Y1 ⎤ ⎢Y ⎥ ⎢ 2⎥ Y =⎢ . ⎥ ⎢ ⎥ ⎢ . ⎥ ⎢ ⎣YT ⎥ ⎦

⎡ 1 ⎢ 1 ⎢ X =⎢ . ⎢ ⎢. ⎢ 1 ⎣

X X X X
11 21

12 22

. .
T1

. .
T2

. . . . . .

X X

. ⎥ ⎥ . . . ⎥ . . XTk⎥ ⎦

X⎤ ⎥ X⎥
ik 2k

⎡β 0 ⎤ ⎢β ⎥ ⎢ 1⎥ β =⎢ . ⎥ ⎢ ⎥ ⎢ . ⎥ ⎢ ⎣β k ⎥ ⎦

⎡ε1 ⎤ ⎢ε ⎥ ⎢ 2⎥ ε =⎢ . ⎥ ⎢ ⎥ ⎢ . ⎥ ⎢ ⎣ε T ⎥ ⎦

37

donde Y es el vector de variables explicadas por el modelo, X es una matriz de valores conocidos de variables explicatorias fijas o no estocásticas10, ε es un vector tal que (X,ε) es una secuencia de vectores aleatorios independientes11, y β es un vector de K parámetros desconocidos. Para efectos de notación matricial, el primer subíndice de X indica el número de la observación y el segundo identifica la variable. El método de mínimos cuadrados (MCO) para encontrar los coeficientes β que proporcionan el mejor ajuste consiste en minimizar la suma cuadrada de errores, S. Esta suma cuadrada de errores resulta más sencillo de expresar en términos matriciales como sigue: Expresemos el vector de errores como siguiente diferencia:

ε = ( y − Xβ )
luego, la suma cuadrada de errores es:

S = ( y − Xβ )' ( y − Xβ ) = ( y '− β ' X ' )( y − Xβ ) = y ' y − β ' X ' y − y ' Xβ + β ' X ' Xβ = y ' y − 2 β ' X ' y + β ' X ' Xβ
El objetivo de MCO es encontrar el valor del vector de coeficientes que minimice S, para lo cual debe derivarse S respecto a b (el estimador de MCO), es decir:

∂S = −2 X ' y + 2 X ' Xβ = 0 ∂β ⇒ X ' Xb = X ' y ⇒ b = ( X ' X ) −1 X ' y
Luego, el estimador de MCO de β es b y viene dado por:

b = ( X ' X ) −1 X ' y
que es un vector aleatorio puesto que, como se ve, es una función lineal de Y. Nótese que b tiene dimensión 1xK, de modo que para el caso de un modelo lineal simple, K=2, y el elemento (1,1) de b será el intercepto, y el elemento (2,1) será la pendiente.

2.3.1. CORRIENDO REGRESIONES LINEALES EN RATS
Con el resultado anterior hemos mostrado que el estimador de MCO de los coeficientes de regresión (b) viene dado por el producto de la matriz X y del vector Y. Luego, el procedimiento hasta aquí es meramente matemático, de hecho, en un ejercicio del capítulo 1 (sección 1.4.4) mostramos como puede realizarse este cálculo con RATS a través de operaciones matriciales de vectores y matrices.
Más adelante veremos que este supuesto de X fijas puede ser levantado. El caso en que X contiene algún tipo de información acerca del valor esperado en el error, se produce sesgo e inconsistencia. Otros supuestos relevantes se relacionan con la necesidad de que las varianzas de los errores estén uniformemente acotadas y que la matriz promedio de covarianza de los regresores sea no singular.
11 10

38

Sin embargo resulta más apropiado ingresar las observaciones de X e Y como series de datos en lugar de vectores, y entonces utilizar las instrucciones de RATS para obtener este resultado (y muchos más). La instrucción para correr regresiones lineales (simples y múltiples) en RATS es LINREG, la que tiene la siguiente estructura: LINREG variable_dependiente desde hasta residuos coeficientes # lista da variables explicativas en formato de Regresión Los parámetros “desde hasta” se refieren al rango de datos sobre el cual se correrá la regresión. Si se omite se asume que se usará el rango completo. El parámetro residuos (errores) indica que RATS almacenará los errores estimados en le regresión (ε) en una serie con el nombre que allí se le indique. La lista de variables explicativas en formato de regresión, se refiere a la estructura usada por RATS, que consiste básicamente en el símbolo # y luego el término CONSTANT para indicar la existencia de intercepto (si se omite se asumirá que éste es igual a cero), y luego el nombre de cada una de las variables explicativas. En el caso que el modelo establezca que alguna de las series sean formuladas en términos de algún rezago o anticipo (en inglés lag – lead), se escribirá el nombre_serie{lista de rezagos}, por ejemplo SERIE1{0 TO 3} para indicar que se incorporarán, simultáneamente a la serie SERIE1 los rezagos 1, 2 y 3. Para el caso de los anticipos (leads) se escriben los rezagos con signo negativo, por ejemplo SERIE1{-2}. Ejemplo: PIB{2} ;* es el segundo rezago de la serie PIB PIB{-1} ;* es el primer anticipo. CONSTANT INGRESO PIB{1} ;* correrá una regresión con Constante (intercepto), considerando las series INGRESO y PIB rezagado 1 periodo como variables explicativas. LINREG dy # dg{1 2 4} dm{1 to 4} ;* correrá una regresión usando la serie dy como variable dependiente, y como variables explicativas las series dg en sus rezagos 1, 2 y 4, y la serie dm con sus 4 primeros rezagos. Note que si los rezagos/anticipos son contiguos, entonces se puede usar 'to'. Ejemplo: A modo de ilustración, asumamos que se dispone de la siguiente información mensual de actividad económica en Chile (IMACEC), de desempleo en miles de personas desocupadas, y del índice de precios al consumidor (Base: Diciembre 1998=100). Ver Tabla 1 en el Anexo al final del libro. all 12 cal 2000 1 1 data(unit=input,org=obs) / FECHA IMACEC DESEMPLEO IPC ... ;* los 3 puntos suspensivos indican que aquí deben insertarse los datos de la tabla correspondiente, las que están disponibles en el anexo al final del libro. Table ;* La instrucción TABLE permite obtener un resumen de los datos ingresados, lo que sirve para verificar que la información ha sido ingresada correctamente. Obs Mean 12 2000.06500000 12 248.40000000 12 539.39166667 12 104.92500000 Std Error Minimum Maximum 0.03605551 2000.01000000 2000.12000000 8.31635847 235.20000000 267.40000000 54.53536731 473.50000000 626.60000000 1.41686915 102.49000000 106.94000000

Series FECHA IMACEC DESEMPLEO IPC

39

Supongamos que buscamos explicar el desempleo (variable Y) a través de una relación lineal respecto de la actividad económica (variable X1) y la inflación (variable X2). Para regresionar linealmente Y respecto de X1 y X2 considerando un intercepto, la instrucción en RATS será: linreg desempleo # constant imacec ipc ;* la variable dependiente es desempleo ;* las variable independientes son imacec e ipc

Dependent Variable DESEMPLEO - Estimation by Least Squares Monthly Data From 2000:01 To 2000:12 Usable Observations 12 Degrees of Freedom 9 Centered R**2 0.440137 R Bar **2 0.315723 Uncentered R**2 0.994803 T x R**2 11.938 Mean of Dependent Variable 539.39166667 Std Error of Dependent Variable 54.53536731 Standard Error of Estimate 45.11222094 Sum of Squared Residuals 18316.012303 Regression F(2,9) 3.5377 Significance Level of F 0.07351364 Durbin-Watson Statistic 1.286739 Q(3-0) 1.724386 Significance Level of Q 0.63152582 Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant -489.813301 1134.381514 -0.43179 0.67605439 2. IMACEC -2.967603 1.645773 -1.80317 0.10486361 3. IPC 16.834478 9.659915 1.74271 0.11535790 Por ahora, nos interesa señalar que los tres coeficientes estimados son –489.8133.0 para el intercepto, -2.967603 para el coeficiente del IMACEC, y 16.834478 para el coeficiente del IPC. Más adelante iremos interpretando los resultados.

2.3.2. LA DISTRIBUCIÓN DE b
Hemos señalado que b (el estimador de β) es también una variable aleatoria, de modo que si se conoce su distribución seremos capaces de hacer inferencias de éstos, tales como intervalos de confianza y pruebas de hipótesis. Veamos entonces la distribución del estimador b, en cuanto a su valor esperado y su varianza. Puede mostrarse que el valor esperado y la varianza de b vienen dadas respectivamente por12:

E (b) = β + ( X ' X ) −1 X ' E (ε )
V (b) = E[(b − β )(b − β )'] = ( X ' X ) −1 X ' E (εε ' ) X ( X ' X ) −1
donde E(εε’) corresponde a la matriz de varianzas y covarianzas de los errores. La matriz de varianzas y covarianzas de los coeficientes es cuadrada y simétrica de dimensiones KxK, es decir:

12

Véase ecuación 5.6.8.a) en página 201 de Judge et al. (1988).

40

Cov(b1 , b2 ) ⎡ Var (b1 ) ⎢Cov(b , b ) Var (b2 ) 2 1 E [(b − β )(b − β )'] = ⎢ ⎢ ⎢ ⎣

⎤ ⎥ ⎥ ⎥ ⎥ Var (bk )⎦

donde los elementos de la diagonal son las varianzas de cada coeficiente, los que se encuentran fuera de la diagonal son las covarianzas. Así, b tiene la siguiente distribución general13:

b ≈ β + ( X ' X ) −1 X ' E (ε ) , ( X ' X ) −1 X ' E (εε ' ) X ( X ' X ) −1

[

]

Nótese también que el comportamiento de los errores (ε), es decir la matriz de varianzas y covarianzas de los errores, E(εε’), tiene gran importancia en la esperanza y la varianza de b. En efecto, para que b sea un estimador insesgado de β (es decir E(b)=β) se requiere que X’E(ε)=0, es decir que los errores sean independientes de las variables explicativas X, lo que se lograría siempre en el caso que X fuera fija, y también en algunos casos cuando X es estocástica (véase regresores estocásticos). Respecto a la varianza de b, cuando E(εε’)=σ2I, lo que significa que los errores están distribuidos independiente y constantemente, V(b) es mínima, es decir, el estimador b es eficiente (de varianza mínima), y en este caso la varianza de b viene dada por: V(b) = (X'X) X'σ I X(X'X) Es decir:
-1 2 -1

= σ (X'X)

2

-1

b ≈ β , σ 2 ( X ' X ) −1

[

]

Así, bajo condiciones ideales (errores bien comportados) el estimador de MCO es insesgado y eficiente. Esto es resumido por el Teorema de Gauss-Markov, en cuanto a que puede mostrarse14 que b es MELI, es decir, es el mejor estimador insesgado de entre la clase de los estimadores lineales de β.

2.3.3. LA MATRIZ DE COVARIANZAS DE LOS ERRORES
La matriz de varianzas y covarianzas de los errores tiene la siguiente forma:

⎡ε 1ε 1 ε 1ε 2 ⎢ε ε E [εε '] = E ⎢ 2 1 ⎢ ⎢ ... ⎣

Cov(ε 1ε 2 ) ⎤ ⎡ V (ε 1 ) ⎤ ⎥ ⎢Cov(ε ε ) ⎥ 2 1 ⎥=⎢ ⎥ ... ... ⎥ ... ... ⎥ ⎢ ⎥ ⎢ ⎥ ... εT εT ⎦ ⎣ V (ε T )⎦

donde los elementos de la diagonal representan la varianza de cada error, y los elementos fuera de la diagonal son las covarianzas respectivas entre errores. Puesto que la covarianza entre el error 4 y el error

Note que no especificamos aún, pues no lo requerimos, la distribución específica de b, es decir si por ejemplo se trata de una distribución Normal o no. 14 Véase sección 5.7 en Judge et al.

13

41

6 es la misma que la covarianza entre el error 6 y el error 4, entonces ésta matriz es simétrica y cuadrada de dimensión TxT. Esta matriz no es posible de observar ni estimar completamente con los datos, por la sencilla razón de que existen solamente T observaciones o grados de libertad inicialmente, y E(εε’) contiene T(T+1)/2 incógnitas15. Por este motivo deben hacerse supuestos simples acerca de su comportamiento, y el más sencillo es asumir que los errores están idealmente bien comportados, lo que quiere decir que éstos errores se distribuyen independiente e idénticamente. Veamos esto con algún detalle. Cuando los errores se distribuyen idénticamente significa que tienen igual varianza (sabemos que tienen media cero). En econometría a esta propiedad se le llama homocedasticidad, o inexistencia de heterocedasticidad. Esto significa que la matriz de varianzas y covarianzas de los errores debe tener a lo largo de toda su diagonal el mismo elemento, es decir una constante, reflejando que la varianza del error de cada observación es el mismo para las T observaciones. Cuando los errores se distribuyen independientemente quiere decir que éstos no están correlacionados entre sí. En econometría a esta propiedad se le llama no-autocorrelación serial, o errores no correlacionados serialmente. En este caso la matriz de varianzas y covarianzas de los errores debe presentar que todos los elementos fuera de la diagonal (es decir las covarianzas) sean cero.

-

-

Así, en el caso de errores bien comportados, esto se traduce en homocedasticidad y no autocorrelación, lo que significa que la matriz de varianzas y covarianzas de los errores debe ser igual a:

⎡σ 2 ⎢ 0 E [εε '] = ⎢ ⎢ ... ⎢ ⎢0 ⎣

0

σ

2

0⎤ ⎡ 1 0 ... 0⎤ ⎥ ⎥ ⎢ ⎥ = σ 2 ⎢0 1 ⎥ =σ 2I ⎥ ⎢... ... ... ⎥ ⎥ ⎢ 2⎥ σ ⎦ 1⎦ ⎥ ⎣0 ...

es decir σ2 veces la matriz identidad. De este modo, en adelante, cuando nos referimos a errores bien comportados queremos decir errores con varianzas del tipo escalar-identidad o σ2I, donde I es la matriz identidad. Por el contrario, cuando los errores están mal comportados se dice que su matriz de varianzas y covarianzas tiene la forma de σ2ψ, donde ψ es una matriz cuadrada simétrica TxT pero distinta de la matriz identidad. En cualquier caso, si bien ψ no puede estimarse a partir de los datos, sí puede obtenerse un estimador de σ2, la varianza de los errores (σ es conocida el error estándar de la estimación) que denominamos s2, el que puede mostrarse, viene dado por:

s2 =

SCErr t =1 ε 'ε = = T −K T −K T −K

∑ε

t =T

2 t

Puede apreciarse que s2 proviene de la fórmula tradicional de varianza de una serie, es decir la suma cuadrada de las desviaciones de cada observación respecto a la media (la media de los errores es cero) dividido por el número de grados de libertad, en este caso T menos el número de parámetros estimados en la regresión previa a la estimación de s2.

15

Por ejemplo, se tienen 3 observaciones, E(εε’) tiene por incógnitas los 3 elementos de la diagonal de ésta matriz más los 3 elementos debajo de la diagonal (pues es una matriz simétrica, los elementos de arriba de la diagonal son iguales), es decir un total de 3+3 = 3*4/2 = 6 incógnitas.

42

2.3.4. UNA MEDIDA DEL ÉXITO DE AJUSTE
La medida usual para evaluar el grado de éxito en el ajuste de MCO a los datos observados es el coeficiente R-cuadrado. Este coeficiente tiene un rango de valores posibles entre 0 y 1. Mientras más cercano a cero indicará un mal ajuste, y mientras más cercano a 1 indicará un mejor ajuste. La derivación del R-cuadrado se obtiene descomponiendo la suma cuadrada total en suma de cuadrados explicada y suma de cuadrados no explicada por la regresión (SCErrores): SCT = SCExpl + SCErr

∑(y
donde

t

2 2 − y) 2 = ∑ ( y ˆ t − y) + ∑ ( yt − y ˆt )

y i son los valores observados de Y, y es el valor promedio de los y observados, lo que sirve para reescalar apropiadamente los cálculos, y por último y ˆ i corresponde a los valores de Y predichos por la
regresión ajustada. Un mejor ajuste implicará que la SCExplicada es mayor que la SCErrores. Así, dividiendo ambos lados de la igualdad por el término de la izquierda se tiene que:

ˆ ∑(y 1= ∑(y

t t

− y) 2 − y) 2

∑(y + ∑(y

t t

2 −y ˆt )

− y) 2
suma cuadrada explicada suma cuadrada total

R

2

ˆ ∑(y = ∑(y

t t

− y) 2 − y)
2

, o escrito de otro modo,

R2 =

Lamentablemente el R-cuadrado está afectado por el número de parámetros usados en el modelo, de modo que en general, siempre se obtendrá un R-cuadrado más alto cuanto mayor sea el número de variables explicativas. De otro modo, se esperan bajos R-cuadrados para modelos relativamente simples. Sin embargo la regla de la parsimonia indica que los modelos con demasiados parámetros hacen perder grados de libertad y confianza en las estimaciones, aspecto que el R-cuadrado no considera. Debido a este problema fue desarrollado el coeficiente R-cuadrado ajustado de la siguiente forma:

⎛ T −1 ⎞ 2 R 2 =1− ⎜ ⎟(1 − R ) ⎝T − K ⎠
el cual presenta una especie de corrección / castigo para los modelos con muchos parámetros, puesto que al aumentar K caerá el valor de esta medida. Como desventaja, el R-cuadrado ajustado puede ser negativo.

43

2.4. CARACTERISTICAS ADICIONALES DE LINREG
2.4.1 SALIDAS OPCIONALES DE LINREG
Después de correr una regresión lineal en RATS, se crean una serie de variables con resultados de la última regresión, de modo que está disponibles para ser usadas en cálculos posteriores o para se consultadas por pantalla. Estos resultados son almacenados en variables que comienzan con el símbolo “%”. El listado de resultados es el siguiente: %NDF %NOBS %NREG %RSQUARED %RBARSQ %TRSQ %DURBIN %BETA %XX %RSS : Entrega el número de grados de libertad en la regresión (entero) : Entrega el número de observaciones útiles disponibles (entero). Si alguna variable usada en la regresión contiene elementos “na” éstos no serán considerados. : Entrega el número de regresores o variables explicativas (entero) : Entrega el R-cuadrado (escalar real) : Entrega el R-cuadrado ajustado (escalar real) : Entrega el número de observaciones multiplicado por el R-cuadrado (escalar real) : Entrega el estadístico Durbin-Watson (escalar real), útil en la detección de autocorrelación de primer orden en los errores. : Entrega el VECTOR de los coeficientes estimados (b). : Entrega con la inversa de (X'X), que es una matriz simétrica. : Entrega la suma cuadrada de residuos (escalar real), es decir

S = ∑ ε t2 = SCErr = ε ' ε
t =1

t =T

%SEESQ

: Entrega el error estándar de la estimación al cuadrado (escalar real), es decir σ2. Note que si se desea conocer la estimación de la matriz de varianzas y covarianzas de los coeficientes de la regresión, basta calcular los elementos de la matriz %SEESQ * %XX, es decir

σ 2 ( X ' X ) −1 .

%QSTAT %QSIGNIF %RHO %UZWZU

: Entrega el estadístico Q de Ljung-Box (escalar real), útil para la detección de autocorrelaciones de orden superior a 1. : Entrega la significancia del estadístico Q (escalar real), es decir el nivel de error con el cual se puede rechazar la hipótesis nula de no correlación serial de orden mayor a 1. : Entrega el coeficiente de autocorrelación del primer rezago (escalar real), útil para detectar autocorrelación de 1º orden. : Entrega el resultado de u´ZWZ´u, que es de utilidad en el caso del uso de variables instrumentales (escalar real)

Ejemplo:

A modo de ejemplo, trabajemos con la regresión anterior de actividad económica en Chile (IMACEC), de desempleo, y del índice de precios al consumidor (Tabla 1 en Anexo al final del libro), y queremos conocer la estimación la de inversa de (X'X). WRI %XX ;* muestra la inversa de (X'X). Recuerde que previo a esto debe correrse la regresión para que RATS almacene en la variables “%” los resultados correspondientes. 1.3309e-003 8.6921e-004

632.3097 -0.4218 -5.0269

0.0459

44

;* no se muestran los elementos de arriba de la diagonal, pues esta matriz es simétrica. com var = %SEESQ * %XX ;* calcula la matriz de varianzas y covarianzas de los coeficientes, almacenando el resultado en la matriz var. wri var ;* muestra el contenido de la matriz var. Generalmente interesan solamente los elementos de la diagonal, es decir las varianzas y no las covarianzas. -858.4142 2.7086 1.7689 -10230.3716 1.7689 93.3140

1286821.4188 -858.4142 -10230.3716

com errst2 = (var(2,2))**0.5 ; almacena en errst2 el error estándar (desviación estándar) del segundo coeficiente. dis errst2 ;* muestra el resultado 1.64577

;* es ilustrativo comparar este resultado con un segmento de lo obtenido en la salida de la regresión anterior en RATS: Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant -489.813301 1134.381514 -0.43179 0.67605439 2. IMACEC -2.967603 1.645773 -1.80317 0.10486361 3. IPC 16.834478 9.659915 1.74271 0.11535790 ;* en negrilla aparece el resultado, que corresponde exactamente a lo obtenido anteriormente paso a paso.

2.4.2. OPCIONES DE LINREG
Existe un número de opciones útiles en RATS al momento de correr regresiones lineales con LINREG. [PRINT]/NOPRINT : Hace todos los cálculos almacenando la información relevante en las variables “%”, pero sin mostrar automáticamente la salida estándar de la regresión en pantalla. : Muestra la matriz de varianzas / correlación de los coeficientes estimados.

VCV/[NOVCV] Ejemplo:

linreg(noprint,vcv) desempleo # constant imacec ipc Covariance\Correlation Matrix of Coefficients Constant IMACEC IPC Constant 1286821.41883 -0.4597988792 -0.9335959599 IMACEC -858.41420 2.70857 0.1112678923 IPC -10230.37158 1.76894 93.31396 ;* la matriz de varianzas / correlación debe leerse de modo que los elementos sobre la diagonal son la correlación entre los coeficientes estimados, los

45

elementos en la diagonal son las varianzas, y los elementos bajo la diagonal son las covarianzas.

SMPL

: Define el rango sobre el cual se quiere correr la regresión, usando una variable dummy que contiene el valor 0 para las observaciones que quieren ser omitidas. set dum set dum 2000:01 2000:07 2000:06 = 1 2000:12 = 0

Ejemplo:

;* creamos una variable con 1 y 0 según el rango establecido

print / imacec dum ENTRY 2000:01 2000:02 2000:03 2000:04 2000:05 2000:06 2000:07 2000:08 2000:09 2000:10 2000:11 2000:12

;* visualizamos la nueva serie junto al IMACEC DUM 1.0000000000000 1.0000000000000 1.0000000000000 1.0000000000000 1.0000000000000 1.0000000000000 0.0000000000000 0.0000000000000 0.0000000000000 0.0000000000000 0.0000000000000 0.0000000000000 ;* corre la regresión solamente para el periodo en el cual la variable dum=1.

IMACEC 254.40000000000 243.20000000000 267.40000000000 244.10000000000 249.00000000000 244.30000000000 242.00000000000 243.50000000000 235.20000000000 254.90000000000 252.30000000000 250.50000000000

linreg(smpl=dum) desempleo # constant imacec ipc

;* usted puede verificar que el procedimiento anterior es equivalente a correr la regresión para el subperiodo 2000:01 2000:0616

DFC:

Corrección de Grados de Libertad (degree of freedom correction). Son los grados de libertad perdidos en la variable dependiente en el procesamiento previo, es decir, cuando se regresionan residuos de una primera regresión como variable dependiente de una segunda regresión, los errores estándar de los coeficientes serán subestimados porque la primera regresión extrajo algunos grados de libertad. DFC debe ser igual al número de regresores en la 1º regresión, menos el número de regresores que son repetidos en la 2º regresión. LINREG Y / errores # CONSTANT X1 X2 X3 ;* el primer modelo requiere estimar 4 parámetros, y los errores del modelo son almacenados en la serie errores. LINREG(dfc=4) errores ;* la segunda regresión requiere usar la serie errores como variable dependiente, sin embargo ya se han perdido 4 grados de libertad al estimar los errores, los que deben ser considerados en la segunda regresión. # CONSTANT X5 X6

Ejemplo:

EQUATION:

Estima ecuaciones que han sido creadas previamente con la instrucción EQUATION.

16

linreg desempleo 2000:01 2000:06 # constant imacec ipc

46

Ejemplo:

EQUATION ecuacion1 desempleo # constant imacec ipc ;* almacena en ecuacion1 la regresión del ejemplo del desempleo, imacec e ipc. linreg(equ=ecuacion1) ;* permite obtener el resultado de una regresión lineal de la ecuación almacenada en ecuacion1.

DEFINE y FRML: Crean respectivamente una ecuación y una fórmula (más general que una ecuación) con la información de LINREG para ser usada posteriormente, por ejemplo para predicción17. UNRAVEL/[NOUNRAVEL]: Junto con ENCODE implementa Mínimos Cuadrados Restringidos para rezagos distribuidos, tales como los polinomiales18. CMOM: Es usada en soluciones a la multicolinealidad, tales como los estimadores de Ridge y Mixtos.

Existen dos grupos adicionales de opciones relacionadas con CREATE y ROBUSTERRORS, las que comentaremos más adelante, incluyendo las opciones INSTRUMENTS y WMATRIX.

2.5. INTERPRETACION DE LOS COEFICIENTES DE REGRESION
2.5.1. INTRODUCCION
Cuando se plantea un modelo de regresión lineal, como por ejemplo:

Yt = β 0 + β 1 X 1 + β 2 X t + et
los coeficientes de pendientes de ésta regresión miden el efecto parcial de X1 sobre Y y de X2 sobre Y, es decir las derivadas parciales de Y respecto a X1 y X2 respectivamente. Así, la interpretación de los coeficientes es a veces confusa, puesto que se debe tener muy claro como son medidas las variables. Veámoslo a través de un ejemplo: Ejemplo: Se dispone de la empresas durante utilizado (monto usado (en número información de la producción mensual (en kilogramos) de 10 el mes pasado, y se cree que la producción depende del capital de deuda de la empresa, en millones de pesos) y del trabajo de personas contratadas), según la siguiente tabla de datos:

all 10 data(unit=input, org=obs) / EMPRESA 1 8 23 106 2 9 14 81 3 4 38 72 4 2 97 57 5 6 11 66 6 6 43 98 7 3 93 82 8 6 49 99
17

CAPITAL

TRABAJO PRODUCCION

Métodos de predicción implementados en RATS son: univariados (suavizamiento exponencial, Box-Jenkins, técnicas espectrales) y multivariados (VAR y ecuaciones simultáneas). 18 Una instrucción más común es RESTRICT, la que impone restricciones después de estimar un modelo no restringido, tal como en una función de Cobb-Douglas.

47

9 10

8 4

36 43

110 118

linreg produccion # constant capital trabajo ... (omitimos parte de la salida) Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant 56.200941579 43.703865736 1.28595 0.23936141 2. CAPITAL 4.873711127 4.974703122 0.97970 0.35987273 3. TRABAJO 0.120945774 0.392826007 0.30789 0.76712795 ;* aquí la interpretación de los coeficientes es: a) Constante: Si no se utiliza capital ni trabajo, la producción será de 56.20 kilogramos mensuales. b) CAPITAL: Por cada millón de pesos adicional en deuda, se esperan producir 4.87 kilogramos mensuales. c) TRABAJO: Por cada persona contratada adicionalmente, se espera que la producción mensual aumente en 0.12 kilogramos.

Existen otras especificaciones similares a la lineal anterior, pero que llevan a una interpretación distinta de los coeficientes, tal como veremos a continuación.

2.5.2. FORMA DOBLE LOGARITMICA
Corresponde a una especificación (lineal) en que tanto la variable dependiente como las variables independientes están expresadas como logaritmos naturales. Ejemplo:

LN (Yt ) = β 0 + β1 LN ( X 1 ) + β 2 LN ( X t ) + et

;* es una especificación doble log

La propiedad más importante de esta especificación es que los coeficientes pueden interpretarse como elasticidades. En efecto, la interpretación de los coeficientes β1 es:

β1 =

d ln Y d ln X 1

puesto que, por ejemplo, la elasticidad precio de la demanda puede escribirse como:

dQ Elasticidad = dP

Q P

=

d ln Q d ln P

donde Q es la función de demanda Q(P), y P el precio. Esta especificación es entonces útil para calcular elasticidades precio, elasticidades ingreso, elasticidades cruzadas, etcétera, de acuerdo a las variables involucradas en el modelo.

48

2.5.3 MODELO LOGARÍTMICO LINEAL (DE CRECIMIENTO CONSTANTE)
Cuando se tiene una especificación Log-Lineal, la interpretación del coeficiente relevante es la de la tasa de crecimiento constante de la variable asociada. Ejemplo:

ln Y = β 0 + β1 X

;* un modelo lineal simple en forma log-lin.

La interpretación del coeficiente β en este caso es:

dY d ln Y = Y β1 = dX dX
El numerador corresponde al cambio porcentual de Y (dado por dY/Y), mientras que el denominador es el cambio (muy pequeño) en X. Si por simplicidad X es una medida de tiempo o tendencia, entonces la interpretación de β es el cambio porcentual en Y ante un pequeño periodo de tiempo. Note que si β<0, se tratará de la tasa de disminución en Y. Ejemplo: En el caso del desempleo, estimemos la tasa de crecimiento (mensual) del desempleo: set tend = T ;* crea una serie de tendencia desde 1 hasta 12, que indicara el tiempo. set logdes = log(desempleo) ;* creamos la serie logdes que será la nueva variable dependiente. linreg(noprint) logdes # constant tend dis %Beta(2) 0.01518 ;* el crecimiento mensual promedio del desempleo en el periodo fue de 1.518%.

2.5.4. OTRA VISION DE LOS COEFICIENTES DE PENDIENTE
Puede mostrarse que cada coeficiente en una regresión lineal puede calcularse como:

βi =

Cov ( X i , Y ) ρ ( X i , Y ) ⋅ σ ( X i ) ⋅ σ (Y ) ρ ( X i , Y ) ⋅ σ (Y ) = = Var ( X i ) Var ( X i ) σ (Xi )

es decir la covarianza entre Xi e Y dividido por la varianza de la variable Xi, o alternativamente, el coeficiente de correlación entre Xi e Y, multiplicado por la desviación estándar de Y y dividido por la desviación estándar de Xi. La interpretación de este resultado es que la covarianza (o el coeficiente de correlación) justamente intentan obtener el efecto neto entre Xi e Y, eliminando el efecto de otras variables sobre Y, puesto que esta efecto será obtenido en el beta correspondiente a esa variable. El otro aspecto importante es que si la correlación entre Xi e Y fuera cercana a 1.0, y las desviaciones estándar de Xi y de Y son similares, entonces esperamos una pendiente cercana a 1.0 (βi=1.0). Por último, puede notarse que el valor de este coeficiente βi estará afectado por las unidades de medida de Xi e Y, lo que se reflejará en sus respectivas desviaciones estándar. Ahora mostraremos a través de un ejemplo que los coeficientes de una regresión múltiple pueden escribirse como la covarianza dividida por la varianza, en el caso que las variables X1 y X2 no estén correlacionadas, es decir:

49

Y = β0 +

Cov ( X 1 , Y ) Cov ( X 2 , Y ) X1 + X2 +ε Var ( X 1 ) Var ( X 2 )

Ejemplo:

ALL 10 ;* supongamos 3 series de 10 observaciones. DATA(UNIT=INPUT, ORG=OBS) / y x1 x2 30 8 5.912195121951 27 9 6.365853658537 29 9 8.365853658537 39 8 11.912195121951 35 10 12.819512195122 38 15 8.087804878049 37 12 11.726829268293 40 11 16.273170731707 48 17 8.995121951220 55 16 9.541463414634 vcv(print,center) # y x1 x2 ;* la correlación (y la covarianza) entre X1 y X2 es cero.

Covariance\Correlation Matrix Y X1 Y 66.9600000 0.7977680349 X1 20.9000000 10.2500000 X2 7.3814634 2.4948932e-013 dis 20.9/10.2500000 2.03902 dis 7.3814634/9.1404878 0.80756 linreg y

X2 0.2983665017 0.0000000000 9.1404878

;* calculamos el primer coeficiente de pendiente

;* calculamos el segundo coeficiente de pendiente

;* verificamos a través de una regresión múltiple el valor de los coeficientes de pendientes estimados anteriormente.

#constant x1 x2 ... Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant 6.2756511484 8.0772663658 0.77695 0.46262945 2. X1 2.0390243902 0.5061770221 4.02828 0.00500669 3. X2 0.8075568364 0.5360183683 1.50658 0.17564288

50

Otro aspecto importante referido a la interpretación de los coeficientes de pendientes, y relacionado con lo anterior, es que éstos corresponden a la relación entre cada variable Xi con Y, una vez que se ha eliminado el efecto de las demás series X sobre Xi. Veamos esto a través de un ejemplo:

Ejemplo:

Se tiene información de 30 empresas respecto a una función de producción COBBDOUGLAS simple, en que el producto (Q) es explicado por el capital (K) y el trabajo (L): ALLOCATE 30 DATA(unit=input,ORG=OBS)

/ L K Q

... Ver datos en Tabla 2 del Anexo al final del libro SET LQ = LOG(Q) SET LL = LOG(L) SET LK = LOG(K) ;* calculamos los logaritmos de cada serie

LINREG LQ # CONSTANT LL LK ... ;* omitimos parte de la salida Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant 0.4248677184 0.1377981975 3.08326 0.00468027 2. LL 0.7358252943 0.0657905407 11.18436 0.00000000 3. LK 0.9490111531 0.0629012650 15.08731 0.00000000 ;* el coeficiente de LL (β1) es 0.7358252943. ;* Verifiquemos que éste coeficiente puede obtenerse con regresiones separadas: LINREG LL / W # CONSTANT LK ;* la variable dependiente es LL y guardamos los residuos en W

W son los residuos de esta regresión, y corresponden a la información que queda en LL después de eliminar lo explicado por LK. De otro modo, W es la parte de LL que esta libre del efecto de LK, es decir el contenido de información neto de LL.

LINREG LQ # CONSTANT W ;* la pendiente de esta regresión captura en que medida W (el contenido de información neto de LL) explica LQ. ... Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant -1.532676493 0.212991293 -7.19596 0.00000008 2. W 0.735825294 0.178276664 4.12743 0.00029831 Obtenemos el mismo coeficiente β1=0.735825294, con lo cual verificamos que basta solo 1 regresión múltiple para esto, y no es necesario efectuar varias estimaciones para eliminar el ruido, o contenido de LK en LL.

2.6 RESUMEN: UNA CRÍTICA AL MODELO

51

Para terminar este capítulo recordemos que en la implementación del método de los MCO se ha supuesto: a) Que se trata de un modelo lineal en los parámetros: Este supuesto puede no ser aplicable en muchos modelos, sin embargo en muchos otros es válido, por lo tanto es una misión del analista determinar si el supuesto es aplicable o no. Cuando no es posible trabajar bajo este supuesto (cuando tampoco es posible linealizar el modelo), entonces seguramente se requerirán métodos de regresión no lineales, los que veremos más adelante. b) Que las X son fijas o no estocásticas: El cumplimiento de este supuesto es de importancia extrema en el análisis de regresión, por cuanto de no cumplirse, y exista relación entre las series X y los errores, se tendrán estimadores sesgados de los verdaderos coeficientes, lo que es extremadamente grave. Sin embargo en muchos casos es posible que los X no sean fijos (es decir sean estocásticos) y aún estén no correlacionados con los errores. Este aspecto lo veremos más adelante en el tópico regresores estocásticos (variables instrumentales). c) Que X contiene el conjunto correcto de variables explicatorias: En efecto, se supone que el modelo está bien especificado, es decir no faltan ni sobran variables explicativas. En general es más grave omitir variables que incluir variables en exceso, puesto que si la variable omitida está correlacionada con la variable presente en el modelo, la variable omitida estará reflejada en el error (ε), de modo que existirá correlación entre el error y la variable presente, implicando sesgo. Esto no ocurrirá en el caso de sobreespecificación, aunque los coeficientes serán en general ineficientes respecto de aquellos estimados bajo una correcta especificación. d) Que Y es medido sin error: Puesto que en general Y es la variable estocástica del modelo de regresión (además del error, ε), se espera que éste sea una realización insesgada de un correcto procedimiento de muestreo, cuestión que debe ser considerada por el analista. No mencionamos preocupación respecto a las series X, pues se suponen fijas, o controladas por el investigador. e) Que ε es bien comportado: En efecto, suponemos que éstos están libres de autocorrelación y heterocedasticidad, lo que asegura estimadores MELI, o MEI en el caso del modelo bajo el supuesto de normalidad. Este supuesto es levantado más adelante. f) Que los parámetros β son fijos (estables): Cuando estimamos un modelo de regresión para un determinado periodo, implícitamente se asumen que los verdaderos parámetros son constantes para todo el periodo, es decir, si se subdivide el periodo total en 2 subperiodos y se efectúa nuevamente la estimación en cada subperiodo, esperamos que los coeficientes de pendientes de ambas regresiones sean básicamente los mismos, lo que en la práctica puede no ser verdadero. Las pruebas para la estabilidad de los parámetros es mostrada en el siguiente capítulo.

52

CAPITULO 3 MINIMOS CUADRADOS RESTRINGIDOS

3.1. MCO CON ERRORES NORMALES
Recordemos que en el capítulo anterior señalamos que las condiciones ideales para la implementación de los estimadores MCO incluyen: las perturbaciones son esféricas, es decir, errores independientes e idénticamente distribuidos con media 0 y varianza σ2, de modo que E[εε'] = σ2I, lo que implica homocedasticidad y ausencia de autocorrelación serial, los regresores son fijos (las variables X son no estocásticas), los errores tienen una distribución desconocida. Cumpliéndose estas condiciones, puede mostrarse por el teorema de Gauss-Markov que el estimador de MCO, b, es MELI (es decir, el mejor estimador insesgado de entre la clase de los estimadores lineales de β), y que tenía una distribución no precisada (hasta ahora) con una media y varianza que incluía, entre sus componentes, el comportamiento de los errores (ε). Para efectos de implementar procedimientos de inferencia estadística acerca de los coeficientes es necesario conocer la distribución de éstos. El caso más simple es asumir que los errores se comportan de acuerdo a una distribución normal. En este caso los coeficientes b se distribuirán también normalmente, puesto que éstos son una combinación lineal de un error distribuido normalmente (puesto que las variables X están fijas). Es decir:

b ≈ Normal β + ( X ' X ) −1 X ' E (ε ) , ( X ' X ) −1 X ' E (εε ' ) X ( X ' X ) −1

[

]

Si en adición, los errores están bien comportados, los coeficientes b se distribuyen normalmente:

b ≈ Normal β , σ 2 ( X ' X ) −1

[

]

Así, bajo este resultado es posible implementar un número de pruebas de inferencia estadística, incluyendo pruebas F, y además se justifica la aplicación del método de máxima verosimilitud, aunque en este caso si bien b es insesgado, s2 no lo es en pequeñas muestras. Como resultado adicional puede mostrarse19 que al incorporar el supuesto de errores normales el estimador b es el óptimo (suficiente), es decir el mejor estimador insesgado (MEI) incluyendo la clase de los estimadores no lineales, de modo que no existe un mejor estimador posible que el de MCO. Este es un resultado más poderoso que el obtenido bajo ausencia de normalidad (estimadores MELI). Respecto a s2, en este caso también es óptimo.

19

Véase sección 6.1.3e en Judge et al.

53

3.2. DISTRIBUCIONES DE PROBABILIDAD
En econometría, para efectos de inferencia acerca de los coeficientes estimados, es necesario trabajar con un número de distribuciones de probabilidad. A continuación recordamos las más importantes: la distribución Normal, Chi-cuadrado, t y F. La siguiente es la función de densidad normal para una variable aleatoria X con una distribución normal con media μ y varianzas σ2:

f (x / μ,σ 2 ) =

1 ⎧ 1 SCErrt ⎫ EXP ⎨− ⎬ 2 σ 2π ⎭ ⎩ 2 σ

donde SCErr representa la suma cuadrada de errores, es decir de desviaciones respecto a la media. Cuando se tienen n variables aleatorias normales Z distribuidas independiente e idénticamente, entonces la distribución conjunta multivariada con media μ y matriz de covarianza20 ∑ es:

g ( x ) = 2π − n / 2 Σ

1/ 2

⎧ 1 ⎫ EXP ⎨− ( x − μ )' Σ −1 ( x − μ )⎬ ⎩ 2 ⎭

Si Z es una variable aleatoria normal estándar (

Z ≈ N (0,1) ), entonces puede mostrarse que:

1)

t (r ) =

Z

χ 2 (r )
r

Es decir, una variable aleatoria normal estándar dividida por la raíz cuadrada de una variable aleatoria chi cuadrada con r grados de libertad dividida por r, se distribuye como una t con r grados de libertad (gl).

χ 2 (r1)
2)

F (r1, r 2) =

r1 χ ( r 2)
2

r2
Es decir, una variable F con r1 gl en el numerador y r2 gl en el denominador corresponde a una chi-cuadrada con r1 gl dividida por r1, dividida por otra chi-cuadrada con r2 gl dividida por r2. 3)

Z2 ≈

χ

2

(1)

Es decir, una variable aleatoria normal estándar al cuadrado se distribuye chi-cuadrado con 1 grado de libertad. 4)

Z 12 + Z 22 + ... + Z n2 ≈

χ

2

( n)

20

No confundir el símbolo de la matriz de covarianza ∑, con el operador de sumatorias.

54

Es decir, la suma de n variables aleatorias normales estándar al cuadrado se distribuye chicuadrado con n grados de libertad. Este resultado puede generalizarse cuando se trata de variables normales no estandarizadas

X ≈ N ( μ , Σ) :

( X − μ )' Σ −1 ( X − μ ) ≈ χ 2 ( n)

3.3. POTENCIA DE UN TEST Y SIGNIFICANCIA
Hay dos formas en que un test nos puede llevar a cometer un error: Error del tipo I: Rechazar Ho cuando es verdadera, y Error del tipo II: No rechazar Ho cuando es Falsa.

El punto es que en la práctica no es posible hacer ambos errores arbitrariamente pequeños, pues reduciendo la probabilidad de cometer un error aumenta la probabilidad de cometer el otro error. Sin embargo es más grave el Error del tipo I que el Error del tipo II: es peor condenar a una persona inocente que dejar libre a un culpable, y por este motivo se trata que la magnitud del error del tipo I sea fijado usualmente a un valor pequeño, es decir queda bajo control del analista: Error tipo I : Rechazar Ho cuando es verdadera (gravísimo) Error tipo II: No rechazar Ho cuando es Falsa (grave) P(Error tipo I) = α = Tamaño del test (size) o nivel de significancia. P(Error tipo II) = β

La forma de medir la calidad de un test estadístico es a través de su potencia. La Potencia (power) de un test es la probabilidad de que correctamente rechacemos Ho cuando es falsa (la probabilidad de detectar que Ho es falsa).

Potencia = 1 − β = 1 − P( Error tipo II )
Un test “perfecto” tendrá una potencia de 1.0, pues siempre llevará a una decisión correcta. Esto puede lograrse, para un nivel dado de significancia, cuando el tamaño de la muestra aumenta (a infinito). Así, la evaluación de un buen test debe hacerse en base a su función de potencia. En general el procedimiento óptimo es seleccionar con anticipación el tamaño máximo del error del tipo I que podemos aceptar, y después se intenta construir una prueba que minimice el tamaño del error del tipo II. Cuando Ho es falsa, la potencia puede ser calculada asumiendo varios valores críticos para el parámetro desconocido.

3.3.1. APLICACIÓN: SELECCIÓN ENTRE TESTS ALTERNATIVOS
En el siguiente ejemplo σ=1.4 (desviación estándar), T=25 (número de observaciones); y se desea probar la hipótesis Ho:μ=10 versus H1:μ>10. Asumiendo que se desea un tamaño de error (α) de hasta 0.06, escogeremos entre 3 distintas regiones críticas a una cola, sabiendo que las medias muestrales son: Prueba A: 10.65, Prueba B: 10.45 y Prueba C: 10.25. Para las diferentes medias muestrales verificamos el cumplimiento del tamaño del test requerido: P(Error Tipo I)=α=Tamaño del test A P[z> (10.65-10)/0.2821]=P[z>2.32]=0.0102 B P[z> (10.45-10)/0.28]=P[z>1.61]=0.0537
21

Recuerde que el eror estándar para la media en este caso seá 1.4/(25)**0.5=0.28

55

C

P[z> (10.25-10)/0.28]=P[z>0.89]=0.1867 (no cumple)

Repitiendo para diferentes valores supuestos de μ calculamos la potencia del test: μ=10.4 μ=10.2 μ=11.0 P(Error Tipo II) con μ=10.4 Potencia Potencia Potencia A P[z> (10.65-10.4)/0.28]=P[z≤0.89]=0.8133 0.05 0.89 0.19 0.43 0.98 B P[z> (10.45-10.4)/0.28]=P[z≤0.18]=0.5714 0.19 Luego: Al aumentar el tamaño del error del tipo I de 0.0102 a 0.0537, el error del tipo II disminuye de 0.8133 a 0.5714, y viceversa (no es posible eliminar ambos errores). Puesto que puede tolerarse un error del tipo I de 0.06, entonces la prueba B es mejor que la A, debido a que su potencia es mayor para distintos valores de μ. El análisis de potencia permite determinar el tamaño muestral apropiado para cumplir ciertos niveles predefinidos de α y β.

3.3.2. EL NIVEL DE SIGNIFICANCIA MARGINAL: CDF O P-VALUE
Hemos dicho anteriormente que la magnitud del error del tipo I queda bajo el control del analista, quien lo fija en un valor relativamente pequeño, usualmente 5%. Así, la probabilidad de cometer un error del tipo I es justamente el Nivel de Significancia Marginal (NSM), lo que es reportado es RATS con la instrucción CDF. Decimos que un resultado es estadísticamente significativo cuando el NSM es menor que el nivel deseado (generalmente 5%), es decir se tiene suficiente evidencia para rechazar Ho. Si es mayor, entonces es estadísticamente no significativo (no podemos rechazar Ho). Es decir, bajos niveles de P llevan a rechazar Ho. La instrucción CDF calcula el nivel de significancia marginal de un estadístico para cualquiera de las siguientes distribuciones de probabilidad: NORMAL, F, T ó CHI-2, dados los grados de libertad apropiados, es decir, permite evaluar un test. La estructura de la instrucción es la siguiente: CDF distribución estadístico gl_1 gl_2

donde los parámetros son: Distribución: que corresponde a FTEST (para el test F), TTEST (para el test t), CHISQ (para el test chi cuadrado), o NORMAL (para el test sobre la distrbución normal). Estadístico: es el valor calculado del test (un número real) gl_1 son los grados de libertad para los test TTEST y CHISQ, o el número de grados de libertad en el numerador de un FTEST. Finalmente gl_2 se usa para indicar el número de grados de libertad en el denominador de un FTEST. CDF NORMAL 1.5 Normal Statistic = 1.500000 with Significance Level 0.13361440

Ejemplo:

;* indica que es posible rechazar la hipótesis nula si admitimos un error total de 13.36%, es decir 6.681% en cada cola de la distribución.

CDF TTEST 1.724 20 t(20)= 1.724000 with Significance Level 0.10013205

;* indica que es posible rechazar la hipótesis nula si admitimos un error total de 10.0%, es decir 5% en cada cola de la distribución t.

56

CDF CHISQ 24.98 15 Chi-Squared(15)= 24.980000 with Significance Level 0.05021268

;* indica que es posible rechazar la hipótesis nula si admitimos un error total de 5%. Note que el análisis aquí es solamente a 1 cola, la derecha. CDF FTEST 3.1 2 18 F(2,18)= 3.10000 with Significance Level 0.06968098

;* indica que al si admitimos un error de hasta un 5% no es posible rechazar la hipótesis nula. Aquí también trabajamos solamente a 1 cola, la derecha. DIS %CDF(1.5) 0.93319 ;* muestra que la probabilidad acumulada hasta 1.5 en una distribución normal estándar es 0.93319, es decir a la derecha de 1.5 se encuentra una probabilidad de 1-0.93319=0.06681.

3.4. PRUEBAS SOBRE UN COEFICIENTE
Cuando los errores están bien comportados la prueba de hipótesis para un coeficiente b en un modelo de regresión lineal involucra la prueba t, es decir:

t=

b−β

σ 2 ( X ' X ) −1

≈ t (T − K )

donde Ho: la restricción es verdadera. Nótese que el denominador corresponde a la desviación estándar (error estándar) del coeficiente sobre el cual se está haciendo la prueba. La hipótesis será rechazada cuando t calculado sea mayor, en valor absoluto, que el t de tabla. En este caso, el t de tabla es t(9) al 0.05 = 2.262. Puesto que para un número de grados de libertad mayor a 30 el valor t de tabla al 5% es cercano a 2.0 ó 1.96 para T-K muy grande, en muchos por simplicidad casos se acepta 1.96 como t crítico. Veamos que para el caso en que Ho: βi=0, esta prueba es reportada automáticamente en RATS.

Ejemplo:

Para el ejemplo anterior del IMACEC, desempleo e IPC (Tabla 1 en Anexo al final del libro), la salida de RATS es: Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant -489.813301 1134.381514 -0.43179 0.67605439 2. IMACEC -2.967603 1.645773 -1.80317 0.10486361 3. IPC 16.834478 9.659915 1.74271 0.11535790

57

;* Si se desea probar las siguientes hipótesis: a) Ho: el intercepto (constante) = 0 La prueba estadística respectiva es una t: t = Abs((–489.81-0)/1134.38)=0.43179 < 2.262, y no se rechaza Ho (no hay evidencia suficiente para rechazar Ho). El resultado de esta prueba es mostrado en la salida de la regresión de RATS. La conclusión también puede obtenerse con la significancia reportada, pues esta es mayor que 0.05 (es 0.67). b) Ho: El coeficiente de IMACEC = 0 t = Abs((–2.9676-0)/1.64577)=1.80317 < 2.262, no se rechaza Ho. c) Ho: El coeficiente de IPC = 0 t = Abs((16.83-0)/9.6599)=1.74 < 2.262, no se rechaza Ho.

3.5. TRES TESTS EQUIVALENTES
Cuando se hacen pruebas que involucran a 2 o más coeficientes simultáneamente, entonces debe usarse otro tipo de pruebas. Los 3 tests que veremos son el test de razón de verosimilitud (Likelihood ratio, LR por Neyman y Pearson en 1928), el test de WALD (W, por A. Wald en 1943) y el test de los multiplicadores de Lagrange (LM, por C. Rao en 1948). Para desarrollarlos en forma simple, a continuación supongamos que se desea probar un número de hipótesis lineales referidas a los coeficientes de un modelo de regresión lineal múltiple. Puede mostrarse que en este caso los 3 tests entregarán un resultado idéntico, todos en términos de una distribución del tipo F conocida. Cuando se trabaja con modelos no lineales, o con sistemas de ecuaciones, solamente pueden obtenerse resultados asintóticos, de modo que los tres tests generalmente entregan resultados diferentes, y en estos casos la distribución general es una del tipo Chi-cuadrado. En cualquier caso se cumplirá que:

W ≥ LR ≥ LM

3.5.1. TEST DE RAZON DE VEROSIMILITUD22 (LR)
Esta prueba de hipótesis compara el valor de la función de verosimilitud del modelo no restringido con el valor de la función del modelo restringido, pues Ho puede ser vista como restringiendo el conjunto de posibles valores de los parámetros, lo que a su vez restringe el valor máximo de la función de verosimilitud. Al comparar las estimaciones restringida y sin restringir, y si las dos fueran cercanas, se apoya Ho, es decir Ho es verdadera, con lo cual λ debe ser cercano a 1, es decir:

λ=

Max L restringido Max L no restringido

donde “Max L restringido” es la función máxima verosimilitud del modelo restringido, y “Max L no restringido” es la función de máxima verosimilitud del modelo no restringido.

22

Es decir, Likelihood Ratio Test.

58

A efectos de implementación de la prueba estadística, puede mostrarse que:

LR = −2 ln λ ≈ χ 2 ( J )
donde J es el número de hipótesis o restricciones. Nótese que para implementar esta prueba se requiere estimar tanto el modelo sin restringir como el modelo restringido. Esto puede ser difícil de hacer por ejemplo en sistemas ecuaciones, a partir de lo cual surgen las alternativas del test de Wald y del Multiplicador de Lagrange.

3.5.2. LR BAJO ESPECIFICACION LINEAL-LINEAL
Cuando tanto las restricciones como el modelo de regresión son lineales (lineal-lineal), entonces la maximización de la función de verosimilitud entrega los mismos estimadores que la minimización de la suma cuadrada de errores, de modo que puede rescribirse como:

λ=

SCErr Restringidos SCErr No Restringidos

sin embargo ésta no tiene una distribución exacta conocida, aunque con una modificación leve se puede llegar a una distribución que se sabe es F:

(SCErr Restr − SCErr no Restr )
F= SCErr no Restr T −K

m ≈ F(m,T − K)

donde Rrss es la suma cuadrada de errores restringida Urss es la suma cuadrada de errores no restringida m es el numero de restricciones

Ejemplo:

Si en el ejemplo del IMACEC, desempleo e IPC queremos probar la hipótesis conjunta que:

Ho : β 1 − β 2 = 1.0
Entonces:

y

β2 = 0

;* se trata de 2 restricciones conjuntas

a) Modelo no restringido:

Yt = β 0 + β 1 X 1 + β 2 X t + ε t ,

correr este modelo y

guardar la SCErrores (no restringido) con los grados de libertad. linreg(noprint) desempleo # constant imacec ipc com scerr_nr = %RSS ;* guardando la suma cuadrada de errores com gl_nr = %ndf ;* guardando los grados de libertad

b) Modelo Restringido : Implica reescribir el modelo asumiendo que la hipótesis se cumple, es decir:

59

Y = β 0 + (1 + β 2 ) X 1 + β 2 X 2 Y = β 0 + (1 + 0) X 1 + 0 X 2 Y − X1 = β0
se debe correr este modelo y guardar la SCErrores (restringido) con sus grados de libertad. set yx2 = desempleo – ipc ;* creando la variable dependiente de la regresión restringida (Y-X1) linreg(noprint) yx2 # constant com scerr_r = %RSS ;* guardando la suma cuadrada de errores restringidos com gl_r = %ndf

;* así, de acuerdo a la expresión F anterior, tenemos que: com m = 2.0 com efe = ((SCErr_r-SCErr_nr)/m) / (SCErr_nr/gl_nr) dis efe 4.95326 cdf ftest efe m gl_nr F(2,9)= ;* calculando la significancia del test.

;* el test F

4.95326 with Significance Level 0.03542733

;* en conclusión la hipótesis puede ser rechazada con un 3.5% de error a través del LR test.

3.5.3. TEST DE WALD
Este es el test más popular, pues según el caso, puede ser el más simple de calcular. Se basa en una de las relaciones entre variables normales y la Chi cuadrado vista anteriormente, es decir:

(b − β )' Σ −1 (b − β ) ≈ χ 2 ( n)
Mientras mayor sea la diferencia entre el valor de los coeficientes estimados b y el valor de los coeficientes poblacionales hipotetizados (β), mayor será el valor calculado de la prueba, lo que incidirá en que puede ser rechazada la hipótesis de igualdad con más fuerza. Para el caso de que las restricciones (hipótesis) sean combinaciones lineales de los coeficientes (sin importar el tipo de modelo subyacente), siempre podrán escribirse como:

Rβ = r
donde R es una matriz mxk con m el número de restricciones y k el número de parámetros del modelo, β es un vector de Kx1, y r es un vector de Qx1 conteniendo los coeficientes de la derecha de las hipótesis. Ejemplo: La hipótesis Ho : β1 escribirse como:

− β 2 = 1.0

y

β2 = 0

en el ejemplo anterior puede

⎡1 − 1⎤ ⎡ β1 ⎤ ⎡1.0 ⎤ ⎢0 1 ⎥ ⎢ β ⎥ = ⎢0.0⎥ , ⎦⎣ 2 ⎦ ⎣ ⎦ ⎣

es decir

⎡1 − 1⎤ R=⎢ ⎥ ⎣0 1 ⎦

y

⎡1.0 ⎤ r=⎢ ⎥ ⎣0.0⎦

60

Así, la expresión general para restricciones lineales del test de Wald es:

(r − Rβ )' [RΣ X R'](r − Rβ ) ≈ χ 2 (n)
donde ∑X es la matriz de varianzas y covarianzas de los coeficientes que ha sido estimada. Nótese que en el caso del test de Wald solo se requiere estimar el modelo no restringido, es decir solamente conocer los coeficientes b. Este aspecto es de gran utilidad práctica por lo que la mayoría del los programas computacionales especializados automáticamente implementarán un test de Wald para el caso lineal-lineal.

3.5.4. WALD BAJO ESPECIFICACION LINEAL-LINEAL
En el caso particular que tanto el modelo como las restricciones sean lineales, puede mostrarse que el test de Wald se comporta con una distribución F del siguiente modo:

( β − b)' R ' [R( X ' X ) −1 R '] R( β − b) ≈ F (m, T − K ) mσ 2
−1

La implementación en RATS del test de WALD es sencilla con la instrucción RESTRICT, cuya estructura es la siguiente: RESTRICT restrictions residuals coeffs # lista de coeficientes (el número de los coeficientes involucrados en la hipótesis) # Ponderaciones de cada coeficiente seguidos por el valor del lado derecho de la hipótesis donde: restrictions indica el número de restricciones lineales residuals para indicar una serie en la que se almacenaran los nuevos residuos coeffs para una serie de nuevos coeficientes

Ejemplo:

Para probar la hipótesis RESTRICT 2 # 2 3 # 1.0 -1.0 1.0 # 3 # 1.0 0.0 F(2,9)=

Ho : β1 − β 2 = 1.0

y

β2 = 0

simultáneamente:

;* se trata de 2 restricciones simultáneas ;* las primera hipótesis afecta al 2º y 3º coeficientes ;* 1 vez el 2ºcoef. menos 1 vez el 3º coef. es iguala a 1.0 ;* la segunda hipótesis afecta al 3º coeficiente ; una vez el 3º coeficiente debe ser igual a cero.

4.95326 with Significance Level 0.03542733

;* el resultado del test es el mismo que bajo la razón de verosimilitud visto anteriormente, y en ambos la hipótesis es rechazada con la misma significancia.

Otras pruebas específicas de RATS a través del test de WALD son TEST, EXCLUDE y MRESTRICT, sin embargo por ahora solo nos interesa RESTRICT.

61

3.5.5. TEST DEL MULTIPLICADOR DE LAGRANGE
Este test, a diferencia de los anteriores, solamente requiere conocer la estimación del modelo restringido, por lo que es útil cuando el modelo original es relativamente complejo y la hipótesis nula es por ejemplo que todos los coeficientes son simultáneamente iguales a cero, pues el modelo restringido es sencillo de calcular. El test del multiplicador de Lagrange es útil bajo el resultado de Engle (1982) quien muestra que para un tamaño de muestra grande, entonces asintóticamente:

T ⋅ R2
donde m es el número de restricciones.

≈ χ 2 (m)

Este resultado será particularmente útil más adelante en varias pruebas de detección de heterocedasticidad y autocorrelación (véase capítulo 4).

3.5.6. EQUIVALENCIA BAJO ESPECIFICACION LINEAL-LINEAL
Para terminar, notemos que cuando se trabaja evaluando hipótesis lineales sobre el modelo lineal general, entonces puede mostrarse que los tres son idénticos, es decir:

W = LR = LM

3.6. EJERCICIOS MATRICIALES DEL TEST DE WALD
Veamos el siguiente ejemplo numérico a fin de verificar distintos cálculos del test de Wald, lo que será ilustrativo: Ejemplo: ALL 9 DATA(UNIT=INPUT,ORG=OBS) / y x2 x3 100 100 100 106 104 99 107 106 110 120 111 126 110 111 113 116 115 103 123 120 102 133 124 103 137 126 98 TABLE Series Y X2 X3 linreg y # constant x2 x3 ... Obs Mean 9 116.888888889 9 113.000000000 9 106.000000000 Std Error Minimum Maximum 12.554326390 100.000000000 137.000000000 9.013878189 100.000000000 126.000000000 9.000000000 98.000000000 126.000000000

62

Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant -49.34133898 24.06088696 -2.05069 0.08616009 2. X2 1.36423789 0.14315290 9.52994 0.00007617 3. X3 0.11388062 0.14337364 0.79429 0.45728186

3.6.1. USANDO LA PRUEBA t
En primer lugar, para probar la hipótesis simple que el segundo coeficiente es cero, del resultado anterior sabemos que t=9.52994. Verifiquemos los cálculos: com BETA = %beta ;* se guarda en BETA el vector de coeficientes de la regresión. ;* se declaran las matrices y vectores a usar ;* corresponde a la matriz R ;* corresponde a r ;* corresponde al 2º coeficiente, donde 1.0 se encuentra en el vector R1

dec com com com

rect R1 = CC = RB =

R1 CC VAR ||0,1,0|| ||0|| R1*BETA

wri RB 1.3642

COM VAR = %SEESQ*(R1*%XX*TR(R1)) WRI VAR 0.0205 dis 1.3642/0.0205**0.5 9.52799

;* calculamos la varianza del 2º coeficiente

;* calculamos el test t, que coincide con lo reportado en RATS

3.6.2. USANDO LA PRUEBA F
Si bien no es necesario usar la prueba F para una hipótesis sobre 1 coeficiente (puede hacerse con la t), la prueba F debe llevar al mismo resultado. Verifiquémoslo: wri RB 1.3642 com xx=%xx ;* guardamos en XX la matriz (X’X)-1. ; verificamos que RB contiene el 2º coeficiente

COM VAR = %SEESQ*(R1*XX*TR(R1)) ;* calculamos la varianza del 2º coeficiente WRI VAR 0.0205 com EFE = 1.3642**2/0.0205 dis EFE ;* construimos el test F

63

90.78252 RESTRICT 1 # 2 # 1.0 0.0 F(1,6)= ;* verificamos el cálculo del test con la instrucción RESTRICT

90.81967 with Significance Level 0.00007617

La conclusión es rechazar la hipótesis nula.

3.6.3. LA PRUEBA F PARA DOS O MÁS COMBINACIONES LINEALES DEL VECTOR BETA
Si se desea probar ahora 2 hipótesis lineales simultáneas, por ejemplo: Ejemplo:

Ho : β1 − β 2 = 1.0

y

β 2 = 0.0
;* corresponde a R ;* corresponde a r

dec rect R1 CC F NUMERADOR com R1 = ||0,1,-1|0,0,1|| com CC = ||1.0|0.0|| com RB = R1*BETA wri RB 1.2504 0.1139

;* calculando Rβ

COM NUMERADOR = TR(RB-CC)*INV(R1*XX*TR(R1))*(RB-CC) ;* el numerado de la prueba F WRI NUMERADOR 85.3473

com FACTOR = 1/(%SEESQ*2) DIS FACTOR 0.03869 COM F=NUMERADOR*FACTOR WRI F 3.3020

;* el denominador de la prueba F

;* test F = 85.3473*0.03869 = 3.3020

RESTRICT 2 ;* verificamos con RESTRICT # 2 3 # 1.0 -1.0 1.0 # 3 # 1.0 0.0 F(2,6)= 3.30200 with Significance Level 0.10787701

La hipótesis no es rechazada.

64

3.7. PRUEBA DE SIGNIFICANCIA GLOBAL
¿Qué ocurre si deseamos probar la hipótesis que todos los coeficientes de pendientes son cero (sin considerar el intercepto)?. Este es justamente el llamado test de significancia global, por cuanto permitirá saber si conjuntamente las variables X tienen poder explicativo en conjunto por sobre Y. Es decir:

Y = β 0 + β1 X 1 + β 2 X 2 + ε Ho : β1 = β 2 = .... = 0
Claramente se trata de una prueba F que es sencillo probar con RESTRICT, donde el número de grados de libertad en el numerador es m=número de coeficientes (sin considerar intercepto), y el número de grados de libertad en el denominador es T-K. Ejemplo: RESTRICT 2 ;* para el ejemplo del desempleo en Chile (Tabla 1 en Anexo al final del libro) # 2 # 1.0 0.0 # 3 # 1.0 0.0 F(2,9)= 3.53768 with Significance Level 0.07351364

;* no debe rechazarse Ho, de modo que sospechamos de una baja explicación del Imacec y del IPC respecto al desempleo en el periodo de estudio.

Nótese que es tal la importancia de este test, que es reportado en la salida de LINREG, junto a su significancia. En el ejemplo de Desempleo, el resultado de la regresión es: Ejemplo: linreg desempleo # constant imacec ipc Dependent Variable DESEMPLEO - Estimation by Least Squares Monthly Data From 2000:01 To 2000:12 Usable Observations 12 Degrees of Freedom 9 Centered R**2 0.440137 R Bar **2 0.315723 Uncentered R**2 0.994803 T x R**2 11.938 Mean of Dependent Variable 539.39166667 Std Error of Dependent Variable 54.53536731 Standard Error of Estimate 45.11222094 Sum of Squared Residuals 18316.012303 Regression F(2,9) 3.5377 Significance Level of F 0.07351364 Durbin-Watson Statistic 1.286739 Q(3-0) 1.724386 Significance Level of Q 0.63152582 Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant -489.813301 1134.381514 -0.43179 0.67605439 2. IMACEC -2.967603 1.645773 -1.80317 0.10486361 3. IPC 16.834478 9.659915 1.74271 0.11535790

Además, puede verificarse también que es posible construir esta prueba a través de:

65

F=

K −1 (1 − R ) T −K
2

R2

lo que es mucho más simple que la usual prueba F. Ejemplo: COM EFE = (%RSQUARED/2)/((1-%RSQUARED)/%NDF) DIS EFE 3.53768

3.8. PRUEBA DE EXCLUSION DE VARIABLES
Una prueba típica de MCR es verificar si una de las variables explicativa es estadísticamente importante en el modelo, es decir, si existe diferencia significativa entre la restricción no restringida (con todas las variables) y la regresión restringida (eliminando la variable en cuestión). Esta es una prueba F que efectuamos para el ejemplo del desempleo y la hipótesis: Ejemplo:

Ho : β 2 = 0
linreg(noprint) desempleo # constant imacec ipc compute Urss = %rss ;* los residuos no restringidos com gl = %ndf linreg(noprint) desempleo # constant imacec compute Rrss = %rss ;* los residuos restringidos compute fstat=((Rrss-Urss)/1.)/(Urss/gl) cdf ftest fstat 1 gl F(1,9)= ;* el test F

3.03706 with Significance Level 0.11535790

Usando la instrucción EXCLUDE de RATS obtenemos el mismo resultado: Ejemplo: linreg(noprint) desempleo # constant imacec ipc compute Urss = %rss EXCLUDE # ipc Null Hypothesis : The Following Coefficients Are Zero IPC F(1,9)= 3.03706 with Significance Level 0.11535790

66

3.9. CAUSALIDAD (GRANGER, 1969)
Se dice que X causa en el sentido de Granger a Y, si Y puede ser predicho mejor usando información pasada de Y y X, que usando solamente información pasada de Y. Veamos el concepto con un ejemplo23: el retorno accionario de la bolsa de valores de Brasil causa al retorno de Chile (Rbrt→Rcht), por ejemplo, si el retorno de Chile se puede predecir mejor utilizando valores pasados del retorno de Brasil (Rbrt-i) y del retorno de Chile (Rcht-j), que usando solamente valores pasados del retorno de Chile. Formalmente, se dice que Brasil (Rbrt) causa a Chile (Rcht), si existe una diferencia significativa entre las ecuaciones (1) y (2), notando que en esta última ecuación el término rezagado del retorno de Brasil no está presente:

Rcht = δ 0 + ∑α i Rbrt − i + ∑ β j Rcht − j + μ1t
i =1 j =1

n

n

(1)

Rcht = δ 0 + ∑ β j Rcht − j + μ1t
j =1

n

(2)

Aquí δ0, αi, βj, son los coeficientes de la regresión, y μ1t son las perturbaciones que se suponen bien comportadas. La ecuación (1) constituye la regresión no restringida, a partir de la cual puede obtenerse la suma cuadrada de errores no restringidos (SRCnr), y la ecuación (2) es la regresión restringida (es decir αi = 0), de la cual se obtiene la suma de los residuos al cuadrado restringidos (SRCR). Para verificar la significancia que tiene el retorno de Brasil en la regresión usamos la prueba F comparando la suma de los residuos al cuadrado restringidos y no restringidos de las regresiones (1) y (2), es decir una prueba de mínimos cuadrados restringidos para la exclusión de variables (ecuación 3):

F=

( SRC R − SRC NR ) / m ( SRC NR /( n − k ))

(3)

donde, m es igual al número de términos rezagados de Rbr (el número de restricciones lineales), k es el número de parámetros estimados en la regresión no restringida, n el número de observaciones, y F sigue una distribución con m y (n–k) grados de libertad. La hipótesis nula es que los términos rezagados de Rbr no pertenecen a la regresión (H0: Σαi=0). Si el valor F calculado no excede al valor F crítico, no existirán argumentos para rechazar la hipótesis nula (Ho: no existe causalidad), con lo cual los términos rezagados del retorno de Brasil no ayudan a explicar al retorno de Chile.

Ejemplo: Un test

de causalidad de r2 hacia r1 es el siguiente:

ALL 13 DATA(UNIT=INPUT,ORG=OBS) / p1 p2 p3 100 100 100 106 104 99 107 106 110 120 111 126 110 111 113 116 115 103 123 120 102 133 124 103 137 126 98
23

Véase a Aedo y Zúñiga (2001) “Análisis de Causalidad entre Bolsas Latinoamericanas”, Documento de Trabajo, Escuela de Ingeniería Comercial, U.C.N.

67

100 106 107 120

100 104 106 111

100 99 110 126

set r1 = log(p1/p1{1}) set r2 = log(p2/p2{1}) set r3 = log(p3/p3{1}) linreg(noprint) r1 # constant r1{1 to 2} r2{1 to 2} exclude # r2{1 to 2} Null Hypothesis : The Following Coefficients Are Zero R2 Lag(s) 1 to 2 F(2,5)= 0.96928 with Significance Level 0.44081152 ;* y Exclude no puede rechazar Ho.

com rssf = %RSS linreg(noprint) r1 # constant r1{1 to 2} com rssr = %RSS com F = ((rssr-rssf)/2.)/(rssf/(%NOBS-2.*2.-1.)) dis f 0.96928 cdf ftest f 2 %NOBS-2*2-1 F(2,5)= 0.96928 with Significance Level 0.44081152

;* el test F llega al mismo resultado.

68

3.10. TEST DE ESTABILIDAD (CAMBIO ESTRUCTURAL)
Al estimar una regresión se asume que los coeficientes son estables a través del tiempo, sin embargo esto puede ser falso. La prueba para cambio estructural es una F implementada por Chow (1960), tal como veremos. Si el periodo total, que contiene T observaciones, puede ser descompuesto en 2 conjuntos independientes de datos con tamaños T1 y T2 (que no tienen por qué sumar T), la ecuación de regresión es: Para el 1º grupo: Para el 2º grupo:

y = β 0 + β 11 x1 + β 12 x 2 + ... + β 1k x k + e y = β 1 + β 21 x1 + β 22 x 2 + ... + β 2 k x k + e

Una prueba de estabilidad de los parámetros entre las poblaciones es la siguiente hipótesis simultánea:

Ho : β 0 = β1 ; β11 = β 21 ; β12 = β 22 ;...; β1k = β 2 k
Para esto usamos el test de razón de verosimilitud:

(inexistencia de cambio estructural)

(SCErr Restr − SCErr no Restr )
F=
haciendo :

SCErr no Restr

m ≈ F(m,T − K)

T −K

SCErr Restr : calculando el modelo para el periodo total SCErr No Restr : calculando por separado el modelo en cada uno de las submuestras y luego sumándolas. m : el número de restricciones, es decir el número de parámetros (incluyendo el intercepto) T-k : los grados de libertad del denominador son la suma de los grados de libertad de cada una de las regresiones de las submuestras. Nótese que puesto que se estimarán 2 regresiones se requiere una cantidad suficiente de observaciones en cada submuestra.

Ejemplo:

Se tiene la siguiente información sobre ahorro e ingreso del Reino Unido 19461963 (millones de libras), y se desea determinar si existe un cambio estructural del periodo 1946-1954 versus 1955-1963. all 18 cal 1946 1 1 data(unit=input, org=obs) / ahorro ingreso ... Ver datos en Tabla 3 del Anexo al final del libro table Series AHORRO INGRESO Obs Mean 18 0.7733333333 18 15.7444444444 Std Error 0.6428063472 5.2277789933 Minimum Maximum 0.0800000000 1.9900000000 8.8000000000 25.2000000000

linreg(NOPRINT) ahorro # constant ingreso compute rss_pool = %rss

69

linreg(NOPRINT) ahorro * 9 # constant ingreso compute rss_antes = %rss, ndf_antes = %ndf linreg(NOPRINT) ahorro 10 * # constant ingreso compute rss_despues = %rss, ndf_despues = %ndf compute rss_unr=rss_antes+rss_despues compute ndf_unr=ndf_antes+ndf_despues compute fstat=((rss_pool-rss_unr)/2)/(rss_unr/ndf_unr)

F=

[0,5722 − (0,1396 + 0,1931)]/ 2 = 5,03707 (0,1396 + 0,1931) / (18 − 4)

cdf ftest fstat 2 ndf_unr F(2,14)= 5.03706 with Significance Level 0.02249279

;* puesto que el nivel de significancia es menor a 5%, rechazamos la hipótesis nula a favor de la existencia de cambio estructural.

70

3.11. ESTIMANDO REGRESIONES RESTRINGIDAS
En muchas ocasiones se requiere efectuar estimaciones de modelos en que deben imponerse restricciones sobre los coeficientes.

Ejemplo:

linreg(noprint) desempleo # constant imacec ipc restrict(create) 2 # 2 # 1 0.0 # 3 # 1 0.0 F(2,9)= ....

;* primero estimar el modelo no restringido.

;* obliga a que los coeficientes 2 y 3 sea 0.0

3.53768 with Significance Level 0.07351364

(omitimos parte de los resultados)

Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant 539.3917 15.7430 34.26231 0.00000000 2. IMACEC 0.0000 2.3961e-009 0.00000 1.00000000 3. IPC -3.5527e-015 0.0000 0.00000 0.00000000 ;* con esto verificamos que se ha obligado a que los coeficientes de Imacec e Ipc sean cero.

El ejemplo típico de estimaciones restringidas ocurre en la estimación de funciones de costo translogaritmicas, la que se puede transcribir de la siguiente manera:

ln C =

αo +


i =1

m

αi ln Qi +


j =1

n

βjln Wj +

1 m m ∑ ∑ γik ln Qi ln Qk + 2 i =1 k =1

1 n n ∑ ∑ λjs lnWj ln Ws + 2 j =1 s =1
donde: α0 = intercepto C = costos totales de las instituciones bancarias Qi = productos que entregan los bancos Wj = insumos para producir los productos

∑∑
i =1 j =1

m

n

θij ln Qi ln Wj

La función de costos tiene que ser linealmente homogénea y cóncava en Wj, y creciente en Qi y Wj, por lo tanto, esta ecuación debe estar sujeta a las siguientes restricciones:


j =1

n

βj = 1 ;


j =1

n

λjs = 0 ;


j =1

n

θij = 0 ; γik = γki ; λjs = λsj

las que pueden ser implementadas simultáneamente a través de RESTRICT(create). Más adelante, en el capítulo 7 veremos que cuando se trabaje con sistemas de ecuaciones (SUR estimations) debe usarse RESTRICT(REPLACE).

71

ANEXO AL CAPITULO 3
PARSIMONIA
En muchas ocasiones se quiere determinar si un modelo contiene el número apropiado de variables explicativas o rezagos. Para esto existen los criterios de AKAIKE (AIC, 1973) y el criterio bayesiano de SCHWARTZ (BIC, 1978), los que para el caso uniecuacional son como sigue:

AIC = T log( SCErr ) + 2 K BIC = T log( SCErr ) + K (log T )
donde K es el número de regresores y T el número de observaciones. La idea es escoger el número de regresores tal que el criterio entregue un menor valor de ambos criterios. Es posible que ambos criterios entreguen resultados opuestos. Ejemplo: boxjenk(noprint,ar=1,ma=1) y 3 100 Compute AIC = %nobs*log(%rss) + 2*%nreg Compute SBC = %nobs*log(%rss) + %nreg*log(%nobs) Display 'aic = ' AIC ' sbc = ' SBC

RESTRICCIONES NO LINEALES SOBRE LOS COEFICIENTES
Aquí existen básicamente dos caminos. Uno, usar el test de Wald como en Judge et al. (1988), ecuación (12.3.59), lo que implica usar una Chi cuadrado. El otro camino es el de linealizar la restricción usando la expansión de Taylor alrededor de los coeficientes estimados, lo que a continuación efectuamos a través de un ejemplo. Ejemplo: Asumamos la siguiente restricción: c(2)*c(3)=0.5 La expansión de Taylor es: C(2)*C(3) ≈ C(2)Hat*C(3)Hat+||C(3)Hat,C(2)Hat||*||C(2)-C(2)Hat|C(3)-C(3)hat|| donde C(2) y C(3) son los verdaderos valores, y el término "Hat" son para los parámetros estimados. Multiplicando y simplificando: C(2)*C(3) ≈ C(3)Hat*C(2) + C(2)Hat*C(3) - C(2)Hat*C(3)Hat C(3)Hat*C(2) + C(2)Hat*C(3) ≈ X + C(2)Hat*C(3)Hat restrict 1 # 2 3 # 0.11388 1.3642 F(1,6) = 2.99759

(0.11388*1.3642+0.5)

72

SESGO, CURTOSIS Y NORMALIDAD
La curtosis caracteriza la elevación o el achatamiento relativos de una distribución, comparada con la distribución normal. Una curtosis positiva indica una distribución relativamente elevada, mientras que una curtosis negativa indica una distribución relativamente plana.

En Excel: =curtosis( ) La prueba estadística de que la curtosis es cero se basa en una Normal, y es:

Nota: La curtosis para una v.a. normal (0,1) tiene un valor esperado de 3. RATS calcula el exceso de curtosis, es decir el grado en que el cuarto momento alrededor de su media difiere de 3. El Sesgo caracteriza el grado de asimetría de una distribución con respecto a su media. La asimetría o sesgo positivo indica una distribución unilateral que se extiende hacia valores más positivos. La asimetría negativa indica una distribución unilateral que se extiende hacia valores más negativos.

En Excel: =coeficiente.asimetria( ) La prueba estadística de que el sesgo es cero se basa en una Normal, y es:

Nota: En ambos casos, sesgo y curtosis, la hipótesis nula es que estas son cero.

73

NORMALIDAD
Existen 4 formas comunes de estimar la normalidad: 1.2.3.4.Histograma de residuos Normal Probability Plot Anderson-Darling normality test (A2 stat) Jarque-Bera (JB) test of Normality (asintótico)

Por ahora estamos interesados en la prueba de Jarque Bera, la que tiene la siguiente specificación:

⎡S2 K2 ⎤ ⎥ ≈a JB = T ⎢ + 6 24 ⎥ ⎢ ⎣ ⎦

χ 2 ( 2)

donde S es el coeficiente de Sesgo y K es el coeficiente de curtosis. Para una variable distribuída normalmente, S=0 y K=3. Luego, el test JB de normalidad es una prueba conjunta de si S=0 y K=3. Si el valor p es suficientemente bajo, se puede rechazar la hipótesis que la variable está normalmente distribuída. Ejemplo: Chi-Squared(2)= 1.061172 with Significance Level 0.58826017, donde Ho: Normalidad. Luego, no podemos rechazar en este caso la hipótesis de normalidad (la conclusión es no rechazar normalidad).

NORMALIDAD: TEST DE BERA-JARQUE
Esta prueba es muy útil cuando se desea probar la normalidad de una serie. En particular, para probar la normalidad de los residuos de una regresión. Veamos su cálculo a través del siguiente ejemplo:

Ejemplo:

linreg y / resid # constant x2 x3

;* una regresión lineal guardando los residuos en resid

STATISTICS(noprint) resid ;* se calculan las estadísticas de la serie resid COMPUTE BJ = %NOBS*((%SKEWNESS**2)/6.0+(%KURTOSIS)**2/24.0) ;* calculamos el estadístico de Bera-Jarque y lo guardamos en la variable BJ CDF CHISQR BJ 2 ;* puesto que se distribuye Chi cuadrado con 2 grados de libertad, CDF entrega la significancia del test.

Chi-Squared(2)= 1.061172 with Significance Level 0.58826017 donde Ho: Normalidad. Luego, no podemos rechazar en este caso la hipótesis de normalidad (la conclusión es no rechazar normalidad).

74

Ejemplo: Siguiendo el ejemplo de la serie CAPITAL anterior mostramos el cálculo de éstas. Los resultados a obtener son los siguientes:
Observaciones Media Muestral Desv estandar Varianza Error est de la media Estadistico t Sesgo Curtosis Jarque Bera 10 5,6 2,319003617 5,377777778 0,733333333 7,636363636 Pruebas de Hipotesis Significancia a 1 cola -0,058802684 -0,064415113 0,948639697 -1,11811742 -0,488540664 0,62516693 0,526673995 0,526673995 0,768482877

Las fórmulas usadas en cada caso se muestran a continuación:

75

1.3. GRAFICOS DE PROBABILIDAD NORMAL
Los gráficos de probabilidad normal (normal probability plot) son una técnica gráfica para valorar si los datos son o no aproximadamente normalmente distribuñidos. Los datos son graficados contra una distrinución normal teórica de tal forma que los puntos deben formar aproximadamente una línea recta. Las desviaciones de la línea recta indican desviaciones de la normalidad. El gráfico de probabilidad normal es un caso especial de los gráficos de probabilidad. Existen varios tipos de gráficos de probabilidad normal24. Aquí nos referimos solamente al tipo más simple de ellos: Percentiles vs Datos.

Los pasos para construir un gráfico de probabilidad normal son: 1. Las observaciones son rankeadas (ordenadas) de la menor a la mayor, x(1), x(2), . . ., x(n). 2. Las observaciones ordenadas x(j) son graficadas contra su frecuencia acumulativa observada, tipicamente; j/(n + 1)) sobre un gráfico con el eje Y apropiadamente escalado para la distribución hipotetizada. 3. Si la distribución hipotetizada describe adecuadamente los datos, los puntos graficados se ubican aproximadamente sobre una línea recta. Si los puntos se desvían significativamente de la lñinearecta, especialmente en las puntas, entonces la distribución hipotetizada no es apropiada.

24

Vease por ejemplo www.itl.nist.gov/div898/handbook/eda/section3/probplot.htm.

76

4. Para valorar la cercanía de los ountos a la línea recta, la prueba del grosor de un lápiz se usa comunmente. Si todos los puntos se encuentran dentro del lapis imaginario, entonces la distribución hipotetizada es probablemente la apropiada.

Ejemplo: Los siguientes datos representan el grosor de una hoja plástica, en micrones: 43, 52, 55, 47, 47, 49, 53, 56, 48, 48
Ordered data Rank order Cumulative Frequency (j) ( j/(n + 1)) 43 1 1/11 = .0909 47 2 2/11 = .1818 47 3 3/11 = .2727 48 4 4/11 = .3636 48 5 5/11 = .4545 49 6 6/11 = .5454 52 7 7/11 = .6363 53 8 8/11 = .7272 55 9 9/11 = .8181 56 10 10/11 = .9090

Los datos ordenados son graficados contra su respectiva frecuencia acumulada. Note como el eje Y es escalado tal que una línea recta resultará para datos normales.

Basados en el gráfico, parece que los datos se encuentran normalmente distribuídos. Sin embargo se requieren otras pruebas estadísticas para concluir que el supuesto de normlidad es apropiado.

77

En Excel puede obtenerse este gráfico en Herramientas / Analisis de Datos / Regresion / y allí seleccionando la opcion Grafico de probabilidad normal. Para el caso de la serie 'Capital' del ejemplo que se ha estado analizando, se tiene el siguiente resutado a partir de Excel.

78

1.4. HISTOGRAMA
Un histograma es un gráfico para la distribución de una variable cuantitativa continua que representa frecuencias mediante el volumen de las áreas. Un histograma consiste en un conjunto de rectángulos con (a): bases en el eje horizontal, centros en las marcas de clase y longitudes iguales a los tamaños de los intervalos de clase y (b): áreas proporcionales a las frecuencias de clase. Si en la distribución se toman clases de la misma longitud, las frecuencias son proporcionales a las alturas de los rectángulos del histograma ya que el área se obtiene multiplicando la base por la altura por lo que queda similar a un diagrama de barras, solo que ahora las barras van una junto a otra por tratarse de una variable continua. En Excel, la herramienta para histogramas se encuentra en Herramientas / Análisis de Datos / Histograma. Antes de ejecutarla se puede (es opcional) definir el 'Rango de Clases', a fin de definir las divisiones para cada rango del histograma. El 'Rango de Clases' son valores límite que definen rangos de clase, los que deberán estar en orden ascendente. Si se omite el rango de clase, Excel creará un conjunto de clases distribuidas uniformemente entre los valores mínimo y máximo de los datos. Ejemplo: En el ejemplo de la serie 'Capital' un histograma es obtenido de la siguiente forma:

Histograma
3,5 120,00%

3

100,00%

2,5 80,00%

Frecuencia

2 60,00% 1,5 Frecuencia % acumulado

40,00% 1

0,5

20,00%

0 2 4,333333333 Clase 6,666666667 y mayor...

0,00%

79

80

CAPITULO 4 VIOLACION DE ALGUNOS DE LOS SUPUESTOS

Ahora nos concentraremos en el caso en que los errores están mal comportados, es decir, cuando la matriz de covarianzas de los errores V=E[εε'] ya no es escalar Identidad, sino que E[εε']=σ2ψ, con ψ una matriz definida positiva, de modo que pueden ocurrir dos casos simples: - V diagonal, pero con elementos distintos (heterocedasticidad). - V no diagonal (autocorrelación). Anteriormente mostramos que en cualquiera de estas condiciones el estimador b de MCO es insesgado25, y que para calcular la matriz de varianzas de los coeficientes a través de MCO ya no puede hacerse la siguiente simplificación:

E [(b − β )(b − β )'] = ( X ' X ) −1 X ' E (εε ' ) X ( X ' X ) −1
= ( X ' X ) −1 X '⋅σ 2 I ⋅ X ( X ' X ) −1 = σ 2 ( X ' X ) −1
sino que tendremos:

E [(b − β )(b − β )' X ] = σ 2 ( X ' X ) −1 X '⋅ Ψ ⋅ X ( X ' X ) −1
de tal modo que si se usa erróneamente σ2(X'X)-1 se sobrestimará o subestimará la verdadera matriz de varianzas. Aún así, MCO es útil en la mayoría de las situaciones, y aun cuando se violen algunos de éstos supuestos, la estimación de los parámetros por este método sigue siendo consistente aunque ya no eficiente, es decir no con el menor error.

4.1. MÍNIMOS CUADRADOS GENERALIZADOS
En este capítulo mostraremos que si se usa el procedimiento de Mínimos Cuadrados Generalizados (MCG)26 se tendrán estimadores que superan el problema de errores mal comportados, los que como sabemos, tienen la propiedad de ser MEI.

25 Suponiendo que se mantiene la independencia de los regresores con el término de error, pues si esto no ocurriera, a través de MCO se generan estimadores inconsistentes. Este problema será dejado para un análisis posterior. 26 Puesto que es asumido que la forma de la matriz de covarianza de las perturbaciones es conocida, entonces el procedimiento de solución consiste en aplicar MCGeneralizados.

81

El procedimiento de Mínimos Cuadrados Generalizados consistente en transformar la ecuación de regresión con errores mal comportados (E[εε']=σ2ψ, conocida) multiplicándola por una determinada matriz P (TxT) a fin de obtener errores con media cero y matriz de covarianzas escalar identidad (errores bien comportados). En este caso el estimador de los coeficientes de regresión es:

b = ( X 'ψ −1 X ) −1 X 'ψ −1Y
con

E [(b − β )(b − β )' X ] = σ 2 ( X '⋅ ψ −1 ⋅ X ) −1

de modo que b de MCG es MELI para el caso de E[εε'] no esférica (es decir mal comportada) pero conocida. En caso de usar MCO bajo E[εε'] no esférica, la verdadera matriz de varianzas y covarianzas, cuando conocemos la naturaleza de E[εε'] debería ser la siguiente:

E[(b − β )(b − β )'] = σ 2 ( X ' X ) −1 X '⋅ψ ⋅ X ( X ' X ) −1
Sin embargo, usar MCO entregará erróneamente la siguiente matriz:

E[(b − β )(b − β )'] = σ 2 ( X ' X ) −1
que es menor a la anterior, de modo que la existencia de heterocedasticidad / autocorrelación lleva siempre a una sobreestimación de los valores t (es decir errores menores a los verdaderos). Entonces se genera un estimador sesgado de la matriz de covarianzas de los coeficientes. Además se tienen sólo resultados asintóticos27.

4.2. HETEROCEDASTICIDAD
La heterocedasticidad o varianzas de los errores no constantes no suele presentarse en series de tiempo, sino que en datos de corte transversal. En el modelo lineal general, hemos dicho que la heterocedasticidad ocurre cuando los elementos de la diagonal de la matriz ψ no son todos idénticos:

y = Xβ + e E ( e) = 0 E (ee' ) = σ Ψ = Φ
2

(1)

donde ϕ es una matriz cuadrada semidefinida positiva distinta a σ2I. En la práctica esto puede ocurrir, por ejemplo, debido a que ingresos familiares menores tienden a gastar a un ritmo más constante (en primera necesidad), mientras que las rentas más altas tienden a gastar más erráticamente. Ejemplo: Supongamos que tenemos información de consumo e ingreso de 20 familias como sigue; all 20 data(unit=input,org=obs) / familia consumo ingreso ... Ver datos en Tabla 4 del Anexo al final del libro
27

Puesto que el estadístico t ya no es una variable normal dividido por su desviación estándar aproximada (el estimador b de MCO es ineficiente), y además el test F tampoco será válido (véase Judge 342).

82

order(all) ingreso

;* ordenamos las series en base al ingreso ;* graficamos

scatt(hlabel='ingreso', vlabel='consumo') 1 # ingreso consumo

45

40

35

30

consumo

25

20

15

10

5 6 12 18 24 30 36 42 48

ingreso

;* notamos que efectivamente en mayores rentas existe una mayor volatilidad, es decir evidencia de heterocedasticidad. Lamentablemente cuando se trata de modelos múltiples este tipo de gráfico no tendrá sentido, aunque un gráfico de los residuos de la regresión respecto a la serie Y entregará alguna evidencia: linreg consumo / errores # constant ingreso ;* guardamos los errores

scatt(hlabel='consumo', vlabel='errores') 1 # consumo errores
2.0

1.5

1.0

0.5

0.0

errores

-0.5

-1.0

-1.5

-2.0

-2.5 6 12 18 24 30 36 42

consumo

;* ahora se ve más claramente la existencia de heterocedasticidad.

83

4.2.1. CORRECCION CON MCG (ϕ CONOCIDA)
Supongamos que la matriz de covarianzas de los errores tiene la siguiente forma:

⎡σ 12 0 0 ⎢ 2 ⎢ 0 σ2 0 2 E (ee' ) = Φ = ⎢ 0 0 σ3 ⎢ ⎢ ... ... ... ⎢0 0 0 ⎣

0⎤ ⎥ ... 0 ⎥ 2 2 2 2 ... 0 ⎥ = diag (σ 1 ,σ 2 , σ 3 ,...σ T ) ⎥ ... ⎥ 2⎥ ... σ T ⎦ ...

Puede verificarse que la transformación de MCG apropiada es:

⎡1 / σ 1 ⎢ ⎢ 0 P=⎢ 0 ⎢ ⎢ ... ⎢ 0 ⎣

0

0

1/ σ 2 0 0 1/ σ 3 ... ... 0 0

0 ⎤ ⎥ ... 0 ⎥ −1 −1 −1 −1 ... 0 ⎥ = diag (σ 1 , σ 2 ,σ 3 ,...σ T ) ⎥ ... ⎥ ... 1 / σ T ⎥ ⎦ ...

puesto al multiplicar el modelo heterocedástico en (1), se tiene que así la varianza de los errores resultante es homocedástica (una constante igual a 1). En efecto: Y = Xβ + e /P

PY = PXβ + Pe Y* = X*β* + e* La varianza de los errores del modelo anterior es: V(e*) = P2V(e) = I = una constante (homocedaticidad) es decir:

⎡⎛ ε t var(ε *) = E (ε ) = E ⎢⎜ ⎜σ ⎢ ⎣⎝ t
*2 t

⎞ ⎟ ⎟ ⎠

2

⎤ ⎥ =1 ⎥ ⎦

El procedimiento de MCG es entonces es dividir cada observación por la desviación estándar del error correspondiente a esa observación, procedimiento que se llama Mínimos Cuadrados Ponderados.

84

4.2.2. DETECCION DE LA HETEROCEDASTICIDAD
El procedimiento inicial de detección es el gráfico, pero muchas veces el patrón de la heterocedasticidad no puede ser apreciado gráficamente, de modo que existe una batería de tests para la hipótesis: Ho: Homocedasticidad entre los cuales destacamos, para el ejemplo anterior, los siguientes: 1.- Test de Goldfeld y Quandt (1972) Es un test F, en que se comparan los residuos de regresiones corridas a dos partes distintas de la muestra, de modo que se requiere un número relativamente alto de observaciones. a) Primero ordenamos por X (ó por Y sin son varias X). Dividimos T en 2 grupos (a veces se sugiere dejar libre en el medio algunas). b) Se corren regresiones separadas para cada una y se guarda la Suma Cuadrada de Errores y los grados de libertad: Ejemplo: LINREG(NOPRINT) consumo 1 10 # CONSTANT ingreso COMPUTE RSS1=%RSS , NDF1=%NDF LINREG(NOPRINT) consumo 11 20 # CONSTANT ingreso COMPUTE RSS2=%RSS , NDF2=%NDF c) Se calcula el test F y su significancia COMPUTE FSTAT=(RSS2/NDF2)/(RSS1/NDF1) CDF FTEST FSTAT NDF2 NDF1 F(8,8)= 6.63298 with Significance Level 0.00740951

;* concluimos que en este ejemplo tenemos evidencia suficiente para rechazar homocedasticidad.

2.- ARCH TEST DE WHITE (1980): Es una variación del test de Breush y Pagan (1979), donde se corren los residuos cuadrados contra los regresores, sus cuadrados y en algunos casos sus productos. La hipótesis nula es homocedasticidad. Ejemplo : linreg(NOPRINT) y / ERR # constant x2 x3 SET ERR2 = ERR**2 set X2X2 = X2**2 set X2X3 = X2*X3 set X3X3 = X3**2 linreg(NOPRINT) err2 # constant X2 X3 X2X2 X3X3 compute chistat = %nobs*%rsquared

85

cdf chisq chistat 4 ;* el número de grados de libertad en el test chi es aquí el número de variables explicativas, es decir el número de parámetros menos 1 (menos el intercepto). ;* en nuestro caso: linreg(NOPRINT) consumo / ERR # constant ingreso SET ERR2 = ERR**2 set X2X2 = ingreso**2 linreg(NOPRINT) err2 # constant ingreso X2X2 compute chistat = %nobs*%rsquared cdf chisq chistat 2 Chi-Squared(2)= 17.562277 with Significance Level 0.00015360

;* llegamos a la misma conclusión anterior.

86

3.- ARCH TEST DE ENGLE(1982) : Para el caso de error del tipo ARCH(1), es decir:

u t ≈ N (0, σ 2 (1 + α ⋅ u 2 t −1 ))
el test consiste en regresionar los residuos al cuadrado sobre sus rezagos: Ejemplo: linreg(NOPRINT) consumo / ERR # constant ingreso SET ERR2 = ERR**2 linreg(NOPRINT) err2 # constant err2{1 to 3} ;* una especificación ARCH(3) por ejemplo compute chistat = %nobs*%rsquared cdf chisq chistat 3 Chi-Squared(3)= 13.136195 with Significance Level 0.00435114

;* llegamos a la misma conclusión anterior.

4.2.3. CORRIGIENDO POR HETEROCEDASTICIDAD EN RATS
Puesto que en general no se conoce exactamente la forma de la heterocedasticidad, la forma más común para intentar reducirla es deflactar/ponderar a partir de alguna medida de tamaño. Por ejemplo, en el análisis de los costos de distintos tramos de vías de ferrocarriles:

COSTO Tramoi = β 0 + β1 RENTABILIDAD Tramoi + ε i
puede ser apropiado deflactar por el numero de kilómetros de cada una de las vías, analizando entonces costos por kilómetro en lugar de costos por tramos, lo que puede reducir la heterocedasticidad. Aquí la variable para efectuar la deflactación sería el número de kilómetros de cada vía, lo que permitiría construir la matriz P para implementar MCG (es decir MC Ponderados). Una alternativa similar es transformar los datos a través de logaritmos. Para explicar el método de MC Ponderados, supongamos que se tiene el siguiente modelo de regresión lineal simple:

yt = β1 + β 2 xt + et
Se desea corregir por heterocedastididad usando la misma variable xt. Para esto debe multiplicarse el modelo original como sigue:

yt xt

=

β1
xt

+ β2

xt xt

+

et xt

87

y t* =
* x1 t =

yt xt 1 xt xt xt

* x2 t =

De este modo el modelo a estimar (corregido) es el siguiente:
* * * y t* = β 1 x1 t + β 2 x 2 t + et

Nótese que para estimarlo debe correrse una regresión con 2 variables explicativas y sin intercepto.

La Opción SPREAD en RATS: Se usa la opción SPREAD para implementar MC Ponderados, esto es, para corregir por heterocedasticidad de una forma conocida o estimada. Con esta opción Ud. entrega una serie, la cual se asume (se sabe) que las varianzas de los residuos son proporcionales, lo que permite la corrección del problema de heterocedasticidad, tal como mostramos anteriormente.

Ejemplo:

Si la varianzas son proporcionales a la serie xx3: linreg(spread=xx3) yy # xx2 Es equivalente a multiplicar el sistema lineal original por: set wyy = yy/(xx3)**0.5 set wx2 = xx2/(xx3)**0.5 linreg wyy # wx2

Para nuestro ejemplo, podemos corregir por la misma variable ingreso: Ejemplo: linreg consumo ;* la regresión sin corregir # constant ingreso ... (omitimos parte de los resultados) Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant 0.8470516317 0.7033549511 1.20430 0.24407047 2. INGRESO 0.8993246879 0.0253091357 35.53360 0.00000000

linreg(spread=ingreso) consumo # constant ingreso Dependent Variable CONSUMO - Estimation by Weighted Least Squares Usable Observations 20 Degrees of Freedom 18 Centered R**2 0.959598 R Bar **2 0.957353 Uncentered R**2 0.997832 T x R**2 19.957

88

Mean of Dependent Variable Std Error of Dependent Variable Standard Error of Estimate Sum of Squared Residuals Durbin-Watson Statistic

4.5658051537 1.1155277146 0.2303690319 0.9552580356 2.057102

Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant 0.7093603335 0.4302588385 1.64868 0.11655592 2. INGRESO 0.9047778086 0.0198858976 45.49846 0.00000000 ;* y se tienen ahora estimaciones eficientes de los parámetros, pues como se ve, el error estándar del parámetro de ingreso ha disminuido de 0.0253 a 0.01988.

89

4.3. CORRELACIÓN SERIAL
La correlación serial ocurre cuando el término de error de un periodo está correlacionado con el de otro periodo. Ocurre principalmente en series de tiempo. Posibles motivos para la aparición de correlación serial son el sesgo de especificación (una forma funcional incorrecta o variables excluidas) y los modelos autorregresivos (donde los errores son intrínsecamente correlacionados), es decir aquellos modelos en que aparece como variable explicativa la variable explicada rezagada (Yt-1). La especificación siguiente define un modelo lineal general con errores auto correlacionados de 1º orden, AR(1):

y = Xβ + ε

ε t = ρ ⋅ ε t −1 + v t
E (v ) = 0 E (vv' ) = σ v ⋅ I
2

donde ρ es el coeficiente de correlación entre los errores sucesivos, e es el error auto correlacionado, y v es un error bien comportado. Al igual que en el caso de la heterocedasticidad, en los casos simples es posible detectar esta anomalía graficando los residuos, como veremos en el siguiente ejemplo:. Ejemplo: Supongamos que disponemos de información anual de inventarios (Y) y de ventas (X) en una determinada región. all 20 cal 1979 1 1 data(unit=input,org=obs) / inventario ventas ... (ver datos en la Tabla 5 del Anexo al final del libro) linreg inventario / err # constant ventas scat(style=lines, hlabel='inventarios', vlabel='errores') 1 # inventario err

15

10

5

errores

0

-5

-10

-15 50 75 100 125 150 175 200

inventarios

90

;* el gráfico muestra que efectivamente los errores poseen un patrón cíclico, lo que en este caso se traduciría en errores auto correlacionados positivamente.

4.3.1. CORRECCION CON MCG (ϕ CONOCIDA)
Puede mostrarse que en el caso de un proceso AR(1)28 de los errores la esperanza y covarianza de éstos es respectivamente como sigue:

E (ε ) = 0 Var (ε ) =

σ v2 1− ρ2
2 t −1

E (ε t ε t −1 ) = ρE (ε

⎛ σ v2 ) + E (ε t −1 v t ) = ρσ = ρ ⎜ ⎜1 − ρ 2 ⎝
2 e

⎞ ⎟ ⎟ ⎠

⎛ σ v2 E (ε t ε t − s ) = ρ s σ e2 = ρ s ⎜ ⎜1 − ρ 2 ⎝

⎞ ⎟ ⎟ ⎠

donde la correlación entre cualquier par de errores es ρs, y entre errores consecutivos es ρ. Haciendo sustitución recursiva puede también mostrarse que el error auto correlacionado puede escribirse como un proceso autorregresivo:

ε t = vt + ρ ⋅ v t −1 + ρ 2 ⋅ v t − 2 + ... = ∑ ρ i ⋅ vt −i
i =0

y cuando |ρ|<1 se dice que el proceso autorregresivo es estacionario, es decir la media y varianza de e no cambian a través del tiempo. En este caso puede mostrase que la matriz de covarianzas de los errores tiene la siguiente forma:

⎡ 1 ⎢ 2 σv ⎢ ρ Φ = σ v2 Ψ = 1− ρ2 ⎢ ⎢ T −1 ⎢ ⎣ρ

ρ
1

ρ T −1 ⎤ ⎥ ρ T −2 ⎥
⎥ ⎥ 1 ⎥ ⎦

ρ T −2

y que la matriz P apropiada para efectos de corrección por MCG es:

⎡ 1− ρ2 ⎢ ⎢ −ρ P=⎢ 0 ⎢ ⎢ ... ⎢ 0 ⎣

0 1 −ρ ... 0

0 0 1

... ... ...

... ... ... − ρ

0⎤ ⎥ 0⎥ 0⎥ ⎥ ...⎥ 1⎥ ⎦

28

El concepto de procesos autorregresivo (AR) y procesos ARIMA son desarrollados en el capítulo 8 y 9.

91

En efecto, al multiplicar la matriz Y y la matriz X por P (es decir implementar MCG) se generan las siguientes series nuevas para Y y para ε (no incluimos la transformación de X pues es trivial):

⎡ 1− ρ 2 ⎢ ⎢ −ρ P ⋅Y = ⎢ 0 ⎢ ⎢ ⎢ 0 ⎣

0 1 −ρ 0

0 0 1 −ρ

0⎤ ⎡ Y1 ⎤ ⎡Y1 1 − ρ 2 ⎤ ⎥ ⎥ ⎢ ⎥ ⎢ 0⎥ ⎢Y2 ⎥ ⎢ Y2 − ρY1 ⎥ ⎥ . 0⎥ ⋅ ⎢ . ⎥ = ⎢ ⎥ ⎥ ⎢ ⎥ ⎢ . ⎥ ⎥ ⎢.⎥ ⎢ ⎢ ⎥ ⎥ ⎢ Y 1⎦ ⎣ T ⎦ ⎣YT − ρYT −1 ⎥ ⎦

⎡ 1− ρ 2 ⎢ ⎢ −ρ P ⋅ε = ⎢ 0 ⎢ ⎢ ⎢ 0 ⎣

0 1 −ρ 0

0 0 1 −ρ

0⎤ ⎡ ε 1 ⎤ ⎡ ε 1 1 − ρ 2 ⎤ ⎥ ⎥ ⎢ ⎥ ⎢ 0⎥ ⎢ε 2 ⎥ ⎢ ε 2 − ρε 1 ⎥ ⎥ . 0⎥ ⋅ ⎢ . ⎥ = ⎢ ⎥ ⎥ ⎢ ⎥ ⎢ . ⎥ ⎥ ⎢. ⎥ ⎢ ⎢ ⎥ ⎥ ⎢ 1⎦ ⎣ε T ⎦ ⎣ε T − ρε T −1 ⎥ ⎦

Puesto que anteriormente especificamos que

ε t = ρε t −1 + vt , tal que V estaba bien comportado,

entonces el nuevo error en el modelo transformado (Pε=ε*) está efectivamente bien comportado, con lo cual se corrige el problema de errores autocorrelacionados. Nótese que la solución de la correlación de 1º orden consiste en calcular primeras diferencias a las series, es decir restar a cada valor de Y su valor anterior, multiplicado por ρ, es decir Yt*=Yt-ρYt-1. Este procedimiento particular de MCG es llamado Primeras Diferencias Generalizadas. Note que si ρ=1, se tienen primeras diferencias simples.

4.3.2. DETECCION DE AR(1): DURBIN-WATSON (1951)
Si bien el procedimiento inicial de detección es normalmente el gráfico (errores versus X, ó Y29), el procedimiento de Durbin-Watson (DW) es el estándar, el que es reportado en la salida de la regresión en RATS. El test de DW mide solamente la asociación entre residuos adyacentes (correlación serial de 1º orden) y requiere un intercepto en la regresión. El test de DW es el siguiente:

∑ d=

T t =2

(e t − e t −1 ) 2
T t =1

et2

el que puede mostrarse se encuentra entre 0 y 4, tal que: Si d cercano a 0, existe correlación de 1º orden en los residuos positiva. Si d cercano a 2, no hay correlación de 1º orden Si d cercano a 4, la correlación es perfecta negativa.
29

A diferencia de la detección gráfica de la heterocedasticidad, aquí los errores al cuadrado normalmente no son de utilidad.

92

Para probar Ho: no existe correlación, Durbin-Watson tabularon las zonas de indecisión buscadas en la tabla de DW para T observaciones y K parámetros y un error de α% es como sigue: dl y du = son los límites inferior y superior de la zona de indecisión para el caso de sospecha de autocorrelación positiva. Deben buscarse en una tabla. 4-du y 4-dl = son los límites inferior y superior de la zona de indecisión para el caso de sospecha de autocorrelación negativa. En términos gráficos:

Z o n a s d e in d e c is ió n

0

dl

du

2

4 -d u

4 -d l

4

A R p o sitiv a

No AR

A R N e g a tiv a

Note que cuando T es grande, al resolver la suma del binomio al cuadrado en el numerador, el primer término al cuadrado es igual al segundo término al cuadrado, entonces:

⎛ ⎜ d ≈ 2⎜ 1 − ⎜ ⎝

∑ ee ∑e
t

t −1

2 t

⎞ ⎟ ~ ⎟ = 2(1 − ρ ) ⎟ ⎠

donde ρ es el coeficiente de correlación estimado entre et y et-1. Luego, conocido el valor del test de Durbin-Watson, d, podemos despejar un estimador de ρ, puesto que ρ=1-d/2.

Ejemplo:

En el ejemplo anterior de inventario y ventas: linreg(noprint) inventario # constant ventas dis %durbin 0.69677 ;* sospechamos AR positiva en los errores

;* puesto que T=20, y K=2, buscamos en la tabla de DW al 5%, y dl=1.201 y du=1.411 que constituye el rango de indecisión. Puesto que 0.69677<1.201 tenemos evidencia suficiente para rechazar Ho a cambio de AR positiva.

93

4.3.3. DETECCION EN MODELOS CON Y REZAGADA: Test h de Durbin
El test de DW es sesgado cuando existen variables dependientes rezagadas (yt-1) y en los modelos de tiempo del tipo ARMA. En el primer caso debe usarse el test h de Durbin (1970), que es más simple y robusto en este tipo de situaciones. En efecto, cuando se tiene un modelo con variables explicativas rezagadas (un modelo AR), entonces esa variable se relaciona con el término de error, lo que viola gravemente un supuesto del sistema lineal, entregando estimaciones sesgadas e inconsistentes del coeficiente de yt-1. También el estadístico DW estaría sesgado hacia 2, de modo que en muchos casos no detectaríamos correlación aunque existiera. El test h de Durbin para detectar AR (Ho: no autocorrelación), es el siguiente:

h=ρ ˆ

T ≈ N (0,1) 1 − T ⋅ V (b1 )

Como se ve, este test es de carácter asintótico (válido en grandes muestras) y se distribuye normal estándar, de modo que lamentablemente tiene bajo poder para muestras pequeñas. Aquí V(b1) es la varianza del coeficiente que contiene la serie Y rezagada. ρ puede ser obtenido a partir del test DW anterior. Note que no está definido para T*V(b1)>0, de modo que en este caso h=0.

Ejemplo:

Una estimación de demanda por alimentos, con T=50 entrega el siguiente resultado: Log Qt = 0.65 - 0.31 log Pt + 0.45 log Yt + 0.65 log Qt-1 Err st (0.14) (0.05) (0.20) (0.14) R2 = 0.90 y DW = 1.8

La varianza del coeficiente de Qt-1 es 0.14**2 = 0.0196. H = 0.1 * (50/(1-50*0.0196))**0.5 = 5.0 (vs. 2.575) que es significativo al 1% y rechazamos ρ=0. Ejemplo: Un cálculo más general para el test es el siguiente: LINREG Y # CONSTANT Y{1} X1 X2 COM DENOM=1-%NOBS*%SEESQ*%XX(2,2) IF DENOM>0 COM H=%RHO*SQRT(%NOBS/DENOM) ELSE COM H=0.0 END IF CDF NORMAL H Esto es, usando un ciclo que determinará automáticamente si el denominador es cero o no, y aplicando en cada caso el test que corresponda.

94

4.3.4. DETECCION DE LA AUTOCORRELACION DE ORDEN SUPERIOR
a) Test de BREUSCH (1978) Y GODFREY (1978) Es una generalización del test h de Durbin en base al test LM, y permite probar Ho: inexistencia de correlación de orden N. Ejemplo: En el ejemplo anterior de inventario y ventas: linreg(noprint) inventario / errores # constant ventas Linreg(noprint) inventario # constant ventas errores{1 to 3} cdf chisq %trsq 3 Chi-Squared(3)= 16.980064 with Significance Level 0.00071345

;* rechazamos Ho: ρ1=ρ2=ρ3=0, es decir existe AR hasta 3º orden.

95

b) Test Q de Ljung y Box (1978) (Box-Jenkins model identification)30 En un test muy popular para detectar correlación serial de altos órdenes, aunque sus resultados son también asintóticos, es decir tiene baja potencia para correlaciones de bajos órdenes.

Q( M ) = T (T + 2)∑
i =1

M

ri 2 (T − i)

χ 2 (M )

donde ri es el i-ésimo rezago de autocorrelación de los residuos. M es el número de autocorrelaciones usadas, y la hipótesis es: Ho: todos los coeficientes de correlación son cero, ρ1, ρ2, ρ3.....ρM=0 con: Para efectos de calcular la significancia marginal en RATS, el número de grados de libertad es M,

⎛T ⎞ M = min⎜ , 3 T ⎟ ⎝4 ⎠
excepto para modelos ARIMA, en que el número de grados de libertad es M-(número de parámetros ARMA). Ejemplo: En el ejemplo anterior: linreg inventario # constant ventas dis %QSTAT 8.53832 dis %QSIGNIF 0.12896 ;* es decir no podemos rechazar que las primeras 5 autocorrelaciones son cero. En efecto: cdf chitest 8.53832 Chi-Squared(5)= 5 8.538320 with Significance Level 0.12895760 ;* corresponde a una Chi(5), pues 5 < 13.41641

Si desea calcularse el test Q para diferente número de rezagos, es decir no necesariamente 5 como en el ejemplo anterior, entonces puede usarse la instrucción CORRELATE, tal como mostramos a continuación.

Ejemplo:

En el ejemplo de inventarios y ventas: Correlate(qstats, number=6, span=1) ee ;* los errores de la regresión han sido guardados en la serie ee. La opción qstats indica que se requiere el test Q, y la opción number indica que se requiere el test para los primeros 6 rezagos. La opción span indica el número de intervalos de cálculo.

30

Un test previo (ya obsoleto) fue el de Box-Pierce(1970):

Q * (k ) = T ∑ ri 2 ≈ χ 2 (k )
i =1

k

96

Correlations of Series EE Annual Data From 1979:01 To 1998:01 Autocorrelations 1: 0.5422625 -0.0230208 -0.1816261 0.0078109 0.1712587 0.0015882 ;* Autocorrelations son las autocorrelaciones entre los residuos31. Ljung-Box Q-Statistics Q(1) = 6.8095. Q(2) = 6.8225. Q(3) = 7.6763. Q(4) = 7.6780. Q(5) = 8.5383. Q(6) = 8.5384.

Significance Significance Significance Significance Significance Significance

Level Level Level Level Level Level

0.00906717 0.03299989 0.05319722 0.10411211 0.12895756 0.20125021

;* nótese que Q(5) entrega el mismo resultado que en el ejemplo anterior. Otro aspecto a notar es que en algunos modelos más complejos (por ejemplo ARIMA) esta prueba Q requiere un ajuste por grados de libertad. Nota: Cuando se calculan autocorrelaciones para pruebas de correlación serial y evaluación de modelos de autocorrelación, es deseable usar el mismo divisor a cualquier rezago, lo que preserva varias propiedades deseables para varias consideraciones relacionadas con series de tiempo. En consecuencia, se usará:

rt ,t −i =

∑ et et −i
t =2 T

T

∑e
t =1

en lugar de rt ,t −i =

∑e e
t =2 t T T t =2

T

t −i

2 t

∑ et2 ∑ et2−i
t =2

Si se desea graficar los Autocorrelogramas y parcialcorrelogramas de los residuos puede usarse el procedure bjident.src (lo veremos con detalle en el capítulo de series de tiempo): source(noecho) c:\bjident.src @bjident resid1 ;* grafica las correlaciones de los residuos almacenados en resid1

31

97

4.3.4. CORRIGIENDO LA AUTOCORRELACION EN RATS: PRIMERAS DIFERENCIAS
Hemos dicho que la forma de corregir la autocorrelación de errores de primer orden en RATS es a través de primeras diferencias generalizadas (PDG), para lo cual es requerido una estimación del coeficiente de correlación de los errores (ρ). La forma más simple es obtener una estimación de ρ a partir del estadístico DW, sin embargo veremos métodos más precisos de estimación a través de la instrucción AR1. Veamos la implementación de PDG a través de un ejemplo:

Ejemplo:

En el ejemplo de inventarios y ventas linreg(noprint) inventario # constant ventas dis %DURBIN 0.69677 COM RO = 1-%DURBIN/2 dis RO 0.65161 ;* es la estimación de ρ basada en DW SET YP = inventario-RO*inventario{1} ;* implementando MCG, es decir PDG SET YP 1 1 = (1-RO**2)**0.5*inventario ;* en cada serie la primera observación debe ajustarse de un modo diferente SET X2P = ventas-RO*ventas{1} SET X2P 1 1 = (1-RO**2)**0.5*ventas SET X1P = 1-RO*1 ;* para el intercepto SET X1P 1 1 = (1-RO**2)**0.5*1 LINREG YP # X1P X2P ;* la regresión corregida por PDG (sin constante) ;* el modelo sin corregir

Dependent Variable YP - Estimation by Least Squares Annual Data From 1979:01 To 1998:01 Usable Observations 20 Degrees of Freedom Centered R**2 0.939470 R Bar **2 0.936107 Uncentered R**2 0.989942 T x R**2 19.799 Mean of Dependent Variable 41.776214428 Std Error of Dependent Variable 19.133036908 Standard Error of Estimate 4.836281026 Sum of Squared Residuals 421.01305500 Durbin-Watson Statistic 1.259994 Q(5-0) 6.623975 Significance Level of Q 0.25014080

18

Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. X1P 9.8315102285 5.7974035294 1.69585 0.10714180 2. X2P 1.5602664956 0.0812988275 19.19175 0.00000000 ;* puesto que Durbin-Watson Statistic = 1.259994 y dl=1.201 y du=1.411 se encuentra en la zona de indecisión.

98

LA INSTRUCCIÓN AR1 La instrucción AR1 efectúa PDG al modelo a partir de una estimación de correlación serial ρ. AR1 tiene opciones para elegir entre 4 métodos de estimación del coeficiente ρ. a) Método iterativos: El principal método es el de Cochrane-Orcutt (1949), que corresponde a la opción CORC en RATS. El procedimiento consiste en correr el modelo original y guardar los residuos. Luego correr los residuos contra los residuos rezagados (sin intercepto). Implementar PDG, calcular los residuos sobre el modelo original pero con los nuevos coeficientes estimados y estimar nuevos residuos. Correr nuevamente PDG usando la ultima estimación de ρ. Así sucesivamente hasta converger en la estimación de ρ. Estos métodos iterativos son más rápidos, sin embargo no garantizan que se encuentre el óptimo. Si hay variables dependientes rezagadas CORC entrega un resultado sesgado, y debe usarse HILU. b) Método no iterativos: El principal es el de Hidreth-Lu (1960), que corresponde a la opción HILU en RATS. Consiste en calcular PDG usando diferentes valores de ρ entre -1 y 1. Se escoge aquel ρ que entregue la menor Suma Cuadrada de Residuos. En muestras grandes entrega el mismo resultado de Máxima Verosimilitud. Otros métodos basados en el criterio de máxima verosimilitud se implementan con la opción SEARCH y con MAXL. Podemos verificar estos resultados usando la instrucción ar1 con la opción CORC y MAXL de RATS siguiendo el ejemplo anterior. Ejemplo: La corrección de Cochrane-Orcutt: AR1(METHOD=corc) inventario # CONSTANT ventas Dependent Variable INVENTARIO - Estimation by Cochrane-Orcutt Annual Data From 1980:01 To 1998:01 Usable Observations 19 Degrees of Freedom 16 Centered R**2 0.989581 R Bar **2 0.988278 Uncentered R**2 0.998409 T x R**2 18.970 Mean of Dependent Variable 105.87894737 Std Error of Dependent Variable 46.17620333 Standard Error of Estimate 4.99934157 Sum of Squared Residuals 399.89465850 Durbin-Watson Statistic 1.443620 Q(4-1) 6.140217 Significance Level of Q 0.10498413 Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant 15.871887522 9.651170285 1.64456 0.11956256 2. VENTAS 1.492261658 0.113915934 13.09967 0.00000000 ******************************************************************************* 3. RHO 0.743057461 0.197925645 3.75423 0.00173224 ;* el coeficiente ρ estimado es 0.743057461

Ejemplo:

La corrección de Hidreth-Lu AR1(METHOD=hilu) inventario # CONSTANT ventas

99

Dependent Variable INVENTARIO - Estimation by Hildreth-Lu Annual Data From 1980:01 To 1998:01 Usable Observations 19 Degrees of Freedom 16 Centered R**2 0.989581 R Bar **2 0.988278 Uncentered R**2 0.998409 T x R**2 18.970 Mean of Dependent Variable 105.87894737 Std Error of Dependent Variable 46.17620333 Standard Error of Estimate 4.99934157 Sum of Squared Residuals 399.89465850 Durbin-Watson Statistic 1.443629 Q(4-1) 6.140247 Significance Level of Q 0.10498272 Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant 15.872102891 9.651368445 1.64454 0.11956494 2. VENTAS 1.492259063 0.113917491 13.09947 0.00000000 ******************************************************************************* 3. RHO 0.743063504 0.197924711 3.75427 0.00173206 ;* el coeficiente ρ estimado es 0.743063504 Al implementar la corrección AR1 en RATS, por simplicidad no se considera que la primera observación tiene un tratamiento diferente de las demás, de modo que en realidad lo que se hace es aplicar el procedimiento de PDG a las T observaciones. Verifiquemos entonces a través del siguiente ejemplo como se implementa el procedimiento de Cochrane-Orcutt.

Ejemplo:

Para los datos del ejemplo de inventario y ventas, nótese que es posible verificar paso a paso el resultado de la estimación de Cochrane-Orcutt anterior como sigue: COM RO = 0.743057461 ;* definimos ρ como el obtenido en CORC

SET YP = inventario-RO*inventario{1} SET X2P = ventas-RO*ventas{1} SET X1P = 1-RO*1 LINREG YP # X1P X2P ... Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. X1P 15.871887527 9.363010474 1.69517 0.10828013 2. X2P 1.492261658 0.110514689 13.50284 0.00000000 ;* que corresponde al mismo resultado de CORC.

100

4.4.

ESTIMACION ROBUSTA

Si la forma de la varianza de los errores, E(εε'), es conocida, puede ser posible obtener estimadores eficientes usando alguna forma de Mínimos Cuadrados Generalizados, tal como MCP (con opción SPREAD en RATS) o a través de PDG (con la instrucción AR1 en RATS). Sin embargo, si esto no ocurre, es decir, si no se tiene información acerca de la forma de E(εε'), White(1980) y Newey y West (1987) mostraron que es posible obtener estimaciones robustas de los coeficientes de regresión ante autocorrelación y heterocedasticidad, es decir resultados válidos para grandes muestras (propiedades asintóticas). Veamos la mecánica de este procedimiento, llamado estimación robusta. Sabemos que la varianza de los coeficientes es:

cov(β ) = ( X ' X ) −1 X ' E (εε ' ) X ( X ' X ) −1
o alternativamente:

cov(β ) = ( X ' X ) −1 ⋅ m cov( X , ε ) ⋅ ( X ' X ) −1
donde ε = son los errores del modelo de regresión X = es la matriz de variables explicatorias El procedimiento de estimación robusta define la matriz mcov de diferentes modos, como veremos a continuación, a efectos de corregir la varianza de los errores y por este intermedio la matriz de covarianzas de los coeficientes. Ejemplo: Si se tiene un modelo lineal del tipo observaciones como sigue. ALL 9 DATA(UNIT=INPUT,ORG=OBS) / y x1 x2 100 100 100 106 104 99 107 106 110 120 111 126 110 111 113 116 115 103 123 120 102 133 124 103 137 126 98 linreg y # constant x1 x2 Dependent Variable Y - Estimation by Least Squares Usable Observations 9 Degrees of Freedom Centered R**2 0.938502 R Bar **2 0.918003 Uncentered R**2 0.999376 T x R**2 8.994 Mean of Dependent Variable 116.88888889 Std Error of Dependent Variable 12.55432639 Standard Error of Estimate 3.59493951 Sum of Squared Residuals 77.541540508 Regression F(2,6) 45.7825 Significance Level of F 0.00023258 Durbin-Watson Statistic 1.635298

Yt = β 0 + β 1 X 1 + β 2 X 2 + ε t

y T=9

6

101

Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant -49.34133898 24.06088696 -2.05069 0.08616009 2. X1 1.36423789 0.14315290 9.52994 0.00007617 3. X2 0.11388062 0.14337364 0.79429 0.45728186

;* construimos la variable sigmaid conteniendo el error estándar de la estimación (E(εε’)), y X la matriz conteniendo las variables explicativas (y un vector de unos como intercepto). Podemos calcular la matriz de covarianzas de los coeficientes como sigue: com var =inv((tr(X)*X))*(tr(X)*X *sigmaid)*inv((tr(X)*X)) WRI VAR 578.9263 -2.6911 -2.5792 -2.6911 0.0205 3.5420e-003 -2.5792 3.5420e-003 0.0206

do II=1,3 wri (var(II,II))**0.5 end do ;* las desviaciones estándar de los coeficientes son 24.0609 0.1432 0.1434 ;* que corresponde al resultado del modelo sin corregir.

4.4.1. CORRECCION DE WHITE (1980)
Intenta corregir solamente por heterocedasticidad reemplazando σ2 en σ2(X’X) por una matriz TxT que contiene en su diagonal cada error al cuadrado, es decir pre y postmultiplicar X’X por el vector de errores.

m cov = ∑t ε t X t ' X t − k ε t − k
y hacemos ddiag es la matriz diagonal que contiene los errores al cuadrado en la diagonal.

Ejemplo:

En el ejemplo anterior, obtenemos la matriz mcov corregida: com var =inv((tr(X)*X)) WRI VAR 283.2035 -0.8457 -1.8279 *(tr(X)*ddiag*X) -1.8279 -8.9365e-005 0.0177 *inv((tr(X)*X))

-0.8457 7.7754e-003 -8.9365e-005

do II=1,3 wri (var(II,II))**0.5 end do 16.8287 0.0882 0.1332 ;* son los errores estándar de los coeficientes bajo la corrección de White.

102

En RATS la corrección anterior (solamente por heterocedasticidad) implica usar la opción ROBUSTERRORS (sin LAGS). Ejemplo: linreg(robusterrors) y # constant x1 x2 Dependent Variable Y - Estimation by Least Squares Usable Observations 9 Degrees of Freedom Centered R**2 0.938502 R Bar **2 0.918003 Uncentered R**2 0.999376 T x R**2 8.994 Mean of Dependent Variable 116.88888889 Std Error of Dependent Variable 12.55432639 Standard Error of Estimate 3.59493951 Sum of Squared Residuals 77.541540508 Durbin-Watson Statistic 1.635298

6

Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant -49.34133898 16.82865139 -2.93198 0.00336804 2. X1 1.36423789 0.08817821 15.47137 0.00000000 3. X2 0.11388062 0.13317015 0.85515 0.39246742 ;* lo que verifica la corrección (reducción) en el error estándar de los coeficientes. Nótese que los coeficientes propiamente tales no se ven alterados.

4.4.2. CORRECCION DE NEWEY Y WEST (1987)
Sugieren reemplazar σ2 por una suma de matrices TxT, las que son ponderadas de acuerdo a cada rezago (k) considerando que el rezago máximo es L (note que en caso de White la ponderación es 1).

⎧ k ⎫ L m cov = ∑k =− L ∑t et X t ' X t −k et −k ⋅ ⎨1 − ⎬ ⎩ L + 1⎭
donde L indica el grado del error de medias móviles que se desea corregir por autocorrelación de acuerdo al horizonte de predicción (por ejemplo si se trata de una predicción de k=3 periodos, entonces L=3-1=2, y existirán 5 sumandos en mcov). Ejemplo: En el ejemplo anterior con T=9, si L=2, existirán 5 sumandos en mcov, y cada una de ellos será ponderado por (1-2/3), (1-1/3), (1), (1+1/3), (1+2/3) respectivamente. Definamos x1 a la 1º fila de la matriz X; x2 la 2º fila, etc. y definamos u1 el 1º residuo; u2 el 2º residuo; etc. La matriz mcov será la suma de: com mcov = xx1+xx2+xx3+xx4+xx5 donde: com xx1 = (u1*tr(x1)*x3*u3 + u2*tr(x2)*x4*u4 + u3*tr(x3)*x5*u5 + $ u4*tr(x4)*x6*u6 + u5*tr(x5)*x7*u7 + u6*tr(x6)*x8*u8 + u7*tr(x7)*x9*u9)*(1-2/3) com xx2 = (u1*tr(x1)*x2*u2 + u2*tr(x2)*x3*u3 + u3*tr(x3)*x4*u4 + $

103

u4*tr(x4)*x5*u5 + u5*tr(x5)*x6*u6 + u6*tr(x6)*x7*u7 + u7*tr(x7)*x8*u8 + $ u8*tr(x8)*x9*u9 )*(1-1/3) com xx3 = (u1*tr(x1)*x1*u1 + u2*tr(x2)*x2*u2 + u3*tr(x3)*x3*u3 + $ u4*tr(x4)*x4*u4 + u5*tr(x5)*x5*u5 + u6*tr(x6)*x6*u6 + u7*tr(x7)*x7*u7 + $ u8*tr(x8)*x8*u8 + u9*tr(x9)*x9*u9)*(1-0/3) com xx4 = (u2*tr(x2)*x1*u1 + u3*tr(x3)*x2*u2 + u4*tr(x4)*x3*u3 + $ u5*tr(x5)*x4*u4 + u6*tr(x6)*x5*u5 + u7*tr(x7)*x6*u6 + u8*tr(x8)*x7*u7 + $ u9*tr(x9)*x8*u8 )*(1-1/3) com xx5 = (u3*tr(x3)*x1*u1 + u4*tr(x4)*x2*u2 + u5*tr(x5)*x3*u3 + $ u6*tr(x6)*x4*u4 + u7*tr(x7)*x5*u5 + u8*tr(x8)*x6*u6 + u9*tr(x9)*x7*u7)*(1-2/3) com mcov = xx1+xx2+xx3+xx4+xx5 com var = inv((tr(X)*X)) * (mcov) * inv((tr(X)*X)) ;* la matriz de covarianzas corregida de los coeficientes do II=1,3 wri (var(II,II))**0.5 end do

;* son los errores estándar corregidos

En RATS este ajuste es ofrecido por la instrucción ROBUSTERRORS pero agregando la opción LAGS=L (para corregir por autocorrelación hasta un proceso de medias móviles del grado L) y DAMP=1.0 (para el estimador de Newey-West, aunque pueden obtenerse otros ajustes con otro valor de DAMP, pero son poco usados). Ejemplo: linreg(robusterrors, lags=2, damp=1) y # constant x1 x2 Dependent Variable Y - Estimation by Least Squares Usable Observations 9 Degrees of Freedom Centered R**2 0.938502 R Bar **2 0.918003 Uncentered R**2 0.999376 T x R**2 8.994 Mean of Dependent Variable 116.88888889 Std Error of Dependent Variable 12.55432639 Standard Error of Estimate 3.59493951 Sum of Squared Residuals 77.541540508 Durbin-Watson Statistic 1.635298

6

Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant -49.34133898 14.82204895 -3.32891 0.00087185 2. X1 1.36423789 0.09248540 14.75085 0.00000000 3. X2 0.11388062 0.08901050 1.27941 0.20075389

Una de las dificultades para implementar la estimación robusta puede ser determinar el valor apropiado de L, aunque en muchos casos, éste proviene de la teoría, y el conocimiento que la sobre posición de horizontes de predicción (overlapping) genera un termino de error tipo MA de orden k-1 (donde k es el horizonte de predicción). Así, por ejemplo errores en predicciones de 6 periodos tendrán un proceso MA de orden 5 (L=5), con lo cual se captura la mayoría de la correlación serial En resumen, en RATS la opción ROBUSTERRORS calcula los errores estándar de la regresión y la matriz de covarianzas permitiendo heterocedasticidad y correlación serial de los residuos, y funciona junto a LAGS y DAMP en las instrucciones LINREG, NLLS, NLSYSTEM, y MAXIMIZE. Pueden definirse estructuras más complicadas usando la instrucción WMATRIX, que es la matriz de ponderaciones usada junto a INSTRUMENTS.

104

105

4.5. MULTICOLINEALIDAD
En el modelo

Yt = β 0 + β 1 X 1 + β 2 X 2 + ε t

la multicolinealidad (o colinealidad) se presenta

cuando hay correlación lineal entre las variables explicativas X1 y X2, de modo que ambas variables, en el fondo, están midiendo el mismo fenómeno. La presencia de alta colinealidad entre las variables explicativas X1 y X2 impide que se pueda estimar con precisión los coeficientes de la regresión, es decir el efecto de cada una de estas variables sobre Y, debido a que MCO no puede "separar" el efecto de X1 sobre Y, y el efecto de X2 sobre Y. Así, se esperan relativamente altos errores estándar para los coeficientes.

Ejemplo:

En el modelo

Yt = β 0 + β 1 X 1 + β 2 X 2 + ε t ,

asumamos que X1 y X2 están

correlacionadas: ALL 9 DATA(UNIT=INPUT,ORG=OBS) / y x1 100 100 106 104 107 106 120 111 110 111 116 115 123 120 133 124 137 126 set x2 = 2*x1-4 ;* X2 presenta multicolinealidad perfecta con X1, es decir X2 es una combinación lineal de X1. La correlación entre ambas series es +1 en este caso.

set x3 = 2*x1-4 + %RAN(2) ;* agregamos un error normal con media cero y desviación estándar 2.0 para generar una colinealidad muy alta entre X1 y X3 vcv(center) # x1 x2 x3 Covariance\Correlation Matrix X1 X2 X3 X1 72.2222222222 1.0000000000 0.9953696238 X2 144.4444444444 288.8888888889 0.9953696238 X3 149.5741206841 299.1482413682 312.6607054917 ;* en efecto, la correlación entre X1 y X2 es 1.0, mientras la correlación entre X1 y X3 es muy alta pero no perfecta, igual a 0.9953696238

4.5.1. MULTICOLINEALIDAD PERFECTA
En este caso MCO simplemente no puede estimar el coeficiente de X2 (no es posible invertir la matriz (X’X) para calcular β). Contradictoriamente el estadístico R2 puede ser es bastante alto, y el test F de significancia global indicar que ambos coeficientes de pendientes son estadísticamente distintos de cero!!!, lo cual no tiene sentido en la práctica. Verifiquemos esto con el ejemplo anterior:

106

Ejemplo:

linreg y # constant x1 x2 Dependent Variable Y - Estimation by Least Squares Usable Observations 9 Degrees of Freedom Centered R**2 0.932036 R Bar **2 0.922327 Standard Error of Estimate 3.49887824 Significance Level of F 0.00002448

7

Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant -35.05264957 15.55160913 -2.25396 0.05885365 2. X1 1.34461538 0.13723730 9.79774 0.00002448 3. X2 0.00000000 0.00000000 0.00000 0.00000000 ;* en efecto, el coeficiente de X2 y su error estándar no han podido ser estimados y el R2 es 0.932.

4.5.2. MULTICOLINEALIDAD MUY ALTA
En este caso será posible obtener la estimación de los coeficientes, pero ésta será muy ruidosa. Ejemplo: linreg y # constant x1 x3 Dependent Variable Y - Estimation by Least Squares Usable Observations 9 Degrees of Freedom Centered R**2 0.936578 R Bar **2 0.915438 Standard Error of Estimate 3.65074795 Significance Level of F 0.00025510

6

Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant -38.39564259 17.00912418 -2.25736 0.06478306 2. X1 2.08232199 1.13443331 1.83556 0.11609004 3. X3 -0.36073205 0.55029099 -0.65553 0.53643682 Ninguna de las series tiene una relación significativa con Y al 95%. Aún así el R2 es bastante alto, y contradictoriamente con el test F rechazamos la hipótesis que los coeficientes son cero, es decir existe significancia global de la regresión. Podemos concluir que la multicolinealidad aumenta el error en la estimación de los coeficientes individuales, disminuyendo los test t. Luego, que sospechamos existencia de multicolinealidad cuando los coeficientes individuales tienen bajas significancias, pero el estadístico R2 es alto. También, dado el alto error, los coeficientes estimados son altamente sensibles a cambios en las observaciones, de modo que por ejemplo eliminando un dato, los coeficientes cambiarán importantemente. El último aspecto es las predicciones del modelo con multicolinealidad serán peores (alto error) que aquellas obtenidas considerando solo un pequeño grupo de variables explicativas que no son colineales. Una forma de detectar la colinealidad (alta) es considerar la Regla de Klein (1962) que afirma que "la multicolinealidad es un problema sólo si la correlación simple entre dos variables es mayor que la correlación entre alguna éstas con la variable explicada (Y)".

107

4.5.3. SOLUCIONES A LA MULTICOLINEALIDAD
Existen varios métodos, algunos relativamente complejos, que intentan solucionar la multicolinealidad, sin embargo la multicolinealidad es un problema de la muestra (de los datos) y poco puede hacerse, a no ser que se disponga de más información del proceso en estudio, de modo que la solución básica se encuentra en encontrar más información. Caminos de solución alternativos son eliminar del modelo una de las series que presentan colinealidad. Sin embargo debe considerarse que esto puede introducir error de especificación.

108

CAPITULO 5 TOPICOS EN EL MODELO LINEAL GENERAL

En este capítulo desarrollaremos una serie de tópicos importantes del análisis de regresión múltiple, como lo son la predicción (estática), las variables dummy, el uso de las variables instrumentales para intentar resolver el problema denominado “error en las variables”, y finalmente el uso de datos de panel en RATS.

5.1. INTRODUCCION A LA PREDICCION EN RATS
Existen muchas formas de efectuar predicciones en RATS, incluyendo modelos de Vectores Autorregresivos, Sistemas de Ecuaciones Simultáneas y Análisis Espectral, métodos que utilizan la poderosa instrucción FORECAST de RATS. Sin embargo, por ahora analizaremos la instruccion PRJ, que es la tradicional para la predicción estática en un contexto de mínimos cuadrados ordinarios.

5.1.1. EL ERROR DE PREDICCION
Antes de comentar la predicción propiamente tal, es necesario que consideremos que la desviación estándar del error de la predicción individual de Y en MCO viene dada por32:

ˆo ) = σ (1 + X o ' ( X ' X ) −1 X o ) σ (eo ) = σ (Yo − Y

ˆ es la estimación de Y, Xo son valores proyectados de X, y donde σ es el error estándar de la regresión, Y X son los valores originales. El intervalo de confianza para las predicciones en el caso de un gran número de observaciones es entonces (usando una distribución t):

[Yˆ − 2.0 ⋅ σ (e ) , Yˆ + 2.0 ⋅ σ (e )]
0 0

Para el caso de un modelo de regresión simple, la expresión anterior se reduce a:

1 ( Xo − X ) 2 ˆ σ (eo ) = σ (Yo − Yo ) = σ (1 + + i =T T ∑ ( X i − X )2
i =1

una expresión sencilla de interpretar:
32

Véase un aspecto simplificado de la demostración en Judge et al., sección 5.3.3.

109

-

-

Puesto que el error estándar de predicción crece proporcionalmente con cuadrado de la diferencia entre el valor de la variable explicativa deseado y la media observada de ésta, mientras más alejada del valor medio sea la predicción, ésta será más que proporcionalmente riesgosa. Por ejemplo, en un caso simple, si se tiene una muestra de 10 años (la media es 5 años) la varianza de la estimación del año 10 al año 11 aumenta un 44% (desde 25=(10-5)^2 hasta 36=(115)^2), pero con una muestra de 3 años como en nuestro caso, la varianza de la predicción anual desde el año 3 al año 4 aumenta un 178% (desde 82.25=(3-1.5)^2 hasta 6.25=(4-1.5)^2). El error de estimación se reduce al aumentar el número de observaciones (T), y al aumentar la dispersión de la variable X, medida por la suma cuadrada de la diferencia de X respecto a su media.

5.1.2. PREDICCION ESTATICA: INSTRUCCIÓN PRJ
Cuando tenemos una regresión simple como la anterior, los valores predichos pueden ser generados en RATS a través de la instrucción PRJ (después de correr la regresión con LINREG). La estructura de esta instrucción es la siguiente: PRJ series start end

donde series indica el nombre de la serie donde será almacenada la predicción de la última regresión efectuada. Start y End son los rangos sobre los cuales se efectuará la predicción. Es importante notar que PRJ requiere que se encuentren definidas todas las variables explicativas en el rango de predicción futura. En el caso más simple se quiere proyectar una sola serie (Y) a través del tiempo, y no se tiene un modelo explicativo. En este caso debe generarse una serie de tendencia:

Ejemplo:

Supongamos que deseamos obtener una predicción de Y a través del tiempo, sin postular aún que ésta dependa de X. ALL 15 ;* se podrán leer hasta 15 observaciones cal 1990 1 1 DATA(UNIT=INPUT,ORG=OBS) 1 10 y x ;* se leen las 10 primeras observaciones 70 80 65 100 90 120 95 140 110 160 115 180 120 200 140 220 155 240 150 260 SET TENDENCIA = T ;* en este caso la regresión es planteada respecto a una tendencia

linreg(noprint) y # constant TENDENCIA CLEAR PREDICC PRJ(STDERR=ERST) PREDICC 1 15 SET UPPER = PREDICC + 2.306*ERST SET LOWER = PREDICC - 2.306*ERST ;* son los limites del intervalo de confianza. Note que puesto que T=10, se tienen 8 grados de libertad para la distribución t.

110

print / erst predicc lower upper ENTRY 1990:01 1991:01 1992:01 1993:01 1994:01 1995:01 1996:01 1997:01 1998:01 1999:01 2000:01 2001:01 2002:01 2003:01 2004:01 ERST 7.5314766477675 7.2549973277662 7.0405163534656 6.8938228428376 6.8192928387727 6.8192928387727 6.8938228428376 7.0405163534656 7.2549973277662 7.5314766477675 7.8634174080570 8.2441230424037 8.6671699366485 9.1266720797172 9.6174055939285 PREDICC 65.18181818182 75.36363636364 85.54545454545 95.72727272727 105.90909090909 116.09090909091 126.27272727273 136.45454545455 146.63636363636 156.81818181818 167.00000000000 177.18181818182 187.36363636364 197.54545454545 207.72727272727 LOWER 47.81423303207 58.63361252581 69.31002383436 79.83011725169 90.18380162288 100.36561980470 110.37557179714 120.21911474345 129.90633979853 139.45059666843 148.86695945702 158.17087044604 167.37714248973 176.49934872963 185.54953542767 UPPER 82.54940333157 92.09366020147 101.78088525655 111.62442820286 121.63438019530 131.81619837712 142.16988274831 152.68997616564 163.36638747419 174.18576696793 185.13304054298 196.19276591760 207.35013023755 218.59156036128 229.90501002687

graph(KEY=LORIGHT, patterns) 4 # Y # PREDICC # UPPER # LOWER
250

225

200

175

150

125

100

75

50

Y PREDICC UPPER LOWER

25 1990 1992 1994 1996 1998 2000 2002 2004

Ejemplo:

Cuando se tiene un modelo de regresión que explica a Y, entonces el procedimiento es el mismo anterior. Recuerde que PRJ efectuará la predicción a la última regresión que se ha efectuado. linreg(noprint) y # constant X dis %seesq 42.15909 CLEAR PREDICC PRJ(STDERR=ERST) PREDICC 1 15 ;* X explica a Y linealmente

111

SET UPPER = PREDICC + 2.306*ERST SET LOWER = PREDICC - 2.306*ERST print / x predicc lower upper ENTRY 1990:01 1991:01 1992:01 1993:01 1994:01 1995:01 1996:01 1997:01 1998:01 1999:01 X 80.00000000000 100.00000000000 120.00000000000 140.00000000000 160.00000000000 180.00000000000 200.00000000000 220.00000000000 240.00000000000 260.00000000000 PREDICC 65.18181818182 75.36363636364 85.54545454545 95.72727272727 105.90909090909 116.09090909091 126.27272727273 136.45454545455 146.63636363636 156.81818181818 LOWER 47.81423303207 58.63361252581 69.31002383436 79.83011725169 90.18380162288 100.36561980470 110.37557179714 120.21911474345 129.90633979853 139.45059666843 UPPER 82.54940333157 92.09366020147 101.78088525655 111.62442820286 121.63438019530 131.81619837712 142.16988274831 152.68997616564 163.36638747419 174.18576696793

;* así se tiene por ejemplo, que la predicción de Y cuando X=100 es 75.36 con un intervalo de confianza entre 58.63 y 92.09. scat(KEY=LORIGHT, STYLE=LINES,patterns, hlabel='serie X', vlabel='serie Y') 4 # X Y # X PREDICC # X UPPER # X LOWER
180

160

140

120

serie Y

100

80

60
Y PREDICC UPPER LOWER

40 80 120 160 200 240 280

serie X

;* en el caso que busquemos una predicción para valores distintos de X, como por ejemplo X=270, 272, 274, 276 ó 278, entonces puede agregarse estas observaciones y repetir el procedimiento anterior como sigue: DATA(UNIT=INPUT) 11 15 x 270 272 274 276 278 CLEAR PREDICC PRJ(STDERR=ERST) PREDICC 1 15 SET UPPER = PREDICC + 2.306*ERST

112

SET LOWER = PREDICC - 2.306*ERST print / x predicc lower upper ENTRY 1990:01 1991:01 1992:01 1993:01 1994:01 1995:01 1996:01 1997:01 1998:01 1999:01 2000:01 2001:01 2002:01 2003:01 2004:01 X 80.00000000000 100.00000000000 120.00000000000 140.00000000000 160.00000000000 180.00000000000 200.00000000000 220.00000000000 240.00000000000 260.00000000000 270.00000000000 272.00000000000 274.00000000000 276.00000000000 278.00000000000 PREDICC 65.18181818182 75.36363636364 85.54545454545 95.72727272727 105.90909090909 116.09090909091 126.27272727273 136.45454545455 146.63636363636 156.81818181818 161.90909090909 162.92727272727 163.94545454545 164.96363636364 165.98181818182 LOWER 47.81423303207 58.63361252581 69.31002383436 79.83011725169 90.18380162288 100.36561980470 110.37557179714 120.21911474345 129.90633979853 139.45059666843 144.17379466125 145.11476808351 146.05455577932 146.99317326646 147.93063601874 UPPER 82.54940333157 92.09366020147 101.78088525655 111.62442820286 121.63438019530 131.81619837712 142.16988274831 152.68997616564 163.36638747419 174.18576696793 179.64438715693 180.73977737103 181.83635331159 182.93409946081 184.03300034490

;* y la predicción para X=272 es Y=162.927 con límites entre 145.11 y 180.7.

5.1.3. CASO PRACTICO
Comenzaremos analizando el caso desarrollado por Hall, R., J. Johnston y D. Lilien (1990). Se trata de efectuar una predicción del ingreso del próximo año de una cadena de hoteles. El ingreso total viene dado por: INGRESO TOTAL = OCUPACION * INGRESO POR HABITACION * NUMERO DE HABITACIONES La información disponible es la siguiente: all 12 cal 1990 1 1 data(unit=input,org=obs) 1990:1 2000:1 CPR GNP OCCUP PGNP ROOMS RRATE UNEMP ... Ver datos en Tabla 6 en el Anexo al final del libro.

Note que ALL ya previó que se iba a hacer una predicción, y que DATA define el rango de datos existentes solamente. Intentamos proyectar separadamente la tasa de ocupación (OCCUP, porcentaje de habitaciones usadas por noche), el ingreso por habitación (RRATE, ingreso promedio por habitación usada por noche) y el numero de habitaciones (ROOMS, número de habitaciones en la cadena de hoteles). a) Ocupación (OCCUP) Probablemente esté relacionada con medidas generales de la economía, tal como la tasa de desempleo o las tasas de interés. Puesto que la ocupación parece mostrar una tendencia creciente, puede ser necesario considerar una variable de tendencia en el modelo.

113

75.0

72.5

ocupacion

70.0

67.5

65.0 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000

set trend = T+10

;*creamos la variable de tendencia que comienza en T=10

linreg occup # constant unemp trend Dependent Variable OCCUP - Estimation by Least Squares Annual Data From 1990:01 To 2000:01 Usable Observations 11 Degrees of Freedom 8 Centered R**2 0.831986 R Bar **2 0.789983 Uncentered R**2 0.999773 T x R**2 10.997 Mean of Dependent Variable 70.009090909 Std Error of Dependent Variable 2.703499416 Standard Error of Estimate 1.238949965 Sum of Squared Residuals 12.279976126 Regression F(2,8) 19.8076 Significance Level of F 0.00079686 Durbin-Watson Statistic 1.556777 Q(2-0) 4.357484 Significance Level of Q 0.11318385 Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant 69.09285968 2.38288933 28.99541 0.00000000 2. UNEMP -1.85418223 0.38522907 -4.81319 0.00133289 3. TREND 0.78418817 0.13406162 5.84946 0.00038301

Se aprecia una relación inversa entre desempleo y ocupación de habitaciones (como se esperaría), y la relación positiva de la entre la tendencia y la ocupación. En este punto existen 3 posibilidades. Hacer una predicción del desempleo y usar la regresión anterior para predecir la ocupación de habitaciones, pero esto sería un error, ya que se estará usando un coeficiente de 1.85 inapropiado. Hacer una predicción del desempleo y regresionar éste contra la ocupación. En este caso el coeficiente de pendiente debe ser menor a 1.85 anterior, lo que sería correcto. Utilizar una especificación que incluya información rezagada de las variables para efectos de predicción (esto es, una especificación AR). Esto es lo que hacemos ahora, de modo que eliminamos la tendencia, pues en general esto es efectuado cuando se tiene la variable dependiente rezagada como regresor.

-

-

114

Incorporamos también la tasa de interés de corto plazo (Commercial Paper Rate) en la estimación: linreg occup # constant occup{1} unemp{1} CPR{1} Dependent Variable OCCUP - Estimation by Least Squares Annual Data From 1991:01 To 2000:01 Usable Observations 10 Degrees of Freedom 6 Centered R**2 0.889881 R Bar **2 0.834822 Uncentered R**2 0.999842 T x R**2 9.998 Mean of Dependent Variable 70.160000000 Std Error of Dependent Variable 2.800476150 Standard Error of Estimate 1.138173393 Sum of Squared Residuals 7.7726320399 Regression F(3,6) 16.1622 Significance Level of F 0.00279761 Durbin-Watson Statistic 2.192634 Q(2-0) 0.204677 Significance Level of Q 0.90272401 Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant -0.50974687 11.39771250 -0.04472 0.96577892 2. OCCUP{1} 0.99297981 0.15414909 6.44168 0.00066234 3. UNEMP{1} 1.04981185 0.36579000 2.86999 0.02842764 4. CPR{1} -0.72478497 0.20525292 -3.53118 0.01235006 ;* para efectos de predicción, usamos la instrucción PRJ

CLEAR f_occup PRJ f_occup 1 15 print / f_occup ENTRY 1991:01 1992:01 1993:01 1994:01 1995:01 1996:01 1997:01 1998:01 1999:01 2000:01 2001:01 F_OCCUP 67.058108018077 68.907330838226 72.173630332041 68.831708077291 66.036092674233 68.766644370592 71.616023579196 73.480302503615 73.776491989580 70.953667617313 69.034366211144

Así, la predicción de la ocupación para el año 2001 es de 69.034. Podemos también hacer un gráfico. GRAPH(KEY=LORIGHT,patterns) 2 # occup # f_occup

115

75.0

72.5

70.0

67.5

OCCUP F_OCCUP

65.0 1990 1992 1994 1996 1998 2000

b) Ingreso por Habitación (Room Rate) Puesto que la variable está medida en dólares, existirá un impacto por la inflación, de modo que se requiere el uso de logaritmos. set lrrate = Log(rrate) set lpgnp = log(pgnp)

;* el deflactor del Producto

linreg lrrate # constant lrrate{1} lpgnp{1} Dependent Variable LRRATE - Estimation by Least Squares Annual Data From 1991:01 To 2000:01 Usable Observations 10 Degrees of Freedom 7 Centered R**2 0.991140 R Bar **2 0.988609 Uncentered R**2 0.999935 T x R**2 9.999 Mean of Dependent Variable 3.1164193336 Std Error of Dependent Variable 0.2825740486 Standard Error of Estimate 0.0301587226 Sum of Squared Residuals 0.0063668398 Regression F(2,7) 391.5492 Significance Level of F 0.00000007 Durbin-Watson Statistic 2.657798 Q(2-0) 2.258020 Significance Level of Q 0.32335314 Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant -1.191833107 0.629334730 -1.89380 0.10011477 2. LRRATE{1} 0.864638285 0.207403632 4.16887 0.00419507 3. LPGNP{1} 0.352800218 0.257697815 1.36905 0.21329312

El coeficiente de la serie LPGNP es muy bajo y tiene un alto error, sin embargo tiene sentido que puesto que los ingresos se mueven con la inflación, el valor rezagado de ésta sea un buen predictor de de los ingresos futuros, de modo que aceptamos esta especificación.

116

CLEAR f_lrrate PRJ f_lrrate 1 15 set f_lrrate = exp(f_lrrate) print / f_lrrate ENTRY 1991:01 1992:01 1993:01 1994:01 1995:01 1996:01 1997:01 1998:01 1999:01 2000:01 2001:01 F_LRRATE 16.021944517727 17.156882296938 17.742081756631 18.794488992671 20.067950149320 23.099273216228 24.789089494294 27.631623379875 31.541435959543 37.290545699729 42.634378537592

GRAPH(KEY=LORIGHT, patterns) 2 # rrate # f_lrrate
45

40

35

30

25

20

RRATE F_LRRATE

15 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001

c) Numero de Habitaciones set lrooms = log(rooms) set lrgnp = log(gnp/pgnp) linreg lrooms # constant lrooms{1} lrgnp{1} Dependent Variable LROOMS - Estimation by Least Squares Annual Data From 1991:01 To 2000:01 Usable Observations 10 Degrees of Freedom 7 Centered R**2 0.985239 R Bar **2 0.981021 Uncentered R**2 0.999998 T x R**2 10.000

117

Mean of Dependent Variable 12.481351862 Std Error of Dependent Variable 0.132777430 Standard Error of Estimate 0.018291881 Sum of Squared Residuals 0.0023421504 Regression F(2,7) 233.6069 Significance Level of F 0.00000039 Durbin-Watson Statistic 1.050706 Q(2-0) 3.512028 Significance Level of Q 0.17273200 Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant 3.6654439783 0.7203400626 5.08849 0.00141755 2. LROOMS{1} 0.6680886710 0.0818484806 8.16251 0.00008015 3. LRGNP{1} 0.2018336631 0.1374796605 1.46810 0.18552288

CLEAR f_lrooms PRJ f_lrooms 1 15 set f_rooms = exp(f_lrooms) print / f_rooms ENTRY 1991:01 1992:01 1993:01 1994:01 1995:01 1996:01 1997:01 1998:01 1999:01 2000:01 2001:01 F_ROOMS 204582.73564693 221853.54243117 239517.58209647 260808.82240341 274511.45380586 279291.78845106 284389.71711207 288083.79274196 296048.94797308 304657.94021712 309571.53376181

GRAPH(KEY=LORIGHT, patterns) 2 # rooms # f_rooms

118

325000

300000

275000

250000

225000

200000

ROOMS F_ROOMS

175000 1990 1992 1994 1996 1998 2000

Ahora, obtenemos la predicción final para el año 2000: set revf = (f_occup/100)*(365*f_lrrate/1000000)*f_rooms print / f_occup f_lrrate f_rooms revf

ENTRY 1991:01 1992:01 1993:01 1994:01 1995:01 1996:01 1997:01 1998:01 1999:01 2000:01 2001:01

F_OCCUP 67.058108018077 68.907330838226 72.173630332041 68.831708077291 66.036092674233 68.766644370592 71.616023579196 73.480302503615 73.776491989580 70.953667617313 69.034366211144

F_LRRATE 16.021944517727 17.156882296938 17.742081756631 18.794488992671 20.067950149320 23.099273216228 24.789089494294 27.631623379875 31.541435959543 37.290545699729 42.634378537592

F_ROOMS 204582.73564693 221853.54243117 239517.58209647 260808.82240341 274511.45380586 279291.78845106 284389.71711207 288083.79274196 296048.94797308 304657.94021712 309571.53376181

REVF 802.2844331911 957.3330043111 1119.4723989623 1231.4994198736 1327.8154454047 1619.2994920306 1842.7971527945 2134.9564814594 2514.5243688049 2942.2458158259 3325.6700722267

119

5.2. VARIABLES DUMMY (BINARIAS)
Son variables que sólo pueden tomar dos valores, en particular los valores 0 y 1. Son usadas principalmente para indicar ausencia o presencia de un atributo o evento. Ejemplos típicos son del uso de estas variables son para: Identificar variables cualitativas: hombres versus mujeres, personas sanas versus enfermas, si se habita una casa de más de 100 metros 2 o menos, etcétera. Identificar distintos periodos: periodos de auge versus periodos de recesión, periodos de control del tipo de cambio o no, etcétera.

-

Cuando existan 3 grupos, puede usarse 2 variables dummies para identificarlos. En efecto, si las familias son clasificados en ingresos bajos, medios y altos, D1 = 1 puede identificar el primer grupo y D2 = 1 el segundo grupo, mientras que el tercer grupo será identificado cuando D1 y D2 sean cero. Es decir, se requieren i-1 variables dummies para identificar i grupos. Anteriormente, en la sección 1.7.3. mostramos la forma operacional de construir variables dummies en RATS. APLICACIONES Entre los principales usos prácticos de las variables dummies en econometría se encuentran: a) Determinar diferencias de interceptos y pendientes entre regresiones, lo que puede hacerse por separado o simultáneamente. En este último caso se trata de una prueba de cambio estructural. b) Cálculo de medias, lo que permite estimar, por ejemplo, la existencia de efectos estacionales. Analicemos a continuación cada uno de éstos usos.

120

5.2.1. DIFERENCIAS ENTRE INTERCEPTOS
Ejemplo: Se tiene información de remuneraciones, y del sexo y estado civil de los trabajadores: 1.- Sexo 2.- Est. civil (combinaciones válidas para D1,D2 son: 1,0 ; 0,1 y 0,0 D1 = = D2 = = D3 = = 1 0 1 0 1 0 si masculino otro si casado otro si divorciado otro
DIVORCED=1 si divorciado; 0 si soltero o casado 0 0 1 1 0 0 0 1 1 0

Remuneracion 200 300 180 250 220 210 280 170 270 290

MALE=1 si hombre y 0 si mujer 1 1 1 1 1 0 0 0 0 0

MARRIED=1 si casado; 0 si divorciado o soltero 1 1 0 0 0 1 1 0 0 0

Remuneración media de: mujeres = 244 hombres = 230

121

a) Si una dummy es la única variable independente, o alternativamente, X es la misma para ambos grupos (es decir ambos grupos tienen igual pendientes):

ambas ecuaciones pueden ser combinadas en:

OLS estima b1 y b2 tal que: b1 = la media de (salario) para los valores D=0 (mujeres) b1 + b2 = la media de (salario) para los valores de D=1 (hombres) linreg y # constant d1 Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant 244.0000000 22.0907220 11.04536 0.00000402 2. D1 -14.0000000 31.2409987 -0.44813 0.66594768

Nota: Si X no es igual para ambos grupos, no se verificará el resultado anterior. Aquí implícitamente se está asumiendo que ambas regresiones tienen los mismos coeficientes de pendientes. Si hay más grupos se debe introducir más dummies. Por ejemplo para tres grupos se introducen 2 dummies:

122

5.2.2. DIFERENCIAS CONJUTAS: PENDIENTES E INTERCEPTOS

se puede escribir:

Para tres grupos:

123

Ejemplo:

Anteriormente, en la sección 3.9. (Tabla 3.xls) efectuamos una prueba de cambio estructural en base al test de Chow. Ahora veamos la forma de efectuar esto a través de variables dummies: set D * 9 = 1.0 set D 10 * = 0.0 print / ENTRY 1946:01 1947:01 1948:01 1949:01 1950:01 1951:01 1952:01 1953:01 1954:01 1955:01 1956:01 1957:01 1958:01 1959:01 1960:01 1961:01 1962:01 1963:01

;* creamos la variable dummy

;* verificamos el resultado AHORRO 0.3600000000000 0.2100000000000 0.0800000000000 0.2000000000000 0.1000000000000 0.1200000000000 0.4100000000000 0.5000000000000 0.4300000000000 0.5900000000000 0.9000000000000 0.9500000000000 0.8200000000000 1.0400000000000 1.5300000000000 1.9400000000000 1.7500000000000 1.9900000000000 INGRESO 8.800000000000 9.400000000000 10.000000000000 10.600000000000 11.000000000000 11.900000000000 12.700000000000 13.500000000000 14.300000000000 15.500000000000 16.700000000000 17.700000000000 18.600000000000 19.700000000000 21.100000000000 22.800000000000 23.900000000000 25.200000000000 D 1.0000000000000 1.0000000000000 1.0000000000000 1.0000000000000 1.0000000000000 1.0000000000000 1.0000000000000 1.0000000000000 1.0000000000000 0.0000000000000 0.0000000000000 0.0000000000000 0.0000000000000 0.0000000000000 0.0000000000000 0.0000000000000 0.0000000000000 0.0000000000000

set DX = ingreso*D

;* creamos la serie que medirá el cambio de pendientes

124

linreg ahorro # constant D ingreso DX Dependent Variable AHORRO - Estimation by Least Squares Annual Data From 1946:01 To 1963:01 Usable Observations 18 Degrees of Freedom 14 Centered R**2 0.952626 R Bar **2 0.942475 Uncentered R**2 0.981294 T x R**2 17.663 Mean of Dependent Variable 0.7733333333 Std Error of Dependent Variable 0.6428063472 Standard Error of Estimate 0.1541731575 Sum of Squared Residuals 0.3327710750 Regression F(3,14) 93.8411 Significance Level of F 0.00000000 Durbin-Watson Statistic 1.468099 Q(4-0) 7.115020 Significance Level of Q 0.12993335 Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant -1.750172085 0.331888275 -5.27338 0.00011773 2. D 1.483922674 0.470362072 3.15485 0.00702357 3. INGRESO 0.150450048 0.016285695 9.23817 0.00000025 4. DX -0.103422214 0.033260387 -3.10947 0.00768641 ;* puesto que todos los coeficientes son significativamente diferentes de cero, entonces, al igual que en el test de Chow, encontramos evidencia de cambio estructural.

125

5.2.3. VARIABLES DUMMIES EN EL CÁLCULO DE MEDIAS
Si en un modelo de regresión debe clasificarse una serie de observaciones de acuerdo a cierto número de características, y se define una variable para cada una de estas características, entonces el modelo de regresión sin intercepto dado por:

Yt = β1 D1 + β 2 D2 + β 3 D3 + ... + β k Dk + et
tiene la propiedad que cada coeficiente de pendientes es la media de la serie respecto solamente a las observaciones que contienen el atributo capturado cada variable dummy D. En particular, β1 es la media de la serie en las observaciones en que D1=1, y así respectivamente para cada coeficiente. Ejemplo: Si tenemos datos diarios de los rendimientos de un índice accionario (por ejemplo el IGPA en Chile), podemos identificar los días de la semana a que corresponden cada uno de ellos con una variable dummy respectivamente:
Rendimiento IGPA lunes 1 2 3 4 Etc. 0.23 0.33 0.12 0.47 0 0 0 0

Obs

Martes 1 0 0 0

miércoles 0 1 0 0

Jueves 0 0 1 0

viernes 0 0 0 0

Es decir el rendimiento 0.23 corresponde al día martes, 0.33 al día miércoles, etcétera. Si se corre el modelo de regresión

Yt = β1 D1 + β 2 D2 + β 3 D3 + β 4 D4 + β 5 D5 + et

para D1 = lunes, D2=martes, etcétera, se tendrá en el coeficiente β1 el rendimiento medio de los días lunes, en β2 el rendimiento medio de los días martes, etcétera. En un estudio33 usamos el siguiente modelo para analizar los diferentes efectos estacionales:

Ejemplo:

Rit =

∑β
k

k

δ kt + ε it

donde: Rit = retorno real anual del PRBCi (Pagaré Reajustable del Banco Central de Chile) en el día t. El rendimiento es asumido estacionario. δkt = variable dummy que toma el valor δk = 1 si la observación t pertenece al evento k, y δk= 0 en cualquier otro caso. Por ejemplo δ1 =1 identifica un día lunes para el efecto día de la semana, y δ3 =1 identifica a marzo para el efecto mes del año, etcétera. βk = es el coeficiente de la variable dummy, y corresponde al retorno medio de cada evento k εit = son los errores, que se asumen independiente e idénticamente distribuidos. LINREG REAL ;* REAL es la serie con rendimientos reales de los PRBC # LUN MAR MIE JUE VIE ;* LUN, MAR, MIE,... son las variables dummy de cada día de la semana.
33 “Efectos Estacionales y Relación Volumen-Rendimiento en los Pagarés Reajustables del Banco Central de Chile” (2001). Revista Economía Chilena, del Banco Central de Chile. Volumen 4 Número 1. abril, 2001.

126

.... (omitimos parte de los resultados)

Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. LUN 0.0473724622 0.0002052119 230.84655 0.00000000 2. MAR 0.0549598342 0.0002346503 234.22013 0.00000000 3. MIE 0.0567839668 0.0002498271 227.29308 0.00000000 4. JUE 0.0503303643 0.0002144062 234.74302 0.00000000 5. VIE 0.0389386377 0.0002242214 173.66157 0.00000000 ;* los resultados son altamente significativos. Podemos verificar si efectivamente 0.0389386377 en el rendimiento promedio de los días viernes: SET(scratch) RRAA = VIE==1.0 STAT(SMPL=RRAA) REAL Statistics on Series REAL Observations 20480 (102525 Total - 82045 Skipped/Missing) Sample Mean 0.03893863770 Variance 0.001120 Standard Error 0.03346886012 SE of Sample Mean 0.000234 t-Statistic 166.49638 Signif Level (Mean=0) 0.00000000 Skewness -1.28768 Signif Level (Sk=0) 0.00000000 Kurtosis 4.44570 Signif Level (Ku=0) 0.00000000 ;* luego, el resultado es correcto para el día viernes. Para probar la hipótesis que los rendimientos de los PRBC son iguales a través de los días de la semana (efecto día de la semana), Ho: βlunes = βmartes = βmiércoles = βjueves = βviernes Note que Ho puede escribirse como las siguientes diferencias simultáneas del siguiente modo: ;* creamos la serie RRAA que identifica los días viernes

βlunes - βmartes = 0 βlunes - βmiércoles = 0 βlunes - βjueves = 0 βlunes - βviernes = 0
de modo que la instrucción RESTRICT para implementar el test de Wald es: RESTR # 1 2 # 1.0 # 1 3 # 1.0 # 1 4 # 1.0 # 1 5 # 1.0 4 -1.0 0.0 -1.0 0.0 -1.0 0.0 -1.0 0.0

F(4,102520)= 931.36287 with Significance Level 0.00000000 ;* luego, la hipótesis es rechazada ampliamente en favor de rendimientos diferentes a través de los días de la semana.

127

Términos de Interacción (Greene, pag 124)

Gujarati:

128

Woodrigde (Introductory econometrics)

129

5.3. ERROR EN LAS VARIABLES: INSTRUMENTOS
Existen muchos casos en que alguna de las variables X no puede ser observada directamente. En este caso se asume que existe un modelo que explica X en función de un número de otras variables. Si este es el caso, se generan dos tipos de problemas: en primer lugar X ya no es fija, sino que es estocástica (regresores estocásticos), y segundo, X es medida con error (existe error de medición o error en las variables). Hemos dicho anteriormente que cuando los regresores son estocásticos o existe error de medición, generalmente se viola el supuesto de independencia de los errores con los regresores del modelo de regresión, lo que genera estimadores sesgados inconsistentes a través de MCO, por lo que éste no es el método apropiado. Nótese que este problema también ocurre en los modelos de series de tiempo tipo AR en que existe como variable explicativa una variable dependiente rezagada (Yt-1). Existen casos en un modelo de regresión múltiple en que el coeficiente de la variable medida con error no es de interés, por lo que uno podría plantearse simplemente el excluirla. Sin embargo es recomendado el uso de variables proxies (aquellas medidas con error) para mantener la especificación del modelo, pues la omisión de variables relevantes puede introducir sesgos en los estimadores restantes.

5.3.1. VARIABLES INSTRUMENTALES
La metodología estándar para trabajar con este problema es el uso de variables instrumentales, es decir aquellas que explican a las variables medidas con error, las que deben cumplir con el requisito de no estar correlacionadas con el error, pero estar altamente correlacionadas con las variable exógenas. Bajo estas condiciones, el estimador de variables instrumentales es consistente en el límite, sin embargo no necesariamente es el óptimo, pues pueden existir otros instrumentos con mejor comportamiento. Note también que el uso de muchos instrumentos consume observaciones (grados de libertad). Si el modelo que se desea estimar es

Y = β 0 + β1 X + ε
sin embargo X no es conocida, aunque puede estimarse con error usando las variables Z1 y Z2, es decir:

X * = α 0 + α 1 Z1 + α 2 Z 2 + ν

(1)

en que X* es una variable proxy de X, y Z es un instrumento. Ahora el modelo original puede ser reescrito como:

Y = β + α1 β 1 Z1 + α 2 β 1 Z 2 + ε

(2)

Así, este problema puede ser reescrito como uno resolución de las dos ecuaciones (1) y (2) simultáneamente. El procedimiento de resolución es llamado mínimos cuadrados en dos etapas (MC2E)34, que consiste en: Paso 1: estimar (1) y guardar la proyección de X. Paso 2: estimar (2) usando la proyección de X anterior.

34

Este procedimiento será utilizado nuevamente en el capítulo 7.

130

5.3.2. ESTIMACION CON INSTRUMENTOS EN RATS
Veamos la forma de implementar la estimación con instrumentos a través de un ejemplo: Ejemplo: Se tiene Y que depende linealmente de X1 y X2. Para la estimación se dispone de los instrumentos Z2 y Z3, como sigue: all 15 data(unit=input,org=obs) / z2 z3 x1 y x2 ... Ver datos en Tabla 7 en el Anexo al final del libro

;* primero efectuamos la estimación paso a paso: linreg(noprint) x1 # constant z2 z3 set x1proj = %beta(1)+%beta(2)*z2+%beta(3)*z3

;* es la proyección de X1 con los instrumentos ( más la constante)

linreg(noprint) x2 # constant z2 z3 set x2proj = %beta(1)+%beta(2)*z2+%beta(3)*z3 linreg y

;* es la proyección de X2

;* la estimación de Y explicada por las proyecciones de X1 y X2.

# constant x1proj x2proj .... Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant -9.5254068 140.9144517 -0.06760 0.94721962 2. X1PROJ 1.3812338 4.1226353 0.33504 0.74338143 3. X2PROJ 0.1883198 1.4222343 0.13241 0.89685339

;* el procedimiento directo en RATS es: INSTRUMENTS constant z2 z3 linreg(INST) y # constant x1 x2 ;* se definen los instrumentos ;* se incluye la opción INSTRUMENTS

Dependent Variable Y - Estimation by Instrumental Variables Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant -9.5254037 206.5547325 -0.04612 0.96397664 2. X1 1.3812337 6.0430269 0.22857 0.82305454 3. X2 0.1883197 2.0847346 0.09033 0.92951311 ;* de modo que verificamos los resultados previos.

Veamos otro ejemplo: Ejemplo: Se tiene un modelo de Producción (PIB) y de Oferta de dinero (M) en EEUU, el siguiente modo: PIB = c(1) + c(2)INV + c(3)G M = d(1) + d(2)PIB

131

donde INV = inversión G = Gasto público

all 22 cal 1970 1 1 data(unit=input, org=obs) / PIB OFMONET INVERS GASTO ... Ver datos en Tabla 8 en el Anexo al final del libro

linreg(noprint) PIB # constant INVERS GASTO set PIBPROY / = %beta(1) + %beta(2)*INVERS + %beta(3)*GASTO linreg OFMONET # constant PIBPROY ... Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant 34.579992282 31.575674053 1.09515 0.28646603 2. YY1 0.614403781 0.009369757 65.57307 0.00000000 ;* los errores estándar de los coeficientes deben ser corregidos (no lo hacemos) ;* la estimación directa usando variables instrumentales es la siguiente: INSTRUMENTS constant INVERS GASTO LINREG(INST) OFMONET # constant PIB

Dependent Variable OFMONET - Estimation by Instrumental Variables Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant 34.579992282 30.541557165 1.13223 0.27093139 2. PIB 0.614403781 0.009062894 67.79333 0.00000000 ;* los errores estándar ya salen corregidos.

5.3.3. EL ESTIMADOR DE VARIABLES INSTRUMENTALES
a) En el modelo lineal:

Y = Xβ + e,

E[Z ' e] = 0
−1

es decir con instrumentos independientes de los

errores, puede mostrarse que el estimador de V. Instrumentales es el de MC en 2 etapas dado por:

b ≈ N X ' ZW −1 Z ' X
donde por default

[(

) (X ' ZW

−1

Z 'Y

)

, s 2 X ' ZW −1 Z ' X

(

)

−1

]

W −1 = ( Z ' Z ) −1 , aunque esta matriz puede modificarse con la opción WMATRIX para

generalizar y controlar el procedimiento.

132

Operacionalmente, debe existir a lo menos tantos instrumentos como parámetros a estimar, de lo contrario el modelo puede resultar subidentificado (por ejemplo si se tienen que estimar 3 parámetros con solamente 2 instrumentos). b) En el caso de regresiones no-lineales (por ejemplo modelos AR y Mínimos Cuadrados no lineales):

Y = f ( X , β ) + e, E[Z ' e] = 0
−1 ⎡ ⎛ ⎛ ∂e ⎞ ⎞ ⎤ −1 2 ⎛ ∂e ⎞ −1 ⎥ b ≈ N ⎢min (e' ZW Z ' e ) , s ⎜ ⎜ ∂β ⎟ ⎟⎟ ⎜ ∂β ⎟ ⎟' ZW Z ' ⎜ ⎜⎜ ⎟ ⎥ β ⎢ ⎝ ⎠ ⎝ ⎠ ⎝ ⎠ ⎦ ⎣

133

CAPITULO 6 MODELOS NO LINEALES

6.1. INTRODUCCION A LOS METODOS ITERATIVOS: LA INSTRUCCION FIND
Existen problemas en que no es posible obtener una solución exacta (cerrada) para el máximo o mínimo de un modelo, sino que esto se debe lograr a través de un proceso iterativo. Este es el caso, por ejemplo, cuando se desea encontrar los valores de X que permiten la maximización / minimización de los polinomios en una variable35. Cuando el polinomio es de un grado superior, entonces probablemente se encuentren solamente óptimos locales (no globales). En RATS, encontrar óptimos de funciones de 1 sola variable puede hacerse con la instrucción FIND, la que aplica un algoritmo sofisticado del tipo Simplex, que no requiere calcular derivadas. La estructura de ésta instrucción es la siguiente: FIND MAXIMUM/MINIMUM {instrucciones} END FIND expresion

donde MAX o MIN indica si se busca un máximo o mínimo local de la expresión, instrucciones son un listado de operaciones que se desea efectuar mientras se desarrolla la búsqueda (si no se desean resultados intermedios, use dos llaves { } ), y END FIND establece el término de la instrucción de búsqueda FIND. Antes de usar FIND debe tenerse en cuenta que se requiere: especificar los parámetros libres, usando la instrucción NONLIN definir el valor inicial para los parámetros libres anteriores, usando COMPUTE (también con INPUT). Idealmente el valor que aquí se asigne debe ser cercano al óptimo para facilitar así la búsqueda.

-

Veamos su funcionamiento a través de un ejemplo:

Ejemplo:

Encontrar el mínimo de la parábola y = x**2 + x + 3 nonlin x ;* establece que el parámetro libre es x compute x=1.0 ;* define el valor inicial de x=1.0 find min x**2+x+3 ;* se busca un mínimo de la expresión dis 'el valor de x es =' x ;* se desea ver el resultado de x en cada iteración end find

35

Como una excepción, cuando se trata de un polinomio de 2º grado, en general es posible encontrar el óptimo global de forma cerrada derivando el polinomio respecto a X e igualando a cero.

134

el el el el el el el el el el el el el el el el el el el el el el el el el el el el el el el el el el el el el el el el el el el el el

valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor valor

de de de de de de de de de de de de de de de de de de de de de de de de de de de de de de de de de de de de de de de de de de de de de

x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x

es es es es es es es es es es es es es es es es es es es es es es es es es es es es es es es es es es es es es es es es es es es es es

= = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = =

1.00000 0.90000 0.80000 0.70000 0.50000 0.30000 -0.10000 -0.50000 -1.30000 -0.10000 -0.90000 -0.30000 -0.70000 -0.40000 -0.60000 -0.45000 -0.55000 -0.47500 -0.52500 -0.48750 -0.51250 -0.49375 -0.50625 -0.49688 -0.50313 -0.49844 -0.50156 -0.49922 -0.50078 -0.49961 -0.50039 -0.49980 -0.50020 -0.49990 -0.50000 -0.50010 -0.49990 -0.50005 -0.49995 -0.50002 -0.49998 -0.50001 -0.49999 -0.50001 -0.50000

Estimation by Simplex Variable Coeff ***************************************** 1. X -0.500000000 ;* el resultado del algoritmo de búsqueda arroja un valor x=-0.5. Puesto que se trata de una parábola, puede mostrarse que éste es un mínimo global. Cuando se trata de polinomios de grados mayores a 2, pueden existir varios mínimos o máximos locales, por lo que es difícil encontrar el óptimo global, el que eventualmente puede no existir.

135

Ejemplo:

Encontrar el mínimo del polinomio y = x**4 - 2*x**2 + 2. nonlin x compute x=-10.0 ;* se indica como valor inicial x=-10.0 find min x**4-2*x**2+2 { } end find Estimation by Simplex Variable Coeff ***************************************** 1. X 1.0000000000 ;* sin embargo puede mostrarse a través de un gráfico de la función en el rango –2.0<x<+2.0, que existen 2 mínimos locales, uno en –1.0 y otro en +1.0. all 40 ;* hacemos un grafico de 40 puntos set x 1 1 = -2.0 do i=2,100 set x i i = x(i-1)+0.1 ;* creamos la serie x que parte desde –2 con incrementos de 0.1 enddo set y = x**4-2*x**2+2 scat 1 # x y

10

9

8

7

6

5

4

3

2

1 -2 -1 0 1 2

;* luego, si bien existen 2 mínimos, FIND encuentra solamente uno de ellos.

Así, para las funciones complejas y tienen un gran número de óptimos locales, y los algoritmos de iteración nos arrojan solamente algunos de ellos, dependiendo de los valores iniciales de búsqueda que entreguemos, en circunstancias que puede existir alguno óptimo local superior, posible de encontrar indicando valores de búsqueda distintos.

136

6.2. MINIMIZACION DE LA SUMA CUADRADOS DE ERRORES
En econometría, la búsqueda de los coeficientes estimados de un modelo de regresión generalmente requiere minimizar la suma cuadrada de errores, por lo que ésta es la función objetivo36. Veamos como esto es posible a través de la instrucción FIND, para lo cual requerimos que exista solamente 1 incógnita, es decir, la función objetivo debe ser función de un solo parámetro o incógnita. Ejemplo: Encontrar el valor de beta que ajusta mejor la ecuación las observaciones que siguen.

Y = βX 1 + β 2 X 2 + ε

a

Sabemos que encontrar el mejor ajuste debemos minimizar la distancia entre los datos de Y observados y los datos de Y predichos por el modelo, es decir minimizar la suma cuadrada de errores:

MIN
{β }

SCErr = ∑ βX 1t + β 2 X 2t − Yt
t =1

t =T

(

)

2

ALLOCATE 20 DATA(UNIT=INPUT,ORG=OBS) / y x1 x2 ... Ver datos en tabla 10 en el Anexo al final del libro nonlin B compute B=-3.0 ;* definimos por B el coeficiente a estimar ;* el valor inicial

;* la siguiente es la función objetivo, la que debe minimizarse: FIND min (b*x1(1) + b**2*x2(1) - Y(1))**2 + $ (b*x1(2) + b**2*x2(2) - Y(2))**2 + $ (b*x1(3) + b**2*x2(3) - Y(3))**2 + $ (b*x1(4) + b**2*x2(4) - Y(4))**2 + $ (b*x1(5) + b**2*x2(5) - Y(5))**2 + $ (b*x1(6) + b**2*x2(6) - Y(6))**2 + $ (b*x1(7) + b**2*x2(7) - Y(7))**2 + $ (b*x1(8) + b**2*x2(8) - Y(8))**2 + $ (b*x1(9) + b**2*x2(9) - Y(9))**2 + $ (b*x1(10) + b**2*x2(10) - Y(10))**2 + $ (b*x1(11) + b**2*x2(11) - Y(11))**2 + $ (b*x1(12) + b**2*x2(12) - Y(12))**2 + $ (b*x1(13) + b**2*x2(13) - Y(13))**2 + $ (b*x1(14) + b**2*x2(14) - Y(14))**2 + $ (b*x1(15) + b**2*x2(15) - Y(15))**2 + $ (b*x1(16) + b**2*x2(16) - Y(16))**2 + $ (b*x1(17) + b**2*x2(17) - Y(17))**2 + $ (b*x1(18) + b**2*x2(18) - Y(18))**2 + $ (b*x1(19) + b**2*x2(19) - Y(19))**2 + $ (b*x1(20) + b**2*x2(20) - Y(20))**2 { } end find Estimation by Simplex Variable Coeff ***************************************** 1. B -2.029504395

36

Alternativamente, como veremos más adelante, en algunos casos puede intentar maximizar la función de verosimilitud.

137

* el resultado es B=-2.0295, sin embargo al variar el valor de búsqueda inicial de B=-3.0 a B=1.0 se tiene un resultado distinto: Variable Coeff ***************************************** 1. B 1.1612060547 Luego, puesto que se tienen dos soluciones, en principio no sabemos cuál es mejor, ni tampoco si existen otras soluciones al intentar con otros valores iniciales. Una estrategia sería reemplazar cada valor estimado de B en la SCErr para analizar cuál de ellas logra un menor valor de la función objetivo (esto no es necesario, pues como veremos, la instrucción NLLS reportará el resultado buscado). Sin embargo lo que concluimos aquí es que la solución de este tipo de modelos es generalmente muy sensible a los valores iniciales. También, que excepcionalmente es posible incluso que el algoritmo no encuentre una solución para determinados valores iniciales, esto es, no converja.

6.3. MINIMOS CUADRADOS NO LINEALES
A continuación veremos que las estimaciones anteriores pueden hacerse muy fácilmente en RATS a través de la instrucción NLLS, la que puede implementarse para modelos en los que existen varios parámetros o incógnitas a estimar, es decir sin la limitación de la instrucción FIND, que solamente puede hacerlo para 1 parámetro.

6.3.1. LA ESTIMACION POR MINIMOS CUADRADOS NO LINEALES
Al igual que para el caso de un modelo lineal, para el ajuste de un modelo de regresión no lineal la función objetivo es la suma cuadrada de errores (SCErrores), y se debe encontrar el valor de los parámetros β que minimizan esta suma, es decir:

min ∑ et2
β
t =1

T

donde et = f(yt,Xt,β)

Sabemos que el procedimiento de optimización clásico consiste en igualar las derivadas a cero y despejar el valor de los coeficientes que cumplen esta igualdad, lo que es complejo y muchas veces imposible, por lo cual resulta conveniente implementar un procedimiento iterativo. En econometría es común utilizar el algoritmo iterativo de Gauss-Newton37 consistente en linealizar et alrededor de β* (una estimación inicial de β): La expansión de Taylor de f(X,β) alrededor de β* es:

⎡ ∂f ( X , β ) ⎤ f ( X , β ) ≈ f ( X , β *) + ⎢ ⎥ (β − β *) ⎣ ∂β * ⎦
sustituyendo en

y = f (X , β ) + e

se tiene:

⎡ ∂f ( X , β ) ⎤ y ≈ f ( X , β *) + ⎢ ⎥ (β − β *) + e ⎣ ∂β * ⎦
37

Entre muchas otras posibilidades existe tambien el método de Newton-Raphson.

138

reordenando:

⎧ ⎡ ∂f ( X , β ) ⎤ ⎫ ⎡ ∂f ( X , β ) ⎤ ⎨ y − f ( X , β *) + ⎢ ⎥β + e ⎥ β *⎬ = ⎢ ⎣ ∂β * ⎦ ⎭ ⎣ ∂β * ⎦ ⎩
es decir, dado un valor inicial para β*, para obtener una segunda estimación, dada por β, se requiere correr una regresión lineal sin intercepto en que la variable dependiente es la serie Y menos una serie que contiene el valor de la función evaluada en β*, más la derivada de la función evaluada en β* y multiplicada por β*. La variable independiente de esta regresión es la derivada de la función evaluada en β*. La regresión anterior entrega una segunda estimación para β, en un proceso que continúa iterativamente hasta llegar a que la diferencia entre el último β y el anterior sea menor que un número pequeño.

Ejemplo:

Si tratamos de ajustar el modelo: y = b*x1 + b**2*x2, la derivada es: x1 + 2*b*x2 (ver datos en la Tabla 10 del Anexo al final del libro) ;* supongamos que el valor de búsqueda inicial es b=4.0. La primera iteración será sobre las siguientes variables del modelo: ;* la primera iteración es: set yy = y - (4*x1+4**2*x2) + (x1+2*4*x2)*4 set xx = x1 + 2*4*x2 linreg yy # xx ... Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. XX 2.0322393822 0.0640188937 31.74437 0.00000000

* la segunda iteración, usando la estimación anterior (en lugar de b=4.0) será: set yy = y - (%beta(1)*x1+%beta(1)**2*x2) + (x1+2*%beta(1)*x2)*%beta(1) set xx = x1 + 2*%beta(1)*x2 linreg yy # xx ... Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. XX 1.3085620020 0.0922760331 14.18095 0.00000000 * la tercera iteración: set yy = y - (%beta(1)*x1+%beta(1)**2*x2) + (x1+2*%beta(1)*x2)*%beta(1) set xx = x1 + 2*%beta(1)*x2 linreg yy # xx ...

139

Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. XX 1.1696989113 0.1216469642 9.61552 0.00000001 * la cuarta iteración: set yy = y - (%beta(1)*x1+%beta(1)**2*x2) + (x1+2*%beta(1)*x2)*%beta(1) set xx = x1 + 2*%beta(1)*x2 linreg yy # xx ... Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. XX 1.1614449723 0.1301061195 8.92691 0.00000003 * la quinta iteración: set yy = y - (%beta(1)*x1+%beta(1)**2*x2) + (x1+2*%beta(1)*x2)*%beta(1) set xx = x1 + 2*%beta(1)*x2 linreg yy # xx ... Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. XX 1.1612128729 0.1306503067 8.88795 0.00000003 * la sexta iteración: set yy = y - (%beta(1)*x1+%beta(1)**2*x2) + (x1+2*%beta(1)*x2)*%beta(1) set xx = x1 + 2*%beta(1)*x2 linreg yy # xx ... Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. XX 1.1612067917 0.1306656814 8.88685 0.00000003

;* y así sucesivamente, en un proceso iterativo que tiende a converger a un valor cercano a B=1.16

6.3.2. PROPIEDADES DE LOS ESTIMADORES DE MC NO LINEALES
No es posible establecer las propiedades finitas para la gran mayoría de estos modelos no lineales. Recordemos que en el caso lineal, las propiedades MELI-MEI provenían del hecho que existía una relación lineal entre el estimador b y la serie dependiente Y, lo que ahora no ocurre. En conclusión, los estimadores ahora no son MELI-MEI. Sin embargo es posible, bajo ciertas condiciones, encontrar las propiedades asintóticas de los estimadores no lineales, lo que permite mostrar que el estimador de NLLS es consistente, y que:

T (b − β )
lo que se traduce en que

−1 ⎡ X ( β )' X ( β ) ⎫ ⎤ 2⎧ Normal ⎢0, σ ⎨lim ⎬ ⎥ T ⎩ ⎭ ⎦ ⎢ ⎥ ⎣

140

b

Normal β , σ 2 {X ( β )' X ( β )}

[

−1

]

donde puede reemplazarse consistentemente el verdadero error estándar de la estimación por

s2 =

SCErr (b) T −K

6.3.3. MINIMOS CUADRADOS NO LINEALES EN RATS
Para implementar mínimos cuadrados no lineales en RATS se requieren 4 tipos de instrucciones: NONLIN FRML COMPUTE NLLS : : : : que lista los parámetros libres en el modelo (los parámetros a ser estimados) define la fórmula de la función f. asigna los valores iniciales de búsqueda para los parámetros libres efectúa la estimación

La instrucción NLLS tiene la siguiente estructura: NLLS depvar start end residuals coeffs donde depvar es la variable dependiente, start y end son el rango de observaciones sobre la cual se efectuará la estimación, residuals permite almacenar en esta serie los residuos del modelo, y coeffs son las series para los coeficientes. Sea el modelo Y = βX 1 + β X 2 + ε estimado anteriormente con la instrucción FIND. La estimación por MC-no lineales en RATS usando el algoritmo de GaussNewton es:
2

Ejemplo:

ALLOCATE 20 DATA(UNIT=INPUT,ORG=OBS) / y x1 x2 ... NONLIN b FRML yeq y = b*x1 + b**2*x2 COMPUTE b=-3.0 NLLS(FRML=yeq) y Dependent Variable Y - Estimation by Nonlinear Least Squares Iterations Taken 10 Usable Observations 20 Degrees of Freedom 19 Centered R**2 -1.806364 R Bar **2 -1.806364 Uncentered R**2 -0.195977 T x R**2 -3.920 Mean of Dependent Variable 1.1849000000 Std Error of Dependent Variable 1.0476496954 Standard Error of Estimate 1.7550442915 Sum of Squared Residuals 58.523428838 Durbin-Watson Statistic 1.039490 Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. B -2.029497786 0.302390984 -6.71150 0.00000205 Así, el resultado es el mismo al obtenido anteriormente con FIND, y la ecuación estimada es: Y = -2.029*X1 + (-2.029**2)*X2. Deben notarse algunos aspectos antes de seguir adelante: Primero, que el

141

coeficiente R cuadrado es negativo en este ejemplo, lo que es posible en el caso de modelos no lineales. Segundo, que el test F de significancia global no es reportado, pues ya no se trata de una hipótesis lineal. Tercero, que el error estándar y el estadístico t son resultados asintóticos y no exactos como en el caso de un modelo lineal. También, que es posible utilizar la opción TRACE para conocer los resultados de cada una de las iteraciones. Finalmente que, en este ejemplo, al cambiar el valor de búsqueda inicial se tiene una solución distinta, tal como mostramos en el siguiente ejemplo:

Ejemplo:

Para los datos del último ejemplo, cambiemos b=-3.0 por: COMPUTE b=1.0 .... Dependent Variable Y - Estimation by Nonlinear Least Squares Iterations Taken 4 Usable Observations 20 Degrees of Freedom 19 Centered R**2 0.217987 R Bar **2 0.217987 Uncentered R**2 0.666733 T x R**2 13.335 Mean of Dependent Variable 1.1849000000 Std Error of Dependent Variable 1.0476496954 Standard Error of Estimate 0.9264524884 Sum of Squared Residuals 16.307970052 Durbin-Watson Statistic 1.005020 Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. B 1.1612066802 0.1306659641 8.88683 0.00000003

Para saber cual de las 2 regresiones es mejor, podemos comparar el valor de la función objetivo, es decir la Suma Cuadrada de Residuos, la que es 58.5234 para b= -2.029497786, versus 16.30797 para b=1.1612, de modo que la segunda solución es mejor. Un análisis más preciso mostrará que la función objetivo (es decir la SCErr) tiene forma cúbica, de modo que tenemos 3 posibles soluciones, en cuanto a puntos de derivada iguala a cero.

Ejemplo:

Para el ejemplo anterior veamos el comportamiento de la función objetivo entre –3 y 2.5, con incrementos de 0.5: dofor b=-3 -2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5 ;* implementamos un ciclo para diferentes valores de b entre –3 y 2.5 COM SCERR = (b*x1(1) + b**2*x2(1) - Y(1))**2 + $ (b*x1(2) + b**2*x2(2) - Y(2))**2 + $ (b*x1(3) + b**2*x2(3) - Y(3))**2 + $ (b*x1(4) + b**2*x2(4) - Y(4))**2 + $ (b*x1(5) + b**2*x2(5) - Y(5))**2 + $ (b*x1(6) + b**2*x2(6) - Y(6))**2 + $ (b*x1(7) + b**2*x2(7) - Y(7))**2 + $ (b*x1(8) + b**2*x2(8) - Y(8))**2 + $ (b*x1(9) + b**2*x2(9) - Y(9))**2 + $ (b*x1(10) + b**2*x2(10) - Y(10))**2 + $ (b*x1(11) + b**2*x2(11) - Y(11))**2 + $ (b*x1(12) + b**2*x2(12) - Y(12))**2 + $ (b*x1(13) + b**2*x2(13) - Y(13))**2 + $ (b*x1(14) + b**2*x2(14) - Y(14))**2 + $ (b*x1(15) + b**2*x2(15) - Y(15))**2 + $ (b*x1(16) + b**2*x2(16) - Y(16))**2 + $ (b*x1(17) + b**2*x2(17) - Y(17))**2 + $ (b*x1(18) + b**2*x2(18) - Y(18))**2 + $ (b*x1(19) + b**2*x2(19) - Y(19))**2 + $ (b*x1(20) + b**2*x2(20) - Y(20))**2 dis b scerr

142

enddo -3.00000 -2.50000 -2.00000 -1.50000 -1.00000 -0.50000 0.00000 0.50000 1.00000 1.50000 2.00000 2.50000 102.93068 66.14269 58.54386 62.54357 65.93158 61.87807 48.93359 31.02908 17.47588 22.96574 67.57078 176.74353

La columna de la izquierda entrega el valor del coeficiente b, y la columna de la derecha el valor de la función objetivo (la suma cuadrada de errores) evaluada en el valor de b respectivo. Así, en este rango, las soluciones posibles o mínimos, marcados con (*), son en realidad dos: -2.0 y 1.0 Sin duda, la mejor de ellas es 1.0, lo que conforme al resultado del ejemplo anterior, se sabe que el mínimo ocurre cuando b=1.16. Veamos a través de otro ejemplo la estimación de una función de producción COBB-DOUGLAS (JUDGE Pág. 512), en que deben estimarse ahora 3 coeficientes.

Ejemplo:

Se tiene información de 30 empresas respecto a los insumos trabajo (L) y capital (K) requeridos para obtener una determinada producción (Q), de acuerdo a la siguiente relación:

Q = β 0 + β 12 L + β 22 K + ε
ALLOCATE 30 DATA(unit=input,ORG=OBS) / L K Q

Q = β0 ⋅ L

β1

⋅K

β2

... Ver datos en Tabla 2 del Anexo al final del libro.

NONLIN BETA1 BETA2 BETA3 ;* se deben estimar 3 parámetros FRML PROD Q = BETA1 * L**BETA2 * K**BETA3 COMPUTE BETA1=1.0 , BETA2=0.4 , BETA3=0.6 NLLS(FRML=PROD) Q Dependent Variable Q - Estimation by Nonlinear Least Squares Iterations Taken 7 Usable Observations 30 Degrees of Freedom 27 Centered R**2 0.830117 R Bar **2 0.817533 Uncentered R**2 0.930765 T x R**2 27.923 Mean of Dependent Variable 0.3958244667 Std Error of Dependent Variable 0.3339063144 Standard Error of Estimate 0.1426320343 Sum of Squared Residuals 0.5492852243 Durbin-Watson Statistic 1.797571 Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. BETA1 1.3303471333 0.1288803980 10.32234 0.00000000 2. BETA2 0.7228835392 0.1315594774 5.49473 0.00000809 3. BETA3 0.6868843417 0.1148062191 5.98299 0.00000221

143

Luego, obtener una estimación de modelos no lineales es relativamente sencillo en RATS si se tiene alguna idea como ara definir apropiadamente los valore de búsqueda inicial. En la mayoría de los casos esto viene dado por la teoría subyacente al modelo en cuestión. Por último, mostramos a través de un ejemplo como puede replicarse la metodología de corrección un modelo en que los errores son del tipo AR1 (existe autocorrelación de 1º orden) usando NLLS. Recuérdese que este problema es resuelto en RATS a través de la instrucción AR1, lo que implica obtener una estimación del coeficiente de correlación ρ, para luego implementar primeras diferencias generalizadas.

Ejemplo:

all 25 data(unit=input, org=obs) 1 20 y x1 x2 ... Ver datos en Tabla 11 del Anexo al final del libro ;* el primer paso es estimar el coeficiente de correlación (RHO) conjuntamente con los coeficientes del modelo de regresión (B1, B2 y B3) en un esquema de primeras diferencias generalizadas, tal que se minimice la suma cuadrada de los errores, siendo AUTO1 la serie que contiene los errores nonlin RHO B1 B2 B3 FRML AUTO1 = RHO*Y{1}+(1-RHO)*B1+B2*(X1-RHO*X1{1})+B3*(X2-RHO*X2{1}) ;* corremos una regresión lineal para obtener una estimación inicial de los coeficientes de regresión. LINREG(NOPRINT) Y # CONSTANT X1 X2 COM RHO=%RHO, B1=%BETA(1), B2=%BETA(2), B3=%BETA(3) NLLS(FRML=AUTO1) Y Dependent Variable Y - Estimation by Nonlinear Least Squares Iterations Taken 11 Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. RHO 0.5855389068 0.2297214831 2.54891 0.02224608 2. B1 1.5445799940 9.4530837567 0.16339 0.87238910 3. B2 1.7685122942 0.4122989577 4.28939 0.00064543 4. B3 0.7665194888 0.1735539049 4.41661 0.00050001 ;* este resultado puede ser obtenido directamente con la instrucción AR1: AR1 Y # CONSTANT X1 X2 Dependent Variable Y - Estimation by Cochrane-Orcutt Usable Observations 19 Degrees of Freedom

15

Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant 1.5445830010 9.2359459218 0.16724 0.86941804 2. X1 1.7685122590 0.4119256451 4.29328 0.00064040 3. X2 0.7665193983 0.1627652032 4.70936 0.00027952 ******************************************************************************* 4. RHO 0.5855387431 0.2297214629 2.54891 0.02224610

144

6.4. ESTIMACION POR MAXIMA VEROSIMILITUD
Si el error de un modelo econométrico (ε) es una variable aleatoria que es asumido normalmente distribuido, la siguiente es la función de densidad normal de ésta variable aleatoria:

f (ε / β , σ 2 ( β )) =

⎧ 1 SCErr ( β ) t ⎫ 1 EXP ⎨− ⎬ 2 σ ( β ) 2π ⎩ 2 σ (β ) ⎭

donde la suma cuadrada de errores (SCErr) dependerá del modelo que se esté trabajando, sea este lineal o no lineal. El objetivo del procedimiento es maximizar la función de densidad de probabilidad conjunta de la variable aleatoria, que es llamada función de verosimilitud, l(θ), es decir:
T ⎧ ⎫ −T ⎧ 1 SCErrt ⎫⎪ ⎧ 1 SCErrt ⎫ ⎪ 1 2 ( 2) l(β ) = ∏ ⎨ EXP ⎨− EXP ⎨− ⎬⎬ = 2πσ ⎬ 2 2 ⎪ ⎩ 2 σ ⎭ 1 ⎪ ⎩ 2 σ ⎭⎭ ⎩σ 2π

(

)

aplicando logaritmos naturales:
T ( −1 ) 1 ⎡ ⎤ L = log(l ( β )) = ∑ ⎢log 2πσ 2 2 − SCErrt ⎥ 2 2σ ⎦ 1 ⎣

[(

)

]

Luego, para maximizar la probabilidad de ocurrencia del valor de un parámetro, se debe maximizar esta última expresión, es decir encontrar los parámetros que maximizan la suma anterior. Nótese que ésta suma puede simplificarse a:
T 1 1 ⎡ 1 ⎤ L = ∑ ⎢− log 2π − log σ 2 − SCErrt ⎥ 2 2 2σ ⎦ 1 ⎣ 2

Puesto que el primer término de la sumatoria es una constante, es irrelevante en el proceso de maximización, de modo que puede ser eliminado, y la función objetivo es simplemente:

T ⎡ 1⎛ 1 ⎞⎤ L = ∑ ⎢− ⎜ log σ 2 + 2 SCErrt ⎟⎥ σ ⎠⎦ 1 ⎣ 2⎝

6.4.1. MAXIMA VEROSIMILITUD EN RATS
En el caso de RATS, lo que éste programa hace es maximizar iterativamente la suma anterior para los parámetros libres de la fórmula definida en frml a través de la instrucción MAXIMIZE, que al igual que en la instrucción NLLS, requiere 4 tipos de instrucciones: NONLIN FRML COMPUTE MAXIMIZE : : : : lista los parámetros libres en el modelo (los parámetros a ser estimados) entrega la fórmula de la función cuya suma (sobre T) será maximizada Asigna los valores iniciales de búsqueda para los parámetros libres efectúa la estimación

Maximize tiene la siguiente estructura: MAXIMIZE frml start end funcval

145

donde frml es la formula, start y end es el rango de tiempo sobre el cual se hará la estimación, y funcval corresponde a las series para los valores finales de la frml. Respecto a las fórmulas, pueden usarse varias simultáneamente, sin embargo cuando se trate de máxima verosimilitud se usará a lo menos una instrucción como la siguiente: FRML L = -0.5*(log(var) + E**2/var) donde VAR es el parámetro usado para la varianza de los errores y E es usado para definir el error. Ejemplo: Estimamos a continuación la función de producción COBB-DOUGLAS, anteriormente estimada por mínimos cuadrados no lineales, ahora por máxima verosimilitud. Recordemos que se tiene información de 30 empresas respecto a los insumos trabajo (L) y capital (K) requeridos para obtener una determinada producción (Q), de acuerdo a la relación:

Q = β 0 + β 12 L + β 22 K + ε

Q = β 0 ⋅ Lβ1 ⋅ K β 2 + ε

NONLIN B1 B2 B3 VAR FRML E = Q - B1*L**B2 * K**B3 ;* definimos la fórmula en términos del error FRML LOK = -.5*(log(var) + E**2/var) ;* es la función de verisimilitud COMPUTE B1=1. , B2=0.4 , B3=.6, VAR=0.01 ;* note que E es la única fórmula que será sumada en MAXIMIZE de modo que E**2 significa la SCErr. maximize(ITER=75) LOK Estimation by BFGS Iterations Taken 21 Usable Observations Function Value ;* se impone un máximo de 75 iteraciones

30

Degrees of Freedom 45.00502229

26

Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. B1 1.3303436723 0.1171726887 11.35370 0.00000000 2. B2 0.7228771305 0.1078253705 6.70415 0.00000000 3. B3 0.6868836877 0.0965844184 7.11174 0.00000000 4. VAR 0.0183094617 0.0049498344 3.69900 0.00021645 El resultado es el mismo que en caso de la instrucción NLLS, con la diferencia que ahora se estima la varianza de los errores por separado, como un parámetro más.

6.4.2. APLICACION: MODELOS GARCH
VOLATILIDAD DE LAS TASAS DE INTERES La necesidad de estimar la volatilidad condicional en lugar de la no condicional, se fundamenta en que esta última no logra capturar el comportamiento a través de los cambios respecto a la media. A modo de ilustración, considerese dos series temporales de observaciones tal que ambas tengan la misma media, valores máximos y mínimos. Si la autocorrelación de la primera serie es cercano a +1.0, existirá un comportamiento relativamente suave de una observación a otra, y si la autocorrelación de la segunda serie es cercana a 0.0 existirá un comportamiento más "ruidoso". Pues bien, ambas series pueden reportar en efecto la misma volatilidad no condicional, aunque claramente la segunda serie es más volátil, y una estimación de volatilidad condicional reportará este hecho. Note que una alternativa para que la

146

volatilidad no condicional reefleje esta diferencia es que sea calculada en base a las primeras diferencias de la serie original, pues de esta forma se considera el patron temporal de las series. MODELOS GARCH Los modelos de volatilidad condicional (en inglés GARCH, Modelo Generalizado Autorregresivo de Heterocedasticidad Condicional) son ideales para el estudio de fenómenos donde la varianza condicional no es constante a través del tiempo. Por ejemplo, los rendimientos de las bolsas de valores accionarios presentan periodo de baja volatilidad y periodos de alta volatilidad, de modo que el supuesto de varianzas constantes (homocedasticidad como en el ejemplo anterior) puede no ser apropiado. Engle (1982) desarrolló un modelo que admite que tales varianzas sean no constantes, cual es llamado Modelo de Heterocedasticidad Condicional (ARCH), en donde la varianza de u en el tiempo t depende del tamaño del termino de error al cuadrado en el tiempo (t-1). Por ejemplo, si el modelo base a estimar es del tipo autorregresivo de 1º orden, AR(1), entonces:

Yt = β 0 + β1Yt −1 + μ t

σ t2 = α 0 + α 1 μ t2−1 + ε t
pero el termino μt es definido como un proceso N(0 , α0 + α1μ2t-1), es decir la varianza de μt depende del termino de perturbación en el período de tiempo anterior al cuadrado, lo que corresponde a un proceso conocido como ARCH(1). Note que si bien μ es heterocedástico, ε es bien comportado. La generalización del modelo ARCH es el modelo GARCH desarrollado por Bollerslev (1986). Una especificación Garch (1,1) está definido, por ejemplo, como:

Yt = β 0 + β1Yt −1 + μ t

σ = α 0 + α 1 μ t2−1 + α 2σ t2−1 + α 3Yt −1 + et
2 t

es decir, la varianza del error depende del error anterior al cuadrado (componente AR), de la varianza anterior (componente MA), y eventualmente de otra información, como por ejemplo el valor de la serie Y rezagado. En estos casos la función de verosimilitud tiene la siguiente forma:
T ⎡ ⎞⎤ 1⎛ 1 2 ⎟ log ( ) σ α SCErr ( β ) = − MAX L ∑ ⎢− ⎜ t 2 ⎟⎥ 2⎜ σ (α ) 1 ⎣ ⎝ ⎠⎦ {α , β }

Ejemplo:

Para estimar un modelo base del tipo AR(1) para la serie DLWPI, cuya varianza de errores es ARCH(4), las instrucciones serían: ;* se están estimando 4 parámetros, dos para el modelo base y dos para la varianza de los errores. frml e = dlwpi - b0 - b1*dlwpi{1} ;* un proceso AR(1) para el modelo base frml var = a0 + a1*e(t-4)**2 ;* un proceso ARCH(4) para el error ;* puesto que en L aparecerán dos fórmulas, solamente una de ellas puede ser sumada (E), por lo que es escrita como E(t). frml L = -0.5*(log(var)+e(t)**2/var) nonlin b0 b1 a0 a1

147

boxjenk(noprint,constant,ar=1) dlwpi

;* se ajusta el modelo AR(1) para obtener estimaciones iniciales de los coeficientes38 ;* a0 es estimado inicialmente con la varianza (constante de los errores anteriores, mientras a1 es arbitrario.

compute b0=%beta(1), b1=%beta(2) compute a0=%seesq, a1=.8

maximize(iterations=75) L 10 *

Cuando el modelo base es del tipo ARMA, significa que además de aparecer Y rezagada como variable explicatoria, aparecerá el error anterior del modelo (el componente MA). Puesto que el error previo aún no ha sido calculado, computacionalmente este detalle implica la necesidad de incorporar una serie adicional, en este caso u, inicializada en cero.

Ejemplo:

Para modelar la volatilidad de un modelo base del tipo AR(1) y MA(1,4), junto a una varianza condicional dada por un proceso ARCH(4): set u = 0.0 nonlin b0 b1 b2 b3 a0 a1 frml e = dlwpi - b0 - b1*dlwpi{1}-b2*u{1}-b3*u{4} ;* un proceso ARMA(1,||1,4||) frml var = a0 + a1*e(t-4)**2 ;* un proceso ARCH(4) frml L = (u = e), -0.5*(log(var)+e(t)**2/var) boxjenk(noprint,constant,ar=1,ma=||1,4||) dlwpi compute b0=%beta(1), b1=%beta(2), b2 = %beta(3) , b3 = %beta(4) compute a0=%seesq, a1=.8 maximize(iterations=75) L 10 *

A su vez debe notarse que todas las fórmulas definidas en un proceso MAXIMIZE (como por ejemplo el error del modelo (e) y la función de verosimilitud), no son series sino variables, de modo que los rezagos de éstas deben ser escritos como (t-1) y no como {t}. También, para obtener por ejemplo la serie de las varianzas condicionales basta traspasar la información de VAR a una serie, por ejemplo: set varcondic = VAR. En el caso que la varianza condicional sea del tipo GARCH, entonces nuevamente se requiere de una serie adicional, en este caso W, tal como se muestra a continuación: Ejemplo: set w = 0.0 set u = 0.0 nonlin b0 b1 b2 b3 a0 a1 a2 frml e = dlwpi - b0 - b1*dlwpi{1}-b2*u{1}-b3*u{4};* un proceso ARMA(1,||1,4||) frml var = a0 + a1*e{1}**2 + a2*w{1} ;* un proceso GARCH(1,1) frml L = (u = e), (w = var), -.5*(log(var)+e(t)**2/var) ;* (u=e) indica que la variable u corresponde al error e, y que la variable w corresponde a la varianza condicional. boxjenk(noprint,constant,ar=1,ma=||1,4||) dlwpi compute b0=%beta(1), b1=%beta(2), b2 = %beta(3) , b3 = %beta(4) compute a0=%seesq, a1=.3 , a2 = .5 maximize(iterations=75) L 10 *

Es ilustrativo efectuar un gráfico que compare la volatilidad observada de la serie junto a la volatilidad ajustada. Para esto debe construir la serie de la varianza condicional en cada punto, y además es posible construir límites superiores e inferiores alrededor de esta serie.

38

La instrucción BOXJENK será vista más adelante en el capítulo de series de tiempo. Note que si el modelo base es lineal, se debe usar LINREG en lugar de BOXJENK.

148

Ejemplo:

En un estudio reciente39 estimamos la volatilidad condicional tipo ARCH de un modelo de dos factores para el cambio semanal en la tasa de menos de 2 años en Chile como sigue: NONLIN k A0 A1 c0 c1 FRML B1 = (1-exp(-k*1))/k FRML B2 = (1-exp(-k*2))/k FRML teta = a0+a1*(BR_05*5*(B2)-BR_06*6*(B1)) ;* BR_05 y BR_06 son las series que contienen las tasas de interés de 5 y 6 años, y son usadas como instrumentos. FRML E = BR_02 - BR_02{1} - k*teta + k*BR_02{1} * BR_02 es la tasa de menos de 2 años FRML VAR FRML LOK = c0+c1*E(t-1)**2 = -0.5*(log(var) + E**2/var)

compute k=0.01, a0=0.001, a1=0.01, c0=0.00001, c1=0.1 NLPAR(SUBITERS=30) maximize(ITER=75) LOK Estimation by BFGS Iterations Taken 55 Weekly Data From 1993:05:17 To 1997:12:29 Usable Observations 240 Degrees of Freedom Total Observations 242 Skipped/Missing Function Value 1195.01873368

235 2

Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. K 0.5374863365 0.0574596854 9.35415 0.00000000 2. A0 0.0423960608 0.0065941748 6.42932 0.00000000 3. A1 0.3138944493 0.0642956873 4.88205 0.00000105 4. C0 0.0000158220 0.0000019829 7.97921 0.00000000 5. C1 0.1084788786 0.1035522177 1.04758 0.29483373

El gráfico del cambio semanal en la tasa de menos de 2 años versus la volatilidad ajustada por el modelo ARCH con datos semanales 1993:05:17 - 1997:12:29 es el siguiente:

SET dvst = var**0.5 diff BR_02 / dbr_02 GRAPH(key=loright) 2 # dvst # dBR_02

;* almacenamos en dvst la desviación estándar ajustada ;* dbr_02 contiene el cambio en la tasa de menos de 2 años

"Estimando un Modelo de 2 Factores del Tipo "Exponential-Affine" para la Tasa de Interés Chilena" (1999). REVISTA DE ANALISIS ECONOMICO (Ilades/Georgetown University) Vol. 14 Nº2 pp. 117-133.

39

149

0.020

0.015

0.010

0.005

0.000

-0.005

-0.010

-0.015
DVST DBR_02

-0.020 1993 1994 1995 1996 1997

;* nótese que el ajuste de la volatilidad condicional arroja casi una constante. En adición, la hipótesis Ho:C(1)=0 no puede ser rechazada, de modo que el modelo puede ser entendido como uno con errores homocedásticos.

6.5. RESUMEN
Existen un número de modelos con una estructura distinta de la lineal, es decir Y=βX+e, los que no pueden ser estimados a través de mínimos cuadrados ordinarios a través del comando LINREG. Estos modelos son llamados no lineales, y en el caso uniecuacional pueden contener una estructura como la siguiente:

a) Caso 1:

Y = f ( X , β ) + e , donde f es una expresión posiblemente no lineal entre las series X y los
parámetros β. En este caso buscamos minimizar la suma cuadrada de errores, es decir :

min ∑ ε t2
β
t =1

T

lo que en RATS se logra con el comando NLLS, es decir una estimación a través de Mínimos Cuadrados no Lineales.

b) Caso 2:

f ( yt , X t , β ) , que es una expresión general y más flexible que el caso de mínimos cuadrados
no lineales y apropiada para estimación a través de Máxima Verosimilitud. En este caso buscamos maximizar la suma de la función f, es decir:

max ∑ f ( y t , X t , β )
β
t =1

T

150

Ambos casos anteriores impiden el uso de las técnicas exactas de MCO, y en cambio deben usarse procedimientos iterativos de maximización / minimización, donde la selección de los valore de búsqueda inicial son claves para el éxito del algoritmo.

151

CAPITULO 7 SISTEMAS DE ECUACIONES

En el caso más simple, hay un sistema de ecuaciones si se tiene una misma ecuación a estimar simultáneamente para diferentes grupos muestrales. Más generalmente, puede haber dos o más ecuaciones distintas, interdependientes (se determinan simultáneamente). Un ejemplo típico el de las ecuaciones de oferta y demanda para una mercadería, en que tanto el precio como la cantidad se determinan simultáneamente. Si se intenta estimar el sistema a través de cada ecuación individualmente por MCO, se tendrá estimadores sesgados e inconsistentes, al existir correlación entre los errores y las variables explicativas40.

7.1. ECUACIONES ESTRUCTURALES Y REDUCIDAS
Asuma un modelo de varias ecuaciones, en que existen variables endógenas y variables exógenas: Una ecuación del modelo está en forma estructural o forma primitiva, si las variables endógenas son dependientes de otra variable endógena contemporánea (es decir, ambas en el momento t). Una ecuación está en forma reducida o estandar, si no aparece ninguna variable endógena actual (pueden haber variables endógenas rezagadas). Siguiendo el análisis de Intrilligator (1991), tomemos el ejemplo siguiente de oferta Qs y demanda Qd, en que se tienen las siguientes ecuaciones estructurales:

Qd = α 0 + α 1 P + α 2 I + u 1 , α 1 < 0 Qs = β 0 + β 1 P + β 2 r + u 2 , Qd = Q s
donde I es el ingreso, r es la cantidad de lluvia (ambas exógenas), y el precio (P) es una variable endógena (determinada por el sistema). Puesto que Q y P son ambas variables dependientes mutuamente (endógenas), P estará correlacionada con los términos de error. Eliminando la tercera condición se tiene que:

β1 > 0

Q = α 0 + α 1 P + α 2 I + u1 , α 1 < 0 Q = β 0 + β1 P + β 2 r + u 2 ,
Ahora expresando el sistema en forma matricial:
40

β1 > 0

Existe una excepción cuales son los modelos recursivos (triangulares).

152

[Q

⎡ 1 P ]⎢ ⎣− α 1

1 ⎤ + [I − β1 ⎥ ⎦

⎡− α 2 r 1]⎢ ⎢ 0 ⎢ ⎣− α 0

0 ⎤ − β2 ⎥ ⎥ = [u 1 − β0 ⎥ ⎦

u2 ]

Las matrices de 2x2 y 3x2 son matrices de coeficientes estructurales. Note que se espera que α1 < 0 para bienes superiores, y que β1 > 0 para el caso de sequía y β1 < 0 para el caso de exceso de lluvias. Para efectos de la estimación, debe rescribirse el sistema dejando P y Q como variables dependientes, esto es, explicadas solamente por r e I.

α 0 − β 0 u 2 − u1 + β1 − α1 β1 − α1 β1 − α1 β1 − α1 α β − α 1 β 0 β 1ε 1 − α 1ε 2 α β α β Q= 2 1 I − 1 2 r+ 0 1 + β1 − α1 β1 − α1 β1 − α1 β1 − α1
P=

α2

I−

β2

r+

A esta última especificación simultánea se llama la forma reducida, pues expresa las variables endógenas como una función de las variables exógenas (I y r). Esta forma és la que se emplea comúnmente (una excepción son los modelos VAR etructurales).

7.1.1. EL PROBLEMA DE LA IDENTIFICACION
Asumamos que la estimación de la forma reducida del sistema ha sido posible a través de un método apropiado. Pero lo que se desea es conocer el valor de los parámetros de la forma estructural (no los de la reducida), de modo que es necesario despejarlos. En el ejemplo anterior no habría problema, pues se tienen 6 ecuaciones (los coeficientes de la ecuación reducida) y 6 parámetros (de la ecuación estructural), es decir existe lo que se llama identificación exacta, donde hay una relación 1 a 1 entre los coeficientes de la forma reducida y los coeficientes estructurales. Sin embargo existen otros casos posibles: Subidentificación (por ejemplo 5 coeficientes estructurales y 4 ecuaciones), en que no es posible regresar a los parámetros estructurales, a menos que se tenga información adicional, típicamente que algunos parámetros son cero. Sobreidentificación (por ejemplo 7 coeficientes y 8 ecuaciones, es decir exceso de información), en que hay más de un modo de inferir los parámetros estructurales a partir de los parámetros de la forma reducida. El método de MCIndirectos no es apropiado aquí, pudiendo reemplazarse por el de Mínimos Cuadrados en dos Etapas (MC2Etapas). También se han desarrollado algunas reglas de identificación basadas en el sistema estructural41
41 Sea m = num. ecuaciones simultáneas y (K-k) = num. de variables predeterminadas del sistema que excluye una ecuación determinada. Entonces condición necesaria (pero no suficiente) es: Si K-k <= m-1 : no identificación Si K-k = m-1 : identificación exacta Si K-k >= m-1 : sobreidentificación Para que el sistema esté identificado, ambas ecuaciones deben estarlo.

153

7.2. ESTIMACION DE ECUACIONES SIMULTÁNEAS
La siguiente Tabla ilustra una serie de métodos de estimación de ecuaciones simultáneas42:
ESTIMACION UNIECUACIONAL METODOS DE INFORMACION LIMITADA MC Ordinarios y Sistemas Triangulares MC Indirectos para Sist. Exactamente identificados MC en 2 Etapas para Sist. Exactamente sobre identificados Máxima Verosimilitud con Información Limitada (LIML) ESTIMACION CONJUNTA (de Sistemas) METODOS CON INFORMACION COMPLETA ----MC en 3 Etapas Máxima Verosimilitud con Información Completa (FIML)43

Veamos el ejemplo clásico de KLEIN de 1950 (Klein's Model I) que aparece en la mayoría de los textos de econometría. Ejemplo: El modelo es:

C t = α 0 + α 1 Pt + α 2 Pt −1 + α 3 (WPt + WGt ) + e1 t I t = β 0 + β 1 Pt + β 2 Pt −1 + β 3 K t −1 + e 2 t WPt = γ 0 + γ 1 X t + γ 2 X t −1 + γ 3 At + e3 t X t = C t + I t + Gt Pt = X t − Tt − WPt K t = K t −1 + I t
donde C es el consumo, P son las utilidades (profit), WP y WG son las remuneraciones del sector privado y público, I es la inversión, K es el capital, X es el producto, A es una tendencia, G son los gastos del gobierno y T los impuestos. Note que las últimas 3 ecuaciones son identidades.

CAL 1920 1 1 ALLOCATE 0 1941:1 DATA(unit=input,ORG=OBS) / agno num CONSUMPTION $ PROFIT PRIVWAGE INVEST KLAGGED PRODUCTION GOVTWAGE GOVTEXP TAXES ... Ver datos en la Tabla 13 SET WAGEBILL = PRIVWAGE+GOVTWAGE SET TREND = T-1931:1 SET CAPITAL = KLAGGED+INVEST SMPL 1921:1 1941:1

RATS permite la simulación de grandes sistemas, muy superiores a las 200 ecuaciones, siendo el único límite la capacidad de memoria del compuatdor. ver Pyndick y Rubinfeld (1997). 43 Una alternativa relacionada es el Método Generalizado de Momentos.

42

154

7.2.1. MINIMOS CUADRADOS INDIRECTOS
Cuando los sistemas estén exactamente identificados es posible efectuar sin problemas una estimación de MCIndirectos, la que consiste en los siguientes pasos: Paso 1: Estimar cada ecuación reducida por separado a través de MCO. Es permitido ya que las ecuaciones reducidas se basan en variables explicativas exógenas. Paso 2: Con los valores de los coeficientes reducidos, despejar algebraicamente (a través de un sistema si fuera necesario) el valor de los coeficientes estructurales. Puesto que generalmente estos son funciones no lineales de los coeficientes reducidos, solo pueden obtenerse los errores aproximados para el caso de grandes muestras, y los coeficientes tienen eficiencia y consistencia asintótica (puede existir sesgo para pequeñas muestras).

7.2.2. MÍNIMOS CUADRADOS EN 2 ETAPAS
Cuando los sistemas se encuentren exactamente sobre identificados es posible implementar el método de variables instrumentales, lo que como vimos anteriormente en el capítulo............es equivalente a la estimación de Mínimos Cuadrados en 2 Etapas. Esta consiste simplemente es correr un primer modelo para obtener una predicción de Y, y posteriormente utilizar esa estimación para correr el segundo modelo. Recordemos también que con la implementación de variables instrumentales en RATS se estima el 2º modelo con las series del 1º modelo como instrumentos, con la ventaja de que se obtienen los errores de la estimación corregidos44. (ver pag. 741 Greene, 1999).

Ejemplo:

En primer lugar definimos los instrumentos como sigue: INSTRUMENTS CONSTANT TREND GOVTWAGE TAXES GOVTEXP CAPITAL{1} $ PRODUCTION{1} PROFIT{1} ;* note que son instrumentos todas las series del sistema, tal que no aparecen en el lado izquierdo de ninguna ecuación. Esto es justamente porque los instrumentos intentan explicar las variables del lado izquierdo. LINREG(INST,FRML=CONSEQ) # CONSTANT PROFIT{0 1} CONSUMPTION WAGEBILL

Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant 16.554755766 1.467978697 11.27725 0.00000000 2. PROFIT 0.017302212 0.131204584 0.13187 0.89663371 3. PROFIT{1} 0.216234040 0.119221677 1.81371 0.08741342 4. WAGEBILL 0.810182698 0.044735057 18.11069 0.00000000

LINREG(INST,FRML=INVESTEQ) INVEST # CONSTANT PROFIT{0 1} CAPITAL{1}
44

Con mínimos cuadrados en dos etapas el resultado, sin hacer las correcciones a los errores estandares, los pasos serían: linreg(noprint) Y1 # constant X1 X2 set yy1 / = %beta(1)+%beta(2)*x1(t) + %beta(3)*x2(t) linreg Y2 # constant yy1

155

Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant 20.27820896 8.38324891 2.41890 0.02707053 2. PROFIT 0.15022182 0.19253359 0.78024 0.44597984 3. PROFIT{1} 0.61594358 0.18092585 3.40440 0.00337550 4. CAPITAL{1} -0.15778764 0.04015207 -3.92975 0.00107972

LINREG(INST,FRML=WAGEEQ) PRIVWAGE # CONSTANT PRODUCTION{0 1} TREND Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant 1.5002968846 1.2756863717 1.17607 0.25577411 2. PRODUCTION 0.4388590650 0.0396026616 11.08155 0.00000000 3. PRODUCTION{1} 0.1466738217 0.0431639485 3.39806 0.00342209 4. TREND 0.1303956872 0.0323883889 4.02600 0.00087642

7.2.3. MÍNIMOS CUADRADOS EN 3 ETAPAS
Este procedimiento tiene la ventaja de efectuar una estimación simultánea del sistema. En este caso el estimador se define utilizando la instrucción SUR con la opción INSTRUMENTS, o alternativamente con NLSYSTEM. Nótese que tiene la limitante de usar un solo conjunto de instrumentos para todo el sistema, de modo que es útil solo para modelos relativamente pequeños.

Ejemplo:

Nótese que las ecuaciones de identidad no son estimadas. Por definición éstas son especificadas como relaciones conocidas, no relaciones que necesiten ser especificadas. EQUATION EQN1 CONSUMPTION # CONSTANT PROFIT{0 1} WAGEBILL EQUATION EQN2 INVEST # CONSTANT PROFIT{0 1}

CAPITAL{1}

EQUATION EQN3 PRIVWAGE # CONSTANT PRODUCTION{0 1} SUR(INST) 3 # eqn1 # eqn2 # eqn3

TREND

Dependent Variable CONSUMPTION - Estimation by System Instrumental Variables Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant 16.440790068 1.304548758 12.60266 0.00000000 2. PROFIT 0.124890475 0.108129048 1.15501 0.24808503 3. PROFIT{1} 0.163144093 0.100438193 1.62432 0.10430684 4. WAGEBILL 0.790080936 0.037937905 20.82563 0.00000000

Dependent Variable INVEST - Estimation by System Instrumental Variables

156

Variable Coeff Std Error T-Stat Signif ******************************************************************************* 5. Constant 28.17784692 6.79377018 4.14760 0.00003360 6. PROFIT -0.01307918 0.16189624 -0.08079 0.93561099 7. PROFIT{1} 0.75572396 0.15293313 4.94153 0.00000078 8. CAPITAL{1} -0.19484825 0.03253069 -5.98967 0.00000000

Dependent Variable PRIVWAGE - Estimation by System Instrumental Variables Variable Coeff Std Error T-Stat Signif ******************************************************************************* 9. Constant 1.7972177223 1.1158549811 1.61062 0.10726269 10. PRODUCTION 0.4004918800 0.0318134137 12.58877 0.00000000 11. PRODUCTION{1} 0.1812910149 0.0341587758 5.30730 0.00000011 12. TREND 0.1496741149 0.0279352364 5.35790 0.00000008 Para efectos de comparación de los resultados anteriores, sugerimos revisar la Tabla 15.6 en Greene (1999).

157

7.3. SISTEMAS: SIMULACION Y PREDICCION
En la mayoría de las aplicaciones de sistemas de ecuaciones no se está demasiado interesado en el valor de los coeficientes, sino que lo que se desea es efectuar simulaciones y predicciones de éstos sistemas. A continuación mostramos algunas de las instrucciones utilizadas en RATS, notando que se usa la instrucción FORECAST, la que permite efectuar predicciones para sistemas de ecuaciones.:

Ejemplo:

FRML(IDENTITY) GNPID PRODUCTION = CONSUMPTION+INVEST+GOVTEXP FRML(IDENTITY) PROFID PROFIT = PRODUCTION-TAXES-PRIVWAGE FRML(IDENTITY) CAPID CAPITAL = CAPITAL{1}+INVEST GROUP KLEIN CONSEQ>>F_CONS INVESTEQ>>F_INVEST WAGEEQ>>F_WAGE $ GNPID>>F_GNP PROFID CAPID ;* el modelo es guardado con el nombre de KLEIN. FORECAST(MODEL=KLEIN,PRINT) ;* para predecir.

Para simulaciones, a modo de ilustración mostramos el siguiente ejemplo disponible en los archivos de ejemplos que vienen en el programa RATS bajo el nombre MONTEARC.PRG:

Ejemplo:

COMPUTE NDRAWS=500,USEOBS=100,ENDOBS=50+USEOBS ALL ENDOBS CLEAR U V Y X SET X 1 ENDOBS = T COMPUTE SIGMA=1.0,ALPHA FRML(VARIANCE=SIGMA**2) FRML(IDENTITY) UDEF U = FRML(IDENTITY) YDEF Y = GROUP ARCHMOD VDEF UDEF =.20 VDEF V = 0.0 V*SQRT(1+ALPHA*U{1}**2) 2.0 + 3.0*X + U YDEF>>Y

SET U 1 1 = 0.0 SET TESTSTAT 1 NDRAWS = 0.0 DO DRAWS=1,NDRAWS SIMULATE(MODEL=ARCHMOD) 2 ENDOBS-1 2 LINREG(NOPRINT) Y 51 ENDOBS RESIDS # CONSTANT X SET USQUARED 51 ENDOBS = RESIDS**2 LINREG(NOPRINT) USQUARED 52 ENDOBS # CONSTANT USQUARED{1} COMPUTE TESTSTAT(DRAWS)=%RSQUARED*%NOBS END DO DRAWS STATS(FRACTILES,NOMOMENTS) TESTSTAT

158

7.4. . SEEM MINGLY Y UNREL LATED REGRE ESSION NS, SUR
Cuando lo os sistemas de ecuacion nes son linea ales y se reúnen una serie de requisi itos, la meto odología está ándar de estimación de éstos é es la de Regresiones Aparente emente no Re elacionadas (Seem mingly Unrelated Regres ssions, SUR) ) de Zellner (1962). d ejemplo consideremo c a de 3 ecuac ciones lineale es de deman nda en que la A modo de s un sistema dad demand dada (q) dep pende del pre ecio (p) y de el ingreso (y) como sigue e: cantid

Los supue estos son: todos los errores tien nen esperanz za cero la varianz za de los err rores es cons stante a trav vés del tiempo (constant te en cada ecuacion). e Pu uesto que hay 3 ecuaciones s, puede hab ber 3 varianz s, es decir ca ada ecuación n puede tene er zas distintas diferente varianza (cross sectional heterosce edasticity). 3 existe correlación con 3. ntemporánea, es decir d dos errores de d diferentes s ecuaciones s (pero del mismo m periodo) están correlacionados45. Es decir, no se impone e estricta exo ogeneidad, solo s exogene eidad oránea. Este e supuesto da d el nombre e a la técnica a SUR. contempo 4 No existe 4. e autocorrela ación: no existe correlac ción entre los s errores de distintos pe eriodos, estén los errores e en la misma ecuación o no. n 1. 1 2 2. Note que la variable Y es constan nte a través de las ecuac ciones. The distinction between b var riables that are a timecons stant is not very v importa ant here; it becomes b mu uch more important en el e estudio de e los datos s de panel. modelo (pues sto que cont tiene todas las observaciones de las N ecuacione es) de un sis stema El superm s aparentemente no rela acionadas, ca ada una con T observaci iones, es: con N ecuaciones

E [u t u t '] = Σ,

y it = X it β i + u it , t = 1,...T ; i = 1,...N u t ' = u1t ,...u Nt

donde el vector Y contiene (N NxT) x1 elem mentos, siendo sus primeros T datos s los corresp pondientes a la prime era ecuación n, los T+1 ha asta 2T los datos d de la segunda ecua ación, etcéte era. El vecto or de errores s tiene una estructura e ig gual. La matriz z X contiene (N*T)x(N*K K) elementos s en la super rdiagonal, co on ceros fuera de ella, siendo rimeros TxK los correspo ondientes a la primera e ecuación, y así a sucesivam mente. los pr

45

Si no n existe correlación contem mporánea, el resultado de SUR será idén ntico al de MC CO Generalizad dos (ver ecuación 11.2.1 13 en Judge et e al.) cuando se conoce la forma de la súper matriz de covarianzas s.

159

El vector β contiene (N*K) x 1 elementos, siendo los primeros K elementos los coeficientes de la primera ecuación, y así sucesivamente. Zellner ha mostrado que cuando existe este tipo de correlación contemporánea entre los errores, y además se conoce la forma de ∑, entonces es más eficiente estimar las ecuaciones conjuntamente, más que una a una. Además, la especificación SUR permite probar hipótesis con restricciones a través de las ecuaciones, lo que no es posible con OLS. El estimador de SUR, llamado feasible GLS estimator, que es consistente y converge asintóticamente a una distribución normal (Wooldrigde, p. 159), es:

ˆ = [X ' (Σ −1 ⊗ I )X ] (X ' (Σ −1 ⊗ I )y ) β
−1

donde ⊗ representa el producto de Kronecker. El FGLS estimator se basa upon making sufficient assumptions regarding the form of Σ so that a consistent estimator can be devised. Pueden obtenerse estimadores robustos y no robustos de la varianza asintótica del vector de coeficientes para efectos de pruebas de hipótesis uando FGLS (ver ec. 7.49 y 7.51 de Wooldrigde). Restricciones múltiples pueden implementarse con un test de Wald basado en Chi cuadrado. Tambien Gallant (1987, chap 5) ha encontrado una prueba F con mejores propiedades en muestras finitas (ec. 7.53 Wooldrigde). Además, en el caso que si Σ estimado es diagonal, entonces OLS y FGLS son idénticos.

160

Ejemplo:

Supongamos un sistema de 3 ecuaciones lineales de demanda (con correlación contemporánea), en que el logaritmo de la cantidad demandada (q) depende del logaritmo del precio (p) y del logaritmo del ingreso (y) como sigue:

log q1 = β 0 + β1 log p1 + β 2 log y + e1 log q2 = β 0 + β1 log p2 + β 2 log y + e2 log q3 = β 0 + β1 log p3 + β 2 log y + e3
Note que aquí we only have one dependent variable we are trying to explain, but we observe it and the explanatory variables over some period. Therefore,en este caso the label ‘system of equations’ is really a misnomer for panel data applications: the statistical properties of estimators in SUR and panel data models can be analyzed within the same structure (Wooldrigge, p. 146). ALL 30 DATA(UNIT=INPUT,ORG=OBS) / p1 p2 p3 y q1 q2 q3 .... set set set set set set set Ver datos en Tabla 12 del Anexo al final del libro ;* calculamos el logaritmo de cada serie

logp1 = log(p1(t)) logp2 = log(p2(t)) logp3 = log(p3(t)) logq1 = log(q1(t)) logq2 = log(q2(t)) logq3 = log(q3(t)) logy = log(y(t))

EQUATION eqn1 logq1 # CONSTANT logp1 logy EQUATION eqn2 logq2 # CONSTANT logp2 logy EQUATION eqn3 logq3 # CONSTANT logp3 logy

;* definimos las tres ecuaciones

La estimación de cada ecuación por separado a través de MCO: LINREG(EQUATION=eqn1) 1. 2. 3. Constant LOGP1 LOGY ;* es equivalente a la estimación usual de MCO en RATS -5.169676860 -0.564397364 1.432562296 1.406569617 0.213502125 0.227289840 -3.67538 -2.64352 6.30280 0.00103769 0.01349549 0.00000096

LINREG(EQUATION=eqn2) 1. 2. 3. Constant LOGP2 LOGY -3.643426963 -0.647939679 1.143871546 1.609113344 0.187515184 0.261197248 -2.26425 -3.45540 4.37934 0.03180077 0.00183163 0.00016121

LINREG(EQUATION=eqn3) 1. 2. 3. Constant LOGP3 LOGY 0.274250142 -0.964078637 0.870895271 0.663327020 0.065327050 0.108346217 0.41345 -14.75772 8.03808 0.68254511 0.00000000 0.00000001

161

7.1.1. LA INSTRUCCION SUR
Puesto que bajo los supuesto base (Wooldrigde, p 163), FGLS is asymptotically at least as efficient as system OLS, y la posibilidad de restricciones a través de las ecuaciones, se prefiere implementar el FGLS. En RATS usamos la instrucción SUR, la que tiene la siguiente estructura: SUR equations start end # equations resids coeffs donde equations indica el número de ecuaciones, start y end el intervalo de estimación. SUR también permite utilizar instrumentos, de modo que en ese caso SUR implementará Mínimos Cuadrados en 3 etapas. Veamos como opera esta instrucción en el ejemplo anterior: Ejemplo: SUR 3 # eqn1 # eqn2 # eqn3 1. 2. 3. 4. 5. 6. 7. 8. 9. Constant LOGP1 LOGY Constant LOGP2 LOGY Constant LOGP3 LOGY -4.572948051 -0.906269034 1.451125764 -3.183339393 -0.867143692 1.136685265 0.352027784 -0.998916977 0.869194128 1.306531226 0.129912103 0.215460916 1.503547986 0.125826219 0.247759170 0.618744456 0.034654899 0.102755623 -3.50007 -6.97602 6.73498 -2.11722 -6.89160 4.58786 0.56894 -28.82470 8.45885 0.00046514 0.00000000 0.00000000 0.03424132 0.00000000 0.00000448 0.56939761 0.00000000 0.00000000

Nótese que si bien el valor de los coeficientes estimados con SUR es similar respecto a la estimación por MCO, se ha ganado en reducir el tamaño de los errores en todos los casos.

7.1.2. SUR CON RESTRICCIONES (Equate)
Al implementar regresiones restringidas obligamos a que determinados coeficientes tomen ciertos valores a través de las ecuaciones. En este caso existen básicamente dos opciones, siendo la primera de ellas (bastante limitada) agregar la opción EQUATE como sigue: SUR equations start end # equations resids coeffs Ejemplo: EQUATE list of coeff. positions

Si en el ejemplo anterior imponemos la restricción que el 2º coeficiente sea igual a través de las tres ecuaciones: SUR 3 / EQUATE 2 # eqn1 # eqn2 # eqn3

162

2. 1. 3. 4. 1. 5. 6. 1. 7.

Constant LOGP1 LOGY Constant LOGP2 LOGY Constant LOGP3 LOGY

-4.492123807 -0.952574020 1.453640103 -3.004029573 -0.952574020 1.133884557 0.248565739 -0.952574020 0.871457038

1.313193914 0.043378955 0.219426006 1.496692229 0.043378955 0.250029803 0.704133179 0.043378955 0.116744543

-3.42076 -21.95936 6.62474 -2.00711 -21.95936 4.53500 0.35301 -21.95936 7.46465

0.00062446 0.00000000 0.00000000 0.04473769 0.00000000 0.00000576 0.72408128 0.00000000 0.00000000

Covariance\Correlation Matrix of Residuals LOGQ1 LOGQ2 LOGQ3 LOGQ1 0.15501467280 -0.0676469780 -0.6965804566 LOGQ2 -0.01192963775 0.20062493294 -0.5478667056 LOGQ3 -0.04865468645 -0.04353457906 0.03147269819 En efecto, el 2º coeficiente ha sido forzado a ser el mismo entre las ecuaciones. El análisis de la correlación entre los errores de las ecuaciones es útil: variables no observables pueden tener efecto positivo o negativo en Y de cada ecuación. Con la regresión restringida puede implementarse directamente el test de razón de verosimilitud, que viene dado en este caso por:

(T − c)(log Σr − log Σnr ) ≈ χ c2
donde ∑r y ∑nr son las matrices de covarianzas de los errores restringida y no restringida, respectivamente, y c es el número de restricciones. Esta prueba es implementada automáticamente por RATS como veremos a continuación para un caso de restricciones lineales más general que las permitidas por el parámetro EQUATE.

163

7.1.3. SUR CON RESTRICIONES LINEALES GENERALES (Restrict)
La implementación de restricciones generales sobre un sistema SUR es a través del siguiente procedimiento. Usando datos del ejemplo anterior, supongamos que deseamos probar 6 hipótesis simultáneas: que el 2º coeficiente es igual a 0.2, que el 3º coeficiente es igual a 0.3, que el 5º coeficiente es igual a 0.4, que el 6º coeficiente es igual a 0.5, que el 8º coeficiente es igual a 0.6, y que el 9º coeficiente es igual a 0.7:

Ejemplo:

restrict(replace) 6 # 2 # 1 0.2 # 3 # 1 0.3 # 5 # 1 0.4 # 6 # 1 0.5 # 8 # 1 0.6 # 9 # 1 0.7 Chi-Squared(6)= 2534.099637 with Significance Level 0.00000000

* la significancia del test chi cuadrado nos indica que la hipótesis es rechazada ampliamente.

En ocasiones puede ser de interés conocer los resultados de la regresión restringida, como en el caso de la estimación de funciones de costo translogarítmicas. Entonces el procedimiento es el siguiente:

Ejemplo:

Para obtener la salida de la restricción restringida, después de la instrucción restrict(replace) usamos: SUR(create) 3 # eqn1 # eqn2 # eqn3 Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant 0.00615 0.06785 0.09059 0.92781790 2. LOGP1 0.20000 3.74820e-010 5.33590e+008 0.00000000 3. LOGY 0.30000 0.00000 0.00000 0.00000000

Variable Coeff Std Error T-Stat Signif ******************************************************************************* 4. Constant -1.7961 0.0781 -23.01228 0.00000000 5. LOGP2 0.4000 3.2452e-009 1.23259e+008 0.00000000 6. LOGY 0.5000 4.6522e-009 1.07476e+008 0.00000000

Variable Coeff Std Error T-Stat Signif ******************************************************************************* 7. Constant -1.7422 0.0324 -53.82001 0.00000000 8. LOGP3 0.6000 8.1463e-012 7.36532e+010 0.00000000 9. LOGY 0.7000 0.0000 0.00000 0.00000000

164

Covariance\Correlation Matrix of Residuals LOGQ1 LOGQ2 LOGQ3 LOGQ1 0.32184497639 0.0148708634 0.1441913217 LOGQ2 0.00559502085 0.43982945729 -0.0228749566 LOGQ3 0.06868089761 -0.01273725690 0.70493154456

165

5.4. DATOS DE PANEL
Existen muchos modelos en que se dispone de información de series de tiempo mezclada con información de corte transversal: información del tipo Panel (sometimes called longitudinal data). Data over time for the same cross section units is useful for several reasons: It allows us to look at dynamic relationships, something we cannot do with a single cross section. A panel data set also allows us to control for unobserved cross section heterogeneity.

-

Otras consideraciones de importancia son (Wooldrigde, p. 170): - OLS using pooled data is the leading method of estimation, and the usual inference procedures are available, including corrections for heteroskedasticity. - Serial correlation is not an issue because the samples are independent across time. - Because of the time series dimension, we often allow different time intercepts. - As a general rule, with large N and small T it is a good idea to allow for separate intercepts for each time period. Doing so, allows for aggregate time effects that have the same influence on yit for all i. - Panel data sets are most useful when controlling for time-constant unobserved features—of people, firms, cities, and so on—which we think might be correlated with the explanatory variables in our model. One way to remove the unobserved effect is to difference the data in adjacent time periods. Then, a standard OLS analysis on the differences can be used. The pooled OLS estimator or fixed-effects estimator would likely be most appropriate to estimate a model using panel data.

5.4.1. INDEPENDENTLY POOLED CROSS SECTION ACROSS THE TIME
An independently pooled cross section is obtained by sampling randomly from a large population at different points in time (ej. different years): independently sampled observations. Sampling from the population at different points in time likely leads to observations that are not identically distributed (ej. changes over time in most regions). To collect panel data we follow (or attempt to follow) las mismas unidades, across time (data, for the same group of people in different years). Panel data sets are harder to collect than a single cross section, especially for individuals. We must use a survey and keep track of the individual for a follow-up survey. It is often difficult to locate some people for a second survey. For units such as firms, some firms will go bankrupt or merge with other firms. Panel data are much easier to obtain for schools, cities, counties, states, and countries. Motivos para using independently pooled cross sections is to increase the sample size, and get more precise estimators and test statistics with more power. Using pooled cross sections raises only minor statistical complications. Typically, to reflect the fact that the population may have different distributions in different time periods, we allow the intercept to differ across periods, usually years (including dummy variables46). It is also possible that the error variance changes over time, something we discuss later. Chow test (an F test) can be appled to two different time periods. A heteroskedasticity-robust version is also available. It is usually more interesting to allow for an intercept difference and then to test whether certain slope coefficients change over time.

-

Sometimes, the pattern of coefficients on the year dummy variables is itself of interest. For example, a demographer may be interested in the following question: After controlling for education, has the pattern of fertility among women over age 35 changed between 1972 and 1984? Ver ejemplo en Wooldrigde, Introductory, 13.2.

46

166

Pooled cross sections can be very useful for evaluating the impact of policy. Existen numerosas applications. Un ejemplo con 2 variables dummies en Woodrigde, EXAMPLE13.3 (Effect of a Garbage Incinerator’s Location on Housing Prices). For an interesting survey on natural experiment methodology and several additional examples, see Meyer (199547).

5.4.2. TWO-PERIOD PANEL DATA ANALYSIS
Using two periods of data results in a cross-sectional regression of the differenced data. The usual inference procedures are asymptotically valid under homoskedasticity; exact inference is available under normality. Is the simplest kind of panel data: for a cross section of individuals, schools, firms, cities, or whatever, we have two years of data; call these t = 1 and t = 2. The file CRIME2.RAW contains data on (among other things) crime and unemployment rates for 46 cities for 1982 and 1987. t = 1 corresponds to 1982, and t = 2 corresponds to 1987. What happens if we use the 1987 cross section and run a simple regression of crmrte on unem? We obtain

It implies that an increase in the unemployment rate lowers the crime rate. This is certainly not what we expect. The coefficient on unem is not statistically significant at standard significance levels: at best, we have found no link between crime and unemployment rates. This simple regression equation likely suffers from omitted variable problems. One possibile solution is to try to control for more factors. An alternative way to use panel data is to view the unobserved factors affecting the dependent variable as consisting of two types: those that are constant and those that vary over time. Letting i denote the cross-sectional unit and t the time period, we can write a model with a single observed explanatory variable as

-

-

d2t is a dummy variable that distingue dos periodos. ai captures all unobserved, time-constant factors that affect yit. (ai does not change over time). ai is called an unobserved effect. It is also common ai referred to as a fixed effect (because ai is fixed over time). In applications, you might see ai referred to as unobserved heterogeneity as well (or individual heterogeneity, firm heterogeneity, city heterogeneity, and so on). The error uit is often called the idiosyncratic error or time-varying error, because it represents unobserved factors that change over time and affect yit. These are very much like the errors in a straight time series regression equation.

To estimate the parameter of interest, one possibility is to just pool the two years and use OLS. This method has two drawbacks. - in order for pooled OLS to produce a consistent estimator of β1, we would have to assume that the unobserved effect, ai, is uncorrelated with xit. But even if we assume that, pooled OLS is biased and inconsistent if ai and xit are correlated. The resulting bias in pooled OLS is sometimes called heterogeneity bias, but it is really just bias caused from omitting a time-constant variable. Using pooled OLS does not solve the omitted variables problem. (The standard errors in this equation are incorrect because of the serial correlation noted earlier, but we ignore this since pooled OLS is not the focus here.)
47

Meyer, B. D. (1995), “Natural and Quasi-Experiments in Economics” Journal of Business and Economic Statistics 13, 151–161.

167

- Differencing two years of panel data is a powerful way to control for unobserved effects, it is not without cost. In theory, using a first differenced equation is a good idea, but it does not work very well with most currently available panel data sets. Adding several explanatory variables causes no difficulties: In most applications, the main reason for collecting panel data is to allow for the unobserved effect, ai, to be correlated with the explanatory variables. Panel data can also be used to estimate finite distributed lag models. Even if we specify the equation for only two years, we need to collect more years of data to obtain the lagged explanatory variables.

5.4.3. POLICY ANALYSIS WITH TWO-PERIOD PANEL DATA
Panel data sets are very useful for policy analysis and, in particular, progam evaluation. This is similar to the natural experiment literature discussed earlier, with one important difference: the same cross-sectional units appear in each time period.

We can estimate a panel data version of the difference-in-differences estimator in equation for two pooled cross sections. With panel data, we have a potentially important advantage: we can difference y across time for the same cross-sectional units.

5.4.4. POLICY ANALYSIS WITH MORE THAN TWO TIME PERIODS
We can also use differencing with more than two time periods. Differencing more than two years of panel data is very useful for policy analysis. For more than two time periods, we can use pooled OLS on the differenced data; we lose the first time period because of the differencing. In addition to homoskedasticity, we must assume that the differenced errors are serially uncorrelated in order to apply the usual t and F statistics. (The chapter appendix contains a careful listing of the assumptions.) Naturally, any variable that is constant over time drops out of the analysis. We can correct for the presence of AR(1) serial correlation by quasi-differencing. [We can also use the Prais-Winsten transformation] Unfortunately, standard packages that perform AR(1) corrections for time series regressions will not work. Standard Cochrane-Orcutt or Prais-Winsten methods will treat the observations as if they followed an AR(1) process across i and t; this makes no sense, as we are assuming the observations are independent across i. Corrections to the OLS standard errors that allow arbitrary forms of serial correlation (and heteroskedasticity) can be computed when N is large (and N should be notably larger than T). A detailed treatment of these topics is beyond the scope of this text [see Wooldridge (1999, Chapter 10)], but they are easy to compute in certain regression packages. If there is no serial correlation in the errors, the usual methods for dealing with heteroskedasticity are valid. We can compute robust standard errors. Papke (1994) studied the effect of the Indiana enterprise zone (EZ) program on unemployment claims. She analyzed 22 cities in Indiana over the period from 1980 to 1988. Six enterprise zones were

168

designated in 1984, and four more were assigned in 1985. Twelve of the cities in the sample did not receive an enterprise zone over this period; they served as the control group.

5.4.5. ADVANCED PANEL DATA METHODS
The police variable might be endogenous in the equation because counties may enlarge the police force when they expect crime rates to increase. In this case, the output cannot be interpreted in a causal fashion. We will cover models and estimation methods that can account for this additional form of endogeneity: Instrumental Variables Estimation and Two Stage Least Square and Simultaneous Equations Models.

169

5.4.6. PANEL DATA EN RATS

Ejemplo:

Se tiene información de 4 empresas durante 10 meses, y se desea determinar la relación entre los costos y la producción. cal 2000 1 12 all 40 data(org=obs,unit=input) / firm time cost output ... Ver datos en Tabla 9 en el Anexo al final del libro ;* para este ejemplo, si no se tiene en cuenta las diferencias entre cada empresa, se correrá la regresión global (ingenua) del siguiente tipo:

linreg cost # constant output Dependent Variable COST - Estimation by Least Squares Monthly Data From 2000:01 To 2003:04 Usable Observations 40 Degrees of Freedom 38 Centered R**2 0.714729 R Bar **2 0.707222 Uncentered R**2 0.973699 T x R**2 38.948 Mean of Dependent Variable 39.835500000 Std Error of Dependent Variable 12.856631124 Standard Error of Estimate 6.956595172 Sum of Squared Residuals 1838.9802229 Regression F(1,38) 95.2065 Significance Level of F 0.00000000 Durbin-Watson Statistic 0.871990 Q(10-0) 56.934642 Significance Level of Q 0.00000001 Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant 7.3851930356 3.5028926276 2.10831 0.04165362 2. OUTPUT 1.1315894222 0.1159726319 9.75738 0.00000000 Sin embargo, como veremos, la regresión anterior es ingenua, pues asume que no existen diferencias entre empresas.

5.4.1. INGRESO DE DATOS DE PANEL
Para considerar en la regresión que deben existir diferencias entre empresas, el procedimiento es ingresar la información en RATS bajo la estructura de datos de panel. Para esto debe indicarse que se trata de observaciones en estructura de panel en Calendar y en Allocate. Bajo esta estructura los rangos de trabajo ya no serán del tipo 1970:1 1979:4, como cuando se trataba se series de tiempo, sino del tipo 2//1980:1 4//1988:4, lo que indica que se trabajará en este caso con los grupos 2 al 3 inclusive, dentro de los rangos de tiempo 1980:1 y 1988:4. La instrucción Calendar debe tener ahora la opción (panel=numero de periodos de tiempo por individuo). La instrucción Allocate indicará el número de individuos y el periodo de termino de las

170

observaciones. La organización de los datos de panel para la lectura en RATS: individuos en la primera columna de datos, y luego en la siguiente columna por tiempo.

Ejemplo:

Para el caso anterior las instrucciones son: cal(panel=10) 2000 1 12 all 0 4//2000:10 data(org=obs,unit=input) / firm time cost output table Series FIRM TIME COST OUTPUT Obs Mean Std Error 40 2.5000000000 1.1322770341 40 5.5000000000 2.9088723694 40 39.8355000000 12.8566311235 40 28.6767500000 9.6052553424 Minimum Maximum 1.0000000000 4.0000000000 1.0000000000 10.0000000000 4.7400000000 64.2900000000 3.7800000000 47.7000000000

Para efectos de graficar series, en este caso el tipo de gráfico apropiado es el scatter, para lo cual puede hacerse lo siguiente: Ejemplo: Graficamos Costo y Producto a través del tiempo. set xaxis = %period(t) scatter(style=line, patterns, key=loright) 2 # xaxis cost 1//2000:1 1//2000:10 # xaxis output 1//2000:1 1//2000:10
56

48

40

32

24

16

8

COST OUTPUT

0 0 2 4 6 8 10

;* las series pueden ser visualizadas usando la instrucción Print del siguiente modo:

171

Ejemplo:

print 1//2000:1 1//2000:10 cost output ;* es la información de la primera empresa solamente ENTRY 1//2000:01 1//2000:02 1//2000:03 1//2000:04 1//2000:05 1//2000:06 1//2000:07 1//2000:08 1//2000:09 1//2000:10 COST 43.720000000000 45.860000000000 4.740000000000 40.580000000000 25.860000000000 36.050000000000 50.940000000000 42.480000000000 25.600000000000 49.810000000000 OUTPUT 38.460000000000 35.320000000000 3.780000000000 35.340000000000 20.830000000000 36.720000000000 41.670000000000 30.710000000000 23.700000000000 39.530000000000

Para correr la regresión ingenua (global) habiendo ingresado los datos con las estructura de pane, es como sigue:

Ejemplo:

linreg cost 1//2000:1 4//2000:10 # constant output ... Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant 7.3851930356 3.5028926276 2.10831 0.04165362 2. OUTPUT 1.1315894222 0.1159726319 9.75738 0.00000000

Como se ve, la salida es la misma. Sin embargo lo que debería hacerse es permitir una mayor flexibilidad para modelar las diferencias en comportamiento a través de los grupos. Para eso existen básicamente la estimaciones de efectos fijos y de efectos aleatorios.

5.4.2. ESTIMACION DE EFECTOS FIJOS
Aquí se quiere probar la hipótesis que los diferentes individuos poseen diferentes interceptos, aunque tienen la misma pendiente. Para esto construimos variables dummy y estimamos como sigue: Ejemplo: set set set set set set set set d1 d2 d3 d4 d1 d2 d3 d4 = 0.0 = 0.0 = 0.0 = 0.0 1//2000:1 2//2000:1 3//2000:1 4//2000:1

1//2000:10 2//2000:10 3//2000:10 4//2000:10

= = = =

1 1 1 1

linreg cost 1//2000:1 4//2000:10 # d1 d2 d3 d4 output Dependent Variable COST - Estimation by Least Squares Panel(10) of Monthly Data From 1//2000:01 To 4//2000:10 Usable Observations 40 Degrees of Freedom 35 Centered R**2 0.923759 R Bar **2 0.915046 Uncentered R**2 0.992971 T x R**2 39.719 Mean of Dependent Variable 39.835500000

172

Std Error of Dependent Variable 12.856631124 Standard Error of Estimate 3.747299853 Sum of Squared Residuals 491.47896660 Regression F(4,35) 106.0183 Significance Level of F 0.00000000 Durbin-Watson Statistic 2.468657 Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. D1 2.315009593 2.278082430 1.01621 0.31650317 2. D2 10.109635763 2.230548731 4.53235 0.00006530 3. D3 2.385444975 2.031037012 1.17450 0.24812580 4. D4 16.171492017 2.160927547 7.48359 0.00000001 5. OUTPUT 1.119028635 0.063569861 17.60313 0.00000000 ;* de donde la pendiente común es de 1.119029.

Ejemplo:

Ahora probamos la hipótesis de igualdad a cero de los coeficientes de las dummy: restr # 1 2 # 1 1 # 2 3 # 1 1 # 3 4 # 1 1 3 0.0 0.0 0.0 10.44323 with Significance Level 0.00004722

F(3,35)=

;* lo que nos lleva a rechazar la hipótesis que los interceptos son iguales (versus F=2.87), de modo que la estimación ingenua no es apropiada.

La estimación directa del ejemplo anterior en RATS es la siguiente: Restar las medias individuales de Y y X LINREG usa DFC=4 porque son perdidos 4 grados de libertad al eliminar las medias No se usa intercepto pues se han eliminado las medias.

RATS tiene muchas otras opciones, sin embargo nos limitamos a este caso simple (ver la instrucción PANEL en el menú help).

Ejemplo:

PANEL cost / YTWID 1 PANEL output / X1TWID 1 LINREG(DFC=4) YTWID # X1TWID

ENTRY 1.0 INDIV -1.0 ENTRY 1.0 INDIV -1.0

Dependent Variable YTWID - Estimation by Least Squares Panel(10) of Monthly Data From 1//2000:01 To 4//2000:10 Usable Observations 40 Degrees of Freedom 35 Centered R**2 0.898513 R Bar **2 0.898513 Uncentered R**2 0.898513 T x R**2 35.941 Mean of Dependent Variable -0.00000000 Std Error of Dependent Variable 11.76284264 Standard Error of Estimate 3.74729985 Sum of Squared Residuals 491.47896660 Durbin-Watson Statistic 2.468657

173

Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. X1TWID 1.1190286351 0.0635698610 17.60313 0.00000000

Note que la instrucción: PANEL cost / YTWID 1 ENTRY 1.0 INDIV -1.0

indica que la nueva serie llamada YTWID comenzará en la entrada 1.0, y allí se almacenará la entrada menos la media para ese individuo. Si quisiéramos restar 0.4 veces el promedio, escribiríamos PANEL cost / YTWID 1 ENTRY 1.0 INDIV –0.4

Otra característica interesante es que es posible corregir por heterocedasticidad a través de la opción SPREAD. El procedimiento es: Ejemplo: Linreg Y / u # constant x panel(spread=panels) u ;* calcula una serie apropiada para corregir posteriormente. Esta serie es calculada empíricamente igual a la varianza muestral para las entradas de corte transversal. linreg(spread=panels) y / u # constant x

5.4.3. ESTIMACION DE EFECTOS ALEATORIOS
El procedimiento consiste en: 1) Correr una regresión OLS y descomponer los residuos. LINREG(noprint) cost / RESIDS # CONSTANT output PSTATS(EFFECTS=INDIV) RESIDS COMPUTE VETA=%VRANDOM COMPUTE VEPS=%VINDIV COMPUTE THETA = 1.0 - SQRT(VETA/(VETA+5*VEPS)) 2) Restar theta veces la media de los individuos de los regresores. PANEL cost / YTWID 1 PANEL output / X2TWID 1 SET CONSTWID = 1 - THETA ENTRY 1.0 ENTRY 1.0 INDIV INDIV -THETA -THETA

3) Correr el modelo con CONSTWID como CONSTANT. LINREG YTWID # CONSTWID X2TWID

174

Dependent Variable YTWID - Estimation by Least Squares Panel(10) of Monthly Data From 1//2000:01 To 4//2000:10 Usable Observations 40 Degrees of Freedom 38 Centered R**2 0.884329 R Bar **2 0.881285 Uncentered R**2 0.934261 T x R**2 37.370 Mean of Dependent Variable 9.682811273 Std Error of Dependent Variable 11.251787206 Standard Error of Estimate 3.876802974 Sum of Squared Residuals 571.12484927 Regression F(1,38) 290.5188 Significance Level of F 0.00000000 Durbin-Watson Statistic 2.192533 Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. CONSTWID 7.7234044639 3.1478560461 2.45354 0.01884373 2. X2TWID 1.1197954976 0.0656979215 17.04461 0.00000000

Comentarios Finales: Cuando aumenta el tamaño de la muestra, para un número de individuos fijo, ambos estimadores de efectos fijos y aleatorios serán idénticos. En ese caso el estimador de variables dummy (efectos fijos) será consistente y asintóticamente eficiente. En general con T grande y N pequeño habrá poca diferencia entre ambos, de modo que lo más recomendable será usar el método sencillo (efectos fijos). Con N grande y T pequeño, ambos estimadores pueden diferir de un modo importante, por lo que se deben tener en cuenta otros aspectos. A fin de determinar el modelo apropiado.

175

5.4.4. CASO DE ESTUDIO: FUNCION TRANSLOGARITMICA
Consideremos la estimación de una función de costos translogarítmica para la industria bancaria chilena48. cal(panel=120) 1990 01 12 all 0 22//1999:12 open data D:data05.xls data(org=obs,format=xls) / table Series BANCO TAMANO ORIGEN MES C_AP_OPER CTOT C_SIN_INT COLC INVE DEPO P_MO P_CA RIES NSUC set set set set set set set set set set set set set set set set set set set set set set set set set Obs 2640 2640 2640 2640 2640 2640 2640 2640 2640 2640 2640 2640 2640 2640 Mean 11.5000 2.6364 5.6818 94.5650 1734.1981 10139.3947 5596.0068 514211.6064 145901.0667 432407.2508 134.2706 0.0011 0.0230 40.7943 Std Error 6.3455 1.1099 0.4659 2.8730 2537.7311 16159.6098 10881.6758 787260.0135 257776.8048 664555.0458 37.6149 0.0079 0.0190 55.8402 Minimum 1.0000 1.0000 5.0000 90.0100 13.0000 -125887.0000 -132482.0000 0.0000 0.0000 129.0000 85.8700 0.0000 0.0010 1.0000 Maximum 22.0000 4.0000 6.0000 99.1200 34332.0000 246775.0000 225556.0000 4182636.0000 1683975.0000 5250917.0000 198.9900 0.4031 0.2224 248.0000

lnc = log(c_ap_oper) lnc1 = log(ctot) lnc2 = log(c_sin_int) lndep = log(depo) lnlon = log(colc) lninv = log(inve) lnplab = log(p_mo) lnpcap = log(p_ca) lnries = log(ries) lnnsuc = log(nsuc) lndep_ = 0.5*lndep**2 lnlon_ = 0.5*lnlon**2 lninv_ = 0.5*lninv**2 lndep_lon = lndep*lnlon lndep_inv = lndep*lninv lnlon_inv = lnlon*lninv lnplab_ = 0.5*lnplab**2 lnpcap_ = 0.5*lnpcap**2 lnplab_pcap = lnplab*lnpcap lndep_plab = lndep*lnplab lndep_pcap = lndep*lnpcap lnlon_plab = lnlon*lnplab lnlon_pcap = lnlon*lnpcap lninv_plab = lninv*lnplab lninv_pcap = lninv*lnpcap

linreg(NOPRINT) lnc1 / errores # constant lndep lnlon lninv lnplab lnpcap lnries lnnsuc lndep_ $ lnlon_ lninv_ lndep_lon lndep_inv lnlon_inv lnplab_ $ lnpcap_ lnplab_pcap lndep_plab lndep_pcap lnlon_plab $
Véase Dagnino y Zúñiga (2001) “Estimación de las Economías de Escala y de Ámbito en la Banca Chilena: 1990 – 1999”. Documentos de Trabajo, Escuela de Ingeniería Comercial, UCN.
48

176

lnlon_pcap lninv_plab lninv_pcap set xaxis = %period(t) scatter(style=line) 1 # xaxis errores 1//1990:01 1//1999:12 scatter(style=line, key=upleft, vmax=2.) 2 # xaxis smallres 1//1990:01 1//1999:12 # xaxis errores 1//1990:01 1//1999:12 com cutoff = 3.0*sqrt(%seesq) set smallres = abs(errores) < cutoff linreg(smpl=smallres,NOPRINT) lnc1 # constant lndep lnlon lninv lnplab lnpcap lnries lnnsuc lndep_ $ lnlon_ lninv_ lndep_lon lndep_inv lnlon_inv lnplab_ $ lnpcap_ lnplab_pcap lndep_plab lndep_pcap lnlon_plab $ lnlon_pcap lninv_plab lninv_pcap restrict(create) 3 # 5 6 # 1. 1. 1. # 15 16 17 # 1. 1. 1. 0.0 # 18 19 20 21 22 23 # 1. 1. 1. 1. 1. 1. 0.0 F(3,2483)= 45.51139 with Significance Level 0.00000000

Dependent Variable LNC1 - Estimation by Restricted Regression Panel(120) of Monthly Data From 1//1990:01 To 22//1999:12 Usable Observations 2506 Degrees of Freedom 2486 Total Observations 2640 Skipped/Missing 134 Centered R**2 0.952111 R Bar **2 0.951745 Uncentered R**2 0.997891 T x R**2 2500.716 Mean of Dependent Variable 8.1031206727 Std Error of Dependent Variable 1.7393536594 Standard Error of Estimate 0.3820845791 Sum of Squared Residuals 362.92772316 Durbin-Watson Statistic 1.038450 Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant 3.574688592 2.196275444 1.62761 0.10373349 2. LNDEP -3.089354351 0.450601488 -6.85607 0.00000000 3. LNLON 3.141493470 0.379664092 8.27440 0.00000000 4. LNINV 0.747672302 0.215174409 3.47473 0.00052013 5. LNPLAB -0.013286371 0.365282274 -0.03637 0.97098795 6. LNPCAP 1.013286371 0.365282274 2.77398 0.00557884 7. LNRIES 0.060986365 0.012162059 5.01448 0.00000057 8. LNNSUC 0.030712281 0.015955563 1.92486 0.05436042 9. LNDEP_ 0.126844457 0.032116825 3.94947 0.00008050 10. LNLON_ 0.257461756 0.016073424 16.01785 0.00000000 11. LNINV_ 0.183174944 0.009807255 18.67749 0.00000000 12. LNDEP_LON -0.085424647 0.017217800 -4.96141 0.00000075 13. LNDEP_INV -0.103373501 0.015837464 -6.52715 0.00000000 14. LNLON_INV -0.105686743 0.012614087 -8.37847 0.00000000 15. LNPLAB_ -0.083632745 0.017861384 -4.68232 0.00000299 16. LNPCAP_ 0.064599470 0.026518635 2.43600 0.01492037 17. LNPLAB_PCAP 0.019033275 0.043348410 0.43908 0.66064415 18. LNDEP_PLAB 0.741231156 0.073083676 10.14223 0.00000000 19. LNDEP_PCAP -0.033425046 0.033866833 -0.98696 0.32376067 20. LNLON_PLAB -0.743889568 0.059648619 -12.47120 0.00000000

177

21. LNLON_PCAP 22. LNINV_PLAB 23. LNINV_PCAP

-0.008591598 0.033847901 0.010827155

0.028821828 0.037244095 0.017272437

-0.29809 0.90881 0.62685

0.76565674 0.36353719 0.53081785

178

7.7. SISTEMAS DE ECUACIONES NO-LINEALES
Un sistemas de ecuaciones no lineales simultáneas puede ser entendido como una generalización multivariada de la estimación de ecuaciones no lineales, lo que recordemos es implementado normalmente en RATS con la instrucción NLLS49. También puede ser interpretada como una especificación de ecuaciones no lineales aparentemente no relacionadas. De cualquier modo el objetivo es minimizar la suma de cuadrados, pero ahora expresada matricialmente, es decir:

min ∑ et' Σ −1 et
β
t =1

T

donde e es el vector de errores del súper sistema, y ∑ es la matriz de covarianza de los errores del súper sistema. Nótese que si bien lo anterior permitirá obtener una estimación de mínimos cuadrados no lineales multivariados, análogamente al caso uniecuacional, es también posible implementar en RATS una estimación de Máxima Verosimilitud multivariada, la que solo es de utilidad en estudios econométricos muy especializados, por lo que no será vista aquí.

7.7.1. LA INSTRUCCIÓN NLSYSTEM
Para implementar MC no lineales multivariados en RATS se utiliza la instrucción NLSYSTEM, por lo que, en consecuencia, se trata de un procedimiento iterativo. La estructura de esta instrucción es la siguiente: NLSYSTEM start end list of FRMLS donde los parámetros son los usuales. Como siempre, es necesario previamente definir la lista de parámetros libres, definir las fórmulas, establecer los valores iniciales de búsqueda de los parámetros, para a continuación efectuar la estimación con NLSYSTEM. Nótese que es posible utilizar instrumentos en NLSYSTEM, y en este caso se implementa el método generalizado de momentos (GMM), siendo NLLS en 3 etapas un caso especial de GMM. Veamos el uso de la instrucción a través del siguiente ejemplo:

Ejemplo:

Supongamos un sistema de demanda en que el gasto (piqi) depende del gasto de subsistencia (piλi) más una proporción βi del ingreso supernumerario. Para el caso de 3 familias las ecuaciones son:

p1q1 = p1γ 1 + β1 ( y − p1γ 1 − p 2γ 2 − p3γ 3 ) p 2 q 2 = p2γ 2 + β 2 ( y − p1γ 1 − p 2γ 2 − p3γ 3 ) p3 q3 = p3γ 3 + β 3 ( y − p1γ 1 − p 2γ 2 − p3γ 3 )
49

Si bien no mostramos aquí, RATS trabaja tambien con funciones de verosimilitud multivariadas y modelos de Vectores Autorregresivos que son una forma de modelos no lineales simultáneos.

179

;* puesto que las ecuaciones son claramente no lineales, en los parámetros, no puede ser estimada por SUR, sino que usamos NLSYSTEM. ALL 30 DATA(UNIT=INPUT,ORG=OBS) / p1 p2 p3 y q1 q2 q3 ... Ver datos en Tabla 12 en Anexo al final del libro NONLIN gama1 gama2 gama3 beta1 beta2 beta3 set yy1 set yy2 set yy3 FRML f1 FRML f2 FRML f3 ;*la lista de parámetros libres

= p1*q1 ;* definimos las formulas = p2*q2 = p3*q3 yy1 = p1*gama1 + beta1*(y-p1*gama1-p2*gama2-p3*gama3) yy2 = p2*gama2 + beta2*(y-p1*gama1-p2*gama2-p3*gama3) yy3 = p3*gama3 + beta3*(y-p1*gama1-p2*gama2-p3*gama3)

COMPUTE gama1=gama2=gama3=beta1=beta2=beta3=0.0 ;* los valores iniciales de los parámetros NLSYSTEM / f1 f2 f3 ;* corremos el sistema

Estimation by Non-linear Least Squares Iterations Taken 10 Function Value 90.00000000 ... Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. GAMA1 3.0683145372 1.7494958915 1.75383 0.07946002 2. GAMA2 3.8902230645 1.1932530751 3.26018 0.00111340 3. GAMA3 7.6644913062 5.1301210566 1.49402 0.13517101 4. BETA1 0.2061693627 0.0342842263 6.01353 0.00000000 5. BETA2 0.0911716798 0.0271437934 3.35884 0.00078270 6. BETA3 0.7019492634 0.0436240902 16.09086 0.00000000

También es posible obtener la matriz de covarianzas de los residuos, por lo que a través de estimaciones no restringidas y restringidas del sistema anterior, es posible sin mayor dificultad implementar pruebas de razón de verosimilitud.

180

CAPITULO 8 ESTACIONARIEDAD Y COINTEGRACION

8.1. INTRODUCCION
Los modelos de series de tiempo se caracterizan por utilizar valores pasados de las variables para explicar los valores presentes y/o predecir valores futuros de éstas, lo que implica que los valores o miembros del proceso estocástico no son completamente independientes, es decir las covarianzas entre éstos no son cero, y además éstas juegan un rol fundamental en caracterizar tales procesos. Para esto, una serie observada (x1, x2,...xT) es entendido como una realización de un proceso estocástico. Generalmente nos conformamos con conocer el siguiente conjunto de momentos de un proceso: las T medias (E(x1),E(x2),..E(xT)), las T varianzas (V(x1),V(x2),..V(xT)) y las T(T-1)/2 covarianzas.

Sin embargo existen problemas para inferir todos los valores anteriores, pues se tienen solamente T observaciones y 2T+T(T-1)/2 incógnitas. Por este motivo, es decir para reducir el número de incógnitas, se hace normalmente el supuesto de estacionariedad50, el que como veremos es fundamental para la validez del análisis de regresión, aunque bajo cointegración, es decir series cointegradas, también es posible obtener resultados válidos en los casos de ausencia de estacionariedad.

8.2. ESTACIONARIEDAD
8.2.1. DEFINICION
La principal definición de estacionariedad (estacionariedad débil) implica que la media (μ) y la varianza (σ2) del proceso son constantes, y las autocovarianzas (γk) y autocorrelaciones (ρk) dependen sólo del rezago k (γ0=V(xt))51. Las principales implicancias de la estacionariedad para nuestros fines son dos:

50 Otro concepto importante, pero que no utilizaremos aquí, es el de ERGODICIDAD, que significa que los momentos muestrales tienden a los momentos poblacionales a medida que la longitud de la realización converge a infinito. 51 La Estacionariedad Estricta implica que, además de lo anterior, el proceso no es afectado por un cambio de origen de tiempo. Bajo normalidad conjunta el set de momentos caracterizan completamente las propiedades del proceso, es decir ambas estacionariedades son equivalentes.

181

a) La existencia de estacionariedad asegura que la varianza del proceso es finita y que una innovación en el proceso tiene solamente un efecto temporal sobre éste. b) Cuando no exista estacionariedad para dos series X e Y, una regresión entre éstas será espuria, en el sentido que existirá un alto R2 debido a la existencia de una tendencia y no debido a una fuerte relación entre las variables. Un ejemplo de un proceso estocástico estacionario es uno llamado “ruido blanco52”, que puede ser representado en RATS a través del la función %ran53 como sigue:

Ejemplo:

Un proceso de ruido blanco es por ejemplo el siguiente: all 100 cal 1990 1 12 set err = %ran(1.0) set y 1 1 = 0.0 graph 1 # err

;* una desviación estándar de 1.0

4

3

2

1

0

-1

-2 1990 1991 1992 1993 1994 1995 1996 1997

;* nótese que la media parece ser constante (igual a cero) y que la volatilidad parece también constante, por lo que esta serie puede ser estacionaria.

Una serie es no estacionaria cuando presenta alguna tendencia, sea ésta determinística o estocástica. Ejemplos típicos de series no estacionarias son los índices de precios accionarios, o los índices de precios o de actividad económica.

52

Cuando los errores del modelo de regresión etán bien comportados, es decir son inependiente e idénticamente distrubuídos (homocedásticos y no correlacionados) son un ruido blanco. 53 %RAN(X) entrega realizaciones de una distribución normal con media cero y desviación estandard deviation X.

182

Ejemplo:

Consideremos el Índice General de Precios de las Acciones (IGPA) de la Bolsa de Comercio de Santiago (Valor Nominal mensual): all 135 cal 1990 1 12 data(unit=input, org=obs) / IGPA ... table Series IGPA graph 1 # igpa Obs Mean Std Error 135 3978.67051852 1526.11906472 Minimum Maximum 802.40000000 6234.64000000 Ver datos en la Tabla 14 en el Anexo al final del libro

6400

5600

4800

4000

3200

2400

1600

800 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000

Así, puesto que la serie del IGPA parece tener una tendencia, creemos que no es estacionaria. Sin embargo existen pruebas formales de estacionariedad, como veremos a continuación.

8.2.2. PRUEBAS DE ESTACIONARIEDAD: CORRELOGRAMA54
Una característica de las series no estacionarias es que las autocorrelaciones de las realizaciones comienzan en un valor muy alto (cercano a 1.0) y disminuyen lentamente para grandes rezagos. En cambio para series estacionarias se esperaría que la caída de las correlaciones sea muy fuerte, y no gradual. Calculemos el correlograma para la serie IGPA como sigue: Ejemplo: CORRELATE(NUMBER=20, QSTATS) IGPA / ACF ;* guardamos las autocorrelaciones en la serie ACF.

Recordemos que el correlograma, al igual que la prueba de Ljung-Box han sido utilizados anteriormente para detectar la autocorrelación de los residuos.

54

183

Correlations of Series IGPA Monthly Data From 1990:01 To 2001:03 Autocorrelations 1: 0.97269531 0.93872391 0.90695896 0.87615335 0.84443161 0.81366689 7: 0.78277486 0.74993045 0.71218145 0.67147009 0.63162050 0.59274082 13: 0.55304969 0.51535876 0.48100681 0.45172036 0.42350436 0.39848247 19: 0.37675286 0.35934509 Ljung-Box Q-Statistics Q(20) = 1348.0091.

Significance Level 0.00000000

;* rechazamos la hipótesis que las correlaciones sean cero.

GRAPH(STYLE=STEP, KEY=UPRIGTH) 1 # ACF
1.0
ACF

0.9

0.8

0.7

0.6

0.5

0.4

0.3 J F M A M J J 1990 A S O N D J F M A M J J 1991 A S

En efecto, las autocorrelaciones de la serie IGPA disminuyen gradualmente, como se esperaría en el caso de una serie no estacionaria. A efectos de comparación podemos graficar las correlaciones de un ruido blanco. Ejemplo: all 100 cal 1990 1 12 set err = %ran(1.0) set y 1 1 = 0.0 graph 1 # err

184

CORRELATE(NUMBER=20, QSTATS) err / ACF Correlations of Series ERR Monthly Data From 1990:01 To 1998:04 Autocorrelations 1: -0.0204442 -0.0768758 -0.0104740 0.1167994 -0.1668040 0.0478001 7: 0.0875188 -0.0010813 -0.1032321 0.0746679 0.0555952 0.0038571 13: 0.1918295 0.0821830 -0.0988624 -0.0038604 -0.0425198 -0.0038308 19: -0.1501119 0.0293962

Ljung-Box Q-Statistics Q(20) = 17.8388.

Significance Level 0.59802602

;* ahora la hipótesis que las correlaciones son cero no es rechazada. GRAPH(KEY=UPRIGTH) 1 # ACF
1.0
ACF

0.8

0.6

0.4

0.2

0.0

-0.2 J F M A M J J 1990 A S O N D J F M A M J J 1991 A S

* el gráfico muestra que efectivamente las correlaciones caen fuertemente a partir de 1.0. A continuación veremos otro tipo de pruebas formales, llamadas de raíces unitarias, que han sido muy populares (y también criticadas) en los años recientes.

8.2.3. PRUEBAS DE ESTACIONARIEDAD: RAICES UNITARIAS
Subyacente en el concepto de una prueba de raíz unitaria se encuentra la existencia de una fuerte relación entre la realización de una serie en el momento t y la realización de esta misma serie en el momento t-1. Esto es medido a través de la siguiente regresión:

Yt = ρYt −1 + ε t
donde ε en un error bien comportado. Si ρ es igual a 1.0, es decir un proceso AR(1), entonces la serie no es estacionaria, y además se dice que tiene una “raíz unitaria”. La serie con esta característica es llamada un Random-Walk55.
55

La definición de un random walk o caminata aleatoria es un poco más amplia, ya que admite la posibilidad de elementos de tendencia. Los random walks tienen dos propiedades importantes: la propiedad de Markov (la única información relevante para el valor futuro de la variable es su valor actual), y la propiedad de martingala (la expectativa condicional de un valor futuro de la variable es su valor actual). En el caso de una martingala, si bien los

185

Luego, la hipótesis de raíz unitaria es Ho:ρ=1.0. Sin embargo Dickey y Fuller (1979, 1981) mostraron que, para la hipótesis anterior, la tradicional prueba t no puede se aplicada, pues existe sesgo. En cambio mostraron que los valores correctos son, en el caso de correr la regresión con intercepto: al 90% el coeficiente ρ estimado es menor que 2.58 errores estándar de la unidad al 95% el coeficiente ρ estimado es menor que 2.89 errores estándar de la unidad al 99% el coeficiente ρ estimado es menor que 3.51 errores estándar de la unidad También es posible escribir el modelo como sigue:

Yt − Yt −1 = ΔYt = ( ρ − 1)Yt −1 + ε t
de modo que la hipótesis cambia ahora a Ho:ρ=0.0 Dickey y Fuller proponen una serie de regresiones más generales para verificar la existencia de raíces unitarias56: Modelo 1:

ΔYt = ρYt −1 + ∑ β i ΔYt −i +1 + ε t
i =2 p

p

(sin media)

Modelo 2:

ΔYt = α + ρYt −1 + ∑ β i ΔYt −i +1 + ε t
i =2 p

(con media)

Modelo 3:

ΔYt = α + ρYt −1 + δt + ∑ β i ΔYt −i +1 + ε t
i =2

(con media y tendencia)

pero los valores críticos apropiados para la hipótesis Ho: existencia de raíz unitaria, varían con el tipo de modelo utilizado57. Afortunadamente se han implementado en RATS una serie de subrutinas (procedures) para diferentes especificaciones de esta prueba. A continuación usaremos el procedure URADF.SRC desarrollado por Norman Morin para encontrar el número apropiado de rezagos en la estimación de una raíz unitaria de la serie IGPA: Ejemplo: source(noecho) c:\winrats\uradf.src @uradf igpa ;* el procedure debe encontrarse en el directorio que aquí se indique. ;* analizamos la serie IGPA

**************************************************************** * TESTING THE NULL HYPOTHESIS OF A UNIT ROOT IN IGPA * * Using data from 1990:01 to 2001:03 * * Choosing the optimal lag length for the ADF regression * * between 0 and 20 lags. * **************************************************************** Model Selection Criteria Minimum AIC at lag:

2

cambios en la variable deben ser siempre cero, no necesitan tener varianza constante, ni las innovaciones ser independientes. En el caso de una tendencia positiva se llaman sub-martingalas, y en el caso de tendencias negativas supramartingalas. 56 El conjunto de pruebas anteriores son llamadas de Dickey y Fuller. Existe un número importante de otras pruebas de raíces unitarias especializadas, entre las cuales es usual la de Phillips–Perron. 57 Al 5%: para el modelo 1: T=25 Æ -1.95; T=100 Æ -1.95; para el modelo 2: T=25 Æ -3.00; T=100 Æ -2.89; para el modelo 3: T=25 Æ -3.60; T=100 Æ -3.45.

186

Minimum BIC at lag:

2

**************************************************************** * Augmented Dickey-Fuller t-test with 2 lags: -1.9919 * * 1% 5% 10% * * -3.46 -2.88 -2.57 * * * * Augmented Dickey-Fuller Z-test with 2 lags: -3.6433 * * 1% 5% 10% * * -20.3 -14.0 -11.2 * * * * Coefficient and T-Statistic on the Constant: * * 115.45061 2.3730 * * * * Joint test of a unit root and no constant: 3.0307 * * 1% 5% 10% * * 6.52 4.63 3.81 * **************************************************************** Este procedure por default estima el modelo 2, sin embargo puede seleccionarse el modelo 1 o el modelo 2. La conclusión es que puesto que –1.99 se encuentra a la derecha de –2.89, no rechazamos Ho, es decir existe raíz unitaria. Gráficamente:

Ho: Existe Raiz unitaria I(1)

-2.89 Valor Crítico

-1.99 Valor Calculado

0

El procedure anterior tiene por característica estimar el número óptimo de rezagos en base a dos criterios (AIC y BIC)58, que en este caso es de 2. Ahora usamos el procedure URAUTO.SRC desarrollado por Paco Goerlich para obtener las conclusiones finales para las 3 especificaciones del test:

58

Véase Anexo del capítulo 3.

187

Ejemplo:

source(noecho) c:\winrats\urauto.src @urauto(lag=2) igpa URAUTO Procedure by Paco Goerlich TESTING SERIES: IGPA SAMPLE 1990:01 TO 2001:03 AUTOREGRESSIVE CORRECTIONS: 2 LAGS WORKING AT 5.0 % SIGNIFICANCE LEVEL ALL TESTS OF UNIT ROOT ARE ONE-SIDED REGRESSIONS WITH CONSTANT,TREND ;* modelo 3

t(rho-1)/tao = -1.41830 with critical value -3.41000 Cannot reject a unit root with t(rho-1)/tao Next is joint test of trend=0 and root=1 psi3 = 1.97291 with critical value 6.25000 PSI3 cannot reject unit root and no linear trend REGRESSIONS WITH CONSTANT,NO TREND ;* modelo 2 t(rho-1)/mu = -1.99193 with critical value -2.86000 Cannot reject a unit root with t(rho-1)/mu Next is joint test of constant=0 and root=1 psi1 = 3.03066 with critical value 4.59000 PSI1 cannot reject constant=0 and root=1 REGRESSIONS WITH NO CONSTANT, NO TREND ;* Modelo 1 t(rho-1) = 0.64456 with critical value -1.95000 Cannot reject a unit root with t(rho-1) CONCLUSION: Series contains a unit root with zero drift

8.2.4. DIFERENCIACION DE SERIES I(1)
Un proceso que contiene una raíz unitaria es denotado I(1). En estos casos es posible eliminar la raíz unitaria diferenciando la series, esto es, calculando la primera diferencia. En series que contienen dos raíces unitarias, I(2), se debe diferenciar dos veces para obtener una serie estacionaria, y así sucesivamente. El problema es que en muchas ocasiones la serie resultante de la diferenciación no es de interés, por lo que debe buscarse un camino de solución alternativo. Afortunadamente en el caso del IGPA, la diferenciación nos lleva a obtener una serie de rendimientos, de modo que la recomendación es usar en las regresiones las series de rendimientos del IGPA en lugar del GPA propiamente tal. Verifiquemos ahora que la serie diferenciada del IGPA, es decir los rendimientos accionarios, es estacionaria.

Ejemplo:

set RIGPA = (IGPA-IGPA{1})/IGPA{1}*100

;* calculamos los rendimientos mensuales del IGPA

graph(key=loright) 1 # RIGPA

188

24

16

8

0

-8

RIGPA

-16 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000

;* el gráfico de la series muestra que ésta parece ser estacionaria. Ahora calculamos y graficamos las correlaciones:

CORRELATE(NUMBER=20, QSTATS) RIGPA / ACF_IGPA Correlations of Series RIGPA Monthly Data From 1990:02 To 2001:03 Autocorrelations 1: 0.3852512 0.0131327 0.0467991 0.0451494 0.0508355 0.0803366 7: 0.1334101 0.2058936 0.0720181 -0.0045277 0.0216250 0.0302207 13: 0.0029372 -0.1164852 -0.0758913 0.0400439 -0.0324749 -0.0366234 19: -0.0584787 -0.0621661

Ljung-Box Q-Statistics Q(20) = 36.6115.

Significance Level 0.01302170

;* el test q nos indica que la serie diferenciada aún tiene un número considerable de correlaciones distintas de cero. GRAPH(KEY=UPRIGTH) 1 # ACF_IGPA
1.0
ACF_IGPA

0.8

0.6

0.4

0.2

0.0

-0.2 J F M A M J J 1990 A S O N D J F M A M J J 1991 A S

;* el gráfico parece mostrar una serie estacionaria.

189

Veamos lo que nos dice el test de Dickey-Fuller al respecto: source(noecho) c:\winrats\uradf.src ;* este paso no es necesario si ya fue efectuado previamente, pues el procedure queda cargado en la memoria del computador. @uradf rigpa ... omitimos parte de los resultados

Model Selection Criteria Minimum AIC at lag: Minimum BIC at lag:

1 1

La prueba debe efectuarse con 1 rezago: source(noecho) c:\winrats\urauto.src @urauto(lag=1) rigpa URAUTO Procedure by Paco Goerlich TESTING SERIES: RIGPA SAMPLE 1990:02 TO 2001:03 AUTOREGRESSIVE CORRECTIONS: 1 LAGS WORKING AT 5.0 % SIGNIFICANCE LEVEL ALL TESTS OF UNIT ROOT ARE ONE-SIDED REGRESSIONS WITH CONSTANT,TREND ;* Modelo 3 -3.41000

t(rho-1)/tao = -7.92059 with critical value Unit root rejected with t(rho-1)/tao CONCLUSION: Series has no unit root

Así, esta prueba no encuentra una raíz unitaria y afirma que la serie diferenciada es estacionaria. El econometrista experimentado notará del gráfico de la serie IGPA que existe la posibilidad de un quiebre significativo en 1995, de modo que sugerirá otras pruebas de raíces unitarias que mejor se ajusten a este caso. Cuando la serie diferenciada no sea de interés, puede seguirse el camino tradicional de incorporar una variable de tendencia a la regresión, la que tiene por objeto justamente capturar la tendencia dejando que el coeficiente estimado de la serie I(1) libre del efectos de la tendencia, de modo que la regresión es válida. Sin embargo actualmente se distingue entre tendencias determinísticas y estocásticas, afirmándose que este último procedimiento (incorporar una tendencia) solo es posible en el caso de una tendencia determinística. En caso contrario, la única posibilidad es verificar la existencia de cointegración, lo que justificaría correr regresiones entre variables I(1), sin que el resultado de ésta sea espurio. Este tópico será tratado a continuación.

190

8.3. COINTEGRACION: PRUEBA DE ENGLE-GRANGER
8.3.1. INTRODUCCION
Si se tiene un modelo de regresión en que tanto la variable dependiente como la independiente son I(1), entonces se tendrá una regresión espuria, puesto que la presencia de las tendencias contaminará los resultados. Esto, a menos que ambas series tengan una relación de equilibrio de largo plazo. Formalmente, se dice que dos series (o más) están cointegradas si una combinación lineal de éstas es estacionaria. La intuición puede obtenerse es el siguiente ejemplo, en que suponemos que tanto el ingreso como el consumo son I(1):

CONSUMOt = β 0 + β 1 INGRESO + ε t
Puesto que el consumo y el ingreso son I(1), entonces ambas series representadas en un gráfico respecto al tiempo presentaran un comportamiento por ejemplo creciente. Para que exista cointegración entre ambas, es necesario que exista una relación entre ambas una vez eliminada la tendencia creciente, es decir:

ε t = CONSUMOt − β 0 − β 1 INGRESO
el error, que es una combinación lineal de las series, debe ser estacionario, I(0).

8.3.2. PRUEBA DE ENGLE-GRANGER (1987)
El procedimiento puede resumirse en los siguientes pasos: Paso 1: Verificar el orden de integración de las variables. Verificar que ambas son I(1). Paso 2: Estimar la relación de equilibrio de largo plazo, es decir la regresión:

CONSUMOt = β 0 + β 1 INGRESO + ε t
y verificar que los residuos de la regresión anterior son I(0). Si son I(1) concluimos que las variables no están cointegradas. Si los residuos son I(0) decimos que las variables son cointegradas de orden (1,1). Lamentablemente aquí tampoco pueden usarse los valores críticos de Dickey-Fuller, sino que por ejemplo los de Engle y Yoo (1987). Alternativamente puede usarse el procedure EGCRTVAL.SRC de Stephan Kohns para conocer los valores críticos 'exactos' para el test de Dickey-Fuller y los test de cointegración de Engle-Granger de acuerdo a MacKinnon (1991). Paso 3: Estimar el modelo de corrección de errores. Esto es, si las series son cointegradas (1,1), a corto plazo puede haber desequilibrios, que son capturados por el término de error. Luego, la regresión es:

ΔCONSUMOt = β 0 + β1ΔINGRESO + β 2 et −1 + ut
donde se espera que el nuevo error, u, esté bien comportado. En esta especificación de corrección de errores el coeficiente β1 captura las perturbaciones de corto plazo la variable

191

INGRESO, mientras que β2 captura las perturbaciones de largo plazo, o el ajuste de largo plazo, indicando qué proporción del desequilibro en el CONSUMO en un periodo es corregida en el periodo siguiente. Por último debemos notar que aún existen importantes problemas en la aplicación de las técnicas de regresión requeridas para implementar la prueba de cointegración de Engle y Granger, especialmente las referidas a los valores críticos de las pruebas para pequeñas muestras. También debemos comentar que existe otra técnica de detección de la cointegración entre series y es la de Johansen (1988) basada en el principio de máxima verosimilitud, la que supera una de las críticas al esquema de Engle-Granger, el que requiere definir a priori cual de las variables será la dependiente y cual la independiente en la regresión (cuando existen muchas variables es posible que exista cointegración bajo una especificación y no en otra) y que éste procedimiento sea un estimador de dos pasos (se requieren dos regresiones). En RATS, algunas pruebas del test de Johansen pueden implementarse con el procedure Johansen.400, y para un desarrollo de detallado de éste con ejemplos numéricos, sugerimos el libro de Enders (1996).

192

CAPITULO 9 MODELOS ARIMA Y VAR

Box y Jenkins (1976) propusieron la que hoy en día es una muy popular metodología para la identificación, estimación y predicción de series de tiempo univariadas estacionarias. Esta metodología se basa en los llamados modelos ARIMA, es decir modelos que poseen componentes autorregresivos (AR) y de medias móviles (MA), los que nos avocaremos a estimar ahora. La generalización de los modelos ARIMA al caso multivariado corresponde a los modelos de vectores autorregresivos (VAR), los que también revisaremos en este capítulo. Los modelos ARIMA y los modelos VAR son a veces llamados a-teóricos, en el sentido que una determinada serie es explicada básicamente por información pasada de la misma serie, sin que necesariamente exista un modelo teórico-económico detrás. A pesar de esto, cuando el objetivo es predictivo se ha encontrado que tales modelos resultan ser exitosos en muchos casos. Puesto que éste es un tema extenso y con un gran desarrollo, especialmente teórico, estamos aquí especialmente interesados en los aspectos estimacionales de los mismos.

9.1. AUTOCORRELACIONES SIMPLES Y PARCIALES
Anteriormente hemos calculado las autocorrelaciones simples de una serie usando la instrucción CORRELATE. Sin embargo en el análisis de los modelos ARIMA es de interés estimar también las autocorrelaciones parciales, por lo que comentaremos esta instrucción con mayor detalle. Las autocorrelaciones parciales corresponden a las correlaciones entre observaciones que están separadas k periodos de tiempo, manteniendo constantes las correlaciones de los rezagos intermedios. En otras palabras, es la correlación entre Yt y Yt-k después de eliminar el efecto de todas las observaciones intermedias de Y. Tanto las autocorrelaciones como las autocorrelaciones parciales pueden ser calculadas en RATS a través de la instrucción CORRELATE, la que tiene la siguiente estructura: CORRELATE series start end save_series donde save_series es la serie donde se almacenarán las autocorrelaciones simples (o covarianzas). Entre las opciones relevantes mencionamos las siguientes: NUMBER= indicará el número de correlaciones a calcular, PARTIAL= almacenará las autocorrelaciones parciales en la serie que aquí se designe. QSTATS indicará que se reporte el test Q de Ljung y Box, SPAN=ancho de los intervalos del test Q, permitirá reportar los test en los intervalos que aquí se indique.

193

-

DFC=grados de libertad para la corrección del test Q, lo que es necesario cuando apliquemos el test a los residuos de un modelo ARIMA, siendo DFC el número de parámetros estimados del modelo ARIMA. En los modelos sin intercepto, será igual al número de regresores (%NREG).

Luego, si queremos calcular las autocorrelaciones simples y parciales de la serie IGPA, la instrucción será por ejemplo: Ejemplo: all 135 cal 1990 1 12 data(unit=input, org=obs) / IGPA ... Ver datos en la Tabla 14 en el Anexo al final del libro table Series IGPA Obs Mean Std Error 135 3978.67051852 1526.11906472 Minimum Maximum 802.40000000 6234.64000000

CORRELATE(NUMBER=20, QSTATS, partial=PACF) IGPA / ACF ;* almacenamos en ACF las autocorrelaciones simples, y en PACF las autocorrelaciones parciales. Correlations of Series IGPA Monthly Data From 1990:01 To 2001:03 Autocorrelations 1: 0.97269531 0.93872391 0.90695896 0.87615335 0.84443161 0.81366689 7: 0.78277486 0.74993045 0.71218145 0.67147009 0.63162050 0.59274082 13: 0.55304969 0.51535876 0.48100681 0.45172036 0.42350436 0.39848247 19: 0.37675286 0.35934509 Partial Autocorrelations 1: 0.9726953 -0.1376111 0.0391463 -0.0106615 -0.0345359 0.0066410 7: -0.0262109 -0.0515335 -0.1026892 -0.0614139 -0.0054326 -0.0167350 13: -0.0416523 0.0165446 0.0274507 0.0698186 -0.0041137 0.0536802 19: 0.0337869 0.0578197 Ljung-Box Q-Statistics Q(20) = 1348.0091.

Significance Level 0.00000000

Dentro del programa de RATS viene el procedure BJIDENT.SRC, el que permite graficar ambas autocorrelaciones: source(noecho) c:\winrats\bjident.src ;* debe verificarse que el procedure se encuentre en el subdirectorio que aquí se indique. ;* analizamos la serie IGPA

@bjident IGPA

194

0 Regular 0 Seasonal
1.00

0.75

0.50

0.25

0.00

-0.25

-0.50

-0.75
CORRS PARTIALS

-1.00 0 5 10 15 20

Las correlaciones simples muestran el patrón típico de las series que contienen una raíz unitaria (ver capítulo anterior), mientras que las primeras 2 autocorrelaciones parciales son cercanas a 1.0, y las siguientes caen fuertemente. A continuación, con estas últimas herramientas analizaremos las características de los procesos AR, MA y ARMA.

9.2. PROCESOS AUTORREGRESIVOS (AR)
Un proceso autorregresivo de orden p, AR(p), es uno que tiene la siguiente forma:

Yt = θ 1Yt −1 + θ 2Yt − 2 + ... + θ p Yt − p + et
es decir, el valor actual de Y es explicado por una serie de p rezagos de ésta serie, más un error que se asume bien comportado.

9.2.1. SIMULACION DE PROCESOS AR(1)
A modo de ilustración, analicemos dos procesos AR(1):

Yt = 0.8Yt −1 + et

y

Yt = 1.05Yt −1 + et

donde et es N(0,1)

La simulación de estos procesos en RATS puede ser como sigue59:

59

Alternativamente: set e = %ran(sqrt(1.)) set(first=0.) Y = 0.8*y{1} + e graph 1 #y

195

Ejemplo:

all 100 set(first=0.) Y1 = 0.8*y1{1} + %ran(sqrt(1.)) graph 1 # y1 set(first=0.) Y2 = 1.05*y2{1} + %ran(sqrt(1.)) graph 1 # y2

;* para el primer proceso

;* para el segundo caso

;* los gráficos se muestran a continuación:
6

4

2

0

-2

-4

Y1

-6 1990 1991 1992 1993 1994 1995 1996 1997

800

700

600

500

400

300

200

100

Y2

0 1990 1991 1992 1993 1994 1995 1996 1997

Con esto concluimos que en un proceso autorregresivo puro como los graficados, cuando el valor del coeficiente de Yt-1 es menor que 1 se tiene un proceso estable (estacionario), mientras que cuando este coeficiente es mayor a uno (por ejemplo 1.05 como en este último caso), entonces el proceso no es estable (a veces es llamado explosivo)60, de modo que ésta es entonces una condición para la estabilidad del proceso (parte de este resultado ya fue analizado en el capítulo anterior de raíces unitarias).

60

En realidad estas condiciones pueden mostrarse formalmente, para lo cual remitimos al lector a un libro de texto, por ejemplo Hamilton (1994).

196

En el estudio de series de tiempo generalmente solo los procesos estables son de interés, de modo que calculemos ahora las autocorrelaciones del proceso

Yt = 0.8Yt −1 + et :

Ejemplo:

all 100 set(first=0.) Y1 = 0.8*y1{1} + %ran(sqrt(1.)) graph 1 # y1 CORRELATE(NUMBER=20, QSTATS, partial=PACF) Y1 / ACF Correlations of Series Y1 Autocorrelations 1: 0.7882296 0.5740131 0.3693403 7: -0.0195814 -0.0568924 -0.0675701 13: 0.1302877 0.0561430 0.0321961 19: -0.0271839 -0.0384956 Partial 1: 7: 13: 19:

0.2153705 0.0110425 0.0133554

0.1181134 0.0868289 0.0149682

0.0418716 0.1261858 0.0046558

Autocorrelations 0.7882296 -0.1248838 -0.1104673 -0.0121681 -0.0456636 -0.0010480 0.0181562 0.2017768 -0.0184856 -0.1542528 0.1133602 -0.0051634 -0.0218166 0.0408230

0.0200609 -0.0482909 0.0239858 -0.0456540 0.0247556 -0.0330204

Ljung-Box Q-Statistics Q(20) = 125.7266.

Significance Level 0.00000000

source(noecho) c:\winrats\bjident.src @bjident y1

0 Regular 0 Seasonal
1.00

0.75

0.50

0.25

0.00

-0.25

-0.50

-0.75
CORRS PARTIALS

-1.00 0 5 10 15 20

Es difícil sacar conclusiones de éste gráfico, sin embargo en la literatura se sugiere que en los modelos AR la autocorrelación simple decrece exponencialmente o sinusoidalmente (cambiando de valores positivos a negativos y viceversa), mientras que la autocorrelación parcial muestra altos valores el rezago correspondiente al orden del proceso AR, en este caso 1.0 (AR(1)). A efectos de comparación calculemos las autocorrelaciones de un modelo AR(5) como sigue: set(first=0.) Y1 = 0.8*y1{5} + %ran(sqrt(1.))

197

0 Regular 0 Seasonal
1.00

0.75

0.50

0.25

0.00

-0.25

-0.50

-0.75
CORRS PARTIALS

-1.00 0 5 10 15 20

Luego, en efecto, un proceso AR(p) presenta saltos en las autocorrelaciones parciales en cada p rezagos.

9.2.2. ESTIMACION DE UN PROCESO AUTOREGRESIVO
Un proceso AR puro es sencillo de estimar pues es lineal, de modo que en RATS puede hacerse a través de MCO con la instrucción LINREG (existe una diferencia en el valor del intercepto, o alternativamente a través de la instrucción BOXJENK, que estima modelos ARIMA generales, incluyendo procesos AR y MA puros. La estructura básica de esta última instrucción es la siguiente: BOXJENK depvar # series start end residuals

donde los parámetros son depvar para identificar la variable dependiente, start y end para definir el rango de estimación, y resid para la serie de residuos. Las opciones incluyen AR=número de parámetros autorregresivos y MA= número de parámetros de medias móviles. Veamos su funcionamiento a través de un ejemplo: Ejemplo: all 12 cal 2000 1 12 data(unit=input,org=obs) / fecha imacec desempleo ipc ... Ver datos en Tabla 1 del Anexo al final del libro table Series FECHA IMACEC DESEMPLEO IPC Obs Mean 12 2000.06500000 12 248.40000000 12 539.39166667 12 104.92500000 Std Error Minimum Maximum 0.03605551 2000.01000000 2000.12000000 8.31635847 235.20000000 267.40000000 54.53536731 473.50000000 626.60000000 1.41686915 102.49000000 106.94000000

198

BOXJENK(AR=||1,3||) DESEMPLEO

;* Y depende de Y{1} y de Y{3}

Dependent Variable DESEMPLEO - Estimation by Box-Jenkins Iterations Taken 2 Monthly Data From 2000:04 To 2000:12 Usable Observations 9 Degrees of Freedom 7 Centered R**2 0.734821 R Bar **2 0.696938 Uncentered R**2 0.998125 T x R**2 8.983 Mean of Dependent Variable 557.98888889 Std Error of Dependent Variable 49.94770877 Standard Error of Estimate 27.49673599 Sum of Squared Residuals 5292.4934326 Durbin-Watson Statistic 0.877079 Q(2-2) 3.848775 Significance Level of Q 0.00000000 Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. AR{1} 1.531501948 0.194296334 7.88230 0.00010018 2. AR{3} -0.551202184 0.200659270 -2.74696 0.02862940

Puede verificarse éste resultado a través de MCO61.

9.3. PROCESOS DE MEDIAS MOVILES
Un proceso de medias móviles de orden q es uno de la siguiente forma:

Yt = φ 0 et + φ1et −1 + φ 2 et − 2 + ... + φ q et − q
es decir, el valor actual de Y es explicado por una serie de q rezagos de los errores de estimación. El procedimiento de estimación en RATS pasa por la implementación del algoritmo de Gauss-Newton con derivadas numéricas.

9.3.1. SIMULACION DE PROCESOS MA(1)
Podemos simular un proceso MA(1) sin dificultad, como sigue: Ejemplo: all 100 cal 1990 1 12 set e = %ran(sqrt(2.)) set(first=0.) MA = 0.8*e{1} + e graph(key=loright) 1 # MA

61

LINREG # DESEMPLEO{1} DESEMPLEO{3}

199

4.8

3.6

2.4

1.2

0.0

-1.2

-2.4

MA

-3.6 1990 1991 1992 1993 1994 1995 1996 1997

Sin embargo, el comportamiento gráfico de éstos procesos no es muy ilustrativo. Para esto se sugiere calcular las autocorrelaciones simples y parciales.

Ejemplo:

CORRELATE(NUMBER=20, QSTATS, partial=PACF) MA / ACF Correlations of Series MA Monthly Data From 1990:01 To 1998:04 Autocorrelations 1: 0.3574948 -0.2417134 -0.1201119 -0.0824065 -0.1839364 -0.1283258 7: 0.0352844 0.0687600 0.0520542 0.1590731 0.1952079 0.0781264 13: -0.0498309 -0.0186524 0.0061665 -0.0969519 -0.1276538 -0.1229254 19: -0.0547254 0.1028566 Partial Autocorrelations 1: 0.3574948 -0.4236608 0.2156996 -0.3170660 -0.0028039 -0.1465397 7: 0.0778507 -0.0933100 0.0979341 0.1083484 0.1016991 0.0768566 13: -0.0072633 0.1529306 -0.0328841 0.0146450 -0.0771404 -0.1554368 19: 0.0151920 -0.0078666 Ljung-Box Q-Statistics Q(20) = 42.9001.

Significance Level 0.00210739

200

source(noecho) c:\winrats\bjident.src @bjident ma

0 Regular 0 Seasonal
1.00

0.75

0.50

0.25

0.00

-0.25

-0.50

-0.75
CORRS PARTIALS

-1.00 0 5 10 15 20

También es difícil obtener conclusiones claras en el gráfico de correlaciones de los modelos MA. En este caso la literatura señala que el patrón típico de un proceso MA(q) implica saltos cada q rezagos en las autocorrelaciones simples, y un decaimiento exponencial en las correlaciones parciales. A efectos de comparación construyamos otra simulación para un MA(5):

set(first=0.) MA = 0.8*e{5} + e @bjident ma

0 Regular 0 Seasonal
1.00

0.75

0.50

0.25

0.00

-0.25

-0.50

-0.75
CORRS PARTIALS

-1.00 0 5 10 15 20

El gráfico parece confirmar lo señalado anteriormente en cuanto a que las correlaciones parciales presentan a saltos cada 5 rezagos para el proceso MA anterior.

201

9.3.2. ESTIMACION DE UN PROCESO DE MEDIAS MOVILES
Para el caso del desempleo, la estimación utilizando la instrucción BOXJENK es, por ejemplo, la siguiente: Ejemplo: BOXJENK(MA=||1,3||) DESEMPLEO Dependent Variable DESEMPLEO - Estimation by Box-Jenkins Iterations Taken 10 Monthly Data From 2000:01 To 2000:12 Usable Observations 12 Degrees of Freedom 10 Centered R**2 -36.821088 R Bar **2 -40.603197 Uncentered R**2 0.648890 T x R**2 7.787 Mean of Dependent Variable 539.39166667 Std Error of Dependent Variable 54.53536731 Standard Error of Estimate 351.75606646 Sum of Squared Residuals 1237323.3029 Durbin-Watson Statistic 0.539739 Q(3-2) 21.914496 Significance Level of Q 0.00000285 Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. MA{1} 0.4478948910 0.4672662589 0.95854 0.36039008 2. MA{3} 0.5243038518 0.5721198273 0.91642 0.38101438

9.3. PROCESOS ARIMA
Un proceso ARIMA(p,q) tiene la siguiente forma:

Yt = θ 1Yt −1 + θ 2Yt − 2 + ... + θ p Yt − p + θ 0 et + φ1et −1 + φ 2 et − 2 + ... + φ q et − q + et
es decir la unión de procesos AR(p) y MA(q). Un proceso ARMA(3,3) puede ser simulado como sigue:

Ejemplo:

all 100 cal 1990 1 12 set e = %ran(sqrt(2.)) set(first=0.) YY = 0.5*YY{3}+0.8*e{3} + e CORRELATE(NUMBER=20, QSTATS, partial=PACF) yy / ACF ... source(noecho) c:\winrats\bjident.src @bjident yy

202

0 Regular 0 Seasonal
1.00

0.75

0.50

0.25

0.00

-0.25

-0.50

-0.75
CORRS PARTIALS

-1.00 0 5 10 15 20

Si es difícil sacar conclusiones en los modelos AR y en los modelos MA por separado, más lo es para el caso de los modelos ARIMA. Nuevamente la literatura sugiere aquí que ambas autocorrelaciones decrecen exponencialmente, lo que parece confirmarse en este último gráfico. Finalmente, la estimación de un modelo ARIMA en RATS es con la instrucción BOXJENK como sigue62:

Ejemplo:

BOXJENK(AR=||3||,MA=||2||) desempleo Dependent Variable DESEMPLEO - Estimation by Box-Jenkins Iterations Taken 10 Monthly Data From 2000:04 To 2000:12 Usable Observations 9 Degrees of Freedom 7 Centered R**2 -0.572325 R Bar **2 -0.796943 Uncentered R**2 0.988880 T x R**2 8.900 Mean of Dependent Variable 557.98888889 Std Error of Dependent Variable 49.94770877 Standard Error of Estimate 66.95495087 Sum of Squared Residuals 31380.758118 Durbin-Watson Statistic 0.387783 Q(2-2) 5.424152 Significance Level of Q 0.00000000 Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. AR{3} 0.9825785293 0.0578230093 16.99286 0.00000060 2. MA{2} 1.0416452807 0.6656597453 1.56483 0.16160111

El mismo proceso con una constante será:

Para especificaciones de modelos ARIMA complejos puede usarse la instrucción EQUATION seguido de la instrucción INITIAL. Por ejemplo: EQUATION(ar=input,ma=input, noconstant) eqs desempleo #3 #23

62

203

Ejemplo:

BOXJENK(constant, AR=||3||,MA=||2||) desempleo Dependent Variable DESEMPLEO - Estimation by Box-Jenkins NO CONVERGENCE IN 20 ITERATIONS LAST CRITERION WAS 0.1534669 Monthly Data From 2000:04 To 2000:12 Usable Observations 9 Degrees of Freedom 6 Centered R**2 0.748319 R Bar **2 0.664425 Uncentered R**2 0.998220 T x R**2 8.984 Mean of Dependent Variable 557.98888889 Std Error of Dependent Variable 49.94770877 Standard Error of Estimate 28.93412632 Sum of Squared Residuals 5023.1019945 Durbin-Watson Statistic 0.314025 Q(2-2) 0.012288 Significance Level of Q 0.00000000 Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. CONSTANT 492.9924859 1.5429219 319.51875 0.00000000 2. AR{3} -0.6715100 0.2070111 -3.24384 0.01760192 3. MA{2} 4.5048722 2.3014910 1.95737 0.09805183

Nótese que el algoritmo no ha alcanzado la convergencia para este ejemplo, probablemente debido al bajo número de observaciones. En cualquier caso el resultado obtenido anteriormente no puede considerarse como admisible. Puede intentarse aumentando el numero de iteraciones con ITERATIONS=100. Sin embargo esto tampoco asegura la convergencia.

9.4. EL ENFOQUE DE BOX Y JENKINS
Box y Jenkins han propuesto un procedimiento de 4 pasos que involucra la identificación, estimación, diagnóstico y predicción de modelos ARIMA. Veamos a continuación estos pasos para el ejemplo desarrollado por Enders (1996), pagina 47, para el índice de precios al consumidor de los Estados Unidos.

9.4.1. PASO 1: IDENTIFICACIÓN
El objetivo aquí es identificar el tipo de modelo ARIMA apropiado a la serie que se está analizando. Ejemplo: cal 1960 1 4 all 0 1992:2 data(unit=input,org=obs) / WPI ... Ver datos en la Tabla 15 table Series WPI Obs 130 Mean 65.090000000 Std Error 31.366183959 Minimum Maximum 30.500000000 116.200000000 ;* la información es trimestral partiendo en el 1º trimestre de 1960.

source(noecho) c:\winrats\bjident.src @bjident wpi

204

0 Regular 0 Seasonal
1.00

0.75

0.50

0.25

0.00

-0.25

-0.50

-0.75
CORRS PARTIALS

-1.00 0 5 10 15 20

;* puesto que las correlaciones simples decrecen muy lentamente, asumimos que la serie contiene una raíz unitaria, por lo que debe ser diferenciada. set dlwpi = log(wpi) - log(wpi{1}) ;* es la diferenciación basada en logaritmos @bjident dlwpi ;* calculamos nuevamente las autocorrelaciones

0 Regular 0 Seasonal
1.00

0.75

0.50

0.25

0.00

-0.25

-0.50

-0.75
CORRS PARTIALS

-1.00 0 5 10 15 20

;* el gráfico no es claro en sugerir una determinada estructura, por lo que se comienza intentando un ajuste ARMA(1,1):

9.4.2. PASO 2: ESTIMACIÓN
Una vez decidida una especificación para la serie, procedemos a estimarla verificando si el número de rezagos es el apropiado.

205

boxjenk(constant,ar=1,ma=1) dlwpi / resids

;* un modelo ARMA(1,1) con intercepto

... Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. CONSTANT 0.010484902 0.004405769 2.37981 0.01883337 2. AR{1} 0.889069641 0.059263358 15.00201 0.00000000 3. MA{1} -0.514522826 0.111683147 -4.60699 0.00000992

cor(partial=pacf,qstats,span=8,dfc=%nreg) resids

;* la corrección por grados de libertad es el número de regresores en BOXJENK

Correlations of Series RESIDS Quarterly Data From 1960:03 To 1992:02 Autocorrelations 1: 0.0074000 -0.0485621 -0.0120277 7: -0.0709830 -0.0954604 -0.1005335 13: 0.0116557 0.0424470 -0.0253348 19: 0.0445649 0.1333987 0.0265432 25: -0.1075636 0.1326487 0.0098318 31: -0.0902157 0.1551906

0.1585506 0.0133654 0.0147031 0.0350266 0.0454919

-0.0483299 0.1502811 -0.1225670 -0.0374033 -0.0119804 -0.0822551 -0.0012545 0.0750815 -0.0901244 -0.0275496

Partial Autocorrelations 1: 0.0074000 -0.0486195 -0.0113184 0.1567634 -0.0534576 0.1706623 7: -0.0832060 -0.1059913 -0.0898829 -0.0540433 -0.1009550 -0.0392973 13: 0.0487349 0.0667988 0.0340725 0.0104601 -0.0115962 -0.1276234 19: 0.0045915 0.0816563 0.0384150 0.0976347 -0.0005648 0.1000586 25: -0.1483901 0.0856106 -0.0279169 0.0449157 -0.0325792 -0.0695697 31: 0.0058260 0.1388075 Ljung-Box Q-Statistics Q(8) = 9.0642. Q(16) = 13.2492. Q(24) = 18.5435. Q(32) = 30.7083.

Significance Significance Significance Significance

Level Level Level Level

0.10653191 0.42875481 0.61439740 0.37930107

;* para efectos de comparación posterior, se calculan las medidas de bondad de ajuste de Schwartz y Akaike respectivamente63: compute sbc = %nobs*log(%rss) + %nreg*log(%nobs) compute aic = %nobs*log(%rss) + 2*%nreg display 'AIC' aic 'SBC' sbc AIC -523.39339 SBC -514.83730

;* analizamos los residuos, esperando que se comporten como ruido blanco, lo que implicaría que el modelo ha sido bien ajustado.

63

Anteriormente vimos estas pruebas de parsimonia. El objetivo es minimizar ambos criterios, los que pueden ser negativos.

206

@bjident resids

0 Regular 0 Seasonal
1.00

0.75

0.50

0.25

0.00

-0.25

-0.50

-0.75
CORRS PARTIALS

-1.00 0 5 10 15 20

;* aparentemente las correlaciones del 4º residuo son altas en términos relativos, por lo que puede sospecharse la existencia de un MA(4), debido posiblemente a la estacionalidad. Enders intenta entonces una especificación ARMA(1,||1,4||): boxjenk(constant,ar=1,ma=||1,4||) dlwpi / resids ... cor(partial=pacf,qstats,span=8,dfc=%nreg) resids Correlations of Series RESIDS Quarterly Data From 1960:03 To 1992:02 Autocorrelations 1: 0.0089624 -0.0328139 0.0703164 -0.0371207 -0.1003303 0.1643790 7: -0.0416431 -0.0704238 -0.0637490 0.0023137 -0.0800136 0.0130417 13: 0.0672441 0.0760727 -0.0200882 -0.0009854 -0.0204687 -0.1018997 19: 0.0413006 0.1192971 0.0407567 0.0259783 0.0031011 0.0614874 25: -0.1015937 0.1397403 0.0185355 -0.0080937 -0.0413297 -0.0409861 31: -0.1119197 0.1516016 Partial 1: 7: 13: 19: 25: 31: Autocorrelations 0.0089624 -0.0328968 0.0709975 -0.0399206 -0.0953807 0.1619230 -0.0503915 -0.0497286 -0.0944232 0.0118146 -0.0505699 -0.0143084 0.0645411 0.0882197 -0.0048105 -0.0319778 -0.0138617 -0.1005960 0.0351777 0.0883233 0.0754616 0.0357150 -0.0111996 0.1115583 -0.1192968 0.1231648 -0.0347506 0.0352566 -0.0425849 -0.0582155 -0.0172188 0.1442226 ;* estimamos el modelo ARMA(1,||1,4||)

Ljung-Box Q-Statistics Q(8) = 6.9692. Q(16) = 10.0318. Q(24) = 15.0892. Q(32) = 26.7146.

Significance Significance Significance Significance

Level Level Level Level

0.13752250 0.61317493 0.77128316 0.53382615

;* se calculan nuevamente las medidas de bondad de ajuste de Schwartz y Akaike:

207

compute sbc = %nobs*log(%rss) + %nreg*log(%nobs) compute aic = %nobs*log(%rss) + 2*%nreg display 'AIC' aic 'SBC' sbc AIC -527.39070 SBC -515.98258

;* ambos criterios sugieren que esta última especificación es más apropiada. Las autocorrelaciones son: @bjident resids

0 Regular 0 Seasonal
1.00

0.75

0.50

0.25

0.00

-0.25

-0.50

-0.75
CORRS PARTIALS

-1.00 0 5 10 15 20

;* en efecto, los residuos parecen ruido blanco, por lo que aceptamos esta última especificación.

9.4.3. PASO 3: VERIFICACIÓN / DIAGNÓSTICO
Enders propone efectuar una prueba F de cambio estructural64. compute rssall = %rss compute nobs = %nobs boxjenk(noprint,constant,ar=1,ma=||1,4||) dlwpi 1960:3 1971:4 resid compute rss1 = %rss boxjenk(noprint,constant,ar=1,ma=||1,4||) dlwpi 1972:1 1992:2 resid compute rss2 = %rss compute F = ((rssall-rss1-rss2)/%nreg)/((rss1+rss2)/(nobs-2*%nreg)) display F 0.53825 cdf ftest F %nreg nobs-2*%nreg F(4,120)= 0.53825 with Significance Level 0.70789873

64

Véase la sección 3.9.

208

Puesto que la hipótesis nula es inexistencia de cambio estructural, no podemos rechazarla a los niveles usuales de confianza. Este resultado nos permitiría usar el modelo anterior para fines predictivos.

9.4.4. PASO 4: PREDICCIÓN
Se obtienen 8 predicciones para cada modelo, limitando ahora el periodo de estimación hasta 1990:4 solamente, en lugar de 1992:02 como antes, a fin de dejar un número de observaciones finales para una comparación exsample, es decir con datos reales no usados en la estimación. smpl 1960:1 1990:4 ;* se efectuarán estimaciones solamente para este subperiodo

boxjenk(noprint,define=eq1,constant,ar=1,ma=||1,4||) dlwpi 60:3 90:4 resids forecast65(print) 1 8 1991:1 # eq1 fore1 ;* las predicciones son almacenadas en la serie fore1 y pueden obtenerse con print 91:01 92:04 fore1 Entry 1991:01 1991:02 1991:03 1991:04 1992:01 1992:02 1992:03 1992:04 DLWPI 0.0188847938078 0.0125375481179 0.0174885621621 0.0225979697375 0.0202683832419 0.0184263689693 0.0169698801945 0.0158182281240

boxjenk(noprint,define=eq2,constant,ar=1,ma=1) dlwpi 60:3 90:4 resids forecast(print) 1 8 1991:1 # eq2 fore2 ;* las predicciones son almacenadas en la serie fore2 Entry 1991:01 1991:02 1991:03 1991:04 1992:01 1992:02 1992:03 1992:04 DLWPI 0.0188094779880 0.0180561216985 0.0173876265082 0.0167944333198 0.0162680598113 0.0158009791435 0.0153865123313 0.0150187327370

Ahora mostramos un resumen de las series originales y de las predicciones de cada modelo.

65

Véase la predicción de sistemas VAR en la sección 9.5.3. para una descripción de esta instrucción.

209

print

1990:01

1992:04 wpi dlwpi fore1 fore2 DLWPI 0.014519311324 -0.001803426999 0.017889564751 0.029696505354 -0.020870322726 -0.009713100646 -0.001776199401 0.001776199401 -0.002665483586 0.010619568827 NA NA FORE1 NA NA NA NA 0.0188847938078 0.0125375481179 0.0174885621621 0.0225979697375 0.0202683832419 0.0184263689693 0.0169698801945 0.0158182281240 FORE2 NA NA NA NA 0.0188094779880 0.0180561216985 0.0173876265082 0.0167944333198 0.0162680598113 0.0158009791435 0.0153865123313 0.0150187327370

ENTRY 1990:01 1990:02 1990:03 1990:04 1991:01 1991:02 1991:03 1991:04 1992:01 1992:02 1992:03 1992:04

WPI 111.00000000000 110.80000000000 112.80000000000 116.20000000000 113.80000000000 112.70000000000 112.50000000000 112.70000000000 112.40000000000 113.60000000000 NA NA

;* a fin de determinar cual modelo habría tenido más éxito en predecir los valores futuros de la serie DLWPI puede calcularse ahora la media de la suma cuadrada de los errores de predicción (mean squared forecast errors, MSE), y también la suma cuadrada de los errores de predicción. La comparación será hecha para el periodo 1991:01 a 1992:02. smpl 91:1 92:2 set error1 91:1 92:2 = (dlwpi - fore1)**2 set error2 91:1 92:2 = (dlwpi - fore2)**2 table / error1 error2 Series ERROR1 ERROR2 Obs Mean Std Error Minimum Maximum 6 0.00057785770 0.00051875480 0.00006094613 0.00158046929 6 0.00055395699 0.00055631156 0.00002684701 0.00157448658

;* el criterio de la MSE muestra que el modelo ARMA(1,1) lo habría hecho un poco mejor que el modelo ARMA(1,||1,4||). set error3 91:1 92:2 = (dlwpi - fore1) set error4 91:1 92:2 = (dlwpi - fore2) table / error3 error4 Series ERROR3 ERROR4 Obs Mean 6 -0.0221388274 6 -0.0209576728 Std Error Minimum Maximum 0.0102604107 -0.0397551165 -0.0078068001 0.0117336922 -0.0396798007 -0.0051814103

;* finalmente el último criterio llega a una conclusión similar.

210

9.5. MODELOS VAR
Un Modelo de Vectores Autorregresivos (VAR) es la generalización multivariada de un modelo ARIMA66 a sistemas de ecuaciones. La principal característica de estos modelos es que cada variable posee la capacidad de influir en las demás variables (ya sea en las realizaciones presentes o rezagadas), es decir no distinguen las variables endógenas de las exógenas. Esta característica se basa en Sims (1980) de que generalmente no existe un conocimiento teórico sólido para la clasificación de las variables en endógenas y exógenas, lo que da sustento a un modelo VAR de que todas las variables deben ser tratadas sobre la una base de igualdad (sin distinción entre variable endógena y exógena). En el siguiente ejemplo, mostramos un modelo VAR para los rendimientos accionarios de las bolsas de valores de México (Rme), Brasil (Rbr) y Argentina (Rar), en el cual cada ecuación posee p valores rezagados de cada una de las variables, más una constante:

Rart = α 1 + ∑ β j Rart − j + ∑ γ j Rbrt − j + ∑ δ j Rmet − j + μ 1t
j =1 p j =1 p j =1 p

p

p

p

Rbrt = α 2 + ∑ ϕ j Rart − j + ∑ λ j Rbrt − j + ∑ ω j Rmet − j + μ 2t
j =1 j =1 p j =1 p

Rmet = α 3 + ∑ φ j Rart − j + ∑ψ j Rbrt − j + ∑θ j Rmet − j + μ 3t
j =1 j =1 j =1

p

donde: μit son términos de error estocástico o impulsos. αi, βj, γj, δj, ϕj, λj, ωj, φj, ψj y θj, son los coeficientes del modelo. Rmet, Rbrt y Rart son los retornos de los índices bursátiles de los países. Como se observa, en cada ecuación aparece una variable despejada en función de todas las otras variables retardadas y de sus propios rezagos. En general, los modelos VAR no están en forma reducida, por cuanto una variable endógena X depende contemporáneamente de otra variable endógena Z, como ocurriría si j=0 en el caso anterior (véase el apartado de ECUACIONES ESTRUCTURALES Y REDUCIDAS). Note que otra manera habitual de expresar el modelo expuesto en las ecuaciones anteriores, es de la forma matricial, como sigue:

⎡β p γ p ⎡ Rart ⎤ ⎡α1 ⎤ ⎡ β1 γ 1 δ1 ⎤ ⎡ Rart −1 ⎤ ⎢ Rbr ⎥ = ⎢α ⎥ + ⎢ϕ λ ω ⎥ * ⎢ Rbr ⎥ + ... + ⎢ϕ t ⎥ 1 1⎥ ⎢ t −1 ⎥ ⎢ p λp ⎢ 2⎥ ⎢ 1 ⎢ ⎢φ p ψ p ⎢ ⎦ ⎣ Rmet −1 ⎥ ⎦ ⎢ ⎣ φ1 ψ 1 θ1 ⎥ ⎦ ⎢ ⎣α 3 ⎥ ⎦ ⎢ ⎣ Rmet ⎥ ⎣

δ p ⎤ ⎡ Rart − p ⎤ ⎡ μ1t ⎤ ⎥ ⎥ ⎢ ⎥ ω p ⎥ * ⎢ Rbrt − p ⎥ + ⎢ ⎢ μ 2t ⎥ ⎥ ⎣ μ 3t ⎥ ⎢ θp ⎥ ⎦ ⎦ ⎣ Rmet − p ⎦ ⎢

yt = V + A1 yt −1 + A2 yt −2 + ... + ApYt − p + ut (kx1) = (kx1) + (kxk ) * (kx1) + ... + (kxk ) * (kx1) + (kx1) E (ut ) = 0 E (ut ut ' ) = ∑ u , no diagonal, en general E (ut u s ' ) = 0, para s ≠ t

66

En realidad éstos son los llamados modelos VARMA, aunque son poco populares. Los VAR son una generalización de procesos con componentes AR solamente.

211

9.5.1. ESTIMACION DE UN MODELO VAR
Los modelos VAR pueden ser estimados en RATS formando un sistema de ecuaciones con la instrucción SYSTEM, y luego usando la instrucción ESTIMATE. Esta estructura de estimación facilita la realización de procedimientos más avanzados como los de impulso-respuesta y predicción, lo que veremos más adelante. La definición de un proceso VAR en RATS es como sigue: SYSTEM : numero_de_ecuaciones VARIABLES : se indican aquí las variables a ser usadas en el sistema LAGS : numero_de_rezagos DETERMINISTIC : se indican las variables determinísticas, incluyendo CONSTANT si es requerido END(SYSTEM) : para finalizar la construcción del sistema67. ESTIMATE start end residuals coeffs ;* es la instrucción de estimación del sistema VAR Los parámetros de ESTIMATE son: Residuals: indíquese aquí el número de la primera serie donde se almacenarán los residuos. coeffs: indíquese aquí la primera serie de un grupo de series para los coeficientes. Entre las principales opciones de ESTIMATE se encuentra la posibilidad de ver las pruebas F (FTESTS) sobre grupos de rezagos en el sistema. NOPRINT para no ver la salida de la regresión, y SIGMA entrega la matriz de covarianzas de los residuos. Veamos como operan estas instrucciones para un sistema bivariado de los cambios trimestrales del Producto per cápita desestacionalizado de los EEUU (Y1), y del ingreso disponible (Y2). Los datos son trimestrales comenzando el 2º trimestre de 1951 y terminando el último trimestre de 1969. Ejemplo: cal 1951 2 4 all 1969:4 data(unit=input,org=obs) / yy1 yy2 ... Ver datos en Tabla 16 en el Anexo al final del libro set y1 = yy1 set y2 = yy2 table / Series YY1 YY2 Y1 Y2 Obs 75 75 75 75 Mean 13.213333333 15.640000000 13.213333333 15.640000000 Std Error 20.574382742 21.734665299 20.574382742 21.734665299 Minimum -61.000000000 -35.000000000 -61.000000000 -35.000000000 Maximum 65.000000000 76.000000000 65.000000000 76.000000000 ;* importante es no trabajar con los datos originales, sino con unos transformados

system 1 to 2 ;* existen dos variables Y1 y Y2 vars y1 y2 lags 1 to 4 ;* usando 4 lags. det constant ;* se define intercepto, luego se trata de un total de 18 coeficientes a estimar, 9 por ecuación (intercepto más 4 rezagos de Y1 más 4 rezagos de Y2) end(system) estimate(noftest, sigma, outsigma=VV) * 1968:4 1 ... Variable
67

Coeff

Std Error

T-Stat

Signif

Existen otros subcomandos posibles de SYSTEM se encuentran: SPECIFY (estimacion bayesiana), y KFSET y TVARYING para Kalman filtering.

212

******************************************************************************* 1. Y1{1} -0.068107492 0.151108462 -0.45072 0.65387240 2. Y1{2} 0.153892952 0.165380022 0.93054 0.35594795 3. Y1{3} 0.112649103 0.166895164 0.67497 0.50237723 4. Y1{4} -0.187045533 0.124442742 -1.50307 0.13824801 5. Y2{1} 0.502831942 0.124838353 4.02786 0.00016570 6. Y2{2} -0.029019408 0.148947806 -0.19483 0.84620739 7. Y2{3} -0.160324034 0.149182879 -1.07468 0.28696803 8. Y2{4} 0.069856718 0.127910501 0.54614 0.58706615 9. Constant 8.251011087 3.136996546 2.63023 0.01090910 ... Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Y1{1} 0.232896343 0.185496288 1.25553 0.21432076 2. Y1{2} -0.047743426 0.203015634 -0.23517 0.81490422 3. Y1{3} 0.036336389 0.204875578 0.17736 0.85984488 4. Y1{4} 0.102391922 0.152762237 0.67027 0.50534591 5. Y2{1} 0.325598426 0.153247877 2.12465 0.03788865 6. Y2{2} -0.110143479 0.182843931 -0.60239 0.54926208 7. Y2{3} 0.013079911 0.183132499 0.07142 0.94330665 8. Y2{4} -0.059481927 0.157019156 -0.37882 0.70620508 9. Constant 8.974221050 3.850884373 2.33043 0.02328317 Obsérvese que el gran número de parámetros a estimar consume grados de libertad, lo que en algunos casos puede revestir especial importancia. La salida también entrega la matriz de covarianzas de los residuos, puesto que ha sido requerida en ESTIMATE(sigma). También allí fue requerido que ésta matriz sea almacenada en VV (outsigma=VV) para que pueda ser usada posteriormente. Covariance\Correlation Matrix of Residuals Y1 Y2 Y1 245.7255742198 0.5585723408 Y2 168.4908120575 370.2910667895 wri vv 245.7256 168.4908 370.2911

El lector notará que la especificación anterior del sistema VAR puede ser alternativamente estimada a través de SUR (véase capítulo 7). En efecto: EQUATION eqn1 Y1 # CONSTANT Y1{1} Y1{2} Y1{3} Y1{4} Y2{1} Y2{2} Y2{3} Y2{4} EQUATION eqn2 Y2 # CONSTANT Y1{1} Y1{2} Y1{3} Y1{4} Y2{1} Y2{2} Y2{3} Y2{4} SUR 2 * 1968:4 # eqn1 # eqn2 ... Variable Coeff Std Error T-Stat Signif ******************************************************************************* 1. Constant 8.251011087 2.918707916 2.82694 0.00469952 2. Y1{1} -0.068107492 0.140593545 -0.48443 0.62808193 3. Y1{2} 0.153892952 0.153872015 1.00014 0.31724466 4. Y1{3} 0.112649103 0.155281726 0.72545 0.46817611

213

5. 6. 7. 8. 9. ...

Y1{4} Y2{1} Y2{2} Y2{3} Y2{4}

-0.187045533 0.502831942 -0.029019408 -0.160324034 0.069856718

0.115783365 0.116151447 0.138583238 0.138801954 0.119009820

-1.61548 4.32911 -0.20940 -1.15506 0.58698

0.10620712 0.00001497 0.83413556 0.24806748 0.55721525

Variable Coeff Std Error T-Stat Signif ******************************************************************************* 10. Constant 8.974221050 3.582919693 2.50472 0.01225474 11. Y1{1} 0.232896343 0.172588486 1.34943 0.17719840 12. Y1{2} -0.047743426 0.188888744 -0.25276 0.80045406 13. Y1{3} 0.036336389 0.190619263 0.19062 0.84882108 14. Y1{4} 0.102391922 0.142132242 0.72040 0.47127938 15. Y2{1} 0.325598426 0.142584088 2.28355 0.02239777 16. Y2{2} -0.110143479 0.170120693 -0.64744 0.51734517 17. Y2{3} 0.013079911 0.170389182 0.07676 0.93881056 18. Y2{4} -0.059481927 0.146092942 -0.40715 0.68389689 Covariance\Correlation Matrix of Residuals Y1 Y2 Y1 245.7255742198 0.5585723408 Y2 168.4908120575 370.2910667895 La instrucción SUR de hecho puede usarse para estimar modelos VAR más complejos, incluyendo la posibilidad de incluir otras variables explicativas.

9.5.2. PRUEBAS PARA LA LONGITUD DE LOS REZAGOS
Existen básicamente dos forma de evaluar si el modelo VAR está bien especificado, es decir si contiene el número apropiado de rezagos. El primero es una prueba de razón de verosimilitud a través de la instrucción RATIO. El segundo caso se trata de los criterios de parsimonia multivariados AIC y SBC, los que se definen como:

AIC = T log Σ + 2 N SBC = T log Σ + N log(T )
donde |∑| es el determinante de la matriz de covarianzas de los residuos y N es el número total de parámetros estimados en todas las ecuaciones. Por ejemplo, si se tiene un sistema con 4 variables y 5 rezagos cada una, más 3 determinísticas (1 constante y 2 dummies) y el sistema tiene 4 ecuaciones, entonces se tendrán (4*5+3)*4=92 parámetros. Como ilustración, supongamos que en el ejemplo anterior calculemos los criterio AIC y SBC para los rezagos K=0, 1, 2, 3, y 4. En este caso N=(2*K+1)*2: Ejemplo: system 1 to 2 vars y1 y2 lags 1 to 4 ;* estimamos primero con 4 rezagos det constant end(system) estimate(noftests,sigma) * 1968:4 1 Covariance\Correlation Matrix of Residuals Y1 Y2 Y1 245.7255742198 0.5585723408 Y2 168.4908120575 370.2910667895

214

dis %logdet 11.04453

;* entrega el logaritmo del determinante de la matriz de covarianzas de los residuos.

com K=4. ;* para el caso en que K=4.0 com N=(2*K+1)*2. dis N 18.00000 com aic = %nobs * %logdet + 2*N com sbc = %nobs * %logdet + N*log(%nobs) dis 'AIC=' aic 'SBC=' sbc AIC= 775.98377 SBC= 815.66823

;* repitiendo para el caso de 3, 2, 1 y 0 rezagos los resultados son:

3 2 1 0

AIC= AIC= AIC= AIC=

779.02830 782.07283 785.11737 788.16190

SBC= SBC= SBC= SBC=

810.10141 804.41390 798.60834 792.68726

Ambas medidas llegan a conclusiones distintas. Supongamos que adoptamos K=1.0 como modelo alternativo. Comparemos ahora K=4 (el modelo no restringido) y K=1 (el modelo restringido) a través del test de razón de verosimilitud. Esto es implementado a través de la instrucción RATIO, la cual tiene la siguiente estructura: RATIO start end # < supp. card > list of first set of series # < supp. card > list of second set of series donde en el primer # debe indicarse la lista de los residuos del primer sistema, y en el segundo # la lista de los residuos del segundo sistema. Las opciones más importantes son: DEGREES para corregir por grados de libertad, e igual al número de restricciones aplicadas al sistema, y MCORR igual a una corrección por grados de libertad para pequeñas muestras sugerida por Sims (1980), igual al número de variables en cada ecuación del sistema VAR no restringida.

-

En nuestro ejemplo, DEGREES = 3*2*2=12, puesto que la hipótesis es que existen 3 rezagos = 0 para cada serie (6 rezagos totales) y se trata de 2 ecuaciones. Además, MCORR= 4*2+1 = 9, puesto que en cada ecuación del sistema no restringido existen 4 rezagos para cada una de las variables, más una constante. Ejemplo: system 1 to 2 vars y1 y2 lags 1 to 4 det constant end(system) estimate(noprint,noftests) * 1968:4 1 ;* 1 indica que este será el número que identificará la primera serie de errores y 2 para la segunda serie de errores.

215

system 1 to 2 vars y1 y2 lags 1 det constant end(system) estimate(noprint,noftests) * 1968:4 3 ;* 3 indica que este será el número que identificará la primera serie de errores y 4 para la segunda serie de errores. ratio(degrees=12,mcorr=9) * 1968:4 # 1 2 ;* 1 y 2 son las series de errores del sistema no restringido # 3 4 ;* 3 y 4 son las series de errores del sistema restringido

216

Covariance\Correlation Matrices YY1 YY2 YY1 300.4232708857 0.2388498660 YY2 84.9747019187 421.3041386579 Y1 283.54061 -2774.55617 Y2 -0.0748595817 4844812.67183

Y1 Y2

Log Determinants are 1.168981e+001 2.103515e+001 Chi-Squared(12)= 579.411614 with Significance Level 0.00000000 La conclusión es que rechazamos ampliamente que los rezagos postulados sean cero, de modo que es preferible el modelo con 4 rezagos. Es decir, el modelo de 1 rezago pierde información importante. Ahora veremos que a través de la metodología de vectores autorregresivos (VAR) es posible efectuar diversos análisis en el comportamiento de las variables del sistema, entre estos se encuentra la predicción, pruebas de causalidad y el análisis de impulso-respuesta (innovation accounting).

9.5.3 PREDICCION
La instrucción apropiada para la predicción de sistemas de ecuaciones es FORECAST, la que tiene la siguiente estructura básica: FORECAST num_equations steps start # equation forecasts donde num_equations es el número de ecuaciones del sistema VAR, steps es el número de periodos de predicción, y stat es el periodo de inicio de la predicción. Como instrucciones complementarias deben indicarse en cada # la ecuación a predecir (equation), y en forecasts la serie donde se almacenará la predicción de cada serie. Efectuemos ahora predicciones al sistema VAR con 1 rezago. Ejemplo: system 1 to 2 vars y1 y2 lags 1 det constant end(system) estimate(noftests) * 1968:4 1 forecast 2 6 1970:1 # 1 F_Y1 # 2 F_Y2

217

print 1967:04 * y1 y2 f_y1 f_y2 ENTRY 1967:04 1968:01 1968:02 1968:03 1968:04 1969:01 1969:02 1969:03 1969:04 1970:01 1970:02 1970:03 1970:04 1971:01 1971:02 Y1 6.00000000000 54.00000000000 30.00000000000 54.00000000000 8.00000000000 21.00000000000 9.00000000000 9.00000000000 16.00000000000 NA NA NA NA NA NA Y2 17.00000000000 36.00000000000 43.00000000000 -7.00000000000 9.00000000000 -2.00000000000 19.00000000000 47.00000000000 10.00000000000 NA NA NA NA NA NA F_Y1 NA NA NA NA NA NA NA NA NA 11.695887586722 13.544366559504 13.656488193972 13.884495037300 13.965752414782 14.014429694162 F_Y2 NA NA NA NA NA NA NA NA NA 14.081913978675 14.294478147365 14.787298074123 14.959807336929 15.064067869765 15.113937464886

;* el siguiente gráfico muestra las predicciones comparadas de cada serie. GRAPH(PATTERNS, KEY=LORIGHT) # Y1 1967:04 * # Y2 1967:04 * # F_Y1 1967:04 * # F_Y2 1967:04 * 4

56

48

40

32

24

16

8

0
Y1 Y2 F_Y1 F_Y2

-8 1968 1969 1970 1971

218

9.5.4. CAUSALIDAD A LO GRANGER
La prueba de causalidad a lo Granger se implementa fácilmente en RATS con la instrucción ESTIMATE, eliminando la opción “noftests”. Estas pruebas F del sistema (bloque) indican si una variable Z ayuda a predecir una variable X un periodo adelante o no (causalidad), lo que individualmente puede ser de interés68. Veámoslo con el ejemplo del sistema VAR con 1 rezago anterior: Ejemplo: system 1 to 2 vars y1 y2 lags 1 det constant end(system) estimate(noprint) * 1968:4 1 F-Tests, Dependent Variable Y1 Variable F-Statistic Y1 0.0051 Y2 19.9878 F-Tests, Dependent Variable Y2 Variable F-Statistic Y1 3.3274 Y2 5.8539

Signif 0.9431688 0.0000308

Signif 0.0725939 0.0182634

En este caso tenemos evidencia que Y1 causa a lo Granger a Y2, y que Y2 no causa a lo Granger a Y1.

9.5.5. ANALISIS DE IMPULSO RESPUESTA
Consiste en la introducción de un shock artificial de 1 desviación estándar sobre una variable en el modelo, donde interesa la respuesta de las variables dependientes a este shock artificial69. Como ilustración, en el caso del sistema de rendimientos accionarios de varios países, puede ser deseable observar las consecuencias de un shock en el rendimiento del índice de Estados Unidos y su efecto en los demás países del modelo, y a su vez, en el mismo país, dejando las variables restantes en el periodo inicial igualadas a 0. Lo anterior se traduce en una respuesta en diferentes magnitudes por parte de las demás variables del modelo. Para esto se utiliza la instrucción ERRORS, la que tiene la siguiente estructura: ERRORS equations steps VCV_matrix # equation stderrors newstart column

(one card per equation)

donde en equations debe indicarse el número de ecuaciones del sistema VAR, en steps el número de periodos de predicción requeridos, y en VCV_matrix la matriz de covarianza de los residuos. La principal opción de esta instrucción es IMPULSES, la que entrega las respuestas de cada variable a los shocks.
Sin embargo, puesto que Z puede afectar a X a través de otra ecuación del sistema, es sugerido implementar otras pruebas, como la de razón de verosimilitud. Véase la sección 3.8 para más información de la prueba de Causalidad de Granger. 69 Esta innovación es ortogonalizada usando la descomposición de Choleski de los residuales de la matriz de varianzacovarianza. La ortogonalización se basa en el teorema de invertibilidad, el cual establece que un proceso autorregresivo de orden cualquiera puede ser representado por un proceso de medias móviles con el fin de observar la dinámica del comportamiento de los errores.
68

219

Estimemos entonces las respuestas en el sistema VAR con 1 rezago anterior: Ejemplo: system 1 to 2 vars y1 y2 lags 1 det constant end(system) estimate(noftests,noprint, outsigma=vv) * 1968:4 1 errors(impulses, noprint) 2 4 vv # 1 # 2 Responses to Shock in Y1 Entry Y1 1 16.210470792529 2 4.680537709440 3 3.126526810150 4 1.443816771005

Y2 9.8856800479768 6.7055656577546 3.0805766235811 1.6421534306001

Responses to Shock in Y2 Entry Y1 Y2 1 0.0000000000000 16.590077677984 2 7.6466366169858 4.929966604206 3 2.3308253958931 3.242362317159 4 1.5122965197784 1.505280356460 Esto muestra que un shock de 1 desviación estándar en Y1 (igual a 16.21 unidades) provoca una reacción de 9.886 unidades en Y2. En el siguiente periodo Y1 cae a 4.68 y Y2 cae a 6.706, y así sucesivamente, lo que indica que las respuestas tiene a cae a cero. Puesto que éstas respuestas no están estandarizadas, están afectas por las unidades de medida, lo que dificulta el análisis y comparación. Para esto es conveniente construir gráficos de shocks estandarizados. Para esto reproducimos el siguiente segmento de programa, en el cual debe cambiarse el valor de algunos parámetros de acuerdo al modelo particular que se esté analizando. Ejemplo: system 1 to 2 vars y1 y2 lags 1 det constant end(system) estimate(noftests,noprint, outsigma=vv) * 1968:4 1 COMPUTE NEQN = 2 ;* cambiar aqui de acuerdo al numero de ecuaciones DECLARE RECT[SERIES] IMPBLK(NEQN,NEQN) DECLARE VECT[SERIES] SCALED(NEQN) DECLARE VECT[LABELS] IMPLABEL(NEQN) COMPUTE IMPLABEL=|| 'Y1','Y2'|| LIST IEQN = 1 TO NEQN DO I=1,NEQN impulse(NOPRINT) NEQN 4 I VV ;* cambiar aqui de acuerdo a las variables del sistema

;* cambiar aqui segun número de shocks y nombre matriz

CARDS IEQN IMPBLK(IEQN,I) 1 IEQN DISPLAY(STORE=HEADER) 'Plot of Responses To' IMPLABEL(I) DO J=1,NEQN SET SCALED(J) = (IMPBLK(J,I))/SQRT(VV(J,J)) ;* cambiar aqui segun nombre matriz LABELS SCALED(J)

220

# IMPLABEL(J) END DO J GRAPH(HEADER=HEADER,KEY=UPRIGHT,NUMBER=0, patterns) NEQN CARDS SCALED(IEQN) END DO I

Plot of Responses To Y2
0.9
Y1 Y2

0.8

0.7

0.6

0.5

0.4

0.3

0.2

0.1

0.0 0 1 2 3

Plot of Responses To Y1
1.00
Y1 Y2

0.75

0.50

0.25

0.00 0 1 2 3

En efecto, los gráficos permiten una comparación más clara, apreciándose la forma en que el shock en una variable afecta a la otra y la forma en que este efecto se desvanece a través del tiempo. Por ejemplo en el caso del sistema VAR para diferentes bolsas accionarias, uno puede estar interesado en apreciar como un determinado país “contagia” a los demás, y cuanto dura ese contagio.

221

Para terminar, es importante señalar una crítica a este tipo de análisis de impulso-respuesta, es que al reversar el orden de las variables en el sistema original (es decir establecer vars y2 y1, por ejemplo) puede generar respuestas distintas, es decir, las respuestas dependen del orden en la construcción del sistema VAR.

222

REFERENCIAS
Akaike, H. (1973). “Information Theory and the Extension of the Maximum Likelihood Principle”. En 2º International Symposium on Information Theory. B. Petrov y F. Csaki eds., Budapest. Bollerslev, T. (1986). “Generalized Autorregressive Conditional Heteroscedasticity”. Journal of Econometrics, Vol. 31(1986), pp 307-327. Box, G. y G. Jenkins (1976). Time Series Analysis, Forecasting and Control. Holden Day: San Francisco. Breush, T. (1978). “Testing for Autocorrelation in Dynamic Linear Models”. Australian Economic Papers, 17, pp. 334-355. Breusch, T. y A. Pagan (1979). “A Simple Test for Heteroscedaticity and Random Coefficient Variation”. Econometrica, Vol. 47, pp. 1287-1294. Chow, G. (1960). “Tests of Equality Between Sets of Coefficients in Two Linear Regressions”. Econometrica 28, pp. 591-605. Cochrane, D. y G. Orcutt (1949). “Application of Least Squares Regression to Relationships Containing Autocorrelated Error Terms”. Journal of the American Statistical Association 44, pp. 32-61. Doan, T. (1995). RATS-User’s Manual-versión 4.2. Estima: Evanston Dickey, D. y W. Fuller (1979). "Distribution of the Estimates for Autoregressive Time Series with a Unit Root", Journal of the American Statistical Association, 74, pp. 427-431. Dickey, D. y W. Fuller (1981). "Likelihood ratio Statistics for Autoregressive Time Series with a Unit Root”. Econometrica 49, pp. 1057-1072. Durbin, J. y G. Watson (1951). “Testing for Serial Correlation in Least Squares Regression-II”. Biometrika 38, pp. 159-178. Durbin, J. (1970). “Testing for Serial Correlation in Least Squares Regression When Some of the Regressors are Lagged Dependent Variables”. Econometrica 38, pp. 410-421. Engle, R. (1982).“Autoregressive Conditional Heteroscedasticity with Estimates of the Variance of United Kingdom Inflation”. Econometrica (50): 987-1008. Engle, R. y C. Granger (1987), "Cointegration and Error Correction: Representation, Estimation and Testing", Econometrica, 55, 251-276. Engle, R. y B. Yoo (1987). “Forecasting and Testing in Cointegrated Systems”. Journal of Econometrics 35. pp. 143-159. Enders, W. (1995). Applied Econometric Time Series, New York. John Wiley and Sons. Enders, W. (1996). Rats Handbook for Econometric Time Series. John Wiley and Sons. Godfrey, L. (1978). “Testing AgainstGeneral Autorregresive and Moving Average Error Models When the Regressors Include Lagged Dependent Variables”. Econometrica, 46. pp. 1293-1302. Goldleld, S. y R. Quandt (1972). Nonlinear Methods in Econometrics. Amsterdam: North Holland, cap. 3. Granger, C. (1969). “Investigating Causal Relations by Econometric Models and Cross Spectral Models”. Econometrica, Vol. 37, pp. 424-438.

223

Greene, W. (1999). Análisis Econométrico, Prentice Hall Iberia S.R.L. 3a. Edición, Madrid, España. Gujarati, D. (1997). Econometría. Mc Graw Hill. 3a. Edición, Santafé de Bogotá, Colombia. Hall, R., J. Johnston y D. Lilien (1990). MicroTsp User’s Manual v. 7.0. Quantitative Micro Software, Irvine, California. Hamilton, J. (1994). Time Series Analysis. Princeton University Press. Hidreth, C. y J. Lu (1960). “Demand Relations with Autocorrelated Disturbances”. Technical Bulletin Nº276, Michigan State University. Agricultural Experiment Station. Intriligator, M. (1991). Modelos Econométricos, Técnicas y Aplicaciones. Fondo de Cultura Económica. México. Johansen, S. (1988), "Statistical Analysis of Cointegrated Vectors", Journal of Economics Dynamics and Control, 12, 231-254 Judge, G., Hill C. y Griffihs, W. (1988). Introduction to the theory and Practice of Econometrics. John Wiley Sons. Second Edition. Klein, L. (1950). Economic Fluctuations in the United States 1921-1941. New York: John Wiley and Sons. Klein, L. (1962). An Introduction to Econometrics. Englewood Cliffs: Prentice Hall. Ljung, G. Y G. Box (1978). “On a Measure of Lack of Fit in Time Series Models”. Biometrica 65, 297-303. Maddala, G. S. (1996). Introducción a la Econometría. Segunda Edición. Prentice-Hall. Mackinnon, J. (1991). “Critical Values of Cointegration Tests”, en Engle y Granger eds. Long Run Economic Relationships: Readings in Cointegration, cap. 13. Oxford University Press. New York. Mills, T. (1993). The Econometric Modelling of Financial Time Series. Cambridge University Press. Newey, W. y K. West (1987). "A Simple Positive-Definite Heteroskedasticity and Autocorrelation Consistent Covariance Matrix". Econometrica (55): 703–708. Otero J. M. (1993). Econometría, Series Temporales y Predicción”. Editorial AC. Primera Edición. Pindyck, R. y D. Rubinfeld (1998). Econometric Models and Economic Forecasts. 4º Edición. Irwin Mc Graw Hill. Schwartz, G. (1978). “Estimating the Dimension of a Model”. Annals of Statistics, Vol. 6, pp 461-464. Sims, C. (1980). “Macroeconomics and Reality”. Econometrica, Vol. 48, pp 1-49. White, H. (1980). “A Heteroskedasticity-Consistent Covariance Matrix Estimator and Direct Test for Heteroskedasticity”. Econometrica, Vol. 48, pp. 817-838. Zellner, A. (1962). “An Efficient Method of Estimating Seemingly Unrelated Regressions and Test of Aggregation Bias”. Journal of the American Statistical Association 57, pp. 348-368.

224

ANEXO: DATOS UTILIZADOS EN EL LIBRO
TABLA 1 INFORMACIÓN MENSUAL DE ACTIVIDAD ECONÓMICA EN CHILE (IMACEC), DESEMPLEO EN MILES DE PERSONAS DESOCUPADAS, E INDICE DE PRECIOS AL CONSUMIDOR (BASE: DICIEMBRE 1998=100). FECHA 2000.01 2000.02 2000.03 2000.04 2000.05 2000.06 2000.07 2000.08 2000.09 2000.10 2000.11 IMACEC 254.40 243.19 267.40 244.07 248.97 244.34 242.02 243.47 235.21 254.93 252.29 DESEMPLEO 497.40 473.53 479.93 494.66 521.18 546.79 592.45 613.53 626.59 585.37 551.84 IPC 102.49 103.06 103.81 104.31 104.53 104.77 104.91 105.18 105.82 106.46 106.82

2000.12 250.53 489.42 106.94 Fuente: Banco Central de Chile

225

TABLA 2 INFORMACIÓN DE 30 EMPRESAS RESPECTO A UNA FUNCIÓN DE PRODUCCIÓN COBB-DOUGLAS SIMPLE, EN QUE EL PRODUCTO (Q) ES EXPLICADO POR EL CAPITAL (K) Y EL TRABAJO (L) Trabajo (L) 0.228 0.258 0.821 0.767 0.495 0.487 0.678 0.748 0.727 0.695 0.458 0.981 0.002 0.429 0.231 0.664 0.631 0.059 0.811 0.758 0.050 0.823 0.483 0.682 0.116 0.440 0.456 0.342 0.358 Capital (K) 0.802 0.249 0.771 0.511 0.758 0.425 0.452 0.817 0.845 0.958 0.084 0.021 0.295 0.277 0.546 0.129 0.017 0.906 0.223 0.145 0.161 0.006 0.836 0.521 0.930 0.495 0.185 0.092 0.485 Producto (Q) 0.256918 0.183599 1.212883 0.522568 0.847894 0.763379 0.623130 1.031485 0.569948 0.882497 0.108827 0.026437 0.003750 0.461626 0.268474 0.186747 0.020671 0.100159 0.252334 0.103312 0.078945 0.005799 0.723250 0.776468 0.216536 0.541182 0.316320 0.123811 0.386354

Empresa 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30

0.162 0.934 0.279431 Fuente: Judge et al. Pág. 512

226

TABLA 3 AHORRO E INGRESO DEL REINO UNIDO 1946-1963 (MILLONES DE LIBRAS) Año 1946 1947 1948 1949 1950 1951 1952 1953 1954 1955 1956 1957 1958 1959 1960 1961 1962 Ahorro 0.36 0.21 0.08 0.20 0.10 0.12 0.41 0.50 0.43 0.59 0.90 0.95 0.82 1.04 1.53 1.94 1.75 Ingreso 8.8 9.4 10.0 10.6 11.0 11.9 12.7 13.5 14.3 15.5 16.7 17.7 18.6 19.7 21.1 22.8 23.9

1963 1.99 25.2 Fuente: Gujarati, Pág. 258

227

TABLA 4 CONSUMO E INGRESO DE 20 FAMILIAS (MILES DE DÓLARES) Familia 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 Consumo 19.9 31.2 31.8 12.1 40.7 6.1 38.6 25.5 10.3 38.8 8.0 33.1 33.5 13.1 14.8 21.6 29.3 25.0 17.9 Ingreso 22.3 32.3 36.6 12.1 42.3 6.2 44.7 26.1 10.3 40.2 8.1 34.5 38.0 14.1 16.4 24.1 30.1 28.3 18.2

20 19.8 20.1 Fuente: Maddala, Pág. 231

228

TABLA 5 INFORMACIÓN ANUAL HIPOTETICA DE INVENTARIOS (Y) Y DE VENTAS (X) EN UNA DETERMINADA REGIÓN. Año 1979 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 Inventario 52.9 53.8 54.9 58.2 60.0 63.4 68.2 78.0 84.7 90.6 98.2 101.7 102.7 108.3 124.7 157.9 158.2 170.2 180.0 198.0 Ventas 30.3 30.9 30.9 33.4 35.1 37.3 41.0 44.9 46.5 50.3 53.5 52.8 55.9 63.0 73.0 84.8 86.6 98.8 110.8 124.7

229

TABLA 6 INFORMACIÓN PARA LA PREDICCIÓN DE VENTAS DE UNA CADENA DE HOTELES. TASA DE INTERÉS DE CORTO PLAZO (CPR, COMMERCIAL PAPER RATE) PRODUCTO NACIONAL (GNP), OCUPACIÓN (OCCUP, PORCENTAJE DE HABITACIONES USADAS POR NOCHE), DEFLACTOR DEL PRODUCTO (PGNP), NUMERO DE HABITACIONES (ROOMS, NÚMERO DE HABITACIONES EN LA CADENA DE HOTELES). INGRESO POR HABITACIÓN (RRATE, INGRESO PROMEDIO POR HABITACIÓN USADA POR NOCHE) TASA DE DESEMPLEO (UNEMP) Año 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 CPR 7.72 5.11 4.69 8.15 9.87 6.33 5.35 5.60 7.99 10.91 12.29 GNP 992.70 1077.60 1185.90 1326.40 1434.20 1549.20 1718.00 1918.00 2156.10 2413.90 2627.40 OCCUP 68.50 67.40 70.70 70.60 68.30 65.40 68.40 71.20 74.30 73.80 PGNP 91.45 96.01 100.00 105.69 114.92 125.56 132.11 139.83 150.05 162.77 ROOMS 179364 200464 221113 246913 267032 274969 278064 278957 286529 296251 RRATE 15.55 16.50 16.87 17.63 18.38 20.86 22.17 24.56 27.81 32.65 36.80 UNEMP 4.90 5.90 5.60 4.90 5.60 8.50 7.70 7.00 6.00 5.80 7.10

71.50 177.45 303578 Fuente: Hall et al. (1990)

230

TABLA 7 DATOS HIPOTETICOS: Y DEPENDE LINEALMENTE DE X1 Y X2. LOS INSTRUMENTOS SON Z2 Y Z3 Z2 1.1 1.5 1.7 1.8 2.0 2.3 2.4 2.7 3.0 3.1 3.4 3.6 3.9 4.0 4.5 Z3 5.0 4.7 4.6 4.4 4.2 4.0 3.7 3.6 3.5 3.2 3.0 2.9 2.6 2.5 X1 30.4 29.8 29.1 29.5 29.8 29.6 28.0 29.1 28.3 26.7 27.3 27.4 27.0 26.6 Y 34.8 35.6 34.1 33.2 33.8 32.1 32.0 32.9 31.9 33.7 31.9 31.0 32.3 30.3 X2 10 12 15 13 12 16 18 19 17 18 20 19 21 22 23

2.2 26.3 32.4 Fuente: Judge et al. Pág. 589.

231

TABLA 8 UN MODELO DE PRODUCCIÓN Y DE OFERTA DE DINERO EN EEUU (MILES DE MILLONES DE DÓLARES) Año 1970 1971 1972 1973 1974 1975 1976 1977 1978 1979 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 PIB 1010.7 1097.2 1207.0 1349.6 1458.6 1585.9 1768.4 1974.1 2232.7 2488.6 2708.0 3030.6 3149.6 3405.0 3777.2 4038.7 4268.6 4539.9 4900.0 5250.8 5522.2 OFMONET 628.1 717.2 805.2 861.0 908.6 1023.3 1163.7 1286.6 1388.7 1496.7 1629.5 1792.9 1951.9 2186.1 2374.3 2569.4 2811.1 2910.8 3071.1 3227.3 3339.0 INVERS 150.3 175.5 205.6 243.1 245.8 226.0 286.4 358.3 434.0 480.2 467.6 558.0 503.4 546.7 718.9 714.5 717.6 749.3 793.6 832.3 799.5 GASTO 208.5 224.3 249.3 270.3 305.6 364.2 392.7 426.4 469.3 520.3 613.1 697.8 770.9 840.0 892.7 969.9 1028.2 1065.6 1109.0 1181.6 1273.6 1332.7

5677.5 3439.8 721.1 Fuente: Gujarati Pág. 675

232

TABLA 9 INFORMACIÓN DE 4 COSTOS Y PRODUCCION DE 4 EMPRESAS DURANTE 10 MESES Empresa Tiempo Costo Producto 1 1 43.72 38.46 1 2 45.86 35.32 1 3 4.74 3.78 1 4 40.58 35.34 1 5 25.86 20.83 1 6 36.05 36.72 1 7 50.94 41.67 1 8 42.48 30.71 1 9 25.60 23.70 1 10 49.81 39.53 2 1 51.03 32.52 2 2 27.75 18.71 2 3 35.72 27.01 2 4 35.85 18.66 2 5 43.28 25.58 2 6 48.52 39.19 2 7 64.18 47.70 2 8 38.34 27.01 2 9 45.39 33.57 2 10 43.69 27.32 3 1 43.90 32.86 3 2 23.77 18.52 3 3 28.60 22.93 3 4 27.71 25.02 3 5 40.38 35.13 3 6 36.43 27.29 3 7 19.31 16.99 3 8 16.55 12.56 3 9 30.97 26.76 3 10 46.60 41.42 4 1 64.29 41.86 4 2 42.16 28.33 4 3 61.99 34.21 4 4 34.26 15.69 4 5 47.67 29.70 4 6 45.14 23.03 4 7 35.31 14.80 4 8 35.43 21.53 4 9 54.33 32.86 4 10 59.23 42.25 Fuente: Judge Pág. 477

233

TABLA 10 INFORMACIÓN SIMULADA DE Y(X1,X2) OBS 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Y 3.284 3.149 2.877 -0.467 1.211 1.389 1.145 2.321 0.998 0.379 1.106 0.428 0.011 1.179 1.858 0.388 0.651 0.593 0.046 X1 0.286 0.973 0.384 0.276 0.973 0.543 0.957 0.948 0.543 0.797 0.936 0.889 0.006 0.828 0.399 0.617 0.939 0.784 0.072 X2 0.645 0.585 0.310 0.058 0.455 0.779 0.259 0.202 0.028 0.099 0.142 0.296 0.175 0.180 0.842 0.039 0.103 0.620 0.158

1.152 0.889 0.704 Fuente: Judge et al. Pág. 500

234

TABLA 11 INFORMACIÓN SIMULADA DE Y(X1,X2) OBS 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Y 42.08376 41.48572 39.05569 45.08922 51.66982 51.18388 54.77771 60.33432 49.75518 55.45921 52.46684 50.67572 51.64282 56.18829 66.21643 63.22733 68.96477 64.25953 63.75415 69.68355 X1 14.53 15.3 15.92 17.41 18.37 18.83 18.84 19.71 20.01 20.26 20.77 21.17 21.34 22.91 22.96 23.69 24.82 25.54 25.63 28.73 X2 16.74 16.81 19.5 22.12 22.34 17.41 20.24 20.37 12.71 22.98 19.33 17.04 16.74 19.81 31.92 26.31 25.93 21.96 24.05 25.66

235

TABLA 12 INFORMACIÓN DE 3 ECUACIONES DE DEMANDA EN 30 PERIODOS: CANTIDAD DEMANDADA (Q), PRECIO (P) E INGRESO (Y) OBS 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 P1 10.763 13.033 9.244 4.605 13.045 7.706 7.405 7.519 8.764 13.511 4.943 8.360 5.721 7.225 6.617 14.219 6.769 7.769 9.804 11.063 6.535 11.063 4.016 4.759 5.483 7.890 8.460 6.195 6.743 11.977 P2 4.474 10.836 5.856 14.010 11.417 8.755 7.317 6.360 4.188 1.996 7.268 5.839 5.160 9.145 5.034 5.926 8.187 7.193 13.315 6.874 15.533 4.477 9.231 5.907 7.077 9.942 7.043 4.142 3.369 P3 6.629 13.774 4.063 3.868 14.922 14.318 4.794 3.768 8.089 2.708 12.901 11.115 11.220 5.810 5.516 3.707 10.125 2.471 8.976 12.883 4.115 4.962 6.294 8.298 9.638 7.122 4.157 10.040 15.459 Y 487.648 364.877 541.037 760.343 421.746 578.214 561.734 301.470 379.636 478.855 433.741 525.702 513.067 408.666 192.061 462.621 312.659 400.848 392.215 377.724 343.552 301.599 294.112 365.032 256.125 184.798 359.084 629.378 306.527 Q1 11.632 12.029 8.916 33.908 4.561 17.594 18.842 11.637 7.645 7.881 9.614 9.067 14.070 14.474 3.041 14.096 4.118 10.489 6.231 6.458 8.736 5.158 16.618 11.342 2.903 3.138 15.315 22.240 10.012 Q2 13.194 2.181 5.586 5.231 10.930 11.854 17.045 2.682 13.008 19.623 6.534 9.397 13.188 3.340 4.716 17.141 4.695 7.639 9.089 10.346 3.901 4.350 7.371 6.507 3.770 1.360 6.497 10.963 10.140 8.637 Q3 45.770 13.393 104.819 137.269 15.914 23.667 62.057 52.262 31.916 123.026 26.255 35.540 32.487 45.838 26.867 43.325 24.330 107.017 23.407 18.254 54.895 45.360 25.318 32.852 22.154 20.575 44.205 44.443 13.251 41.845

4.806 6.172 347.488 3.982 Fuente: Judge et al. Pág. 460

236

TABLA 13 INFORMACION DEL MODELO DE KLEIN AÑO 1920 1921 1922 1923 1924 1925 1926 1927 1928 1929 1930 1931 1932 1933 1934 1935 1936 1937 1938 1939 1940 1941 NUM CONSUMPTION PROFIT PRIVWAGE INVEST KLAGGED PRODUCTION GOVTWAGE 1 39.8 12.7 28.8 2.7 180.1 44.9 2.2 1 41.9 12.4 25.5 -0.2 182.8 45.6 2.7 1 45.0 16.9 29.3 1.9 182.6 50.1 2.9 1 49.2 18.4 34.1 5.2 184.5 57.2 2.9 1 50.6 19.4 33.9 3.0 189.7 57.1 3.1 1 52.6 20.1 35.4 5.1 192.7 61.0 3.2 1 55.1 19.6 37.4 5.6 197.8 64.0 3.3 1 56.2 19.8 37.9 4.2 203.4 64.4 3.6 1 57.3 21.1 39.2 3.0 207.6 64.5 3.7 1 57.8 21.7 41.3 5.1 210.6 67.0 4.0 1 55.0 15.6 37.9 1.0 215.7 61.2 4.2 1 50.9 11.4 34.5 -3.4 216.7 53.4 4.8 1 45.6 7.0 29.0 -6.2 213.3 44.3 5.3 1 46.5 11.2 28.5 -5.1 207.1 45.1 5.6 1 48.7 12.3 30.6 -3.0 202.0 49.7 6.0 1 51.3 14.0 33.2 -1.3 199.0 54.4 6.1 1 57.7 17.6 36.8 2.1 197.7 62.7 7.4 1 58.7 17.3 41.0 2.0 199.8 65.0 6.7 1 57.5 15.3 38.2 -1.9 201.8 60.9 7.7 1 61.6 19.0 41.6 1.3 199.9 69.5 7.8 1 65.0 21.1 45.0 3.3 201.2 75.7 8.0 1 69.7 23.5 53.3 4.9 204.5 88.4 8.5 Fuente: Disponible en el archivo KLEIN.DAT de RATS GOVTEXP TAXES 2.4 3.4 3.9 7.7 3.2 3.9 2.8 4.7 3.5 3.8 3.3 5.5 3.3 7.0 4.0 6.7 4.2 4.2 4.1 4.0 5.2 7.7 5.9 7.5 4.9 8.3 3.7 5.4 4.0 6.8 4.4 7.2 2.9 8.3 4.3 6.7 5.3 7.4 6.6 8.9 7.4 9.6 13.8 11.6

237

TABLA 14 INDICE GENERAL DE PRECIOS ACCIONARIOS (IGPA) DE LA BOLSA DE COMERCIO DE SANTIAGO DATOS MENSUALES FECHA 1990.01 1990.02 1990.03 1990.04 1990.05 1990.06 1990.07 1990.08 1990.09 1990.10 1990.11 IGPA 802.40 829.68 931.37 901.06 861.06 891.60 857.86 888.76 896.74 858.42 936.18 FECHA IGPA FECHA IGPA FECHA IGPA

1993.01 2939.67 1993.02 3127.27 1993.03 2948.19 1993.04 2787.76 1993.05 2675.69 1993.06 2826.93 1993.07 2949.26 1993.08 3040.29 1993.09 3087.02 1993.10 3208.54 1993.11 3285.49 1993.12 3615.50 1994.01 4311.05 1994.02 4702.80 1994.03 4307.29 1994.04 4102.54 1994.05 4245.29 1994.06 4499.48 1994.07 4318.90 1994.08 4547.97 1994.09 4906.31 1994.10 5471.56 1994.11 5651.67 1994.12 5504.47 1995.01 5409.15 1995.02 5350.15 1995.03 5137.97 1995.04 5363.88 1995.05 5843.19 1995.06 6069.80 1995.07 6234.64 1995.08 6034.46 1995.09 5882.67 1995.10 5902.37 1995.11 5631.62

1996.01 5745.79 1996.02 5625.93 1996.03 5451.65 1996.04 5378.07 1996.05 5517.94 1996.06 5453.43 1996.07 5628.65 1996.08 5407.54 1996.09 5382.00 1996.10 5488.50 1996.11 5232.81 1996.12 4943.34 1997.01 5172.68 1997.02 5331.90 1997.03 5307.08 1997.04 5344.03 1997.05 5415.49 1997.06 5739.46 1997.07 5750.77 1997.08 5620.24 1997.09 5517.77 1997.10 5239.03 1997.11 4976.63 1997.12 4810.56 1998.01 4452.31 1998.02 4368.63 1998.03 4756.54 1998.04 4699.52 1998.05 4431.90 1998.06 4161.43 1998.07 4084.03 1998.08 3764.43 1998.09 3170.57 1998.10 3224.28 1998.11 3774.36

1999.01 3474.93 1999.02 3739.60 1999.03 3970.71 1999.04 4412.83 1999.05 4565.42 1999.06 4648.06 1999.07 4871.82 1999.08 4657.97 1999.09 4739.64 1999.10 4548.55 1999.11 4767.62 1999.12 5057.12 2000.01 5420.91 2000.02 5429.44 2000.03 5214.47 2000.04 5037.26 2000.05 4995.42 2000.06 4928.17 2000.07 4882.20 2000.08 4950.68 2000.09 4912.98 2000.10 4706.87 2000.11 4858.08 2000.12 4868.71 2001.01 5021.37 2001.02 4973.26 2001.03 4945.14

1990.12 1121.75 1991.01 1195.34 1991.02 1435.84 1991.03 1599.07 1991.04 1714.48 1991.05 1697.86 1991.06 1866.50 1991.07 2107.86 1991.08 2320.96 1991.09 2662.28 1991.10 2830.03 1991.11 2489.71 1991.12 2438.45 1992.01 2426.97 1992.02 2546.94 1992.03 2867.28 1992.04 2981.53 1992.05 3008.54 1992.06 2981.96 1992.07 3002.73 1992.08 2922.06 1992.09 2814.80 1992.10 2750.54 1992.11 2751.26 1992.12 2687.12

1995.12 5700.85 1998.12 3653.32 Fuente: Bolsa de Comercio de Santiago

238

TABLA 15 INDICE DE PRECIOS AL CONSUMIDOR DE LOS ESTADOS UNIDOS (WPI) (TRIMESTRAL) TRIM 1960.1 1960.2 1960.3 1960.4 1961.1 1961.2 1961.3 1961.4 1962.1 1962.2 1962.3 1962.4 1963.1 1963.2 1963.3 1963.4 1964.1 1964.2 1964.3 1964.4 1965.1 1965.2 1965.3 1965.4 1966.1 1966.2 1966.3 1966.4 1967.1 1967.2 1967.3 1967.4 1968.1 1968.2 1968.3 1968.4 WPI 30.7 30.8 30.7 30.7 30.8 30.5 30.5 30.6 30.7 30.6 30.7 30.7 30.6 30.5 30.6 30.7 30.7 30.6 30.7 30.7 30.9 31.2 31.4 31.6 32.1 32.2 32.6 32.4 32.3 32.3 32.4 32.5 32.9 33.1 33.3 33.4 TRIM 1969.1 1969.2 1969.3 1969.4 1970.1 1970.2 1970.3 1970.4 1971.1 1971.2 1971.3 1971.4 1972.1 1972.2 1972.3 1972.4 1973.1 1973.2 1973.3 1973.4 1974.1 1974.2 1974.3 1974.4 1975.1 1975.2 1975.3 1975.4 1976.1 1976.2 1976.3 1976.4 1977.1 1977.2 1977.3 WPI 33.9 34.4 34.7 35.0 35.5 35.7 35.9 35.9 36.5 36.9 37.2 37.2 37.9 38.3 38.8 39.2 41.1 43.1 44.9 45.3 48.3 50.0 53.6 55.4 55.4 56.0 57.2 57.8 58.1 59.0 59.7 60.2 61.6 63.0 63.1 TRIM 1978.1 1978.2 1978.3 1978.4 1979.1 1979.2 1979.3 1979.4 1980.1 1980.2 1980.3 1980.4 1981.1 1981.2 1981.3 1981.4 1982.1 1982.2 1982.3 1982.4 1983.1 1983.2 1983.3 1983.4 1984.1 1984.2 1984.3 1984.4 1985.1 1985.2 1985.3 1985.4 1986.1 1986.2 1986.3 WPI 65.4 67.4 68.4 70.0 72.5 75.1 77.4 80.2 83.9 85.6 88.4 90.4 93.1 95.2 95.9 95.8 96.6 96.7 97.1 97.2 97.3 97.6 98.6 99.1 100.2 100.8 100.6 100.3 100.1 100.2 99.5 100.1 98.6 96.8 96.3 TRIM 1987.1 1987.2 1987.3 1987.4 1988.1 1988.2 1988.3 1988.4 1989.1 1989.2 1989.3 1989.4 1990.1 1990.2 1990.3 1990.4 1991.1 1991.2 1991.3 1991.4 1992.1 1992.2 WPI 97.8 99.4 100.5 101.0 101.6 103.2 104.7 105.2 107.5 109.4 109.0 109.4 111.0 110.8 112.8 116.2 113.8 112.7 112.5 112.7 112.4 113.6

1977.4 63.9 1986.4 96.7 Fuente: Enders (1996), Pág. 47

TABLA 16

239

CAMBIOS TRIMESTRALES DESESTACIONALIZADOS EN EL PRODUCTO PER CÁPITA (Y1) Y EN EL INGRESO DISPONIBLE (Y2) DE LOS EEUU TRIM 1951.2 1951.3 1951.4 1952.1 1952.2 1952.3 1952.4 1953.1 1953.2 1953.3 1953.4 1954.1 1954.2 1954.3 1954.4 1955.1 1955.2 1955.3 1955.4 1956.1 1956.2 1956.3 1956.4 1957.1 1957.2 1957.3 1957.4 1958.1 1958.2 1958.3 1958.4 1959.1 1959.2 1959.3 1959.4 1960.1 1960.2 1960.3 Y1 -61 8 -1 -4 30 -1 45 17 2 -17 -16 -4 8 23 31 31 33 14 26 -7 -6 -4 13 4 -6 5 -6 -37 12 25 16 39 23 9 -5 1 24 Y2 42 -1 -11 -12 16 41 14 17 26 -20 -10 -11 -23 29 36 8 43 31 29 8 9 2 20 -10 5 1 -20 -35 6 45 25 6 32 -30 10 6 6 TRIM 1960.4 1961.1 1961.2 1961.3 1961.4 1962.1 1962.2 1962.3 1962.4 1963.1 1963.2 1963.3 1963.4 1964.1 1964.2 1964.3 1964.4 1965.1 1965.2 1965.3 1965.4 1966.1 1966.2 1966.3 1966.4 1967.1 1967.2 1967.3 1967.4 1968.1 1968.2 1968.3 1968.4 1969.1 1969.2 1969.3 1969.4 Y1 -9 -5 23 -3 37 13 21 10 23 8 15 24 8 39 38 35 -3 46 17 35 65 29 -2 22 0 15 31 7 6 54 30 54 8 21 9 9 16 Y2 -23 13 28 17 38 14 16 3 1 15 17 19 30 47 75 27 23 22 32 76 47 17 6 27 21 38 21 16 17 36 43 -7 9 -2 19 47 10

-19 -12 Fuente: Judge et al. Pág. 760

240

Sign up to vote on this title
UsefulNot useful