You are on page 1of 29

Modelos Economtricos Multiecuacionales de Estimacin de Demandas

Autor: Jorge Mauricio Oviedo 1

Resumen: En este artculo se efecta una revisin de los principales Mtodos Economtricos para estimar ecuaciones simultneas de demanda considerando diversos supuestos sobre los trminos de errores. Se analizan las propiedades de los estimadores y se los comparan con los de Mnimos Cuadrados. Se extraen sugerencias en cuanto a la utilidad y aplicabilidad de cada uno de ellos.

Palabras clave: Sistemas de Ecuaciones Simultneas, Mnimos Cuadrados Ordinarios, Mnimos


Cuadrados en dos etapas, Mnimos Cuadrados en tres etapas, SUR.

joviedo@eco.unc.edu.ar

1.- Introduccin
Los modelos economtricos intructorios aprendidos en los cursos de grado, se caracterizaban por constituir modelos en donde los verdaderos procesos generadores de datos provenan de modelos de una simple ecuacin lineal en los parmetros, es decir, los modelos en que nicamente haba una variable dependiente Y y una o varias variables explicatorias X i . A saber:

Yt = 0 + 1 X 1t + L + n X nt + u t

Matricialmente: Y = X + u

En los mismos se vio, a travs del Teorema Gauss-Markov, que los estimadores obtenidos por el Mtodo de los Mnimos Cuadrados Ordinarios (MCO), resultaban ser lineales, insesgados y de varianza mnima (dentro del conjunto de todos los estimadores insesgados posibles) siempre que se cumplieran los supuestos de E (u) = 0 , E (u u) = 2 I , exacta especificacin lineal en los parmetros y que las variables independientes o explicativas no son estocsticas (son fijas en muestras repetidas) o, en caso de serlo, se distribuyen independientemente del trmino de perturbacin. Los Modelos de Ecuaciones Simultaneas surgen para captar la posibilidad ms realista que los valores observados (Y,X) provengan de un proceso generador de datos en donde stos son creados en forma simultanea y mutuamente interdependientes va una interconexin entre ellos. Esto ocurre cuando no solamente la Y es determinada por las X, sino que adems algunas de las X son a su vez determinadas por Y. En otras palabras, cuando hay una relacin causal en las dos direcciones o una relacin simultnea entre Y y algunas de las X, lo cual hace que la distincin entre variable dependiente y variable explicatoria sea de poco valor. Es mejor tener un conjunto de variables que pueden ser determinadas simultneamente por otras y esto es lo que efectivamente se hace en los modelos de ecuaciones simultaneas. Los sistemas de ecuaciones simultneas se distinguen por estar conformadas por varias ecuaciones en las cuales hay un nmero de variables endgenas o variables determinadas conjuntamente y un nmero de variables predeterminadas, o determinantes (estas a su vez pueden ser variables exgenas, retardadas o no, y variables endgenas retardadas). En estos modelos se estiman los parmetros de las ecuaciones teniendo en cuenta la informacin suministrada por todas las ecuaciones del sistema. Un supuesto implcito en estos tipos de modelos es que los valores observados corresponden siempre a situaciones de equilibrio, es decir no se concibe la posibilidad de obtener datos en algn momento de transicin hacia el equilibrio. En un modelo general lineal que contenga M ecuaciones estructurales en M variables endgenas o conjuntamente dependientes y K variables predeterminadas, la relacin i-sima en el momento (observacin) t puede escribirse en forma escalar como:

i1Y1t + L + iG YGt + i1 X 1t + L + iK X kt = u it
o en forma matricial:

; ( i = 1L M ) ; ( t = 1LT )

Yt + Xt B = ut
donde :

t = 1,..., n

11 B = 21 M k1

12 L 1M 22 L 2 M k 2
M

11 12 22 21 ; = M O M M L kM M 1 M 2

L 1M L 2M ; O M L MM

Yt = [ y1t L yMt ] ;
1)

Xt = [ x1t L xKt ] ;

ut = [u1t L uMt ]

Se imponen adems las siguientes supuestos al modelo estadstico:

E[ei ] = 0, i = 1,..., M E[ei ei '] = ij IT , i = 1,..., M , E[e, e '] = IT

j = 1,..., M

2) La matriz es no singular 3) plim(XE/T) = 0 Segn lo aprendido hasta ahora uno intentara aplicar MCO en forma independiente a cada una de las M ecuaciones con respecto a las M+K-1 variables explicativas (M-1 Ys y K Xs) para hallar los estimadores B y , pero si uno efecta esta accin se encontrar con que dichas estimaciones no solamente sern sesgadas sino tambin inconsistentes es decir que a medida que el tamao de la muestra crece indefinidamente los estimadores no convergen al verdadero valor del parmetro, permaneciendo el sesgo. Esto se debe a que las M-1 variables endgenas restantes que aparecen en una ecuacin cualquiera estarn correlacionas con el trmino de perturbacin de la ecuacin considerada, puesto que por ser cada una de las M variables argumentos aleatorios, una perturbacin en una, alguna o todas las restantes (M-1) afectaran el valor del termino de error de dicha ecuacin quien luego influir en las dems ecuaciones. Es decir el termino de perturbacin de cada ecuacin depende de los valores que asuman las G-1 variables endgenas restantes y viceversa. De esta manera se viola uno de los supuestos del teorema de Gauss-Markov, haciendo indeseable la aplicacin directa de los MCO a cada una de las ecuaciones. Para ello, demostraremos dichas afirmaciones a continuacin Consecuencias de la aplicacin directa de MCO Para demostrar que el estimador por mnimos cuadrados es inconsistente y sesgado consideremos la siguiente ecuacin:

Yi + XBi + ei = 0
Algunos elementos de y B generalmente pueden tomar el valor de cero mientras que es costumbre seleccionar una variable endgena del lado izquierdo de la ecuacin. Esto es llamado normalizacin y es logrado fijando un coeficiente, digamos ij, con el valor -1. As, con algunas manipulaciones si es necesario, se tiene:

y i = Yi i + Yi * i * + X i i + X i * i * +ei y i = Yi i + X i i + ei X i ] i + ei i y i = Z i i + ei y i = [Yi
Donde:

1 1 i = i = i , i * 0 Y = [ y i Yi Yi *] ,

Bi = i = i , i = i i * 0 i X = [ Xi X i *] , Z i = [Yi Xi ]

y M = mi + mi*, K=ki + ki*. La matriz Yi* contiene aquellos mi* variables endgenas que no aparecen en la i-sima ecuacin; esto es, sus coeficientes asociados i*son cero. La matriz X* contiene aquellas ki* variables predeterminadas que no aparecen en la i-sima ecuacin, o sea, sus coeficientes asociados i* son cero. El estimador mnimo cuadrtico de i es:

= ( Z 'i Z i ) 1 Z 'i y i
Su valor esperado es

E[] = E[( Z 'i Z i ) 1 Z 'i y i ] = i + E[( Z 'i Z i ) 1 Z 'i ei ] i


El ltimo trmino de la expresin anterior no desaparece ya que Zi contiene variables endgenas que son conjuntamente determinadas con yi y por ende no son independientes de ei. Con lo cual el estimador es sesgado. Adicionalmente, a medida que el tamao de la muestra crece el estimador no converge en probabilidad al verdadero valor del parmetro ya que

plim i = i + plim[ Z 'i Z i / T ]1 plim[Z 'i ei / T ] i


El ltimo trmino, no converge en probabilidad al vector nulo ya que Z = [Yi Xi] contiene a Yi, el cual no es independiente del trmino de error u, independientemente del tamao de la muestra. De esta manera los estimadores mnimo-cuadrticos son sesgados e inconsistentes. Forma Reducida Cuando se expresa a las vriables endgenas en trminos de las predeterminadas, dicha reespresin se denomina Forma Reducida. Especficamente, si post multiplicamos el sistema por -1 y reacomodando trminos se tiene:

Y + XB = U
donde:

Y = X + V

(t = 1,K , T )

11 L 1M = B 1 = M M O = [ 1 L M ] (1) K 1 L KM v11 L v1M V = U 1 = M O M = [ v1 L v M ] vK 1 L vKM

Los supuestos estocsticos sobre V se siguen directamente de los de u. Si ut es la i-sima fila de U y vt la i-sima fila de V, entonces:

vt ' = ut 1
Ya que todos los vectores ut tienen media igual a cero y matriz de covarianzas , se sigue que

E[ v t ] = E[ut 1 ]' = 1 E[ut ] = 0

var(vt ) = E[vt vt '] = ( 1 ) ' E (ut ut ')( 1 ) = ( 1 ) ' ( 1 ) =


Adicionalmente, como E(ut, us) = 0, entonces E(vt, vs) = 0 para todo t distinto de s.

La forma reducida individual ser: y i = Xi + v i Si X es no estocstica, se verificar: E ( X 'V ) = E[ X ' ET ] = 0 Si X es aleatoria entonces el plim(XV/T) = plim[(-XU/T) -1] = 0 Entonces los Estimadores Mnimo Cuadrticos para la i-sima ecuacin seran i = ( X ' X ) 1 X ' y i y para todo el sistema = ( X ' X ) 1 X ' Y Los mismos sern insesgados y consistentes. De esta manera, ya que es posible estimar los parmetros de la forma reducidad demanera insesgada y consistente y dada la relacin entre la forma estructural y la reducida
= B 1 = ( 1 ) 1
La cuestin que emerge es si los parmetros estructurales pueden ser nicamente derivados de las estimaciones de la forma reducida y alguna otra informacin sobre la forma estructural. Esto nos conduce al problema de la identificacin.

Este tipo de situaciones pueden obtenerse en un modelo clsico de ofertas y demandas de un bien en donde una alteracin en las funciones de Demanda u Oferta ocasionaran alteraciones en el precio y cantidad observada con lo cual el precio no ser independiente de las cantidades ofrecidas y demandadas. En virtud de la no-deseabilidad de la aplicacin de MCO a este modelo, lo que se intenta hacer es reexpresar el sistema original (dado en su forma estructural, es decir tal y como surge de la realidad siendo un fiel interprete de la misma) de modo tal de que cada variable endgena muestre su dependencia slo con respecto a las variables predeterminadas y los trminos de perturbacin. De esta manera, al ser por definicin las variables predeterminadas independientes de los trminos de perturbacin y manteniendo el supuesto de ruido blanco para ut, sera eficiente estimar este nuevo sistema de ecuaciones por MCO (en forma independiente a cada una de las ecuaciones) ya que los estimadores as obtenidos sern nuevamente los mejores al entrar en vigencia una vez ms el Teorema de Gauss-Marcov. Matricialmente:

Yt + Xt B = u t Yt = Xt + v t
donde:

(t = 1,K , T )
y

= B 1

(1)

v t = u t 1

Una vez obtenido los estimadores de el paso siguiente es intentar recuperar los parmetros de la forma estructural a travs de los estimadores de los parmetros de la forma reducida va la relacin = B 1 . Como se puede dilucidar, la matriz es de orden M K y, por lo tanto, contiene GK elementos. Las matrices B y contienen como mximo M2 + MK elementos. Por ende, existe una infinidad de estructuras de B y que corresponden a cualquier matriz dada. Esta imposibilidad de recuperar los parmetros en un caso general conlleva al tratamiento del problema de la identificacin es decir el anlisis de los casos y las condiciones bajo las cuales este proceso de recupero se torna factible. As se pueden presentar tres situaciones: Que se pueden obtener estimaciones nicas de los parmetros estructurales en cuyo caso diremos que la ecuacin esta exactamente identificada Que se obtengan mas de una estimacin de los parmetros estructurales (pero un numero finito de los mismos) en cuyo caso se dice que la ecuacin esta sobreidentificada Que se obtengan infinitos valores para las estimaciones de los parmetros estructurales y por ende haciendo imposible su recuperacin, dicindose en este caso que la ecuacin est subidentificada. Esto surge por la falta de informacin necesaria para construir una funcin a travs de la forma reducida Supongamos que mercado con ofertas y demandas lineales donde cantidad y precio son endgenos sin tener ninguna variable predeterminada. En este caso, las dos rectas sern subidentificadas porque lo que se obtendrn sern slo puntos de corte, sin saber si es una misma funcin de oferta con distintas demandas o viceversa, o si son funciones distintas en cada punto. La situacin sera otra si por ejemplo se toma como variable exgena relevante el ingreso de los consumidores explicando su demanda. De esta manera, puede asegurarse que cada punto pertenece a una misma oferta en corte con diferentes demandas segn sea el ingreso dado. A continuacin se analizar condetenimiento el problema de la Identificacion y se daran definiciones mas precisas de lo enunciado anteriormente.. El problema de la Identificacin Mas precisamente, sea Y u vector observables de variables aleatorias , una estructura S es una especifiacain completa de la funcin de densidad de y, digamos f(y). El conjunto de todas las estructuras posibles, S, es llamado un Modelo. El problema de la identificacin consiste en hacer inferencias sobre S dada S y las observaciones. Para hacer las cosas mas precisas supongamos que y es generado por una funcin de densidad paramtrica:

f (y / S ) = f (y / )
Donde es un vector real k-dimensional. La funcin f se supone conocida pero no. Entonces la estructura es descripta mediante un punto en R k mientras que el Modelo como un subconjunto de R k. En general se dice que dos estructuras S = y S = * son observacionalmente equivalentes si

f (y / ) = f (y / *),

En base a esas consideraciones se proceder a analizar las condiciones bajo las cuales dos estructuras de sistemas de ecuaciones son observacionalmente equivalentes.

Yt + Xt B + ut = 0

t = 1,..., T

Donde Yt, Xt y ut, son la t-sima filas de Y, X y E respectivamente. Supongamos que ut tiene densidad P(ut/), luego la densidad conjunta asociada a u1, u2, ... ut ser:

P(u
t =1

/ )

Haciendo cambio de variables por sustitucin de ut y multiplicando por el Jacobiano de la transformacin, la densidad conjunta de y1, ... yT condicionada en los parmetros ser:

P (y1 ,..., yT / , B, , X ) = =

P(u
t =1 T t =1

/ )

P ( y x B / )
t t

Si pre-multiplicamos el sistema original por una matriz no singular arbitraria F, cada ecuacin ser reemplazada por una combinacin lineal de cada una de las M ecuaciones originales. Esto es:

Yt (F) + Xt (BF) + ut F = Yt * + Xt B * t = 0
Donde es utF,

t = 1,..., T

P (t / F ' F ) = F

P(ut / )

la densidad conjunta de y1, ... yT condicionada bajo la nueva estructura ser:

P( / F ' F ) =
t =1 t

F
T

P(u
t =1

/ )

P(u
t =1

/ )

Con lo cual las funciones de densidad de ambas estructuras son idnticas en consecuencia observacionalmente equivalentes. Obsrvese que eligiendo F = B-1, una estructura observacionalmente equivalente es la forma reducida del sistema de ecuaciones. A raz de esto, todas las estructuras creadas por una postmultiplicacin de la estructura original por una matriz original tendrn la misma forma reducida. De esta manera las condiciones para equivalencia observacional se pueden establecer asi:

1) 1 B = *1 B*, 1 = *1 * * 2) existe F no singular,


* B * = F B
Si no hay restricciones a priori en los parmetros del sistema cualquier matriz no singular F podra ser admisible en el sentido que la estructura transformada satisface las restricciones del modelo. Si sobre la base de la teora econmica podemos establecer restricciones a priori cualquier modelo transformado debe satisfacer las mismas restricciones si la transformacin se an admisible. Se dice que la i-sima ecuacin del sistema est identificada si y solo si todas las transformaciones admisibles F tienen la siguiente estructura:

0 M F = LL cij LL M 0
Es decir la i-sima columna de F debe ser un mltiplo escalar del vector unitario cuyos elementos son todos ceros excepto la i-sima columna que contiene un uno. Obsrvese que cuando postmultiplicamos B y G por F sus i-simas columnas solo son cambiadas por un mltiplo escalar. Extendiendo dicha definicin al sistema completo, se tiene que el sistema es identificado si y solo si todas las ecuaciones estn identificadas, o equivalentemente la matriz admisible de transformacin es diagonal. A los efectos de determinar las condiciones para identificar una ecuacin, definamos:

A= B
De modo tal que ai, la i-sima columna de A contenga los parmetros de la i-sima ecuacin. Sea Ri y ri J x (M + K) y (J x 1) matrices de constantes, respectivamente, tal que toda la informacin a priori acerca de la ecuacin i-sima del modelo, incluyendo la restriccin de normalizacin, pueda ser escrita como:

Ri ai = ri
As se puede hacer la siguiente observacin: Sabemos que la i-sima columna de AF es Afi, donde fi es la i-sima columna de F. Ya que F es admisible, los coeficientes estructurales resltantes satisfacen la restriccin Ri(Afi) = ri. Sin embargo, para que la i-sima ecuacin est identificada, fi debe ser igual a ji, el i-simo vector unitario. Efectivamente ji es una solucin de RiAfi = ri porque RiAji = Riai = ri. Entonces para que (RiA)fi = ri tenga solucin nica igual a fi = ji, se requiere que Rango (RiA=M).

Teorema: Condicin de Rango: La i-sima ecuacin est identificada si y solo si Rango (RiA) = M Corolario: Condicin de Orden Una condicin necesaria para la identificacin de la i-sima ecuacin es que J, el nmero de restricciones lineales incluida la normalizacin, debe ser mayor o igual que el nmero de variables endgenas del sistema M. Si Ri excluye la condicin de normalizacin, entonces el rango de RiA debe ser M - 1 y el orden de Ri debe ser J > M 1. Si la normalizacin incluye las restricciones, entonces el teorema y el corolario conducen a las siguientes definiciones: 1.- Los parmetros de la i-sima ecuacin estn sin identificar o subidentificados si Rango (RiA) < M. 2.- Los parmetros de la i-sima ecuacin estn perfectamente identificados si Rango (RiA) = M y Rango (Ri) = M 3.- Los parmetros de la i-sima ecuacin estn sobreidentificados si Rango (RiA) = M y Rango (Ri) > M Una versin alternativa y ms prctica de la condicin de rango es la siguiente: Una ecuacin est identificada slo si se puede construir por lo menos un determinante diferente de cero de orden (M-1)x(M-1), a partir de los coeficientes de las variables endgenas y predeterminadas excluidas de esa ecuacin, pero incluidas en las dems2.

Mtodos de Estimacin Habiendo ya sealado las condiciones que hacen factible la recuperablidad de los parmetros se pasar a continuacin a dar un breve comentario acerca de los mtodos existentes que permiten solucionar el problema de la inconsistencia que presentan la aplicacin directa de los MCO. Estos mtodos surgen a partir de la bsqueda de soluciones alternativas cuando se viola el supuesto de no aleatoriedad en las variables explicativas y, a su vez, de la no existencia de correlacin igual a cero entre ellas y las perturbaciones. Mtodos uniecuacionales o de informacin limitada: En estos mtodos, se estima cada ecuacin separadamente, utilizando slo la informacin sobre los coeficientes contenida en dicha ecuacin. Entre estos mtodos estn: Mnimos Cuadrados Ordinarios (MCO): Como ya se seal antes, los estimadores que surgen de aplicar el mtodo no son consistentes. Sin embargo, este mtodo es ms robusto frente a los errores de especificacin que otros mtodos, y adems las predicciones de modelos estimados por l pueden ser mejores que las correspondientes a modelos estimados por mtodos de ecuaciones simultneas, por lo que puede resultar conveniente presentar estimaciones MCO de las ecuaciones estructurales junto a las de otros mtodos como referencia o norma de comparacin. Mnimos Cuadrados Indirectos (MCI): consiste en estimar por MCO los coeficientes de la forma reducida y luego recuperar los estimadores de los parmetros de la forma estructural va un sistema de ecuaciones. Slo es aplicable cuando las ecuaciones del modelo estn exactamente identificadas, ya que slo en ste caso se puede obtener valores nicos para los coeficientes de la forma reducida. Los estimadores de los parmetros as obtenidos heredan todas las propiedades asintticas de los estimadores de la forma reducida, asegurndonos as de que sean consistentes (y pueden ser asintticamente eficientes si las perturbaciones se distribuyen normalmente) pero no gozan de stas propiedades para muestras chicas.

Ver Gujarati, Cap. 17 Seccin 3 Pg: 362

Mnimos Cuadrados en Dos Etapas (MC2E): Es til para modelos cuyas ecuaciones estn sobreidentificadas, ya que presenta una forma de ponderar las soluciones mltiples. La idea bsica que subyace en el mtodo es la de reemplazar las variables endgenas, que estn correlacionadas con las perturbaciones, por funciones lineales de variables exgenas; as, ya que estas variables no presentan correlacin con dichas perturbaciones, las estimaciones de los parmetros que conseguiremos sern consistentes. Se elige cada funcin lineal de manera que est lo ms altamente correlacionada posible con la variable endgena que reemplaza. El mtodo requiere dos aplicaciones sucesivas de MCO. Primeramente se regresan las variables endgenas contra todas las variables predeterminadas del sistema. La estimacin obtenida para la variable endgena se utiliza como dato en las ecuaciones y se aplica nuevamente MCO sobre la ecuacin que incluye la estimacin. Los estimadores as obtenidos son consistentes. Adems se puede aplicar tanto para ecuaciones sobreidentificadas como exactamente identificadas. En este ltimo caso los estimadores sern idnticos a los obtenidos por Mnimos Cuadrados Indirectos. Se puede demostrar que ste mtodo es una aplicacin particular del mtodo de las variables instrumentales que busca reemplazar los regresores por variables altamente correlacionados con ellos y escasamente con los trminos de perturbacin. Mxima Verosimilitud con Informacin Limitada (MVIL) Este mtodo consiste en elegir como estimadores de los parmetros estructurales aquellos valores que hacen mxima la funcin de verosimilitud de la ecuacin respectiva sujeto a elegir valores que cumplan con la condicin de rango. Es decir este mtodo ante los caso de sobreidentificacion elige dentro del grupo de valores posibles aquellos que maximicen la funcin de verosimilitud de la ecuacin siendo un requisito previo el conocimiento de la distribucin de densidad del trmino de perturbacin de la ecuacin. Adems se puede aplicar tanto para ecuaciones sobreidentificadas como exactamente identificadas. En este ltimo caso los estimadores sern idnticos a los obtenidos por Mnimos Cuadrados Indirectos. Mtodos de sistemas o de informacin completa: En estos mtodos, a diferencia de los anteriores, se estiman en conjunto todas las ecuaciones del sistema, usando las restricciones sobre los parmetros de todas ellas. Son asintticamente ms eficientes que los mtodos con informacin limitada en la medida que la especificacin del modelo sea la correcta. Mnimos Cuadrados en Tres Etapas: consiste en estimar cada una de las ecuaciones del modelo por el mtodo de los MC2E, calcular los residuos par estimar la matriz de varianzas y covarianzas (aqu se suponen ruido blanco en cada termino de perturbacin de cada ecuacin y se permite la existencia de correlacin contempornea y heterocedasticidad entre las ecuaciones) para finalmente aplicar mnimos cuadrados generalizados factibles al modelo completo. Este mtodo es ms eficiente asintticamente que el de MC2E en la medida que la especificacin del modelo sea la correcta y tendr igual eficiencia en el caso de que no exista correlacin contempornea ni heterocedasticidad entre los errores de cada una de las ecuaciones, o en el caso que todas las ecuaciones estn exactamente identificadas. Mxima verosimilitud con Informacin completa: Aqu lo que se pretende es hallar el conjunto de estimadores de la forma estructural que hacen mxima la probabilidad de ocurrencia de los valores muestrales de las variables endgenas y predeterminadas, es decir se intenta maximizar una funcin de verosimilitud para todo el modelo simultneamente. Este mtodo es caro computacionalmente en el sentido que arroja sistemas de ecuaciones no lineales y sumado al hecho de que los estimadores que se obtienen bajo una distribucin normal multivariante son exactamente iguales a los de los de MC3E hacen que este mtodo sea menos preferido que ste ltimo. Adems se puede aplicar tanto para ecuaciones sobreidentificadas como exactamente identificadas. En este ltimo caso los estimadores sern idnticos a los obtenidos por Mnimos Cuadrados Indirectos.

Implementacin en Eviews: Creando el Objeto System Para estimar los parmetros de un Sistema de Ecuaciones en Eviews, se debe primero crear un nuevo objeto y especificar el sistema de ecuaciones. Para ello se debe hacer Clic en Objet/New Objet/System. Cuando se cree el sistema la ventana aparecer en blanco y ah se deber especificar el sistema describiendo con texto las ecuaciones y potencialmente algunas lneas describiendo los instrumentos y los valores iniciales de los parmetros en caso de modelos no lineales.

Declaracin de las ecuaciones Para ingresar las ecuaciones por frmulas se debe emplear las expresiones estndares de Eviews. Las ecuaciones deben ser ecuaciones de comportamiento con coeficientes desconocidos y trminos de error implcitos. Las ecuaciones pueden ser no lineales en sus variables, coeficientes o ambas, pudindose agregar restricciones cruzadas en los coeficientes de las ecuaciones usando los mismos coeficientes en diferentes ecuaciones. Por ejemplo: y = c(1)*x1 + c(2)*x2 + c(3)*x3 z = c(3) + c(2)*z + (1-c(2))*x Si se desea agregar la restriccin C(1)+C(2)+C(3)=1, la misma se puede imponer especificando la ecuacin como: y = c(1)*x1 + c(2)*x2 + (1-c(1)-c(2))*x3 Si la ecuacin no posee el signo igual por ejemplo (c(1)*x + c(2)*y + 4)^2 Eviews interpretar la expresin completa igual al trmino de error. No deben incluirse en la especificacin ecuaciones que representen identidades. De ser necesario se deber resolver el modelo para eliminar de l las identidades y especificar en Eviews el modelo resuelto libre de ellas. Variables Instrumentales

Si se planea estimar el sistema usando Mnimos Cuadrados en 2 Etapas, 3 Etapas o GMM, se deben especificar las variables a ser usadas en la estimacin. Se pueden especificar los mismos instrumentos para todas las ecuaciones o instrumentos distintos para cada ecuacin. De esta manera existen dos manera de especificar los instrumentos. Si uno desea usar los mismos instrumentos para todas las ecuaciones se debe incluir una lnea de comando cuya sintaxis comience con @INST o INST seguida por una lista de variables exgenas a ser usadas como instrumentos. Por ejemplo: @inst gdp(-1 to -4) x gov Indica a Eviews usar las seis variables como instrumentos para todas las ecuaciones que se listarn a continuacin. Para especificar instrumentos distintos para cada ecuacin se debe agregar al fin de cada ecuacin: @, seguido por la lista de instrumentos. Por ejemplo: cs = c(1)+c(2)*gdp+c(3)*cs(-1) @ cs(-1) inv(-1) gov inv = c(4)+c(5)*gdp+c(6)*gov @ gdp(-1) gov La primer ecuacin usa CS(-1), INV(-1), GOV, y una constante como instrumentos mientras que la segunda usa GDP(-1), GOV, y una constante. Identificacin Los criterios de identificacin exigen que debe haber al menos tantos instrumentos, incluyendo constantes, en cada ecuacin como variables existen del lado derecho de cada una de ellas. Si dichos requerimientos no se cumplen, Eviews mostrar un cuadro de error. Estimacin Una vez creado y especificado el sistema, uno puede presionar el boton de estimacin para seleccionar el mtodo de estimacin por medio de un cuadro de dialogo

Si uno selecciona alguno de los mtodos de estimacin por GMM, Eviews solicitara se selecciones algunos opciones especficas para este mtodo. Si uno selecciona la opcin rotulada como Identity

weighting matrix, Eviews estimar el modelo usando idnticos ponderadores y usar los coeficientes estimados y la especificacin GMM que se indique para computar una matriz de covarianzas que es robusta a heterocedasticidad en las secciones cruzadas (White) o a heterocedasticidad y correlacin contempornea. Si dicha opcin no se selecciona Eviews usar los ponderadores GMM en la estimacin y cmputo de lo matriz de covarianzas. Cuando uno selecciona la opcin GMM-Time series (HAC), el cuadro de dilogo adicionalmente mostrar opciones para especificar la matriz de ponderacin y opciones para el Kernel para determinar la forma funcional del nucleo usado para ponderar las autocovarianzas al computar la matriz de ponderacin.

Salidas de las Estimaciones Las salidas de la estimacin del sistema contiene los parmetros estimados, sus errores estandares y los estadsticos t para cada uno de los coeficientes en el sistema. Adicionalmente Eviews reportar el determinante de la matriz de residuos y en el caso del mtodo de Mxima Verosimilitud con Informacin Completa, el valor maximizado de la verosimiitud

Tambien se incluyen un resumen de los estadsticos de cada ecuacin como los errores estndares de la regresin, suma de cuadrados de residuos, etc.

APNDICE 1.- Mnimo Cuadrados Generalizados Hasta ahora se han tratado casos de estimacin de modelos lineales en donde los supuestos en los que se generaban los datos respondian a todas las condiciones que hacian aplicables el Teorema de GaussMarkov arrojando por ende estimadores insesgados y eficientes. Dichos supuestos eran: 1- Las Xs son fijas en muestras repetidas (no estocsticas). 2- El rango de la matriz X es de rango completo (no existe dependencia lineal entre las observaciones) 3- Correcta especificacin del modelo en el sentido de que el verdadero proceso generador de datos provenia de una relacion exactamente lineal entre las variables y adems que no se cometen errores por incluir o excluir variables de mas. 4- E(u) = 5- V (u) = 2 I es decir, errores no autocorrelacionados y con varianza constante e igual para todos (homoscedsticos). Cuando este ultimo supuesto no se cumple la aplicacin directa de los MCO conducen a estimadores que dejan de ser eficientes. Adems cuando se comete el error de no percatarse o de hacer caso omiso a de la existencia de autocorrelacion y/u homoscedasticidad se incurrira adems en el error de subestimar la varianza del estimador conllevando esto ultimo a predicciones errneas en cuanto a intervalos de confianza y test de hiptesis. Acontinuacion sedesarrolaran estas ideas de un lenguaje mas formal. Consideremos un modelo como del ejercicio en donde ahora

V (u) = 2
aplicando directamente MCO al modelo se tendr

mco = ( X ' X ) 1 X 'Y , reemplazo por el VM : mco = ( X ' X ) 1 X ' ( X + u ) = mco = + ( X ' X ) 1 X ' u
E ( mco ) = + ( X ' X ) 1 X ' E (u ) E ( mco ) =
que como claramente se observa los estimadores conservan aun su insesgabilidad Con respecto a su varianza se tiene

V ( mco ) = E[( )( )' ] V ( mco ) = E[( X ' X ) 1 X ' uu ' X ( X ' X ) 1 ] V ( mco ) = ( X ' X ) 1 X ' E (uu ' ) X ( X ' X ) 1 V ( mco ) = 2 ( X ' X ) 1 X ' X ( X ' X ) 1
esta expresin para la varianza de los estimadores. A continuacin se vera que existen otros estimadores de los parmetros que poseen una varianza menor. Para que el teorema de Gauss-Markov continue en vigencia lo que habria que hacer intentar hallar una transformacin de los datos originales de modo tal que los errores asociados a dichos datos transformados no exiban autocorrelacion ni heteroscedasticidad. La existencia de dicha transformacin ser el hecho que marque la entrada en vigencia del Teorema de Gauss-Markov en el sentido de que la aplicacin de MCO a los datos transformados generar estimadores insesgados y eficientes de los

parmetros. Ya que es una matriz definida positiva, por ser esta una matriz de varianzas y covarianzas, siempre existira otra matriz tal que permita expresarla como sigue

= HH ' 1 = (H' ) -1 H -1 ya que la existencia de H garantiza la existencia de H 1 Si ahora se premultiplica el modelo por H 1se tendra : H 1Y = H 1 X + H 1u Y * = X * + u* E( u * ) = H 1 E(u) E( u * ) = V ( u * ) = E( u * u * ' ) V ( u * ) = E [ H 1uu' (H' ) -1 ] = H 1 E( uu' )(H' ) -1 V ( u * ) = 2 H 1(H' ) -1 = 2 H 1 HH ' (H' ) -1 V ( u* ) = 2 I
con lo cual se logro hallar la transformacin de los datos adecuada para eliminar la heteroscedasticidad y la autocorrelacion, habilitando la aplicacin de MCO a los datos transformados para obtener estimadores de los parmetros insesgados y eficientes tal como lo predice el Teorema de GaussMarkov. Estos nuevos estimadores son denominados estimadores por minimos cuadrados generalizados (MCG). La expresin para los estimadores (MCG), la prueba de que siguen siendo insesgados y la expresin que adoptan Su matriz de Varianzas y covarianzas se muestra como sigue:

mcg = ( X * ' X * )1 X * ' Y * mcg = ( X ' H '1 H 1 X ) 1 X ' H '1 H 1Y mcg = ( X ' 1 X ) 1 X ' 1 ( X + u )
E ( mcg ) = + ( X ' 1 X ) 1 X ' 1E (u ) E ( mcg ) = sigue siendo insesgado V ( mcg ) = E[( )( )' ] V ( mcg ) = E ( X ' 1 X ) 1 X ' 1uu ' 1 X ( X ' 1 X ) 1 ] V ( mcg ) = ( X ' 1 X ) 1 X ' 1 E (uu ' ) 1 X ( X ' 1 X ) 1 V ( mcg ) = 2 ( X ' 1 X ) 1 X ' 1 1 X ( X ' 1 X ) 1 V ( mcg ) = 2 ( X ' 1 X ) 1
Esta expresin a la que se arribo es la varianza correspondiente a los estimadores de varianza mnima (por el teorema de Gauss-Marcov) por ende ser inferior que la de aplicar MCO a los datos sin transformar. Este hecho se puede demostrar va el calculo de la diferencia entre ambas arrojando esto una matriz semidefinida positiva. Para hallar la matriz H que transforme los datos se pueden seguir varias maneras. Una de eelas seria aplicando una descomposicin de Cholesky a , otra seria planteando un sistemas de ecuaciones. Notese adems que es esencial conocer con exactitud para en funcin de esto obtener H ya que seria omposible estimar todos sus elementos al mismo tiempo si estos fuesen todos distintos en virtud de que seria mas los parmetros a estimar que los datos con que se cuentan para hacerlo. Una consideracin importante sobre el tema es que cuando se comete el error de no percatarse o de hacer caso omiso a de la existencia de autocorrelacion y/u homoscedasticidad se incurrira adems en

el error de subestimar la varianza del estimador conllevando esto ultimo a predicciones errneas en cuanto a intervalos de confianza y test de hiptesis que se hagan sobre los estimadores.

V ( mco Falsa ) = 2 ( X ' X ) 1 < V ( mcg ) < V ( mco )


como se dijo en el parrafo anteprecedente ante la imposibilidad de obtener estimaciones sobre todos los parmetros de la matriz surge la necesidad de hacer algunas suposiciones adicionales sobre el tipo de autocorrelacion como la que se realiza en el ejercicio. a) Tambin en estos casos puede suceder que el estimador de la varianza muestral sea sesgado con respecto al valor del parmetro. Generalmente lo subestima, convirtindose esto en una grave peligro a la hora de realizar las inferencias. A continuacin se efecta una demostracin del mismo

e=Y X e = Y X ( X ' X ) 1 X ' Y e = [ I X ( X ' X ) 1 X ' ]( X + u ), donde [ I X ( X ' X ) 1 X ' ] = M , simtrica e idempotente e = MX + Mu = Mu ya que puede demostrarse que MX = [ I X ( X ' X ) 1 X ' ] X = e' e = u' M ' Mu = u' Mu E( e' e ) = E [ tr( u' Mu )] = E [ tr( uu' M )] E( e' e ) = tr [ E( uu' )M ] = 2 tr( M ) E(
e' e tr( M ) ) = E( 2 ) = 2 nk nk

La traza de (M ) es distinta de (n-k) siempre que I , por lo tanto el estimador de la varianza residual (ee/(n-k)) es sesgado. Para concluir vale destacar que prevenirse de la autocorrelacin y/o heteroscedasticidad (varianzas de los errores distintas entre s) es una tarea de suma importancia (no trivial), porque permitir imponer barreras a todos los peligros de la estimacin clsica por MCO. Para esto, hay tener en cuenta que son diversas las causas que llevan a la prdida de la propiedad de ruido blanco a los errores. Entre estas estn: el error en la especificacin de la forma funciona, omisin o inclusin variables relevantes, etc. Para conocer si es lgico o no el supuesto de ruido blanco de los errores se puede contar con la observacin de los digramas de dispersin, con los correlogramas y con algunos test de hiptesis como el de Durbin Watson. Para el caso de esquemas autorregresivos de primer orden, existe un estadstico que permite determinar si ste est presente entre las perturbaciones o no; dicho estadstico es el de Durbin-Watson y se define as:

d=

(e t e t 1 ) 2
t =2

e2t
t =1

Podemos definirlo alternativamente mediante algunos pasos algebraicos como:

d=

+ e 2 t 1 2 et et 1

d = 21
y siendo

e e e

t t 1 2 t

=
entonces

e t e t 1 e2t

) d = 2(1
Hay que tener en cuenta que el estadstico se basa en algunos supuestos sobre el modelo, a saber, que el mismo incluye un trmino independiente, que las variables X son fijas en muestras repetidas, que las perturbaciones u se generan mediante un proceso autorregresivo de primer orden y se distribuyen en forma normal multivariante y por ltimo que el modelo no incluye valores rezagados de la variable dependiente como una de las variables explicativas. Para poder rechazar o no la hiptesis nula de que no hay autocorrelacin entre las perturbaciones, se han tabulado valores crticos mximos y mnimos para poder tomar una decisin. Estos lmites dependen del nmero de observaciones y del nmero de variables explicativas del modelo. No desarrollar aqu el criterio de decisin para estas pruebas de hiptesis pero s se pueden reparar brevemente en los lmites de variacin del estadstico. Dependiendo de los valores que asuma , (y siendo que -1< <1): 0<d<4

2.- El mtodo SUR


Ante determinadas situaciones el investigador puede verse en la necesidad de modelar y estimar conjuntamente varias ecuaciones que en apariencia no representen simultaneidad entre las mismas. Sin embargo, los errores aleatorios pueden presentar algn grado de correlacin contempornea en la medida que involucren a factores comunes no medibles y/o no observables y ser esta correlacin no percibida la que haga que resulte ms eficiente estimar todas las ecuaciones simultneamente y no una por una por Mnimos Cuadrados Ordinarios. En la teora econmica existen innumerables ejemplos de estimaciones conjuntas. Se puede tratar de ajustar la demanda de determinado bien a lo largo del tiempo y en diferentes regiones. Se podran, a su vez, encontrar las demandas de diferentes bienes que estn relacionados (ya bien como sustitutos o complementarios), caso ste del ejercicio a realizar. La inversin en el tiempo de distintas firmas es otro caso tpico. La correlacin del trmino de perturbacin de distintas ecuaciones en un momento del tiempo es conocida como correlacin contempornea (distinta a la autocorrelacin, que es la correlacin en el tiempo en una misma ecuacin). La tcnica apropiada de estimacin conjunta es conocida como Seemingly Unrelated Regressions -Ecuations- (SUR), o regresiones aparentemente no relacionadas.

El mtodo SUR es utilizado por lo general en la estimacin de un conjunto de ecuaciones utilizando series de tiempo, pero es igualmente til para datos de corte transversal. El mtodo Sur puede ser considerado como un mtodo para combinar datos de series de tiempo y corte transversal. De una manera ms formal la situacin de modelizacin que propicia la aplicacin de este nuevo mtodo es:

yi = X i i + ei

con i = 1, 2, K, M, donde M = cantidad de ecuaciones

donde claramente se observa las diferencias con los problemas tradicionales de estimacin, ya que ahora se debe relacionar series de tiempo con cortes transversales, existiendo no slo la posibilidad de autocorrelacin entre los errores para cada observacin de una ecuacin i, sino que adems pueden ocurrir interrelaciones entre las perturbaciones de dos ecuaciones (vector ei contra el vector e j ).

MTODO SUR

con i = 1, 2, K, M, . Donde cada yi es (T x 1), la matriz X i es de ( T Dado yi = X i i + ei x Ki ), los i son de (Ki x 1) y las perturbaciones de (T x 1). Dados los tamaos, el modelo se puede reducir a:

y1 X 1 y2 = M yM

1 e1 e X2 2 + 2 Y (TMx1) = X (TMxK ) ( Kx1) + e(TMx1) M M O X M M e M

Donde K surge de la suma de los Ki de cada ecuacin. Cada ecuacin, como se dijo anteriormente, posee ruido blanco en los disturbios, pudindose estimar por MCO separadamente. El problema surge cuando al hacer esto, no consideramos las relaciones entre las ecuaciones (correlacin contempornea). Para encontrar entonces la matriz de covarianzas de todo el sistema, a partir de la matriz ( ) que contiene las varianzas de los disturbios de cada ecuacin ( ii ), se deben recordar la propiedad de homoscedasticidad, y las covarianzas entre las ecuaciones ( ij con i j ), que reflejan las correlaciones contemporneas, con lo cual se tiene

11 12 22 = 21 M M M2 M1

1M L 2M
L
L MM

Haciendo el producto de kronecker ( ) entre la matriz anterior y una identidad de orden (T), se obtiene lo siguiente:

L 12 1M 0 0 0 L 0 0 L 0 11 0 L L L 0 0 0 0 0 1M 12 11 LL M M O M M M O M M M O M L 1M 0 0 0 0 L 12 0 L 11 0 L 2M 0 0 0 L 0 0 L 0 22 12 L L L 0 0 0 0 0 0 2M 22 12 LL IT = M M O M M M O M M M O M 0 L 2M 0 0 0 0 L 22 0 L 12 LLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLL 1M 0 0 L L L 0 0 MM 0 0 2M 0 0 0 0 1M L 2M L MM L 0 0 L M M O M M M O M M M O M 0 0 0 L 1M 0 L 2M L MM 0 0

A esta matriz la llamaremos y representar la matriz de V y COV relevante. Si nosotros conocemos a , podemos estimar los coeficientes por MCG, deduciendo del lgebra matricial que:

= [ X ' ( 1 I ) X ] 1 X ' ( 1 I ) y = [ X ' 1 X ] 1 X ' 1 y

El nuevo estimador posee una menor varianza ya que tiene en cuenta la correlacin contempornea entre los distintos vectores de las perturbaciones de las diferentes ecuaciones Sin embargo existen dos casos particulares en que se obtienen resultados idnticos al aplicar MCO sobre cada ecuacin y al aplicar SUR y no se producen ganancias al tratar a las ecuaciones como sistema. a) Cuando las correlaciones contemporneas son iguales a 0. Ello es obvio, ya que es la existencia de dicha correlacin lo que provoca que las ecuaciones estn relacionadas.

11 = 22 = 33 = 0

b) Cuando las variables explicatorias de cada ecuacin son las mismas.

X1 = X 2 = X3 = X

Las variables explicativas de todas las ecuaciones son las mismas, por lo que no se produce una ganancia al tratarlas en forma conjunta, ya que no se agrega ninguna variable explicativa a cada variable dependiente. Por lo tanto, la estimacin a travs de MCO nos proporciona la misma solucin que el mtodo SUR. Ello se puede demostrar partiendo del estimador SUR, utilizando algunas propiedades del producto de Kronecker y observando que, al ser todas las matrices Xi iguales, entonces X = (I X) . Por lo tanto:

SUR = (X '( 1 I)X)-1 X( 1 I) y


= ((I X ')( 1 I)(I X)) 1 (I X ')( 1 I) y = ( 1 (X ' X)) 1 ( 1 I) y = ( (X ' X) 1 )( 1 I) y = (I (X ' X) 1 X ') y = ((I X) '(I X)) 1 (I X) ' y = (XX)-1 X y = MCO

Cuando no se conoce a la matriz de V y COV ( ), se opta por construirla a travs de los errores muestrales de la siguiente forma:

MCOi = (Xi Xi )-1 Xi yi ei = yi Xi MCOi


ij = 1 1 T i e j = e it e jt e T T t =1

Aunque sea sesgada en muestras pequeas. Para evitar el sesgo, se suele dividir el sumatorio por (T K/M). La dificultad aparece cuando el modelo incluye ecuaciones con diferentes nmeros de parmetros, ya que en dicho caso no se cuenta con iguales grados de libertad para las distintas ecuaciones, en especial al calcular las covarianzas entre dos

ecuaciones de distintos grados de libertad. Una alternativa interesante es utilizar como divisor T- k , donde k es la media del nmero de coeficientes de las ecuaciones. Dicho divisor posee la ventaja de que si todas las ecuaciones poseen el mismo nmero de coeficientes, provee de estimadores insesgados. Si definimos a la matriz de los estimadores $ , el estimador MCG del modelo cuando la de las varianzas y covarianzas del modelo como matriz de varianzas y covarianzas es desconocida, es:

SUR = (X '( I)X)-1 X'( I) y

Este estimador es conocido como el estimador Sur de Zellner y es el que se utiliza por lo general en la prctica. Restricciones 1- Condicin de Engel:
w114 + w2 24 + w3 34 = 1

La condicin de Engel establece que la suma de las elasticidades ingreso de cada bien, ponderadas por la participacin en el gasto total (p x q / y), debe ser igual a uno. Si se desarrollamos esta suma:
p1q1 q1 y p 2 q 2 q 2 y * * + y * y * q y q 2 1 y q1 q 2 p1 * y + p 2 * y p3 q3 q3 y * * =1 + y q3 y

q3 + p3 * y =1

Debemos observar si la suma del gasto que en cada bien se produce, luego de un incremento en el ingreso, es igual a uno. Es decir, que el incremento del gasto en los n bienes que se consumen deben agotar la totalidad del incremento en el ingreso.
q 2 q1 p 2 * y p1 * y dy + q3 p3 * y dy = dy dy +

2- Homogeneidad:
i1 + i 2 + i3 + i 4 = 0 para i = 1,2,3

Recordando que los coeficientes representan las elasticidades precio ( i1 , i 2 , i3 ) e ingreso ( i 4 ); debemos comprobar la propiedad de homogeneidad de grado cero de las funciones de demanda de este tipo para cada ecuacin. La importancia de esta caracterstica radica en su definicin: Al multiplicar todos los precios por un valor

arbitrario, distinto de cero, la cantidad demandada no variar si tambin multiplicamos nuestro ingreso por el mismo valor. Econmicamente la condicin de homogeneidad indica que el consumidor no padece ilusin monetaria en el sentido de que a la hora de consumir solo se fija en precios reales y no nominales. Lo dicho anteriormente se puede traducir formalmente como sigue:
qit = A * p1t i1 * p 2ti 2 * p3ti3 * yt i 4 ' = A * ( p ) i1 * ( p ) i 2 * ( p ) i3 * ( y ) i 4 qit t 1t 2t 3t i1 i2 i3 i4 ( i1 + i 2 + i3 + i 4 ) ' q = A * *p *p *p *y
it

1t

2t

3t

Se demuestra que al cumplirse la propiedad, el exponente de se anula dejando como ' ; es decir, las cantidades demandadas de ese consecuencia una identidad entre qit y qit bien i en el momento t no variaron. 3- Simetra: La condicin de simetra establece que la elasticidad cruzada de un bien i con respecto a otro j, expresada como proporcin de la participacin en el ingreso del bien j, ms la elasticidad-renta del bien i, debe ser igual a la elasticidad cruzada del bien j con respecto al bien i, expresada como proporcin de la participacin en el ingreso del bien i, ms la elasticidad-renta del bien j., o dicho formalmente:
ij
wj + i4 =

ij
wi

+ j 4 para i, j = 1,2,3(i j )

Donde: wi = pi qi / y siendo i = (1,2,3) representa la participacin en el presupuesto del bien isimo. Se debe utilizar: w i = T 1 ( pit q it / yt )
t =1 T

SUR Iterativo

La metodologa que se expuso para obtener los estimadores SUR cuando la matriz de varianzas y covarianzas era desconocida consista en calcular en una primera etapa los estimadores MCO de cada una de las demandas, y utilizarlos para obtener los vectores de errores: = ( X' X ) -1 X' y e = y X
MCOi i i i i i i i MCOi

Con dichos vectores obtenemos el estimador de las varianzas y covarianzas:

ij =

ei ' e j T-k

ei e j t =1 T-k

Formando una matriz estimada de las varianzas y covarianzas () a partir de los estimadores anteriores, estamos en condiciones de obtener el estimador SUR, dado por: 1 1 SUR = ( X' ( I)X) -1 X' ( I) y

Suele utilizarse tambin otro estimador SUR a travs de un proceso iterativo con los estimadores de las varianzas y covarianzas y los estimadores de los coeficientes del supermodelo. Una vez obtenido los estimadores SUR de los coeficiente, se los utiliza para estimar nuevamente la matriz de varianzas y covarianzas. A partir de la nueva estimacin de las varianzas y covarianzas, aplicamos nuevamente la definicin anterior y obtenemos en una segunda etapa un nuevo estimador SUR. Este estimador SUR de segunda etapa puede ser utilizado para estimar nuevamente la matriz de varianzas y covarianzas. A partir de dicha nueva matriz, podemos obtener un estimador SUR en una tercera etapa; y as de forma consecutiva hasta que se produzca una convergencia a un valor estable. Dicha convergencia llevara a que dos iteraciones sucesivas sean similares. No se repite el output proporcionado por los programas ya que resulta exactamente el mismo reproducido en la seccin anterior. No hay ganancia al utilizar el proceso iterativo ya que los estimadores MCO que permiten obtener el estimador de la matriz de varianzas y covarianzas son los mismos que luego se obtienen al estimar el supermodelo. Por lo tanto, los estimadores de los parmetros de las demandas que se utilizaran para obtener en una segunda etapa el nuevo estimador de la matriz de varianzas y covarianzas son los mismos que se utilizaron en el primer paso. Es decir, loas nuevas estimaciones por SUR en la segunda etapa sern los mismos que los de la primera etapa.

SUR RESTRINGIDO

Para estimar el modelo planteado teniendo en cuenta restricciones obre las funciones de demanda, se debe estudiar con detenimiento cmo se construyen los estimadores del SUR Restringido.

La ecuacin (1) desarrollaba el estimador por MCG cuando la matriz de Varianzas y Covarianzas ( ), se defina: = I T . Cuando se tiene inserto las restricciones en trminos del sistema de ecuaciones R = r , se obtiene un tercer vector de coeficientes alternativos al de

MCO y MCG libre. Cabe aclarar que este vector se forma con el supuesto de que la H0) R = r es cierta.

La optimizacin ahora surge de minimizar la suma de los cuadrados de los errores sujeto a las siete limitaciones:

Min (Y X )' 1 I (Y X )

sujeto a: R = r

Resolviendo la CPO se obtiene:

' ' *= mcg + CR RCR

)1 (r R mcg ), donde C = (X ' 1 X )1

El problema que se nos plantea es el de no poder contar con la verdadera matriz de varianzas y covarianzas y por ello debemos utilizar MCGE (estimados) construido con la matriz

= ij

[ ]K K

ij = de donde cada elemento

T 1 e . e (T K / M ) t =1 it jt

= I con lo que el vector de De esta manera, se puede hallar tambin a M coeficientes estimados para H0 cierta queda como sigue:

' ' *= mcg + CR RCR

)1 r R mcg .

TEST DE CORRELACION CONTEMPORANEA

En la primera parte del trabajo, al describir las caractersticas del modelo SUR, enfatizamos la existencia de correlacin no nula entre los errores de cada uno de los grupos o ecuaciones del sistema. La misma se define como contempornea justamente porque relaciona perturbaciones en un mismo perodo de tiempo (t). Saber si existe correlacin contempornea o no es importante ya que si no existe, aplicar MCO a cada ecuacin por separado es tan eficiente como SUR. Testear si existe correlacin contempornea es til para determinar si es o no es necesario aplicar SUR. Para el ejercicio de demandas,

ln qit = i 0 + i1 ln p1t + i 2 ln p2t + i 3 ln p3t + i 4 ln yt + eit i = 1, 2, 3

se quiere establecer si influye en el consumo del bien i el comportamiento del bien j. De esta manera, del sistema:

Se puede deducir que las correlaciones se deben buscar contrastando los eit con los e jt para un mismo t. Sabiendo que: ij =
T 1 eit e jt ; lo que se quiere probar es (T K / M ) t =1

simplemente si los ij son nulos o no. H0) ij = 0 i j HA) Al menos una covarianza igual a cero.

Construimos el estadstico del Multiplicador de Lagrange. El mismo se arma en base a los coeficientes de correlacin muestral (r):

2 = T rij i = 2 j =1

M i 1

con M = nmero de ecuaciones. El estadstico, en el lmite, se distribuye asintticamente Chi cuadrado con M(M-1)/2 grados de libertad (la cantidad de covarianzas distintas existentes en la matriz ).

TEST DE LA VALIDEZ DE LAS RESTRICCIONES

Para verificar la Hiptesis nula R = r , debemos encontrar un estadstico capaz de seguir una distribucin asinttica aproximada que sea conocida. Para esto, partiendo de la ~ N ( ; C ) ; por lo tanto, por propiedad de las matrices: R ~ N (r ; RCR ' ) bajo nocin de que: la hiptesis nula cierta. Sabiendo las caractersticas del exponente de una Normal Multivariada, podemos descifrar que:

r g = R

)' (RCR ' )1 (R r ) ~ 2 (J ) .

Donde J es el nmero de restricciones. El ltimo paso antes de utilizarlo para el contraste de hiptesis tiene que ver con la imposibilidad de contar con la verdadera varianza
y por . De esta manera, que surge de cambiar C por C y, por ello, se construir un g

g 2 ( J )
d

H0) R = r HA) R r
= 5%

Existe otro test construido sobre la base de un estadstico con distribucin que tiende a una F. Se parte de la nocin de las sumas de cuadrados libres y restringidos:

= F

y X 1 I y X / (MT K )

'

/J g

F (J ; MT K )
d

Puede demostrarse que el denominador converge en probabilidad a uno, por lo que puede ser omitido:

g F = ~ F( J ,MT K ) J

O de forma equivalente:

F =

(e 'r er e ' e) / J e ' e /(T K / M )

Y el valor observado de este estadstico debe ser comparado con el valor crtico terico de una distribucin F con J,(MT-K) grados de libertad para un nivel de confianza . Si el valor observado es mayor que el crtico, se rechaza la hiptesis nula planteada; en caso contrario, no se puede rechazar la hiptesis nula. Cual es el significado en cada caso? Si la reduccin en la suma de cuadrados de los residuos debido a la estimacin libre (sin restricciones) no es suficientemente grande, no habr pruebas para rechazar la hiptesis nula de que las restricciones son vlidas. Por el contrario, si esta reduccin es suficientemente grande, la hiptesis nula de que las restricciones son vlidas se rechazar ya que al no considerarlas la suma de cuadrados de los residuos disminuye considerablemente. Ambos estadsticos son asintticamente equivalentes y en muestras finitas el estadstico F llevar al rechazo de la hiptesis nula en un numero menor de casos que el estadstico X 2, por lo que responde a una aproximacin ms conservadora. Por ltimo, cabe considerar el efecto de utilizar el divisor T-(K/M) en el estimador de . Los estadsticos F y X 2 sern menores que si utilizramos el divisor T, y por lo tanto la hiptesis nula ser rechazada en un nmero menor de veces.

BIBLIOGRAFA:

CHIANG, Alpha: Economa Matemtica. Ed. McGraw-Hill. 1998 GREENE, Econometrics Analisi. Prentice Hall. 1995 GUJARATI, Damodar : Econometra Bsica. Ed. McGraw-Hill. 1991 JOHNSTON, J. : Mtodos Economtricos. Ed. Vivens Vives. 1987. Tercera Edicin. JUDGE, GRIFFITHS, HILL, LUTKEPOHL: The Theory and Practice Of Econometrics.

Second Edition. Wiley Series. 1985


MADDALA, G. S. : Econometra. Ed. McGraw-Hill. 1985. WOOLDRIDGE, J. Econometrics Analisis Of Cross Sections and Pnale Data. 2002. The MIT

Press