Guía de Estudio para la Asignatura de ECONOMETRÍA I

Prof. Luca Gambetti Universitat Autonoma de Barcelona

Julio 2009

Introducción
El curso de Econometría I constituye uno de los dos cursos de ECONOMETRÍA del Programa Universitat Empresa y es un curso obligatorio del primer semestre del primer año del Programa (tercero de carrera). El objetivo principal del curso es familiarizar al estudiante con los elementos básicos del trabajo econométrico proporcionándole todos los conocimientos necesarios para poder desarrollar un análisis cuantitativo de los modelos económicos. Por otro lado, es también objetivo del curso familiarizar al estudiante con la utilización de software econométrico, como el programa GRETL, para la investigación empírica. Por la naturaleza del los modelos estudiados, el curso requiere el conocimiento de determinados conceptos estadísticos y matemáticos que, por ello, se revisan en la primera parte del curso. La presente guía de estudios tiene como objetivo fundamental ser un instrumento útil al alumno en el aprendizaje del contenido temático del curso. La idea es que pueda servir como material complementario a los apuntes y de profundización de algunos de los temas estudiados en clase. La guía contiene apuntes sobre todos los temas teóricos tratados en el curso, además de ejemplos, ejercicios, aplicaciones empíricas con GRETL, exámenes pasados y referencias bibliográcas.

1

Capítulo 1 Modelo de Regresión Lineal Simple
1.1. El modelo
Sean

y

y

x

dos variables económicas de interés. Queremos un modelo econométrico

que proporcione respuestas a preguntas como: (i) ¾cuáles son los efectos sobre cambio en

y

de un

x? (ii) ¾cuanto podemos explicar de y a través de x? El modelo econométrico

que estudiaremos en este curso es el modelo de regresión lineal. En este capítulo, en particular, nos concentraremos en el modelo "simple". El modelo de regresión lineal simple se describe a través de la siguiente relación

lineal
(1.1)

y = β0 + β1 x + u
Donde: 1.

y −es

la variable que queremos explicar y recibe el nombre de o

variable depen-

diente
2.

variable explicada.
y
y recibe el nombre de

x−

es la variable a través de la cual queremos explicar

variable independiente, porque se determina fuera de nuestro modelo, o variable explicativa.
3.

u − se denomina término de error, es una variable aleatoria y representa factores
non observables distintos a

x

que afectan a

y.

2

La varianza de ui es constante: V ar(ui ) = σ2 para todos S2 S3 i.2) La esperanza de ui es zero: E (ui ) = 0 por cada i. Este será ∆y = β1 ∆x + ∆u. Ahora En- u se mantenga constante. β1 − son los parámetros del modelo. ∆u = 0. yi ) : i = 1. β1 es el parámetro que a menudo mas interesa a los economistas porque describe la relación existente entre tro? Considerese un cambio supongamos que tonces y y x.1). Si 3 .4. de manera que ∆y = β1 ∆x. Tomando el valor esperado de obtenemos E (yi ) = E (β0 + β1 xi + ui ) = E (β0 ) + E (β1 xi ) + E (ui ) = β0 + β1 x + E (ui ) = β0 + β1 xi donde la primera y segunda igualdad derivan de las propiedades del valor esperado y la tercera de S2.. ¾Cómo interpretamos este paráme- ∆y de y en (1. La media condicional de y es una recta que se conoce como función de regresión poblacional El parámetro y es también una función lineal de x. S4 ui y uj son independientes por cada i y cada j con i = j . Asumiendo que estos Sea ahora {(xi . una muestra de la población. . El supuesto S3 se conoce también como supuesto de S4 implica que la covarianza entre homoscedasticidad. β0 .. La variable independiente es no aleatoria o ja en muestras repetidas.n} datos sean generados por el modelo de regresión (1.1) podemos asumir que por cada i yi = β0 + β1 xi + ui Al supuesto de linealidad del modelo añadimos los supuestos siguientes: S1 (1. β1 = ∆y nos dice cuánto varía ∆x y si x varia de ∆x y u se mantiene constante. El supuesto debe ser igual a cero o sea ui y uj y con i = j E (ui uj ) = 0.

0000 18. o sea un cambio unitario en x.0000 20. o como la variación y provocada por un cambio unitario de x.1183 3. Sin embargo para poder interpretar β0 . 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 y 1. En este caso β1 nos dice de cuánto varía en promedio y provocada por un y si x varía de ∆x.7124 7.0000 4 .0000 12. Podemos interpretar β1 como la variación de cambio unitario de promedia de x si todos los demás factores son constantes.5169 3. Se considere ahora la función de regresión poblacional.7904 6.0000 19.8987 7.7885 6.0000 21.0000 22.1492 6.∆x = 1. Queda sobre claro ahora la implicación del supuesto de linealidad del modelo: el efecto de x y es lineal sobre y porque es simplemente β1 por el cambio en x.0000 17.0000 13.4227 9.0000 9.3579 4.1567 4.0000 10. En caso contrario no podemos interpretar este parámetro.0000 15.0000 23.0000 11.1453 x 8.0240 3.0072 7.0000 14. Obs.1294 5.0000 16. xi debe poder tomar valor igual a cero.8797 10. La interpretación de β0 y cuando es mas problemática. De hecho β0 nos dice cual es el valor promedio de x es cero.3279 6. β1 = ∆y representa la variación de y.

Estimación Trataremos ahora la importante cuestión de la estimación de los parámetros del modelo de regresión. Estimador Mínimos Cuadrados Ordinarios (MCO) En este curso el único estimador que estudiaremos y utilizaremos es el estimador de Mínimos Cuadrados Ordinarios. el error de regresión que representa la distancia vertical entre los puntos y los triángulos. Tal muestra yi = β0 + β1 xi + ui = 1 + 0. como investigadores. La nalidad del procedimiento de estimación es la de utilizar una muestra de datos. El modelo descompone cada observación partes. para obtener valores para los parámetros. que está encima de la recta de regresión poblacional (los triángulos) y otra parte. 1.3xi + ui El graco 1 enseña todas las observaciones (yi . β1 es el de la minimización de la suma de los cuadrados de 5 .2. El criterio que nos permite obtener los estima- dores de MCO de β0 . El parámetro β0 = 1 representa la intercepta y β1 la pendiente de la recta de regresión. xi ) de la muestra y la recta de regresión poblacional yi = 1 + 0.Tabla 1: Para comprender mejor el modelo. consideramos ahora su interpretación gráca. que se suponen generados por el modelo de regresión.3xi . Una parte. La idea es que nosotros. 1. la esperanza de yi en dos yi . ui .3xi .2. no conocemos ninguna característica cualitativa (el signo) o cuantitativa de los parámetros del modelo. o sea unas estimaciones. Consideremos la muestra aleatoria de 16 observaciones de se supone generada por el siguiente modelo y y x en la Tabla 1. o sea yi = 1 + 0.1.

Figura 1: 6 .

La idea es que queremos escoger de manera que la parte de variabilidad de de todos los residuos al cuadrado. β1 .los residuos de regresión. o sea la suma n i=1 u ˆ2 i = n i=1 (yi ˆ0 + β ˆ1 xi )2 . respecto a los ∂Q =0⇒ ˆ0 β ∂Q =0⇒ ˆ1 β n n n i=1 ˆ0 − β ˆ1 xi ) = 0 2(yi − β ˆ0 − β ˆ1 xi )xi = 0 2(yi − β i=1 Desde la primera condición obtenemos n yi − i=1 n i=1 i=1 n i=1 ˆ0 − β n ˆ1 xi = 0 β yi n − − =0 n n n ˆ0 nβ ˆ1 i=1 xi = 0 y ¯− −β n n ˆ ˆ1 x y ¯ − β0 − β ¯=0 ˆ0 = y ˆ1 x β ¯−β ¯ (1. Q. β ˆ1 β son los estimadores que solucionan el siguiente problema de n ˆ0 . β De la segunda 7 . β ˆ1 β y que no podemos explicar. Para entender el método necesitamos algunas deniciones preliminares. u ˆ i = yi − y ˆi = yi − β El residuo de regresión para la observación i es la diferencia entre el valor verdadero yi y su valor ajustado y ˆi y expresa la parte de yi que no podemos explicar con nuestra variable explicativa x.β ˆ1 β i=1 m´ ın ˆ0 − β ˆ1 xi )2 ≡ Q (yi − β Para solucionar este problema hay que encontrar las condiciones del primer orden. Sean ˆ0 . El método de mínimos cuadrado se basa en la minimización de la suma de todos los residuos al cuadrado. Denimos el valor a justado de yi como ˆ0 + β ˆ1 xi . β Ahora podemos utilizar la segun- da condición de primer orden para encontrar una ecuación para ˆ1 . ˆ0 . y ˆi = β y el residuo de regresión como ˆ0 + β ˆ1 xi .3) ˆ0 β i=1 n ˆ i=1 β1 xi que es una ecuación para ˆ0 β en términos de ˆ1 . −β sea mínima. β ˆ1 β dos estimadores de β0 . Formalmente minimización: ˆ0 . Estas condiciones son las derivadas parciales de la función objetivo. dos estimadores igualadas a cero.

Resulta claro entonces que las soluciones deberán ser las mismas y los estimadores que encontraremos en este caso coincidirán con (1.3) y (1.obtenemos n i=1 n ˆ1 x ˆ1 xi xi = 0 yi − (¯ y−β ¯) − β n (yi − y ¯)xi − i=1 n i=1 i=1 ˆ1 (xi − x β ¯)xi = 0 n ˆ1 (yi − y ¯)(xi − x ¯) − β ˆ1 = β ( xi − x ¯)2 = 0 x ¯) (1. Entonces E (y − β0 − β1 x) = 0 E (x(y − β0 − β1 x)) = 0 El método de los momentos elige los estimadores ˆ0 . u) = 0) o sea E (xu) = 0 puesto que E (u) = 0. Una segunda manera a través de la cual se puede derivar el mismo estimador se conoce como el método de los momentos. O sea n n−1 i=1 n ˆ0 − β ˆ1 xi ) = 0 (yi − β ˆ0 − β ˆ1 xi ) = 0 xi (yi − β 2n obtenemos las mismas ecuaciones obtenidas n−1 i=1 Multiplicando las dos ecuaciones por de la minimización de la suma de los residuos al cuadrado. La idea es muy sencilla. 8 . El supuesto S1 nos dice que la media de u es cero (E (u) = 0) mientras que el supuesto S1 y x y S2 implican que la covarianza entre u es cero (Cov (x.4).4) i=1 n ¯)(xi − i=1 (yi − y n ¯)2 i=1 (xi − x La última igualdad se obtiene utilizando las propiedades del operador suma. β ˆ1 β de manera que solucionen las contrapartidas muestrales de las dos ecuaciones de arriba. Podemos observar que n i=1 xi (xi − x ¯) = n i=1 n i=1 (xi −x ¯)(xi − x ¯) xi − implica n i=1 x ¯ ( xi − x ¯) = 0 que es cierto porque x ¯(xi − x ¯) = x ¯ n i=1 n x)2 i=1 (¯ = n(¯ x)2 − n(¯ x)2 .

3458 + 0.54educi salario El valor estimado de la pendiente signica que un año más de educación hace que el salario aumente en 0. β0 de la que hemos hablado ante- ˆ1 .90 + 0. y ) Cov ( ˆ(x) V ar β1 . El graco 2 muestra la recta de regresión poblacional (la línea continua) vista antes y la nueva recta de regresión 9 . Si aplicamos MCO a los datos en la Tabla 1 obtenemos y ˆi = 0. ¾Cuál será el salario horario previsto para un individuo con ocho años de educación? La respuesta es dólares por hora. contenidos en el archivo WAGE1 en la base de datos Wooldridge en GRETL hemos estimado con MCO la siguiente regresión: ˆ i = −0. β ˆ0 β coincide a la de riormente.3544xi que es diferente de la regresión poblacional debido a que las estimaciones de los parámetros no coinciden con sus contrapartidas teóricas.54 dólares por hora. Ejemplo 1.42 Una implicación clave de la estimación del modelo es que la recta de regresión muestral no coincide con la recta de regresión poblacional.90 + 0.54(8) = 3. x y ˆ0 β representa el valor de y ˆ xi = 0. −0. Repetimos que cambio en cuando ˆ1 β representa el y ˆ producido por un cambio unitario en Considerese el siguiente ejemplo. ahora en términos de valores ajustados.Podemos notar que varianza muestral de ˆ1 β es simplemente el ratio entre la covarianza muestral y la x n (x −x ¯)(yi −y ¯) i=1 i ˆ1 = β n−1 n (x −x ¯)2 i=1 i n−1 = La interpretación de ˆx.1 Utilizando datos para salario promedio horario (medidos en dólares por hora) y años de educación para 526 individuos.

Figura 2. 10 .

Por esta razón esta condición siempre se cumple.2. u ˆi xi = 0. La razón que explica esta diferencia resultará clara más adelante. u ˆi = yi − y ˆi 11 . Las primeras tres igualdades se obtienen a través de las propiedades del operador suma y la cuarta substituyendo la formula MCO de ˆ0 . Primero estudiaremos las propiedades algébricas y después las propiedades estadísticas de tales estimadores. Ésta es la segunda condición del primer orden que hemos utilizado antes para derivar el estimador de mínimos cuadrados. n n n i=1 u ˆi = 0. 1. u ˆi = i=1 i=1 n ˆ0 − β ˆ1 xi ) (yi − β n = i=1 yi − i=1 ˆ0 − β n i=1 ˆ1 xi β ˆ0 − nβ ˆ1 x = ny ¯ − nβ ¯ ˆ1 x ˆ1 x = ny ¯ − n(¯ y−β ¯ ) − nβ ¯ = 0.muestral (la línea discontinua) estimada en este ejemplo. P3 La media muestral de los valores ajustados es igual a la media muestral del los ¯ valores originales : y ˆ=y ¯.2. Propiedades algebraicas P1 La suma de los residuos es cero. Propiedades de los estimadores Describiremos ahora las propiedades de los estimadores de MCO. β n i=1 P2 La covarianza muestral entre regresores y residuos es cero.

σ 2 ) Si ahora restamos la media a x y dividimos por su desviación típica obtenemos la variable normal estandardizada y= Sean x−µ ∼ N (0. Propiedades estadísticas Antes de ver las propiedades estadísticas de los estimadores necesitamos repasar algunos conceptos y resultados estadísticos clave. Si además w es independiente de y entonces y w k o sea una variable con distribución ∼ tk con t−student k grados de libertad. Ahora sean w1 y w2 dos variables χ2 independientes con grados de libertad a y b respectivamente.. ..n n n u ˆi = i=1 n i=1 n yi − i=1 y ˆi yi = i=1 i=1 y ˆi ¯ y ˆ = y ¯ donde la tercera igualdad se obtiene a través de la propiedad P1. k k variables normales estandardizadas independientes. i = 1.. 1) σ zi .b w2 /b 12 . Un resul- tado muy importante es que k w= i=1 o sea la suma de las zi2 ∼ χk zi al cuadrado es una variable con distribución chi-cuadrado con k grados de libertad. Sea de densidad normal con media x una variable aleatoria con función µ y varianza σ2 x ∼ N (µ. El siguiente ratio w1 /a ∼ Fa.

Los estimadores β Veremos el caso de ˆ1 .Figura 3 se distribuye con una distribución F con a y b grados de libertad. β Empezando con la fórmula del estimador MCO tenemos ˆ1 = β = = = n ¯)(xi − x ¯) i=1 (yi − y n 2 ¯) i=1 (xi − x n ¯)yi i=1 (xi − x n ¯ )2 i=1 (xi − x n ¯)(β0 + β1 xi + ui ) i=1 (xi − x n ¯ )2 i=1 (xi − x n ¯)β0 + n ¯)β1 xi i=1 (xi − x i=1 (xi − x n ¯)2 i=1 (xi − x + n i=1 (xi −x ¯)ui 13 . Vamos a estudiar ahora las propiedades estadísticas de los estimadores MCO. P4 ˆ0 . Bajo los supuestos hechos anteriormente valen las siguientes propiedades. β ˆ1 son variables aleatorias.

5) La (1. más otro Por esta término que es una combinación lineal de las variables aleatorias razón ˆ1 β es también una variable aleatoria. = = β1 xi El segundo n ¯)β1 xi i=1 (xi − x n ¯ )2 i=1 (xi − x n i=1 (xi −x ¯ ) xi n ¯ )2 i=1 (xi − x n ¯ )2 β1 xi i=1 (xi − x n ¯)2 i=1 (xi − x = β1 donde la segunda igualdad se obtiene de n n n (xi − x ¯)(xi − x ¯) = i=1 i=1 n (xi − x ¯)xi − (xi − x ¯)xi − x ¯ i=1 n (xi − x ¯)¯ x i=1 n = = i=1 n (xi − x ¯) i=1 n n (xi − x ¯)xi − x ¯( i=1 xi − i=1 x ¯) = i=1 n (xi − x ¯)xi − x ¯(nx ¯ − nx ¯) (xi − x ¯)xi i=1 = Resumiendo. El primero n ¯)β0 i=1 (xi − x n ¯)2 i=1 (xi − x = β0 n i=1 (xi n i=1 (xi −x ¯) −x ¯)2 = 0 porque n i=1 (xi −x ¯) = nx ¯− n i=1 xi = nx ¯ − nx ¯.Vamos a analizar los primeros dos términos a la derecha del igual. Una directa implicación de este re- sultado es que para muestras aleatorias distintas la estimación del parámetro obtenida con MCO será distinta.5) nos dice que el estimador MCO ˆ1 β es igual al parámetro β1 ui . ˆ1 = β1 + β n ¯)ui i=1 (xi − x n ¯)2 i=1 (xi − x (1. 14 .

yi = 1 + 0. por cada una de las muestra (eje x).5) se obtiene ˆ1 ) = E β1 + E (β = β1 + E = β1 + = β1 n ¯)ui i=1 (xi − x n ¯)2 i=1 (xi − x n ¯)ui i=1 (xi − x n ¯)2 i=1 (xi − x n i=1 (xi − n i=1 (xi x ¯)E (ui ) −x ¯ )2 La segunda igualdad se obtiene aplicando las propiedades del valor esperando. Consideremos el modelo que hemos tratado antes. Empezamos con Tomando la esperanza de utilizando la (1.2 Para entender mejor esta propiedad haremos el siguiente ejer- cicio. el valor estimado de ˆ1 .16). β Es evidente que cada una de las muestras proporciona una diferente estimación. E (β Esta propiedad se puede demostrar utilizando el resultado anterior. La tercera se obtiene utilizando S2 y la última con el supuesto S1. β Tomando el valor esperado en la ˆ0 ) = E (¯ ˆ1 x E (β y−β ¯) ˆ1 x = E (β0 + β1 x ¯+u ¯−β ¯) ˆ1 )¯ = E [β0 + (β1 − β x+u ¯] ˆ1 )¯ = β0 + E [(β1 − β x] + E (¯ u) ˆ1 )¯ = β0 + E [(β1 − β x] + E (¯ u) 15 . ui utilizando una Generamos 100 muestras aleatorias de 16 observaciones de N (0. ˆ0 ) = β0 Los estimadores MCO son insesgados: E (β ˆ1 .Ejemplo 1. Con cada una de estas muestras generamos 16 observaciones de la variables dependiente y. La gura 3 muestra.3xi + ui . 0. β ˆ1 β y ˆ1 ) = β1 . La razón está en la propiedad que acabamos de ver: ˆ1 β P5 es una variable aleatoria. Vamos ahora a demostrar la insesgadez de fórmula del estimador obtenemos ˆ0 . Por cada muestra volvemos a estimar el modelo de regresión anterior.

n (x −x ¯)2 i=1 i Podemos escribir la ecuación de arriba como ˆ1 − E (β ˆ1 ) E β 2 n 2 = E i=1 ki ui Para entender mejor el valor esperado a la derecha del igual supongamos que n = 2. La demostración de la segunda parte la dejamos como ejercicio. Considerese la ecuación (1.5). Ahora podemos establecer la siguiente propiedad relativa a la varianza de los estimadores MCO P6 ˆ1 ) = V ar(β σ2 n (x −x ¯ )2 i=1 i y ˆ0 ) = σ 2 V ar(β 1 n + x ¯2 n (x −x ¯)2 i=1 i Demostraremos sólo la primera parte de la propiedad. tomando el cuadrado y el valor esperado de los elementos obtenemos la siguiente expresión para la varianza de ˆ1 β 2  ˆ1 − E (β ˆ1 ) E β Sea 2 = E n ¯)ui i=1 (xi − x n ¯)2 i=1 (xi − x  . ki = (xi −x ¯) . Ésta implica ˆ1 − β1 = β n ¯)ui i=1 (xi − x n ¯ )2 i=1 (xi − x Utilizando P5. En este caso 2 E( i=1 2 2 2 2 ki ui )2 = E k1 u1 + k2 u2 + 2k1 u1 k2 u2 2 2 2 2 = E (k1 u1 ) + E (k2 u2 ) + E (2k1 u1 k2 u2 ) 2 2 2 = k1 E (u2 1 ) + k2 E (u2 ) + 2k1 k2 E (u1 u2 ) 2 2 = k1 σ + k2 σ 2 2 = σ 2 (k1 + k2 ) 16 .= β0 + E = β0 + = β0 n i=1 n i=1 ui n E (ui ) n La segunda igualdad se obtiene substituyendo piedad de insesgadez de y ¯ y la última utilizando la pro- ˆ1 β vista antes. la denición de u ¯ y la propiedad P1.

Para que se cumpla la propiedad de insesgadez de este nuevo estimador n i=1 wi = 0 y n i=1 wi xi = 1. Esta propiedad nos dice que no existe un estimador con la propiedad de insesgadez y linealidad con varianza menor que el estimador MCO. β n i=1 n i=1 Denimos otra vez ki = (xi −x ¯) . por un quiera n cual- n 2 n E i=1 ki ui = σ 2 i=1 2 ki n ¯)2 i=1 (xi − x n ¯)2 ]2 i=1 (xi − x 2 = σ2 = [ σ n i=1 (xi −x ¯ )2 (1. Denimos otro estimador lineal Si substituimos β1 . Vamos ahora a calcular la varianza de este nuevo estimador. Haremos ahora una prueba sencilla de esta propiedad para Entonces.Las primeras tres igualdades se obtienen utilizando las propiedades del valor esperado. La cuarta se obtiene utilizando S3 u S4. el estimador MCO es de ˆ1 . Tomando el valor esperado n n E (βi∗ ) = E α i=1 n w i + E β1 i=1 n w i xi + E i=1 w i ui = α i=1 wi + β1 i=1 w i xi = β1 . le llamaremos βi∗ n i=1 como wi yi .6) Otra propiedad del estimador MCO es la siguiente. yi obtenemos βi∗ = α n i=1 wi + β1 wi xi + n wi ui . conocida como Teorema de GaussMarkov: P7 El estimador MCO es el estimador insesgado y lineal con varianza mínima. En general. n V ∗ ar(β1 ) = V ar i=1 n wi yi = i=1 2 wi V ar(yi ) 17 . n (x −x ¯)2 i=1 i ˆ1 = β βi∗ = n i=1 ki yi .

Hemos visto que ˆ0 + β ˆ1 xi u ˆ i = yi − β ˆ0 + β ˆ1 xi = β0 + β1 xi + ui − β ˆ0 − β0 ) − (β ˆ1 − β1 )xi = ui − (β 18 . β1 y en su σ2 es un parámetro del cual no tenemos ninguna información.7) Esto implica que la varianza es mínima cuando que ser el estimador MCO (xi −x ¯) n ( x −x ¯)2 i i=1 ∗ β1 tiene ˆ1 . Estimar la varianza del error Hasta ahora hemos concentrado nuestra atención en los parámetros estimación. Este parámetro es particularmente importante porque. también β0 .2. Antes de estudiar el estimador de la varianza del error. β 1. Sin embargo. vamos a insistir en la diferencia existente entre los errores el residuo de regresión es ui y los residuos u ˆi de regresión. El segundo ) = σ2 . obtener una estimación de la varianza del término de error es básico para poder hacer inferencia. Como será claro en la siguiente sección.3. n (x −x ¯)2 i=1 i 1 Entonces la varianza de ∗ β1 será n V ∗ ar(β1 ) =σ 2 i=1 2 wi − (xi − x ¯) n ¯)2 i=1 (xi − x 2 + σ2 wi = 1 n i=1 (xi −x ¯ )2 o sea (1. como hemos visto. de éste dependen las varianzas de los estimadores.n = σ2 i=1 n 2 wi = σ = σ 2 i=1 n 2 i=1 wi − 2 wi n 2 i=1 ( xi − x ¯) + n ¯)2 i=1 (xi − x ( xi − x ¯) n ¯)2 i=1 (xi − x 2 (xi − x ¯) n ¯ )2 i=1 (xi − x + σ2 ( 2 − n ¯)2 i=1 (xi − x n ¯)2 )2 i=1 (xi − x + +2σ 2 wi − (xi − x ¯) n ¯ )2 i=1 (xi − x (xi − x ¯) n ¯ )2 i=1 (xi − x σ2 ( n ( x −x ¯)2 i=1 i 2 n (x −x ¯)2 i=1 i el último elemento a la derecha del igual es cero.

6). la Suma Explicada de los Cuadrados (SEC) y la Suma de los Cuadrados de los Residuos (SCR) de la siguiente manera: n ST C ≡ i=1 n (yi − y ¯)2 (ˆ yi − y ¯)2 i=1 n SEC ≡ SCR ≡ i=1 STC mide la variabilidad muestral de las SEC mide la varianza muestral de las u ˆ2 i yi (ST C/(n − 1) es la varianza muestral). o. Simplemente hay que substituir (1. El estimador insesgado que utilizamos en este curso es el siguiente: σ ˆ2 = u ˆ2 i n−2 n i=1 (1.Es claro que u ˆi u ui no son iguales simplemente porque parámetros y estimadores no coinciden. Entonces. La relación que hay entre residuo y error es que sus medias coinciden gracias a la propiedad de insesgadez de los estimadores MCO.8) en (1. Como σ 2 = E (u2 i) podríamos utilizar u2 i n .4. Empezamos deniendo la Suma Total de los Cuadrados (STC). una posibilidad sería utilizar la fórmula anterior con los residuos n i=1 u ˆ2 i n . Volvemos ahora a la estimación de n i=1 σ2. Una vez obtenida una estimación para la varianza del error es muy sencillo estimar la varianza del estimador. El problema es que este estimador es sesgado. El problema es que los errores no son observados. 1. sobre hasta que punto la recta de regresión MCO se ajusta a los datos. en otras palabras. Bondad del ajuste A menudo necesitamos una medida que nos proporcione información sobre la capacidad de la variable independiente x de explicar la variable dependiente y.8) La insesgadez se obtiene a través de la normalización por n − 2 en lugar de n.2. Lo que observamos son los valores estimados de los errores o sea los residuos de regresión. y ˆi (sabemos de P3 que ¯i = y y ˆ ¯) y SCE mide la 19 .

Si dividimos todo por ST C obtenemos 1= SEC SCR + ST C ST C 20 .variación muestral de u ˆi (sabemos de P1 que ¯ u ˆ = 0). Ahora vamos a demostrar que entre las tres cantidades existe la siguiente relación ST C = SEC + SCR o sea la suma total de los cuadrados es igual a la suma de los cuadrados de los residuos y la suma explicada. De su denición n n (yi − y ¯)2 = i=1 i=1 n (yi − y ˆi + y ˆi − y ¯)2 (ˆ ui + y ˆi − y ¯)2 i=1 n n n = = i=1 u ˆ2 i + i=1 n i=1 2ˆ ui (ˆ yi − y ¯) + i=1 (ˆ yi − y ¯)2 = SCR + 2ˆ ui (ˆ yi − y ¯) + SEC Lo único que necesitamos demostrar es que el segundo término de la expresión de arriba es cero. n n 2ˆ ui (ˆ yi − y ¯) = i=1 i=1 n 2ˆ ui (ˆ yi − y ¯) ˆ0 + β ˆ1 xi − y 2ˆ ui (β ¯) ˆ1 x ˆ1 xi − y 2ˆ ui (¯ y−β ¯+β ¯) ˆ1 (xi − x 2ˆ ui β ¯) n i=1 n i=1 = i=1 n = i=1 n = i=1 ˆ1 = 2β ˆ1 = 2β = 0 ˆ1 u ˆi xi − 2β n u ˆi x ¯ i=1 n ˆ1 x u ˆi xi − 2β ¯ u ˆi i=1 por las propiedades P1 y P2.

el estimador MCO de la pendiente será c y estimamos la nueva ˜1 = β = c n ¯)(cyi − i=1 (xi − x n ¯)2 i=1 (xi − x n ¯)(yi − i=1 (xi − x n ¯)2 i=1 (xi − x cy ¯) y ¯) ˆ1 = cβ mientras que el nuevo estimador de β0 será ˜0 = cy ˆ∗ x β ¯−β 1¯ 21 . Ejemplo 1. Cambio de escala y formas funcionales Cambio de escala En el ejemplo anterior. 1. de la siguiente SEC SCR =1− ST C ST C R2 = y se interpreta como la fracción de la variación muestral de yi explicada por xi . o coeciente de determinación.Denimos el manera: R-cuadrado de la regresión.5. Caso 1: multiplicamos y por una constante c Si multiplicamos la variable dependiente por una constante regresión. Este valor para R2 signica que el 16 % de la variabilidad de la variable salario es explicada por nuestra variable independiente educ.16.2. El R2 siempre está entre cero y uno. Conocer la unidad de medida de las variables es necesario para poder interpretar correctamente los parámetros estimados. Vamos a estudiar ahora cómo cambian las estimaciones de nuestro modelo cuando cambiamos la escala de las variables dependiente y independiente. hemos medido el salario en miles de dólares.1 (cont) En el modelo estimado en el ejemplo 1 encontramos que R2 = 0.

en muchos trabajos econométricos. encontraremos otros tipos de relaciones. el estimador MCO de la pendiente será c y estimamos la nueva ˜1 = β = = n ¯)(yi − y ¯) i=1 (cxi − cx n 2 ¯) i=1 (cxi − cx n ¯)(yi − y ¯) c i=1 (xi − x c n 2 2 c i=1 (xi − x ¯) 1ˆ β1 c (1. por ejemplo salario y educación. Formas funcionales Hasta ahora hemos considerados relaciones lineales entre variables. los dos estimadores serán los es- y multiplicados por la constante c.ˆ1 x = cy ¯ − cβ ¯ ˆ0 = cβ En este caso. con la nueva variable dependiente. Sin embargo. mientras que la estimación de β0 no varía. En particular. Caso 2: multiplicación de x por una constante c Si multiplicamos la variable dependiente por una constante regresión.9) mientras que el nuevo estimador de β0 será ˜0 = y ˆ∗ c β ¯−β 1 ¯x 1ˆ ¯ = y ¯− β 1 cx c ˆ0 = β En este caso. estudiaremos la 22 . encontraremos a menudo casos en que una o las dos variables aparecen en forma logarítmica. con la nueva variable dependiente timadores obtenidos con cy . En este apartado. la estimación de la pendiente se divide por la constante c.

Esto signica que ∆ log(x) β1 /100 representa el cambio en en términos de su unidad de medida si x aumenta en un 1 %. β1 expresaba el salario (miles de euros) cuando educ aumentaba en una uni- Caso 2: nivel-log Supongamos que nuestro modelo de regresión ahora sea el siguiente y = β0 + β1 log(x) + u Si de ∆u = 0. Ejemplo 3 Consideremos el siguiente modelo log(salarioi ) = β0 + β1 educi + ui Utilizando los datos del Ejemplo 1 obtenemos las siguientes estimaciones ˆ log(salario i ) = 0. y entonces β1 = ∆y . Observese la diferencia con el caso anterior donde las dos variables eran especicadas en niveles.08educi donde el parámetro ˆ1 = 0. 23 .58 + 0.interpretación de los parámetros en el caso en que una o las dos variables del modelo de regresión sean especicadas en logaritmos.08 β nos dice que un año más de educación determina un aumento en el salario horario de un 8 %. En ese caso. Caso 1: log-nivel Supongamos que nuestro modelo de regresión sea el siguiente log(y ) = β0 + β1 x + u Si ∆u = 0 entonces β1 = y ∆ log(y ) . cambio en unidades de dad (año). Esto signica que ∆x si 100β1 representa el cambio en términos porcentuales en x aumenta en una unidad.

9 log(salesi ) donde el parámetro ˆ1 = 262.25 β ahora nos dice si la ventas aumentan en un 1 % el salario de un ejecutivo aumenta de 0.629 miles de dólares. 24 . el salario de un ejecutivo aumenta de 262.Ejemplo 4 Ahora utilizando el archivo CEOSALES1 de la bases de datos Wool- dridge en GRETL estimamos la siguiente regresión salaryi = β0 + β1 log(salesi ) + ui donde y salaryi se reere al salario de un ejecutivo de la empresa i en miles de dólares sales las ventas de esta empresa en miliones de dólares. En este caso ∆ log(x) β1 tiene la interpretación de elasticidad y expresa de cuánto varía en términos porcentuales y si x aumenta en un 1 %. Ejemplo 4 (cont.25 log(salesi ) donde el parámetro ˆ1 = 0.9/100 = 2.82 + 0.) Utilizando el mismo archivo del ejemplo anterior CEOSALES1 estimamos la siguiente regresión: log(salaryi ) = β0 + β1 log(salesi ) + ui las estimaciones nos dan ˆ log(salary i ) = 4. Utilizando el estimador MCO obtenemos ˆ salary i = −898. Caso 3: log-log Supongamos que nuestro modelo de regresión ahora sea el siguiente log(y ) = β0 + β1 log(x) + u Si ∆u = 0 entonces β1 = ∆ log(y ) .93 + 262.25 %.9 β nos dice que si la ventas aumentan en un 1 %.

Básicamente estudiaremos el contraste de una hipótesis estadística. σ2 ) Este supuesto implica otra propiedad del estimador MCO o sea que el estimador se distribuye normalmente con media el verdadero parámetro y varianza la obtenida anteriormente en la propiedad P6. Un resultado fundamental nos dice que tal combinación es también una variable normal. bajo el supuesto S5 son variables norma- les independientes. Model nivel-nivel nivel-log log-nivel log-log Dependiente Independiente Interpretación β1 y y log(y ) log(y ) x log(x) x log(x) Tabla 2 ∆y = β1 ∆x ∆y = (β1 /100) %∆x %∆y = (100β1 )∆x %∆y = β1 %∆x 1. en la derivación de la P4.3. βi ∼ N (βi .La tabla 2 resume la interpretación en todos los diferentes casos. ui ∼ N (0. V ar(β hemos visto antes. que el estimador MCO es una combinación lineal de las ui que. el contraste t. i = 0. P8 ˆi )). 1. y los intervalos de conanza para un único parámetro. 25 . Inferencia Vamos a tratar ahora el tema de la inferencia. Para poder desarrollar y comprender el análisis inferencial necesitamos añadir el siguiente supuesto al modelo: S5 El error se distribuye normalmente con media cero y varianza σ2 .

1) ˆi ) se(β donde (1. si substituimos χ2 con n−2 grados de libertad. el contraste t contrastar o averiguar determina- El primer instrumento de análisis inferencial que vamos a estudiar es el contraste de hipótesis. como visto antes. Entonces. Segundo (que se demostrará mas adelante) n ˆ2 i=1 u i σ2 = (n − 2)ˆ σ2 ∼ χn−2 σ2 n−2 y la varianza o sea el ratio entre el estimador de la varianza multiplicado por de término de error es una variable con distribución Tercero.1. Para poder desarrollar el 26 . necesitamos también repasar algunos resultados estadísticos adicionales. 1. σ con σ ˆ en (1. el segundo resultado importante es que ˆi − βi β ∼ tn−2 ˆˆ se(βi ) donde (1.11) ˆˆ se(β i) = ˆ ˆ V ar(β ˆ[ i) = σ n i=1 (xi −x ¯)2 ]−1/2 . o sea.3. la denición de una variable χn−2 dividido por sus grados de t−student con n−2 grados de libertad. Primero.10) obtenemos una variable con distribución t−student ˆi − βi β = ¯)2 ]−1/2 σ ˆ[ n i=1 (xi − x ˆi − βi β σ ˆ σ ([σ n i=1 (xi −x ¯)2 ]−1/2 ) El numerador de este ratio es una variable normal estandardizada y el denominador es la raíz cuadrada de una variable con distribución libertad.Además de este nuevo supuesto. si al estimador restamos su media y dividimos por su desviación típica obtenemos una variable normal estandardizada ˆi − βi β ∼ N (0.10) ˆi ) = se(β ˆi ) = σ [ V ar(β n i=1 (xi −x ¯)2 ]−1/2 . El contraste de hipótesis sirve para das hipótesis estadísticas sobre los parámetros del modelo. Contraste de hipóthesis.

Si no podemos rechazar tal hipótesis tendríamos que concluir que no hay ninguna relación estadísticamente signicativa entre estas dos variables. necesitamos una medida de discrepancia entre los datos y la hipótesis nula. el contraste de hipótesis trata de averiguar si una determinada hipótesis nula se puede considerar compatible o no con lo datos. La hipótesis nula es una hipótesis estadística. necesitamos una cantidad que permita 27 . La hipótesis alternativa es la hipótesis frente a la cual evaluamos la hipótesis nula. En el ejemplo anterior de salario y educación contrastar la hipótesis H0 : β1 = 0 equivale a contras- tar la armación que la educación no sea importante para explicar el salario. El contraste de esta hipótesis es un caso muy interesante porque trata de averiguar si entre la variable independiente y dependiente existe alguna relación. es H0 : β1 = βi0 . especicaremos la hipótesis nula (H0 ) de la manera siguiente: H0 : βi = βi0 Una hipótesis que contrastaremos a menudo es que la pendiente de la recta de regresión sea igual a cero H0 : β1 = 0. En este curso. una armación sobre algunos de los parámetros del modelo. Una vez especicada la hipótesis nula y la alternativa. o sea la hipótesis que aceptamos si rechazamos la hipótesis nula. Un primer tipo de hipótesis alternativa (contraste a una sola cola) es el siguiente H0 : βi < βi0 o H0 : βi > βi0 Un segundo tipo de hipótesis. correspondiente a contraste a dos colas. O sea.contraste necesitamos antes aclarar el concepto de hipótesis nula y de hipótesis alter- nativa. que se asume ser cierta al principio del contraste. Como se ha dicho anteriormente. Consideraremos dos tipos distintos de hipótesis alternativas correspondientes a contrastes a una o dos colas.

Esta medida toma el nombre de estadístico de contraste. si H0 : β1 = 0. Hemos visto que este estadístico es una variable con distribución t−student. podemos calcular el valor del estadístico ˆn−2 . seria improbable obtener los valores obtenidos para las estimaciones de βi y ˆi ). en otras palabras. de contraste bajo la hipótesis nula. Esto nos proporcionará un número. Esto signica que cuando consideramos nuestro estadístico de contraste tenemos que hacerlo que la hipótesis nula es cierta. En general. o sea. se(β Esto tendría que sugerir que la hipótesis nula es incompatible con nuestros datos y por esta razón debeamos rechazarla. podemos encontrar el valor 28 . sería improbable observar lo que de hecho observamos en los datos. Esto implica que si los datos fueran de verdad generados por el modelo de regresión con el valor del parámetro implicado por la hipótesis nula. o. ˆi β ∼ tn−2 ˆˆ se(βi ) Es importante entender porqué este estadístico puede proporcionar información que nos permita decidir si la H0 es compatible o no con los datos.juzgar si la hipótesis que estamos contrastando es compatible con lo que observamos en los datos. El estadístico que se utiliza es (1. El problema es: ¾cuánto el estadístico de contraste tiene que alejarse de su valor medio para poder rechazar la hipótesis nula? Para esto necesitamos especicar un nivel de signicatividad α para el contraste. la hipótesis nula se considera cierta al principio de la prueba de hipótesis. la probabilidad de cometer un error de tipo I.11). por denición. Una vez establecido el nivel de signicatividad. Una vez obtenidas las estimaciones de los parámetros del modelo. digamos t Supongamos ahora que este número se encuentre muy alejado del valor promedio de la distribución. bajo la hipótesis nula estadístico de contraste será bajo el supuesto el H0 : βi = βi0 ˆi − β 0 β i ∼ tn−2 ˆˆ se(βi ) nuestro estadístico de contraste será Por ejemplo. Éste representa la probabilidad de rechazar la hipótesis nula cuando ésta es cierta. Como hemos dicho antes.

El contraste de hipótesis se desarrollará a través de los pasos siguientes: 1. como aquel valor tal que p(|t| > t∗ ) n−2.54 = ˆˆ 0. α . Consideraremos dos contrastes distintos: a una y dos colas. Vamos ahora a ver en detalle como desarrollar el contraste de hipótesis. p(|tn−2 | > t o sea el valor ˆn−2 t esta- rá muy alejado del promedio de la distribución y por tanto concluimos que la hipótesis nula es poco compatible con los datos. =t α. utilizando las estimaciones obtenidas. En caso contrario no rechazo la hipótesis nula.critico de la distribución asociado a t correspondiente a ese nivel. Esta hipótesis se puede formular como H0 : β1 = 0. La idea que está detrás de este criterio de rechazo es que si ˆn−2 | > t∗ |t n−2 α 2 esto signica que ˆn−2 ) < α. Denimos el valor crítico t∗ n−2.16.) En el modelo estimado en el ejemplo 1 encontramos estos valores para las desviaciones típicas de los estimadores: ˆˆ ˆˆ se(β 0 ) = 0. Comparar el estadístico de contraste con el valor crítico para un nivel de signicatividad α.05. Establecer un nivel de signicatividad 3. α 2 = α. o sea aquel valor tal que la probabilidad que la variable en valor absoluto tome valores mayores que el valor crítico es igual al nivel de signicatividad α. se(β1 ) = 0. Calcular. Pode- mos contrastar la hipótesis nula que los años de educación no tienen efecto alguno sobre el salario. Para desarrollar el contraste tenemos que calcular el valor de estadístico de contraste ˆ1 β 0.05 se(β 1) = 10. Si ˆn−2 | > t∗ |t n−2 α 2 rechazo la H0 . 2. Contraste a dos colas Supongamos de querer contrastar la H0 : βi = βi0 frente a la alternativa H1 : βi = βi0 . Ejemplo 1 (cont. 2 α.8 29 . el estadístico de contraste bajo la hipótesis nula ˆi −β 0 β i ˆˆ se(β i) ˆn−2 .

utilizando las estimaciones obtenidas.05.025 = 1. El valor crítico es ˆ t∗ 524. Si ˆn−2 > t∗ t n−2. α = 0. Establecer un nivel de signicatividad 3.9645 < t. La razón es que si α >α entonces t∗ < t∗ n−2. rechazaremos la misma hipótesis para todos los niveles de signicatividad mayor que α. α 2 2 porque α representa el área bajo la distribución en el intervalo entre 2 t∗ n−2. Contraste a una cola Supongamos de querer contrastar la H0 : βi = βi0 frente a la alternativa H1 : βi > βi0 .α rechazo la H0 . Supongamos ahora que la hipótesis estadística que nos interesa contrastar sea que un año más de educación corresponde a un dólar por hora mas.y comparar el valor obtenido con el valor crítico de la distribución t−student con n − 2 = 526 − 2 = 524 digamos grados de libertad a un determinado nivel de signicatividad. Una propiedad muy importante del contraste de hipótesis es que si hemos rechazado una hipótesis a un nivel de signicatividad α. Calcular. El contraste de hipótesis se desarrollará a través de los pasos siguientes: 1. el estadístico de contraste bajo la hipótesis nula ˆi −β 0 β i ˆˆ se(β i) ˆn−2 . 2.8 Otra vez rechazamos la hipótesis nula al 5 % porque el valor absoluto del estadístico de contraste es mayor que el valor crítico. rechazamos la hipótesis nula al 5 %. Esta hipótesis se puede especicar como estadístico de contraste obtenemos H0 : β1 = 1. =t α.0.05 = 8. 30 . α n−2. Entonces. En caso contrario no rechazo la hipótesis nula. Comparar el estadístico de contraste con el valor crítico para un nivel de signicatividad α. Si calculamos el nuevo valor del ˆ1 − 1 β ˆˆ se(β 1) = −0.44 0. α 2 y innito.

El valor p es el nivel de signicación mínimo al que se puede rechazar la hipótesis nula y se dene (en el contraste a dos colas) como valor-p ˆ|) = p(|t| > |t t tome. Si ˆn−2 < −t∗ t n−2. El contraste de hipótesis se desarrollará a través de los pasos siguientes: 1. Notese que mientras en el contraste a dos colas el valor crítico de referencia es t∗ n−2. 2. α > valor-p el valor crítico correspondiente es menor que ˆy t por esta razón rechazamos la hipótesis nula. en el contraste a una cola será tn−2. α 2 ∗ para un nivel de signicatividad α. En caso contrario no rechazo la hipótesis nula. 31 . el estadístico de contraste bajo la hipótesis nula ˆi −β 0 β i ˆˆ se(β i) ˆn−2 . Para esta razón.α o −t∗ n−2. Comparar el estadístico de contraste con el valor crítico para un nivel de signicatividad α. valores mayores ˆ. indica la probabilidad que la variable que el valor obtenido para el estadístico de contraste el valor-p indica el nivel de signicatividad mínimo al cual se puede rechazar la Por cada H0 .α Valor- p A veces distintos niveles de conanza conducen a distintas decisiones sobre la hipótesis nula. es p para el contraste.Supongamos que queremos contrastar la H0 : βi = βi0 frente a la alternativa H1 : βi < βi0 . t Queda claro entonces porque o sea. El problema es que la elección del nivel de conanza es una decisión subjetiva del investigador ya que no existe un nivel informativo calcular el valor correcto.α rechazo la H0 . en valor absoluto. Calcular. Establecer un nivel de signicatividad 3. =t α. a menudo. utilizando las estimaciones obtenidas.

0.54 + 2 2 (0. Desarrollando la probabilidad de arriba obtenemos ˆˆ ˆˆ ∗ ˆ p −t∗ n−2. Esto es un intervalo de conanza para el n−2. 2 2 parámetro βi . α 2 ˆˆ se(βi ) (1.2.0. Aplicando la fórmula vista arriba obtenemos el siguiente inter- valo de conanza ˆˆ ˆ ˆˆ ˆi − t∗ α se( βi ). Intervalos de conanza El segundo instrumento para la inferencia es el de los intervalos de conanza para un parámetro. la idea es de encontrar un intervalo tal que. n−2. donde tenemos que decidir sobre una hipótesis nula. Ejemplo 1.64].44.  p −t∗ n−2.96). 2 2 ˆˆ ˆˆ ˆi + t∗ α se( ˆi − t∗ α se( βi ) < βi < β βi ) p β n−2. de manera diferente al contraste de hipótesis. Utilizando lo que hemos visto antes sabemos que 1−α corresponde a la protome valores en babilidad que el estadístico de contraste (una variable t−student) el intervalo denido por menos y mas el valor crítico a nivel de signicatividad Formalmente α. Sabemos que ˆˆ ˆ1 = 0.12)  Vamos a ver ahora como de aquí podemos construir un intervalo de conanza para el parámetro βi . α se(βi )] = [0. β ˆi + t∗ α se( [β βi )].) Es muy sencillo encontrar un intervalo de conanza al 5 % para β1 y utilizando las estimaciones del Ejemplo 1. n−2. contenga el verdadero valor del parámetro.9645.05)(1. n−2. con una determinada probabilidad. En este caso.54.1.05)(1. 0.3. n−2.025 = 1. α 2 ˆi − βi β  = 1−α < < t∗ n−2. βi + t∗ [β n−2.1 (cont.05 t∗524. Podemos notar que el intervalo no incluye el valor cero 32 .54 − (0.96)] = [0. α se(βi ) 2 2 = 1−α = 1−α = 1−α ˆˆ ˆˆ ˆi − t∗ α se( ˆi − t∗ α se( βi ) < −βi < −β βi ) p −β n−2. 2 2 Esto nos dice que con probabilidad tervalo 1 − α el parámetro βi estará incluido en el inˆ ˆˆ ˆi − t∗ α se(β ˆi ). α se(βi ) < βi − βi < tn−2. se( β β1 ) = 0.

y esto es consistente con el resultado del contraste de la hipótesis hemos visto antes. H0 : β1 = 0 que 33 .

En el modelo de regresión simple price = β0 + β1 assess + u donde price es el precio de la vivienda y assess es la valoración de la vivienda y antes de la venta.96 y sabiendo que la desviación típica de ˆ1 β 0. 976assess n = 88. (c) La suma de los cuadrados de los residuos (SCR) es 40891. voteA explica nuestro modelo de regresión? y. 820 donde (1. β 34 . el gasto del candidato A en su campaña electoral (en miles de dólares). El resultado de la estimación por mínimos cuadrados nos da la siguiente regresión voteAi = 43. La ecuación price = −14. (d) ¾Qué parte de la variabilidad de (e) Calcular la varianza muestral de (2) Este es un ejercicio relativo al contraste de la racionalidad en el cálculo de los precios de las viviendas. expendA. Disponemos de una base de datos de 173 observaciones que incluye: voteA. el porcentaje de votos al candidato A. expendB . la valoración es racional si estimada es β1 = 1 β0 = 0.01 .Ejercicios (1) Queremos analizar el efecto del gasto en campaña electoral sobre el porcentaje de votos.51. el gasto del candidato B (solo hay dos candidatos) en su campaña electoral (en miles de dólares). SRC = 165644.0236expendAi + u ˆi R2 = 0. R2 = 0.13) 16.27 es la desviación típica de ˆ0 β y 0.1 Hallar la desviación típica de los residuos u ˆi .47 + 0.15614 (a) ¾Cuál es el efecto de un aumento de 1000 dólares en el gasto de A sobre el porcentaje de votos de A? (b) Contrastar al 5 % de signicación la hipótesis nula H0 : β1 = 0 utilizando es como valor crítico 1.1712 + 0.049 es la desviación típica de ˆ1 .

(a) Contrastar la hipótesis (b) Contrastar H0 : β0 = 0.4000 2. H0 : β1 = 1. y i = β 0 + β 1 xi + u i y que todos los supuestos vistos en este (6) Supongamos que capítulo sean satisfechos. β x y (4) Demostrar que R2 equivale al cuadrado del coeciente de correlación entre y. (5) Demostrar que si un intervalo de conanza al 95 % para β1 no incluye el cero. (d) Contrastar la hipótesis nula (e) Contrastar la hipótesis nula 35 .9000 x 2. Utilzando los datos de la tabla siguiente y 6. (c) Encontrar R2 .3000 9.0000 3. β1 .0000 1. H0 : β0 = 1. H0 : β1 = 0. esto implica que rechazamos la hipótesis nula contraste H0 : β1 = 0 al 5 % utilizando el t.0000 4.4000 0.5000 7. β0 .0000 0 (a) Estimar los parámetros del modelo con MCO (b) Estimar la varianza del error. (c) Encontrar un intervalo de conanza al 95 % para (d) Encontrar un intervalo de conanza al 95 % para (3) Demostrar la propiedad P6 para ˆ0 .

Por esto se proponen los dos modelos siguientes yi = β0 + β1 xi + ui xi = γ0 + γ1 yi + vi Si estimamos los parámetros de los dos modelos utilizando MCO ¾es siempre cierto que β1 = 1 ? Si no ¾en que casos? γ1 36 .(7) Estamos interesados en analizar la relación entre dos variables xi y yi .

Aplicaciones con GRETL (1) Ejercicio 2.12 Wooldridge. 37 .10 Wooldridge.11 Wooldridge. (3) Ejercicio 2. (2) Ejercicio 2.

A diferencia del modelo simple este modelo admite más de una variable como regresor. se reere a la observación i en nuestra muestra y 1. Por esta razón. Estudiaremos en esta sección el modelo de regresión lineal con k-variables.. El modelo En muchas aplicaciones es natural pensar que una variable económica de interés pueda depender de más de una variable exógena..1) i.1. . El modelo de regresión lineal con k-variables puede expresarse a través de la siguiente ecuación yi = β0 + β1 xi1 + β2 xi2 + . veremos ahora cómo generalizar el modelo estudiado en el capitulo anterior. son las xij . como antes.Capítulo 2 Modelo de Regresión Lineal con k-Variables 2. el nombre de variables independientes o explicativas. k − y k variables a través de las cuales queremos explicar y reciben.. 38 .. j = 1. como antes. + βk xik + ui donde (2. variable explicada.. yi − es la variable que queremos explicar y recibe el nombre de o variable depen- diente 2.

.. . 4. x1k .. . .2) . x12 x22 . Denimos  y1  y=      y2     . βj ... .  .  x2k   1 xn1 xn2 .   .    βk un vector ((k +1) × 1) donde el primer elemento es el coeciente del término constante y los demás son los coecientes de las variables exógenas. .    = xn   1  . j = 0. .   ..    yn un vector (n × 1) de todas las observaciones de la variable dependiente  x1   1 x11 x21 . . k − k son los parámetros del modelo. es una variables aleatoria y representa factores no observables distintos a xj que afectan a y.3.    un β0 un vector (n × 1) de errores y   β=      β1     .    .   . .        X=      x2     . En el caso de variables es muy útil escribir el modelo en forma matricial. . .   .    . . .  .. Sea n el número de observaciones en nuestra muestra aleatoria.. Entonces podemos escribir el modelo como y = Xβ + u 39 (2. . . . xnk una matriz (n×k ) con todas las observaciones en las las y las variables independientes  en las columnas u1  u=      u2     . ui − es el término de error.

Denimos el vector de residuos ˆ ˆ = y − Xβ u y el vector de valores ajustados ˆ. el estimador de MCO es el estimador que minimiza la suma de los residuos al cuadrado ˆu ˆ= u n i=1 u ˆ2 i.1. β La razón es que el término a la derecha es el traspuesto del término a la izquierda que es un escalar 40 . S5' El rango de X es k + 1. Las variables dependientes son non aleatorias o jas en muestras repetidas. Para poder derivar el estimador necesitamos algunos resultados y deniciones preliminares. Antes de planear y solucionar el problema de minimización es útil desarrollar esta suma de la manera siguiente: ˆ) (y − Xβ ˆ) ˆu ˆ = ( y − Xβ u ˆ) (y − Xβ ˆ) = ( y − Xβ ˆ X Xβ ˆ − 2β ˆXy = yy+β Se puede notar que ˆXy = β ˆ X y + y Xβ ˆ 2β porque ˆ X y = y Xβ ˆ. el único estimador que veremos en el modelo a k -variables es el estimador MCO. 2 La varianza de ui es constante: V ar(ui ) = E (u2 i ) = σ por cada i. Sea de regresión como ˆ un β estimador de β. Estimador Mínimos Cuadrados Ordinarios (MCO) Como en el modelo simple. 2.Como en el capitulo anterior. ˆ = Xβ y Como antes.2. S2' S3' S4' ui y uj son independientes por cada i y cada j con i = j . añadimos al supuesto de linealidad del modelo los supuestos siguientes: S1' La esperanza de ui es zero: E (ui ) = 0 por cada i. Estimación 2. Como el caso del modelo simple un supuesto alternativo a S2 que podemos hacer es el siguiente.2.

097educ + 0. Este resultado es muy útil para poder entender la interpretación de cada uno de los elementos en el vector ˆ.216 + 0. 41 . el problema se soluciona tomando las condiciones del primer orden. o sea las derivadas parciales respecto a ˆ β igualadas a cero. Entonces podemos formular el problema de minimización de la manera siguiente: m´ ın ˆ β ˆ X Xβ ˆ − 2β ˆXy yy+β Como antes.1 para explicar el salario horario. Por eso. X Xβ Solucionando respecto al vector de estimadores obtenemos ˆ = (X X)−1 X y β Se puede demostrar que cada uno de los estimadores contenidos en el vector puede escribir como (2. añadimos otro regresor: los años trabajados en el actual puesto de trabajo. Utilizando el estimador que acabamos de ver obtenemos las siguientes estimaciones ˆ log(salario i ) = 0.3) ˆ β se ˆj = β donde n ˆij i=1 yi r n 2 ˆij i=1 r r ˆj es el residuo de la regresión de xj sobre las demás variables independientes.y esto implica que los dos serán iguales. La única diferencia con al caso anterior es que aquí tenemos que utilizar las reglas de derivaciones respecto a un vector y no un escalar. mide el efecto de xj sobre y una vez que descon- tamos los efectos de las demás variables exógenas.1 En el modelo utilizado en el Ejemplo 1. podemos interpretar como el efecto parcial de se mantienen jas. Dado que r β ˆj ˆj β es la parte de xj que no está relacionada con las demás variables independientes. ˆj β xj sobre y o sea el efecto de xj cuando las demás variables Ejemplo 2. Las condiciones del primer orden son las siguientes ˆ − X y = 0.010exper.

La única diferencia es que ahora hay que normalizar por el número de observaciones menos el número total de parámetros. Un segundo caso en que ˆ1 β coincide en los dos modelos es cuando x1 y x2 no están correlacionadas. el estimador insesgado que utilizaremos en este capitulo es parecido al anterior. x2 sobre x1 es cero. Es evidente que ˆ2 = 0 β entonces el estimador de β1 coincidirá en los dos modelos. segundo con dos variables independientes si y = β0 + β1 xi1 + ui . Hay dos excepciones a este resultado. el primero con una sola variable dependiente. Si los dos regresores no están correlacionados esto signica que la covarianza es cero y que el efecto de esto implica que modelos. El ejemplo anterior evidencia una caracteristica muy importante del modelo a kvariables. En general.97.8 β mientras que exper cambia a 0. donde en el caso de un solo regresor añadiendo ˆ1 = 0. Así que en el modelo de k -variables el estimador de la varianza del error es σ ˆ2 = ˆu ˆ u n−k−1 (2.7 %.097 β es que ahora un año más de educación produce un incremento del salario de 9. Se consideren dos modelos. Este resultado queda claro en el ejemplo que acabamos de ver. si añadimos una variable al modelo las estimaciónes de los parámetros que ya eran incluidos cambian.La interpretación de ˆ1 = 0. Pero ˆ0 = xi1 − x r ˆi1 = xi1 − β ¯1 y los estimadores de ˆ1 β coinciden en los dos Para la varianza del error. y el y = β0 + β1 xi1 + β2 xi2 + ui . mientras que un año más de experiencia laboral aumenta el salario en un 1 %.4) 42 . r ˆ i i=1 1 El estimador MCO de β1 en el segundo modelo es ˆi = β donde r ˆi1 es el residuo de la regresión de x1 sobre x2 . n yr ˆ i=1 i i1 n 2 .

n = 90 1.5) ˆ. β Aplicando la formula vista antes ˆ = (X X)−1 X y β  5 −3 2 =    −3    2   0   3 6 −2 −4  −2 4 3 0       −4  2     3  1   4 2  11 =      −7    12 (2. 43 .6) 2.Ejemplo 2. Calcular (2.2 Se consideren los datos 1 siguientes  5 −3 6 −2 −4 2 −2 4 3 0  (X X)−1 =    −3    2         2     1     0 3   −4    3    4 Xy = 2 y y = 80. Aplicando la formula vista antes σ ˆ2 = ˆu ˆ u n−k−1 ˆXy y y−β = n−k−1 1 Los datos son tomado desde Johnston and DiNardo (2001). Calcular σ ˆ2.

Sabemos que y y = 80. Primero estudiaremos las propiedades algébricas y después las propiedades estadísticas de tales estimadores. Propiedades algébricas Además de P1 y P3 vale la siguiente propiedad P1' ˆ=0 Xu ˆ) ˆ = X (y − Xβ Xu ˆ = X y − X Xβ = X y − (X X)(X X)−1 X y = 0 Propiedades estadísticas Antes de ver las propiedades estadísticas de los estimadores. Sólo nos falta calcular el segundo elemento   3 ˆ X y = ( 11 −7 12 β     2    3) 1     = 37 2 entonces σ ˆ2 = 80−37 86 = 0.. xk ] n variables aleatorias. .. . .2. primero necesitamos repasar media y varianza para un vector de variables aleatorias.5.      E (x) =     E ( xk ) 44 .2. 2. Denimos su valor esperado  E (x1 ) .. Sea un vector de x = [x1 . Propiedades de los estimadores Describiremos ahora las propiedades de los estimadores de MCO.

o sea si riante con valor esperado x tiene distribución normal multiva- µ y varianza Σ escribimos x ∼ N (µ. mientras que fuera de la diagonal principal hay los términos E [(xi − E (xi ))(xj − E (xj ))]. donde I es una matriz identidad de dinemsión P2' ˆ) = β . o sea las varianzas de las variables con- x. E (β ˆ = (X X)−1 X y β = (X X)−1 X (Xβ + u) = (X X)−1 (X X)β + (X X)−1 X u = β + (X X)−1 X u Tomando el valor esperado obtenemos ˆ) = E [β + E ((X X)−1 X u)] E (β = β + (X X)−1 X E (u) = β donde la última igualdad se obtiene utilizando la propiedad P1'. o sea las covarianzas entre las variables en x. 45 . Podemos ahora volver a escribir en forma matricial los supuestos S2' y S3'. El primero implica que E (u) = 0. Si x es un vector de variables aleatoria normales.y su varianza V ar(x) = E [(x − E (x))(x − E (x)) ] La varianza así denida es una matriz de dimensión principal hay los términos tenidas en el vector k×k donde en la diagonal E [(xi − E (xi ))2 ]. el segundo que V ar(u) = σ 2 I n × n. Los estimadores MCO son insesgados. Σ) Vamos a estudiar ahora las propiedades estadísticas de los estimadores MCO.

P3' ˆ) = σ 2 (X X)−1 V ar(β Utilizando la denición de varianza de un vector de variables aleatorias ˆ) = E (β ˆ − E (β ˆ))(β ˆ − E (β ˆ)) V ar(β ˆ − β )(β ˆ − β) = E (β Desde la propiedad anterior sabemos que ˆ − β = (X X)−1 X u β Entonces ˆ) = E (X X)−1 X uu X(X X)−1 V ar(β = (X X)−1 X E (uu )X(X X)−1 = σ 2 (X X)−1 P4' El estimador de la varianza del término de error visto antes es insesgado E (ˆ σ2) = σ2. De su denición tenemos P5' ˆ ˆ = y − Xβ u = y − X(X X)−1 X y = (I − X(X X)−1 X )y = (I − X(X X)−1 X )(Xβ + u) = (I − X(X X)−1 X )u = Mu donde M = (I − X(X X)−1 X ) MM = M. ˆ es una transformación lineal del vector término de error El vector de residuos u u. es una matriz simétrica y idempotente. una matriz tal que 46 .

La Entonces V ar(β ∗) = A [V ar(u)]A = σ 2 A A. Además ˆ) − V ar(β ∗ ) c ≥ 0 c V ar(β 47 . Desde la propiedad de antes E (ˆ u) = ME (u) = 0. como hemos visto antes. Tomando el valor esperado E (β ∗ ) = E (A Xβ + Para que el estimador sea insesgado las iguientes condiciones deben cumplirse: a) varianza del estimador será E (A Xβ ) = β (A X = I ) y b) E (A u) = 0. ˆ cβ c β∗ es respecti- ˆ) = c V ar(β ˆ)c V ar(c β V ar(c β ∗ ) = c V ar(β ∗ )c. Sea La varianza de la combinación lineal y c cualquier vector de y dimensión vamente (k + 1). Vamos a ver ahora la demostración de este β ∗ = A y otro estimador lineal de β donde A es una matriz n(k +1) y obtenemos de elementos non aleatorios. Sea β con menor varianza. Además ˆ ) = E (Muu M) E (ˆ uu = ME (uu )M = σ2M donde la última igualdad se obtiene gracias al hecho de que y simétrica. Substituyendo la dinición de β∗ = A (Xβ + u) = A Xβ + A u). nos dice que no hay un estimador lineal y insesgado de teorema. M es idempotente P7' ˆ es el estimador lineal insesgado óptimo (ELIO) de Teorema de Gauss-Markov β β.P6' ˆ tiene esperanza cero. ˆ) = σ 2 [A A − (X X)−1 ] V ar(β ∗) − V ar(β = σ 2 [A A − A X(X X)−1 X A] = σ 2 A [I − X(X X)−1 X ]A = σ 2 A MA donde A MA es una matriz semidenida positiva. Este teorema. A u) = E (A Xβ ) + E (A u). E (ˆ ˆ) = El vector de residuos u u) = 0 y varianza E (ˆ uu σ 2 M.

ˆy ˆ=β y Esto es fácil de demostrar: ˆXy = β ˆ X ( Xβ ˆ− u ˆ) β ˆ X Xβ ˆXu ˆ− β ˆ = β ˆ X Xβ ˆ = β ˆy ˆ = y 48 . 2. Primero. podemos observar que n ST C ≡ i=1 n (yi − y ¯)2 = y y − ny ¯2 ˆy ˆ − ny (ˆ yi − y ¯)2 = y ¯2 i=1 n SEC ≡ SCR ≡ i=1 Segundo.2. Bondad del ajuste Para poder estudiar la bondad del ajuste en el caso de k -variables necesitamos algunos resultados algébricos relativos a nuestro modelo.7) donde para obtener la última igualdad hemos substituido la formula MCO de Entonces ˆ.por denición de matríz semidenida positiva y en particular por cualquier ˆj ) ≤ V ar(β ∗ ) V ar(β j j. Para poder demostrar esto empezamos por la denición de SCR. ˆ) (y − Xβ ˆ) ˆu ˆ = ( y − Xβ u ˆ X y − y Xβ ˆ+β ˆ X Xβ ˆ = yy−β ˆXy+β ˆ (X X)(X X)−1 X y = y y − 2β ˆXy = yy−β (2. como en el modelo simple ˆu ˆ u ˆ2 i = u ST C = SEC + SCR.3. β ˆXy ˆu ˆ +β yy = u ˆ X y − ny ˆu ˆ +β y y − ny ¯2 = u ¯2 Lo único que hay que observar ahora es que ˆ X y.

donde la tercera igualdad se obtiene con la propiedad P1' y la última por denición de

ˆ. y

Hemos entonces establecido que la suma total de cuadrados es igual a la suma

de la suma explicada y residual como en el modelo simple. Vamos ahora a ver la denición de

R2 .

De manera equivalente al modelo anterior denimos el coeciente

de determinación múltiple como

R2 =

SEC ST C ˆ X y − ny β ¯2 = y y − ny ¯2 ˆ X Xβ ˆ − ny β ¯2 = y y − ny ¯2 R2
se interpreta como

¾Cómo interpretamos el

R2

en este caso? Como anteriormente

la fracción de la variación muestral de yi explicada por todas las xi conjuntamente.
Existe una relación muy importante entre la varianza de estimador MCO y hecho podemos escribir la varianza de cada uno del los

R2 .

De

ˆj β

como

ˆj ) = V ar(β
donde

σ2 n 2 ¯)2 (1 − Rj ) i=1 (xij − x

(2.8)

2 Rj

es el

R-cuadrado que se obtiene de la regresión de xj

sobre todas las demás

variables exógenas.

Ejercicio 2.2 (cont.) Utilizando los datos del ejemplo 2.2 calcular

R2 .

Sabemos

que

R2 =

ˆ X y−ny β ¯2 . El primer elemento de y y−ny ¯2

Xy

es

n i=1

yi = 3.

Entonces el numey

rador es igual a

37 − 90(3/90)2 = 36,9.

El denominador es

80 − 90(3/90)2 = 79,9

R2 = 36,9/79,9 = 0,46.

Se puede demostrar que el

R2

aumenta si añadimos variables exógenas al modelo.

La idea es que como la suma total de cuadrados es constante, si añadimos variables independientes con una varianza muestral distinta de cero, la suma de los residuos al cuadrado tiene que disminuir y por esta razón el coeciente de determinación tiene

49

que aumentar. Esto implica que no podemos utilizar el

R2

como una medida de bon-

dad del ajuste para comparar modelos con un número diferente de regresores. O sea no podemos utilizar el coeciente de determinación para eligir cuántos y cuáles regresores utilizar. Por esta razón, en el modelo de

k -variables

denimos el

R2 -corregido, R2

que es otra medida de bondad del ajuste del modelo. La idea es que corregimos el

de manera que si añadimos un regresor queremos que éste aumente sólo si la nueva variable exógena es útil para explicar la variable dependiente. Gracias a esta corrección

¯2 R

nos permite comparar la bondad del ajuste en modelos con un número diferente

de regresores. Denimos el coeciente de determinación corregido como

¯2 = 1 − R

n−1 (1 − R2 ) n−k−1

La corrección está en el denominador del segundo elemento a la derecha del igual. Cuando añadimos un regresor

k aumenta. Esto hace aumentar R2 . ¯2 R

n−1 (1 − R2 ) y disminuir n−k

¯2 R

contrastando el efecto opuesto debido al aumento de A menudo la comparación entre

de diferentes modelos se toma como criterio

de elección entre modelos. Para poder hacer esto, dos condiciones deben cumplirse: el tamaño de la muestra debe ser el mismo y la variables dependiente debe ser la misma. Hay que hacer una advertencia aquí. El hecho de encontrar un

¯2 R

bajo no

signica necesariamente que no podamos conar en los resultados obtenidos. Ésta es una situación que ocurre a menudo en los trabajos empíricos. Más importante que alcanzar una alta proporción de variabilidad explicada es poder obtener resultados conables para los contrastes de hipótesis para los parámetros del modelo de interés económico.

2.3. Inferencia, el contraste F
Antes de empezar a estudiar el tema de la inferencia en el modelo de

k -variables nece-

sitamos repasar algunos resultados estadísticos preliminares para formas cuadráticas

50

y añadir un supuesto, como hemos en el capitulo anterior, al modelo. El supuesto es que el término de error se distribuye normalmente

S6'

El término de error se distribuye normalmente u ∼ N (0, σ2 I )

Del supuesto anterior deriva otra propiedad del estimador MCO, o sea

P8'

ˆ tiene distribución normal multivariante, β ˆ ∼ N (β, σ 2 (X X)−1 ) β x un vector k × 1 de variables

Los resultados mencionados antes son los siguientes. Sea aleatorias. (i) Si

x ∼ N (0, Σ)

entonces

x Σ−1 x ∼ χ2 k
(ii) Si

x ∼ N (0, I )

y

A

es una matriz simétrica y idempotente con rango

r

x Ax ∼ χ2 r
En particular si

x ∼ N (0, σ 2 I ) x Ax ∼ χ2 r σ2

Aplicando (i) y (ii) a nuestros estimadores obtenemos dos resultados muy importantes y clave para entender el contraste de hipótesis: 1) Desde la proprieded P4' sabemos que bajo las hipótesis del modelo Entonces

ˆ ∼ N (β, σ 2 (X X)−1 ). β

ˆ − β ∼ N (0, σ 2 (X X)−1 ) β
y por una matrix

R

cualquiera de rango máximo y dimensión

q × (k + 1)

(con

q ≤ k + 1) ˆ − β ) ∼ N (0, Rσ 2 (X X)−1 R ). R(β
Por el resultado (i) visto antes

ˆ − β )) (Rσ 2 (X X)−1 R )−1 (R(β ˆ − β )) ∼ χ2 (R(β q
51

(2.9)

1. σ 2 I ).9) el estimador de la varianza del término de error visto antes obtenemos ˆ − β )) (R(X X)−1 R )−1 (R(β ˆ − β )) (R(β ˆ u ˆ u n−k−1 Si dividimos el numerador por q y multiplicamos y dividimos por σ2 obtenemos ˆ − β )) (R(X X)−1 R )−1 (R(β ˆ − β ))/q (R(β ˆ u ˆ σ2 u σ 2 n−k−1 Podemos notar que esta expresión es el ratio entre dos variables dividida por sus grados de libertad. Contraste de hipótesis para restricciones lineales múltiples: el contraste de Wald En este apartado explicaremos como hacer un contraste de hipótesis para restricciones lineales múltiples.n−k−1 donde q son los grados de libertad del numerador y n−k−1 los del denominador. Como en el modelo simple los ingredientes básicos son una hipótesis nula y una alternativa.10) χ2 cada una ˆ − β )) (R(X X)−1 R )−1 (R(β ˆ − β ))/q (R(β σ2 y la segunda es ˆu ˆ u σ ˆ2 = .2) Desde la proprieded P7' y desde el supuesto S5' sabemos que ˆ = Mu u y u ∼ N (0.10) es una Fq. un estadístico de contraste y un criterio de rechazo 52 . 2. Entonces desde el resultado (ii) ˆu ˆ u u Mu = ∼ χ2 n−k−1 2 σ σ2 3) Si ahora substituimos en (2. La primera es (2.3. el ratio entre dos grados de libertad es una variable con distribución variable χ2 divididas por sus F. Entonces (2. σ 2 (n − k − 1) σ2 como hemos visto en el capitulo anterior.

de la hipótesis nula. Empezamos explicando cómo podemos expresar en términos formales una hipótesis nula que implique un conjunto de restricciones lineales sobre los parámetros del modelo. Sea de dimensión

R

una matriz de dimensión

q × (k + 1)

y sea

r

un vector

q × 1. Podemos expresar cualquier combinación lineal de los parámetros

de la siguiente manera:

Rβ = r
Supongamos por ejemplo que

k=3

y se considere el siguiente sistema de ecuaciones

lineales (restricciones lineales de los parámetros)

β1 + β2 = 1 β3 = −1
Este se puede expresar como

  

β0

 

0 1 1 0 0 0 0

     β1       1  β2    

1 −1

 

=

β3

o

Rβ = r

donde

0 1 1 0 0 0 0 1 1 −1
 

 

R = 

r = 

Entonces especicaremos la hipótesis nula (H0 ) de la manera siguiente

H0 : Rβ = r
y la alternativa como

H0 : Rβ = r
Como estadístico de contraste utilizaremos el estadístico (). Bajo la hipótesis nula el estadístico es

ˆ − r) (R(X X)−1 R )−1 (Rβ ˆ − r)/q (Rβ
ˆ u ˆ u n−k−1
53

∼ Fq,n−k−1

(2.11)

o sea una variable con distribución

F

con

q

y

n−k−1

grados de libertad. (2.11)

se conoce cono contraste de Wald para restricciones lineales de los parámetros. El criterio de rechazo de la hipótesis nula es como el del capítulo anterior. Utilizando nuestra muestra de datos y las restricciones implicadas por la hipótesis nula calculamos el valor para el estadístico de contraste es el valor crítico para la distribución

ˆ. F q
y

Si

ˆ > F∗ F q,n−k−1,α ,

donde

∗ Fq,n −k−1,α

F

con

n−k−1

grados de libertad, recha-

zamos la hipótesis nula al nivel de conanza

α.

Si por lo contrario

∗ ˆ < Fq,n F −k−1,α

no

rechazamos la hipótesis. Otra vez la idea que está detrás del criterio de rechazo es la de establecer si bajo la hipótesis nula es probable o no observar lo que de hecho observamos en nuestra muestra de datos. Es muy importante entender el hecho de que cualquier decisión sobre la hipótesis nula es una decisión sobre todas las restricciones lineales contenidas en la hipótesis. O sea, si rechazamos la hipótesis nula rechazamos todas las restricciones conjuntamente.

Ejemplo 2.2 (cont) Utilizando los datos del ejercicio ()

1. Contrastar la siguiente hipótesis nula

H0 : 2β1 + β2 = 3

(2.12)

Primero necesitamos encontrar el estadístico de contraste 2.11. Empezamos deniendo

R

y

r. R = ( 0 2 1 0 ), = r = 3.

Entonces

11

ˆ− r = (0 2 1 Rβ

     −7    0) −3  12     

= −5

3

Podemos encontrar ahora

R(X X)−1 R

5

−3 6 −2 −4

2 −2 4 3

0

 

0

R(X X)−1 R

= (0 2 1

   −3  0)  2  

0

      −4  2     3  1  

4

0

54

 

0

= ( −4 10 0

    2  −5 )    1    

= 20

0

Juntando todas las piezas obtenemos

1 (−5) 20 (−5) ˆ F = = 2,5 0,5
El valor crítico

∗ 5 % es F1 ,86 = 3,95, por lo tanto no rechazamos la hipótesis nula.

2. Contrastar la siguiente hipótesis nula

H0 :  
En este caso

  

2β1 + β2 = 3 β3 = 6 0 2 1 0 0 0 0 1
 

(2.13)

R = 

3 r =   6
entonces

 

 

11

ˆ−r =  Rβ

0 2 1 0 0 0 −5 3
 

       0  −7   3  −  6 1   12   

3

= 
Además

 

5

−3 6

2

0

  

0 2

  

R(X X)−1 R

0 2 1 0 0 0 0 20 −5 −5 4

= 

   −3   1   2 

  −2 −4  1 0     −2 4 3  0 0

0

−4

3

4



0 1

 

= 

55

La primera se basa en la suma de los residuos al cuadrado en el modelo restringido. Vamos primero a aclarar el concepto de modelo restringido y después a estudiar estas dos formas alternativas para el contraste de hipótesis. Por lo tanto rechazamos la 2. Se considere el siguiente modelo yi = β0 + β1 xi1 + β2 xi2 + β3 xi3 + ui y la siguiente hipótesis H0 :      β1 = 0 β2 = 1 .14) Nos preguntamos ¾cuál es el modelo bajo esta hipótesis? Simplemente es el modelo donde las restricciones anteriores se cumplen. (2.2.1. En este caso el modelo restringido es yi = β0 + xi1 + β3 xi3 + ui ¾Cómo podemos estimar los parámetros de este modelo? Podemos escribir la ecuación anterior como yi − xi1 = β0 + β3 xi3 + ui ∗ yi = β0 + β3 xi3 + ui Considerando ∗ yi = y i − xi 1 como nueva variable dependiente.3.8 que es mayor del valor crítico al hipótesis nula.Entonces el estadístico de contraste será  ( −5 −3 )  20 −5 −5 4 −1    −5 −3   = 7. En particular obtenemos ˆ∗ = β 3 n ∗ ¯∗ )(xi3 − i=1 (yi − y n ¯3 )2 i=1 (xi3 − x x ¯3 ) . 56 . ˆ∗ = y ˆ∗ x β ¯∗ − β 0 3 ¯3 . La segunda se basa en el R2 del modelo restringido. 5% o sea 3. Dos forma alternativa para contraste de hipótesis Hay dos formas alternativas para el contraste de hipótesis. podemos utilizar MCO para estimar los parámetros del modelo.

Considerese (2.17) pone en evidencia porque para poder utilizar este contraste necesitamos que la variable dependiente sea la misma en los dos modelos. En general podemos contrastar una hipótesis nula cualquiera utilizando el estadístico (2. Otra forma alternativa para el contraste de hipótesis se basa en los coecientes de determinación del modelo restringido y no restringido.15) ˆr u ˆr − u ˆu ˆ )/q (u ∼ Fq. La clave es poder escribir el modelo restringido y calcular la suma de los residuos al cuadrado. La expresión (2.17) es la segunda forma alternativa para contraste de hipótesis.n−k−1 2 (1 − R )/(n − k − 1) (2.15) es equivalente al estadístico (2.n−k−1 SCR/(n − k − 1) o. en el sentido que los números calculados en los dos casos coinciden. Si dividimos y multiplicamos por la suma total de cuadrados y y − ny ¯2 obtenemos ˆr u ˆr ˆ u ˆ u ( u − yy )/q ˆr − u ˆu ˆ )/q ˆr u (u −ny ¯2 −ny ¯2 = yy ˆ u ˆ u ˆu ˆ /(n − k − 1) u /(n − k − 1) y y−ny ¯2 Desde la denición de coeciente de determinación donde ˆ u ˆ u y y−ny ¯2 = 1 − R2 y ˆr u ˆr u y y−ny ¯2 2 = 1 − Rr 2 Rr es el coeciente de determinación en el modelo restringido. Para llegar a esta expresión 57 . Con estas deniciones podemos utilizar el siguiente estadístico de contraste (SCRr − SCR)/q ∼ Fq. utilizando sus deniciones. Es importante saber que el estadístico (2.11).Una vez obtenidas las estimaciones podemos calcular la suma de los residuos al cuadrado SCRr = n i=1 u ˆ2 ri con ∗ ˆ∗ xi3 u ˆri = y ˆi −β 3 (el índice r se reere al modelo restringido). Este tipo de estadístico de contraste sólo se puede utilizar en el caso en que las variables dependientes coincidan en los dos modelos.15).16) H0 .17) (2.n−k−1 ˆu ˆ /(n − k − 1) u Otra vez si el estadístico es mayor que el valor crítico rechazamos la (2. Entonces 2 ˆr u ˆr − u ˆu ˆ )/q (u (1 − Rr − 1 + R2 )/q = ˆu ˆ /(n − k − 1) u (1 − R2 )/(n − k − 1) 2 (R2 − Rr )/q = ∼ Fq.16). (2.

Entonces podemos utilizar (2. Utilizando (2. En el modelo utilizado anteriormente hemos obtenido las siguientes estimaciones: ˆ log(salario i ) = 0. Contrastar al 5 % la hipótesis nula Utilizando (2.097educ + 0. 1. Bajo esta restricción el modelo es un modelo con solo constante y término de error.010exper com SCR = 111.14) ya que.082educ y la suma de residuos al cuadrado es SCRr = 120.216 + 0. Esto es el caso sólo si totales o sea si y y − ny ¯2 es la suma de cuadrados y es la variable dependiente en el modelo restringido también.).16) obtenemos H0 : β2 = 0 (120. bajo esta hipótesis.769 − 111.39 2 (1 − R )/(n − k − 1) (1 − 0.345/519 y rechazamos la hipótesis nula porque este valor es mayor que el valor crítico al 5% ∗ F1 .16) y (2.17) con Asi obtenemos 2 Rr = 0.92 111.24934)/519 2.524 = 3.24934 − 0. la variable dependiente es ∗ yi = y i − xi 1 = y i .345)/1 = 43.1 (cont.769 y R2 = 0.18581. utilizando (2.24934)/519 58 .24934. El R2 de este modelo restringido es cero. Rr Si excluimos exper del modelo y volvemos a estimar obtenemos ˆ log(salario i ) = 0. R2 /q 0.necesitamos poder interpretar ˆr u ˆr u como uno menos el coeciente de determinay y−ny ¯2 ción en el modelo restringido.92 (1 − 0. Contrastar esta hipótesis implica contrastar que todos los coecientes del modelo no sean signicativos.345 y 2 = 0.24934/1 = = 172.583 + 0.17). Contrastar la hipótesis nula H0 : β2 = β3 = 0. Esto signica que este estadistico no se puede utilizar para contrastar la hipótesis nula (2. Ejemplo 2.86.18581)/1 = 43.17) obtenemos (0.

k -variables t los grados de libertad no serán n−2 como en el capítulo n−k−1 o sea el número de observaciones menos el número total de 59 . Para contrastar t con H0 : βi = βi0 podemos emplear el estadístico n−k−1 H0 ) si grados de libertad o el estadístico F1.que es mayor que el valor crítico al 5 % y por lo tanto rechazamos la hipótesis nula. Nótese que en el caso de utilizamos el contraste anterior si no parámetros. En particular este contraste se puede utilizar para contrastar H0 : βi = βi0 . El resultado (rechazar o no rechazar será exactamente igual en los dos contraste. Entonces en el modelo de k -variables ¾cuál estadístico tenemos que utilizar? La respuesta es que podemos utilizar cualquiera de 2 los dos porque existe una relación que nos dice que tn−k−1 la hipótesis nula = F1.n−k−1 .n−k−1 .3. 2.3. La relación entre contraste t y F Hemos visto que con el estadístico F podemos contrastar cualquier restricción lineal sobre los parámetros del modelo. En el capítulo anterior hemos visto que para contrastar esta hipótesis podíamos utilizar el contraste t.

Interpre- H0 : β1 = 0. β (a) Para contrastar la hipótesis conjunta de β0 = 0 y β1 = 1 . β2 = 0.829. Llevar a cabo el contraste al 5 % de la hipótesis conjunta con un test F (al 5 % en este modelo restringido? F(2.84) = 3.Ejercicios (1) Volvemos a considerar el modelo del ejercicio (2) en el precedente capitulo price = β0 + β1 assess + u donde price es el precio de la vivienda y assess es la valoración de la vivienda y antes de la venta. necesitamos la la suma de los cuadrados de los residuos del modelo restringido (SCRr ). El muestra de 88 casas es 0. .51.99.0048 β y ˆ2 = 11.83 β . F(2. 976assess n = 88. 820 donde (2. β3 = 0 60 (al 5 % (al 5 % F(3. β3 = 0 H0 : β2 = 0. R2 de la estimación de este modelo usando la (c) Con MCO encontramos tar esto valores. ¾Cuál es el residuo Ahora extendemos el modelo de la siguiente manera price = β0 + β1 assess + β2 sqrf t + β3 bdrms + u donde la variable sqrf t es el número de metros cuadrados de la casa y bdrms el número de habitaciones.71) . (d) Contrastar al 5 % (e) Contrastar al 5 % ˆ1 = 0.18) 16.27 es la desviación típica de ˆ0 β y 0. El resultado es SCRr = 209448.105). La ecuación price = −14.84) = 2. SCR = 165644.95 β y ˆ2 = −0.47 + 0. R2 = 0.049 es la desviación típica de ˆ1 .1).86) = 3. la valoración es racional si estimada es β1 = 1 β0 = 0.

F al (a) Contrastar con test 5% la hipótesis nula H0 : sabiendo que el valor crítico al (b) Contrastar con test      β1 + β2 = 1 β3 = 1 es 5% F(2.86) = 2. Supongamos que  5 −3 6 −2 −4 2 −2 4 3 0    3 (X X )−1 =    −3    2   0   −4    3    (X Y )−1 = 4     2     1     2 y además Y Y = 80.2 sabemos que nula en (b). β es un vector 4 × 1. F al 5% la hipótesis nula H0 :              β1 = 0 β2 = 0 β3 = 0 F(3.7. sabiendo que bajo la esta H0 : β1 = 1. Contrastar al 5 % la hipótesis sabiendo que el valor crítico al (c) Del ejercicio 2.(f ) ¾Podemos. contrastar H0 ?.1. β2 = 0 el R2 es 0.49.86) = 3. (3) Considerar el siguiente modelo de regresión lineal Yi = β0 + β1 Xi + ui 61 . Y y u son vectores 80 × 1. (2) Considerar el siguiente modelo de regresión Y = Xβ + u donde X es una matriz 80 × 4.71. 5% es R2 = 0.

96. Supongamos de añadir otro regresor efecto sobre la varianza de x i2 correlacionado con xi 1 .28.702 = 3.03 t Yi Xi = 295.025. t0.62 (4) Considerar el siguiente modelo yi = β0 + β1 xi1 + ui .702 = 1.01. 62 . β (5) Demostrar la propiedad P4'.2 i Xi2 = 147. ¾Cual será el ˆ1 ?.95. N = 10. b) Calcular y interpretar el R2 de la regresión. β1 utilizando el estimador de mínimos cuadrados. F2. Valore críticos : t0.025.50 i Yi2 = 597. c) Contrastar al 5 % la hipótesis que la pendiente de la recta de regresión sea igual a cero.donde se conocen las siguientes cantidades: i Xi = 37. F3.8 = 2.18 i Yi = 75.702 = 2. a) Estimar β0 .

(3) Ejercicio 4.Aplicaciones con GRETL (1) Ejercicio 4. (2) Ejercicio 4. 63 .12 Wooldridge.19 Wooldridge.17 Wooldridge.

1. Errores de Especicación El término error de especicación se reere al caso en que cometemos un error en la decisión sobre cuales variables hay que incluir en el modelo. Inclusión de una variable irrelevante Supongamos que nuestro modelo de regresión sea yi = β0 + β1 xi1 + ui pero añadimos la variable nuestro modelo como x2 que no tiene ningún efecto sobre y y especicamos yi = β0 + β1 xi1 + β2 xi2 + ui ¾Cuáles son las consecuencias? No muchas.1. hay alguna 64 . ya que su valor medio en muestras repetidas será igual a cero. 3. Sin embargo.1. Veremos dos casos: el primero en que en que incluimos una variable irrelevante y el segundo en que omitimos una variable relevante. Esto deriva del hecho que los estimadores siguen insesgados porque no hay ninguna violación de los supuestos del modelo. Simplemente obtendremos una estimación de β2 que tendría que acercarse al cero.Capítulo 3 Extensiones 3.

2. Omisión de una variable relevante Las consecuencias de excluir variables relevantes son mas graves porque crea sesgo en los estimadores MCO. Entonces.1) 2 R1 es el coeciente de determinación de de la regresión de x2 . Si x1 x2 están correlacionadas. 3. o sea tendremos menor precisión de la estimación. aunque los estimadores siguen insesgados. Supongamos ahora que el modelo de regresión correctamente especicado sea yi = β0 + β1 xi1 + β2 xi2 + ui y que cometemos un error: excluimos del modelo x2 y consideramos el modelo yi = β0 + β1 xi1 + ui Podemos verlo formalmente.1. Desde el primer capítulo sabemos que la varianza de ˆ1 β es ˆ1 ) = V ar(β donde y σ2 n 2 ¯1 )2 (1 − R1 ) i=1 (xi1 − x x1 sobre (3. la varianza de los estimadores será mayor si las variables están correlacionadas.implicación sobre la precisión de las estimaciones. Se considere el estimador MCO de β1 en el modelo sin x2 ˆ1 = β n ¯1 )(yi − i=1 (xi1 − x n ¯1 ) i=1 (xi1 − x y ¯i ) substituyendo i con el veradero modelo obtenemos ˆ1 = β −x ¯1 )(β1 xi1 + β2 xi2 + ui ) n ¯1 )2 i=1 (xi 1 − x n n ¯1 )xi1 (xi1 − x ¯1 )xi2 i=1 (xi1 − x = β1 n + β2 i=1 + n 2 ¯1 ) ¯1 )2 i=1 (xi 1 − x i=1 (xi 1 − x n n (xi1 − x ¯1 )xi2 ¯1 )ui i=1 (xi1 − x = β1 + β2 i=1 + n n 2 ¯1 ) ¯1 )2 i=1 (xi 1 − x i=1 (xi 1 − x n i=1 (xi1 n ¯1 )ui i=1 (xi1 − x n ¯ 1 )2 i=1 (xi 1 − x (3.2) 65 . 2 R1 >0 y esto implica una varianza para ˆ1 β mayor que en el caso en que el modelo fuese bien especicado.

a. como hemos visto ya en el contraste de hipótesis. Formalmente escogemos el estimador que soluciona el siguiente problema de minimización m´ ın ∗ β s. Sean Rβ = r.Si tomamos el valor esperado obtenemos ˆ1 ) = β1 + β2 E (β n ¯1 )xi2 i=1 (xi1 − x n ¯1 )2 i=1 (xi 1 − x (3. Por ejemplo..3) o sea el estimador es sesgado y el sesgo depende de la correlación muestral entre las dos variables independientes. podemos pensar en los rendimientos de escala en una función de producción que queremos suponer constantes. + βk xik + ui donde q<k y que estas restricciones se pueden expresar. 3. como estas restricciones. Utilizando el método de mínimos cuadrados queremos encontrar el estimador que minimiza ˆru ˆ r = y y + β ∗ X Xβ ∗ − u 2β ∗ X y y que al mismo tiempo satisface Rβ ∗ = r donde β ∗ es el estimador de Mínimos Cuadrados Restringido de β.. Empezamos estableciendo un conjunto de siguiente modelo q restricciones entre los parámetros del yi = β0 + β1 xi1 + . El objetivo es de estimar el modelo anterior bajo ˆr u los residuos del modelo. o sea estudiaremos el método de Mínimos Cuadrados Restringidos. y y + β ∗ X Xβ ∗ − 2β ∗ X y Rβ ∗ = r Solucionando este problema obtenemos ˆ + (X X)−1 R (R(X X)−1 R )−1 (r − Rβ ˆ) β∗ = β 66 . En esta sección estudiaremos como estimar el modelo de regresión bajo restricciones lineales sobre los parámetros.2. Estimación Bajo Restricciones A veces la teoría económica nos proporciona restricciones sobre los parámetros del modelo.

67 . β Vamos a ver ahora formalmente que el test de Wald visto antes coincide con la forma alternativa basada en la suma de los cuadrados del modelo restringido.9). ˆ r = y − Xβ ∗ u ˆ − X(β ∗ − β ˆ) = y − Xβ ˆ − r) ˆ − X(X X)−1 R (R(X X)−1 R )−1 (Rβ = u entonces ˆ − r) R(X X)−1 (Rβ ˆ − r) ˆru ˆr = u ˆu ˆ + (R β u y ˆ − r) R(X X)−1 (Rβ ˆ − r) ˆru ˆr − u ˆu ˆ = (Rβ u que es el numerador del estadístico de contraste (2.donde ˆ β es el estimador MCO. Su varianza es V ar(β ∗ ) = σ 2 (X X)−1 − (X X)−1 R (R(X X)−1 R )−1 R(X X)−1 y se puede demostrar que esta varianza es menor que la varianza del ˆ.

β1 es positivo si β2 > 0 y negativo si 68 .Ejercicios (1) Supongamos que el verdadero modelo de regresión sea yi = β0 + β1 xi1 + β2 xi2 + ui y cometemos un error de especicación y estimamos el modelo sin x2 y i = β 0 + β 1 xi 1 + u i Demostrar que si la correlación entre ˆ1 )− x1 y x2 es positiva entonces el sesgo E (β β2 < 0.

En la misma página podéis bajar e instalar en GRETL otras bases de datos como Wooldridge. Podéis bajar el programa e instalarlo en vuestro ordenador privado.net/win32/) es un programa de econometría que se puede bajar gratis desde internet.Apéndices A. Funciona con Windows. Datos La gura 4 muestra la pantalla principal de GRETL una vez abierto el programa. Está disponible en varios idiomas incluyendo el español. Como ejemplo. seleccionar en el menú File. de la cual hemos utilizado algunos archivos en esta guía. Para poder cargar una base de datos en GRETL tenemos que.sourceforge. Sample file. En el programa hay una guía de usuario muy útil que introduce el uso del programa. o Stock y Watson. y Linux. Está instalado en las aulas de informática 2122-23.1 GRETL GRETL (http://gretl. seleccionamos Wooldride. como se ve en gura 5. wage1 que es el archivo que hemos utilizado en el capí- 69 . La gura 6 muestra la pantalla con todas las bases de datos que hay disponibles en GRTL. Open data. El programa es relativamente fácil de utilizar. Mac. En esta mini-guía veremos algunos ejemplos sencillos de aplicaciones de los conceptos teóricos que hemos visto. GRETL ya tiene instalada varias bases de datos.

Por ejemplo. La gura 7 muestra una nueva pantalla con todas las variables contenidas en el chero y sus descripciones. nos permiten crear nuevas variables o hacer transformaciones de las variables existentes en el chero. En particular. entre otras cosas. 70 . la primera opción es la de crear una variable denida como el logaritmo de la variable en negrita que hemos seleccionada en la pantalla principal.Figura 4 tulo 1. seleccionando Datos tenemos varias opcciones que. Podemos observar como ahora (gura 8) se activan opcciones en el menú que antes eran disponibles.

Figura 5 71 .

Figura 6 72 .

Figura 7 73 .

Figura 8 74 .

Si seleccionamos este comando se abre otra pantalla (gura 10). En este ejemplo seleccionamos 75 .Figura 9 MCO Vamos a ver ahora como estimar un modelo de regresión con MCO. Si volvemos a la pantalla principal podemos observar que en el menú de la parte baja de la pantalla tenemos un ˆ. En esta nueva pantalla tenemos que seleccionar la variable dependiente (en la parte alta) y las variables independiente (en la parte baja). β Ésta es la instrucción que nos permite estimar un modelo de regresión con MCO.

Además GRETL nos proporcina otros resultados como el R2 o el ¯2. Utilizamos ahora estas nuevas estimaciones para ver como contrastar la hipótesis nula el menú de la pantalla de los resultados hay una opción que es H0 : β1 + β2 = 0. Una vez seleccionado ok GRETL estima con MCO el modelo y nos proporciona la tabla de resultados que vemos en gura 11. 3) El valor de los estadisticos de contraste para H0 : βi = 0 en la columna t-ratio y 4) los valores p en la última columna. En esta tabla tenemos: 1) las estimaciones en la columna rámetros en la columna la hipótesis nula coefficient. los resultados del contraste. 76 . GRETL nos proporciona el valor del estadistico de contraste F (en este caso igual a 123.858) y el valor-p correspondiente. Una vez declarada la hipótesis nula seleccionamos ok y obtenemos. Seleccionando tal opccion se abre otra página (gure 14) en la que hay que escribir cual hipótesis nula queremos contrastar. gura 15. En tests. Si selecciona- mos esta oppcion vemos (gura 13) que hay varias sub-opcciones entre las cuales hay linear restrictions. R En la gura 12 podemos ver los resultados de la estimación si repetimos el procedimiento visto antes pero añadiendo otro regresor exper. error . 2) las desviaciones típicas de los pa- std.wage como variable dependiente y const (el término constante) y educ como varia- bles independientes.

Figura 10 77 .

Figura 11 78 .

Figura 12 79 .

Figura 13 80 .

Figura 14 81 .

Figura 15 82 .

A.2 Exámenes 83 .

β ˆ2 .Examen Econometría (PUE) Diciembre 2007 1.28. e) Contrastar al 5 % la hipótesis nula de que cada uno de los coecientes sean separadamente iguales a cero. β ˆ1 .20age R2 = 0. ˆ1 .017.88.45 las desviaciones típicas de β respectivamente. b) Si alguien trabaja cinco horas mas por semana. Sean ˆ0 . β ˆ3 β sean cero con- 84 . g) Contrastar al 5 % la hipótesis nula de que los coecientes juntamente. El siguiente modelo es una versión simplicada del modelo utilizado por Biddle y Hamermesh (1990) para estudiar el trabajar: trade o entre tiempo dedicado a dormir y a sleep = β0 + β1 totwork + β2 educ + β3 age + u donde na y sleep y y totwork son el tiempo (en minutos) dormido y trabajado por sema- educ age son respectivamente educación y edad (en años).148totwork − 11.25 − 0. β ˆ2 . estimar la desviación típica de los errores de regresión utilizando un estimador insesgado. Utilizando 706 observaciones se obtienen las siguientes estimaciones ˆ = 3638.113 sleep a) Se interpreten desde un punto de vista cuantitativo todos y cada uno de los coecientes estimados. β ˆ3 112. 0. f ) Contrastar al 5 % la hipótesis nula de que un minuto mas trabajado corresponde a un minuto menos dormido. 1. ¾de cuanto cambia modelo estimado? c) ¾Que mide sleep según el R2 ? ¾Cual es la interpretación de este valor en este caso concreto? d) ¾Suponiendo que ¯ )2 (sleepi −sleep N −k = 445.13educ + 2. 5.3620 (k = número de variables).

8 = 2.28. c) Contrastar al 5 % la hipótesis que la pendiente de la recta de regresión sea igual a cero.50 i Yi2 = 597.025. F2.702 = 1. La estimación nos ˆ = 3638.62 85 .2 i Xi2 = 147.38 − 0.025. Valore críticos : t0. β1 t Yi Xi = 295.95. a) Estimar utilizando el estimador de mínimos cuadrados. N = 10. F3.103 sleep h) ¾El hecho de incluir y dormir? i) ¾Podría ser age y educ cambia substancialmente la relación entre trabajar R2 en este caso mayor del que hemos obtenido en la estimación ante- rior? ¾Por que? l) ¾Contrastar al 5 % la hipótesis nula de que a cero.03 β0 . b) Calcular y interpretar el R2 de la regresión.151totwork R2 = 0. age y educ sean conjuntamente iguales 2.96. Considere el siguiente modelo de regresión lineal Yi = β0 + β1 Xi + ui donde se conocen las siguientes cantidades: i Xi = 37.18 i Yi = 75.Supongamos ahora que sacamos da educ y age de nuestro modelo.01.702 = 2. t0.702 = 3.

R2 = 0.Examen Econometría (PUE) Septiembre 2008 La siguiente ecuación describe el precio ( price ) de las viviendas medido en miles de dólares en términos de los pies cuadrados de construcción ( habitaciones ( sqrft ) y del número de bdrms ) price = β0 + β1 sqrf t + β2 bdrms + u Se satisfacen todos los supuestos del modelo de regresión lineal que hemos estudiado en clase. Utilizando los datos se obtiene la siguiente ecuación por MCO: log (price) = −0. n = 88.1982bdrms + u.808254log (sqrf t) + 0. R2 = 0.623398 + 0.0138245. manteniendo constantes los pies cuadrados? 86 .561136 (v) ¾Cuál es el aumento estimado en el precio de una casa cuando se añade una habitación adicional. Usando los datos se obtiene la siguiente ecuación por MCO: price = −19.315 + 0. (iv) Contrastar al 5 % hipótesis nula H0 :      β1 = 0 β2 = 0 Ahora especicamos el precio de las casas y la supercie en logaritmos. (i) ¾Cuál es la interpretación de n = 88.128436? β (ii) ¾Qué porcentaje de la variación en el precio de una casa se explica por la supercie y el número de habitaciones? (iii) La desviación típica de ˆ1 β es 0.631918 ˆ1 = 0.128436sqrf t + 15.0381107bdrms + u. Contrastar al 5 % hipótesis nula H0 : β1 = 1.

11.48 87 . F4. y se considere el siguiente modelo log (price) = β0 + β1 log (sqrf t) + β2 bdrms + β3 log (assess) + β4 log (lotsize) + u donde assess es la tasación de la casa antes de la venta y lotsize es el tamaño del solar. Contrastar la hipótesis nula H0 :                    β1 = 0 β2 = 0 β3 = 1 β4 = 0 Valores críticos: t0..(vi) ¾Cuál es ahora la interpretación de ˆ1 = 0.. En el modelo (1) la SCR=1. F2.025.85 = 3. (viii) En el modelo siguiente log (price) − log (assess) = β0 + u la suma de los residuos al cuadrados es SCR=1.880. F2.772809 (vii) Contrastar al 5 % la hipótesis nula de que los coecientes de (3.103239log (sqrf t) + 0.98. R2 = 0.00743824log (lotsize) + u.263745 − 0.83 = 2.1. Usando los datos se obtiene la siguiente ecuación por MCO: log (price) = 0.0338392bdrms + .822. n = 88.04306log (assess) + +0.808254? β Añadimos ahora otras dos variables.4) log (assess) y log (lotsize) sean conjuntamente iguales a cero.85 = 1. 1.83 = 3.

jc es el número de años como estudiante en una es el número de años en una universidad.091 + 0. (i) ¾Cual es la interpretación de ˆ1 = 0.070 β y ˆ2 = 0.Examen Econometría I (PUE) Diciembre 2008 Consideremos el siguiente modelo para comparar el rendimiento de la educación en escuelas de formación profesional y en universidades. (v) Contrastar al 5 % la hipótesis nula de que los coecientes conjuntamente. obtenemos la siguiente estimación: ˆ ) = 2. β1 y β2 sean cero Ahora añadimos al modelo la variable exper 88 que mide la experiencia acumulada en . escuela de formación profesional y univ Utilizando los datos de Kane y Rouse (1995). R2 = 0.93.069univ.5) wage es el salario por hora. Contrastar al 5 % la hipótesis nula de que la educación universitaria no es importantes para explicar el logaritmo del salario (H0 : β2 = 0). SCR = 1432.070jc + 0. log (wage) = α + β1 jc + β2 univ + u donde (3. log (wage n = 6763.0024.109.069? β (ii) ¾Cual es el valor predicho de log (wage) para un individuo con cuatro años de estudios universitarios y sin estudios en escuela de formación profesional? (iii) ¾Qué porcentaje de la variación en el logaritmo del salario se explica por las variables independientes incluidas en el modelo? (iv) La desviación típica de ˆ2 β es 0.

(ix) Sea θ = β1 − β2 y sea totcol = jc + univ .6760 = 2.025.el trabajo log (wage) = α + β1 jc + β2 univ + β3 exper + u. Mostrar que el modelo (2) se pue- de escribir como log (wage) = α + θjc + β2 totcol + β3 exper + u y explicar un procedimiento para contrastar la hipótesis nula modelo.109?¾Por qué? (vii) Contrastar al 5 % la hipótesis nula de que la experiencia no es importante para explicar el logaritmo del salario (H0 : β3 = 0). (viii) La hipótesis nula H0 : β1 = β2 es muy interesante porque bajo esta hipóte- sis un año adicional en una escuela de formación profesional o en una universidad conducen al mismo aumento porcentual en el salario cuando son constantes todos los demás factores. Con los datos se obtiene la siguiente estimación: (3.6) ˆ ) = 1.54.96. (3.472 + 0. 89 . SCR = 1250. F2.0769univ + 0.6760 = 1.7) H0 : β1 = β2 en este Valores críticos: t0. Sabiendo que (R(X X )−1 R )−1 = 3846 contrastar dicha H0 al 5 %.84284. Esto nos permite comparar el rendimiento de diferentes tipos de educación.99. F1.0049exper log (wage n = 6763.6759 = 3. (vi) ¾Puede ser R2 en este caso menor que 0.0667jc + 0.

Vicens-Vives 3. Macmillan Publishing Company. Análisis Econométrico.a edición. 2 a Ed. Gujarati. International Edition 5.M. Johnston. J y DiNardo. 3. W. (2006). McGraw-Hill 4. Greene. y M. New York.Bibliograa 1. Econometría. 90 . Ed. Stock. 4.W. J. J. Paraninfo Thompson Learning. (2003). J. Pearson Education. (2001). 2. (1998).H. Introducción a la Econometría: un Enfoque Moderno. Watson (2003): Introduction to Econometrics.a edición. Métodos de Econometría. Ed. D. Wooldridge.

Sign up to vote on this title
UsefulNot useful