Apuntes de Econometr´ıa Te´orica

Hebert Suarez Cahuana

LATEX

2

´Indice general

´ SIMPLE
1. REGRESION 9

1.1. Los Supuestos del Modelo Lineal Simple . . . . . . . . . . . . . . 15

1.2. Propiedades Estad´ısticas de los Estimadores M´ınimo Cuadr´aticos 17

1.3. Demostraci´
on de la Insesgadez de los Estimadores M´ınimo Cuadr´ati-

cos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

1.4. Obtenci´
on de la varianza de los estimadores MCO . . . . . . . . 20

1.5. La Media y Varianza de los Residuos ei . . . . . . . . . . . . . . 22

1.6. La Eficiencia de los Estimadores MCO . . . . . . . . . . . . . . . 24

1.7. Pruebas de Hip´
otesis Individual . . . . . . . . . . . . . . . . . . . 25

1.7.1. Intervalo de confianza para los estimadores . . . . . . . . 26

1.8. Predicci´
on para un Valor Individual de y dado x . . . . . . . . . 26

1.9. Predicci´
on para un valor medio de y dado xn+1 . . . . . . . . . . 29

3

4 ´INDICE GENERAL .

. . . . . . . . . 32 5 .2.1. . . . . . 32 1. . . . . . Mi primer gr´ afico en LATEX . . . . . . . . .´Indice de figuras 1. . . . . . . . . Mi segundo gr´ afico en LATEX . . . . . .

6 ´INDICE DE FIGURAS .

. . . . . . . . . . . Mi primera tabla en LATEX . . . . . . .´Indice de cuadros 1. . . .1. 32 7 . .

8 ´INDICE DE CUADROS .

X S(a. yi ). n A trav´es de la f´ ormula: yˆ = a + bx (1..1) Se define ei como el error de predicci´on ei = yi − a − bxi (1.2) El criterio para encontrar a y b es minimizar la suma de los cuadrados de los errores. Las primeras derivadas son: δS X = −2 (yi − a − bxi ) = 0 (1. .3) con respecto a a y b.. i = 1.3) Derivamos (1.4) δa 9 . Se parte de una recta de regresi´ on que se desea ajustar a n pares de observaciones (xi ... b) = (yi − a − bxi )2 (1.Cap´ıtulo 1 ´ SIMPLE REGRESION En este documento se brindan las ecuaciones b´asicas las ecuaciones b´asicas y las demostraciones de as ecuaciones que se utilizan en el an´alisis econom´etrico .

5) eliminando el -2 P xi (yi − a − bxi ) = 0 sustraendo (1.7) P P xi (yi − a − bxi ) − x ¯ (yi − a − bxi ) = 0 aplicando sumatorias P P xi (yi − a − bxi ) − ¯(yi − a − bxi ) = 0 agrupando x P (xi (yi − a − bxi ) − x ¯(yi − a − bxi )) factorizando t´erminos: X (xi − x ¯)(yi − a − bxi ) = 0 (1.8) Introduciendo (1. puede salir de la sumatoria X x ¯ (yi − a − bxi ) = 0 (1.6) Si x ¯ es independiente de i.10 CAP´ITULO 1. yi − a bxi P por las propiedades del operador sumatoria. yi − na − b xi = 0 dividiendo P P P P yi xi xi y entre n.4) P (yi − a − bxi ) = 0 multiplicamos por x ¯ ambos t´erminos P ¯(yi − a − bxi ) = 0 la constante x x ¯. n −a−b n = 0 si x ¯ = n y y¯ = n (definici´on de media).7) Partiendo de la ecuaci´ on (1. REGRESION ´ SIMPLE δS X = −2 xi (yi − a − bxi ) (1.6) en (1.5) δb De la ecuaci´ on (1. y¯ − a − b¯ x = 0 reordenando t´erminos. de (1. obtenemos: a = y¯ − b¯ x (1. (es decir una constante).4) P P P P (yi − a − bxi ) = 0 aplicando sumatoria a cada t´ermino.8) P (xi − x ¯)(yi − y¯ + b¯ x − bxi ) = 0 P (xi − x ¯) ((yi − y¯) − b(xi − x ¯)) factorizando P P (xi − x ¯)(yi − y¯) − (xi − x ¯)b(xi − x ¯) = 0 .

+ (−x2n )) = −2( (−x22 )) = 2 x2i P P .. 11 ¯)2 = 0 despejando b P P (xi − x ¯)(yi − y¯) − b (xi − x P (xi − x¯)(yi − y¯) b= P (1. aplicamos la misma estrategia: P −2 (yi − a − bxi ) = −2 (y1 − a − bx1 + y2 − a − bx2 + .9) ¯ )2 (xi − x Para verificar que (1. + (−1) = −2(−n) es decir = 2n | {z } δa2 n veces derivando (1. + (−xn )) = −2(− xi ) = 2 xi 2 δ S P esto es.5) con respecto a b P −2 xi (yi −a−bxi ) = −2(x1 (y1 −a−bx1 )+x2 (y2 −a−bx2 )+. descomponemos (1..   δ2 S δ2 S  δa2 δaδb             δ2 S 2 δ S  δbδa δb2 derivando (1... + yn − a − bxn ) derivando con respecto a a.. tenemos: δ2 S −2 ((−1) + (−1) + . + yn − a − bxn ) derivando con respecto a b P P −2((−x1 ) + (−x2 ) + .6) y (1.4) con respecto a a Para fines ilustrativos.. calculamos la matriz hessiana. derivamos (1. = 2 xi adem´ as por el teorema de Young = δbδa δaδb δbδa Ahora...4) con respecto a b.... = 2 xi δaδb δ2 S P δ2 S δ2 S es decir..8) son en realidad un m´ınimo.+xn (yn −a−bxn )) −2((−x21 ) + (−x22 ) + .4) en P −2 (yi − a − bxi ) = −2(yi − a − bxi + y2 − a − bx2 + .

entonces para que tengamos un P Con n > 0 y (xi − x m´ınimo se debe tener: X ¯)2 (xi − x Lo cual es cierto por definici´on. . trat´andose de un cuadrado. ello se cumple si todos los menores (sus determinantes) son estrictamente positivos.12 CAP´ITULO 1. es decir que sea constante. El determinante ser´ıa: x2i ) − (2 P P P |H| = (2n)(2 xi )(2 xi ) x2i − 4( xi )2 P P P = 4n 4n P 2 ( xi )2 ( xi )2  P  P = 4n xi − sumando y restando Pn 2  n ( xi )2 ( xi )2  P P P 2 ( xi ) = 4n xi − + − n n  n ( xi )2 ( xi )2  P P P 2 = 4n xi − 2 +  Pn P n P P  P P 2 ( xi )( xi ) ( xi )( xi ) xi = 4n xi − 2 + aplicando x¯= n n n P 2 P P  P = 4n xi − 2¯x xi + x ¯ xi aplicando xi = n¯x al tercer t´ermino  x2i − 2¯ P P = 4n x xi + x ¯n¯ x  x2i − 2¯ x2 agrupando la sumatoria P P = 4n x xi + n¯  x2i − 2¯ ¯2 el t´ermino entre par´entesis es el cuadrado de la dife- P = 4n xxi + x ¯)2 rencia (xi − x ¯ )2 P = 4n (xi − x ¯)2 debe ser positivo. excepto que x no tenga varianza. REGRESION ´ SIMPLE Con estos datos completamos el hessiano:     δ2 S δ2 S P   2n 2 xi   δa2 δaδb          =           δ2 S δ2 S   P P 2  2 xi 2 xi δbδa δb2 El hessiano debe ser definido positivo para tener un m´aximo.

11) Las ecuaciones (1. Escribimos (1.12) Es decir los residuos tienen media cero y no est´an correlacionados con la variable explicativa.4) y (1. 13 Aplicando sumatoria a (1. Los esti- madores a y b cumplen (1.10) y (1.6) yi = y¯ − b¯ x + bxi + ei reordenando yi − y¯ = b(xi − x ¯) + ei elevando al cuadrado (yi − y¯)2 = (b(xi − x ¯) + ei ) desarrollando el cuadrado de la suma (yi − y¯)2 = b2 (xi − barx)2 + 2b(xi − x ¯)ei + e2i aplicando sumatoria en ambos t´erminos: (yi − y¯)2 = b2 (xi − x ¯)2 + 2b(xi − x ¯)ei + e2i P P P P .10) Haciendo lo mismo que con (5) P xi (yi − a − bx8 ) = 0 (xi yi − axi − bx2i ) = 0 P x2i = 0 reordenando P P P xi yi − a xi − b X X X a xi + b x2i = xi yi (1.8) X X X X (yi −a−bxi ) = ei = 0 y tambi´en (xi −¯ x)(yi −a−bxi ) = (xi −¯ x)ei = 0 (1.11) se conocen como ecuaciones normales.4) y eliminando el -2 P (yi − a − bxi ) = 0 P P P yi − a− bxi = 0 P P yi − na − b xi = 0 reordenando: X X an + b xi = yi (1.2) como yi = a + bxi + ei introducimos (1.

se define: SCT = SCE + SCR donde: (y − y¯)2 Suma de cuadrados totales. REGRESION ´ SIMPLE b2 (xi − x ¯)2 + 2b ¯)ei + e2i pero (xi − x P P P P = (xi − x ¯)ei = 0 por (1. P SCT = SEC = b2 ¯)2 Suma explicada al cuadrado.14) P 2 (xi − x ¯)(yi − y¯) P 2 ( (xi − x ¯)) 2 P ¯)2 P 2 P 2 (x i − x ¯ ) ( (xi − x ¯)(yi − y¯)) ( (xi − x R = P = 2 (yi − y¯)2 P P ( (xi − x¯)2 ) ( (yi − y¯)2 ) Simplificando: ¯)(yi − y¯))2 P 2 ( (xi − x R =P P ¯)2 (yi − y¯)2 (xi − x Que es el cuadrado del coeficiente de correlaci´on entre x ey.14) ST C (yi − y¯)2 Introduciendo (1.14). P (xi − x e2i Suma de los residuos al cuadrado.14 CAP´ITULO 1.12) reordenando.9) en (1.12) X X X (yi − y¯)2 = b2 ¯ )2 + (xi − x e2i (1. P SRC = El coeficiente de determinaci´on se define como: b2 (xi − x ¯)2 P 2 SEC R = = P (1. obtenemos: P2 b2 ¯)2 = (yi − y¯)2 − i introduciendo en (1. s´olo en regresi´on simple. De (1.13) Seg´ un la ecuaci´ on anterior. P P (x − x (yi − y¯)2 − (e2i ) P P P 2 2 ei R = P =1− P (1.15) (yi − y¯)2 (yi − y¯)2 .

. E[i ] = 0(i = 1..1-S.Homoscedasticidad.La varianza de las n perturbaciones 1 . . Los Supuestos del Modelo Lineal Simple A fin de que los estimadores cumplan determinadas propiedades estad´ısticas. β y σ 2 son n´ S.1..4 se tiene que s´ı: yi = α + βxi + i tomando esperanza matem´atica E[yi ] = E[α + βxi + i ] aplicando el operador esperanza a cada miembro dentro .2. . .Los par´ametros α... n). . Par´ umeros fijos desconocidos con σ 2 > 0 S. media cero.. LOS SUPUESTOS DEL MODELO LINEAL SIMPLE 15 1..1. n) i 6= j Supuestos sobre el modelo y los par´ ametros del mismo ametros constantes. No Correlaci´ on. x2 .1.Las n perturbaciones 1 . se realizan los siguientes supuestos: Supuestos sobre los regresores S. n existe y son todas iguales E[2i ] = σ 2 (i = 1... Regresores fijos.6. n) S.Los datos y1 . n son variables aleatorias con media cero.3.. j = 1.....4. ... S. j ) no est´an corre- lacionados.Todos los pares de perturbaciones (i ..Las n observaciones de las variables explicativas ¯)2 P x1 .1........ Modelo lineal.16) El modelo se llama lineal porque yi depende de una manera lineal de los par´ame- tros α y β. . xn son n´ umeros fijos y satisfacen (xi − x Supuestos sobre las perturbaciones S. yn han sido generados por: yi = α + βxi + i (1.. Uniendo S.. .. Perturbaciones aleatorias. E[i j ] = 0(i.5.

1 E[yi ] = α + βxi + 0 por el supuesto S.6 Cov(yi . Bajo S1-S7 entonces: yi ∼ iid(α + βxi . yj ) = E[i j ] = 0 por el supuesto de no correlaci´on. E[yi ] = α + βE[xi ] + E[i ] si xi es fijo su esperanza es el mismo n´ umero. E[yi ] = α + βxi (1. Hallamos la varianza de yi V ar(yi ) = E[(yi − E(yi ))2 ] F´ormula definicional de varianza. bajo S1-S6 so tiene que: E[yi ] = α + βxi V ar(yi ) = σ 2 Cov(yi . . yj ) = E[(α + βxi +  − E(yi ))(α + βxj + j − E(yj ))] por S. .7.5. σ 2 ) (i = 1.6 V ar(yi ) = E[(α + βxi +  − α − βxi )2 ] por que E(yi ) = α + βxi V ar(yi ) = E[2i ] = σ 2 por el supuesto de homoscedasticidad. n) .17) Por otro lado: Cov(yi .. n est´an normalmente distribui- das. V ar(yi ) = E[(α + βxi + i − E(yi ))2 ] por el supuesto S. E[yi ] = E[α] + E[βxi ] + E[i ] si α y β son constantes por S. Cov(yi . por S. REGRESION ´ SIMPLE del corchete. yj ) = 0 (i 6= j) Supuesto sobre la distribuci´ on de probabilidad S. Normalidad...16 CAP´ITULO 1..Las perturbaciones 1 . yj ) = E[(α + βxi + i )(α + βxj + j − α − βxj )] porque E[yi ] = α + βxi Cov(yi . Por lo tanto. yj ) = E[(yi − E[yi ])(yj − E(yj ))] f´ormula definicional de covarianza...2..

2. PROPIEDADES ESTAD´ISTICAS DE LOS ESTIMADORES M´INIMO CUADRATICOS17 ´ iid: Independiente e id´enticamente distribuido ∼: Se distribuye. 1.1.18) En base a estos resultados (1.2. Propiedades Estad´ısticas de los Estimado- res M´ınimo Cuadr´ aticos P P P P P xi Recordemos que (xi − x ¯ ) = xi − x¯= xi − n¯ x porque x ¯= → n P n¯ x= xi entonces: P P P (xi − x ¯) = xi − xi P (xi − x ¯) = 0 Multiplicando por y¯ P (xi − x ¯)¯ y=0 P y¯ (x − x ¯) = 0 Tambi´en tenemos que: P (xi − x ¯) = 0 multiplicando por x ¯ P (xi − x ¯)¯ x=0 P x ¯ (xi − x ¯) = 0 En consecuencia: X X X X (xi − x ¯)¯ y = y¯ (xi − x ¯) (xi − x ¯)¯ x=x ¯ (xi − x ¯) = 0 (1. operando en el denominador: Pi − x (x ¯)2 P P P (xi − x ¯)yi (xi − x¯)yi (xi − x ¯)yi − (xi − x ¯)¯ y b= P = P = P (xi − x ¯)(xi − x ¯) ((xi − x ¯)xi − (xi − x¯)¯ x) ¯)2 (xi − x .9) se expresa como: P P P P (xi − x ¯)(yi − y¯) ((xi − x ¯)yi − (xi − x¯)¯ y) (xi − x ¯)yi − (xi − x ¯)¯ y b= P 2 = P 2 = P 2 P (x i − x ¯ ) (x i − x ¯ ) (xi − x ¯ ) (xi − x ¯)yi b= P adem´ as.

t´ermino a t´ermino: P (xi − x¯)xi ((xi − x¯)α + (xi − x ¯)βxi + (xi − x ¯)i ) b= P Aplicando el operador sumatoria: P Pi − x (x ¯)xi P α (xi − x ¯) + β (xi − x ¯)xi + (xi − x ¯)i b= P P (xi − x¯)xi P (xi − x¯)i P (xi − x ¯)xi b=β+P porque (xi − x ¯) = 0 y P =1 (xi − x¯)xi (xi − x ¯)xi Adem´ as.21) P De (1. utilizando el siguiente artificio P (x − x ¯) (xi − x ¯) (x2 − x ¯) (xn − x ¯) P i P =P +P + .21) ci i adem´as β x P P a = y¯ − (¯ y − α − ¯) − x ¯ ci i = α + ¯ − x ¯ ci i 1P P a=α+ i − x ¯ ci i n .17) Yi = α + βxi + i sumando ambos miembros y dividiendo entre n.. REGRESION ´ SIMPLE P (xi − x ¯)yi P b= P puesto que (xi − x ¯) = 0 (xi − x ¯)xi Introduciendo el supuesto 6.19) b = β + ci i multiplicando por x ¯ P b¯ x = βx ¯+x ¯ ci i Partiendo de (1. en la expre- si´ on anterior para yi P (xi − x¯)(α + βxi + i ) b= P multiplicando. es decir reemplazar la ecuaci´on (1.20) (xi − x ¯)xi (xi − x¯)2 Para expresar a de 1. + P = ci (xi − x¯)xi (xi − x ¯)xi (xi − x¯)xi (xi − x ¯)xi xi − x ¯ Donde: ci = P a˜ nadiendo este resultado: (xi − x¯)xi P (xi − x ¯)i X b=β+ P =β+ ci i (1.18 CAP´ITULO 1.6) a = y¯ − b¯ x introduciendo el resultado anterior P a = y¯ − β x ¯−x ¯ ¯ = y¯ − α − ¯ introduciendo (1.16).6 en t´erminos de i .. P P P yi nα xi i = +β + n n n n y¯ = α + β x ¯ + ¯ (1.19) (xi − x¯)xi xi − x ¯ xi − x ¯ Con ci = P =P (1. de (1.

PROPIEDADES ESTAD´ISTICAS DE LOS ESTIMADORES M´INIMO CUADRATICOS19 ´ 1P P Pero i − x ¯ ci i puede expresarse como: n P 1 1 1 1 i P ( −x ¯c1 )1 + ( − x¯c2 )2 + ( − x ¯c3 )3 + .20) ci = P elevando al cuadrado y aplicando sumatorias en ¯)2 (xi − x ambos lados: ¯ )2 P P 2 (xi − x 1 ci = P 2 2 =P ( (xi − x¯) ) ¯ )2 (xi − x Por tanto: X X 1 ci = 0.24) 1 ¯2 x d2i = P +P n ¯)2 (xi − x Asimismo. c2i = P (1. a partir de la definici´ on de di 1 di = −x ¯ci elevando al cuadrado n  2 2 1 1 1 di = −x ¯ci = 2 −2 x ¯2 c2i aplicando sumatorias en ambos t´erminos: ¯ ci + x n n n P 2 P 1 2 P ¯2 c2i P di = − x ¯ ci + x n2 n P 2 1 P 2 P ¯2 c2i P di = 2 1− x ¯ ci + x n n P 2 n ¯2 c2i puesto que P P P 2 di = 2 + x ci = 0 y aplicando la definici´on de ci de n (1.22) Donde 1 1 x¯(xi − x ¯) di = −x ¯ci = − P (1.1...2.24) ¯ )2 (xi − x Por otro lado. recordando que (xi − x (xi − x ¯) una constante P P (xi − x ¯) P ci = P 2 = 0 porque (xi − x ¯) = 0 (xi − x ¯) (xi − x ¯) De (1. partiendo de la definici´ on de di .20) ci = P 2 aplicando sumatoria. + ( − x ¯cn )n = −x ¯ ci i n n n n n Entonces: X a=α+ di i (1.23) n n ¯)2 (xi − x (xi − x ¯) ¯)2 es P De (1.

se tiene que: X X 1 ¯2 x di = 1. el estimador b es insesgado E[b] = β De (1.25) n ¯)2 (xi − x 1. Demostraci´ on de la Insesgadez de los Esti- madores M´ınimo Cuadr´ aticos P Partiendo de (1.22) P a=α+ di i tomando esperanza matem´atica X X X E[a] = E[α + di i ] = E[α] + di E[i ] = α + di E[i ] = α (1. β y ci no son aleatorias por el supuesto 1 y 2. d2i = +P (1. REGRESION ´ SIMPLE 1 di = −x¯ci aplicando sumatoria en ambos miembros n P P1 P di = −x ¯ ci n P n P di = − x ¯ ci n P P di = 1 puesto que ci = 0 Por lo tanto.27) Por lo tanto el estimador de α tambi´en es insesgado E[a] = α.20 CAP´ITULO 1. adem´as.19) tenemos: b = β = ci i tomando esperanza matem´ati- ca: X X E[b] = E[β + ci i ] = E[β] + ci E[i ] = β (1. E[i ] = 0 por el supuesto 2. Por lo tanto. .3.26) por que.

.28) ¯ )2 (xi − x 1 c2i = P P Porque como se demostr´o anteriormente. Para deducir la ¯)2 (xi − x varianza de a en muestreo repetido..4. tenemos: c21 + c2 σ 2 + c3 σ 2 + ... . por los supuestos de homoscedasticidad E[2i ] = σ 2 y no correlaci´on tene- mos E[i j ] = 0 si i 6= j. Aplicando ello. OBTENCION 21 1. cn c1 E[n 1 ] + cn c2 E[n 2 ] + cn c3 E[n 3 ] + . E( ci i )2 = c21 E[21 ] + c1 c2 E[1 2 ] + c1 c3 E[1 3 ] + ..19) P b=β+ ci i on de varianza.. .4. + c1 cn E[1 n ]+ P c2 c1 E[2 1 ] + c22 E[22 ] + c2 c3 E[2 3 ] + . ´ DE LA VARIANZA DE LOS ESTIMADORES MCO 1.. + c2 cn E[2 n ]+ ... la mec´anica es similar. + c2n E[22 ] = PP cij E[i j ] Pero. sabemos La definici´ que E[b] = β De (1. es la siguiente: V ar(b) = E[(b−E(b))2 ] pero.19) P b−β = ci i elevando al cuadrado y tomando esperanza E[(b − β)2 ] = E( ci i )2 P El t´ermino E( ci i )2 es el cuadrado de un multinomio. adem´as sabemos que P ci es no aleatoria.22) . + cn σ 2 = c2i σ 2 = c2i σ 2 P P Entonces: X X σ2 V ar(b) = c2i σ 2 = σ 2 c2i = P (1.. . Obtenci´ on de la varianza de los estimadores MCO De (1. de (1.

2) ei = yi − a − bxi introduciendo (1. REGRESION ´ SIMPLE P P a=α+ di i por tanto a − α = d i i V ar(a) = E[(a − E[a])2 ] ¯2   X 2 X X 1 x V ar(a) = E( di i ) = d2i σ 2 =σ 2 d2i =σ 2 +P n ¯)2 (xi − x (1.5.31) Elevando al cuadrado e2i = [−(xi − x ¯)(b − β) + (i − ¯)]2 Desarrollando el cuadrado e2i = (xi − x ¯)2 (b − β)2 − 2(xi − x ¯)(b − β)(i − ¯) + (i − ¯)2 Tomando esperanza matem´ atica.29) 1.22 CAP´ITULO 1.33) ¯)2 (xi − x . en ambos t´erminos E[e2i ] = V ar(ei ) = E[(xi − x ¯)2 (b − β)2 − 2(xi − x ¯)(b − β)(i − ¯) + (i − ¯)2 ] E[e2i ] = (xi − x ¯)2 E[(b − β)2 ] − 2(xi − x ¯)E[(b − β)(i − ¯)] + E[(i − ¯)2 ] (1.30) ei = β(xi − x ¯) + i − ¯ − b(xi − x ¯) Factorizando ei = −(xi − x ¯)(b − β) + (i − ¯) (1. La Media y Varianza de los Residuos ei Si ei = yi − a − bxi tomando esperanza matem´atica E[ei ] = E[yi − a − bxi ] = E[yi ] − E[a] − xi E[b] = α + βxi − α − βxi = 0 Entonces de (1.6) ei = yi − (¯ y − b¯ x) − bxi = yi − y¯ + b¯ x − bxi Factorizando ei = (yi − y¯) − b(xi − x ¯) (1.32) Desarrollamos por separado los t´erminos: σ2 E[(b − β)2 ] = P Definici´on de varianza de b (1.30) Introduciendo en (1.

LA MEDIA Y VARIANZA DE LOS RESIDUOS EI 23 E[(b − β)(i − ¯)] = E[(b − β)i ] + E[(b − β)¯ ] (1.34) Desarrollando el producto: P P P i E[(b − β)(i − ¯)] = E[( ci i ] + E[( ci i ) ] aplicando (1. si i 6= n n n 1 P 2  1 P 2  j]+ 2 E i + productos cruzados dei con j .19) y la definici´on n de ¯ 1P 2 )] = E[ci 2i + productos cruzados de i ]+E[ E[(b−β)(i −¯ ci i + productos cruzados de j ] n 1P E[(b − β)(i − ¯)] = ci E[2i ] + ci E[2i ] puesto que la esperanza matem´atica n de los productos cruzados i j es cero por el supuesto de no correlaci´on entre 1P perturbaciones.1. E[(i − ¯)2 ] = " P  #  P  2 i i 2 σ 2 −2E i +E E[(i −¯ )2 ] = σ 2 − E[2i +productos cruzados de i conj .5. 2 2 1 P E[(i − ¯)2 ] = σ 2 − σ + E[2i ] n n2 2 σ2 n 2 2 σ2 E[(i − ¯)2 ] = σ 2 − σ 2 + = σ 2 − σ + n n2 n n σ2    2  2 2 1 E (i − ¯) = σ − =σ 1− (1.35) ¯)2 (xi − x Ahora desarrollamos el siguiente t´ermino: E[(i − ¯)2 ] = E[2i − 2i ¯ + ¯2 ] E[(i − ¯)2 ] = E[2i ] − 2E [i ¯] + E[¯ 2 ] aplicando la definici´on de ¯.36) n n . si i 6= j + 2 E i + productos cruzados de i j si i 6= j n n 2 2 2 2 1 P 2 E[(i − ¯) ] = σ − E[i ] + 2 E[ i ] puesto que la esperanza matem´atica de n n los productos cruzados es cero por el supuesto de no correlaci´on entre pertur- baciones. E[(b − β)(i − ¯)] = ci E[2i ] +ci E[2i ] n 1 P E[(b − β)(i − ¯)] = σ 2 ci + σ 2 ci pero como P ci = 0 n σ 2 (xi − x ¯) E[(b − β)(i − ¯)] = P (1.

Entonces. La Eficiencia de los Estimadores MCO Bajo los supuestos S1-S6 los estimadores son los Mejores Estimadores Li- neales e Insesgados (MELI).1-S.37) n (xi − x¯)2 1.40) .32) tenemos: σ2 σ 2 (xi − x   ¯) 1 ¯ )2 P E[e2i ] = V ar(ei ) = (xi − x − 2(x i − x ¯ ) P + σ 2 1 − ¯)2 (xi − x ¯)2 (xi − x n haciendo operaciones σ2 ¯)2   2(xi − x 1 E[e2i ] = V ar(ei ) = (xi − x ¯ )2 P 2 − 2 P 2 + σ 2 1 − E[e2i ] = (x i − x¯ ) (x i − x¯ ) n ¯)2 σ 2   −(xi − x 2 1 V ar(ei ) = P +σ 1 − Factorizando σ 2 y reordenando t´erminos (xi − x¯)2 n ¯)2   1 (xi − x E[e2i ] = V ar(ei ) = σ 2 1 − − P (1.(1. REGRESION ´ SIMPLE Reemplazando (1. gn (1. Si definimos wi = gi − ci .24 CAP´ITULO 1. . Demostraci´ on Sea βˆ un estimador lineal arbitrario de β. puede escribirse como: X βˆ = gi yi para coeficientes fijos g1 .6. entonces gi = ci + wi entonces reemplazando en (1.38) El estimador de m´ınimos cuadrados ordinarios puede expresarse como: P b= ci yi con ci definido anteriormente..6 tenemos: E[β] P β+ wi (α + βxi ) ˆ =β+α E[β] P wi + β P wi xi Para que βˆ sea insesgado se requiere que: X X wi = 0. se conoce esto como el teorema de Gauss-Markow.34) y (1. bajo S.36) en (1. wi xi = 0 (1.39) ˆ = E[b]+P wi E[yi ] = Tomando esperanza matem´atica..33)..38) X X X X βˆ = (ci + wi )yi = ci yi + wi yi = b + wi yi (1.

´ 1.43) ¯)2 (xi − x ¯ )2 (xi − x Entonces.7. Pruebas de Hip´ otesis Individual Si i ∼ N (0.3 y S.. entonces: X X X X X X wi yi = wi (α + βxi + i ) = α wi + β wi xi + wi i = wi i (1.41) P P P P βˆ = β + (ci + wi )i P Bajo S.42) Desarrollando el cuadrado (ci + wi )2 = (c2i + 2ci wi + wi2 ) = c2i + ci wi + wi2 Aplicando la defi- P P P P P nici´ on de ci en (1.. σ 2 ) bajo S1-S7.28).20) tenemos: P P P X (xi − x ¯)wi xi wi − x ¯ wi ci w i = P = P =0 (1.19) P βˆ + ci i + wi yi = β + ci i + wi  por (1. lo que prueba el teorema. se minimiza la varianza de βˆ ↔ wi = 0 ∀i = 1. .4 la varianza de βˆ es: (β¯ − β) = P (ci + wi )i elevando al cuadrado y tomando esperanza matem´atica: E[(βˆ − β)2 ] = E[ (ci + wi )i ]2 = (ci + wi )2 E[2 ] P P X E[(βˆ − β)2 ] = σ 2 (ci + wi )2 (1. (1.42) queda como: ˆ = σ 2 (P c2 + P w2 ) = V ar(b) + σ 2 P w2 V ar(β) i i i En esta u on. 1. b − β es lineal en las perturbaciones seg´ un (1.19) y se distribuye normalmente con media cero y varianza dada por (1. ..39) βˆ = b + wi yi introduciendo (1.7. n ´ltima expresi´ pero ello implica que βˆ = b .41) P P Si se cumple que wi = 0 y w i xi = 0 De (1. PRUEBAS DE HIPOTESIS INDIVIDUAL 25 Si el supuesto de linealidad se cumple.

7. n. Predicci´ on para un Valor Individual de y dado x Si se cumple S.45) sb s pP ¯)2 (xi − x Donde: s sb = pP (1.n−2) sb ≤ β ≤ b + t(α/2. yˆn+1 = a + bxn+1 (1.44) n−2 Entonces el estad´ıstico t ser´ıa b−β b−β tb = = ! ∼ tn−2 (1. Intervalo de confianza para los estimadores b − t(α/2. n + 1 se define f como el error de predicci´ on.48) Si yi = a + bxn+1 + ei promediando y¯ = a + b¯ x (1...8.1. REGRESION ´ SIMPLE Entonces la desviaci´ on est´andar de b es: σ b−β σb = pP entonces ∼ N (0.n−2) sb (1.46) ¯ )2 (xi − x 1.1-S-6 para i = 1.47) 1.. .49) .26 CAP´ITULO 1. 1) (xi − ¯)2 x σb Un estimador de σ 2 es: 1 X 2 s2 = ei (1.

8.52) El valor verdadero de yn+1 es: yn+1 = α + βxi + n+1 (1.53) pero yi = α + βxn+1 + i promediando y¯ = α + β x ¯ + ¯ restando (1.54) on f es igual a: f = yn+1 − y¯n+1 .42) y El error de predicci´ (1. PREDICCION 27 Entonces: a = y¯ − b¯ x puesto que e¯i = 0 (1.54) obtenemos: y + β(xn+1 − x f = (¯ ¯) + n+1 − ¯) − (¯ y + b(xn+1 − x ¯)) f = y¯ + β(xn+1 − x ¯) + n+1 − ¯ − y¯ − b(xn+1 − x ¯) Factorizando f = −(b − β)(xn+1 − x ¯) + (n+1 − ¯) (1. introduciendo (1.50) Entonces: a = y¯ − b¯ x (1. ´ PARA UN VALOR INDIVIDUAL DE Y DADO X 1.51) Reemplazando en (1.48) obtenemos: yˆn+1 = y¯ − b¯ x + bxn+1 Reordenando: yˆi = y¯ + b(xn+1 − x ¯) (1.53) yn+1 − y¯ = α + βxn+1 + n+1 − α − β x ¯ − ¯ yn+1 = y¯ + β(xn+1 − x ¯) + n+1 − ¯ (1.55) Tomando esperanza matem´ atica E[f ] = E[−(b − β)(xn+1 − x ¯) + n+1 − ¯] .

58) n ¯)2 i=1 (xi − x .. n . 1que es una funci´on de 1 . Para calcular la varianza del error de predicci´on de la media elevando al cua- drado (1.55) y tomando esperanza matem´atica E[f 2 ] = E[−(b − β)(xn+1 − x ¯) + (n+1 − ¯)]2   E[f 2 ] = E (b − β)2 (xn+1 − x ¯)2 − 2(b − β)(xn+1 − x ¯)(n+1 − ¯) + (n+1 − ¯)2 E[f 2 ] = (xn+1 − x ¯)2 E[(b − β)2 ] − 2(xn+1 − x ¯)E[(b − β)(n+1 − ¯)] + E[(n+1 − )2 ]   E[f 2 ] = (xn+1 − x ¯)2 E (b − β)2 + E [(n+1 − ¯)] Puesto que E [2(b − β)(xn+1 − x ¯)(n+1 − ¯)] es igual a cero por que las i son independientes y n+1 no esta correlacionada con ¯ y b.56) n ¯)2 (xi − x Esta es la f´ ormula para la varianza del error de predicci´on para un valor individual de yi dado xn+1 El intervalo de predicci´on para un valor individual de yi es: (a + bxn+1 − t(α/2.28 CAP´ITULO 1. . a + bxn+1 + t(α/2. Entonces la expresi´on se convierte en:   E[f 2 ] = (xn+1 − x ¯)2 E (b − β)2 + E[2n+1 ] − 2E[n+1 − ¯] + E[¯ 2 ] σ2 σ2 E[f 2 ] = (xn+1 − x ¯)2 P + σ 2 − 2(0) + Factorizando: ¯)2 (xi − x n ¯ )2   2 2 1 (xn+1 − x V ar(f ) = E[f ] = σ 1+ + P (1.57) Donde ¯)2   1 (xn+1 − x s2f = s2 1 + + Pn (1..n−2) sf .. REGRESION ´ SIMPLE E[f ] = −(xn+1 − x ¯)E[b − β] + E[n+1 ] − E[¯ ] E[f ] = 0 puesto que E[b − β] = 0.n−2) sf ) (1. E[n+1 ] = 0 y E[¯ ] = 0 Por lo que es valor esperado de f es cero.

61) Esto significa que el estimador yˆn+1 ] es insesgado.59) a partir de: yˆn+1 = a + bxn+1 (1. Si el inter´es como sucede con frecuencia se centra en pre- decir el valor medio de yn+1 Sea xn+1 . Por estad´ıstica b´ asica.59) Estimamos (1. debido a la aleatoriedad de n+1 que ocurre en el per´ıodo de predicci´ on.9.60) Tomamos el valor esperado de (1. ´ PARA UN VALOR MEDIO DE Y DADO XN +1 1. existe un elemento inherente de incer- tidumbre en predecir yn+1 . PREDICCION 29 1.9. sabemos que si a y b son variables aleatorias. Entonces: E[ˆ yn+1 ] = α + βxn+1 (1. entonces var[a + b] = var[a] + var[b] + 2Cov[a. la verdadera predicci´ on media de E[yn+1 ] esta dada por: E[yn+1 ] = α + βxn+1 (1. Por analog´ıa: var[ˆ yn+1 ] = var[a] + var[b] + 2Cov[a.63) n ¯)2 (xi − x .60) y obtenemos: E[ˆ yn+1 ] = E[a + bxn+1 ] E[ˆ yn+1 ] = E[a] + xn+1 E[b] E[ˆ yn+1 ] = α + βxn+1 puesto que a y b son estimadores insesgados.62) Sabemos que:   2 1 x ¯ var[a] = σ +P (1. b]. b] (1. Predicci´ on para un valor medio de y dado xn+1 A´ un si se conoce α y β con certeza.

b] = E E(b − β)¯ Cov[a.30 CAP´ITULO 1.64) ¯ )2 (xi − x No conocemos la Cov[a. b] = E[(b − β)¯ ¯E[(bβ)2 ] ] − x  P  P i Cov[a. b] = E ci i + productos cruzados i j − x ¯var[b] n 1 P Cov[a. Cov[a. b] = E [(a − E[a])(b − E[b])] f´ormula definicional de covarianza entre dos variables aleatorias. b] = σ 2 ci − x P ¯var[b] pero ci = 0 entonces la expresi´on anterior se n . bxn+1 ] = xn+1 Cov[a. b] = E [(¯ x)(b − β)] desarrollando el producto    − (b − β)2 aplicando el operador esperanza Cov[a. b] = ¯var[b] n 1 P Cov[a.65) ¯ + ¯ adem´as.19) 1 P 2  Cov[a. sabemos que: a = y¯ − b¯ Promediando y¯ = α + β x x introduciendo y¯ de la expresi´ on anterior ¯ + ¯ − b¯ a = α + βx x reordenando t´erminos a = α + ¯ − (b − β)¯ x y as´ı a − α = ¯ − (b − β)¯ x reemplazando esta expresi´on en (1.65)  − (b − β)¯ Cov[a. por el supuesto de la no correlaci´on entre perturba- ciones. REGRESION ´ SIMPLE y σ2 var[b] = P (1. 1 = ci E[2i ] − x P Cov[a. Desarrollamos su c´ alculo a continuaci´on: Cov[a. b] = E[ ci 2i ] − x ¯var[b] puesto que la esperanza matem´atica de los n productos cruzados es cero. b] puesto que xn+1 no es estoc´asti- co. b] = E ( ci i ) −x ¯var[b] aplicando la definici´on de ¯ y la ecuaci´on n (1. b] = E [(a − α)(b − β)] Si yi = α + βxi + i (1.

a + bxn+1 + t(α/2.67) n ¯)2 (xi − x Por lo tanto el intervalo de confianza para E[yn+1 ] dado xn+1 o E[yn+1 /xn+1 ] es: p p a + bxn+1 − t(α/2.68) o tambi´en: s 1 ¯ )2 (xn+1 − x a + bxn+1 − t(α/2.y2) deducimos que:     var[ˆ yn+1 )2 definici´on de varianza. var[ˆ yn+1 − E[ˆ yn+1 ] = E (ˆ yn+1 ] = E (a + bxn+1 − α − βxn+1 )2 factorizando h i 2 yn+1 ] = E ((a − α) + (b − β)) desarrollando el cuadrado var[ˆ yn+1 ] = E[(a − α)2 + 2(a − α)(b − β)xn+1 + (b − β)2 x2n+1 ] var[ˆ yn+1 ] = E[(a − α)2 ] + 2xn+1 E[(a − α)(b − β)] + x2n+1 E[(b − β)2 ] var[ˆ yn+1 ] = var(a) + 2xn+1 Cov[a. ´ PARA UN VALOR MEDIO DE Y DADO XN +1 1. b] = −¯ x var[b] σ2 x ¯ Cov[a. tenemos: ¯2 −σ 2 x σ2       2 1 x ¯ 2 var[ˆ yn+1 ] = σ +P +2xn+1 P +xn+1 P n (xi − x ¯)2 (xi − x ¯)2 (xi − x¯)2 2 2  1 x¯ 2¯ xxn+1 x yn+1 ] = σ 2 var[ˆ +P 2 −P 2 + P n+1 2 n (x i x ¯ ) (x i − x ¯ ) (xi − x ¯) 2 2 −  1 (x n+1 2x n+1 x ¯ + x ¯ ) yn+1 ] = σ 2 var[ˆ + P pero (x2n+1 − 2xn+1 x¯+x ¯2 ) = n ¯ )2 (xi − x ¯)2 o cuadrado de la diferencia.66) ¯)2 (xi − x Si yˆn+1 = a + bxn+1 a partir de (1. b] = − P (1.66) y las dem´as var[ˆ definiciones de varianzas. tenemos: ¯)2   2 1 (xn+1 − x var[ˆ yn+1 ] = s + P (1. es n ¯)2 (xi − x decir s2 .n−2) var[ˆ yn+1 ] (1.n−2) var[ˆ yn+1 ] . PREDICCION 31 convierte en: Cov[a.9. b] + x2n+1 var[b] aplicando (1.69) n ¯)2 (xi − x . por lo tanto: (xn+1 − x ¯ )2   2 1 (xn+1 − x var[ˆ yn+1 ] = σ + P pero si utilizamos el estimador de σ 2 .n−2) s + P (1.

carajo1 Como se puede ver en [?] si se da esta forma.jpg h Figura 1.jpg Me parece que este grafico esta mal centrado./Econometria/cap21.32 CAP´ITULO 1. Ademas.. Cuadro 1. creo que lo corregire./Econometria/cap21.2: Mi segundo gr´afico en LATEX . REGRESION ´ SIMPLE h Figura 1..1: Mi primer gr´afico en LATEX .1: Mi primera tabla en LATEX 2 4 6 5 90 8 Hola 39 45 .