You are on page 1of 4

Tarea 1 Econometría I. Límite de entrega: viernes 1 de marzo de 2019.

Resolver los problemas 2, 9 y 10 del Capítulo 2 del libro de texto (Wooldridge).


Problema 2.
En el modelo de regresión lineal simple se tiene: 𝑦 = 𝐵0 + 𝐵1 𝑥 + 𝑢 Donde 𝐸(𝑢) =∝0 ≠ 0.
Sumando y restando ∝0 : 𝑦 = 𝐵0 +∝0 + 𝐵1 𝑥 + 𝑢 −∝0
Definiendo:
𝐵0′ = 𝐵0 +∝0
𝑢′ = 𝑢 −∝0
𝑦 = 𝐵0′ + 𝐵1 𝑥 + 𝑢′
Entonces el modelo se puede reescribir con la misma pendiente, pero con otro intercepto y otro error, de manera que
el valor esperado de este es cero:
𝐸(𝑢′ ) = 𝐸(𝑢) −∝0 =∝0 −∝0 = 0.
Problema 9.
̂0 y 𝐵̂1 el intercepto y la pendiente en la regresión de 𝑦𝑖 sobre 𝑥𝑖 , usando n observaciones. Sean 𝑐1 y 𝑐2 constantes,
i). Sean 𝐵
𝑐2 ≠ 0. Sean 𝐵̃0 y 𝐵̃1 el intercepto y la pendiente de la regresión de 𝑐1 𝑦𝑖 sobre 𝑐2 𝑥𝑖 .
𝑐1
̃1 =
Muestre que 𝐵 𝐵̂1 y 𝐵̃0 = 𝑐1 𝐵̂0 .
𝑐2

Primero hay que notar que ̅̅̅̅


𝑐1 𝑦 = 𝑐1 𝑦̅ y ̅̅̅̅
𝑐2 𝑥 = 𝑐2 𝑥̅ .
∑𝑛𝑖=1(𝑐2 𝑥𝑖 − 𝑐2 𝑥̅ )(𝑐1 𝑦𝑖 − 𝑐1 𝑦̅) ∑𝑛𝑖=1 𝑐1 𝑐2 (𝑥𝑖 − 𝑥̅ )(𝑦𝑖 − 𝑦̅) 𝑐1 ∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ )(𝑦𝑖 − 𝑦̅) 𝑐1
𝐵̃1 = = = = 𝐵̂1
∑𝑛𝑖=1(𝑐2 𝑥𝑖 − 𝑐2 𝑥̅ )2 ∑𝑛𝑖=1 𝑐22 (𝑥𝑖 − 𝑥̅ )2 𝑐2 ∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ )2 𝑐2
𝑐
𝐵̃0 = 𝑐1 𝑦̅ − 𝐵̃1 𝑐2 𝑥̅ = 𝑐1 𝑦̅ − ( 1 𝐵̂1 ) 𝑐2 𝑥̅ = 𝑐1 (𝑦̅ − 𝐵̂1 𝑥̅ ) = 𝑐1 𝐵̂0 .
𝑐2

ii) Ahora, sean 𝐵̃0 y 𝐵̃1 el intercepto y la pendiente en la regresión de 𝑐1 + 𝑦𝑖 sobre 𝑐2 + 𝑥𝑖 .


̃1 = 𝐵̂1 y 𝐵̃0 = 𝐵̂0 + 𝑐1 − 𝑐2 𝐵̂1 .
Muestre que 𝐵
̂0
Como en el inciso i), 𝐵 y 𝐵̂1 son el intercepto y la pendiente en la regresión de 𝑦𝑖 sobre 𝑥𝑖 .
Hay que notar que ̅̅̅̅̅̅̅̅
𝑐1 + 𝑦 = 𝑐1 + 𝑦̅ y ̅̅̅̅̅̅̅̅
𝑐2 + 𝑥 = 𝑐2 + 𝑥̅ . Por lo tanto, (𝑐1 + 𝑦𝑖 ) − (𝑐1 + 𝑦̅) = 𝑦𝑖 − 𝑦̅ ,
similarmente, (𝑐2 + 𝑥𝑖 ) − (𝑐2 + 𝑥̅ ) = 𝑥𝑖 − 𝑥̅ .
̃1 = 𝐵̂1 .
Por lo tanto, la pendiente de la regresión de 𝑐1 + 𝑦𝑖 sobre 𝑐2 + 𝑥𝑖 no depende de 𝑐1 ni de 𝑐2 ; es decir, 𝐵

𝐵̃0 = 𝑐1 + 𝑦̅ − 𝐵̃1 (𝑐2 + 𝑥̅ ) = 𝑐1 + 𝑦̅ − 𝑐2 𝐵̂1 − 𝐵̂1 𝑥̅ = 𝐵̂0 + 𝑐1 − 𝑐2 𝐵̂1 .


iii). Sean 𝐵̂0 y 𝐵̂1 el intercepto y la pendiente en la regresión de log(𝑦𝑖 ) sobre 𝑥𝑖 . Para 𝑐1 > 0 sean 𝐵̃0 y 𝐵̃1 el intercepto
y la pendiente en la regresión log(𝑐1 𝑦𝑖 ) sobre 𝑥𝑖 . Muestre que 𝐵 ̃1 = 𝐵̂1 y 𝐵̃0 = log(𝑐1 ) + 𝐵̂0 .
Se puede aplicar parte del resultado de ii) porque log(𝑐1 𝑦𝑖 ) = log(𝑐1 ) + log(𝑦𝑖 ). En otras palabras, se puede
reemplazar 𝑐1 con log(𝑐1 ) y establecer que 𝑐2 = 0.

iv). Ahora, sean 𝐵̃0 y 𝐵̃1 el intercepto y la pendiente en la regresión de 𝑦𝑖 sobre log (𝑐2 𝑥𝑖 ). ¿Cuál es la relación de 𝐵̃0 y 𝐵̃1
con el intercepto y la pendiente de la regresión de 𝑦𝑖 sobre log(𝑥𝑖 )?
̂0 y 𝐵̂1 el intercepto y la pendiente en la regresión de 𝑦𝑖 sobre log(𝑥𝑖 ).
Sean 𝐵

Se puede aplicar parte del resultado de ii) porque log (𝑐2 𝑥𝑖 ) = log(𝑐2 ) + log(𝑥𝑖 ), se establece que 𝑐1 = 0 y se
̃1 = 𝐵̂1 y 𝐵̃0 = 𝐵̂0 − log(𝑐2 )𝐵̂1 .
reemplaza 𝑐2 con log(𝑐2 ) . Entonces 𝐵
Problema 10.
̂0 y 𝐵̂1 los estimadores del intercepto y la pendiente de Mínimos Cuadrados Ordinarios respectivamente, sea 𝑢̅ el
Sean 𝐵
promedio de los errores (no confundir con los residuales).
𝑑
̂1 = 𝐵1 + ∑𝑛𝑖=1 𝑤𝑖 𝑢𝑖 . Donde 𝑤𝑖 = 𝑖 y 𝑑𝑖 = 𝑥𝑖 − 𝑥
i). Muestre que 𝐵 ̅.
𝑆𝑆𝑇𝑥

𝑛
∑ (𝑥𝑖 −𝑥̅ )(𝑦𝑖 −𝑦̅) 𝑛
∑𝑖=1(𝑥𝑖 −𝑥̅ )𝒚𝒊 1
𝐵̂1 = 𝑖=1𝑛
∑ (𝑥 −𝑥̅ ) 2 = = ∑𝑛
𝑖=1(𝑥𝑖 − 𝑥̅ )(𝑩𝟎 + 𝑩𝟏 𝒙𝒊 + 𝒖𝒊 ) =
𝑖=1 𝑖 𝑆𝑆𝑇 𝑆𝑆𝑇
𝑥 𝑥
1 1
= [𝐵0 ∑𝒏𝒊=𝟏(𝒙𝒊 − 𝒙
̅) + 𝐵1 ∑𝒏𝒊=𝟏(𝒙𝒊 − 𝒙
̅)𝒙𝒊 + ∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ )𝑢𝑖 ] = [𝐵0 ∙ 𝟎 + 𝐵1 ∙ 𝑺𝑺𝑻𝒙 +
𝑆𝑆𝑇𝑥 𝑆𝑆𝑇𝑥
𝑛
∑𝑖=1(𝑥𝑖 − 𝑥̅ )𝑢𝑖 ] = 𝐵1 + ∑𝑛𝑖=1 𝑤𝑖 𝑢𝑖 .

̂1 , 𝑢̅) = 𝐸[(𝐵̂1 − 𝐸(𝐵̂1 ))(𝑢̅ − 𝐸 (𝑢̅))] = 𝐸[(𝐵̂1 − 𝐵1 )𝑢̅] = 𝐸[(𝐵̂1 − 𝐵1 )𝑢̅] =


ii) 𝑐𝑜𝑣(𝐵
𝑛
∑𝑗=1 𝑢𝑗 1 1
𝐸 [(∑𝑛𝑖=1 𝑤𝑖 𝑢𝑖 ) ] = ∙ 𝐸[∑ ∑𝑖≠𝑗 𝑤𝑖 𝑢𝑖 𝑢𝑗 + ∑𝑛𝑖=1 𝑤𝑖 𝑢𝑖2 ] = ∙ [∑ ∑𝑖≠𝑗 𝑤𝑖 𝑬(𝒖𝒊 𝒖𝒋 ) + ∑𝑛𝑖=1 𝑤𝑖 𝐸(𝑢𝑖2 )] =
𝑛 𝑛 𝑛
1 1
∙ [∑ ∑𝑖≠𝑗 𝑤𝑖 ∙ 𝟎 + 𝝈𝟐 ∑𝒏𝒊=𝟏 𝒘𝒊 ]= ∙ [𝜎 2 ∙ 𝟎] = 0.
𝑛 𝑛

̂0 = 𝐵0 + 𝑢̅ − (𝐵̂1 − 𝐵1 )𝑥̅
iii). Muestre que 𝐵

∑𝑛𝑖=1(𝐵0 + 𝐵1 𝑥𝑖 + 𝑢𝑖 )
𝐵̂0 = 𝑦̅ − 𝐵̂1 𝑥̅ = − 𝐵̂1 𝑥̅ = 𝐵0 + 𝐵1 𝑥̅ + 𝑢̅ − 𝐵̂1 𝑥̅ = 𝐵0 + 𝑢̅ − (𝐵̂1 − 𝐵1 )𝑥̅
𝑛
2 2 2
̂0 ) = 𝜎 + 𝜎 𝑥̅
iv). Utilice ii) y iii) para mostrar que 𝑉𝑎𝑟(𝐵
𝑛 𝑆𝑆𝑇 𝑥

𝑉𝑎𝑟(𝐵̂0 ) = 𝑉𝑎𝑟(𝐵0 + 𝑢̅ − (𝐵
̂1 − 𝐵1 )𝑥̅) = 𝑉𝑎𝑟(𝑢̅ − 𝐵
̂1 𝑥̅) = 𝑽𝒂𝒓(𝒖 ̂ 𝟏 )𝑥̅2 − 2𝑥̅ ∙
̅) + 𝑽𝒂𝒓(𝑩
𝝈𝟐 𝝈𝟐 𝑥̅ 2 𝜎2 ̅2
𝜎2 𝑥
𝑪𝒐𝒗(𝒖 ̂𝟏) =
̅, 𝑩 + − 2𝑥̅ ∙ 𝟎 = 𝑛 + 𝑆𝑆𝑇
𝒏 𝑺𝑺𝑻𝒙 𝑥

v). Para obtener la ecuación 2.58 del libro de Wooldridge:


𝑆𝑆𝑇𝑥 = ∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ )2 = ∑𝑛𝑖=1 𝑥𝑖2 − 𝑛𝑥̅ 2 ; 𝑆𝑆𝑇𝑥 + 𝑛𝑥̅ 2 = ∑𝑛𝑖=1 𝑥𝑖2 .
Entonces:
2 ∑𝒏 𝟐
𝜎 2 𝜎 2 𝑥̅ 2 1 𝑥̅ 2
𝑺𝑺𝑻 𝒙 + 𝒏𝒙̅ 𝟐
𝜎 𝒊=𝟏 𝒙 𝒊
𝑉𝑎𝑟(𝐵̂0 ) = + = 𝜎2 [ + ] = 𝜎2 [ ]= ∙
𝑛 𝑆𝑆𝑇𝑥 𝑛 𝑆𝑆𝑇𝑥 𝑛 ∙ 𝑆𝑆𝑇𝑥 𝑛 𝑆𝑆𝑇𝑥

II. Resolver los “Ejercicios de computadora” C8 y C10 del Capítulo 2 del libro de texto.
Se anexan los archivos de R.

You might also like