You are on page 1of 21

Las hipótesis de Gauss-Markov

Las hipótesis de Gauss-Markov
1. 2. 3. 4. 5. Número de individuos y de variables No colinealidad Media nula de los errores Homocedasticidad No correlación entre los errores

Lema previo

Las matrices X, X’ y X’X tienen el mismo rango

1. Número de individuos y de variables
• El número de individuos (n) es mayor que el número de variables explicativas (k).

n>k
• Si esta condición no se cumple, el rango de la matriz X' X no será k + 1 y no tendrá inversa.

2. No colinealidad
• Las variables explicativas no son linealmente dependientes:

– El rango de la matriz X es k + 1. – El rango de la matriz X' X es k + 1. No es singular –su determinante no es nulo y, en consecuencia, tendrá inversa.

rango( X' X ) = k + 1

Modelo de regresión
Conocido No aleatorio Desconocido No aleatorio

Y = Xβ + ε
Conocido Aleatorio Desconocido Aleatorio

Modelo de regresión
Es constante

Y = Xβ + ε
Son variables aleatorias

3. Media nula de los errores
• Cada término de error (ε i ) es una variable aleatoria. • La media –valor esperado- de cada término de error es nula:

E ( ε i ) = 0 siendo 1 ≤ i ≤ n

E( ε) = 0

¡Es un vector!

4. Homocedasticidad
• Todos los términos de error tienen la misma varianza.

Var ( ε i ) = σ

2

siendo 1 ≤ i ≤ n

4. Homocedasticidad (II)
• Cada observación de la variable dependiente ( yi ) es una variable aleatoria -función de ε i -. • La varianza de cada observación de la variable dependiente (la varianza condicionada) y la varianza del correspondiente término de error son iguales:
Var ( yi ) = Var (α + β1 xi1 + ... + β k xik + ε i ) = Var ( ε i ) = σ 2 siendo 1 ≤ i ≤ n

Var ( yi ) = σ

2 Y/X1 ,..., X k

2

siendo 1 ≤ i ≤ n

Varianza condicionada de la distribución de la variable dependiente

5. No correlación entre los errores
• Los términos de error son variables aleatorias. Estas variables aleatorias son independientes. La covarianza entre cualesquiera dos de ellas es nula:

Cov (ε i , ε j ) = 0 1 ≤ i,j ≤ n ; siendo i ≠ j

5. No correlación entre los errores(II)
Cov( ε1 , ε 2 )  Var ( ε1 )  Var ( ε 2 )  Cov ( ε1 , ε 2 ) Cov ( ε ) = E ( εε') =  ... ...   Cov ( ε , ε ) Cov ( ε , ε ) 1 n 2 n  ... Cov ( ε1 , ε n )   ... Cov ( ε 2 , ε n )   ... ...  ... Var ( ε n )  

• Las hipótesis cuarta y quinta las podemos expresar así:
σ 2 0   0 σ2 E ( εε') =   ... ...  0 0  0  ... 0  2  =σ I ... ...  ... σ 2   ...

Consecuencias de las hipótesis de GaussMarkov
• La esperanza matemática (condicionada) de la variable dependiente es:
E ( Y ) = E ( Xβ + ε ) = Xβ

• La matriz de covarianzas (condicionada) de la variable dependiente es:
Cov( Y ) = Cov( Xβ + ε ) = Cov( ε ) = E ( εε') = σ 2 I

Consecuencias de las hipótesis de GaussMarkov (II)
• La esperanza matemática del estimador es:
( X' Y ) ] = ( X' X ) −1 X' E ( Y ) = ( X' X ) −1 X' Xβ = β
E ( B ) = E ( X' X )
−1

[

E( B) = β
Estimador insesgado

• La matriz de covarianzas del estimador es:
Cov( B ) = Cov ( X' X )

( X' Y ) ] = ( X' X ) −1 X' Cov( Y ) X( X' X ) −1 = σ 2 ( X' X ) −1
−1

[

Cov ( B ) = σ ( X' X )
2

−1

Teorema de Gauss-Markov
• Si se cumplen las hipótesis de G-M, entonces el estimador B obtenido por el método de los mínimos cuadrados es el estimador óptimo. • Se dice entonces que B es un estimador BLUE:
– – – – Best Linear Unbiased Estimator Mejor estimador lineal e insesgado
B = ( X' X ) X' Y
−1

Error estándar de la estimación
• La varianza común de los términos de error 2 (σ ) es desconocida. Para estimar dicha varianza emplearemos la siguiente expresíón:
ˆ σ =s =
2 2

∑( y
i =1

n

i

ˆ − yi )

2

n − k −1

e' e = n − k −1

Error estándar de la estimación (II)
ˆ σ =s =
2 2

∑( y
i =1

n

i

ˆ − yi )

2

n − k −1
2

e' e = n − k −1

s=

∑( y
i =1

n

i

ˆ − yi )

n − k −1

e' e = n − k −1

• El error estándar de la estimación es una medida de la calidad del ajuste. • Cuanto menor sea el error mejor es la calidad del ajuste.

Error estándar de la estimación (III)

s=

∑( y
i =1

n

i

ˆ − yi )

2

n − k −1

e' e = n − k −1

Estimación de la matriz de covarianzas del estimador
• Hemos obtenido que Cov( B ) = σ 2 ( X' X ) −1 pero como no conocemos la varianza de los errores utilizaremos su estimación:
 s2 ( a)  2  s ( a, b1 ) =  ...  s 2 ( a, b ) k  s 2 ( a, b1 ) s 2 ( b1 ) ... s 2 ( b1 , bk ) ... s 2 ( a, bk )   2 ... s ( b1 , bk )  ... ...   2 ... s ( bk )  

S = s 2 ( X' X )

−1

Estimación de la matriz de covarianzas del estimador(II)
• A las raíces cuadradas de los elementos de la diagonal principal de la matriz S los llamaremos errores estándar de los coeficientes. • El error estándar de un coeficiente es una medida de la variabilidad de ese  s ( a) s ( a, b ) ... s ( a, b )  coeficiente.  
2 2 2

S = s 2 ( X' X )

−1

 s ( a, b1 ) =  ...  s 2 ( a, b ) k 
2

s ( b1 ) ... s ( b1 , bk )  ... ... ...   2 2 s ( b1 , bk ) ... s ( bk )  
2 2

1

k

Ejercicio
• En el ejemplo de ilustración (alquileres):
– Calcular el error estándar de la estimación. – Calcular los errores estándar de los coeficientes.