You are on page 1of 23

ECONOMETRÍA EMPRESARIAL

Gianluca Virgilio

gvirgilio@ucss.edu.pe

1
Método de mínimos cuadrados ordinarios (MCO)

El método de mínimos cuadrados ordinarios se atribuye a Carl Friedrich Gauss, matemático


alemán. A partir de ciertos supuestos el método de mínimos cuadrados presenta
propiedades estadísticas muy atractivas que lo han convertido en uno de los más
eficaces y populares del análisis de regresión. Recuerde la FRP de dos variables:

Yi = β1 + β2Xi + ui

Sin embargo, como mencionamos en el capítulo 2, la FRP no es observable directamente.


Se
calcula a partir de la FRM:

෡i es el valor estimado (media condicional) de Yi.


donde 𝑌

2
Pero, ¿cómo se determina la FRM? Para hacerlo, se procede de la siguiente forma.
Primero, se expresa la ecuación como: 𝑢ො 𝑖 = 𝑌𝑖 − 𝑌෠𝑖 = 𝑌𝑖 − 𝛽መ1 − 𝛽መ2 𝑋𝑖

3
que muestra que los 𝑢ො i (los residuos) son simplemente las diferencias entre los valores
observados y los estimados de Y.

4
Ahora, dados n pares de observaciones de Y y X, nos interesa determinar la FRM de manera
que quede lo más cerca posible de la Y observada. Con este fi n, se adopta el siguiente
criterio: seleccionar la FRM de modo que la suma de los residuos

2 2
෍ 𝑢ො 𝑖2 = ෍ 𝑌𝑖 − 𝑌෠𝑖 = ෍ 𝑌𝑖 − 𝛽መ1 − 𝛽መ2 𝑋𝑖

sea la menor posible. (¿Por qué minimizamos el cuadrado de los residuos?)

5
𝑌𝑖 = 𝛽መ1 + 𝛽መ2 𝑋𝑖 + 𝑢ො 𝑖 𝑢ො 𝑖 = 𝑌𝑖 − 𝛽መ1 − 𝛽መ2 𝑋𝑖

𝜕 σ 𝑢ො 𝑖2 𝜕 σ 𝑢ො 𝑖2
= −2 ෍ 𝑌𝑖 − 𝛽መ1 − 𝛽መ2 𝑋𝑖 = −2 ෍ 𝑢ො 𝑖 = −2 ෍ 𝑌𝑖 − 𝛽መ1 − 𝛽መ2 𝑋𝑖 𝑋𝑖 = −2 ෍ 𝑢ො 𝑖 𝑋𝑖
𝜕𝛽መ1 ; 𝜕𝛽መ2

σ 𝑢ො 𝑖 = σ 𝑌𝑖 − 𝛽መ1 − 𝛽መ2 𝑋𝑖 =0 (¿Por qué?) σ 𝑌𝑖 = σ 𝛽መ1 + 𝛽መ2 𝑋𝑖 = n𝛽መ1 + 𝛽መ2 σ 𝑋𝑖

σ 𝑢ො 𝑖 𝑋𝑖 = σ 𝑌𝑖 − 𝛽መ1 − 𝛽መ2 𝑋𝑖 𝑋𝑖 =0 σ 𝑌𝑖 𝑋𝑖 = σ 𝛽መ1 𝑋𝑖 + 𝛽መ2 𝑋𝑖 2 =𝛽መ1 σ 𝑋𝑖 + 𝛽መ2 σ 𝑋𝑖 2

σ 𝑌𝑖 − 𝛽መ2 σ 𝑋𝑖
σ 𝑌𝑖 = n𝛽መ1 + 𝛽መ2 σ 𝑋𝑖 n𝛽መ1 = σ 𝑌𝑖 − 𝛽መ2 σ 𝑋𝑖 𝛽መ1 =
𝑛
σ 𝑌𝑖 𝑋𝑖 − 𝛽መ2 σ 𝑋𝑖 2
σ 𝑌𝑖 𝑋𝑖 = 𝛽መ1 σ 𝑋𝑖 + 𝛽መ2 σ 𝑋𝑖 2 𝛽መ1 σ 𝑋𝑖 = σ 𝑌𝑖 𝑋𝑖 − 𝛽መ2 σ 𝑋𝑖 2 𝛽መ1 =
σ 𝑋𝑖

σ 𝑌𝑖 − 𝛽መ2 σ 𝑋𝑖 σ 𝑌𝑖 𝑋𝑖 − 𝛽መ2 σ 𝑋𝑖 2 σ 𝑌𝑖 σ 𝑋𝑖 − 𝛽መ2 σ 𝑋𝑖 2 = 𝑛 σ 𝑌𝑖 𝑋𝑖 − 𝑛𝛽መ2 σ 𝑋𝑖2


=
𝑛 σ 𝑋𝑖

6
𝑛𝛽መ2 σ 𝑋𝑖2 − 𝛽መ2 σ 𝑋𝑖 2
= 𝑛 σ 𝑌𝑖 𝑋𝑖 − σ 𝑌𝑖 σ 𝑋𝑖 ; 𝛽መ2 [𝑛 σ 𝑋𝑖2 − σ 𝑋𝑖 2 ] = 𝑛 σ 𝑌𝑖 𝑋𝑖 − σ 𝑌𝑖 σ 𝑋𝑖

𝑛 σ 𝑋𝑖 𝑌𝑖 − σ 𝑋𝑖 σ 𝑌𝑖 σ 𝑋𝑖 𝑌𝑖 − 𝑛𝑋ത 𝑌ത σ 𝑋𝑖 𝑌𝑖 − 𝑛𝑋ത 𝑌ത + 𝑛𝑋ത 𝑌ത − 𝑛𝑋ത 𝑌ത


𝛽መ2 = = = =
𝑛 σ 𝑋𝑖2 − σ 𝑋𝑖 2 σ 𝑋𝑖2 − 𝑛𝑋ത 2 σ 𝑋𝑖2 − 𝑛𝑋ത 2 + 𝑛𝑋ത 2 − 𝑛𝑋ത 2

σ 𝑋𝑖 𝑌𝑖 − 𝑋ത σ 𝑌𝑖 − 𝑌ത σ 𝑋𝑖 + 𝑛𝑋ത 𝑌ത ത 𝑖 − 𝑋𝑖 𝑌ത + 𝑋ത 𝑌ത
σ 𝑋𝑖 𝑌𝑖 − 𝑋𝑌 σ 𝑋𝑖 − 𝑋ത 𝑌𝑖 − 𝑌ത
= = =
σ 𝑋𝑖2 + 𝑛𝑋ത 2 − 2𝑛𝑋ത 2 σ 𝑋𝑖2 + 𝑋ത 2 − 2𝑋𝑋 ത 𝑖 σ 𝑋𝑖 − 𝑋ത 2

σ 𝑌𝑖 𝑛𝛽መ1 𝛽መ2 σ 𝑋𝑖
σ 𝑌𝑖 = 𝑛 𝛽መ1 + 𝛽መ2 σ 𝑋𝑖 = + 𝑌ത = 𝛽መ1 + 𝛽መ2 𝑋ത 𝛽መ1 = 𝑌ത − 𝛽መ2 𝑋ത
𝑛 𝑛 𝑛

7
Fundamentos del método de mínimos cuadrados

SUPUESTO 1: Modelo de regresión lineal: El modelo de


regresión es lineal en los parámetros, aunque puede o
no ser lineal en las variables.

SUPUESTO 2: Valores fijos de X, o valores de X


independientes del término de error: Los valores que
toma la regresora X pueden considerarse fijos en
muestras repetidas (el caso de la regresora fija), o haber
sido muestreados junto con la variable dependiente Y (el
caso de la regresora estocástica). En el segundo caso
se supone que la(s) variable(s) X y el término de error
son independientes, esto es, cov(Xi, ui ) = 0.

SUPUESTO 3: El valor medio de la perturbación ui es


igual a cero: Dado el valor de Xi, la media o el valor
esperado del término de perturbación aleatoria u i es
cero. Simbólicamente, tenemos que E(ui|Xi) = 0; o, si X
no es estocástica, E(ui ) = 0.

8
SUPUESTO 4: Homoscedasticidad o varianza constante de ui. La varianza del término de error, o
de perturbación, es la misma sin importar el valor de X. Simbólicamente, tenemos que
var (ui) = E[ui - E(ui | Xi)]2 = E(ui2 | X i), por el supuesto 3
= E(ui2), si Xi son variables no estocásticas
= σ2 (varianza del término de error)
donde var significa varianza.

Homoscedasticidad Heteroscedasticidad

9
SUPUESTO 5: No hay autocorrelación entre las perturbaciones: Dados dos valores
cualesquiera de X, Xi y Xj (i ≠ j ), la correlación entre dos ui y uj cualesquiera (i ≠ j ) es cero.
En pocas palabras, estas observaciones se muestrean de manera independiente.
Simbólicamente,
cov(ui, uj | Xi, X j) = 0
cov(ui, uj) = 0, si X no es estocástica
donde i y j son dos observaciones diferentes y cov significa covarianza.

SUPUESTO 6: El número de observaciones n debe ser mayor que el número de


parámetros por estimar: Sucesivamente, el número de observaciones n debe ser mayor
que el número de variables explicativas.

SUPUESTO 7: La naturaleza de las variables X: No todos los valores X en una muestra


determinada deben ser iguales. Técnicamente, var(X) debe ser un número positivo.
Además, no puede haber valores atípicos de la variable X, es decir, valores muy grandes
en relación con el resto de las observaciones.

10
Advertencia sobre estos supuestos

La pregunta es: ¿son realistas todos estos supuestos? La “realidad de los supuestos”
se cuestiona desde hace muchos años en la filosofía de las ciencias.
Algunos argumentan que no importa si los supuestos son realistas, sino las
predicciones basadas en esos supuestos.
Entre quienes apoyan la “tesis de la irrelevancia de los supuestos” sobresale Milton
Friedman. Para él, la irrealidad de los supuestos es una ventaja positiva: “para que una
hipótesis sea importante... debe ser descriptivamente falsa en sus supuestos”.

Es posible coincidir o no completamente con este punto de vista, pero recuerde que en
cualquier estudio científico se plantean ciertos supuestos porque facilitan el desarrollo
de la materia en pasos graduales, no porque sean necesariamente realistas en el
sentido de que reproduzcan la realidad exactamente.

Como señala un autor, “... si la simplicidad es un criterio deseable de una buena teoría,
todas las buenas teorías idealizan y simplifican de manera exagerada”.

11
Precisión de las estimaciones de MCO
Es evidente que las estimaciones de mínimos cuadrados son función de los datos
muestrales. Pero, como es probable que los datos cambien entre una muestra
y otra, los valores estimados cambiarán ipso facto.
Por consiguiente, se requiere alguna medida de “confiabilidad” o precisión de los
estimadores 𝛽መ1 y 𝛽መ2 . En estadística, la precisión de un valor estimado se mide por su error
estándar (ee o stderr).

donde var = varianza, ee = error estándar y σ2 es la varianza homoscedástica de ui.


El error estándar no es otra cosa que la desviación estándar de la distribución muestral
del estimador, y la distribución muestral de un estimador es tan sólo una probabilidad o
distribución de frecuencias del estimador.

12
Todas las cantidades que entran en las anteriores ecuaciones, excepto σ2, pueden
estimarse a partir de los datos.
Como se puede mostrar, la misma σ2 se estima mediante la fórmula:

donde 𝜎ො 2 es el estimador de MCO de la verdadera pero desconocida σ2, y donde la


expression n-2 es conocida como el número de grados de libertad (gl), con 𝑢ො 𝑖2 como la
suma de cuadrados de los residuos (SCR).

Por cierto, note que la raíz cuadrada positiva de 𝜎ො 2 se conoce como el error estándar de
estimación o el error estándar de la regresión (ee). No es más que la desviación estándar
de los valores Y alrededor de la línea de regresión estimada, la cual suele servir como
medida para resumir la “bondad del ajuste” de dicha línea

σ 𝑢ො 𝑖2
𝜎ො =
𝑛−2

13
El término número de grados de libertad significa el número total de observaciones en
la muestra (= n) menos el número de restricciones (lineales) independientes o de
restricciones que se les impusieron.

En otras palabras, es la cantidad de observaciones independientes de un total de n


observaciones. Por ejemplo, para calcular la SCR, es necesario obtener antes 𝛽መ1 y 𝛽መ2 .

Por consiguiente, estas dos estimaciones imponen dos restricciones a la SCR.


Son, entonces, n-2 las observaciones independientes, y no n, para calcular la SCR.

Según esta lógica, en la regresión con tres variables SCR tendrá n-3 gl, y para el
modelo de k variables tendrá n-k gl.

La regla general es la siguiente: gl = (n - número de parámetros estimados).

14
Teorema de Gauss-Markov
Las estimaciones de mínimos cuadrados poseen algunas propiedades ideales u
óptimas, las cuales están contenidas en el famoso teorema de Gauss-Markov.
Para entender este teorema necesitamos considerar la propiedad del mejor estimador
lineal insesgado.
Se dice que un estimador, por ejemplo, el estimador de MCO β෠ 2 , es el Mejor
Estimador Lineal Insesgado (MELI, or BLUE) de β2 si se cumple lo siguiente:

1. Es lineal, es decir, función lineal de una variable aleatoria, como la variable


dependiente Y en el modelo de regresión.
2. Es insesgado, es decir, su valor promedio o esperado, E(β෠ 2 ), es igual al valor
verdadero, β2.
3. Tiene varianza mínima (es el mejor) dentro de la clase de todos los estimadores
lineales insesgados.

Teorema de Gauss-Markov
Dados los supuestos del modelo clásico de regresión lineal, los estimadores de
mínimos cuadrados, dentro de la clase de estimadores lineales insesgados, tienen
varianza mínima, es decir, son MELI.

15
Coeficiente de determinación r2
Hasta el momento, nuestro análisis se centró en el problema de estimar los coeficientes
de regresión, sus errores estándar y algunas de sus propiedades.
Veremos ahora la bondad del ajuste de la línea de regresión a un conjunto de datos; es
decir, veremos cuán “bien” se ajusta la línea de regresión a los datos.

El círculo Y representa la variación en la variable dependiente Y, y el círculo X, la variación


en la variable explicativa X. La intersección de los dos círculos (el área sombreada) indica la
medida en la cual la variación en Y se explica por la variación en X. Entre mayor sea la
medida de la intersección, mayor será la variación en Y que se explica por X.

16
Se puede demonstrar que:

෍ 𝑦𝑖2 = ෍ 𝑦ො𝑖2 + ෍ 𝑢ො 𝑖2

Las diversas sumas de cuadrados se describen de la siguiente manera:


𝑦𝑖2 = 𝑌𝑖 − 𝑌ത 2 variación total de los valores reales de Y respecto de su media muestral, que
puede denominarse la suma de cuadrados total (SCT).
2
𝑦ො𝑖2 = 𝑌෠𝑖 − 𝑌ത variación de los valores de Y estimados alrededor de su media, que
apropiadamente puede llamarse la suma de cuadrados debida a la regresión [es decir, debida a
la(s) variable(s) explicativa(s)], o explicada por ésta, o simplemente la suma de cuadrados
explicada (SCE).
𝑢ො 𝑖2 variación residual o no explicada de los valores de Y alrededor de la línea de
regresión, o sólo la suma de cuadrados de los residuos (SCR).

SCT = SCE + SCR

17
SCT = SCE + SCR
al dividir esta ecuación entre la SCT en
ambos lados, se obtiene:

𝑆𝐶𝐸 𝑆𝐶𝑅
1= +
𝑆𝐶𝑇 𝑆𝐶𝑇
Ahora, definimos r2 como:

𝑆𝐶𝐸 𝑆𝐶𝑅
𝑟2 = =1 −
𝑆𝐶𝑇 𝑆𝐶𝑇

La cantidad r2 así definida se conoce como coeficiente de determinación (muestral), y es


la medida más común de la bondad del ajuste de una línea de regresión.
Verbalmente, r2 mide la proporción o el porcentaje de la variación total en Y explicada por
el modelo de regresión.

18
Pueden observarse dos propiedades de r2:

1. Es una cantidad no negativa. (¿Por qué?)

2. Sus límites son 0 ≤ r2 ≤ 1.

෡𝑖 = Yi por cada i.
Un r2 de 1 significa un ajuste perfecto, es decir, Y
Por otra parte, un r2 de cero significa que no hay relación alguna entre la variable
regresada y la variable regresora (es decir, β෠ 2 = 0).

El coeficiente de determinación muestral r2 se puede escribir como:

σ 𝑥𝑖 𝑦𝑖 2
𝑟2 = σ 𝑥𝑖2 σ 𝑦𝑖2

expresión fácil de calcular.

19
Con la definición de r2, SCE y SCR, explicadas antes, se expresan de la siguiente forma:

𝑆𝐶𝐸 = 𝑟 2 ∙ 𝑆𝐶𝑇 = 𝑟 2 ෍ 𝑦𝑖2

𝑆𝐶𝐸
𝑆𝐶𝑅 = 𝑆𝐶𝑇 − 𝑆𝐶𝐸 = 𝑆𝐶𝑇 1 − = ෍ 𝑦𝑖2 (1 − 𝑟 2 )
𝑆𝐶𝑇

Por consiguiente, escribimos

SCT = SCE + SCR

σ 𝑦𝑖2 = 𝑟 2 σ 𝑦𝑖2 + (1 − 𝑟 2 ) σ 𝑦𝑖2

20
21
EJEMPLO NUMÉRICO

Salario promedio por hora (Y) y los años de escolaridad (X)

22
EJERCICIO
Gasto en Gasto en Gasto en
Observación Gasto total Observación Gasto total Observación Gasto total
comida comida comida
1 217 382 19 410 610 37 500 695
2 196 388 20 383 616 38 450 720
3 303 391 21 315 618 39 415 721
4 270 415 22 267 623 40 540 730
5 325 456 23 420 627 41 360 731
6 260 460 24 300 630 42 450 733
7 300 472 25 410 635 43 395 745
8 325 478 26 220 640 44 430 751
9 336 494 27 403 648 45 332 752
10 345 516 28 350 650 46 397 752
11 325 525 29 390 655 47 446 769
12 362 554 30 385 662 48 480 773
13 315 575 31 470 663 49 352 773
14 355 579 32 322 677 50 410 775
15 325 585 33 540 680 51 380 785
16 370 586 34 433 690 52 610 788
17 390 590 35 295 695 53 530 790
18 420 608 36 340 695 54 360 795

23

You might also like