Modelos Lineales.

Grado en Estad´ıstica
Curso 2011/2012. Prof. Dr. Francisco de As´ıs Torres Ruiz

Tema 3: El modelo de regresi´
on lineal simple.
Estimaci´
on por m´
axima verosimilitud


agina www


agina inicial

Contenido

JJ

II

J

I


agina 1 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

Modelos Lineales. Grado en Estad´ıstica
Curso 2011/2012. Prof. Dr. Francisco de As´ıs Torres Ruiz

Tema 3: El modelo de regresi´
on lineal simple.
Estimaci´
on por m´
axima verosimilitud
´Indice
1. Introducci´
on

2

agina www

2. Estimaci´
on del modelo por m´
axima verosimilitud

3

3. Distribuci´
on de los estimadores
3.1. Distribuci´on de[
β1 . . . . . . . . . . . . . .
3.2. Distribuci´on de[
β0 . . . . . . . . . . . . . .
3.3. Distribuci´on de[
σ2 . . . . . . . . . . . . .
3.4. Distribuci´on de las variabilidades explicada

6
6
6
7
7

. . .
. . .
. . .
y no

. . . . . .
. . . . . .
. . . . . .
explicada.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.


agina inicial

Contenido

JJ

II

J

I


agina 1 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

1.

Introducci´
on


agina www


agina inicial

Contenido

JJ

II

J

I


agina 2 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

1.

Introducci´
on

Hasta el momento hemos trabajado con el modelo de regresi´on lineal simple sin haber establecido
ning´
un supuesto sobre la distribuci´on de las perturbaciones aleatorias i , i = 1, . . . , N . De hecho no ha
sido necesario emplear dichas distribuciones para la estimaci´on ya que el m´etodo de m´ınimos cuadrados,
as´ı como las primeras conclusiones que se han obtenido, no requieren nada al respecto.


agina www


agina inicial

Contenido

JJ

II

J

I


agina 2 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

Introducci´ on Hasta el momento hemos trabajado con el modelo de regresi´on lineal simple sin haber establecido ning´ un supuesto sobre la distribuci´on de las perturbaciones aleatorias i .1. as´ı como las primeras conclusiones que se han obtenido. . con posterioridad vamos a tratar el tema de contrastes de hip´otesis sobre el modelo para lo cual es imprescindible el conocimiento de las distribuciones de los estimadores obtenidos. no requieren nada al respecto. Sin embargo. Se hace pues necesario la introducci´on de una hip´otesis adicional en la cual se recoja la base de las distribuciones que se emplear´an. De hecho no ha sido necesario emplear dichas distribuciones para la estimaci´on ya que el m´etodo de m´ınimos cuadrados. . P´ agina www P´ agina inicial Contenido JJ II J I P´ agina 2 de 7 Regresar Pantalla completa Cerrar Abandonar . . i = 1. . N .

Introducci´ on Hasta el momento hemos trabajado con el modelo de regresi´on lineal simple sin haber establecido ning´ un supuesto sobre la distribuci´on de las perturbaciones aleatorias i . Sin embargo. Se hace pues necesario la introducci´on de una hip´otesis adicional en la cual se recoja la base de las distribuciones que se emplear´an. no requieren nada al respecto. De hecho no ha sido necesario emplear dichas distribuciones para la estimaci´on ya que el m´etodo de m´ınimos cuadrados. N . as´ı como las primeras conclusiones que se han obtenido. con posterioridad vamos a tratar el tema de contrastes de hip´otesis sobre el modelo para lo cual es imprescindible el conocimiento de las distribuciones de los estimadores obtenidos. .1. . . es decir P´ agina www P´ agina inicial Contenido JJ II J I P´ agina 2 de 7 Regresar Pantalla completa Cerrar Abandonar . As´ı la hip´otesis que se plantea es la de que las perturbaciones aleatorias son independientes y est´an id´enticamente distribuidas atendiendo a una normal de media cero y varianza σ 2 . . i = 1.

i = 1. . N . . as´ı como las primeras conclusiones que se han obtenido. Sin embargo. Introducci´ on Hasta el momento hemos trabajado con el modelo de regresi´on lineal simple sin haber establecido ning´ un supuesto sobre la distribuci´on de las perturbaciones aleatorias i . Se hace pues necesario la introducci´on de una hip´otesis adicional en la cual se recoja la base de las distribuciones que se emplear´an. De hecho no ha sido necesario emplear dichas distribuciones para la estimaci´on ya que el m´etodo de m´ınimos cuadrados. . i = 1. As´ı la hip´otesis que se plantea es la de que las perturbaciones aleatorias son independientes y est´an id´enticamente distribuidas atendiendo a una normal de media cero y varianza σ 2 .1. . es decir i . no requieren nada al respecto. σ 2 ] . con posterioridad vamos a tratar el tema de contrastes de hip´otesis sobre el modelo para lo cual es imprescindible el conocimiento de las distribuciones de los estimadores obtenidos. . . . N P´ agina www P´ agina inicial Contenido JJ II J I P´ agina 2 de 7 Regresar Pantalla completa Cerrar Abandonar . N1 [0. .

σ 2 ] . N P´ agina www P´ agina inicial o. equivalentemente. . i = 1. Se hace pues necesario la introducci´on de una hip´otesis adicional en la cual se recoja la base de las distribuciones que se emplear´an. . . para cada xi . De hecho no ha sido necesario emplear dichas distribuciones para la estimaci´on ya que el m´etodo de m´ınimos cuadrados. as´ı como las primeras conclusiones que se han obtenido. es decir i . . de forma normal yi . . .1. i = 1. . . σ 2 ] . N. N1 [0. N . . las variables yi son independientes y est´an distribuidas. Sin embargo. . . . N1 [β0 + β1 xi . no requieren nada al respecto. i = 1. As´ı la hip´otesis que se plantea es la de que las perturbaciones aleatorias son independientes y est´an id´enticamente distribuidas atendiendo a una normal de media cero y varianza σ 2 . con posterioridad vamos a tratar el tema de contrastes de hip´otesis sobre el modelo para lo cual es imprescindible el conocimiento de las distribuciones de los estimadores obtenidos. Introducci´ on Hasta el momento hemos trabajado con el modelo de regresi´on lineal simple sin haber establecido ning´ un supuesto sobre la distribuci´on de las perturbaciones aleatorias i . Contenido JJ II J I P´ agina 2 de 7 Regresar Pantalla completa Cerrar Abandonar .

As´ı la hip´otesis que se plantea es la de que las perturbaciones aleatorias son independientes y est´an id´enticamente distribuidas atendiendo a una normal de media cero y varianza σ 2 . . as´ı como las primeras conclusiones que se han obtenido. Sin embargo. i = 1. con posterioridad vamos a tratar el tema de contrastes de hip´otesis sobre el modelo para lo cual es imprescindible el conocimiento de las distribuciones de los estimadores obtenidos. Esta hip´otesis ha de ser verificada siempre en el an´alisis de un modelo de regresi´on lineal. Introducci´ on Hasta el momento hemos trabajado con el modelo de regresi´on lineal simple sin haber establecido ning´ un supuesto sobre la distribuci´on de las perturbaciones aleatorias i . N1 [β0 + β1 xi . equivalentemente. Se hace pues necesario la introducci´on de una hip´otesis adicional en la cual se recoja la base de las distribuciones que se emplear´an. . i = 1. N1 [0. las variables yi son independientes y est´an distribuidas. es decir i . N . . para cada xi .1. . . . Contenido JJ II J I P´ agina 2 de 7 Regresar Pantalla completa Cerrar Abandonar . ya que supedita gran parte del tratamiento que con posterioridad se va a realizar. . N P´ agina www P´ agina inicial o. de forma normal yi . N. σ 2 ] . . . De hecho no ha sido necesario emplear dichas distribuciones para la estimaci´on ya que el m´etodo de m´ınimos cuadrados. . . σ 2 ] . i = 1. no requieren nada al respecto. .

P´ agina www P´ agina inicial Contenido JJ II J I P´ agina 3 de 7 Regresar Pantalla completa Cerrar Abandonar . . yN }. . la hip´otesis de normalidad sobre los t´erminos de error conlleva el hecho de que las variables yi sean normales e independientes. .2. por lo que es inmediato construir la funci´on de verosimilitud asociada a la muestra {y1 . . Estimaci´ on del modelo por m´ axima verosimilitud Como ya se ha comentado anteriormente.

. σ 2 ) = (2πσ 2 ) −N 2 N 1 X exp − 2 [yi − β0 − β1 xi ]2 2σ i=1 ! . . por lo que es inmediato construir la funci´on de verosimilitud asociada a la muestra {y1 . .2. yN }. . . . . yN . . β1 . Estimaci´ on del modelo por m´ axima verosimilitud Como ya se ha comentado anteriormente. la hip´otesis de normalidad sobre los t´erminos de error conlleva el hecho de que las variables yi sean normales e independientes. P´ agina www P´ agina inicial Contenido JJ II J I P´ agina 3 de 7 Regresar Pantalla completa Cerrar Abandonar . L(y1 . β0 .

Nuestra idea es obtener los estimadores m´aximo-veros´ımiles para los par´ametros β0 . L(y1 . .2. . . β1 . yN . . . Estimaci´ on del modelo por m´ axima verosimilitud Como ya se ha comentado anteriormente. βe1 y σ e2 tales que P´ agina www P´ agina inicial Contenido JJ II J I P´ agina 3 de 7 Regresar Pantalla completa Cerrar Abandonar . β1 y σ 2 . . la hip´otesis de normalidad sobre los t´erminos de error conlleva el hecho de que las variables yi sean normales e independientes. σ 2 ) = (2πσ 2 ) −N 2 N 1 X exp − 2 [yi − β0 − β1 xi ]2 2σ i=1 ! . . Para ello hay que realizar la maximizaci´on de la anterior funci´on y encontrar βe0 . . yN }. por lo que es inmediato construir la funci´on de verosimilitud asociada a la muestra {y1 . β0 .

Estimaci´ on del modelo por m´ axima verosimilitud Como ya se ha comentado anteriormente. βe1 . por lo que es inmediato construir la funci´on de verosimilitud asociada a la muestra {y1 . Nuestra idea es obtener los estimadores m´aximo-veros´ımiles para los par´ametros β0 . . . . βe1 y σ e2 tales que L(y1 . la hip´otesis de normalidad sobre los t´erminos de error conlleva el hecho de que las variables yi sean normales e independientes. β0 . . β1 . β0 . .β1 . . . β0 . yN . σ 2 ) = (2πσ 2 ) −N 2 N 1 X exp − 2 [yi − β0 − β1 xi ]2 2σ i=1 ! . . βe0 . . yN . . . . yN . β1 y σ 2 . .σ 2 P´ agina www P´ agina inicial Contenido JJ II J I P´ agina 3 de 7 Regresar Pantalla completa Cerrar Abandonar . . β1 . L(y1 . σ 2 ) .2. σe2 ) = Sup L(y1 . . yN }. . Para ello hay que realizar la maximizaci´on de la anterior funci´on y encontrar βe0 .

βe1 y σ e2 tales que L(y1 .2. habr´a que derivar la funci´on de verosimilitud y encontrar sus puntos cr´ıticos. . . . Para ello hay que realizar la maximizaci´on de la anterior funci´on y encontrar βe0 . la hip´otesis de normalidad sobre los t´erminos de error conlleva el hecho de que las variables yi sean normales e independientes. Asimismo. yN . σ 2 ) = (2πσ 2 ) −N 2 N 1 X exp − 2 [yi − β0 − β1 xi ]2 2σ i=1 ! . . . . Estimaci´ on del modelo por m´ axima verosimilitud Como ya se ha comentado anteriormente. . β1 . . . β0 . βe0 . lo que suele hacerse es considerar su logaritmo ya que. L(y1 . β0 . Nuestra idea es obtener los estimadores m´aximo-veros´ımiles para los par´ametros β0 . en principio. β0 . . . β1 y σ 2 .β1 . . yN }. . σ 2 ) . σe2 ) = Sup L(y1 . por lo que es inmediato construir la funci´on de verosimilitud asociada a la muestra {y1 . yN . βe1 . yN . β1 . al ser el logaritmo creciente. .σ 2 Para ello. como trabajar con dicha funci´on es algo complicado. En este caso P´ agina www P´ agina inicial Contenido JJ II J I P´ agina 3 de 7 Regresar Pantalla completa Cerrar Abandonar . . conserva los puntos cr´ıticos. .

2. L(y1 . . Estimaci´ on del modelo por m´ axima verosimilitud Como ya se ha comentado anteriormente. . yN . β1 y σ 2 . βe1 y σ e2 tales que L(y1 . . β1 . . β1 . yN }. en principio. respecto de los par´ametros. . . . β0 . β0 . . habr´a que derivar la funci´on de verosimilitud y encontrar sus puntos cr´ıticos. la hip´otesis de normalidad sobre los t´erminos de error conlleva el hecho de que las variables yi sean normales e independientes. σ 2 ) .β1 . .σ 2 P´ agina www Para ello. Asimismo. Para ello hay que realizar la maximizaci´on de la anterior funci´on y encontrar βe0 . yN . β0 . yN . . β0 . Nuestra idea es obtener los estimadores m´aximo-veros´ımiles para los par´ametros β0 . σ 2 ) = (2πσ 2 ) −N 2 N 1 X exp − 2 [yi − β0 − β1 xi ]2 2σ i=1 ! . β1 . σe2 ) = Sup L(y1 . conserva los puntos cr´ıticos. lo que suele hacerse es considerar su logaritmo ya que. por lo que es inmediato construir la funci´on de verosimilitud asociada a la muestra {y1 . . al ser el logaritmo creciente. βe0 . . βe1 . . En este caso N N N 1 X 2 2 log(L(y1 . las siguientes Pantalla completa ∂ log L = ∂β0 ∂ log L = ∂β1 Cerrar Abandonar ∂ log L = ∂σ 2 . . . como trabajar con dicha funci´on es algo complicado. . σ )) = − log(2π) − log(σ ) − 2 [yi − β0 − β1 xi ]2 2 2 2σ i=1 P´ agina inicial Contenido JJ II J I P´ agina 3 de 7 Regresar siendo las parciales. . . yN . . .

σ 2 ) = (2πσ 2 ) −N 2 N 1 X exp − 2 [yi − β0 − β1 xi ]2 2σ i=1 ! . Estimaci´ on del modelo por m´ axima verosimilitud Como ya se ha comentado anteriormente. . respecto de los par´ametros. β1 y σ 2 . β0 . . . . βe0 . . . Asimismo. Nuestra idea es obtener los estimadores m´aximo-veros´ımiles para los par´ametros β0 . . βe1 y σ e2 tales que L(y1 . habr´a que derivar la funci´on de verosimilitud y encontrar sus puntos cr´ıticos.σ 2 P´ agina www Para ello. en principio. yN . la hip´otesis de normalidad sobre los t´erminos de error conlleva el hecho de que las variables yi sean normales e independientes. conserva los puntos cr´ıticos. . yN . por lo que es inmediato construir la funci´on de verosimilitud asociada a la muestra {y1 . . . . yN .β1 . β0 . yN }. como trabajar con dicha funci´on es algo complicado. . . . β0 . β0 . β1 .2. σ 2 ) . . . σe2 ) = Sup L(y1 . al ser el logaritmo creciente. yN . . βe1 . . lo que suele hacerse es considerar su logaritmo ya que. σ )) = − log(2π) − log(σ ) − 2 [yi − β0 − β1 xi ]2 2 2 2σ i=1 P´ agina inicial Contenido JJ II J I P´ agina 3 de 7 Regresar siendo las parciales. . β1 . las siguientes N ∂ log L 1 X = 2 [yi − β0 − β1 xi ] ∂β0 σ i=1 ∂ log L = ∂σ 2 Pantalla completa ∂ log L = ∂β1 Cerrar Abandonar . . Para ello hay que realizar la maximizaci´on de la anterior funci´on y encontrar βe0 . En este caso N N N 1 X 2 2 log(L(y1 . β1 . L(y1 .

al ser el logaritmo creciente. Para ello hay que realizar la maximizaci´on de la anterior funci´on y encontrar βe0 . como trabajar con dicha funci´on es algo complicado. yN . β1 . σ 2 ) . β1 . yN . βe1 . σe2 ) = Sup L(y1 . la hip´otesis de normalidad sobre los t´erminos de error conlleva el hecho de que las variables yi sean normales e independientes. .β1 . . . β0 . Nuestra idea es obtener los estimadores m´aximo-veros´ımiles para los par´ametros β0 . Estimaci´ on del modelo por m´ axima verosimilitud Como ya se ha comentado anteriormente. . respecto de los par´ametros. . en principio. . habr´a que derivar la funci´on de verosimilitud y encontrar sus puntos cr´ıticos. las siguientes N ∂ log L 1 X = 2 [yi − β0 − β1 xi ] ∂β0 σ i=1 ∂ log L = ∂σ 2 N ∂ log L 1 X = 2 [yi − β0 − β1 xi ] xi ∂β1 σ i=1 Pantalla completa Cerrar Abandonar . . conserva los puntos cr´ıticos. βe1 y σ e2 tales que L(y1 . . β1 y σ 2 . . yN . . . lo que suele hacerse es considerar su logaritmo ya que. β0 . . β1 . Asimismo. . . βe0 . . . . σ )) = − log(2π) − log(σ ) − 2 [yi − β0 − β1 xi ]2 2 2 2σ i=1 P´ agina inicial Contenido JJ II J I P´ agina 3 de 7 Regresar siendo las parciales. β0 .2. . por lo que es inmediato construir la funci´on de verosimilitud asociada a la muestra {y1 . L(y1 . . σ 2 ) = (2πσ 2 ) −N 2 N 1 X exp − 2 [yi − β0 − β1 xi ]2 2σ i=1 ! . yN . β0 . .σ 2 P´ agina www Para ello. yN }. En este caso N N N 1 X 2 2 log(L(y1 .

. yN . conserva los puntos cr´ıticos. . . σe2 ) = Sup L(y1 . β0 . . β0 . L(y1 . . Estimaci´ on del modelo por m´ axima verosimilitud Como ya se ha comentado anteriormente. . . yN . . βe1 y σ e2 tales que L(y1 . β1 . habr´a que derivar la funci´on de verosimilitud y encontrar sus puntos cr´ıticos.β1 . . β1 . yN . Nuestra idea es obtener los estimadores m´aximo-veros´ımiles para los par´ametros β0 . β1 . como trabajar con dicha funci´on es algo complicado. βe0 . β1 y σ 2 .σ 2 P´ agina www Para ello. . yN }. . . en principio. yN . por lo que es inmediato construir la funci´on de verosimilitud asociada a la muestra {y1 . . . las siguientes N ∂ log L 1 X = 2 [yi − β0 − β1 xi ] ∂β0 σ i=1 N ∂ log L N 1 X [yi − β0 − β1 xi ]2 = − + 2 2 2 2 ∂σ 2σ 2(σ ) i=1 N ∂ log L 1 X = 2 [yi − β0 − β1 xi ] xi ∂β1 σ i=1 Pantalla completa Cerrar Abandonar . lo que suele hacerse es considerar su logaritmo ya que. σ )) = − log(2π) − log(σ ) − 2 [yi − β0 − β1 xi ]2 2 2 2σ i=1 P´ agina inicial Contenido JJ II J I P´ agina 3 de 7 Regresar siendo las parciales. la hip´otesis de normalidad sobre los t´erminos de error conlleva el hecho de que las variables yi sean normales e independientes. σ 2 ) = (2πσ 2 ) −N 2 N 1 X exp − 2 [yi − β0 − β1 xi ]2 2σ i=1 ! . . Asimismo. . respecto de los par´ametros. . Para ello hay que realizar la maximizaci´on de la anterior funci´on y encontrar βe0 . al ser el logaritmo creciente. β0 . . βe1 . σ 2 ) . En este caso N N N 1 X 2 2 log(L(y1 .2. β0 . . .

Igualando las dos primeras parciales a cero se tiene el siguiente sistema de ecuaciones P´ agina www P´ agina inicial Contenido JJ II J I P´ agina 4 de 7 Regresar Pantalla completa Cerrar Abandonar .

Igualando las dos primeras parciales a cero se tiene el siguiente sistema de ecuaciones N X yi = N β0 + β1 i=1 N X i=1 xi yi = β0 n X xi i=1 N X i=1 xi + β1 n X x2i i=1 P´ agina www P´ agina inicial Contenido JJ II J I P´ agina 4 de 7 Regresar Pantalla completa Cerrar Abandonar .

P´ agina www P´ agina inicial Contenido JJ II J I P´ agina 4 de 7 Regresar Pantalla completa Cerrar Abandonar . Con ello los estimadores m´aximo veros´ımiles de β0 y β1 son los mismos que los m´ınimo cuadr´aticos.Igualando las dos primeras parciales a cero se tiene el siguiente sistema de ecuaciones N X yi = N β0 + β1 i=1 N X i=1 xi yi = β0 n X xi i=1 N X i=1 xi + β1 n X x2i i=1 que no es otro que el sistema de ecuaciones normales que se obtuvo tras la estimaci´on por m´ınimos cuadrados ordinarios.

Igualando las dos primeras parciales a cero se tiene el siguiente sistema de ecuaciones N X yi = N β0 + β1 i=1 N X i=1 xi yi = β0 n X xi i=1 N X i=1 xi + β1 n X x2i i=1 que no es otro que el sistema de ecuaciones normales que se obtuvo tras la estimaci´on por m´ınimos cuadrados ordinarios. A continuaci´on igualamos la tercera parcial a cero y sustituimos los par´ametros β0 y β1 por los estimadores anteriores. Con ello los estimadores m´aximo veros´ımiles de β0 y β1 son los mismos que los m´ınimo cuadr´aticos. concluyendo que el estimador m´aximo veros´ımil para σ 2 es P´ agina www P´ agina inicial Contenido JJ II J I P´ agina 4 de 7 Regresar Pantalla completa Cerrar Abandonar .

A continuaci´on igualamos la tercera parcial a cero y sustituimos los par´ametros β0 y β1 por los estimadores anteriores. Con ello los estimadores m´aximo veros´ımiles de β0 y β1 son los mismos que los m´ınimo cuadr´aticos.Igualando las dos primeras parciales a cero se tiene el siguiente sistema de ecuaciones N X yi = N β0 + β1 i=1 N X i=1 n X xi i=1 xi yi = β0 N X xi + β1 i=1 n X x2i i=1 que no es otro que el sistema de ecuaciones normales que se obtuvo tras la estimaci´on por m´ınimos cuadrados ordinarios. concluyendo que el estimador m´aximo veros´ımil para σ 2 es P´ agina www N X σ e2 = i=1 N e2i P´ agina inicial Contenido JJ II J I P´ agina 4 de 7 Regresar Pantalla completa Cerrar Abandonar .

concluyendo que el estimador m´aximo veros´ımil para σ 2 es P´ agina www N X σ e2 = e2i i=1 N que ya no coincide con el estimador de m´ınimos cuadrados. A continuaci´on igualamos la tercera parcial a cero y sustituimos los par´ametros β0 y β1 por los estimadores anteriores. Con ello los estimadores m´aximo veros´ımiles de β0 y β1 son los mismos que los m´ınimo cuadr´aticos. Adem´as este estimador no es insesgado ya que P´ agina inicial Contenido JJ II J I P´ agina 4 de 7 Regresar Pantalla completa Cerrar Abandonar .Igualando las dos primeras parciales a cero se tiene el siguiente sistema de ecuaciones N X yi = N β0 + β1 i=1 N X i=1 n X xi i=1 xi yi = β0 N X xi + β1 i=1 n X x2i i=1 que no es otro que el sistema de ecuaciones normales que se obtuvo tras la estimaci´on por m´ınimos cuadrados ordinarios.

concluyendo que el estimador m´aximo veros´ımil para σ 2 es P´ agina www N X σ e2 = e2i i=1 N que ya no coincide con el estimador de m´ınimos cuadrados.Igualando las dos primeras parciales a cero se tiene el siguiente sistema de ecuaciones N X yi = N β0 + β1 i=1 N X i=1 n X xi i=1 xi yi = β0 N X xi + β1 i=1 n X x2i i=1 que no es otro que el sistema de ecuaciones normales que se obtuvo tras la estimaci´on por m´ınimos cuadrados ordinarios. Adem´as este estimador no es insesgado ya que P´ agina inicial Contenido JJ II J I P´ agina 4 de 7 σ2] = E[e N −2 2 σ N Regresar Pantalla completa Cerrar Abandonar . A continuaci´on igualamos la tercera parcial a cero y sustituimos los par´ametros β0 y β1 por los estimadores anteriores. Con ello los estimadores m´aximo veros´ımiles de β0 y β1 son los mismos que los m´ınimo cuadr´aticos.

Con ello los estimadores m´aximo veros´ımiles de β0 y β1 son los mismos que los m´ınimo cuadr´aticos. A continuaci´on igualamos la tercera parcial a cero y sustituimos los par´ametros β0 y β1 por los estimadores anteriores.Igualando las dos primeras parciales a cero se tiene el siguiente sistema de ecuaciones N X yi = N β0 + β1 i=1 N X i=1 n X xi i=1 xi yi = β0 N X xi + β1 i=1 n X x2i i=1 que no es otro que el sistema de ecuaciones normales que se obtuvo tras la estimaci´on por m´ınimos cuadrados ordinarios. concluyendo que el estimador m´aximo veros´ımil para σ 2 es P´ agina www N X σ e2 = e2i i=1 N que ya no coincide con el estimador de m´ınimos cuadrados. Adem´as este estimador no es insesgado ya que P´ agina inicial Contenido JJ II J I P´ agina 4 de 7 σ2] = E[e N −2 2 σ N Regresar Pantalla completa raz´on por la cual vamos a adoptar la v´ıa de tomar como estimador de la varianza de las perturbaciones el estimador m´ınimo cuadr´atico. Cerrar Abandonar .

Igualando las dos primeras parciales a cero se tiene el siguiente sistema de ecuaciones N X yi = N β0 + β1 i=1 N X i=1 n X xi i=1 xi yi = β0 N X xi + β1 i=1 n X x2i i=1 que no es otro que el sistema de ecuaciones normales que se obtuvo tras la estimaci´on por m´ınimos cuadrados ordinarios. A continuaci´on igualamos la tercera parcial a cero y sustituimos los par´ametros β0 y β1 por los estimadores anteriores. Con ello los estimadores m´aximo veros´ımiles de β0 y β1 son los mismos que los m´ınimo cuadr´aticos. puede comprobarse que: Cerrar Abandonar . Evidentemente nos queda comprobar que la soluci´on obtenida para el sistema de ecuaciones anterior maximiza la funci´on de verosimilitud. concluyendo que el estimador m´aximo veros´ımil para σ 2 es P´ agina www N X σ e2 = e2i i=1 N que ya no coincide con el estimador de m´ınimos cuadrados. Adem´as este estimador no es insesgado ya que P´ agina inicial Contenido JJ II J I P´ agina 4 de 7 σ2] = E[e N −2 2 σ N Regresar Pantalla completa raz´on por la cual vamos a adoptar la v´ıa de tomar como estimador de la varianza de las perturbaciones el estimador m´ınimo cuadr´atico. En efecto.

N X x2i N ∂ 2 log L ∂ 2 log L = − . = − i=1 2 . = − i=1 2 ∂β1 ∂β0 σ ∂σ ∂β0 (σ 2 )2 [yi − β0 − β1 xi ]xi (σ 2 )2 N X N X ∂ 2 log L N . = − i=1 2 2 2 2 ∂β0 σ ∂β1 σ N X ∂ 2 log L = − i=1 2 ∂σ ∂β1 N X xi [yi − β0 − β1 xi ] 2 ∂ 2 log L ∂ log L . = − ∂(σ 2 )2 2(σ 2 )2 [yi − β0 − β1 xi ]2 i=1 (σ 2 )3 P´ agina www P´ agina inicial Contenido JJ II J I P´ agina 5 de 7 Regresar Pantalla completa Cerrar Abandonar .

N X x2i N ∂ 2 log L ∂ 2 log L = − . = − i=1 2 . βe1 . σ e2 queda en la forma P´ agina www P´ agina inicial Contenido JJ II J I P´ agina 5 de 7 Regresar Pantalla completa Cerrar Abandonar . = − i=1 2 2 2 2 ∂β0 σ ∂β1 σ N X ∂ 2 log L = − i=1 2 ∂σ ∂β1 N X xi [yi − β0 − β1 xi ] 2 ∂ 2 log L ∂ log L . = − i=1 2 ∂β1 ∂β0 σ ∂σ ∂β0 (σ 2 )2 [yi − β0 − β1 xi ]xi (σ 2 )2 N X N X ∂ 2 log L N . = − ∂(σ 2 )2 2(σ 2 )2 [yi − β0 − β1 xi ]2 i=1 (σ 2 )3 por lo que la matriz hessiana en el punto βe0 .

βe1 . βe1 . = − i=1 2 2 2 2 ∂β0 σ ∂β1 σ N X ∂ 2 log L = − i=1 2 ∂σ ∂β1 N X N X xi [yi − β0 − β1 xi ] 2 ∂ 2 log L ∂ log L . = − i=1 2 . σ e2 queda en la forma N X  xi /e σ2 σ2 −  −N/e  i=1  N N X X H(βe0 .N X x2i N ∂ 2 log L ∂ 2 log L = − .  N  2e σ2 P´ agina inicial Contenido JJ II J I P´ agina 5 de 7 Regresar Pantalla completa Cerrar Abandonar . σ e2 ) =   2 xi /e σ − x2i /e σ2 −  i=1 0 i=1 0  0 0 −N/2(e σ 2 )2  N Nx   N  X   1  x2i  = −  Nx  σ e2  i=1    0 0 0  P´ agina www   0   . = − ∂(σ 2 )2 2(σ 2 )2 [yi − β0 − β1 xi ]2 i=1 (σ 2 )3 por lo que la matriz hessiana en el punto βe0 . = − i=1 2 ∂β1 ∂β0 σ ∂σ ∂β0 (σ 2 )2 [yi − β0 − β1 xi ]xi (σ 2 )2 N X ∂ 2 log L N .

= − i=1 2 ∂β1 ∂β0 σ ∂σ ∂β0 (σ 2 )2 [yi − β0 − β1 xi ]xi (σ 2 )2 N X ∂ 2 log L N . 2. σ e2 queda en la forma N X   xi /e σ2 σ2 −  −N/e  i=1  N N X X H(βe0 . σ e2 ) =   2 xi /e σ − x2i /e σ2 −  i=1 i=1 0 0 0 0 −N/2(e σ 2 )2  N Nx   N  X   1  x2i  = −  Nx  σ e2  i=1    0 0 Esta matriz es definida negativa puesto que los menores principales son 0  P´ agina www   0   . βe1 . = − i=1 2 . i = 1.N X x2i N ∂ 2 log L ∂ 2 log L = − . βe1 . 3. Cerrar Abandonar . = − ∂(σ 2 )2 2(σ 2 )2 [yi − β0 − β1 xi ]2 i=1 (σ 2 )3 por lo que la matriz hessiana en el punto βe0 . = − i=1 2 2 2 2 ∂β0 σ ∂β1 σ N X ∂ 2 log L = − i=1 2 ∂σ ∂β1 N X N X xi [yi − β0 − β1 xi ] 2 ∂ 2 log L ∂ log L . D2 = N Sx2 (e σ 2 )2 3 y D3 = N Sx2 − 2(e σ 2 )4 Regresar Pantalla completa i verific´andose que (−1) Di > 0.  N  2e σ2 P´ agina inicial Contenido JJ II J I P´ agina 5 de 7 D1 = − N σ e2 2 .

σ e2 queda en la forma N X   xi /e σ2 σ2 −  −N/e  i=1  N N X X H(βe0 . cuando β0 y β1 tienden a menos y m´as infinito y cuando σ 2 tiende a cero y a infinito. = − i=1 2 . es cero. = − i=1 2 ∂β1 ∂β0 σ ∂σ ∂β0 (σ 2 )2 [yi − β0 − β1 xi ]xi (σ 2 )2 N X ∂ 2 log L N . Se puede comprobar que este m´aximo es absoluto. 3. De esta forma hemos calculado elm´aximo relativo de la funci´on de verosimilitud. βe1 . 2. D2 = N Sx2 (e σ 2 )2 3 y D3 = N Sx2 − 2(e σ 2 )4 Regresar Pantalla completa i verific´andose que (−1) Di > 0. σ e2 ) =   2 xi /e σ − x2i /e σ2 −  i=1 i=1 0 0 0 0 −N/2(e σ 2 )2  N Nx   N  X   1  x2i  = −  Nx  σ e2  i=1    0 0 0  P´ agina www   0   .  N  2e σ2 Esta matriz es definida negativa puesto que los menores principales son P´ agina inicial Contenido JJ II J I P´ agina 5 de 7 D1 = − N σ e2 2 . βe1 . para lo cual hay que comprobar que los l´ımites de la funci´on de verosimilitud en los extremos del espacio param´etrico. = − i=1 2 2 2 2 ∂β0 σ ∂β1 σ N X ∂ 2 log L = − i=1 2 ∂σ ∂β1 N X N X xi [yi − β0 − β1 xi ] 2 ∂ 2 log L ∂ log L . Cerrar Abandonar . i = 1. = − ∂(σ 2 )2 2(σ 2 )2 [yi − β0 − β1 xi ]2 i=1 (σ 2 )3 por lo que la matriz hessiana en el punto βe0 .N X x2i N ∂ 2 log L ∂ 2 log L = − .

Distribuci´ on de los estimadores El hecho de que los estimadores de β0 y β1 se puedan expresar en t´erminos de las perturbaciones i y que ´estas sean ahora. variables aleatorias independientes e id´enticamente distribuidas seg´ un una normal de media cero y varianza σ 2 . permite obtener de forma r´apida las distribuciones de dichos estimadores. s´ı es conocida la distribuci´on de una cierta funci´on suya. aunque lo demostraremos m´as adelante. por hip´otesis.3. P´ agina www P´ agina inicial Contenido JJ II J I P´ agina 6 de 7 Regresar Pantalla completa Cerrar Abandonar . En cuanto a la distribuci´on de la varianza residual no tendremos una expresi´on para ella si bien.

aunque lo demostraremos m´as adelante. Distribuci´ on de βb1 . variables aleatorias independientes e id´enticamente distribuidas seg´ un una normal de media cero y varianza σ 2 . En cuanto a la distribuci´on de la varianza residual no tendremos una expresi´on para ella si bien.1. por hip´otesis.3. permite obtener de forma r´apida las distribuciones de dichos estimadores. Recordemos que βb1 se puede expresar como βb1 = β1 + N X wi i . P´ agina www i=1 P´ agina inicial Contenido JJ II J I P´ agina 6 de 7 Regresar Pantalla completa Cerrar Abandonar . 3. s´ı es conocida la distribuci´on de una cierta funci´on suya. Distribuci´ on de los estimadores El hecho de que los estimadores de β0 y β1 se puedan expresar en t´erminos de las perturbaciones i y que ´estas sean ahora.

3. por hip´otesis. Contenido JJ II J I P´ agina 6 de 7 Regresar Pantalla completa Cerrar Abandonar .3. independientes e id´enticamente distribuidas. s´ı es conocida la distribuci´on de una cierta funci´on suya. En cuanto a la distribuci´on de la varianza residual no tendremos una expresi´on para ella si bien.1. Recordemos que βb1 se puede expresar como βb1 = β1 + N X wi i . Distribuci´ on de los estimadores El hecho de que los estimadores de β0 y β1 se puedan expresar en t´erminos de las perturbaciones i y que ´estas sean ahora. Distribuci´ on de βb1 . permite obtener de forma r´apida las distribuciones de dichos estimadores. aunque lo demostraremos m´as adelante. P´ agina www i=1 P´ agina inicial con lo cual se distribuir´a seg´ un una normal de media β1 y de varianza N X i=1 wi2 σ 2 σ2 = N Sx2 puesto que es una combinaci´on lineal de variables normales. variables aleatorias independientes e id´enticamente distribuidas seg´ un una normal de media cero y varianza σ 2 .

2. P´ agina www i=1 P´ agina inicial con lo cual se distribuir´a seg´ un una normal de media β1 y de varianza N X i=1 wi2 σ 2 σ2 = N Sx2 puesto que es una combinaci´on lineal de variables normales. En cuanto al estimador de la ordenada en el origen se tiene un resultado an´alogo al anterior. Distribuci´ on de βb0 . Contenido JJ II J I P´ agina 6 de 7 Regresar 3. Distribuci´ on de βb1 .1. 3. Distribuci´ on de los estimadores El hecho de que los estimadores de β0 y β1 se puedan expresar en t´erminos de las perturbaciones i y que ´estas sean ahora. independientes e id´enticamente distribuidas. como Pantalla completa Cerrar Abandonar .3. En cuanto a la distribuci´on de la varianza residual no tendremos una expresi´on para ella si bien. variables aleatorias independientes e id´enticamente distribuidas seg´ un una normal de media cero y varianza σ 2 . s´ı es conocida la distribuci´on de una cierta funci´on suya. En efecto. por hip´otesis. Recordemos que βb1 se puede expresar como βb1 = β1 + N X wi i . permite obtener de forma r´apida las distribuciones de dichos estimadores. aunque lo demostraremos m´as adelante.

permite obtener de forma r´apida las distribuciones de dichos estimadores. En cuanto a la distribuci´on de la varianza residual no tendremos una expresi´on para ella si bien. P´ agina www i=1 P´ agina inicial con lo cual se distribuir´a seg´ un una normal de media β1 y de varianza N X wi2 σ 2 i=1 σ2 = N Sx2 puesto que es una combinaci´on lineal de variables normales. independientes e id´enticamente distribuidas.2. Distribuci´ on de βb1 .3. En efecto. por hip´otesis. 3. aunque lo demostraremos m´as adelante.1. Recordemos que βb1 se puede expresar como βb1 = β1 + N X wi i . variables aleatorias independientes e id´enticamente distribuidas seg´ un una normal de media cero y varianza σ 2 . Contenido JJ II J I P´ agina 6 de 7 Regresar 3. Distribuci´ on de βb0 . s´ı es conocida la distribuci´on de una cierta funci´on suya. Distribuci´ on de los estimadores El hecho de que los estimadores de β0 y β1 se puedan expresar en t´erminos de las perturbaciones i y que ´estas sean ahora. como βb0 = β0 + N  X 1 i=1 N  − xwi i Cerrar Abandonar . Pantalla completa En cuanto al estimador de la ordenada en el origen se tiene un resultado an´alogo al anterior.

se tiene de forma inmediata que dicho estimador se distribuye seg´ un una normal de media β0 y varianza σ2 N  X 1 i=1 N 2 − xwi = σ2  x2 1 + N N Sx2  . P´ agina www P´ agina inicial Contenido JJ II J I P´ agina 7 de 7 Regresar Pantalla completa Cerrar Abandonar .

se tiene de forma inmediata que dicho estimador se distribuye seg´ un una normal de media β0 y varianza σ2 N  X 1 i=1 3. Por esta raz´on omitimos su demostraci´on aqu´ı. Concretamente se tiene que P´ agina www P´ agina inicial Contenido JJ II J I P´ agina 7 de 7 Regresar Pantalla completa Cerrar Abandonar . Distribuci´ on de σ b2 La distribuci´on del estimador de la varianza de los t´erminos de error no es inmediata puesto que se basa en la distribuci´on de formas cuadr´aticas normales. N 2 − xwi = σ2  x2 1 + N N Sx2  . si bien en el siguiente tema trataremos esta cuesti´on m´as detalladamente.3.

Distribuci´ on de σ b2 La distribuci´on del estimador de la varianza de los t´erminos de error no es inmediata puesto que se basa en la distribuci´on de formas cuadr´aticas normales. Concretamente se tiene que N X e2i (N − 2)b σ2 = σ2 σ2 se distribuye seg´ un una distribuci´on chi-cuadrado centrada con N − 2 grados de libertad. si bien en el siguiente tema trataremos esta cuesti´on m´as detalladamente. i=1 P´ agina www P´ agina inicial Contenido JJ II J I P´ agina 7 de 7 Regresar Pantalla completa Cerrar Abandonar .3. Por esta raz´on omitimos su demostraci´on aqu´ı. N 2 − xwi = σ2  x2 1 + N N Sx2  .se tiene de forma inmediata que dicho estimador se distribuye seg´ un una normal de media β0 y varianza σ2 N  X 1 i=1 3.

se tiene de forma inmediata que dicho estimador se distribuye seg´ un una normal de media β0 y varianza σ2 N  X 1 i=1 3. Distribuci´ on de σ b2 La distribuci´on del estimador de la varianza de los t´erminos de error no es inmediata puesto que se basa en la distribuci´on de formas cuadr´aticas normales. Cerrar Abandonar . pudi´endose entender mejor si consideramos que los N residuos no son independientes ya que los residuos poseen dos restricciones dadas por N N X X ei = 0 .3. ei xi = 0 i=1 i=1 JJ II J I P´ agina 7 de 7 Regresar Pantalla completa con lo cual hay s´olo N − 2 residuos independientes. N 2 − xwi = σ2  x2 1 + N N Sx2  . i=1 P´ agina www P´ agina inicial Contenido Recordemos que los N − 2 grados de libertad de los residuos proceden del n´ umero de datos menos el n´ umero de par´ametros que han hecho falta estimar para calcular las medias en cada punto. que corresponden a los N − 2 grados de libertad. si bien en el siguiente tema trataremos esta cuesti´on m´as detalladamente. Concretamente se tiene que N X e2i (N − 2)b σ2 = σ2 σ2 se distribuye seg´ un una distribuci´on chi-cuadrado centrada con N − 2 grados de libertad. Por esta raz´on omitimos su demostraci´on aqu´ı.

Adem´as puede demostrarse que tanto βb0 como βb1 son independientes de N X Cerrar e2i (si bien ello conlleva i=1 estudiar independencia de formas cuadr´aticas y lineales y lo dejaremos para el apartado de regresi´on m´ ultiple). Por esta raz´on omitimos su demostraci´on aqu´ı. Concretamente se tiene que N X e2i (N − 2)b σ2 = σ2 σ2 se distribuye seg´ un una distribuci´on chi-cuadrado centrada con N − 2 grados de libertad.se tiene de forma inmediata que dicho estimador se distribuye seg´ un una normal de media β0 y varianza σ2 N  X 1 i=1 3. Distribuci´ on de σ b2 La distribuci´on del estimador de la varianza de los t´erminos de error no es inmediata puesto que se basa en la distribuci´on de formas cuadr´aticas normales.3. si bien en el siguiente tema trataremos esta cuesti´on m´as detalladamente. pudi´endose entender mejor si consideramos que los N residuos no son independientes ya que los residuos poseen dos restricciones dadas por N N X X ei = 0 . N 2 − xwi = σ2  x2 1 + N N Sx2  . que corresponden a los N − 2 grados de libertad. ei xi = 0 i=1 i=1 JJ II J I P´ agina 7 de 7 Regresar Pantalla completa con lo cual hay s´olo N − 2 residuos independientes. i=1 P´ agina www P´ agina inicial Contenido Recordemos que los N − 2 grados de libertad de los residuos proceden del n´ umero de datos menos el n´ umero de par´ametros que han hecho falta estimar para calcular las medias en cada punto. Abandonar .

A partir del apartado anterior es inmediato que VNE .3. 2 σ P´ agina www P´ agina inicial Contenido JJ II J I P´ agina 7 de 7 Regresar Pantalla completa Cerrar Abandonar . Distribuci´ on de las variabilidades explicada y no explicada. χ2N −2 .4.

Distribuci´ on de las variabilidades explicada y no explicada. χ2N −2 .4. i=1 P´ agina www P´ agina inicial Contenido JJ II J I P´ agina 7 de 7 Regresar Pantalla completa Cerrar Abandonar .3. A partir del apartado anterior es inmediato que Por otro lado se verifica que VE = N X VNE . 2 σ (b yi − y)2 = βb12 N Sx2 .

N1 [µ. χ2n y ambas son independientes. N1 β1 . .3. 2 σ Por otro lado se verifica que VE = (b yi − y)2 = βb12 N Sx2 . χ2n (δ) donde δ = i=1 σ2 u b) Si z . . i = 1. . n. entonces N Sx β1 . entonces σ z r u n . σ2 Cerrar . 1 σ2 σ2 P´ agina www P´ agina inicial Contenido JJ II J I P´ agina 7 de 7 1 Recordemos que: Regresar a) Dadas z1 . Distribuci´ on de las variabilidades explicada y no explicada. . σ . A partir del apartado anterior es inmediato que N X VNE .4. . i=1   hp i 2 p σ 2 2 2 b b N Sx β1 . N1 [µi . entonces n X u= n X zi2 i=1 σ2 . . χ2N −2 . . por lo que Como β1 . Abandonar . χ (δ) siendo δ = . 2 . . σ 2 ]. tn (δ) donde δ= Pantalla completa µ2i µ2 . zn variables aleatorias independientes con zi . N1 N Sx2 1 VE N Sx2 β12 2 . . σ 2 ].

N1 [µ. P´ agina 7 de 7 Regresar u b) Si z .4.3. entonces n X u= n X zi2 i=1 σ2 . n. χ2m (δ). zn variables aleatorias independientes con zi . . 2 . σ 2 ]. A partir del apartado anterior es inmediato que N X VNE . N1 [µi . N1 β1 . . χ2N −2 . χ2n y ambas son independientes. 1 σ2 σ2 Adem´as. . u . . χ2n y ambas son independientes. i = 1. χ (δ) siendo δ = . . por lo que Como β1 . F1. entonces σ 2 z r u n 2 . N1 N Sx2 1 VE N Sx2 β12 2 . i=1   hp i 2 p σ 2 2 2 b b N Sx β1 . F (δ) . 2 σ Por otro lado se verifica que VE = (b yi − y)2 = βb12 N Sx2 . χ2n (δ) donde δ = JJ II J I µ2i i=1 σ2 . σ2 Cerrar Abandonar Si z . σ . entonces z m . .N −2 (δ) . tn (δ) Pantalla completa 2 donde δ= µ . puesto que βb1 y σ b2 son independientes se deduce que ambas variabilidades son independientes y que 2 P´ agina www VE . m. . σ ]. VNE P´ agina inicial N −2 Contenido 1 Recordemos que: a) Dadas z1 . .n u n . . Distribuci´ on de las variabilidades explicada y no explicada. entonces N Sx β1 .