You are on page 1of 16

Estadstica 68

Tema 7: Estimacion puntual.


7.1 Introduccion a la Inferencia Estadstica.
En los temas anteriores se ha hecho enfasis en la teora de la probabilidad y en determinados modelos
probabilsticos. En este tema y los siguientes nos centraremos en el estudio de procedimientos que nos
permitan tomar decisiones referidas a determinados problemas que presentan incertidumbre. Estos
procedimientos se engloban en lo que denominamos Inferencia Estadstica.
El objetivo de la Inferencia Estadstica es obtener informacion sobre la ley de probabilidades (o modelo
probabilstico) de un fenomeno, a partir de algunos datos experimentales.
Existen distintos tipos de procedimientos de Inferencia. Nosotros nos vamos a centrar en los llamados
procedimientos clasicos, en los que se supone que la unica informacion disponible sobre el modelo
son los datos correspondientes a una muestra representativa de la poblacion objeto de estudio, y los
problemas concretos que vamos a abordar se resumen en los siguientes:
(a) Problemas en los que la distribucion de la variable se conoce, pero los parametros (todos o
parte) que la caracterizan son desconocidos. El problema es, en este caso, como obtener un
valor o valores numericos, a partir de los datos, que sea un pronostico o estimacion razonable
de ese parametro. Cuando la solucion proporcionada es un solo valor numerico, hablaremos
de procedimientos de estimacion puntual. Cuando la solucion proporcionada es un intervalo
de valores en el que probablemente estara el parametro, hablaremos de procedimientos de
estimacion por intervalos.
(b) Problemas en los que se trata de constatar que una armacion acerca de la distribucion de
probabilidades del fenomeno estudiado es o no cierta. En este caso, hablaremos de procedimientos
de contraste de hipotesis.
Ejemplo 1: Supongamos que estamos estudiando el tiempo hasta el fallo de un determinado componente
electronico. Se ha seleccionado una muestra representativa de este tipo de componente y se han
mantenido en funcionamiento hasta fallar, anotandose la duracion de cada uno. Nos podemos plantear
los siguientes interrogantes:
(a) Si sabemos ya que el tiempo hasta el fallo sigue una distribucion exponencial, cual es el tiempo
medio hasta el fallo para este tipo de componentes? (Corresponde a un problema de estimacion
puntual).
(b) En las mismas condiciones que antes (sabiendo que la distribucion es exponencial), que rango de
valores para la duracion media parece razonable?. (Correspondera a un problema de estimacion
por intervalos).
(c) Los componentes provienen de dos procesos de fabricacion distintos y se quiere determinar si
existen diferencias en cuanto al tiempo medio hasta el fallo. (Problema de contraste).
Estadstica 69
7.2 Muestreo; tipos de muestreo.
En una gran parte de los estudios experimentales es imposible disponer de los datos correspondientes a
todos los elementos de la poblacion objeto de estudio (por razones economicas, de tiempo, o porque el
estudio suponga la destruccion del elemento estudiado o porque los elementos estudiados no existan en
la realidad). En esos casos es necesario trabajar a partir de los datos de solo una parte de la poblacion
y para que el estudio tenga validez interesa que esa parte sea representativa de toda la poblacion.
Ya habamos denido anteriormente muestra como una parte representativa de la poblacion; un proce-
dimiento de muestreo es un procedimiento para seleccionar muestras representativas. Existen diversos
tipos de muestreo. Vamos a introducir algunos:
(a) Muestreo aleatorio simple: En este caso, cada elemento de la poblacion tiene identica probabilidad
de ser elegido en cada una de las extracciones. Este tipo de muestreo se aplica cuando en la
poblacion existe homogeneidad respecto de la caracterstica a estudiar.
En los casos en los que la muestra se extrae de una poblacion nita, corresponde a extracciones
con reemplazamiento.
Este tipo de muestreo es uno de los mas importantes, pues en el se basan los demas tipos que
vamos a introducir y una gran parte de los metodos estadsticos que vamos a desarrollar son
validos solo si la muestra se ha seleccionado por este procedimiento.
Denicion 1 Sea X una v.a.; llamaremos muestra aleatoria simple (m.a.s.) de tama no n de
X a un conjunto de variables aleatorias (X
1
, . . . , X
n
) independientes y con identica distribucion
que la variable X. Por tanto, una m.a.s. es un vector aleatorio, cada uno de cuyos elementos
representa los posibles valores de la componente i-esima de una muestra aleatoria de tama no n
de la poblacion.
Ejemplo 2: Consideremos una poblacion formada por 10 matrimonios, sobre la que se observa la
caracterstica n umero de hijos.
Matrimonio n umero de hijos
1 Alonso Perez 1
2 Bueno Pongo 2
3 Delgado Delgado 2
4 Delgado Grueso 1
5 Luis Calle 3
6 Martnez Juez 3
7 Perez Perez 3
8 Ramos Ramos 2
9 Rodrguez Ruiz 3
10 Ruiz Maya 1
Sea X la variable aleatoria que asigna a cada matrimonio el n umero de hijos del matrimonio.
Estadstica 70
El soporte de esta variable es S
X
= {1, 2, 3} y la ley de probabilidades viene dada por :
p(X = 1) = 0.3 p(X = 2) = 0.3 p(X = 3) = 0.4
Vamos a considerar ahora todas las posibles muestras de tamano 3 de X y la probabilidad de
extraer cada una de esas muestras:
Muestra Probabilidad Muestr Probabilidad Muestra Probabilidad
(1,1,1) (0.3)
3
= 0.027 (3,1,1) (0.3)
2
(0.4) = 0.036 (3,2,3) (0.3)(0.4)
2
= 0.048
(1,1,2) (0.3)
3
= 0, 027 (1,3,3) (0.3)(0.4)
2
= 0.048 (3,3,2) (0.3)(0.4)
2
= 0.048
(1,2,1) (0.3)
3
= 0.027 (3,1,3) (0.3)(0.4)
2
= 0.048 (3,3,3) (0.4)
3
= 0.064
(2,1,1) (0.3)
3
= 0.027 (3,3,1) (0.3)(0.4)
2
= 0.048 (1,2,3) (0.3)
2
(0.4) = 0.036
(1,2,2) (0.3)
3
= 0.027 (2,2,3) (0.3)
2
(0.4) = 0.036 (1,3,2) (0.3)
2
(0.4) = 0.036
(2,1,2) (0.3)
3
= 0.027 (2,3,2) (0.3)
2
(0.4) = 0.036 (2,3,1) (0.3)
2
(0.4) = 0.036
(2,2,1) (0.3)
3
= 0.027 (3,2,2) (0.3)
2
(0.4) = 0.036 (2,1,3) (0.3)
2
(0.4) = 0.036
(1,1,3) (0.3)
2
(0.4) = 0.036 (2,2,2) (0.3)
3
= 0.027 (3,1,2) (0.3)
2
(0.4) = 0.036
(1,3,1) (0.3)
2
(0.4) = 0.036 (2,3,3) (0.3)(0.4)
2
= 0.048 (3,2,1) (0.3)
2
(0.4) = 0.036
Lo que acabamos de dar es la ley de probabilidades del vector aleatorio (X
1
, X
2
, X
3
), donde cada
X
i
representa el valor de X en el elemento i-esimo de la muestra y podemos ver que cada X
i
es
tambien una variable aleatoria con la misma distribucion que X.
En general: puesto que una m.a.s. es un vector aleatorio, quedara denido si conozco su so-
porte y su ley de probabilidades. Teniendo en cuenta que las componentes del vector son v.a.
independientes y con la misma distribucion que X,
si X es discreta, p(x
1
, x
2
, . . . , x
n
) = p(x
1
)p(x
2
) . . . p(x
n
), donde p es la funcion de probabilidad
de X.
si X es continua, f(x
1
, x
2
, . . . , x
n
) = f(x
1
)f(x
2
) . . . f(x
n
), donde f es la funcion de densidad
de X.
(b) Muestreo estraticado:
Se utiliza cuando la poblacion no es homogenea. Se trata de respetar la heterogeneidad de la
poblacion en la muestra: proporcion de hombres/mujeres, de edad/profesion, ...
La poblacion se subdivide en clases o estratos homogeneos. La muestra se toma asignando
un n umero de elementos a cada estrato y escogiendo los elementos dentro de cada estrato por
muestreo aleatorio simple.
(c) Muestreo por conglomerados.
Se utiliza cuando la poblacion es homogenea respecto de la caracterstica a estudiar, pero se
encuentra dividida de manera natural en grupos (por ejemplo, provincias, colegios, ...). Se selec-
cionan algunos de los subgrupos de la poblacion y en cada subgrupo se estudia toda la poblacion
o una parte elegida por muestreo aleatorio simple.
(d) Muestreo sistematico.
Este tipo se utiliza para elementos ordenados de alguna manera (por ejemplo en listas, o en orden
cronologico de fabricacion, etc).
Estadstica 71
Se selecciona un primer elemento de la poblacion de manera aleatoria y a partir de el se seleccionan
los demas elementos a intervalos jos.
Por la forma de seleccion, en principio, no se puede suponer independencia entre las observaciones.
Si el orden de los elementos en la lista es al azar, entonces el muestreo sistematico es equivalente
al muestreo aleatorio simple. Si los individuos proximos tienden a ser mas semejantes que los
alejados, este muestreo tiende a ser mas preciso que el muestreo aleatorio simple al cubrir mas
homogeneamente toda la poblacion.
7.3 Estadsticos y Estimadores.
En cualquiera de los procedimientos de Inferencia descritos anteriormente, un concepto que juega un
papel importante es el de estadstico:
Denicion 2 Dada una v.a. X, y un tama no muestral n, llamaremos estadstico T a una aplicacion
del conjunto de muestras aleatorias simples de la poblacion en IR
k
,
Un estadstico es, por tanto, un vector aleatorio, cuya distribucion depende de la del vector aleatorio
(X
1
, . . . , X
n
), y por tanto de la de la v.a. X.
Ejemplo 3: Con los mismos datos que en el ejemplo 2, podemos considerar los siguientes estadstico,
denidos sobre el conjunto de muestras de tamano 3 de la variable X:
T
1
(X
1
, X
2
, X
3
) = max{X
1
, X
2
, X
3
}
Este estadstico es una variable aleatoria cuyo soporte es S
T
1
= {1, 2, 3} y su ley de probabilidades
viene dada por:
p(T
1
= 1) = p(muestras de tamano 3 para las que max{X
1
, X
2
, X
3
} = 1) = p((1, 1, 1)) = 0.027
p(T
1
= 2) = p(muestras de tamano 3 para las que max{X
1
, X
2
, X
3
} = 2) =
= p((2, 1, 1)

(1, 2, 1)

(1, 1, 2)

(2, 2, 1)

(2, 1, 2)

(1, 2, 2)

(2, 2, 2)) == 7(0.027) = 0.189


p(T
1
= 3) = p(muestras de tamano 3 para las que max{X
1
, X
2
, X
3
} = 3) =
= 12(0.036) + 6(0.048) + 0.064 = 0.784
T
2
(X
1
, X
2
, X
3
) = Med{X
1
, X
2
, X
3
}
Este estadstico es una variable aleatoria cuyo soporte es S
T
2
= {1, 2, 3} y su ley de probabilidades
viene dada por:
p(T
2
= 1) = p(muestras de tamano 3 para las que Med{X
1
, X
2
, X
3
} = 1) =
= p((1, 1, 1)

(1, 1, 2)

(2, 1, 1)

(1, 2, 1)

(1, 1, 3)

(1, 3, 1)

(3, 1, 1)) =
= 4(0.027) + 3(0.036) = 0.216
p(T
2
= 2) = p(muestras de tamano 3 para las que Med{X
1
, X
2
, X
3
} = 2) =
Estadstica 72
= 4(0.027) + 9(0.036) = 0.432
p(T
2
= 3) = p(muestras de tamano 3 para las que Med{X
1
, X
2
, X
3
} = 3) =
= 6(0.048) + 0.064 = 0.352
T
3
(X
1
, X
2
, X
3
) =
X
1
+X
2
+X
3
3
Este estadstico es una variable aleatoria cuyo soporte es S
T
1
= {1,
4
3
,
5
3
, 2,
7
3
,
8
3
, 3} y su ley de
probabilidades viene dada por:
p(T
3
= 1) = p((1, 1, 1)) = 0.027
p(T
3
=
4
3
) = 3(0.027) = 0.081
p(T
3
=
5
3
) = 3(0.027) + 3(0.036) = 0.189
p(T
3
= 2) = 0.027 + 6(0.036) = 0.243
p(T
3
=
7
3
) = 3(0.036) + 3(0.048) = 0.252
p(T
3
=
8
3
) = 3(0.048) = 0.144
p(T
3
= 3) = 0.064
Denicion 3 (a) Cuando el objetivo es estimar un parametro , llamaremos espacio parametrico al
conjunto de todos los posibles valores de y lo denotaremos por .
Se llama estimador a un estadstico

que se utiliza para estimar el valor de un par ametro y
cuyo conjunto de llegada coincide con el espacio parametrico;
(b) Se llama estimacion al valor del estimador para una muestra concreta.
Ejemplo 4:
El espacio parametrico del parametro p de una variable aleatoria B(p) es el intervalo [0,1].
El espacio parametrico del parametro p de una variable aleatoria P() es (0, ).
El espacio parametrico del parametro de una variable aleatoria N(, ) es IR.
Ejemplo 5:
La aplicacion que a cada muestra aleatoria de tama no n de la variable X, (X
1
, . . . , X
n
) le asigna el
valor

X =
n

i=1
X
i
n
es un estadstico; si este estadstico se utiliza para estimar la media poblacional,
diremos que es un estimador. Si (x
1
, . . . , x
n
) es una muestra concreta de la variable, el valor
x =
n

i=1
x
i
n
sera una estimacion de la media poblacional.
Igualmente, la aplicacion que a cada muestra aleatoria de tama no n de la variable X, (X
1
, . . . , X
n
)
le asigna el valor Med(X) = mediana{(X
1
, . . . , X
n
)} es un estadstico; si este estadstico se utiliza
para estimar la media poblacional, diremos que es un estimador. Si (x
1
, . . . , x
n
) es una muestra
concreta de la variable, el valor Med{x
1
, . . . , x
n
} sera una estimacion de la media poblacional.
Estadstica 73
7.4 Propiedades deseables en un buen estimador.
Para un mismo parametro se pueden elegir varios estimadores (por ejemplo, para estimar la media de
la poblacion puede considerarse la media muestral, la mediana muestral, la moda, etc). Se plantea el
problema de elegir el estimador mas adecuado entre varios posibles. Vamos a explicar algunas de las
propiedades que sera deseable que un estimador tuviese.
(a) Centrado o insesgado:
Si

es un estimador del parametro , se dice que es centrado si E(

) = . En otro caso se dice


que es sesgado y se dene el sesgo de

como:
sesgo(

) = E(

) .
Ejemplo 6:
La media muestral es un estimador insesgado de la media de la poblacion, .
Sea X la variable aleatoria correspondiente a la caracterstica de la poblacion y (X
1
, X
2
, . . . , X
n
)
una m.a.s. de X; sea

X =
n

i=1
X
i
n
. Entonces:
E(

X) = E
_
n

i=1
X
i
n
_
=
n

i=1
E
_
X
i
n
_
=
n

i=1
E(X
i
)
n
(aqu se aplica que la media de una suma de v.a. es la suma de sus medias y que la media
de una constante por una v.a. es la constante por la media de la variable).
Como las variables X
i
son igualmente distribuidas que la variable X, tendran tambien su
misma media, ; por tanto,
E(

X) =
n

i=1
E(X
i
)
n
=
n

i=1

n
= .
La varianza muestral es un estimador sesgado de la varianza de la poblacion,
2
.
Sea X la variable aleatoria correspondiente a la caracterstica de la poblacion y (X
1
, X
2
, . . . , X
n
)
una m.a.s. de X; sea s
2
=
n

i=1
(X
i

X)
2
n
. Entonces:
E(s
2
) = E
_
n

i=1
(X
i


X)
2
n
_
= E
_
n

i=1
(X
i
+

X)
2
n
_
=
= E
_
n

i=1
(X
i
)
2
+ (

X)
2
+ 2(X
i
)(

X)
n
_
=
= E
_
n

i=1
(X
i
)
2
n
+
n

i=1
(

X)
2
n
+ 2(

X)
n

i=1
(X
i
)
n
_
=
= E
_
n

i=1
(X
i
)
2
n
_
+E
_
n

i=1
(

X)
2
n
_
+ 2E((

X)(

X )) =
Estadstica 74
=
n

i=1
E(X
i
)
2
n
+
n

i=1
E(

X)
2
n
2E((

X )
2
) =
1
=
n

i=1

2
n
+
n

i=1
E(

X)
2
n
2E((

X )
2
) =
2
=
n

i=1

2
n


2
n
=
2
n 1
n
.
Hemos obtenido que E(s
2
) =
2 n1
n
. Se deduce facilmente que E( s
2
) =
2
, donde s
2
=
n

i=1
(X
i

X)
2
n1
, y por tanto, este s es un estimador centrado de
2
.
(b) Varianza mnima:
Se dene estimador insesgado de mnima varianza como aquel estimador del parametro que entre
todos los insesgados, es el de menor varianza. (Dicho estimador no existe siempre).
Observacion 1 La importancia de esta propiedad se comprende a partir del teorema de Cheby-
chev, que armaba que para una variable aleatoria

, en el intervalo E(

) k(

) se concentra
al menos el
_
1
1
k
2
_
100% de la probabilidad, es decir, que el
_
1
1
k
2
_
100% de las veces que
obtenga de forma aleatoria un valor de la variable, ese valor estara en dicho intervalo.
Por tanto, si

es un estimador del parametro , al menos para el
_
1
1
k
2
_
100% de las mues-
tras, el estimador

tomara un valor en E(

) k(

). Si el estimador es centrado, eso signica


que para al menos el
_
1
1
k
2
_
100% de las muestras el error cometido al estimar por medio
de

sera menor que k(

) y se deduce que este error es menor cuanto menor sea


2
(

).
En ocasiones, los estimadores que se utilizan no son centrados. En ese caso, la propiedad equiva-
lente a ser de varianza mnima es tener error cuadratico medio mnimo:
Denicion 4 Se dene el error cuadratico medio (ECM) de un estimador

como: ECM(

) =
E(

)
2
.
Proposicion 1 Se verica que: ECM(

) = (sesgo(

))
2
+V ar(

).
Demostracion
ECM(

) = E(

)
2
= E(

E(

) +E(

) )
2
=
= E((

E(

))
2
+ (E(

) )
2
+ 2(

E(

))(E(

) )) =
= E(

E(

))
2
+E(E(

) )
2
+E(2(

E(

))(E(

) )) =
= V ar(

) + (E(

) )
2
+ 2(E(

) )E(

E(

)) =
3
= V ar(

) + (sesgo(

))
2
.
1
E(X
i
)
2
= V ar(X
i
) =
2
, por tener las variables X
i
la misma distribucion que X.
2
E(

X)
2
= E(

X )
2
= V ar(

X) = V ar
_
n

i=1
X
i
n
_
=
1
n
2
V ar(
n

i=1
X
i
) =
1
n
2
n

i=1
V ar(X
i
) =
n
2
n
2
=

2
n
, ya que las variables
X
1
, . . . , X
n
son independientes, por ser una m.a.s..
3
Observese que E(

E(

)) = 0.
Estadstica 75
En el resultado anterior, puede verse que si el estimador es centrado, el ECM coincide con la
varianza del estimador.
(c) Consistencia:
Los estimadores, en general dependen del tama no n de la muestra (por ejemplo,

X en realidad
debera escribirse como

X
n
). Por tanto, en general, para cada n vamos a tener un estimador

n
; se dice entonces que {

n
}

n=1
es una sucesion de estimadores consistentes si cumple las dos
condiciones siguientes:
i. lim
n
E(

n
) = .
ii. lim
n
V ar(

n
) = 0.
Esta propiedad nos asegura que aunque un estimador no sea insesgado y con varianza peque na,
basta aumentar el tama no de la muestra para poder disminuir el ECM, y en este sentido, los
estimadores con esta propiedad pueden ser estimadores razonables del parametro.
Ejemplo 7:
i. La media muestral es un estimador consistente de la media poblacional.
En efecto, anteriormente hemos probado que para cualquier tama no muestral n, la media
muestral es centrada y que V ar(

X
n
) =

2
n
. Por tanto, se cumplen las dos propiedades de la
denicion de consistencia.
ii. El estimador

n
=
n

i=1
X
i
n1
es un estimador consistente de la media poblacional.
En efecto,

n
=
n
(n1)

X. Por tanto:
E(

n
) =
n
(n1)
E(

X) =
n
(n1)
si n .
V ar(

n
) =
n
2
(n1)
2
V ar(

X) =
n
2
(n1)
2

2
n
=
n
(n1)
2

2
0 si n .
7.5 Metodos para la obtencion de estimadores.
(a) Metodo de los momentos:
Este metodo consiste en igualar los momentos muestrales respecto del origen, a
k
, a los correspon-
dientes momentos poblacionales
k
( que estan relacionados con los parametros de la distribucion).
Recordemos que si X es una v.a., el momento de orden k (k 1) respecto del origen,
k
, se dene
como:

k
=

i=1
x
k
i
p(x
i
), si X es discreta, con S
X
= {x
1
, . . . , x
n
, . . .}.

k
=
_

x
k
f(x) dx, si X es continua, con funcion de densidad f(x).
Metodo:
Si el n umero de parametros que hay que estimar es k, dada una m.a.s. de tama no n, (X
1
, . . . , X
n
),
se plantea el siguiente sistema de ecuaciones (que en general no es lineal):
Estadstica 76

1
=
n

i=1
X
i
n

2
=
n

i=1
(X
i
)
2
n
.
.
.
.
.
.

k
=
n

i=1
(X
i
)
k
n
.
.
.
.
.
.
_

_
hasta obtener k ecuaciones que involucren a los parametros.
De este sistema se despejan los parametros y las expresiones obtenidas para estos, en funcion de
los valores de la muestra, seran los estimadores por el metodo de los momentos.
Observacion 2 Generalmente, los par ametros de los que depende la distribucion de una v.a.
suelen ser la media poblacional, o la varianza o alg un valor relacionado con estos; puede verse
facilmente que estas medidas estan relacionadas con los momentos respecto del origen. Por
ejemplo,
1
=
2
=
2
+
2
.
Observacion 3 Los estadsticos as obtenidos pueden no ser estimadores, es decir, podemos
obtener soluciones que queden fuera del espacio parametrico.
Ejemplo 8:
Estimador por el metodo de los momentos de la media poblacional.
Puesto que hay que estimar un unico parametro, plantearemos una unica ecuacion:

1
=
n

i=1
X
i
n
Como
1
= , sustituyendo en la ecuacion se obtiene:
=
n

i=1
X
i
n
y por tanto el estimador sera: =
n

i=1
X
i
n
.
Estimador por el metodo de los momentos de la media y la varianza poblacionales.
En este caso hay que estimar dos parametros, luego habra que plantear dos ecuaciones:
_

1
=
n

i=1
X
i
n

2
=
n

i=1
(X
i
)
2
n
Teniendo en cuenta la relacion indicada en la observacion 2 anterior, este sistema es equiva-
lente a:
_

_
=
n

i=1
X
i
n

2
+
2
=
n

i=1
(X
i
)
2
n
Estadstica 77
Despejando y
2
se obtiene las siguientes expresiones:
_
=

n
i=1
X
i
n

2
=

n
i=1
(X
i

X)
2
n
Por tanto los correspondientes estimadores por el metodo de los momentos son:
_
=

X

2
= s
2
.
(b) Metodo de maxima verosimilitud:
El metodo de maxima verosimilitud se basa en la b usqueda de aquel valor del parametro que hace
mas probable obtener la muestra que precisamente se ha obtenido. Vamos a desarrollar esta idea
con un ejemplo y despues expondremos de forma teorica el metodo.
Ejemplo 9: Supongamos que X es una v.a. con distribucion de Bernouilli de parametro p y que
(x
1
, . . . , x
n
) son los valores (concretos) de una muestra aleatoria de tama no n, (X
1
, . . . , X
n
).
Si p 1, parece logico pensar que en esta muestra casi todos los valores x
i
sean 1, mientras
que si p 0, sera mas probable que los elementos sean casi todos nulos. Si p 1/2, entonces
esperaramos que aproximadamente hubiese igual n umero de 0 que de 1.
Sin embargo, no conocemos p pero si los valores que hemos obtenido en la muestra, x
1
, . . . , x
n
.
Ya hemos visto que la proporcion de 0 y 1 en la muestra es mas probable con unos valores de p
que con otros y la pregunta que nos vamos a formular es cual es el valor de p [0, 1] que hace
que la probabilidad de obtener precisamente esta muestra sea maxima?.
La probabilidad de obtener esta muestra es:
p(x
1
, x
2
, . . . , x
n
) = p(x
1
) . . . p(x
n
) = p
k
(1 p)
nk
,
donde k es el n umero de 1 en la muestra, es decir, k =
n

i=1
x
i
.
El problema de encontrar el valor de p [0, 1] que hace maxima esta probabilidad es un problema
de extremos absolutos en [0, 1].
Si llamamos l(p) = p
k
(1 p)
nk
( k 0), derivando en (0, 1) e igualando a 0:
l

(p) = kp
k1
(1 p)
nk
p
k
(n k)(1 p)
nk1
=
= p
k1
(1 p)
nk1
[k(1 p) (n k)p] = p
k1
(1 p)
nk1
[k np]
El punto crtico que se obtiene es: p =
k
n
=
n

i=1
x
i
n
.
Calculando l

(p) y substituyendo, se obtiene que este es un punto de maximo relativo. Como


l(0) = l(1) = 0, se concluye que tambien es un maximo absoluto, pues la funcion es continua y
no tiene mas extremos relativos en (0, 1).
De esta forma hemos obtenido un estimador de p, p =
n

i=1
x
i
n
. A este estimador se le denomina
estimador maximo verosmil (EMV) de p (se observa que coincide con la media muestral

X).
Estadstica 78
Vamos a describir ahora teoricamente el metodo:
Metodo: Sea X una v.a. cuya distribucion depende de un conjunto de parametros
1
,
2
, . . . ,
k
,
desconocidos y cuyo valor queremos estimar. Sea (X
1
, . . . , X
n
) una m.a.s. de X. Denotaremos
por

= (
1
,
2
, . . . ,
k
).
Denicion 5 Se denomina funcion de verosimilitud para la muestra (x
1
, . . . , x
n
) a la funcion,
denida sobre el conjunto de posibles valores del parametro

, dada por:
l(

) =
_
p

(x
1
, x
2
, . . . , x
n
) = p

(x
1
) . . . p

(x
n
) si X es discreta
f

(x
1
, x
2
, . . . , x
n
) = f

(x
1
) . . . f

(x
n
) si X es continua
Denicion 6 El estimador maximo verosmil de

para la muestra (x
1
, . . . , x
n
) es el valor del
vector

para el cual la funcion de verosimilitud alcanza el maximo absoluto.
Metodo:
- Formar la funcion de verosimilitud para una muestra arbitraria de tama no n.
- Resolver el correspondiente problema de maximos absolutos en el dominio de los parametros.
- Denir como EMV las expresiones obtenidas al determinar el maximo absoluto.
Observacion 4 El metodo de maxima verosimilitud plantea varias dicultades en la practica:
- No siempre existe el maximo absoluto para la funcion de verosimilitud.
- A un cuando este exista, para determinarlo es necesario resolver un problema de extremos abso-
lutos restringidos a un dominio de IR
n
, problema que no siempre es facil de resolver.
En muchas ocasiones, en lugar de maximizar la funcion de verosimilitud es mas facil maximizar
la funcion L() = ln(l ()), llamada funcion soporte. Si la funcion l() es estrictamente positiva
en el dominio de , entonces los maximos de una y otra funcion se corresponden y por tanto
maximizar una es equivalente a obtener los maximos de la otra. (Un ejemplo es la determinacion
del EMV de y para una v.a. con distribucion normal).
Proposicion 2 (Teorema de invarianza) Si

es el E.M.V. de y g es una funcion de ,
entonces g
_

_
es el E.M.V. de g () .
Estadstica 79
ESTAD

ISTICA 06-07. Hoja 7


1. Obtener un estimador insesgado para p en una m.a.s. de tama no n de una distribucion binomial
B(m,p) con m conocido y calcular su error cuadratico medio. Es consistente?.
2. Para estimar la media de una poblacion se considera el estimador a

X. Encontrar el valor de a que
minimice el error cuadratico medio.
3. Los defectos en una placa fotograca siguen una distribucion de Poisson.
(a) Encontrar un estimador centrado para , indicando la varianza del estimador.
(b) Se estudian 7 placas, encontrando: 3, 5, 2, 1, 2, 3, 4 defectos. Dar la estimacion maximo verosmil
de y de la longitud media entre defectos.
4. Calcular el valor de k para el cual

= k

X es un estimador insesgado del parametro de la v.a. X que
sigue una distribucion uniforme en el intervalo (0, ).
5. Calcular por el metodo de los momentos un estimador de en el supuesto de que X sea una variable
aleatoria con funcion de densidad:
f(x) =
_

_
0 x
3
3
x
4
x >
6. Calcular por el metodo de los momentos estimadores de a y de b en una distribucion uniforme en el
intervalo [a,b].
7. El coseno X del angulo con el que se emiten los electrones en un proceso radiactivo es una variable
aleatoria con funcion de densidad:
f

(x) =
_

_
1 +x
2
1 x 1
(1 1)
0 en otro caso
Consideremos una muestra aleatoria simple (X
1
, X
2
, ..., X
n
) de esta variable.
(a) Obtener el estimador de por el metodo de los momentos.
(b) Calcular la varianza de este estimador y demostrar que es consistente.
Estadstica 80
8. En una gran piscifactora hay una proporcion desconocida de peces de una especie A. Para obtener
informacion sobre esa proporcion vamos a ir sacando peces al azar.
(a) Si la proporcion de peces de la especie A es p, cual es la probabilidad de que el primer pez de
la especie A sea el decimo que extraemos?.
(b) Tres personas realizan, independientemente unas de otras, el proceso de sacar peces al azar hasta
encontrarse con el primero de tipo A:
La 1
a
persona obtiene el primer pez de tipo A en la decima extraccion.
La 2
a
persona obtiene el primer pez de tipo A en la decimoquinta extraccion.
La 3
a
persona obtiene el primer pez de tipo A en la decimoctava extraccion.
Escribir la funcion de verosimilitud y obtener la estimacion de maxima verosimilitud de p.
9. Hallar el E.M.V. para una m.a.s. de tama no n en una v.a. de Bernouilli de parametro p.
10. Hallar el E.M.V. de (, ) para una m.a.s. de tama no n en una v.a. N(, ).
11. Sea X una v.a. con distribucion uniforme en el intervalo [ 1, + 1]. Se ha observado la siguiente
muestra: 2.522 , 2.614 , 1.160 , 1.627 , 1.410 , 2.612 , 1.636 , 2.945 , 2.952 , 1.502. Hallar la estimacion
maximo verosmil de .
12. Sea X un v.a. U (0, ) . Sea X
1
, X
2
, . . . , X
n
una m.a.s. de X.
(a) Demostrar que X
(n)
= max (X
1
, X
2
, . . . , X
n
) es el E.M.V. de . Es insesgado?. Calcular su
E.C.M. Es consistente?.
(b) Dar un estimador T
1
insesgado de . Es consistente?.
(c) Sea T
2
= (n + 2)X
(n)
/(n + 1). Es insesgado?. Es consistente?.
(d) Que estimador es preferible entre T
1
y T
2
?.
(e) Se ha observado la siguiente muestra: 3.872 , 2.758 , 2.096 , 2.494 , 0.917 , 0.801 , 1.192 Hallar la
estimacion de .
13. La funcion de densidad de una v.a. X es f (x, ) = ( + 1) x

si 0 < x < 1.
(a) Hallar un estimador de mediante el metodo de los momentos.
(b) Hallar el E.M.V. de .
14. Calcular por el metodo de los momentos un estimador de en el supuesto de que X sea una variable
aleatoria U (, ) .
15. Sea X una v.a. con distribucion geometrica de parametro p. Obtener un estimador de p por el metodo
de los momentos y el E.M.V..
16. Sea (X
1
, X
2
, . . . , X
n
) una m.a.s. de una v.a. con funcion de densidad f

(x) = (1 x)
1
;
0 x 1, > 0.
Encontrar el estimador maximo verosmil para el parametro .
Estadstica 81
17. Dada una muestra aleatoria simple (X
1
, X
2
, . . . , X
n
) procedente de una poblacion X con funcion de
densidad
f(x) =
_
_
_
x

e
x
2
2
si x 0
0 si x < 0.
Calcular por el metodo de maxima verosimilitud un estimador para .
18. Sea X un variable aleatoria con media y varianza
2
. Dadas dos muestras aleatorias independientes
de tama no n
1
y n
2
, con medias muestrales

X
1
y

X
2
, demuestre que

X = a

X
1
+ (1 a)

X
2
, 0 < a < 1
es un estimador insesgado para .
Si

X
1
y

X
2
, son independientes, encuentre el valor de a que minimiza la desviacion estandar de

X.
Es consistente el estimador, para dicho valor de a?.
19. Supon que T
1
, T
2
y T
3
son estimadores de . Se sabe que E

(T
1
) = E

(T
2
) = , E

(T
3
) = + 2,
V ar

(T
1
) = 12, V ar

(T
2
) = 10 y V ar

((T
3
)
2
) = 13. Compara estos tres estimadores desde el
punto de vista del sesgo y la varianza. Cual preeres? Por que?
20. Sea X
1
, X
2
, . . . , X
7
una m.a.s. de una poblacion que tiene media y varianza
2
.
Se consideran dos estimadores de :

1
=
X
1
+X
2
+ +X
7
7

2
=
2X
1
X
6
+X
4
2
(a) Estos estimadores son insesgados?
(b) Calcular la varianza de cada uno.
(c) Cual consideras mejor estimador de ? Por que?
Estadstica 82
21. Ciertas piezas tienen una duracion mnima > 0 y una duracion extra aleatoria que sigue una distri-
bucion exponencial de parametro 1 de manera que el tiempo de vida de la poblacion de piezas es una
variable aleatoria X con densidad:
f(x, ) =
_
e
x
si x >
0 si x
Se extrae una muestra aleatoria simple de tama no n de X.
(a) Obten el estimador maximo verosmil T
1
de .
(b) Calcula el estimador T
2
de por el metodo de los momentos.
Nota: Puede ser util el hecho de que X = +Y con Y E(1).
(c) Es T
2
un estimador insesgado de ? Y consistente para ?
(d) Sabiendo que E(T
1
) = +
1
n
y V ar(T
1
) =
1
n
2
Que estimador es preferible para ? Por que?
(e) Un ingeniero proporciona una estimacion de a partir de T
1
y de una muestra de tama no 30. Que
tama no muestral sera necesario para conseguir con T
2
una estimacion preferible a la obtenida
por el ingeniero?
22. Sea X
1
, X
2
, . . . , X
n
una muestra aleatoria de tama no n.
(a) Demuestre que

X
2
es un estimador sesgado de
2
.
Nota: Recordar que V ar(X) = E(X
2
) (E(X))
2
(b) Determine la magnitud del sesgo en este estimador.
(c) Que sucede con el sesgo a medida que aumenta el tama no n de la muestra?
23. En un experimento de Bernouilli se observan los valores x
1
, x
2
, . . . , x
n
en n ensayos independientes.
Se proponen los siguientes estad`sticos como estimadores del parametro p:
T
1
=
1
n
n

i=1
x
1
T
2
=
1
n + 2
_
1 +
n

i=1
x
1
_
(a) Son estimadores insesgados de p?
(b) Son estimadores consistentes?
24. Sea T una v.a. con distribucion exponencial de parametro , que representa el tiempo de vida de una
componente.
(a) Demostrar que la probabilidad de dejar de funcionar antes del tiempo medio de vida no depende
del parametro .
(b) Hallar el E.M.V. de la media de la poblacion a partir de una m.a.s. de tama no n.
Estadstica 83
25. El porcentaje X de una componente en un producto tiene una funcion de densidad f(x) =
2

2
( x)
si 0 < x < , y cero en otro caso.
(a) Dada una muestra aleatoria simple de tama no n calcular el estimador de por el metodo de los
momentos y analizar su consistencia.
(b) Suponiendo que el tama no muestral es uno, calcular el estimador maximo verosmil de .
(c) Particulariza el estimador obtenido en el apartado (a) al caso n = 1 y comparalo con el obtenido
en el apartado (b).
26. La variable X representa los precios de alquiler de los apartamentos de una zona turstica. La funcion
de densidad de X es:
f(x, ) =
_
1

e
x/
x > 0
0 x 0
Se elige una muesta aleatoria simple X
1
, X
2
, . . . , X
n
(n 2) de precios y se consideran los estimadores
de :

1
=
X
1
+X
2
+ +X
n1
n 1

2
=
X
1
+X
2
+ +X
n
n + 1
(a) Estudia la consistencia de

1
y

2
.
(b) Cual de los dos estimadores es preferible?

You might also like