Professional Documents
Culture Documents
(1, 2, 1)
(1, 1, 2)
(2, 2, 1)
(2, 1, 2)
(1, 2, 2)
(1, 1, 2)
(2, 1, 1)
(1, 2, 1)
(1, 1, 3)
(1, 3, 1)
(3, 1, 1)) =
= 4(0.027) + 3(0.036) = 0.216
p(T
2
= 2) = p(muestras de tamano 3 para las que Med{X
1
, X
2
, X
3
} = 2) =
Estadstica 72
= 4(0.027) + 9(0.036) = 0.432
p(T
2
= 3) = p(muestras de tamano 3 para las que Med{X
1
, X
2
, X
3
} = 3) =
= 6(0.048) + 0.064 = 0.352
T
3
(X
1
, X
2
, X
3
) =
X
1
+X
2
+X
3
3
Este estadstico es una variable aleatoria cuyo soporte es S
T
1
= {1,
4
3
,
5
3
, 2,
7
3
,
8
3
, 3} y su ley de
probabilidades viene dada por:
p(T
3
= 1) = p((1, 1, 1)) = 0.027
p(T
3
=
4
3
) = 3(0.027) = 0.081
p(T
3
=
5
3
) = 3(0.027) + 3(0.036) = 0.189
p(T
3
= 2) = 0.027 + 6(0.036) = 0.243
p(T
3
=
7
3
) = 3(0.036) + 3(0.048) = 0.252
p(T
3
=
8
3
) = 3(0.048) = 0.144
p(T
3
= 3) = 0.064
Denicion 3 (a) Cuando el objetivo es estimar un parametro , llamaremos espacio parametrico al
conjunto de todos los posibles valores de y lo denotaremos por .
Se llama estimador a un estadstico
que se utiliza para estimar el valor de un par ametro y
cuyo conjunto de llegada coincide con el espacio parametrico;
(b) Se llama estimacion al valor del estimador para una muestra concreta.
Ejemplo 4:
El espacio parametrico del parametro p de una variable aleatoria B(p) es el intervalo [0,1].
El espacio parametrico del parametro p de una variable aleatoria P() es (0, ).
El espacio parametrico del parametro de una variable aleatoria N(, ) es IR.
Ejemplo 5:
La aplicacion que a cada muestra aleatoria de tama no n de la variable X, (X
1
, . . . , X
n
) le asigna el
valor
X =
n
i=1
X
i
n
es un estadstico; si este estadstico se utiliza para estimar la media poblacional,
diremos que es un estimador. Si (x
1
, . . . , x
n
) es una muestra concreta de la variable, el valor
x =
n
i=1
x
i
n
sera una estimacion de la media poblacional.
Igualmente, la aplicacion que a cada muestra aleatoria de tama no n de la variable X, (X
1
, . . . , X
n
)
le asigna el valor Med(X) = mediana{(X
1
, . . . , X
n
)} es un estadstico; si este estadstico se utiliza
para estimar la media poblacional, diremos que es un estimador. Si (x
1
, . . . , x
n
) es una muestra
concreta de la variable, el valor Med{x
1
, . . . , x
n
} sera una estimacion de la media poblacional.
Estadstica 73
7.4 Propiedades deseables en un buen estimador.
Para un mismo parametro se pueden elegir varios estimadores (por ejemplo, para estimar la media de
la poblacion puede considerarse la media muestral, la mediana muestral, la moda, etc). Se plantea el
problema de elegir el estimador mas adecuado entre varios posibles. Vamos a explicar algunas de las
propiedades que sera deseable que un estimador tuviese.
(a) Centrado o insesgado:
Si
es un estimador del parametro , se dice que es centrado si E(
) = E(
) .
Ejemplo 6:
La media muestral es un estimador insesgado de la media de la poblacion, .
Sea X la variable aleatoria correspondiente a la caracterstica de la poblacion y (X
1
, X
2
, . . . , X
n
)
una m.a.s. de X; sea
X =
n
i=1
X
i
n
. Entonces:
E(
X) = E
_
n
i=1
X
i
n
_
=
n
i=1
E
_
X
i
n
_
=
n
i=1
E(X
i
)
n
(aqu se aplica que la media de una suma de v.a. es la suma de sus medias y que la media
de una constante por una v.a. es la constante por la media de la variable).
Como las variables X
i
son igualmente distribuidas que la variable X, tendran tambien su
misma media, ; por tanto,
E(
X) =
n
i=1
E(X
i
)
n
=
n
i=1
n
= .
La varianza muestral es un estimador sesgado de la varianza de la poblacion,
2
.
Sea X la variable aleatoria correspondiente a la caracterstica de la poblacion y (X
1
, X
2
, . . . , X
n
)
una m.a.s. de X; sea s
2
=
n
i=1
(X
i
X)
2
n
. Entonces:
E(s
2
) = E
_
n
i=1
(X
i
X)
2
n
_
= E
_
n
i=1
(X
i
+
X)
2
n
_
=
= E
_
n
i=1
(X
i
)
2
+ (
X)
2
+ 2(X
i
)(
X)
n
_
=
= E
_
n
i=1
(X
i
)
2
n
+
n
i=1
(
X)
2
n
+ 2(
X)
n
i=1
(X
i
)
n
_
=
= E
_
n
i=1
(X
i
)
2
n
_
+E
_
n
i=1
(
X)
2
n
_
+ 2E((
X)(
X )) =
Estadstica 74
=
n
i=1
E(X
i
)
2
n
+
n
i=1
E(
X)
2
n
2E((
X )
2
) =
1
=
n
i=1
2
n
+
n
i=1
E(
X)
2
n
2E((
X )
2
) =
2
=
n
i=1
2
n
2
n
=
2
n 1
n
.
Hemos obtenido que E(s
2
) =
2 n1
n
. Se deduce facilmente que E( s
2
) =
2
, donde s
2
=
n
i=1
(X
i
X)
2
n1
, y por tanto, este s es un estimador centrado de
2
.
(b) Varianza mnima:
Se dene estimador insesgado de mnima varianza como aquel estimador del parametro que entre
todos los insesgados, es el de menor varianza. (Dicho estimador no existe siempre).
Observacion 1 La importancia de esta propiedad se comprende a partir del teorema de Cheby-
chev, que armaba que para una variable aleatoria
, en el intervalo E(
) k(
) se concentra
al menos el
_
1
1
k
2
_
100% de la probabilidad, es decir, que el
_
1
1
k
2
_
100% de las veces que
obtenga de forma aleatoria un valor de la variable, ese valor estara en dicho intervalo.
Por tanto, si
es un estimador del parametro , al menos para el
_
1
1
k
2
_
100% de las mues-
tras, el estimador
tomara un valor en E(
) k(
).
En ocasiones, los estimadores que se utilizan no son centrados. En ese caso, la propiedad equiva-
lente a ser de varianza mnima es tener error cuadratico medio mnimo:
Denicion 4 Se dene el error cuadratico medio (ECM) de un estimador
como: ECM(
) =
E(
)
2
.
Proposicion 1 Se verica que: ECM(
) = (sesgo(
))
2
+V ar(
).
Demostracion
ECM(
) = E(
)
2
= E(
E(
) +E(
) )
2
=
= E((
E(
))
2
+ (E(
) )
2
+ 2(
E(
))(E(
) )) =
= E(
E(
))
2
+E(E(
) )
2
+E(2(
E(
))(E(
) )) =
= V ar(
) + (E(
) )
2
+ 2(E(
) )E(
E(
)) =
3
= V ar(
) + (sesgo(
))
2
.
1
E(X
i
)
2
= V ar(X
i
) =
2
, por tener las variables X
i
la misma distribucion que X.
2
E(
X)
2
= E(
X )
2
= V ar(
X) = V ar
_
n
i=1
X
i
n
_
=
1
n
2
V ar(
n
i=1
X
i
) =
1
n
2
n
i=1
V ar(X
i
) =
n
2
n
2
=
2
n
, ya que las variables
X
1
, . . . , X
n
son independientes, por ser una m.a.s..
3
Observese que E(
E(
)) = 0.
Estadstica 75
En el resultado anterior, puede verse que si el estimador es centrado, el ECM coincide con la
varianza del estimador.
(c) Consistencia:
Los estimadores, en general dependen del tama no n de la muestra (por ejemplo,
X en realidad
debera escribirse como
X
n
). Por tanto, en general, para cada n vamos a tener un estimador
n
; se dice entonces que {
n
}
n=1
es una sucesion de estimadores consistentes si cumple las dos
condiciones siguientes:
i. lim
n
E(
n
) = .
ii. lim
n
V ar(
n
) = 0.
Esta propiedad nos asegura que aunque un estimador no sea insesgado y con varianza peque na,
basta aumentar el tama no de la muestra para poder disminuir el ECM, y en este sentido, los
estimadores con esta propiedad pueden ser estimadores razonables del parametro.
Ejemplo 7:
i. La media muestral es un estimador consistente de la media poblacional.
En efecto, anteriormente hemos probado que para cualquier tama no muestral n, la media
muestral es centrada y que V ar(
X
n
) =
2
n
. Por tanto, se cumplen las dos propiedades de la
denicion de consistencia.
ii. El estimador
n
=
n
i=1
X
i
n1
es un estimador consistente de la media poblacional.
En efecto,
n
=
n
(n1)
X. Por tanto:
E(
n
) =
n
(n1)
E(
X) =
n
(n1)
si n .
V ar(
n
) =
n
2
(n1)
2
V ar(
X) =
n
2
(n1)
2
2
n
=
n
(n1)
2
2
0 si n .
7.5 Metodos para la obtencion de estimadores.
(a) Metodo de los momentos:
Este metodo consiste en igualar los momentos muestrales respecto del origen, a
k
, a los correspon-
dientes momentos poblacionales
k
( que estan relacionados con los parametros de la distribucion).
Recordemos que si X es una v.a., el momento de orden k (k 1) respecto del origen,
k
, se dene
como:
k
=
i=1
x
k
i
p(x
i
), si X es discreta, con S
X
= {x
1
, . . . , x
n
, . . .}.
k
=
_
x
k
f(x) dx, si X es continua, con funcion de densidad f(x).
Metodo:
Si el n umero de parametros que hay que estimar es k, dada una m.a.s. de tama no n, (X
1
, . . . , X
n
),
se plantea el siguiente sistema de ecuaciones (que en general no es lineal):
Estadstica 76
1
=
n
i=1
X
i
n
2
=
n
i=1
(X
i
)
2
n
.
.
.
.
.
.
k
=
n
i=1
(X
i
)
k
n
.
.
.
.
.
.
_
_
hasta obtener k ecuaciones que involucren a los parametros.
De este sistema se despejan los parametros y las expresiones obtenidas para estos, en funcion de
los valores de la muestra, seran los estimadores por el metodo de los momentos.
Observacion 2 Generalmente, los par ametros de los que depende la distribucion de una v.a.
suelen ser la media poblacional, o la varianza o alg un valor relacionado con estos; puede verse
facilmente que estas medidas estan relacionadas con los momentos respecto del origen. Por
ejemplo,
1
=
2
=
2
+
2
.
Observacion 3 Los estadsticos as obtenidos pueden no ser estimadores, es decir, podemos
obtener soluciones que queden fuera del espacio parametrico.
Ejemplo 8:
Estimador por el metodo de los momentos de la media poblacional.
Puesto que hay que estimar un unico parametro, plantearemos una unica ecuacion:
1
=
n
i=1
X
i
n
Como
1
= , sustituyendo en la ecuacion se obtiene:
=
n
i=1
X
i
n
y por tanto el estimador sera: =
n
i=1
X
i
n
.
Estimador por el metodo de los momentos de la media y la varianza poblacionales.
En este caso hay que estimar dos parametros, luego habra que plantear dos ecuaciones:
_
1
=
n
i=1
X
i
n
2
=
n
i=1
(X
i
)
2
n
Teniendo en cuenta la relacion indicada en la observacion 2 anterior, este sistema es equiva-
lente a:
_
_
=
n
i=1
X
i
n
2
+
2
=
n
i=1
(X
i
)
2
n
Estadstica 77
Despejando y
2
se obtiene las siguientes expresiones:
_
=
n
i=1
X
i
n
2
=
n
i=1
(X
i
X)
2
n
Por tanto los correspondientes estimadores por el metodo de los momentos son:
_
=
X
2
= s
2
.
(b) Metodo de maxima verosimilitud:
El metodo de maxima verosimilitud se basa en la b usqueda de aquel valor del parametro que hace
mas probable obtener la muestra que precisamente se ha obtenido. Vamos a desarrollar esta idea
con un ejemplo y despues expondremos de forma teorica el metodo.
Ejemplo 9: Supongamos que X es una v.a. con distribucion de Bernouilli de parametro p y que
(x
1
, . . . , x
n
) son los valores (concretos) de una muestra aleatoria de tama no n, (X
1
, . . . , X
n
).
Si p 1, parece logico pensar que en esta muestra casi todos los valores x
i
sean 1, mientras
que si p 0, sera mas probable que los elementos sean casi todos nulos. Si p 1/2, entonces
esperaramos que aproximadamente hubiese igual n umero de 0 que de 1.
Sin embargo, no conocemos p pero si los valores que hemos obtenido en la muestra, x
1
, . . . , x
n
.
Ya hemos visto que la proporcion de 0 y 1 en la muestra es mas probable con unos valores de p
que con otros y la pregunta que nos vamos a formular es cual es el valor de p [0, 1] que hace
que la probabilidad de obtener precisamente esta muestra sea maxima?.
La probabilidad de obtener esta muestra es:
p(x
1
, x
2
, . . . , x
n
) = p(x
1
) . . . p(x
n
) = p
k
(1 p)
nk
,
donde k es el n umero de 1 en la muestra, es decir, k =
n
i=1
x
i
.
El problema de encontrar el valor de p [0, 1] que hace maxima esta probabilidad es un problema
de extremos absolutos en [0, 1].
Si llamamos l(p) = p
k
(1 p)
nk
( k 0), derivando en (0, 1) e igualando a 0:
l
(p) = kp
k1
(1 p)
nk
p
k
(n k)(1 p)
nk1
=
= p
k1
(1 p)
nk1
[k(1 p) (n k)p] = p
k1
(1 p)
nk1
[k np]
El punto crtico que se obtiene es: p =
k
n
=
n
i=1
x
i
n
.
Calculando l
i=1
x
i
n
. A este estimador se le denomina
estimador maximo verosmil (EMV) de p (se observa que coincide con la media muestral
X).
Estadstica 78
Vamos a describir ahora teoricamente el metodo:
Metodo: Sea X una v.a. cuya distribucion depende de un conjunto de parametros
1
,
2
, . . . ,
k
,
desconocidos y cuyo valor queremos estimar. Sea (X
1
, . . . , X
n
) una m.a.s. de X. Denotaremos
por
= (
1
,
2
, . . . ,
k
).
Denicion 5 Se denomina funcion de verosimilitud para la muestra (x
1
, . . . , x
n
) a la funcion,
denida sobre el conjunto de posibles valores del parametro
, dada por:
l(
) =
_
p
(x
1
, x
2
, . . . , x
n
) = p
(x
1
) . . . p
(x
n
) si X es discreta
f
(x
1
, x
2
, . . . , x
n
) = f
(x
1
) . . . f
(x
n
) si X es continua
Denicion 6 El estimador maximo verosmil de
para la muestra (x
1
, . . . , x
n
) es el valor del
vector
para el cual la funcion de verosimilitud alcanza el maximo absoluto.
Metodo:
- Formar la funcion de verosimilitud para una muestra arbitraria de tama no n.
- Resolver el correspondiente problema de maximos absolutos en el dominio de los parametros.
- Denir como EMV las expresiones obtenidas al determinar el maximo absoluto.
Observacion 4 El metodo de maxima verosimilitud plantea varias dicultades en la practica:
- No siempre existe el maximo absoluto para la funcion de verosimilitud.
- A un cuando este exista, para determinarlo es necesario resolver un problema de extremos abso-
lutos restringidos a un dominio de IR
n
, problema que no siempre es facil de resolver.
En muchas ocasiones, en lugar de maximizar la funcion de verosimilitud es mas facil maximizar
la funcion L() = ln(l ()), llamada funcion soporte. Si la funcion l() es estrictamente positiva
en el dominio de , entonces los maximos de una y otra funcion se corresponden y por tanto
maximizar una es equivalente a obtener los maximos de la otra. (Un ejemplo es la determinacion
del EMV de y para una v.a. con distribucion normal).
Proposicion 2 (Teorema de invarianza) Si
es el E.M.V. de y g es una funcion de ,
entonces g
_
_
es el E.M.V. de g () .
Estadstica 79
ESTAD
_
0 x
3
3
x
4
x >
6. Calcular por el metodo de los momentos estimadores de a y de b en una distribucion uniforme en el
intervalo [a,b].
7. El coseno X del angulo con el que se emiten los electrones en un proceso radiactivo es una variable
aleatoria con funcion de densidad:
f
(x) =
_
_
1 +x
2
1 x 1
(1 1)
0 en otro caso
Consideremos una muestra aleatoria simple (X
1
, X
2
, ..., X
n
) de esta variable.
(a) Obtener el estimador de por el metodo de los momentos.
(b) Calcular la varianza de este estimador y demostrar que es consistente.
Estadstica 80
8. En una gran piscifactora hay una proporcion desconocida de peces de una especie A. Para obtener
informacion sobre esa proporcion vamos a ir sacando peces al azar.
(a) Si la proporcion de peces de la especie A es p, cual es la probabilidad de que el primer pez de
la especie A sea el decimo que extraemos?.
(b) Tres personas realizan, independientemente unas de otras, el proceso de sacar peces al azar hasta
encontrarse con el primero de tipo A:
La 1
a
persona obtiene el primer pez de tipo A en la decima extraccion.
La 2
a
persona obtiene el primer pez de tipo A en la decimoquinta extraccion.
La 3
a
persona obtiene el primer pez de tipo A en la decimoctava extraccion.
Escribir la funcion de verosimilitud y obtener la estimacion de maxima verosimilitud de p.
9. Hallar el E.M.V. para una m.a.s. de tama no n en una v.a. de Bernouilli de parametro p.
10. Hallar el E.M.V. de (, ) para una m.a.s. de tama no n en una v.a. N(, ).
11. Sea X una v.a. con distribucion uniforme en el intervalo [ 1, + 1]. Se ha observado la siguiente
muestra: 2.522 , 2.614 , 1.160 , 1.627 , 1.410 , 2.612 , 1.636 , 2.945 , 2.952 , 1.502. Hallar la estimacion
maximo verosmil de .
12. Sea X un v.a. U (0, ) . Sea X
1
, X
2
, . . . , X
n
una m.a.s. de X.
(a) Demostrar que X
(n)
= max (X
1
, X
2
, . . . , X
n
) es el E.M.V. de . Es insesgado?. Calcular su
E.C.M. Es consistente?.
(b) Dar un estimador T
1
insesgado de . Es consistente?.
(c) Sea T
2
= (n + 2)X
(n)
/(n + 1). Es insesgado?. Es consistente?.
(d) Que estimador es preferible entre T
1
y T
2
?.
(e) Se ha observado la siguiente muestra: 3.872 , 2.758 , 2.096 , 2.494 , 0.917 , 0.801 , 1.192 Hallar la
estimacion de .
13. La funcion de densidad de una v.a. X es f (x, ) = ( + 1) x
si 0 < x < 1.
(a) Hallar un estimador de mediante el metodo de los momentos.
(b) Hallar el E.M.V. de .
14. Calcular por el metodo de los momentos un estimador de en el supuesto de que X sea una variable
aleatoria U (, ) .
15. Sea X una v.a. con distribucion geometrica de parametro p. Obtener un estimador de p por el metodo
de los momentos y el E.M.V..
16. Sea (X
1
, X
2
, . . . , X
n
) una m.a.s. de una v.a. con funcion de densidad f
(x) = (1 x)
1
;
0 x 1, > 0.
Encontrar el estimador maximo verosmil para el parametro .
Estadstica 81
17. Dada una muestra aleatoria simple (X
1
, X
2
, . . . , X
n
) procedente de una poblacion X con funcion de
densidad
f(x) =
_
_
_
x
e
x
2
2
si x 0
0 si x < 0.
Calcular por el metodo de maxima verosimilitud un estimador para .
18. Sea X un variable aleatoria con media y varianza
2
. Dadas dos muestras aleatorias independientes
de tama no n
1
y n
2
, con medias muestrales
X
1
y
X
2
, demuestre que
X = a
X
1
+ (1 a)
X
2
, 0 < a < 1
es un estimador insesgado para .
Si
X
1
y
X
2
, son independientes, encuentre el valor de a que minimiza la desviacion estandar de
X.
Es consistente el estimador, para dicho valor de a?.
19. Supon que T
1
, T
2
y T
3
son estimadores de . Se sabe que E
(T
1
) = E
(T
2
) = , E
(T
3
) = + 2,
V ar
(T
1
) = 12, V ar
(T
2
) = 10 y V ar
((T
3
)
2
) = 13. Compara estos tres estimadores desde el
punto de vista del sesgo y la varianza. Cual preeres? Por que?
20. Sea X
1
, X
2
, . . . , X
7
una m.a.s. de una poblacion que tiene media y varianza
2
.
Se consideran dos estimadores de :
1
=
X
1
+X
2
+ +X
7
7
2
=
2X
1
X
6
+X
4
2
(a) Estos estimadores son insesgados?
(b) Calcular la varianza de cada uno.
(c) Cual consideras mejor estimador de ? Por que?
Estadstica 82
21. Ciertas piezas tienen una duracion mnima > 0 y una duracion extra aleatoria que sigue una distri-
bucion exponencial de parametro 1 de manera que el tiempo de vida de la poblacion de piezas es una
variable aleatoria X con densidad:
f(x, ) =
_
e
x
si x >
0 si x
Se extrae una muestra aleatoria simple de tama no n de X.
(a) Obten el estimador maximo verosmil T
1
de .
(b) Calcula el estimador T
2
de por el metodo de los momentos.
Nota: Puede ser util el hecho de que X = +Y con Y E(1).
(c) Es T
2
un estimador insesgado de ? Y consistente para ?
(d) Sabiendo que E(T
1
) = +
1
n
y V ar(T
1
) =
1
n
2
Que estimador es preferible para ? Por que?
(e) Un ingeniero proporciona una estimacion de a partir de T
1
y de una muestra de tama no 30. Que
tama no muestral sera necesario para conseguir con T
2
una estimacion preferible a la obtenida
por el ingeniero?
22. Sea X
1
, X
2
, . . . , X
n
una muestra aleatoria de tama no n.
(a) Demuestre que
X
2
es un estimador sesgado de
2
.
Nota: Recordar que V ar(X) = E(X
2
) (E(X))
2
(b) Determine la magnitud del sesgo en este estimador.
(c) Que sucede con el sesgo a medida que aumenta el tama no n de la muestra?
23. En un experimento de Bernouilli se observan los valores x
1
, x
2
, . . . , x
n
en n ensayos independientes.
Se proponen los siguientes estad`sticos como estimadores del parametro p:
T
1
=
1
n
n
i=1
x
1
T
2
=
1
n + 2
_
1 +
n
i=1
x
1
_
(a) Son estimadores insesgados de p?
(b) Son estimadores consistentes?
24. Sea T una v.a. con distribucion exponencial de parametro , que representa el tiempo de vida de una
componente.
(a) Demostrar que la probabilidad de dejar de funcionar antes del tiempo medio de vida no depende
del parametro .
(b) Hallar el E.M.V. de la media de la poblacion a partir de una m.a.s. de tama no n.
Estadstica 83
25. El porcentaje X de una componente en un producto tiene una funcion de densidad f(x) =
2
2
( x)
si 0 < x < , y cero en otro caso.
(a) Dada una muestra aleatoria simple de tama no n calcular el estimador de por el metodo de los
momentos y analizar su consistencia.
(b) Suponiendo que el tama no muestral es uno, calcular el estimador maximo verosmil de .
(c) Particulariza el estimador obtenido en el apartado (a) al caso n = 1 y comparalo con el obtenido
en el apartado (b).
26. La variable X representa los precios de alquiler de los apartamentos de una zona turstica. La funcion
de densidad de X es:
f(x, ) =
_
1
e
x/
x > 0
0 x 0
Se elige una muesta aleatoria simple X
1
, X
2
, . . . , X
n
(n 2) de precios y se consideran los estimadores
de :
1
=
X
1
+X
2
+ +X
n1
n 1
2
=
X
1
+X
2
+ +X
n
n + 1
(a) Estudia la consistencia de
1
y
2
.
(b) Cual de los dos estimadores es preferible?