Professional Documents
Culture Documents
1. INSESGADO:
Es deseable que un estimador sea insesgado o centrado, es decir, que su sesgo sea
nulo por ser su esperanza igual al parmetro que se desea estimar.
Estimadores insesgados son la Media muestral (estimador de la Media de la
poblacin) y la Varianza (estimador de la Varianza de la poblacin)
EJEMPLO:
La Varianza es un estimador sesgado. Ejemplo: La Media de las Varianzas
obtenidas con la Varianza
La Media de las Varianzas muestrales es igual a 9.5, esto es, coincide con la
Varianza de la poblacin ya que la Cuasivarianza es un estimador insesgado.
2. EFICIENCIA:
Se refiere a que un estimador es ms eficiente o ms preciso que otro estimador, si la
varianza del primero es menor que la del segundo. Un estimador es ms eficiente (ms
preciso), por tanto, cuanto menor es su varianza.
La eficiencia de los estimadores est limitada por las caractersticas de la distribucin de
probabilidad de la muestra de la que proceden.
Por ejemplo, si y son ambos estimadores de y diremos que es ms eficiente que.
3. CONSISTENTE:
Un estimador se dice consistente si converge al parmetro, es decir, si su distribucin se
concentra alrededor del parmetro a medida que aumenta el tamao de la muestra, de
forma tal que el error de muestreo tiende a desaparecer.
Si un estimador es coherente, se vuelve ms confiable si tenemos tamaos de muestras
ms grandes.
EJEMPLO:
En una poblacin de 500 puntuaciones cuya Media (m) es igual a 4.9 han hecho tres
muestreos aleatorios (nmero de muestras= 100) con los siguientes resultados:
vemos que el muestreo en que n=100 la Media de las Medias muestrales toma el mismo
valor que la Media de la poblacin.
4. SUFICIENTE
Se dice que un estimador es suficiente si contiene o (absorbe) toda la informacin
relevante contenida en la muestra, de forma que ningn otro estimador pueda
proporcionar informacin adicional sobre el parmetro desconocido de la poblacin.
El teorema del lmite central Sabemos que la distribucin de la media muestral de una
variable normal o bien tiene distribucin normal o bien se corresponde con una t de
Student. Tambin si las variables originales siguen una distribucin de Bernoulli,
entonces su media es una proporcin y, en este caso, cuando n es lo bastante grande, su
distribucin muestral tambin es una normal. El ltimo resultado es cierto sea cual sea
la distribucin de los datos originales. Es decir, no es preciso que partamos ni de
distribuciones normales ni de distribuciones de Bernoulli, ya que para muestras de
tamaos lo bastante grandes, la distribucin de la media muestral es normal sea cual sea
la distribucin original. Este resultado fundamental de la estadstica tiene un nombre
propio: el teorema del lmite central.
El teorema del lmite central dice que si una muestra es lo bastante grande
(n > 30), sea cual sea la distribucin de la variable de inters, la
distribucin de la media muestral ser aproximadamente una normal.
Adems, la media ser la misma que la de la variable de inters, y la
desviacin t- pica de la media muestral ser aproximadamente el error
estndar.
es una normal
CONSECUENCIAS