You are on page 1of 3

REQUISITOS PARA SER UN BUEN ESTIMADOR

Un estimador, es un estadstico (esto es, una funcin de la muestra) usado para


estimar un parmetro desconocido de la poblacin.
Por ejemplo, si se desea conocer el precio medio de un artculo (el parmetro
desconocido) se recogern observaciones del precio de dicho artculo en diversos
establecimientos (la muestra) y la media aritmtica de las observaciones puede utilizarse
como estimador del precio medio.
Estimacin, es un valor numrico especfico de nuestro estimador. Una estimacin es un
valor especfico observado de una estadstica.

1. INSESGADO:
Es deseable que un estimador sea insesgado o centrado, es decir, que su sesgo sea
nulo por ser su esperanza igual al parmetro que se desea estimar.
Estimadores insesgados son la Media muestral (estimador de la Media de la
poblacin) y la Varianza (estimador de la Varianza de la poblacin)
EJEMPLO:
La Varianza es un estimador sesgado. Ejemplo: La Media de las Varianzas
obtenidas con la Varianza

En un muestreo de 1000 muestras (n=25) en que la Varianza de la poblacin


es igual a 9.56 ha resultado igual a 9.12, esto es, no coinciden. En cambio, al
utilizar la Cuasivarianza

La Media de las Varianzas muestrales es igual a 9.5, esto es, coincide con la
Varianza de la poblacin ya que la Cuasivarianza es un estimador insesgado.

Nota: Se denomina sesgo de un estimador a la diferencia entre la esperanza (o valor


esperado) del estimador y el verdadero valor del parmetro a estimar.

2. EFICIENCIA:
Se refiere a que un estimador es ms eficiente o ms preciso que otro estimador, si la
varianza del primero es menor que la del segundo. Un estimador es ms eficiente (ms
preciso), por tanto, cuanto menor es su varianza.
La eficiencia de los estimadores est limitada por las caractersticas de la distribucin de
probabilidad de la muestra de la que proceden.
Por ejemplo, si y son ambos estimadores de y diremos que es ms eficiente que.
3. CONSISTENTE:
Un estimador se dice consistente si converge al parmetro, es decir, si su distribucin se
concentra alrededor del parmetro a medida que aumenta el tamao de la muestra, de
forma tal que el error de muestreo tiende a desaparecer.
Si un estimador es coherente, se vuelve ms confiable si tenemos tamaos de muestras
ms grandes.

EJEMPLO:

En una poblacin de 500 puntuaciones cuya Media (m) es igual a 4.9 han hecho tres
muestreos aleatorios (nmero de muestras= 100) con los siguientes resultados:

vemos que el muestreo en que n=100 la Media de las Medias muestrales toma el mismo
valor que la Media de la poblacin.

4. SUFICIENTE
Se dice que un estimador es suficiente si contiene o (absorbe) toda la informacin
relevante contenida en la muestra, de forma que ningn otro estimador pueda
proporcionar informacin adicional sobre el parmetro desconocido de la poblacin.

TEOREMA DEL LIMITE CENTRAL

El teorema del lmite central Sabemos que la distribucin de la media muestral de una
variable normal o bien tiene distribucin normal o bien se corresponde con una t de
Student. Tambin si las variables originales siguen una distribucin de Bernoulli,
entonces su media es una proporcin y, en este caso, cuando n es lo bastante grande, su
distribucin muestral tambin es una normal. El ltimo resultado es cierto sea cual sea
la distribucin de los datos originales. Es decir, no es preciso que partamos ni de
distribuciones normales ni de distribuciones de Bernoulli, ya que para muestras de
tamaos lo bastante grandes, la distribucin de la media muestral es normal sea cual sea
la distribucin original. Este resultado fundamental de la estadstica tiene un nombre
propio: el teorema del lmite central.

El teorema del lmite central dice que si una muestra es lo bastante grande
(n > 30), sea cual sea la distribucin de la variable de inters, la
distribucin de la media muestral ser aproximadamente una normal.
Adems, la media ser la misma que la de la variable de inters, y la
desviacin t- pica de la media muestral ser aproximadamente el error
estndar.

Una consecuencia de este teorema es la siguiente:

Dada cualquier variable aleatoria con


esperanza m y para n lo bastante grande,
la distribucin de la variable

es una normal

CONSECUENCIAS

a) Permite averiguar la probabilidad de que la media de una muestra concreta est


en un cierto intervalo.
b) Permite calcular la probabilidad de que la suma de los elementos de una muestra
est, a priori, en un cierto intervalo.

c) Inferir la media de la poblacin a partir de una muestra.

You might also like