You are on page 1of 2

INFERENCIA ESTADÍSTICA

Teoría que consiste en aquellos métodos por medio de los cuales se realizan
generalizaciones (inferencias acerca de una población basadas en una muestra, donde se
supone conocida la forma de la distribución) (método clásico)

Se divide en 2 grandes áreas:


a. Estimación
b. Pruebas de hipótesis

ESTIMACION

Ejemplos:
a. Un fabricante de televisores se puede interesar en estimar la proporción “p” de
televisores que se dañan antes de terminar el período de garantía.
b. Se puede estimar el tiempo promedio “μ” de espera en ser atendido un paciente en un
hospital.
c. Se puede estimar la desviación estándar “σ”del error de medición de un instrumento
electrónico.

Se define un estimador como la variable aleatoria utilizada para estimar los parámetros
poblacionales, mientras que los valores específicos de estas variables se llaman
estimaciones de los parámetros poblacionales (estimador = función de decisión).
Ejemplo: Si x es un estimador de μ, un valor específico de x es una estimación de μ

¿QUÉ HACER?

Suponga que se desea estimar el peso promedio de los alumnos de un aula. Podría
presentarse la situación de 2 maneras diferentes.

a. Tomar una muestra al azar de n personas, registrar sus pesos y promediar ( x ) , este
valor único obtenido es una estimación puntual del parámetro poblacional μ. No se
espera que este estimador estime el valor de μ con exactitud, sino que no se aleje
mucho del valor real.

b. Si digo que el promedio verdadero, μ está entre dos valores, ejemplo: 50 y 70 Kg. la
intención es que el número encontrado en la muestra se encuentre entre estos dos
valores, este segundo tipo de estimación, donde se especifica un intervalo de posibles
valores de μ se llama estimación por intervalos En este segundo caso hay mucha
más seguridad en la estimación. Si se reduce el intervalo, la confianza de la
estimación será menor (en la práctica el intervalo deberá ser tan pequeño como sea
posible)

En cada caso, la estimación real se hace mediante un estimador.


Nomenclatura: Parámetro: θ Estimador: θˆ

PROPIEDADES DE LOS ESTIMADORES

1. Insesgamiento:
Se dice que un estimador es insesgado si en promedio el valor de la estimación es
igual al parámetro poblacional. (Ε[ θˆ ] = θ ), de lo contrario se dice que es sesgado.
El sesgo ( B) de un estimador puntual θˆ está por: B= Ε[ θˆ ]-θ

2. Eficiencia
Si θˆ 1 y θˆ 2 son dos estimadores insesgados del mismo parámetro poblacional θ, se
llama estimador más eficiente de θ al que tenga la varianza más pequeña.

ESTIMADORES PUNTUALES INSESGADOS COMUNES

Parámetro Tamaño de Estimador Ε[ θˆ ] σ2 θˆ


objetivo: θ la(s) puntual
muestra(s)
μ n x μ σ2
n
p n p̂ p pq
n
μ1-μ2 n1- n2 x1 − x2 μ1-μ2 σ 21 σ 22
+
n1 n2
p1- p2 n1- n2 pˆ1 − pˆ 2 p1- p2 p1q1 p2 q2
+
n1 n2

BONDAD DE AJUSTE
El error de estimación es la distancia entre un estimador y un parámetro poblacional
E = | θ − θˆ |

INTERVALOS DE CONFIANZA
La estimación por intervalos de un parámetro θ es un intervalo de la forma: θˆI < θ < θˆS ,
donde los extremos del intervalo dependen del valor del estadístico θˆ para una muestra
en particular y de la distribución muestral de este estadístico y reciben el nombre de
límites de confianza inferior y superior y al intervalo se le llama intervalo de confianza.

Lo ideal es que el intervalo de confianza tenga las siguientes propiedades:

a. Que contenga al parámetro con una alta confiabilidad.


b. Que sea relativamente angosto.

La probabilidad de que un intervalo de confianza contenga al parámetro (de seleccionar


una muestra aleatoria. que produzca un intervalo de confianza que contenga al parámetro)
se llama coeficiente de confianza . P( θˆI < θ < θˆS ) = 1-α (coeficiente de confianza).

α: Probabilidad de error o probabilidad de que el intervalo de confianza no incluya al


parámetro.

You might also like