You are on page 1of 32

Unidad 2 Inferencia estadística: estimación. 2.1 Conceptos básicos Inferencia estadística . 2.2 Distribuciones de muestreo. 2.3 Estimación puntual. 2.4 Estimación de intervalo.

.1 Objetivos de la Inferencia Estadística.
El objetivo de la Estadística es medir y modelar la variabilidad del proceso mediante un modelo probabilístico. Para modelar la variabilidad de una variable aleatoria si sólo se dispone del conocimiento de una muestra de la misma se sigue el siguiente modo de actuación: 1. Planteamiento del problema. 2. Selección de la muestra (Muestreo estadístico), en algunos estudios la muestra se obtiene por simulación (Simulación Estadística) 3. Estudio descriptivo de la muestra, analítico y gráfico ( Estadística Descriptiva). 4. En base al conocimiento de los modelos probabilísticos más utilizados y teniendo en cuenta el planteamiento del problema y el estudio descriptivo previo, elegir un modelo de probabilidad (Teoría de la Probabilidad). 5. Estimar los parámetros del modelo supuesto a partir de las observaciones muestrales utilizando los métodos de Inferencia Estadística: estimación puntual, estimación por intervalos de confianza y contrastes de hipótesis paramétricos. 6. Chequear que el modelo de probabilidad ajustado a los datos es adecuado y que se verifican las hipótesis supuestas en el estudio, por ejemplo, que las observaciones muestrales son independientes, que no existen observaciones erróneas,...,etc. Para ello se utilizan los métodos de Inferencia no Paramétrica. 7. Si se acepta que el modelo ajustado es adecuado se puede utilizar para obtener resultados y conclusiones sobre la variable en estudio. En caso contrario, se debe reformular el modelo de probabilidad y repetir el proceso desde el paso 4. Si se obtiene más información se puede mejorar el conocimiento de la variabilidad de la variable de interés. Puede hacerse por los siguientes medios: Mejorar la estimación de los parámetros del modelo, utilizando métodos

estadísticos más eficaces. Aumentando el tamaño muestral. Reducir la variabilidad controlando la variabilidad sistemática que puede ser debida a factores que influyen en la variable en estudio o controlando otras variables relacionadas con la variable de interés y que explican en mayor o menor medida su comportamiento. Para ello es necesario disponer de información adicional a la de la propia variable de interés, y tener datos de los factores y/o variables explicativas que influyen en ella. Este texto se estudian los modelos estadísticos que estudian una variable utilizando su relación con otras variables y/o factores. En particular se estudiarán los dos modelos estadísticos más importantes y utilizados en la práctica, El Diseño de Experimentos, que estudia la variabilidad de la variable de interés controlando los factores que pueden influir en la misma. Los Modelos de Regresión, que estudian la variabilidad de la variable de interés teniendo en cuenta la relación funcional de la misma con otras variables explicativas.

.2 Inferencia Estadística. Conceptos básicos.
Puede definirse la Inferencia Estadística como

“El conjunto de métodos estadísticos que permiten deducir (inferir) como se distribuye la población en estudio o las relaciones estocásticas entre varias variables de interés a partir de la información que proporciona una muestra”.

Para que un método de inferencia estadística proporcione buenos resultados debe de: Basarse en una técnica estadístico-matemática adecuada al problema y suficientemente validada. Utilizar una muestra que realmente sea representativa de la población y de un tamaño suficiente. Conceptos básicos que se utilizarán en este texto son los siguientes:

Población: es un conjunto homogéneo de individuos sobre los que se estudia una o varias características que son, de alguna forma, observables. Muestra: es un subconjunto de la población. El número de elementos de la muestra se denomina tamaño muestral. Muestreo aleatorio simple: es aquel en el que todos los individuos de la población tienen la misma probabilidad de ser elegidos. Muestra aleatoria simple, de una variable aleatoria X, con distribución F, de tamaño n, es un conjunto de n variables aleatorias X1,X2,...,Xn, independientes e igualmente distribuídas (i.i.d.) con distribución F. Espacio muestral: es el conjunto de muestras posibles que pueden obtenerse al seleccionar una muestra aleatoria, de tamaño n, de una cierta población. Parámetro: es cualquier característica medible de la función de distribución de la variable en estudio (media, varianza,..). Estadístico: es una función de la muestra T . Por tanto, es una variable aleatoria que tiene una función de distribución que se denomina distribución en el muestreo de T. Los estadísticos independientes del parámetro a estimar se denominan estimadores. Propiedades de los estimadores. Sea n = n un estimador del parámetro . Propiedades del estimador son las siguientes 1. Estimador centrado o insesgado, tiene sesgo cero,

2. Estimador asintóticamente centrado o insesgado, verifica

3. Error Cuadrático Medio de

n

, es

4. Estimador consistente en media cuadrática, verifica

2) 8. La precisión o eficacia del estimador n es Si el estimador es insesgado 6. Estimador de la varianza poblacional.por tanto 5. se verifica que (1. Estimador de la media poblacional.1) 7.3) . Si X sigue una distribución N . se utiliza la media muestral definida por (1. se utiliza la cuasivarianza muestral definida por (1.

Definiciones. se verifica que (1. Un contraste o test de hipótesis es una técnica de Inferencia Estadística que permite comprobar si la información que proporciona una muestra observada concuerda (o no) con la hipótesis estadística formulada sobre el modelo de probabilidad en estudio y. Dado que normalmente la varianza poblacional se desconoce y es necesario estimarla. = 10. Las hipótesis paramétricas se clasifican en Simple: si la hipótesis asigna valores únicos a los parámetros ( = 1'5. se puede aceptar (o no) la hipótesis formulada. 1. 1.3.4) 10. Si X sigue una distribución N . es de interés el siguiente resultado (1.1 Definiciones básicas. X = Y .9. por tanto. Una hipótesis estadística es cualquier conjetura sobre una o varias características de interés de un modelo de probabilidad.5) 11. Una hipótesis estadística puede ser: Paramétrica: es una afirmación sobre los valores de los parámetros poblacionales desconocidos.3 Contraste o test de hipótesis.

se denomina estadístico del contraste y será cualquier función de los datos muestrales y de la información de la hipótesis nula . se denota por H0. 5 < < 10. de forma que se pueda distinguir entre: una discrepancia grande. Decidir que valores de d se consideran muy grandes. Definir una medida de discrepancia entre la información que proporciona la muestra ( ) y la hipótesis H0.). la que tiene una probabilidad muy pequeña de ocurrir cuando H0 es cierto. la distribución de la variable en estudio es normal. Por ejemplo.. decidir que discrepancias se consideran . una discrepancia pequeña. La hipótesis que se contrasta se denomina hipótesis nula y... cuando H0 es cierto.. y la hipótesis alternativa (H1. para que sean atribuibles al azar. La medida de discrepancia debe seguir una distribución conocida cuando H0 sea cierta. 1..). la distribución es simétrica. 4. las observaciones son independientes..6) 3.. Compuesta: si la hipótesis asigna un rango de valores a los parámetros poblacionales desconocidos ( > 1'5. la que tiene una probabilidad grande de ocurrir cuando H0 es cierta. Al realizar cualquier contraste de hipótesis estadístico se deben seguir las siguientes etapas: 1. Esta medida de discrepancia (1.3. normalmente. X < Y . cualquier forma de negación de la hipótesis nula ). No Paramétrica: es una afirmación sobre alguna característica estadística de la población en estudio.. Ésto es. definiendo la hipótesis nula (H0. Plantear el contraste de hipótesis. 2.. hipótesis que se desea contrastar). Si se rechaza la hipótesis nula es porque se asume como correcta una hipótesis complementaria que se denomina hipótesis alternativa y se denota por H1.2 Pasos a seguir en la realización de un contraste de hipótesis..

entonces se acepta la hipótesis H0. Se denomina nivel de significación de un contraste a la probabilidad de cometer un error tipo I. que se denota por . se acepta la hipótesis nula H0 cuando es falsa. (1.1: Situaciones posibles en un contraste de hipótesis. 1. calcular el valor del estadistico asociado a la muestra (valor crítico del contraste) y analizar: Si es pequeño (pertenece a la región de aceptación). en la mayoría de las situaciones.3. Error tipo II. 5. Debe tenerse en cuenta que sólo se puede cometer uno de los dos tipos de error y. Al realizar un contraste se puede cometer uno de los dos errores siguientes: Error tipo I.inadmisibles cuando H0 es correcto. Situación real: H0 es cierta H0 es falsa ACEPTAR CORRECTO ERROR II H0 Decisión: RECHAZAR H0 ERROR I CORRECTO Tabla 1. por tanto. se desea controlar controlar la probabilidad de cometer un error de tipo I.3 Tipos de Error en un contraste de hipótesis. se rechaza la hipótesis nula H0 cuando es cierta. Tomar la muestra ( ).7) . lo que equivale a indicar el valor del nivel de significación. entonces se rechaza la hipótesis H0. Si es grande (pertenece a la región de rechazo). se denota por y.

1 0 -4 D/H_0 D/H_1 E_ii E_i -2 0 1.2 0. el estadístico cae en la región de rechazo entonces se asume que los datos no son compatibles con la hipótesis nula y se rechaza a un nivel de significación .65 2 4 6 R.Rechazo = 0'05.4 f. P Si el estadístico de contraste toma un valor perteneciente a la región de aceptación.bajo H0. bajo H0. En este supuesto se dice que el contraste es estadísticamente significativo. densidad de D 0. Tipos de errores. El nivel de significación lo elige el experimentador y tiene por ello la ventaja de tomarlo tan pequeño como desee (normalmente se toma = 0'05. 0. entonces no existen evidencias suficientes para rechazar la hipótesis nula con un nivel de significación y el contraste se dice que estadísticamente no es significativo. resolver un contraste estadístico es calcular la región de aceptación y la región de rechazo y actuar según la siguiente regla de decisión: .. Contraste unilateral. La región de Aceptación. Si. Figura 1. La selección de un nivel de significación conduce a dividir en dos regiones el conjunto de posibles valores del estadístico de contraste: La región de Rechazo. con probabilidad .3 0. Aceptación R. 0'01 o 0'001).1. con probabilidad 1 . P = 0'36. Por tanto. por el contrario.Fijar el nivel de significación equivale a decidir de antemano la probabilidad máxima que se está dispuesto a asumir de rechazar la hipótesis nula cuando es cierta.

2. se denomina Contraste unilateral o contraste de una cola es el contraste de hipótesis cuya región de rechazo está formada por una cola de la distribución del estadístico de contraste. H1 : 0. = y se calcula el estadístico del (1. bajo H0. H0 : = 0. . Contraste bilateral o contraste de dos colas es el contraste de hipótesis cuya región de rechazo está formada por las dos colas de la distribución del estadístico de contraste.Se obtiene la muestra contraste . un contraste de hipótesis. bajo H0. Contraste bilateral. Figura 1.8) Según la forma de la región de rechazo. paramétrico o no.

Figura 1. Ejemplo 1.1. el centro no consideró realista la diferencia anunciada por el proveedor y devolvieron el producto. obteniéndose que los tamaños de los ficheros resultantes presentaron una media xB = 63'9 y una cuasivarianza B2 = 105'063. Las últimas 550 imágenes recibidas se digitalizaron con la nueva versión B. habían proporcionado las siguientes medidas xA = 70'8 y A2 = 96'04. Test de hipótesis estadística. H1 : < 0. El programa ha sido mejorado en su última versión (versión B) hasta el punto de que quienes lo comercializan garantizan una disminución en el tamaño medio de los ficheros resultantes superior a 6 Kb con respecto a la versión anterior (versión A).3. Las 25 imágenes que había en ese momento en el laboratorio se digitalizaron con las dos versiones del programa A y B. digitalizadas con la versión antigua A. Cuando se comprobó que las 550 imágenes anteriores a éstas. La nueva versión B se envió a probar a un centro de investigación privado que utiliza la versión A. Contraste unilateral H0 : > 0. “La distribución del tamaño en Kb de los ficheros que resultan al digitalizar imágenes con un determinado programa puede suponerse normal. Los proveedores enviaron entonces un representante comercial y éste convenció a los responsables del centro para la realización de una nueva prueba. Finalmente se calcularon las diferencias en Kb de los ficheros obtenidos con cada versión resultando .

¿Cómo es posible que con tan sólo 25 datos se haya cambiado de opinión si la experiencia primera se realizó en base a un tamaño de muestra 22 veces superior?” Solución: Se siguen los siguientes pasos Paso 1: Especificar las hipótesis nula (H0) y alternativa (H1).9) Se supone que se verifican las siguientes hipótesis: Las observaciones siguen una distribución normal. Analizar ambas experiencias.5'210 10'785 9'607 12'442 11'248 -2'368 9'762 9'776 8'683 10'783 5'371 9'917 8'151 10'830 12'836 11'487 12'964 7'343 5'722 0'615 12'406 4'693 4'048 6'151 8'480 Estos resultados hicieron cambiar de idea a los responsables del centro y adquirieron la nueva versión B. Sea A la esperanza de la distribución de los tamaños de los ficheros una vez digitalizadas las imágenes con la versión A del programa y B la correspondiente a la versión B actualizada. Se contrasta la tercera hipótesis de igualdad de las varianzas de las dos muestras. Las observaciones son independientes. El contraste a realizar es (1. Se desea investigar si es razonable asumir la afirmación del proveedor. . Las dos muestras tienen igual varianza.

6 0.(1. Aceptación 0'025 0'95 .3 1'09 R.1 1. se calcula el estadístico del contraste Este valor 2 no pertenece a la región de rechazo especificada para el contraste de varianzas de dos muestras independientes que viene dado por Por tanto se acepta la hipótesis de igualdad de las varianzas de las dos muestras.2 1.549 3 2 1 0'025 0 0.10) Fijado = 0'05. Rechazo 0'83 0. Rechazo R.9 1'17 R.7 0.8 1 1. 5 4 F_549.

Paso 4: Se calculan las regiones de rechazo y de aceptación del contraste. Paso 2: Se elige un estadístico de contraste apropiado: d1 = d1(H0.13) Paso 3: Se fija el nivel de significación .14) .4. que viene dado por (1. entonces (1.12) 2 2 A 2 T es un estimador del parámetro = B = 2 . esto es. ). En este problema una buena elección es la siguiente. la probabilidad de error de tipo I. (1.Figura 1. En el ejemplo el contraste es unilateral y teniendo en cuenta región de rechazo para = 0'05 es la (1. En este ejemplo se utiliza = 0'05. Contraste de igualdad de varianzas. teniendo en cuenta si el contraste es unilateral o bilateral.11) Si H0 es cierto.

0.5. Paso 5: Se obtiene la muestra y utilizando el estadístico de contraste d1 dado en se obtiene el valor crítico = (X1.3 t_1098 0. Contraste de igualdad de medias. . Primer estudio.Xn).2 0. Rechazo Figura 1. .4 0. Aceptación 1'48 1 1'64 2 3 4 R. en primer lugar se calcula la estimación de la varianza Ahora el valor crítico del contraste C1 es El nivel crítico asociado del contraste es 0'0683 (ver siguiente sección).1 0 -4 -3 0'95 0'05 -2 -1 0 R. En el ejemplo en estudio.

. Para resolver el problema en este segundo contexto y evitar el problema de dependencia. conocidos dos de ellos se puede obtener el tercero: n.Paso 6: Se concluye si el test es estadísticamente significativo o no al nivel de significación según que el valor crítico pertenezca a la región de rechazo o a la región de aceptación. ya que se desconoce la probabilidad de aceptar la hipótesis nula cuando es falsa. primero la versión A y después la B. Como 1 = 1'488 no pertenece a la región de rechazo dada en se acepta la hipótesis nula. probabilidad de error de tipo I. Tal y como se resolvió el problema hay un parámetro que no se controla. Si. En este ejemplo puede suponerse que existe independencia entre las observaciones muestrales y que no hay relación entre los dos grupos de 550 imágenes digitalizadas por cada una de las dos versiones del programa. Ésto es. probabilidad de error de tipo II. En la segunda experiencia que se propone los datos se han tomado apareados ya que se han ejecutado las dos versiones del programa sobre las mismas imágenes. se desea controlar la probabilidad de error de tipo I y la probabilidad de error de tipo II ( ( 1)) se debe especificar el tamaño muestral que se está dispuesto a asumir. y ( )). simultáneamente. se trabaja con la variable diferencia del tamaño del fichero al digitalizar la imagen con la versión A del programa y el . si se quiere controlar el porcentaje de veces que se detecta la hipótesis alternativa (que se denota = 1) cuando es cierta. Obviamente existe una relación entre los tres parámetros ( n. Por tanto hay independencia entre las observaciones de cada muestra pero no entre las observaciones de una muestra respecto a la otra. tamaño muestral. el error de tipo II. ( ). Por consiguiente los datos muestrales no avalan que el tamaño medio de los ficheros disminuye en más de 6 Kb como afirman los vendedores del nuevo programa. respectivamente. que en términos de probabilidad se denota por es necesario calcular el tamaño muestral n adecuado para garantizar que ambas probabilidades de error sean las fijadas. Por tanto se trata de dos muestras independientes.

15) El estadístico del contraste es (1.16) Bajo las hipótesis supuestas se verifica que la distribución de d3. .17) Para = 0'05 se obtiene la siguiente región de rechazo Utilizando se obtiene el siguiente valor crítico Este valor 3 pertenece a la región de rechazo y se rechaza H0. De la que se obtiene El contraste es ahora (1. La decisión de rechazo parece clara y con garantías.tamaño del fichero al utilizar la versión B . Se calculan las 25 diferencias entre los tamaños de los ficheros resultantes y se obtiene una muestra única. cuando H0 es cierta. Obsérvese que también se rechazaría H0 con = 0'01 (de hecho el nivel crítico es 0'003). en contradicción con la decisión de la primera experiencia. es una distribución t (1.

0.4 .

6. ya que las imágenes que al digitalizarlas con una versión generan ficheros grandes (pequeños) también producirán ficheros grandes (pequeños) al ser digitalizadas con la otra versión. Si el contraste de hipótesis se va estudiar con una única muestra y no de forma repetida y sistemática. 1. Datos apareados. ¿Por qué esta diferencia en la respuesta? Viene motivada por la alta variabilidad de las variables del primer experimento XA y XB.3. se puede utilizar una filosofía alternativa y más informativa que se basa en los conceptos de nivel crítico y región crítica.4 Nivel crítico y región crítica. Comentarios: . Por tanto. la varianza de la variable diferencia Z es considerablemente inferior a la varianza de XA y XB. Se denomina nivel crítico o p-valor a la probabilidad p de obtener una discrepancia con H0 mayor o igual que el valor crítico cuando H0 es correcto.9) La región crítica es el conjunto de valores para los cuales d es mayor o igual que el valor crítico d . (1. Contraste sobre la media.Figura 1. Con el muestreo apareado la variabilidad ha disminuido considerablemente. La disminución tan fuerte en la variabilidad está motivada en la existencia de una alta correlación positiva entre las variables XA y XB.

7 (y 1. Figura 1. El nivel crítico sólo puede calcularse una vez tomada la muestra.8) pueden verse representados el nivel crítico y la región crítica en un contraste unilateral (y bilateral) acerca de la media.valor mayor es el grado de incompatibilidad de la muestra con H0. cuanto menor sea el p . lo que lleva a rechazar H0. obteniéndose niveles críticos distintos para cada muestra. El nivel crítico p puede interpretarse como un nivel mínimo de significación en el sentido de que niveles de significación iguales o superiores al p . bajo la hipótesis de normalidad. Por tanto.7. En las Figuras 1. Nivel crítico.1. 2. El cálculo del nivel crítico no proporciona de modo sistemático una decisión entre H0 y H1. . 3.valor llevarán a rechazar la hipótesis nula. 4. Contraste unilateral sobre la media con = 0'84.

0.4 .

Contraste bilateral sobre la media con = 0'84.3. 1. Nivel crítico.5 Potencia de un contraste. donde (1.8.Figura 1. Considérese que se está estudiando un contraste de hipótesis acerca del parámetro . Para medir la bondad de un contraste de hipótesis se utiliza el concepto de potencia del contraste. siendo la hipótesis nula frente a la hipótesis alternativa Se denomina potencia al nivel del estadístico de contraste d a la función que asigna a cada valor del parámetro la probabilidad de rechazar H0 cuando es correcto. Al grafo de la potencia se lo denomina curva de potencia. Esto es.10) Comentarios: 1. En algunos textos se trabaja con la función curva característica de operación definida por .

9. .12) 2. con = 0'10 y tamaño muestral n = 100.11) 2. bajo la ' hipótesis de normalidad. un contraste d1 se dice más potente que otro d2 para contrastar la hipótesis nula H0 si (1. con alta probabilidad. se representa la función de potencia del contraste H0 : = 0 frente a la alternativa H1 : 0 (contraste bilateral). la potencia tomará valores más próximos a 1. Si denotamos por a la probabilidad de error de tipo I. Si la potencia en la hipótesis alternativa es siempre muy próxima a 1 entonces se dice que el estadístico de contraste es muy potente para contrastar H0 ya que en ese caso las muestras serán. por consiguiente. En la Figura 1.(1. Por tanto puede interpretarse la potencia de un contraste como su sensibilidad o capacidad para detectar una hipótesis alternativa. 3. Fijado un nivel de significación . se verifica que Cuanto más lejana se encuentra la alternativa H1 de H0 menor es la probabilidad de incurrir en un error tipo II ( ) y. se representa la función de potencia del contraste H0 : < 0 frente a la alternativa H1 : >0 (contraste unilateral). incompatibles con H0 cuando H1 sea cierta.10. En la Figura 1. 1. bajo la hipótesis de normalidad. con = 0 10 y tamaño muestral n = 100.

3. Contraste unilateral acerca de la media. Figura 1. Función de Potencia. Se exponen en esta sección algunos de los estadísticos de contraste más importantes para contrastar hipótesis nulas del tipo H0 : = 0.10. siendo un .Figura 1.6 Algunos contrastes paramétricos importantes. Contraste bilateral acerca de la media. Función de Potencia. 1.9.

Si H0 es cierto Contrastes sobre la varianza. con distribuciones respectivas N Se desea contrastar yN . se desea contrastar la hipótesis nula El estadístico de contraste es (1. Contrastes sobre la media. Sean dos muestras aleatorias simples e obtenidas de dos poblaciones X e Y.14) Si H0 es cierto Contrastes sobre la igualdad de varianzas. se desea (1.parámetro desconocido y de cuyo valor depende la distribución de una variable de interés X. Sea la muestra aleatoria simple extraída de una población X normal con varianza contrastar El estadístico de contraste es 2 . . A partir de una muestra extraída de una población X normal con media y varianza 2 desconocidas.13) donde es la desviación típica muestral corregida .

15) Si H0 es cierto Contrastes sobre la diferencia de medias.El estadístico de contraste es (1. Por tanto se supone que 2 X e = Y 2 = 2 . muestras independientes e igualdad de varianzas. . con distribuciones N yN contrastar . Sean dos muestras aleatorias simples obtenidas de dos poblaciones X e Y.16) siendo (1. Se desea El estadístico de contraste es (1.17) un estimador insesgado eficiente de la varianza que se calcula a partir de la información que proporcionan ambas muestras.

18) Si H0 es cierto se verifica que siendo g = n + m . a partir de las dos muestras iniciales se calcula la muestra de diferencias . con un término de corrección (ver Cao y otros (2001)).Si H0 es cierto se verifica que Contrastes sobre la diferencia de medias. Por la naturaleza del muestreo apareado las dos muestras son dependientes.2 + . Se desea El estadístico de contraste que se utiliza es (1. En este caso las dos muestras aleatorias simples tienen igual tamaño muestral e y son obtenidas al realizar dos observaciones Xi e Y i sobre el mismo individuo. Sean dos muestras aleatorias simples obtenidas de dos poblaciones X e Y.Yi . por tanto. Para contrastar la hipótesis . el i-ésimo. con distribuciones respectivas N contrastar yN . Para eliminar este problema se estudia la variable diferencia Z = Y .X. Contrastes sobre la diferencia de medias. Zi = Xi . muestreo apareado. muestras independientes y varianzas desiguales.y se supone que 2 X Y 2 e .

19) Si H0 es cierto .Se utiliza el siguiente estadístico de contraste (1.

En inferencia estadística se llama estimación al conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a partir de los datos proporcionados por una muestra.1 Intervalo de confianza 3. Método de los mínimos cuadrados.6 Valor crítico 3. Estimación por intervalos.3 Error de la estimación 3. 1 La estimación se divide en tres grandes bloques.4 Límite de Confianza 3. Método de la máxima verosimilitud. Estimación bayesiana. Por ejemplo.2 Variabilidad del Parámetro 3. Índice [ocultar]    1 Estimador 2 Estimación puntual 3 Estimación por intervalos o o o o o o o  3.5 Valor α 3. una estimación de lamedia de una determinada característica de una población de tamaño N podría ser la media de esa misma característica para una muestra de tamaño n.7 Otros usos del término 4 Véase también . cada uno de los cuales tiene distintos métodos que se usan en función de las características y propósitos del estudio:  Estimación puntual:      2 Método de los momentos.

. ... se obtiene la estimación puntual de θ. Xn es una muestra seleccionada de una población con distribución Fθ o densidad fθ(x). Nota: si la variable X es discreta. si se pretende estimar la talla media de un determinado grupo de individuos. xn. .. . . Ejemplo 7.. T(x1.(credibilidad de la muestra observada). seleccionada una muestra X1. xn) = Yn i=1 fθ(xi ) A Lθ(x1.. xn) = Yn i=1 fµ(xi ) = = Yn i=1 1 √ 2πσ e −(xi−µ) 2 2σ Estimación por Intervalos de confianza 109 y maximizamos en µ tal función. Momento poblacional de orden r αr = E(Xr ) Momento muestral de orden r ar = Xn i=1 Xr i n Método de máxima verosimilitud: consiste en tomar como valor del parámetro aquel que maximice la probabilidad de que ocurra la muestra observada. y al ser µ = E(X) se obtiene que ˆ µ = − x. con µ desconocido.. σ).. Xn... . xn) = − 1 2σ 2 Xn i=1 (xi − µ) 2 − n ln( √ 2πσ) ∂ ∂µ lnLµ(x1. Vemos a continuación dos métodos para obtener la estimación puntual de un parámetro: método de los momentos y método de máxima verosimilitud. Si X1.. y al valor obtenido se le llama estimación por máxima verosimilitud de θ. 5 Referencias Estimador[editar] Un estimador es una regla que establece cómo calcular una estimación basada en las mediciones contenidas en una muestra estadistica. en lugar de fθ(xi ) consideramos la función masa de probabilidad pθ(xi ).. ... xn) = 1 σ 2 Xn i=1 (xi − µ) = n − x − nµ σ 2 = 0 ⇐⇒ ˆ µ = − Estimación por intervalos[editar] . que sea insesgado(ausencia de sesgos) y estable en el muestreo o eficiente (varianza mínima) Estimación puntual Sea X una variable poblacional con distribución Fθ .. Una vez observada o realizada la muestra. . Según el método de los momentos: E(X) = Xn i=1 Xi n = − X. .... Por el método de máxima verosimilitud: Lµ(x1. estimamos el parámetro µ por ambos métodos. con valores x1. Xn.. siendo θ desconocido. . Lo más importante de un estimador... en este caso resulta más fácil maximizar su logaritmo: lnLµ(x1. Método de los momentos: consiste en igualar momentos poblacionales a momentos muestrales. . .. Xn) que mejor estime el parámetro θ. Por ejemplo. X1. encontrar el estadístico T(X1... ... es que sea un estimador eficiente.. Buscamos entonces el valor de θ que maximice la función de verosimilud.1: Sea X → N(µ. obtenido de una fórmula determinada.... xn) = ˆ θ . con realización x1. la probabilidad de que ocurra una realización x1. .. El problema de estimación puntual consiste en. xn viene dada por: Lθ(x1...s.... puede extraerse una muestra y ofrecer como estimación puntual la talla media de los individuos. xn) se le llama función de verosimilitud. Es decir.a. Deberemos tener tantas igualdades como parámetros a estimar.. xn.. Estimación puntual[editar] Consiste en la estimación del valor del parámetro mediante un sólo valor.. Selecc ionada una m.

de media 0 y desviación típica 1. Error de la estimación[editar] Es una medida de su precisión que se corresponde con la amplitud del intervalo de confianza. Habitualmente se usa como medida de esta variabilidad la desviación típica poblacional y se denota σ. que se corresponden con valores α de 0. En caso de no incluir nuevas observaciones para la muestra. Se suele llamar E. puede obtenerse una aproximación en los datos aportados por la literatura científica o en un estudio piloto.θ1)/2. el valor crítico para α = 0. En la estimación por intervalos se usan los siguientes conceptos: Intervalo de confianza[editar] El intervalo de confianza es una expresión del tipo [θ1. más error se comete al aumentar la precisión. Por ejemplo. esto es. Límite de Confianza[editar] Es la probabilidad de que el verdadero valor del parámetro estimado en la población se sitúe en el intervalo de confianza obtenido.1 se calcularía del siguiente modo: se busca en la tabla de la distribución ese valor (o el más . siendo 1-α el nivel de confianza. Es la probabilidad (en tanto por uno) de fallar en nuestra estimación. Por ejemplo. para una distribución normal. la diferencia entre la certeza (1) y el nivel de confianza (1-α). También hay métodos para calcular el tamaño de la muestra que prescinden de este aspecto. más estrecho deberá ser el intervalo de confianza y. Normalmente los valores críticos están tabulados o pueden calcularse en función de la distribución de la población.01 re spectivamente. Es el valor de la abscisa en una determinada distribución que deja a su derecha un área igual a α/2. Pero a veces puede cambiar este intervalo cuando la muestra no garantiza un axioma o un equivalente circunstancial. aunque habitualmente suele expresarse con un porcentaje ((1-α)·100%). el valor α es (100 -95)/100 = 0. θ2] ó θ1 ≤ θ ≤ θ2.05 y 0.05 Valor crítico[editar] Se representa por Zα/2.Consiste en la obtención de un intervalo dentro del cual estará el valor del parámetro estimado con una cierta probabilidad. Valor α[editar] También llamado nivel de significación. según la fórmulaE = (θ2 . Este intervalo contiene al parámetro estimado con un determinado nivel de confianza. si se quiere mantener o disminuir el error. Cuanta más precisión se desee en la estimación de un parámetro. donde θ es el parámetro a estimar. en una estimación con un nivel de confianza del 95%. Es habitual tomar como nivel de confianza un 95% o un 99%. El nivel de confianza se denota por (1-α). Variabilidad del Parámetro[editar] Si no se conoce. más ocurrencias deberán incluirse en la muestra estudiada.

7 y 3. «Métodos de estimación». es decir.. Bernardo A.3. Con estas definiciones. Universidad de Antioquia. con una probabilidad del 99%. la mitad del error. 364. . Consultado el 21 de abril de 2009. podemos interpretar que el verdadero valor de la media se encuentra entre 2. Estadística Matemática I.aproximado).64. aumentamos el tamaño del intervalo de confianza. Volver arriba↑ Wackerly. que normalmente se apoya en la herramienta estadística aunque puede no hacerlo. si tras la extracción de una muestra se dice que "3 es una estimación de la media con un margen de error de 0. bajo la columna "Área". «8. se observa que se corresponde con -1. Para un tamaño fijo de la muestra. Estadístico muestral Referencias[editar] 1. 2. Scheaffer. Dennis D. Muestreo estadístico. En este sentido.28.. Estimación». William. Cengage Learning Editores. tenemos también una mayor probabilidad de éxito en nuestra estimación. respectivamente. (2002).6 y un nivel de confianza del 99%". los conceptos de error y nivel de confianza van relacionados. se puede realizar el cambio de variable t =(X-μ)/σ para su cálculo. Tamaño de la muestra.7 y 3. Otros usos del término[editar] El término estimación también se utiliza en ciencias aplicadas para hacer referencia a un cálculo aproximado. Si la media o desviación típica de la distribución normal no coinciden con las de la tabla. Véase también[editar]        Aproximación Intervalo de confianza. Teorema del Límite Central. Muestra estadística. Estadística matemática con aplicaciones (6ª edición). Mendenhall. un mayor nivel de confianza. Richard L.3 se obtienen restando y sumando. Los valores 2. p. Volver arriba↑ Calderón C. Entonces Zα/2 = 1. para obtener el intervalo de confianza según las definiciones dadas. esto es. Si admitimos un error mayor. ISBN 9706861947. un ejemplo clásico son los poco conocidos pero útiles en economía problemas de Fermi.

2008 (Madrid). 2007 (Madrid).  'Manual de Estadística Empresarial con ejercicios resueltos' de Eva Ropero.' de Fco. 'Introducción a la Estadística Económica y Empresarial. Luana Gava y Eva Romero. Editorial Thomson. Javier Martín-Pliego López. Editorial Delta Publicaciones. Teoría y Práctica. María Eleftheriou. Categoría:  Estimación estadística .