ESCUELA SUPERIOR POLITECNICA DE

CHIMBORAZO
FACULTAD DE MECANICA
ESCUELA DE INGENIERIA INDUSTRIAL

DISEÑO EXPERIMENTAL

NOMBRE: Jorge Luis Llerena

SEMESTRE: Noveno P2

FECHA: 24 -04 -2017

ESTIMACIÓN PUNTUAL Y POR INTERVALOS

ESTIMACIÓN PUNTUAL

La estimación de parámetros tiene por finalidad asignar valores a los parámetros poblacionales a
partir de los estadísticos obtenidos en las muestras. Dicho de otra manera, la finalidad de la
estimación de parámetros es caracterizar las poblaciones a partir de la información de las
muestras (por ejemplo, inferir el valor de la Media de la población a partir de los datos de la
muestra).

La estimación puntual consiste en atribuir un valor (la estimación) al parámetro poblacional. Si
la muestra es representativa de la población, podemos esperar que los estadísticos calculados en
las muestras tengan valores semejantes a los parámetros poblacionales, y la estimación consiste
en asignar los valores de los estadísticos muestrales a los parámetros poblacionales. Los
estadísticos con que obtenemos las estimaciones se denominan estimadores.

Ejemplo

Se desea estimar la Media de las puntuaciones del curso 2003/4, pero solo se dispone de 50
puntuaciones seleccionadas aleatoriamente. La Media de la muestra (el estimador), es igual a
5.6 y atribuimos este valor (la estimación) a la Media del curso completo.

Resumiendo:

Podemos utilizar como estimadores de la Media de la población otros estadísticos de tendencia
central como la Moda o la Mediana, pero NO todos los estimadores son apropiados. Los
estimadores deben satisfacer ciertos requisitos, y por esta razón, interesa conocer sus
propiedades a fin de utilizar los que sean adecuados según las circunstancias de la estimación.
(Hanke, 1997)

Se dice que un estimador es insesgado si la Media de la distribución del estimador es igual al parámetro. Ejemplo: La Media de las Varianzas obtenidas con la Varianza en un muestreo de 1000 muestras (n=25) en que la Varianza de la población es igual a 9.9 han hecho tres muestreos aleatorios (número de muestras= 100) con los siguientes resultados: . la Mediana de la población es igual a 5 y la Media de las Medianas es igual a 5.1 esto es. al utilizar la Cuasivarianza la Media de las Varianzas muestrales es igual a 9.09 han hecho un muestreo aleatorio (número de muestras= 10000.Características estimadoras 1) Sesgo. hay diferencia ya que la Mediana es un estimador sesgado.5.09. tamaño de las muestras= 100) y hallan que la Media de las Medias muestrales es igual a 5. esto es.56 ha resultado igual a 9. Estimadores insesgados son la Media muestral (estimador de la Media de la población) y la Varianza (estimador de la Varianza de la población): Ejemplo En una población de 500 puntuaciones cuya Media (m) es igual a 5. La Varianza es un estimador sesgado. esto es. (la media poblacional y la media de las medias muestrales coinciden).12. coincide con la Varianza de la población ya que la Cuasivarianza es un estimador insesgado. no coinciden. 2) Consistencia. En cambio. Algunos estimadores consistentes son: Ejemplo: En una población de 500 puntuaciones cuya Media (m) es igual a 4. En cambio. Un estimador es consistente si aproxima el valor del parámetro cuanto mayor es n (tamaño de la muestra).

menor es la confianza de que el estadístico obtenido en la muestra aproxime al parámetro poblacional. Ejemplo La Varianza de la distribución muestral de la Media en un muestreo aleatorio (número de muestras: 1000.vemos que el muestreo en que n=100 la Media de las Medias muestrales toma el mismo valor que la Media de la población. Si repetimos el muestreo un gran número de veces y definimos un intervalo alrededor de cada valor del estadístico muestral. 1992) Ejemplo Se generan 100000 muestras aleatorias (n=25) de una población que sigue la distribución Normal. La Varianza de la distribución de Medianas ha resultado. y resulta: La distribución de las Medias muestrales aproxima al modelo Normal: . 3) Eficiencia. b) Si conociéramos el valor del parámetro poblacional. ESTIMACIÓN POR INTERVALOS La estimación por intervalos consiste en establecer el intervalo de valores donde es más probable se encuentre el parámetro. La obtención del intervalo se basa en las siguientes consideraciones: a) Si conocemos la distribución muestral del estimador podemos obtener las probabilidades de ocurrencia de los estadísticos muestrales. (P. Armitage. c) El problema es que el parámetro poblacional es desconocido. n=25) ha resultado igual a 0. Este intervalo es denominado "intervalo de confianza". (este resultado muestra que la Media es un estimador más eficiente que la Mediana). y por ello el intervalo se establece alrededor del estimador. el parámetro se sitúa dentro de cada intervalo en un porcentaje conocido de ocasiones. Cuanto menor es la eficiencia.12. igual a 1.4. podríamos establecer la probabilidad de que el estimador se halle dentro de los intervalos de la distribución muestral. en el mismo muestreo. Diremos que un estimador es más eficiente que otro si la Varianza de la distribución muestral del estimador es menor a la del otro estimador.

En consecuencia. la distancia desde m a la Media muestral es la misma que va de la Media muestral a m.96 que multiplican la Desviación Típica de la distribución muestral son los valores cuya función de distribución es igual a 0. si hacemos un muestreo con un número grande de muestras observamos que el 95% de las veces (aproximadamente) el valor de la Media de la población (m) se encuentra dentro del intervalo definido alrededor de cada uno de los valores de la Media muestral. el intervalo dentro del cual se halla el 95% de las Medias muestrales es: (Nota: Los valores +-1. la distancia de un punto A a un punto B es la misma que de B a A. que es igual a 4.975 y 0. Por esa razón.005 respectivamente).995 y 0. Si establecemos el intervalo alrededor de la Media muestral. 1976) Ejemplo . Seguidamente generamos una muestra de la población y obtenemos su Media. el parámetro poblacional (5. El porcentaje de veces que el valor de m se halla dentro de alguno de los intervalos de confianza es del 95%. y es denominado nivel de confianza.58 que multiplica la Desviación Típica de la distribución muestral en las tablas de la distribución Normal estandarizada o de funciones en aplicaciones informáticas como Excel). Si queremos establecer un intervalo de confianza en que el % de veces que m se halle dentro del intervalo sea igual al 99%.025 respectivamente y se pueden obtener en las tablas de la distribución Normal estandarizada o de funciones en aplicaciones informáticas como Excel).5. En consecuencia.1) está incluido dentro de sus límites: Ahora bien. la expresión anterior es: (Obtenemos el valor +-2. y son los valores cuya función de probabilidad es igual a 0.. (Murray R.

Cuando dos o más poblaciones son estudiadas. Las pruebas paramétricas más utilizadas son (HFB2): . más distorsionada será la media de las muestras por los valores raros extremos. 1996) PRUEBAS PARAMÉTRICAS Se llaman así porque su cálculo implica una estimación de los parámetros de la población con base en muestras estadísticas. 2. Como estos criterios son muy rigurosos. 3. San valores numéricos dados. (Levin I. mientras más pequeña. El nivel de medición de las variables es por intervalos de razón. algunos investigadores sólo basan sus análisis en el tipo de Hi y los niveles de medición de las variables.. tienen una varianza homogénea: las poblaciones en cuestión poseen una dispersión similar en sus distribuciones.7) incluyen el valor del parámetro dentro sus límites. Mientras más grande sea la muestra más exacta será la estimación. Nueve de los diez intervalos (salvo el definido alrededor de la Media muestral igual a 3. La distribución poblacional de la variable dependiente es normal: el universo tiene distribución normal. Los análisis paramétricos partes de los siguientes supuestos: 1.La siguiente imagen muestra la distribución de las Medias muestrales obtenidas de 100000 muestras aleatorias y los intervalos alrededor de cada una de las Medias obtenidas de diez de las muestras: donde ls y le simbolizan los límites superior e inferior del intervalo de confianza al 95%.

en los mismos sujetos.  Prueba t.  Prueba de contraste de las diferencias de proporciones. “A mayor X. Prueba Hi del tipo de “A mayor X.  Coeficiente de correlación de Pearson y regresión lineal. Mide niveles de variables de intervalo o de razón. etc.00 (HFB2: 377) Ejemplo de la Correlación entre la variable “estatura” y “peso” de alumnos . mayor Y”. La prueba en si no considera a una como independiente y la otra como dependiente. porque no evalúa la causalidad. Se relacionan las puntuaciones obtenidas de una variable con las puntuaciones obtenidas de otra variable. menor Y”. Puede variar de -1. Correlación positiva considerable . (Otra lista de pruebas paramétricas):  Prueba del valor Z de la distribución normal  Prueba T de Student para datos relacionados (muestras dependientes)  Prueba T de Student para datos no relacionados (muestras independientes)  Prueba T de Student-Welch para dos muestras independientes con varianzas no homogéneas  Prueba de ji cuadrada de Bartlett para demostrar la homogeneidad de varianzas  Prueba F (análisis de varianza o ANOVA) EL COEFICIENTE DE CORRELACIÓN DE PEARSON (R) Es una prueba estadística para analizar la relación entre dos variables medidas en un nivel por intervalos o de razón. El coeficiente se calcula a partir de las puntuaciones obtenidas en una muestra de dos variables.00 a +1. solo la relación mutua (correlación).  Análisis de varianza unidireccional (ANOVA en un solo sentido o oneway)  Análisis de Varianza factorial (ANOVA)  Análisis de covarianza (ANCOVA) Descripción.

Los valores intermedios pueden ser interpretados según sus magnitudes relativas.y.COEFICIENTE RHO DE SPEARMAN Es un coeficiente para medir el grado de asociación entre dos variables ordinales cuyos valores indican rangos en cada una de ellas. Se tiene que considerar la existencia de datos idénticos a la hora de ordenarlos. significa no correlación pero no independencia. aunque si éstos son pocos. podemos utilizar la siguiente aproximación a la distribución t de Student. La tau de Kendall es un coeficiente de correlación por rangos. diferencia entre los correspondientes estadísticos de orden de x . Oscila entre -1 y +1. inversiones entre dos ordenaciones de una distribución normal bivariante. Colocados los valores en la fórmula se tiene: . N = número de parejas. o. Ejercicio: A un grupo de 10 vendedores se les asigna rangos según la cantidad de ventas y el rango de tiempo en hacerlo. Su fórmula de cálculo es: En la cual: D = diferencia de rangos en las dos variables. 0 cero. Se desea saber si existe asociación entre las dos variables. se puede ignorar tal circunstancia Para muestras mayores de 20 observaciones. Rho toma el valor +1 cuando existe igualdad de rangos de los casos en las dos variables y -1 cuando tienen rangos exactamente opuestos. indicándonos asociaciones negativas o positivas respectivamente. La interpretación de coeficiente de Spearman es igual que la del coeficiente de correlación de Pearson.

Mason. E. USA: Editorial Mc Graw Hill. Edición. Levin I. Barcelona. Estadística para administradores. España: Doyma. G. Murray R. Estadística para la Investigación Biomédica. Bogotá. R. (1992). &. (1976). Armitage. .. S. 1990) Referencias Hanke. P. Colombia: McGrawHill. (1997). Barcelona. Estadística para administración y economía. y. J. (1996). México: Editorial Alfaomega. (Mason.. España: Prentice-Hall Hispanoamericana. (1990). Estadística para negocios. B. Teoría y Problemas de Probabilidad y Estadística.Respuesta al problema: existe asociación positiva medianamente alta entre el rango de ventas y tiempo empleado. R. 2ª.