You are on page 1of 18

Capitulo 2: Experimentos Comparativos Simples

2.1 Introducción
Cuando se pretende evaluar una característica importante de un producto en base a diferentes
formulaciones de este, se realizan observaciones para ver que tanto difiere un tratamiento del
otro.
Las observaciones las podemos representar en un diagrama de puntos con el cual se realiza un
examen visual de comportamiento que arrojan los datos para cada nivel del factor de la
formulación. Además, puede usarse una técnica de la inferencia estadística llamada prueba de
hipótesis (prueba de significación).
La prueba de hipótesis permite que la comparación de las dos formulaciones se haga en
términos objetivos, con el conocimiento de los riesgos asociados si se llega a una conclusión
equivocada.

2.2 Conceptos Estadísticos Básicos


A cada una de las observaciones realizada se le puede llamar una corrida. En las corridas
individuales pueden existir fluctuaciones o ruido en los resultados. A estos se le llama error
experimentar o simplemente error. Se trata de un error estadístico, lo cual significa que se
origina por la variación que no esta bajo control y que generalmente es inevitable. La presencia
del error o ruido implica que la variable de respuesta es una variable aleatoria. Una variable
aleatoria puede ser discreta o continua.
Una variable aleatoria es discreta si el conjunto de todos los valores es finito o contablemente,
en cambio si el conjunto de todos los valores posibles es un intervalo entonces la variable
aleatoria es continua.
Descripción gráfica de la variabilidad.
Para el análisis de los datos es frecuente utilizar métodos gráficos simples.
El diagrama de puntos es un recurso muy útil para representar un cuerpo reducido de datos el
cual permite ver de inmediato la localización o tendencia central de las observaciones y su
dispersión.

El histograma en cambio es un diagrama que se utiliza cuando los datos son muy numerosos, el
cual muestra la tendencia central, la dispersión y la forma general de la distribución de los
datos.
El diagrama de caja (o diagrama de caja y bigotes) es un diagrama que muestra un resumen
general de los estadísticos de los datos tales como: mínimo, el máximo, los cuartiles inferior y
superior (el percentil 25 y el percentil 75, respectivamente) y la mediana(el percentil 50) en una
caja rectangular alineada horizontal o verticalmente. La caja se extiende del cuartil inferior al
cuartil superior y se traza una línea por la mediana que atraviesa la caja. Se trazan dos líneas
que se extienden de los extremis de la caja hasta los valores mínimo y máximo.

Distribuciones de probabilidad
La estructura de la probabilidad de una variable aleatoria se describe mediante su distribución
de probabilidad. Según sea la naturaleza de la variable aleatoria la distribución de probabilidad
puede ser discreta o continua.
Mediana, varianza y valores esperados
La media, 𝜇, de una distribución de probabilidad es una medida de su tendencia central o
localización. Matemáticamente, la media se define como

La media también puede expresarse en términos del valor esperado o valor promedio a la larga
de la variable aleatoria y como

Donde E denota el operador del valor esperado.


La variabilidad o dispersión de una distribución de probabilidad puede medirse con la varianza,
la cual se define como
Si 𝑦 es una variable aleatoria con media 𝜇 y varianza 𝜎 2 y c es una constante, entonces

2.3 Muestreo y distribuciones de muestreo


Muestras aleatorias, media muestral y varianza muestral
Si de una población que contiene N elementos van a seleccionarse un muestra n de ellos de tal
forma que cada una de las combinaciones muestras posibles tiene igual probabilidad de ser
escogida, entonces al procedimiento empleado se le llama muestreo aleatorio.
Un estadístico se define como cualquier función de las observaciones de una muestra que no
contiene parámetros desconocidos. Por ejemplo, suponga que y1 , y2 , … yn representa una
muestra.
Entonces la media muestral
y la varianza muestral

son estadísticos En ocasiones se usa 𝑠 = √𝑠 2 , llamada la desviación estándar muestral, como


medida de dispersión.
Propiedades de la media y la varianza muestrales

La media muestral es un estimador puntual de la media poblacional 𝜇, y la varianza muestral 𝜎 2


es un estimador puntual de la varianza poblacional. Un estimador de un parámetro
desconocido es un estadístico que corresponde con dicho parámetro. Al valor numérico
particular de un estimador, calculado a partir de los datos muestrales, se le llama una
estimación.
Un buen estimador puntual debe tener varias propiedades. Dos de la más importantes son las
siguientes:
1. El estimador puntual deberá ser insesgado.
2. Un estimador insesgado deberá tener la varianza mínima.

Grados de libertad
A la cantidad n-1 de la ecuación 2-10 se le llama el número de grados de libertad de la suma de
cuadrados SS. Se trata de un resultado muy general; es decir, si 𝑦 es una variable aleatoria con
varianza𝜎 2 y SS tiene 𝑣 grados de libertad, entonces:

El número de grados de libertad de una suma de cuadrados es igual al numero de elementos


independientes en dicha suma de cuadrados.
La distribución normal y otras distribuciones de muestreo
A la distribución de probabilidad de un estadístico se le llama la distribución de muestreo.
Una de las distribuciones de muestreo más importantes es la distribución normal. Si 𝑦 es una
variable aleatoria normal, la distribución de probabilidad de 𝑦 es
Donde -∞ ≤ 𝜇 ≤ ∞ es la media de la distribución y 𝜎 2 > 0 es la varianza.
Un caso especial importante de la distribución normal es la distribución normal estándar; es
decir, 𝜇 = 0 𝑦 𝜎 2 = 1. Se observa que si y~N(μ, 𝜎 2 ) , la variable aleatoria

A esto se le llama estandarización de la variable aleatoria normal y.


Teorema 2-1
El teorema del límite central
Si y1 , y2 , … 𝑦𝑛 es una sucesión de n variables independientes que tienen una distribución
idéntica con 𝐸(𝑦𝑖 ) = 𝜇 y 𝑉(𝑦𝑖 ) = 𝜎 2 (ambas finitas) y 𝑥 = 𝑦1 + 𝑦2 + ⋯ + 𝑦𝑛 ,entonces

Tiene una distribución N(0,1) aproximada en el sentido de que, si Fn (z) es la función de la


distribución de zn y 𝜙(z) es la función de la distribución de la variable aleatoria)N(0,1,
Fn (z)
entonces lim =1
𝑛→∞ 𝜙(z)

Este resultado establece en esencia que la suma de n variables aleatorias independientes que
tienen una distribución idéntica sigue una distribución aproximadamente normal.
Una importante distribución de muestreo que pude definirse en términos de variables
aleatorias normales es la distribución x 2 o ji-cuadrada. Si z1 , z2 … . zk son variables aleatorias
que tienen una distribución normal e independiente con media 0 y varianza 1, cuya abreviatura
es NID(0,1), entonces la variable aleatoria
Sigue la distribución ji-cuadrada con k grados de libertad. La función de densidad de la
distribución ji-cuadrada es

La distribución es asimétrica, o sesgada, con media y varianza

Como un ejemplo de una variable aleatoria que sigue la distribución ji-cuadrada, suponga que
y1 , y2 , … yn es una muestra aleatoria de una distribución N(μ, σ). Entonces

Al examinar la ecuación 2-8, se observa que la varianza muestral puede escribirse como

𝜎2 2
Si las observaciones de la muestra son,NID(μ, σ) entonces la distribución de 𝑠 2 es [(𝑛−1)] 𝑥𝑛−1 .
Por lo tanto, la distribución de muestreo de la varianza muestral es una constante multiplicada
por la distribución ji-cuadrada si la población tiene una distribución normal.

Si 𝑧 𝑦 𝑥𝑘2 son variables aleatorias independientes normal estándar y ji-cuadrada,


respectivamente, la variable aleatoria

Sigue la distribución t con k grados de libertad, denotada t k . La función de densidad de t es


𝑘
Y la media y la varianza de t son 𝜇 = 0 𝑦 𝜎 2 = (𝑘+2) para k> 2, respectivamente.

Si y1 , y2 , … yn es una muestra aleatoria de una distribución N(μ, σ) , entonces la cantidad

Se distribuye como t con n-1 grados de libertad.


La distribución F
Si 𝑥𝑢2 𝑦 𝑥𝑣2 son dos variables aleatorias ji- cuadrada independiente con u y v grados de libertad,
respectivamente, entonces el cociente

Sigue la distribución f con u grados de libertad en el numerador y v grados de libertad en el


denominador. Si x es una variable aleatoria F con u grados de libertad en el numerador y v
grados de libertad en el denominador, entonces la distribución de probabilidad de x es
2-4 Inferencias acerca de las diferencias en las medias, diseños aleatorizados
2-4.1 Prueba de hipótesis
Un modelo de datos
Con frecuencia los resultados de un experimento se describen con un modelo. Un modelo
estadístico simple que describe los datos de un experimento es

Hipótesis Estadísticas
Una hipótesis estadística es un enunciado o afirmación ya sea acerca de los parámetros de una
distribución de probabilidad o de los parámetros de una modelo. La hipótesis refleja alguna
conjetura acerca de la situación del problema. Por ejemplo, puede pensarse que los promedios
de dos formulaciones son iguales. Esto puede enunciarse formalmente como

Al enunciado Ho se le llama la hipótesis nula y a H1 se le llama hipótesis alternativa. A la


hipótesis que se especifica aquí se le llama hipótesis alternativa de dos colas porque sería
verdadera si .

Para probar una hipótesis se proyecta un procedimiento para tomar una muestra aleatoria,
calcular un estadístico de prueba apropiado para después rechazar o no estar en posición de
rechazar la hipótesis nula H0. Parte de este procedimiento consiste en especificar el conjunto
de valores del estadístico de prueba que llevan al rechazo de H0. A este conjunto de valores se
le llama la región crítica o región de rechazo de la prueba.
Puede cometerse dos tipos de errores cuando se prueban hipótesis. Si la hipótesis nula se
rechaza cuando es verdadera, ha ocurrido un error tipo I. Si la hipótesis nula no se rechaza
cuando es falsa, se ha cometido un error tipo II. Las probabilidades de estos errores se expresan
con símbolos especiales:

En ocasiones es mas conveniente trabajar con la potencia de la prueba, donde

El procedimiento general en la prueba de hipótesis es especificar un valor de la probabilidad 𝛼


del error tipo I, llamada con frecuencia el nivel de significación de la prueba, y después diseñar
el procedimiento de prueba de tal modo que la probabilidad 𝛽 del error tipo II tenga un valor
conveniente pequeño.

La prueba t de dos muestras


Si las varianzas de dos formulaciones son idénticas entonces el estadístico de prueba que
deberá usarse para comparar las medias de dos tratamientos en el diseño completamente
aleatorizado es

Donde 𝑦̅1 𝑦 𝑦̅2 son las medias muestrales,𝑛1 𝑦 𝑛2 son los tamaños de las muestras,𝑆𝑝2 es una
estimación de la varianza común𝜎12 = 𝜎22 calculada a partir de

Y 𝑆12 𝑦 𝑆22 son las dos varianzas muestrales individuales. Para determinar si deberá recharzarse
HO se compararía to con la distribución t con grados de libertad. Si
donde es punto porcentual superior de la distribución t
con grados de libertad, entonces se rechazaría Ho y se concluiría que las dos
formulaciones difieren. A este procedimiento de prueba se le llama la prueba t de dos
muestras.

El uso de valores P en la prueba de hipótesis


Una manera de reportar los resultados de una prueba de hipótesis es estableciendo que la
hipótesis nula fue rechazada o no para un valor de 𝛼 o nivel de significación especifico.
Para esto se ha adoptado extensivamente el enfoque del valor P. El valor P es la probabilidad de
que el estadístico de prueba asuma un valor que sea al menos tan extremo como el valore
observado del estadístico cuando la hipótesis nula H0 es verdadera. Por lo tanto, un valora P
transmite mucha información acerca del peso de la evidencia en contra de H0 y, por
consiguiente, el responsable de la toma de decisiones puede llegar a una conclusión con
cualquier nivel de significación especificado. En términos mas formales., el valor de P se define
como el nivel de significación menor que llevaría a rechazar la hipótesis nula H0.
Se acostumbra a decir que el estadístico de prueba es significativo cuando se rechaza la
hipótesis nula; por lo tanto, el valor P puede considerarse como el menor 𝑛𝑖𝑣𝑒𝑙 𝛼 en el que
los datos son significativos.

Verificación de los supuestos en la prueba t


Los supuestos de la igualdad de las varianzas y la normalidad son fáciles de verificar utilizando
una gráfica de probabilidad normal.
En general, la graficación de probabilidades es una técnica para determinar si los datos
muestrales se ajustan a una distribución hipotetizada con base en un examen visual subjetivo
de los datos.
Para construir una grafica de probabilidad primero se ordenan de menor a mayor las
observaciones de la muestra. Es decir, la muestra y1, y2, …yn primero se ordenan de menor a
mayor las observaciones de la muestra. Las observaciones ordenadas yi se grafican entonces
contra sus respectivas frecuencias acumuladas observadas. La escala de la frecuencia
acumulada se ha dispuesto de tal modo que, si la distribución hipotetizada describe de manera
adecuada los datos, los puntos graficados estarán aproximadamente sobre una línea recta; si
los puntos graficados muestran una desviación significativa de una recta, el modelo
hipotetizado no es apropiado.
Una justificación alternativa de la prueba t
La prueba t de dos muestras que acaba de presentarse depende en teoría del supuesto
fundamental de que las dos poblaciones de las que se seleccionaron la muestras al azar son
normales. Aun cuando el supuesto de normalidad es necesario para desarrollar formalmente el
procedimiento de prueba, como ya se mencionó, las desviaciones moderadas de la normalidad
no afectaran seriamente los resultados.
Si los tratamientos no tienen ningún efecto, todas las formas posibles en que podrían ocurrir la
observación seria igualmente posibles. Hay un valor de t0 para cada uno de los arreglos. Si el
valor de t0 que se obtiene en realidad de los datos es inusualmente grande o inusualmente
pequeño con referencia al conjunto de los valores posibles, es una indicación de que Este tipo
de procedimiento se le llama prueba de aleatorización.
2-4.2 Elección del tamaño de la muestra
La elección de un tamaño de la muestra apropiado es uno de los aspectos mas importantes de
cualquier problema de diseño experimental. La elección del tamaño de la muestra y la
probabilidad 𝛽 del error tipo II guardan una estrecha relación. Suponga que se están probando
las hipótesis

y que las medias no son iguales, por lo que . Puesto no es verdadera, la


preocupación principal es cometer la equivocación de no rechazar H0. La probabilidad del error
tipo II depende de la verdadera diferencia en las medias 𝛿 . Aun graficas de 𝛽 contra 𝛿 para un
tamaño particular de la muestra se le llama la curva de operación característica, o curva OC, de
la prueba. El error 𝛽también es una función del tamaño de la muestra.
En la figura 2-12 se muestra un juego de curvas de operación característica para las hipótesis

Para el caso en que las dos varianzas poblacionales son desconocidas pero iguales
y para un nivel de significación de . La curvas también parten del
supuesto de que los tamaños de las muestras de las dos poblaciones son iguales; es decir,
. El parámetro del eje horizontal de la figura 2-12 es
La división de por permite al experimentador usar el mismo juego de curvas,
independientemente del valor de la varianza.
Al examinar estas curvas se observas lo siguiente:

1. Entre más grande sea la diferencia en las medias menor será la probabilidad del
error tipo II para un tamaño de la muestra y un valor de dados.
2. Cuando el tamaño de la muestra se hace más grande, la probabilidad del error tipo II se
hace más pequeña para una diferencia entre las medias y un valor de 𝛼 dados.
Las curvas de operación característica son con frecuencia útiles para seleccionar el tamaño de la
muestra que debe usarse en un experimento.
2-4.3 Intervalos de confianza
Muchas veces es preferible proporcionar un intervalo dentro del cual cabría esperar que
estuviese incluido el valor del parámetro o los parámetros en cuestión. A las declaraciones de
estos intervalos se les llama intervalos de confianza.
Para definir un intervalo de confianza, suponga que 𝜃 es un parámetro desconocido. Para
obtener una estimación del intervalo de 𝜃 , es necesario encontrar dos estadísticos L y U tales
que las declaraciones de probabilidad

Sea verdadera. Al intervalo

Se le llama intervalo de confianza de (1 − 𝛼) por ciento para el parámetro. A los estadísticos L


y U se les llama los límites de confianza inferior y superior, respectivamente, y a 1-𝛼 se le llama
coeficiente de confianza.
El intervalo de confianza puede deducirse de la siguiente manera. El estadístico
Se distribuye como
2-4.4 Caso en que
Si se está probando

Y no hay bases para suponer que las varianzas son iguales entonces es necesarios hacer
ligeras modificaciones en la prueba t de dos muestras. En este caso el estadístico de prueba es
Este estadístico no se distribuye exactamente como t. No obstante, t es una buena
aproximación de la distribución de t0 si se usa
Para los grado de libertad. Una indicación clara de la desigualdad de las varianzas en una grafica
de probabilidad normal seria una situación que requeriría esta versión de la prueba t.
2-4.5 Caso en que se conocen
Si las varianzas de ambas poblaciones se conocen, entonces las hipótesis
Pueden probarse utilizando el estadístico
Si ambas poblaciones son normales, o si los tamaños de las muestras son lo suficientemente
grandes para aplicar el teorema del limite central, la distribución de es si la hipótesis nula es
verdadera. Por lo tanto, la región critica se encontraría utilizando la distribución normal en
lugar de la distribución t. Especificamente, H0 se rechazaría si donde es el punto porcentual
superior de la distribución normal estándar.
A diferencia de la prueba t de la secciones anteriores, en la prueba de la medias con varianzas
conocidas no se requiere el supuesto de que el muestreo se haga de poblaciones normales.
Puede aplicarse el teorema del limite central para justificar una distribución normal aproximada
para la diferencia en la medias muestrales .
El intervalo de confianza por ciento para cuando las varianzas se conoces es

2-4.6 Comparación de una sola media con un valor especificado


Algunos experimentos incluyen la comparación de la media de una sola población con un valor
especificado, por ejemplo . Las hipótesis son

Si la población es normal con varianza conocida, o si la población no es normal pero el tamaño


de la muestra es normal con varianza conocida, o si la población no es normal pero el tamaño
de la muestra es lo suficientemente grande para aplicar el teorema del limite central, entonces
la hipótesis puede probarse utilizando un aplicación directa de la distribución normal. El
estadístico de prueba es
El intervalo de confianza de por ciento para la verdadera media poblacional es

2-4.7 Resumen

You might also like