You are on page 1of 21

Tema 4

Estimación y pruebas de hipótesis

Índice
1. Introducción 2

2. Muestras aleatorias y estadı́sticos 2

3. Estimadores 3
3.1. Método de máxima verosimilitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

4. Distribuciones muestrales 6
4.1. Distribución muestral de la media de una población normal
o aproximadamente normal con varianza conocida . . . . . . . . . . . . . . . . . . . . . . 6
4.2. Distribución muestral de la media de una población normal
con varianza desconocida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
4.3. Distribuciones muestrales de la cuasivarianza y de la varianza
de una población normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
4.4. Distribución muestral del cociente de cuasivarianzas . . . . . . . . . . . . . . . . . . . . . 9

5. Intervalos de confianza 10
5.1. Intervalos de confianza para la media de una población normal
o aproximadamente normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
5.2. Intervalos de confianza para la diferencia de medias de poblaciones
independientes, normales o aproximadamente normales . . . . . . . . . . . . . . . . . . . . 12
5.3. Intervalo de confianza para la diferencia de medias de poblaciones
dependientes, normales o aproximadamente normales . . . . . . . . . . . . . . . . . . . . . 13
5.4. Intervalo de confianza para la varianza de una población normal . . . . . . . . . . . . . . 13
5.5. Intervalo de confianza para el cociente de varianzas
de poblaciones normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
5.6. Intervalo de confianza para la proporción de una población binomial . . . . . . . . . . . . 14
5.7. Intervalo de confianza para la diferencia de proporciones
de poblaciones binomiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

6. Pruebas de hipótesis 15
6.1. Metodologı́a de una prueba de hipótesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
6.2. Pruebas unilaterales y bilaterales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
6.3. Errores de tipo I y II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
6.4. Valor P de un contraste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
6.5. Pruebas de hipótesis sobre la media de una población normal o aproximadamente normal
con varianza conocida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

1

Tema 4. Estimación y pruebas de hipótesis 2

1. Introducción

Definición 1.1 Una población es el conjunto formado por la totalidad de los individuos en los que
estamos interesados para efectuar en ellos observaciones o medidas.

Definición 1.2 Una muestra es un subconjunto de elementos seleccionados de una población.

Supongamos que disponemos de una población sobre cuyos individuos queremos estudiar un determinado
carácter o variable, efectuando observaciones o medidas del mismo. Si tomamos al azar un indivi-
duo, podemos considerar esta elección como un experimento aleatorio cuyo espacio muestral es toda la
población. Desde este punto de vista, la variable en cuyo estudio nos interesamos, es una variable aleatoria
definida en el espacio muestral constituido por la población.
Como todas las variables aleatorias, tendrá una distribución de probabilidad, de modo que si ésta es
normal, binomial o de otro tipo, es costumbre decir que la población es normal, binomial, o del tipo que
se trate. Más aún, si θ es un parámetro asociado a la distribución de probabilidad de la variable aleatoria,
como la media o la varianza en una distribución normal, o los parámetros n y p en una binomial, es
costumbre referirnos a ellos, como el parámetro θ de la población o la media o la varianza de la población.
Seguimos ası́ un hábito muy común en los textos de Estadı́stica, de aplicar a la población adjetivos y
atributos propios de la variable que estamos estudiando.
Excepto en poblaciones pequeñas en las que es factible el estudio de la variable sobre todos los individuos
(haciendo por lo tanto innecesario el uso de la Estadı́stica), en la práctica, tal estudio es desaconsejable
por distintas razones:
La población es muy numerosa y el estudio resulta costoso.

La población es infinita.
La población está constituida por acontecimientos que se suceden a lo largo del tiempo, por lo que
serı́a necesario un tiempo infinito para abarcarla toda.
El estudio de la variable en un individuo implica la destrucción del mismo (por ejemplo, los ensayos
de resistencia de materiales).

Descartada la posibilidad de estudiar la variable en toda la población, podemos, no obstante estudiarla
en una muestra, y a partir de los resultados, inferir conclusiones acerca de la población. Los métodos de
análisis de la variable en la muestra, y la extrapolación o inferencia de las conclusiones aplicables a toda
la población con un grado de confianza adecuado, es el objeto de la Estadı́stica Inferencial o Inferencia
Estadı́stica.  ½
 Puntual
Estimación de parámetros
Inferencia estadı́stica Por intervalos

Pruebas de hipótesis.

2. Muestras aleatorias y estadı́sticos
Cuando tomamos una muestra de una población y calculamos en cada uno de sus individuos el valor
de la variable aleatoria X que estamos estudiando, (es decir, medimos las estaturas u observamos el
sexo), obtenemos unos números x1 , x2 , . . . , xn que podemos considerar como los valores de unas varia-
bles aleatorias X1 , X2 , . . . , Xn cada una de las cuales es la misma variable X, sirviendo el subı́ndice
únicamente para indicar en qué individuo de la muestra se ha calculado X. Podemos admitir además que
cada medida u observación es independiente de las demás. Todo esto nos lleva a introducir el siguiente
concepto, de importancia crucial en la teorı́a de la Inferencia Estadı́stica:
Definición 2.1 Las variables aleatorias X1 , X2 , . . . , Xn constituyen una muestra aleatoria simple
de tamaño n si a) son independientes, y b) tienen la misma distribución de probabilidad.

Estimadores Hemos visto en el capı́tulo dedicado al estudio de las variables aleatorias y sus distribuciones de proba- bilidad. Se llama Definición 3. n una muestra aleatoria simple. 3. Además. debe quedar claro en todo caso la diferencia entre el parámetro θ y su estimación θ̂. . la Estadı́stica Inferencial. por muy conveniente que éste se considere. Vamos a ampliar este concepto. a partir de los datos de una muestra.Tema 4. El empleo de un estadı́stico para estimar un parámetro plantea algunos interrogantes: Para un parámetro dado.1 Sea Θ ¡ ¢ b y se designa ECM (Θ) error cuadrático medio de Θ b a E (Θ b − θ)2 . Definición 2. dependen de ciertas constantes. no es posible conocerlos sin analizar todos y cada uno de los individuos de la misma. Un estadı́stico que se usa para estimar un parámetro. el estimador se designe por la misma letra mayúscula (ya que es una variable aleatoria) con un acento circunflejo Θ. que de alguna manera caracterizan a la distribución y que hemos llamado paráme- tros. ¿hasta qué punto podemos confiar en que el valor numérico que proporciona el estadı́stico en una muestra. Aunque no siempre se sigue esta costumbre. los extremos del intervalo para la estimación por intervalo. constituye una estimación razonable del parámetro? En esta sección vamos a contestar a estas preguntas. Veamos algunas caracterı́sticas de los estimadores. por ello a veces se utiliza la abreviatura iid. b un estimador del parámetro θ. y usamos su valor numérico en una muestra como es- timación puntual. De entre la infinidad de estadı́sticos que podrı́an definirse. se llama estimador puntual del parámetro. de densidad de probabilidad y de distribución. Por estimación entendemos el proceso mediante el cual obtenemos. . por definición depende exclusivamente de la población. bien en forma de un número que constituye un pronóstico acerca del valor del parámetro (estimación puntual). . n i=1 n i=1 aunque más tarde consideraremos otros estadı́sticos de uso frecuente. llamando parámetro de una población. o bien calculamos a partir de ese valor numérico. que las funciones de probabilidad. hay dos que tienen especial interés: n n 1X 1X 2 media muestral : X = Xi .2 Sea Xi . y no de cualquier muestra que puede tomarse en la misma. se limita a estimarlos. Una estimación puntual es un valor numérico del estimador. i = 1. Estimación y pruebas de hipótesis 3 También se las llama variables independientes e idénticamente distribuidas. varianza muestral : S = (Xi − X)2 . tomamos un estadı́stico conveniente. . Las variables Xi constituyen la base del importante concepto que definimos a continuación. ¿cuál (o cuáles) es el estadı́stico que se considera conveniente? No se olvide que hay infinidad de posibilidades de definir estadı́sticos. Un parámetro. b a E(Θ) sesgo de Θ b − θ. Como los parámetros están asociados a toda la población. a cualquier caracterı́stica numérica de la misma. Notación: Suele usarse el convenio de que si θ es el parámetro que se desea estimar. b ya la estimación con minúsculas θ̂. Para ello. calculado en una muestra determinada. de ahı́ el empleo del acento circunflejo. . pero dada la imposibilidad (o la inconveniencia) de hacerlo. 2. Se llama estadı́stico a cualquier función real de esas variables aleatorias que no contenga ningún parámetro de la población. o bien en forma de un intervalo que esperamos contenga al parámetro con un cierto grado de confianza (estimación por intervalo). información acerca de un parámetro.

el estimador n n 1 X Sc2 = S2 = (Xi − X)2 . + an Xn donde a1 + a2 + . de acuerdo con su definición. vamos a definir el concepto de eficiencia. . es el cuadrado del sesgo. . la media de los cuadrados de las desviaciones entre los valores del estimador y el parámetro.4 Sean Θ b1 y Θ b 2 estimadores del parámetro θ. . + an Xn ) = E(Θ) = a1 E(X1 ) + a2 E(X2 ) + . Serı́a deseable que el estimador que usáramos tuviera el error cuadrático medio lo más pequeño posible. se dice que Θ b 2 . . Definición 3. . cero. harı́a inútil el muestreo (a no ser que ese valor fuera precisamente el del parámetro. n n Se puede construir un estimador insesgado de σ 2 a partir de la varianza muestral. que b b Θ2 es más eficiente que Θ1 . . en cuyo caso lo que serı́a inútil es el empleo de la Estadı́stica). n−1 n − 1 i=1 llamado cuasivarianza muestral es insesgado.3 De todos los estimadores insesgados de un mismo parámetro. y es por lo tanto intrı́nseco de él. si existe uno cuya varianza sea mı́nima. b fuera constante. . Ello sugiere la siguiente definición. y si es mayor que 1. únicamente podrı́a ser cero si la variable aleatoria Θ ya que elegir como estimador a un estadı́stico que toma el mismo valor en todas las muestras.2 Se dice que el estadı́stico Θ b = θ. Ello da origen a la siguiente definición. . comprobemos que el error cuadrático medio se puede escribir como suma de dos términos no negativos: ¡ 2 ¢ ¡ 2¢ b =E Θ ECM (Θ) b − 2θΘ b + θ2 = E Θ b − 2θE(Θ) b + θ2 = ¡ ¢ ¡ ¢ = V ar(Θ) b 2 − 2θE(Θ) b + E(Θ) b + θ2 = V ar(Θ) b − θ 2. se alcanzarı́a cuando la media del estadı́stico fuera igual al parámetro. el sesgo de la varianza muestral es E S 2 − σ 2 = − . cuyo valor mı́nimo. lo que no parece muy conveniente. . b + E(Θ) El segundo de los sumandos en que se descompone el error cuadrático medio. + an )E(X) = E(X) = µ. Estimación y pruebas de hipótesis 4 El error cuadrático medio es. + an E(Xn ) = (a1 + a2 + . En efecto. + an = 1.Tema 4. la varianza de Θ b da cuenta de la variabilidad del estimador en torno a su propia media. es un estimador Ejemplo 1: El estadı́stico Θ insesgado de la media de X. b es un estimador insesgado del parámetro θ si E(Θ) Definición 3. n−1 n−1 n En cuanto al primero de los sumandos en que se descompone el error cuadrático medio. En efecto. Para terminar esta breve introducción a las propiedades de los estimadores. En todo caso podrı́a minimizarse esta varianza eligiendo de entre los posibles estimadores de θ. aquel cuya varianza fuera la más pequeña. ECM (Θ b 2) b 1 es más eficiente que Θ Si la eficiencia relativa es menor que 1. Se llama eficiencia relativa de estos estimadores al cociente ECM (Θ b 1) . ya que ¡ ¢ n ¡ ¢ n n−1 2 E Sc2 = E S2 = · σ = σ2 . se llama estimador insesgado de varianza mı́nima. . . Ejemplo 2: La varianza muestral no es un estimador insesgado del parámetro σ 2 . Definición 3. b = a1 X1 + a2 X2 + . b = E(a1 X1 + a2 X2 + . ya que puede de- ¡ ¢ n−1 2 ¡ ¢ σ2 mostrarse que E S 2 = σ y por lo tanto. Para ver de qué forma podrı́a lograse esto.

xn )). . . x2 . x1 . . x1 . x2 . . En definitiva. . . xn )) = xi lnp + n − xi ln(1 − p) i=1 i=1 n à n ! d(ln(L(p. Sabemos que ½ x p (1 − p)1−x si x = 0. el que tenga mayor probabilidad de haber producido esas observaciones. Ejemplo 3: Supongamos que X ∼ B(p). xn ) = f (xi . θ) donde θ es un parámetro desconocido. Estimación y pruebas de hipótesis 5 3. . estudiando el crecimiento de la función ln(L(p. dada una muestra de valores observados x1 . que en el valor encon- trado anteriormente. xn los valores observados de una muestra aleatoria de tamaño n de X. se ha usado ampliamente. . x1 . θ) i=1 Definición 3. el estimador de máxima verosimilitud de p es n 1X p̂ = xi n i=1 . . x1 . de todos los posibles valores del parámetro desconocido θ. .5 Sea X una variable aleatoria con función de probabilidad (o función de densidad de probabilidad) f (x. . . Definición 3. . . . x1 . xi ) = pxi (1 − p)1−xi = p i=1 xi (1 − p)n− i=1 xi i=1 i=1 tomando logaritmo neperiano en ambos miembros de la igualdad tenemos que à n ! à n ! X X ln(L(p. el método de máxima verosimilitud selecciona en cierto sentido.1. . Método de máxima verosimilitud El método de máxima verosimilitud para la obtención de estimadores puntuales de parámetros desconoci- dos de distribuciones lo usó Gauss en el siglo XIX para resolver problemas aislados. xn ) = f (p. . y lo formalizó Fisher a comienzos del siglo XX. . . . . x1 . . . Por tanto. la función ln(L(p. xn de una variable aleatoria X. . . . . . La función de verosimilitud de la muestra es: n Y L(θ. . Desde entonces. xn )) tiene un máximo absoluto. x1 . . xn ))) 1X 1 X X X =0⇔ xi = n− xi ⇔ (1−p) xi = p n − xi ⇔ p = X̄ dp p i=1 1−p i=1 i=1 i=1 Puede comprobarse. . . Sean x1 . . . . xn ))) 1X (−1) X =⇒ = xi + n− xi dp p i=1 1−p i=1 igualando esta derivada a cero n à n ! n à n ! d(ln(L(p.6 El estimador de máxima verosimilitud de θ es el valor de θ que maximiza la función de verosimilitud. p) = 0 en otro caso En este caso la función de verosimilitud serı́a n Y n Y Pn Pn L(p. 1 f (x.Tema 4. .

. . . 4. X2 . Xn normales e independientes. + an Xn . .. Sean n variables aleatorias X1 . . . . t de Student y F de Snedecor. Definición 4. ası́ como la diferencia de medias muestrales X 1 − X 2 . . . tenemos µ + µ + . + . Distribuciones muestrales Los estadı́sticos. X1n1 y X21 . . σ). . . Para destacar el hecho de que los estadı́sticos son funciones de las muestras. X22 . como todas las variables aleatorias tienen sus correspondientes distribuciones de proba- bilidad.1. . . . .1 La distribución de probabilidad de un estadı́stico se llama distribución muestral o distribución de muestreo. X2n2 muestras aleatorias independientes de tamaños n1 y n2 respectivamente de dos poblaciones X1 ∼ N (µ1 . X12 . una combinación lineal de variables aleatorias normales e independientes. n n con lo cual. + Xn media µ y varianza σ 2 . . + an µn .. la población diferencia X1 − X2 también ten- drá distribución normal. n b) Sean X11 . también tiene distribución normal con media y varianza: E(Y ) = a1 µ1 + a2 µ2 + . va- rianza muestral y cociente de varianzas muestrales. debido a que tiene propiedades que lo hacen adecuado. σ1 ) ysX2 ∼ N (µ2 . σn2 respectivamente (nótese que no se trata de una muestra aleatoria simple. X2 . . . la media muestral y la diferencia de medias muestrales tiene esa distribución. Xn es ahora una muestra aleatoria simple de una población normal X de 1 X1 + X2 + . ya que las Xi no están idénticamente distribuidas por tener distintas medias y varianzas). Entonces la à ! σ12 σ22 diferencia de medias muestrales X 1 − X 2 ∼ N µ1 − µ2 . entonces Y = = X. . donde a1 . V ar(Y ) = a21 σ12 + a22 σ22 + . √ . Estimación y pruebas de hipótesis 6 4. . En esta sección vamos a obtener la distribución muestral de dicho estimador. a2 . . . . En particular. . y por lo tanto: ¡ ¢ ¡ ¢ ¡ ¢ ¡ ¢ ¡ ¢ ¡ ¢ σ2 σ2 E X 1 − X 2 = E X 1 − E X 2 = µ1 − µ2 y V ar X 1 − X 2 = V ar X 1 + V ar X 2 = 1 + 2 . con medias µ1 . . σ1 ) independientes. Distribución muestral de la media de una población normal o aproximadamente normal con varianza conocida El estimador más usado para la media µ es la media muestral X.– Si tenemos sólo dos poblaciones normales X1 y X2 . . . . . .1 a) Sea X1 . n n2 n 2. . . + a2n σn2 . . lo enunciamos en forma de teorema: Teorema 4. . . n1 n2 Es decir.Tema 4. . . . + σ2 σ2 E(X) = =µ y V ar(X) = = . En esta sección vamos a estudiar las distribuciones muestrales de los estadı́sticos media muestral. n1 n2 . an ∈ R. . lo que nos llevará a introducir tres distribuciones de probabilidad de amplio uso: las distribuciones ji−cuadrado. Ejemplos: 1. . X2 . σ Entonces la media muestral X ∼ N µ. + µ σ2 + σ2 + . también tiene distribu- ción normal. . . = an = . µn y va- rianzas σ12 . Xµ n una muestra ¶ aleatoria de tamaño n de una población X ∼ N (µ. y tomamos a1 = a2 = . σ22 .− Si X1 . Puede demostrarse que la variable aleatoria Y = a1 X1 + a2 X2 + . µ2 . . Por su importancia. sus distribuciones de probabilidad reciben el nombre de distribuciones muestrales o distribuciones de muestreo.

y que las varianzas de las poblaciones sean desconocidas. Entonces. la media y la diferencia de medias muestrales dejan de tener distribución normal. Entonces. Se admite que si n > 30. ¿cuál es entonces la distribución muestral de X y de X 1 − X 2 ? El siguiente teorema. . n1 > 30 y n2 > 30. b) Sean X11 . Definición 4. . el lı́mite de la distribución de la variable aleatoria X −µ Z= √ σ/ n cuando n → ∞ es la distribución normal estándar. . 1−25 . y se designa zα a un número tal que P (Z > zα ) = α. en un célebre artı́culo1 .2 Para una variable aleatoria normal estándar Z. . Pero antes introducimos un concepto que será útil más tarde. . X1n1 y X21 . se llama punto crı́tico a un nivel α. Gosset. X12 . . con el seudónimo de ”Student”. Biometrika 6.Tema 4. las variables aleatorias Z de los apartados a) y b) son aproximadamente normales. En la siguiente sección se introduce una distribución muestral que supera ambas dificultades en el caso de que la población sea normal. + 2 respectivamente. el lı́mite de la distribución de la variable aleatoria X 1 − X 2 − (µ1 − µ2 ) Z= s σ12 σ2 + 2 n1 n2 cuando n1 . pero ¿qué ocurre si no sabemos cuales son las distribuciones de esas poblaciones?. a) Sea X1 . . el estadı́stico T = √ tiene Sc / n una distribución de probabilidad que vamos a describir y que actualmente se conoce con el nombre de distribución t de Student. . estableció que para mues- X −µ tras extraidas de una población normal cuya varianza es desconocida. las µ distribu- ¶ σ ciones de dichos estadı́sticos pueden aproximarse satisfactoriamente por las distribuciones N µ. σ22 . dado que esta última no se conoce. 4. X2n2 muestras aleatorias de tamaños n1 y n2 respecti- vamente de dos poblaciones X1 y X2 con medias µ1 . n2 → ∞ es la distribución normal estándar. . . . X2 . X22 . En ambos casos. . de importancia fundamental dice que si las muestras son grandes. la distribución muestral de la media y de la diferencia de medias muestrales es aproximadamente normal sean cuales sean las distribuciones de las poblaciones. W. √ y à s ! n 2 2 σ1 σ N µ1 − µ2 .2 (Teorema central del lı́mite). 1 The probable error of a mean. Estimación y pruebas de hipótesis 7 Este teorema se refiere al muestreo en poblaciones normales. Xn una muestra aleatoria de una población X de media µ y varianza σ 2 .2. n1 n2 La aplicación del teorema central del lı́mite tropieza en la práctica con dos dificultades: que el tamaño de las muestras sea menor de 30. Nótese que T se obtiene tipificando la media muestral pero usando la cuasi desviación tı́pica Sc (muestral) en lugar de la desviación tı́pica σ (poblacional). de lo que se desprende que también son casi normales los estadı́sticos X y X 1 − X 2 . Distribución muestral de la media de una población normal con varianza desconocida En 1908. El significado de este teorema es que para tamaños muestrales grandes. Teorema 4. µ2 y varianzas σ12 .

luego su gráfica es simétrica con respecto al eje vertical. 0. Estimación y pruebas de hipótesis 8 Definición 4. se verifica lı́m f (x. σ). k) es par. k) = √ µ ¶ +1 − ∞ < x < ∞. Definición 4. .3 Sea X1 . k > 0. El empleo de T como estimador de tal media muestral. la función f (x.Tema 4.3 Se dice que una variable aleatoria continua tiene distribución t de Student con k grados de libertad. Entre otras propiedades está la de que es insesgado según hemos visto en la página 4. tiene interés en situaciones en las que la varianza σ 2 es desconocida. limitar el cálculo de las tablas de valores crı́ticos a los positivos. . . k) = 2     0 en otro caso.k ) = α.3. que no es más que (como hemos señalado antes). X2 . es decir. la media muestral tipificada Sc / n cuando la distribución de la población es normal. 1) (para todo n ∈ Z+ ) √ ∼ N (0.k . k) = N (x. 1) (n > 30) ? (n < 30) σ/ n σ/ n X −µ desconocida √ ∼ N (0. que como estimador de σ 2 es sesgado.  √ k 2 k Γ f (x. a un número tal que P (T > tα. Xn una muestra aleatoria de una población X ∼ N (µ. Ello permite. si su función de densidad de probabilidad es   1   µ ¶ xk/2−1 e−x/2 si x > 0. 1) (n > 30) Sc / n X −µ √ ∼ tn−1 (n < 30) ? Sc / n Definición 4. Población Varianza Normal Desconocida X −µ X − µ conocida √ ∼ N (0. . Nota 2: Puede demostrarse que conforme el número de grados de libertad aumenta. Sc / n El interés de la distribución t de Student está en que nos proporciona la distribución muestral del es- X −µ tadı́stico T = √ . . se llama punto crı́tico a un nivel α y se designa tα. si su función de densidad de probabilidad es µ ¶ k+1 Γ µ 2 ¶−(k+1)/2 2 x f (x. k→∞ Teorema 4. Entonces el X −µ estadı́stico T = √ tiene distribución t de Student con n − 1 grados de libertad. 1).4 Para una variable aleatoria T con distribución t de Student con k grados de libertad.5 Se dice que una variable aleatoria continua tiene distribución ji−cuadrado con k gra- dos de libertad. k k πk Γ 2 Nota 1: Obsérvese que independientemente del valor de k. 4. El siguiente cuadro resume las situaciones estudiadas. que por cierto es lo usual. No ası́ la varianza muestral S 2 . Distribuciones muestrales de la cuasivarianza y de la varianza de una población normal El estimador más adecuado de la varianza σ 2 es la cuasivarianza muestral Sc2 . la distribución t se aproxima a una distribución normal estándar. igual que ocurrı́a con la distribución normal.

5 Sean σ12 y σ22 las varianzas de dos poblaciones normales. entonces tenemos 1 f1−α. si su función de densidad de probabilidad es de la forma  µ ¶ µ ¶k1 /2   k1 + k2 k1   Γ xk1 /2−1   2 k2   µ ¶ µ ¶µ ¶(k1 +k2 )/2 si x > 0. n Nota: De la relación Sc2 = S 2 entre los estadı́sticos varianza y cuasi varianza. aplicando n−1 nS 2 el teorema 4. Estimación y pruebas de hipótesis 9 µ ¶ k Nota 1: El factor Γ que aparece en el denominador de la anterior función de densidad de probabi- 2 Z ∞ lidad es la conocida función gamma: Γ(s) = ts−1 e−s ds.k1 = .k1 . y Sc21 y Sc22 las cuasivarianzas σ2 S 2 muestrales en muestras de tamaños n1 y n2 respectivamente. Sc2 Definición 4.4.k2 .4. se llama punto crı́tico a un nivel α y se designa fα.k2 ) = α.k1 .k1 .8 Para una variable aleatoria F con distribución F de Snedecor con k1 y k2 grados de libertad. Entonces la variable aleatoria n X (Xi − X)2 (n − 1)Sc2 = . σ2 i=1 σ2 tiene distribución de probabilidad ji-cuadrado con n − 1 grados de libertad.k1 . Para σ2 S2 estimarlo se usa el estimador c21 . a un número tal que P (X > χ2α.k ) = α. 4.k2 ) = α. .k2 el punto crı́tico que verifica P (F > fα. Entonces la variable aleatoria 22 c21 tiene σ 1 S c2 distribución F de Snedecor con n1 − 1 y n2 − 1 grados de libertad.k2 La última igualdad evita el cálculo de los valores crı́ticos para niveles 1 − α si ya los hemos calculado para los niveles α. La distribución F goza de una propiedad cuya importancia radica en que permite simplificar las tablas de valores crı́ticos.k2 .4 Sea σ 2 la varianza de una población normal. se llama punto crı́tico a un nivel α y se designa χ2α. un parámetro de interés es el cociente de varianzas 12 . Distribución muestral del cociente de cuasivarianzas σ2 Cuando tenemos dos poblaciones X1 y X2 .6 Para una variable aleatoria X con distribución ji–cuadrado con k grados de libertad. que también tiene distribución ji−cuadrado con n − 1 grados de libertad. Teorema 4. fα. se deduce. k1 . σ2 Definición 4.k1 . a un número tal que P (F > fα. Sea fα. 0 Nota 2: Puede demostrarse que cuando el número de grados de libertad k tiende a infinito. la función de densidad f (x. Teorema 4.Tema 4. lo que reduce el tamaño de las tablas de valores crı́ticos. k) tiende a una normal. f (x.k . Sólo hay que tener la precaución de intercambiar los valores de k1 y k2 como se indica en dicha igualdad. Definición 4.7 Se dice que la variable aleatoria continua X tiene distribución de probabilidad F de Snedecor con k1 y k2 grados de libertad. k2 ) = k1 k2 k1  Γ Γ x+1   2 2 k2      0 en otro caso.

esos valores dependerán de la estimación puntual θ̂ del estimador. Si con los datos muestrales y un nivel de confianza del. es decir. pero no hay manera de saber en cuáles. 09] es un intervalo de confianza del 95 % para el parámetro. Supongamos que disponemos de dos estadı́sticos L y U tales que se verifica la siguiente igualdad: P (L 6 θ 6 U ) = 1 − α. Observación: Cuando tomamos una muestra de la población y calculamos los valores l y u de las variables aleatorias L y U . No obstante podemos apostar que sı́ (dándole a la palabra apostar el mismo sentido de riesgo que tiene en un juego de azar cuando llevamos una buena mano. y sea X ∼ N (µ. decimos que [l. digamos 95 %.09. usando para ello los estimadores explicados en la sección 4. U ] tal que P (L 6 θ 6 U ) = 1 − α.1 Un intervalo de confianza a un nivel 100(1 − α) % para un parámetro θ es un intervalo de la forma [L. donde L y U son dos variables aleatorias que dependen de un estimador Θ b del parámetro. u] es un intervalo de confianza del 100(1 − α) % para el parámetro θ. Concretamente. 25 . ya que lo único que podemos afirmar es que en un alto porcentaje de ellas sı́ se verifican.25 y 4. u]. es decir. debe evitarse el escribir l 6 θ 6 u para no dar ocasión a falsas interpretaciones. . Nuestra confianza se basa en que un alto porcentaje de dichos intervalos lo contienen. que si tomamos muchas muestras. 4. 4. se verificará l 6 θ 6 u. es imposible saber si en esa muestra se verifican las desigualdades l 6 θ 6 u. Xn una muestra aleatoria de µ tamaño ¶ n de X. 09]?. Varianza conocida. y calculamos en cada una los valores numéricos l y u de los estadı́sticos L y U . diremos que [3. en un alto porcentaje de ellas. . es decir n X −µ √ ∼ N (0.05) %=95 % de esas muestras se verificará la citada doble desigualdad. exacta o aproximadamente. . Es costumbre llamar también intervalo de confianza a [l. Para expresar esta idea de una forma gráfica. El primero de los cuales no responde a una situación real puesto que los valores de los parámetros (en este caso σ 2 ) siempre son desconocidos. la respuesta es que no podemos saberlo. tomen valores menores y mayores respectivamente que el parámetro θ es alta (ya que α es una probabilidad pequeña y por lo tanto 1 − α es una probabilidad grande). Definición 5. Lo tratamos sólo para iniciar el tema.1. Sea X1 . a no ser que quede muy claro lo que se quiere expresar. no se toman muchas muestras.2 que X ∼ N µ. 25 . lo que implica según el teorema 4.– Sea X una población con E(X) = µ y V ar(X) = σ 2 (suponemos conocida esta última). los valores l y u obtenidos son por ejemplo 3. podemos confiar (¡nunca afirmar!) en que ése sea uno de los intervalos que efectivamente contienen a θ. Ahora tomamos un número α tal que 0 < α < 1. sino sólo una (el muestreo es caro). Estimación y pruebas de hipótesis 10 5. donde α es un número pequeño (por ejemplo α = 0. Intervalos de confianza para la media de una población normal o aproximadamente normal Vamos a obtener un intervalo de confianza del 100(1 − α) % para el parámetro µ. 5. es muy importante destacar que dada una muestra concreta y los correspondientes valores numéricos l y u de los estadı́sticos. 1). 05. Ahora bien. En la práctica. En las secciones que siguen vamos a calcular intervalos de confianza para diversos parámetros. .Tema 4. lo que nos permite buscar en la tabla σ/ n . Pero a la pregunta ¿está el parámetro dentro del intervalo [3. u] correspondiente a una muestra determinada. si α = 0. Por ello. en el 100(1-0. Intervalos de confianza Sea θ un parámetro de la población que deseamos estimar. La interpretación de esa igualdad es la siguiente: La probabilidad de que los estadı́sticos L y U . que creemos que podemos ganar aunque admitamos una pequeña probabilidad de perder). σ) o bien σ n > 30. Distinguiremos dos casos: varianza conocida y varianza desconocida. Pero aunque no podamos saber si el parámetro θ se encuentra en el intervalo [l. X2 . 01) que cumple 0 6 α 6 1. √ .

. U ] es un intervalo de confianza del 100(1 − α) % para la media µ de una población normal.n−1 √ . Xn una muestra aleatoria de tamaño n de X. . cuando σ es conocida: · ¸ σ σ X − zα/2 √ .n−1 √ . X + tα/2.n−1 =⇒ Sc / n µ ¶ Sc Sc =⇒ 1 − α = P −tα/2. salvo en tres casos. U ] es un intervalo de confianza del 100(1 − α) % para la media µ. son muy parecidos a los dos ya expuestos. n n Sc Sc Si llamamos L = X − tα/2. los puntos crı́ticos ±tα/2. X + zα/2 √ n n X −µ b) Tamaño muestral n 6 30 y X ∼ N (µ.3. Distinguiremos dos casos: a) Tamaño muestral n > 30: En este caso. que nos permita buscar en la tabla de percentiles de la distribución t de Student.n−1 √ =⇒ n n µ ¶ Sc Sc =⇒ 1 − α = P X − tα/2. y por n n lo tanto [L. omitiendo por brevedad. Sea X1 .n−1 . ————————————– Los procedimientos de obtención de los intervalos de confianza que siguen. podemos escribir: µ ¶ X −µ 1 − α = P −tα/2. ası́ que en las siguientes secciones nos limitaremos a exponer las condiciones bajo las cuales es válido cada uno de los intervalos de confianza. √ ∼ tn−1 . no lo tratamos. y la expresión de los mismos.n−1 √ y U = X + tα/2. X2 . pero ahora con σ 2 desconocida. Podemos entonces escribir: µ ¶ X −µ 1 − α = P −zα/2 6 √ 6 zα/2 =⇒ σ/ n µ ¶ σ σ =⇒ 1 − α = P −zα/2 √ 6 X − µ 6 zα/2 √ =⇒ n n µ ¶ σ σ =⇒ 1 − α = P X − zα/2 √ 6 µ 6 X + zα/2 √ .– Supongamos ahora.n−1 √ 6 µ 6 X + tα/2. cuando σ es desconocida y el tamaño muestral es n 6 30: · ¸ Sc Sc X − tα/2. los dos puntos crı́ticos ±zα/2 . n n σ σ Si llamamos L = X − zα/2 √ y U = X + zα/2 √ . y en virtud del Teorema Central del Lı́mite. de modo Sc / n que si fijamos un valor para α (0 6 α 6 1).n−1 √ . tenemos P (L 6 µ 6 U ) = 1 − α. . que X es una población con E(X) = µ y V ar(X) = σ 2 .n−1 √ n n Nótese que el caso de que la población no sea normal y el tamaño muestral sea n < 30. su desarrollo. el intervalo de confianza resulta ser idéntico al anterior.Tema 4. como antes. σ): De acuerdo con el teorema 4. X + zα/2 √ n n Varianza desconocida. tenemos P (L 6 µ 6 U ) = 1 − α. sólo que sustituyendo la desviación tı́pica σ por la cuasi desviación tı́pica Sc : · ¸ Sc Sc X − zα/2 √ . . . y por lo tanto n n [L.n−1 6 √ 6 tα/2.n−1 √ 6 X − µ 6 tα/2. pues exige el empleo de técnicas que quedan fuera del alcance de esta asignatura. Estimación y pruebas de hipótesis 11 de áreas de la distribución normal estándar.

2. X 1 − X 2 + tα/2.. n1 + n2 − 2 b) Varianzas distintas (σ12 6= σ22 ). .– El intervalo de confianza del 100(1 − α) % para µ1 − µ2 es: · r r ¸ 1 1 1 1 X 1 − X 2 − tα/2. Cabe preguntarse cómo es posible saber si las varianzas σ12 y σ22 son iguales o distintas. el valor crı́tico tα/2. entonces podemos concluir con una confianza del 100(1 − α) %. pero si los tamaños muestrales son menores que 30. no es necesario suponer que las poblaciones son normales. . X 1 − X 2 + tα/2. consideraremos que las varianzas son diferentes. X 1 − X 2 + zα/2 σ1 + σ2  n1 n2 n1 n2 Varianzas desconocidas. .Ãlos tamaños s muestrales ! cumplen n1 > 30 y n2 > 30. . necesitamos suponer que ambas poblaciones son normales y distinguir dos casos: a) Varianzas iguales (σ12 = σ22 ).ν + .ν debe redondearse ν al entero más próximo. si son desconocidas. ya que el Teorema Central del Lı́mite (teorema 4.2.2) garantiza la normalidad de la diferencia de medias muestrales. Entonces. + 2 . Para buscar Sc21 /n1 + Sc22 /n2 n1 − 1 n2 − 1 en las tablas de percentiles de la distribución t de Student. pero los tamaños muestrales son n1 > 30 y n2 > 30. X2n2 de tamaños n1 y n2 de dichas poblaciones.– Sean X1 y X2 dos poblaciones independientes con medias µ1 y µ2 y varianzas σ12 y σ22 (suponemos conocidas estas últimas). En caso contrario. σ12 σ2 X1 − X2 ∼ N µ1 − µ2 .n1 +n2 −2 Sp + . X22 . Otra opción la veremos en la sección . exacta o aproximadamente. X12 .Tema 4. un intervalo de confianza n1 n2 del 100(1 − α) % para el parámetro µ1 − µ2 es:  s s  2 2 2 2 X 1 − X 2 − zα/2 σ1 + σ2 . X1n1 y X21 . .. Una de las posibles opciones para responder a esta cuestión consiste en calcular un intervalo de confianza σ2 del 100(1 − α) % para el cociente de las varianzas 12 tal y como se detalla en la sección 5.– El intervalo de confianza del 100(1 − α) % para µ1 − µ2 es:  s s  Sc21 Sc22 Sc21 Sc22 X 1 − X 2 − tα/2. que las varianzas se pueden considerar iguales. . o que si no lo son. Si este σ2 intervalo contiene al número 1. el intervalo de confianza del 100(1 − α) % para µ1 − µ2 es igual al anterior. normales o aproximadamente normales Varianzas conocidas. Consideremos dos muestras aleatorias X11 . X 1 − X 2 + zα/2 +  n1 n2 n1 n2 Con tamaños muestrales mayores o iguales que 30.n1 +n2 −2 Sp + n1 n2 n1 n2 2 2 (n1 − 1)Sc1 + (n2 − 1)Sc2 donde Sp2 = . . .– Si las varianzas σ12 y σ22 son desconocidas. . Estimación y pruebas de hipótesis 12 5. lo que implica según el teorema 4.5.ν +  n1 n2 n1 n2 ¡ 2 ¢2 Sc1 /n1 + Sc22 /n2 donde el número de grados de libertad es ν = ¡ ¢2 1 ¡ ¢2 1 − 2 . pero sustituyendo las varianzas de las poblaciones por las cuasivarianzas muestrales:  s s  Sc21 Sc22 Sc21 Sc22 X 1 − X 2 − zα/2 + . Intervalos de confianza para la diferencia de medias de poblaciones independientes. Supongamos que X1 y X2 son normales.

4. Consideremos dos muestras aleatorias X11 . la variable aleatoria σ2 tiene distribución ji−cuadrado con n − 1 grados de libertad. . X2 . . Tomemos un número α tal que 0 < α < 1.n−1 χ1−α/2. . Por ejemplo Sean X1 y X2 dos poblaciones dependientes con medias µ1 y µ2 y varianzas σ12 y σ22 .n−1 1 χ2α/2. Podemos entonces escribir: µ ¶ 2 (n − 1)Sc2 2 1 − α = P χ1−α/2. Sea X1 . . si llamamos L = 2 y U = 2 . √ .n−1 . Intervalo de confianza para la diferencia de medias de poblaciones dependientes. y por lo tanto n un intervalo de confianza del 100(1 − α) % para el parámetro µD tiene la misma forma que el obtenido en la sección 5.– De acuerdo con el teorema 4. las muestras extraı́das de ellas se llaman muestras pareadas. . . hay dos casos: µ ¶ 2 σD Varianza σD conocida. Dn de D. X + zα/2 √ n n 5. Se presenta este caso cuando las poblaciones son medidas u observaciones practicadas sobre los mismos individuos en condiciones distintas. Intervalo de confianza para la varianza de una población normal Sea X una población con E(X) = µ y V ar(X) = σ 2 .Tema 4. D2 . luego Sc / n un intervalo de confianza del 100(1 − α) % para el parámetro µD tiene la misma forma que el obtenido en la sección 5. El hecho de que se trate de los mismos individuos.n−1 =⇒ σ2 Ã 2 ! χ1−α/2. . tenemos D ∼ N µD .n−1 =⇒ 1 − α = P 6 2 6 =⇒ (n − 1)Sc2 σ (n − 1)Sc2 Ã ! (n − 1)Sc2 2 (n − 1)Sc2 =⇒ 1 − α = P 6σ 6 2 .4. U ] es un intervalo de confianza del 100(1 − α) % para la varianza σ 2 de una población normal: " # (n − 1)Sc2 (n − 1)Sc2 . los dos puntos crı́ticos χ21−α/2. D + zα/2 √ n n 2 D − µD Varianza σD desconocida. Como antes.n−1 (n − 1)Sc2 (n − 1)Sc2 Como en los casos anteriores. σ).3. X12 . .1 a). que nos permita buscar en la tabla de percentiles de la distribución ji−cuadrado.n−1 y χ2α/2.n−1 .1 cuando la varianza es conocida: · ¸ σD σD D − zα/2 √ .3. Xn una muestra aleatoria de (n − 1)Sc2 tamaño n de X.n−1 igualdad P (L 6 µ 6 U ) = 1 − α. tenemos ahora √ ∼ tn−1 . χ2α/2.1 cuando la varianza es desconocida (apartado b): · ¸ Sc Sc D − zα/2 √ . con las que construimos la muestra D1 . . . X22 . . vemos que se cumple la χα/2. induce a pensar que la población de medidas u observaciones practicadas en unas y otras condiciones no son independientes. χ2α/2. . Supongamos que 2 la variable aleatoria D = X1 − X2 tiene distribución normal con media µD y varianza σD . Estimación y pruebas de hipótesis 13 5. lo que implica que [L. . . .n−1 χ1−α/2. De acuerdo con el teorema 4. y sea X ∼ N (µ. .n−1 χ21−α/2. normales o aproximadamente normales Cuando dos poblaciones no son independientes.n−1 6 6 χα/2. X1n y X21 . X2n del mismo tamaño n de dichas poblaciones.– De acuerdo con el teorema 4.

X2n2 dos muestras aleatorias de tamaños n1 y n2 de X1 y X2 respectivamente. Sea X1 . Entonces. . podemos buscar en la tabla de áreas de la distribución normal 2 Recuerde que en las tablas de percentiles de la distribución F .n2 −1. que por ser la probabilidad de un éxito.n1 −1. 2 · Sc2 fα/2. U ] es un intervalo de confianza σ2 σ2 del 100(1 − α) % para el cociente de varianzas 12 de dos poblaciones normales: σ2 · 2 2 ¸ Sc1 1 Sc1 1 2 · . es también la fracción (o proporción) poblacional de éxitos. la variable aleatoria 22 c1 2 tiene distribución F de Snedecor con n1 −1 y n2 −1 grados σ1 Sc2 de libertad.Tema 4. Es costumbre llamar p̂ en vez de X a este estadı́stico para resaltar el hecho de que es un estimador del parámetro p. es el inverso de fα/2.n1 −1.n1 −1. y la media muestral X = Xi es la fracción i=1 n i=1 muestral de éxitos.n2 −1 σ22 2 Sc2 f1−α/2.n1 −1. la variable p̂ − p √ aleatoria p n tiene una distribución de probabilidad que es aproximadamente normal estándar. Xn una muestra aleatoria de tamaño Xn n 1X n. el punto crı́tico f 1−α/2. los dos puntos crı́ticos f1−α/2. . y sean X11 .n2 −1 2 con los que podemos escribir: µ ¶ σ2 S 2 1−α=P f1−α/2. P L 6 12 6 U = 1 − α.n2 −1 6 22 c12 6 f α/2.n2 −1 Sc2 1−α/2. σ1 ) y X2 ∼ N (µ2 . . X12 . p(1 − p) Fijado un número α tal que 0 < α < 1. Intervalo de confianza para el cociente de varianzas de poblaciones normales Sean X1 ∼ N (µ1 . X2 . Sc2 fα/2. De acuerdo σ2 S 2 con el teorema 4. .n2 −1 y fα/2. . X22 . Decir que p = 0.85 de la población son éxitos. . Intervalo de confianza para la proporción de una población binomial Sea X una población con distribución de Bernoulli. de lo que se deduce que [L. .n2 −1 6 6 fα/2. .n1 −1 . Según Sc2 fα/2. . o que el 85 % de la población está constituido por éxitos.n2 −1 µ 2 ¶ σ acabamos de ver.n2 −1 . .n2 −1 S2 1 S2 1 Ahora consideremos los dos estdı́sticos L = c12 · y U = c1 2 · f . X sólo puede tomar los valores 1 (éxito) y 0 (fracaso) con probabilidades respectivas p y 1 − p.n1 −1.n2 −1 =⇒ Sc1 σ12 2 Sc1 µ 2 ¶ Sc1 1 σ12 2 Sc1 1 =⇒ 1 − α = P 2 · 6 6 · . 85 es lo mismo que decir que una fracción 0.n2 −1 5.5.6. Supongamos que n > 30 y que np > 5 y n(1 − p) > 5 (no trataremos otros casos).5. Como en los casos anteriores.n1 −1.n1 −1.n1 −1. podemos buscar en las tablas de percentiles de la distribución F de Snedecor. Estimación y pruebas de hipótesis 14 5. X1n1 y X21 .n2 −1 Sc2 f1−α/2.n1 −1.n1 −1. entonces. es decir. sea α un número tal que 0 6 α 6 1. . .n1 −1. La suma Xi es el número de éxitos en la muestra.n1 −1.n2 −1 =⇒ σ1 Sc2 µ 2 ¶ Sc2 σ22 2 Sc2 =⇒ 1 − α = P 2 f1−α/2. σ2 ) dos poblaciones independientes.n1 −1.

X1n1 y X21 . la idea consiste en proponer un valor θ0 (llamado valor de prueba) para el parámetro θ que deseamos estimar. . de parámetros p1 y p2 . Cuando proponemos un valor de prueba para un parámetro. definimos: Definición 6. conr lo cual ya tenemos como en los casos anteriores. n2 > 30. . Para poder usar la aproximación por la distribución normal. un intervalo de confianza aproximado del 100(1 − α) % para el parámetro diferencia de propor- ciones p1 − p2 es:  s s  p̂1 − p̂2 − zα/2 p̂1 (1 − p̂1 ) p̂2 (1 − p̂2 ) p̂1 (1 − p̂1 ) p̂2 (1 − p̂2 )  + . porque dependen del parámetro p. n2 p2 > 5. Pruebas de hipótesis Una forma de estimación. X22 . n n Ası́ pues tenemos que [L. las dos variables aleatorias p̂ − zα/2 y r n p(1 − p) p̂ + zα/2 no son estadı́sticos. supongamos que se verifican: n1 > 30. estamos formulando una hipótesis acerca del mismo. a diferencia de todos los casos tratados. .1 Una hipótesis estadı́stica es una proposición sobre la distribución de probabilidad de una o más poblaciones. p̂ + zα/2 n n 5. Intervalo de confianza para la diferencia de proporciones de poblaciones binomiales Sean ahora X1 y X2 dos poblaciones con distribución de Bernoulli independientes. . U ] es un intervalo de confianza aproximado del 100(1 − α) % para el parámetro proporción p: " r r # p̂(1 − p̂) p̂(1 − p̂) p̂ − zα/2 . Consideremos dos muestras aleatorias X11 . X2n2 de tamaños n1 y n2 de dichas poblaciones. A grandes rasgos. n n r p(1 − p) Pero ahora. Estimación y pruebas de hipótesis 15 estándar. . Para eludir esta dificultad. calcular con ella el valor de cierto estadı́stico y decidir si el valor obtenido avala la elección que hemos hecho del valor de prueba. n1 (1 − p1 ) > 5. p̂1 − p̂2 + zα/2 + n1 n2 n1 n2 6. tomar a continuación una muestra de la población. . Entonces. n1 (1 − p1 ) > 5. . n se sustituye r p por su estimador p̂. n1 p1 > 5. o sobre los parámetros de las mismas. ası́. los dos puntos crı́ticos ±zα/2 .Tema 4. X12 . alternativa a la estimación puntual o por intervalos es la conocida como prueba de hipótesis. dos estadı́sticos p̂(1 − p̂) p̂(1 − p̂) L = p̂−zα/2 y U = p̂+zα/2 que cumplen aproximadamente P (L 6 p 6 U ) = 1−α. . .7. y escribir: à ! p̂ − p √ 1−α=P −zα/2 6 p n 6 zα/2 =⇒ p(1 − p) à r r ! p(1 − p) p(1 − p) =⇒ 1 − α = P −zα/2 6 p̂ − p 6 zα/2 =⇒ n n à r r ! p(1 − p) p(1 − p) =⇒ 1 − α = P p̂ − zα/2 6 p 6 p̂ + zα/2 .

afirmamos con más fuerza nuestra hipótesis. 13)100−x = 0. ası́ hablamos de probar o contrastar una hipótesis. Para corroborarla o desmentir- la.15. .1. basado en el uso de un estadı́stico apropiado. los defectuosos y los no defectuosos. mientras que el no rechazo. de rechazar o no la hipótesis. a un resultado muestral que nos lleve a rechazar una hipótesis.05 y 0. 13.H. aunque no la excluye. Admitiendo que la población de artı́culos fabricados puede dividirse en dos categorı́as que se excluyen mutuamente.L. se dice que no es significativo. como proposiciones acerca de parámetros de poblaciones. pues una fracción muestral mayor que 0. editado por Prentice-Hall Hispanoamericana S.E. Tal fracción. Myers. mientras que un resultado que no nos permita rechazarla. si la hipótesis del ingeniero fuera correcta. dicha población tiene distribución de Bernoulli con parámetro p = probabilidad de que un artı́culo elegido al azar sea defectuoso. pues ası́. y Myers. 12. Supongamos que en cierto proceso de fabricación3 el ingeniero a cargo del mismo cree. S. 8895. por eso. que en el argot de la Estadı́stica. La hipótesis que planteamos con el deseo de rechazarla.. por ello debemos ser cautelosos y tomar el resultado muestral obtenido no como una confirmación estricta de la hipótesis. México 1999. x=5 x Sin embargo si en la muestra hubieran aparecido 20 artı́culos defectuosos deberı́amos rechazar la hipótesis p = 0. 11 o p = 0. para ası́ afirmar con más fuerza su contraria que 3 Este ejemplo es una versión del que se expone al principio del capı́tulo 10 de la sexta edición del libro Probabilidad y estadı́stica para ingenieros de Walpole. 11) = (0.Tema 4. Metodologı́a de una prueba de hipótesis La discusión precedente señala los puntos clave a tener en cuenta en el proceso de una prueba de hipótesis. 10) = 1 − (0. x=5 x pero también son altas estas probabilidades si tomamos como hipótesis p = 0. 0. 9024. basándose en su experiencia y en observaciones previas. pero también lo estarı́a si la hipótesis hubiera sido p = 0. la probabilidad de obtener una fracción muestral de defectuosos comprendida entre digamos. 13)x (1 − 0. y de ahı́. 10)100−x = 0. R. el rechazo casi excluye a la hipótesis. Estimación y pruebas de hipótesis 16 En este tema sólo consideraremos las hipótesis estadı́sticas bajo la segunda acepción. y encuentra 12 defectuosos. es decir. La formulación de una hipótesis acerca de un parámetro tiene sentido cuando desconocemos el valor del mismo y queremos estimarlo rechazando o no dicha hipótesis. 1. x=0 x Por lo tanto. 13: X15 µ ¶ 100 P (0. 10)x (1 − 0. 10)100−x = 0. 15 | p = 0. 11)100−x = 0. x=5 x X15 µ ¶ 100 P (0. 15 | p = 0. De hecho. se le llama significativo. La creencia del ingeniero le lleva a formular la siguiente hipótesis: p = 0. contraste o test.. decide tomar una muestra de tamaño 100. 11)x (1 − 0. concretamente: X15 µ ¶ 100 P (0. 05 6 p̂ 6 0. de alcanzar una decisión acerca de la misma. 1. R. tampoco excluye otras posibilidades. 6. 05 6 p̂ 6 0. que la fracción de artı́culos defectuosos es del 10 %. si logramos rechazarla. sino mas bien como un no rechazo de la misma. 11 o p = 0. la decisión de rechazar es más fuerte que la de no rechazar. Una hipótesis estadı́stica se plantea con la intención de rechazarla o no rechazarla.. 15 | p = 0. 0399. Una prueba de hipótesis debe pues intentar plantearse al revés de lo que parece. 10)x (1 − 0. es decir de tal forma que sometamos a prueba la hipótesis contraria a la que creemos que es cierta.15 serı́a muy improbable si tal hipótesis fuera cierta. 7690. 15 | p = 0. se llama prueba. El proceso.A. 05 6 p̂ 6 0. parece estar conforme con la hipótesis. y el estadı́stico usado para ello se llama estadı́stico de prueba o estadı́stico de contraste. es decir. 10) = (0. de acuerdo con la información proporcionada por una muestra extraı́da de la población. 13) = (0. es decir una fracción muestral p̂ = 0. es muy alta. En efecto: X15 µ ¶ 100 P (p̂ > 0.

2. Valores usuales de α consagrados por una larga tradición son 0. Estimación y pruebas de hipótesis 17 es en la que creemos. porque se lleva muchos años aplicando y hay por lo tanto muchos datos que ası́ lo avalan. Obsérvese que hemos planteado la hipótesis alternativa como una desigualdad de la forma “el parámetro es mayor que un cierto número”. no tendrı́a interés si fuera grande porque entonces no tendrı́amos argumentos para rechazar H0 . 5. aunque naturalmente pueden elegirse otros. se formulan las siguientes hipótesis: H0 : µd − µa = 5. la hipótesis nula serı́a θ = θ0 . El rechazo de la hipótesis nula (lo que nos lleva a la aceptación de la alternativa) se produce si el estadı́stico de contraste toma un valor en una región en la que tiene muy pocas probabilidades de estar si la hipótesis nula es cierta.Tema 4. 5. Contrariamente. Para confirmar o desmentir el resultado de las pruebas preliminares. se ha elegido arbitrariamente esa región como p̂ > 0. pues de acuerdo con la discusión anterior. Imaginemos ahora otra situación: Se ha diseñado una dieta para rebajar peso. y suele designarse con el sı́mbolo H0 . y se elige de modo que sea pequeña. 5. El diámetro exterior de los mismos debe cumplir estrictamente con las especificaciones de tolerancia establecidas en ±0. No obstante es evidente que se habrı́a podido plantear la hipótesis alternativa con la desigualdad en sentido contrario. que determinado medicamento tiene una eficacia del 50 % en la cura de cierta enfermedad. el no rechazo de la hipótesis nula se produce cuando el estadı́stico de contraste toma un valor en una región en la que hay una probabilidad alta de que lo tome si la hipótesis nula es cierta. La decisión de establecer el tamaño de la región crı́tica debe tomarse antes de la elección de la muestra. Tal región se denomina región crı́tica o menos comúnmente región de rechazo.01.05 y 0. 15. Para ilustrar esto. sin más que cambiar el orden de µa y µd . Llamemos µa y µd a los parámetros peso medio antes y después de un mes de aplicación de la dieta respectivamente. su formulación depende de la naturaleza de aquello que queremos probar. De manera equı́voca. pues debe evitarse el término aceptación al referirnos a la hipótesis nula. El rechazo de la hipótesis nula se formula en forma de otra hipótesis a la que se denomina hipótesis alternativa y que se designa con el sı́mbolo H1 (algunas veces Ha ). aproximadamente uno de cada dos enfermos a los que se aplica. Si llamamos θ0 al valor hipotético que proponemos para el parámetro θ. el descenso medio de peso es de más de 5 kilogramos. o en términos de un parámetro de la población. Pruebas unilaterales y bilaterales Es corriente plantear la hipótesis nula en forma de igualdad. 0. Ahora la hipótesis alternativa se ha planteado como una desigualdad de la forma “el parámetro (en este caso es una diferencia de parámetros) es menor que un cierto número”. se suele designar con la letra griega α.1. que la proporción de enfermos curados con ese medicamento es p = 0. H1 : p > 0. Por último consideremos un proceso de fabricación de pistones de motores. En cuanto a la hipótesis alternativa. ya que creemos que es ése el caso. Para corroborar esta creencia. región de aceptación. 6. y está determinado por el nivel de significación de la forma que más tarde se establecerá. A esa probabilidad se le llama nivel de significación. Recientemente se ha descubierto un nuevo medicamento que los investigadores creen que supera en eficacia al anterior. El valor (o valores. se suele llamar a ésta. parece razonable plantear un contraste de hipótesis en estos términos: H0 : p = 0. como veremos después) del estadı́stico de contraste que separa las regiones crı́ticas y de aceptación. Hablando sin mucha precisión. En la sección precedente. H1 : µd − µa < 5. consideremos un problema común en la investigación clı́nica: se sabe. se llama valor crı́tico o punto crı́tico. Aunque también puede plantearse como desigualdad. que en unas pruebas preliminares indican que después de un mes de aplicación. se llama hipótesis nula. veremos más tarde que es preferible no hacerlo ası́.03 mm . y la forma de hacerlo es fijar a priori la probabilidad de que el estadı́stico de contraste tome un valor dentro de esa región en el supuesto de que la hipótesis nula es cierta. sana.

Decisión acorde con la evidencia muestral satisfactoria . nos llevarı́a a cambiar drásticamente la decisión. Se llama error de tipo II al que se comete al no rechazar la hipótesis nula cuando es falsa. Pero aunque carezca de ambigüedad. Estimación y pruebas de hipótesis 18 alrededor del valor nominal del diámetro.2 Se llama error de tipo I al que se comete al rechazar la hipótesis nula cuando es verdadera. 0001. Valor P de un contraste La aplicación rutinaria de un nivel de significación para determinar la región crı́tica en una prueba de hipótesis. se considera admisible una variabilidad de ±3σ alrededor de la media. que podrı́a atribuirse simplemente al muestreo. de rechazar a no rechazar la hipótesis nula. . nos surge la duda de si la decisión no podrı́a haber sido la contraria sólo con haber tomado otra muestra diferente. o a desechar los que tienen una diámetro pequeño. En una inspección se detecta la aparición tanto de unos como de otros con una frecuencia que parece ser alta. En los procesos de control de calidad. la práctica impuesta por el uso de la Estadı́stica ha sido introducir el concepto de valor-p de una prueba.4. En las figuras 1 y 2 se presentan dos situaciones que nos llevan a la misma decisión: no rechazar H0 . una diferencia pequeña en el valor del estadı́stico. En cuanto a las pruebas de hipótesis. ya que basta con observar en cuál de las dos regiones se encuentra el estadı́stico de contraste. a rechazar la hipótesis nula. 0001. lo que nos hace sospechar que el proceso tiene una variabilidad mayor que la deseada.3. H1 : σ 2 > 0. con los consiguientes costes adicionales. Definición 6. Figura 1: No rechazar H0 . Un parámetro usual que mide la variabilidad de una población es la varianza. con los datos disponibles. en la segunda.3 Se llama valor-p de una prueba de hipótesis al menor valor del nivel de significación que nos llevarı́a. de modo que para confirmar nuestra sospecha establecemos las siguientes hipótesis H0 : σ 2 = 0. sólo vamos a describir por brevedad la obtención de algunas de ellas: la relativa a la media de una población normal o aproximadamente normal con varianza conocida.Tema 4. permite decidir sin ambigüedad entre el rechazo y el no rechazo de la hipótesis nula. En las páginas anteriores hemos hecho una descripción bastante detallada del proceso de obtención de distintos intervalos de confianza. Para las restantes pruebas de hipótesis se procede de forma análoga. H0 verdadera H0 falsa No rechazamos H0 Decisión correcta Error de tipo II Rechazamos H0 Error de tipo I Decisión correcta 6. ya que entonces. Llegados a esta situación. ya que de no ser ası́ nos verı́amos obligados o bien a rectificar los pistones con un diámetro excesivamente grandes antes de su venta. 6. la decisión que tomemos empieza a resultarnos insatisfactoria si el estadı́stico de contraste se sitúa cerca del valor crı́tico. Errores de tipo I y II Definición 6. dada la proximidad del estadı́stico de contraste al valor crı́tico. pero a diferencia de la primera de ellas en la que esa decisión no nos crea dificultades.

Por lo tanto. H1 : µ 6= µ0 . la probabilidad de que el estadı́stico tome un valor comprendido entre µ0 − c y µ0 + c es 1 − α (si α es pequeño. Xn una muestra aleatoria de tamaño n de X. exacta o aproximadamente. Figura 3: Densidad de probabilidad de la media muestral (caso normal) cuando H0 es cierta. . siendo esta última conocida. la región de aceptación de la prueba viene dada por las desigualdades µ0 − c 6 X 6 µ0 + c. Obsérvese que los puntos del eje horizontal de abcisas µ0 − c y µ0 + c están unı́vocamente determinados una vez que elegimos el valor del nivel de significación α. √ .5. y seaµ X ∼ N ¶ (µ. . √ y la función de densidad de probabilidad de X serı́a la que se re- n presenta en la figura 3. Sea X una población con E(X) = µ y V ar(X) = σ 2 . Pruebas de hipótesis sobre la media de una población normal o aproxi- madamente normal con varianza conocida Vamos a diseñar una prueba de hipótesis bilateral a un nivel de significación α para el parámetro µ en el caso de que la varianza σ 2 sea conocida. . X2 . Por eso. Asimismo. si tal cosa ocurriera. σ) o bien n > 30. X ∼ N µ0 . lo que implica según el σ comentario que sigue al teorema 4. la rechazarı́amos. En esta situación. como la probabilidad de que X tome un valor mayor que µ0 + c o menor que µ0 − c es α (que suponemos que es un valor pequeño). estarı́amos inclinados a pensar que no nos encontramos en la situación descrita en la figura 3. µ ¶ σ Si H0 fuera cierta. que H0 no es cierta y por lo tanto. Decisión acorde con la evidencia muestral. Luego si X tomara un valor entre µ0 − c y µ0 + c. 6. pero insatisfactoria. Estimación y pruebas de hipótesis 19 Figura 2: No rechazar H0 . es decir. esto serı́a coherente con la hipótesis H0 y no tendrı́amos argumentos para recha- zar dicha hipótesis. Dado un nivel de n significación α formulamos la prueba: ( H0 : µ = µ0 .Tema 4.2 que X ∼ N µ. 1 − α será un valor grande). . Sea X1 . las desigualdades X > µ0 +c y X < µ0 −c definen la región crı́tica (o de rechazo).

la distribución de X sigue siendo normal µ con ¶ la misma varianza que antes. Ello nos llevarı́a a rechazar H0 aun siendo cierta. ahora tenemos X ∼ N µ. no es imposible que siendo H0 cierta. es el área rayada bajo la curva de campana. Si el valor de prueba µ0 está muy alejado de la media µ de la población. estaremos cometiendo un error Tipo II. La probabilidad de que tal cosa ocurra es de α. X − µ0 En la práctica no se utiliza como estadı́stico de contraste X sino Z = √ que tiene distribución σ/ n normal estándar si la hipótesis nula es cierta. 1) H1 : µ 6= µ0 σ/ n Nivel de significación: α Región de aceptación: −zα/2 6 Z 6 zα/2 . estarı́amos cometiendo un error de Tipo I. ası́ que ahora la probabilidad β de que X tome valores en dicha región. pero σ ahora su media no es µ0 . es decir. esta área será muy pequeña. Si ocurre esto último. ya que su tamaño sólo depende del nivel de significación α. que aunque poco probable. √ con µ 6= µ0 . tenemos nuestra prueba de hipótesis: ( H0 : µ = µ0 X − µ0 Prueba: Estadı́stico de contraste: Z = √ ∼ N (0. Figura 4: Densidad de probabilidad de la media muestral (caso normal) cuando H0 no es cierta. supongamos ahora que la hipótesis nula no es cierta. es decir será poco probable que aceptemos H0 (lo cual es razonable). no obstante. La probabilidad de tal error es β. tal área serı́a grande y por tanto serı́a grande la probabilidad de aceptar H0 aun siendo falsa. De este modo tenemos: µ ¶ −c c P (µ0 − c 6 X 6 µ0 + c) = P √ 6Z6 √ = 1 − α. X tome un valor en la región crı́tica. pero si µ0 estuviera cerca de µ. σ/ n σ/ n c De la última igualdad se desprende que ± √ son los puntos crı́ticos ±zα/2 de la distribución normal σ/ n estándar. Estimación y pruebas de hipótesis 20 Hay que advertir.Tema 4. La región de aceptación es la misma que antes. ası́ que resumiendo todo esto. Para profundizar en la comprensión de la prueba de hipótesis. situación descrita en n la figura 4. es decir. Entonces.

1) H1 : µ < µ 0 σ/ n Nivel de significación: α Región de aceptación: Z > −zα . 1) H1 : µ > µ 0 σ/ n Nivel de significación: α Región de aceptación: Z 6 zα ( H0 : µ = µ0 X − µ0 Prueba: Estadı́stico de contraste: Z = √ ∼ N (0.Tema 4. Estimación y pruebas de hipótesis 21 En el caso de pruebas de hipótesis unilaterales: ( H0 : µ = µ0 X − µ0 Prueba: Estadı́stico de contraste: Z = √ ∼ N (0.