You are on page 1of 12

ALTERNATIVAS NO PARAMÉTRICAS A LOS CONTRASTES DE MEDIAS

1.- Introducción ............................................................................................................. 2


2.- Prueba U de Mann Whitney para muestras independientes ..................................... 3
3.- Prueba t de Wicoxon para muestras apareadas ........................................................ 8

1.- Introducción

Las pruebas de contrastes de medias en grupos independientes estudiadas hasta ahora exigen dos
supuestos en la distribución de los datos: a) las poblaciones orígenes de los grupos estudiados han de
proceder de poblaciones que siguen leyes de probabilidad normal y b) las varianzas de tales
poblaciones orígenes han de ser iguales.

La primera condición se denomina de normalidad y la segunda de homocedasticidad o de igualdad


de varianzas. Como tales supuestos son supuestos de los parámetros poblacionales, estas pruebas se
denominan paramétricas. No siempre se cumplen tales supuestos para los valores poblacionales; en
ese caso, hemos de recurrir a las pruebas no paramétricas, ya que no hay exigencias respecto a los
parámetros, o también definidas en un término más genérico como pruebas de distribución libre, que
nos indica que no tenemos ninguna exigencia respeto a la forma de la distribución.

En el caso de la prueba de comparación de grupos relacionados o apareados, la única condición es la


de normalidad, ya que en el fondo trabajamos con una única distribución (la variable diferencia) y
aquí no tiene sentido comparar la varianza de dos muestras puesto que sólo existe una.

Hay que decir igualmente que en los contrastes de medias en grupos independientes, ya viene
implícita la prueba de homocedasticidad y la misma prueba ofrece el contraste adecuado tanto
cuando se cumple el supuesto de igualdad de varianzas como cuando no se cumple. Por otro lado,
como en los contrastes de grupos relacionados no hay varianzas que contrastar, en la práctica, el
único problema consiste en chequear el supuesto de normalidad. Y todavía más, la condición de
normalidad sólo se exige para muestras pequeñas (n<30), ya que en el fondo no son con las
poblaciones orígenes con los que se hacen los contrastes, sino con las distribuciones muestrales (de
medias o diferencias de medias) y éstas, cuando las muestras son grandes (n>30) sí siguen
distribuciones normales.

De todo ello se deduce que el recurso de las pruebas no paramétricas sólo va a ser necesario para la
condición de normalidad (olvidarse de la de homocedasticidad) y en el caso de la normalidad cuando
las muestras sean pequeñas (olvidarse igualmente para muestras grandes). Incluso para el caso de
muestras pequeñas, tampoco es un tema muy preocupante, ya que las pruebas paramétricas son
pruebas muy robustas que aceptan violaciones de sus supuestos sin que apenas queden afectadas sus
tomas de decisiones, lo que significa, tal como se ofrece en la tabla siguiente, que la probabilidad de
error al rechazar la Ho cuando se aplica incorrectamente la prueba paramétrica no va a ser muy
diferente a la que ocurriría en realidad (en este caso, 𝛼 = 0.05) si se aplicase la prueba adecuada:

1
2
Se observa cómo en el caso más extremo del incumplimiento de la normalidad sólo nos equivocamos
un 8.3%, no muy lejos del 5% establecido. Otra cosa es el incumplimiento de la igualdad de
varianzas, cuyo error es del 16%, pero esa solución ya se contempla en el contraste de medias.

En resumen, sólo vamos a necesitar recurrir a las pruebas no paramétricas para el caso de muestras
pequeñas, y aun así el posible desperfecto no nos llevará a equivocarnos muy lejos del famoso 0.05,
muy probablemente no más allá del 0.06. Y aquí una reflexión algo más extensa sobre la robustez de
las pruebas paramétricas.

2.- Alternativa no paramétrica a la prueba de comparación de medias en grupos


independientes. Prueba U de Mann Whitney

Supongamos que se desea comprobar el efecto de dos tratamientos distintos con relación a la
depresión. Tenemos al respecto, el tratamiento A (terapia cognitivo conductual) y el tratamiento B
(medicación). Los resultados antes y después de la aplicación de ambos tratamientos, obtenidos por
un test que mide el grado de depresión, son los siguientes:

Nos preguntan cuál de las dos terapias es más afectiva. Para ello, hemos de calcular primeramente la
mejora que experimentan los pacientes, y esta mejora vendrá dada por la diferencia entre el después
y el antes del tratamiento, así que calculemos la variable diferencia. Para ello:

3
El resultado:

Para saber si hay diferencia en la mejora de la depresión entre los tratamientos A y B, lo suyo es el
contraste de medias independientes, pero como se sabe, hay que comprobar los supuestos del
modelo. Primero tenemos que saber si trabajamos con muestras grandes o chicas. Si son grandes, no
hay que preocuparse de nada, ni de la normalidad que no es problema con muestras superiores a 30
sujetos, ni de la homocedasticidad que ya lo contempla la misma prueba de la t de Student. Si son
pequeñas, que es el caso, entonces sólo de la normalidad. La forma de comprobarlo:

4
Marcamos en Gráficos:

5
Y entre todas las salidas seleccionamos:

Pruebas de normalidad

a
Kolmogorov-Smirnov Shapiro-Wilk

tratamiento Estadístico gl Sig. Estadístico gl Sig.

mejora A ,367 5 ,026 ,684 5 ,006


*
B ,283 5 ,200 ,878 5 ,298
*.
a.

La prueba de Shapiro-Wilk es más conveniente para muestras pequeñas. Observamos que no existe
normalidad en el tratamiento A, luego el contraste entre ambos tratamientos lo llevaremos a cabo
mediante la prueba no paramétrica de 2 muestras independientes, que en este caso es la U de Mann
Whitney:

6
El resultado:

Rangos

tratamiento N

mejora A 5 7,30 36,50


B 5 3,70 18,50
Total 10

a
Estadísticos de prueba

mejora
U de Mann-Whitney 3,500
W de Wilcoxon 18,500
Z -1,946
Sig. asintótica (bilateral) ,052

b
,056

a.

b.

Por poco no se puede rechazar la Ho, por lo que concluimos que no hay diferencia estadística entre
los tratamientos. Obsérvese que en esta prueba se opera con las puntuaciones ordinales (rangos), que
no son las originales cuantitativas, lo que implica una pérdida de información y por consiguiente de
potencia estadística en los contrastes no paramétricos. Esta es una razón añadida que hace
cuestionable la aplicación de las pruebas paramétricas cuando las puntuaciones originales son
cuantitativas. Otra cosa que ya de base sean puntuaciones ordinales, que entonces no se puede aplicar
otra prueba más que la no paramétrica.

7
Si por curiosidad deseamos aplicar la prueba paramétrica:

Estadísticas de grupo

tratamiento N Media

mejora A 5 18,8000 1,64317 ,73485


B 5 12,4000 5,02991 2,24944

Prueba de muestras independientes

prueba t para la igualdad de medias

F Sig. t gl Sig. (bilateral) Inferior Superior


mejora Se asumen varianzas iguales 7,576 ,025 2,704 8 ,027 6,40000 2,36643 ,94300 11,85700
No se asumen varianzas iguales 2,704 4,844 ,044 6,40000 2,36643 ,25755 12,54245

No se cumple homocedasticidad, luego nos vamos a la segunda línea, donde nos encontramos con la
t de Welch. Su valor es de 2.704, con una probabilidad asociada de 0.044. Aquí rechazaríamos la Ho,
aunque también por los pelos. Si somos puristas deberemos elegir la no paramétrica como más
adecuada ya que no se cumple el supuesto de normalidad y además esta prueba proporciona
probabilidades exactas, pero como por otro lado tiene una medida más pobre, pues nos quedamos en
ascuas. Lo mejor, hacer un nuevo estudio con una muestra ampliada.

3.- Alternativa no paramétrica a la prueba de comparación de medias en grupos relacionados.


Prueba t de Wilcoxon.

Nos preguntan ahora para el total de sujetos (los 10), si hay diferencia en la depresión entre las
puntuaciones antes y después de los tratamientos. Tenemos entonces 10 sujetos a los que se les mide

8
la depresión en un determinado momento y luego a esos mismos sujetos se les vuelve a medir la
depresión al cabo de un cierto tiempo. Son los mismos sujetos sometidos a dos condiciones
experimentales, en consecuencia nos encontramos con una prueba de comparación de medias para
grupos apareados o relacionados. En este caso, como se sabe, trabajamos con la variable diferencia
entre antes y después y se trata de comprobar si esa diferencia es o no diferente de cero a nivel
poblacional. Como solo es una distribución, no hay homogeneidad de varianzas que comprobar, lo
único es la normalidad de la distribución, así que esa es la única prueba que hemos de aplicar, y
como hemos dicho, para muestras chicas, que para las grandes no hace falta. Calculemos pues la
normalidad de la distribución de esta variable diferencia:

Del conjunto de los resultados, nos interesa tan solo la prueba de normalidad. Mejor la de Shapiro-
Wilk:

9
Pruebas de normalidad

a
Kolmogorov-Smirnov Shapiro-Wilk
Estadístico gl Sig. Estadístico gl Sig.
*
mejora ,216 10 ,200 ,820 10 ,025
*.
a.

No se cumple la normalidad, luego recurrimos a la prueba no paramétrica correspondiente:

10
Rangos

N
a
antes - despues Rangos negativos 0 ,00 ,00
Rangos positivos 10 b 5,50 55,00
c
Empates 0
Total 10

a.

b.
c.

a
Estadísticos de prueba

Z b
-2,823
Sig. asintótica (bilateral) ,005
a.

b.

Tenemos una 𝑃 = 0.005 < 0.05, lo que nos indica una diferencia claramente significativa entre la
depresión antes y después.

Aunque lo más apropiado para este caso es hacerlo mediante la prueba no paramétrica, vamos a
intentarlo mediante la paramétrica, a ver qué pasa:

11
Los resultados:

Estadísticas de muestras emparejadas

Media N
Par 1 despues 58,3000 10 9,70739 3,06974
antes 73,9000 10 8,33267 2,63502

Prueba de muestras emparejadas

Diferencias emparejadas

Media Inferior Superior t gl Sig. (bilateral)


Par 1 despues - antes -15,60000 4,88080 1,54344 -19,09151 -12,10849 -10,107 9 ,000

Más significativo que anteriormente. Si queremos saber cuánto, hacemos doble clic en la
significación:

Del orden de 3 millonésimas.

12

You might also like