You are on page 1of 35

INSTITUTO TECNOLOGICO DE CAMPECHE

INGENIERIA INDUSTRIAL

NUM: 2 NOMBRE DEL TRABAJO: Investigación


conceptual
NUM: 4 NOMBRE DE LA UNIDAD: Pruebas de bondad
de ajuste y pruebas no paramétricas

Nombre del alumno:


Materia:
Estadística inferencial
Maestro:
Bocos Patrón Ramón Agustín
Grupo:
MI3

30/10/2018
Contenido
Introducción ........................................................................................................................................ 4
Justificación del uso de las pruebas no paramétricas ......................................................................... 5
Ventajas de las pruebas no paramétricas. ...................................................................................... 6
Desventajas de las pruebas no paramétricas.................................................................................. 6
Prueba de bondad de ajuste ji cuadrada ............................................................................................ 6
TABLAS DE CONTINGENCIA ............................................................................................................... 11
Pruebas de independencia ................................................................................................................ 17
PRUEBA DE RANGO CON SIGNO DE WILCOXON ............................................................................... 20
PRUEBA DE SUMA DE RANGOS DE WILCOXON................................................................................. 21
PRUEBA DE SIGNOS ........................................................................................................................... 22
PRUEBA DE MCNEMAR ..................................................................................................................... 23
Dos Muestras con Observaciones Pareadas ..................................................................................... 25
CONTRASTES DE NORMALIDAD ........................................................................................................ 30
PRUEBA DE KOLMOGOROV-SMIRNOV.............................................................................................. 30
El estadístico Anderson-Darling ........................................................................................................ 31
Prueba de normalidad de Ryan-Joiner .............................................................................................. 32
PRUEBA DE SHAPIRO-WILK ............................................................................................................... 33
Introducción
Este documento tiene como objetivo dar a conocer los
temas de la unidad 4 la cual lleva el título de Pruebas de
bondad de ajuste y pruebas no paramétricas de la materia
Estadística inferencial impartida por el maestro Ramón
Bocos en la carrera de ingeniería industrial del grupo mi3.

4
Justificación del uso de las pruebas no paramétricas
Las pruebas estadísticas paramétricas y no paramétricas se diferencian por el tipo
de datos que se usan para analizar. Las pruebas paramétricas hacen muchas
suposiciones, la más significativa de las cuales es que los datos se distribuyen
normalmente. Las pruebas no paramétricas hacen menos suposiciones y hacen
frente a los datos que no se distribuyen normalmente. Las pruebas paramétricas
generalmente tienen una mayor potencia estadística.
Las pruebas paramétricas simplemente son procedimientos estadísticos que
poseen ciertas propiedades bajo supuestos valores generales y sin importar la
población de la cual los datos han sido obtenidos. Estos son aplicables cuando la
teoría de normalidad no puede ser utilizada, por ejemplo cuando no se trabaja con
magnitudes de observaciones sino con sus rangos.
Las pruebas no paramétricas pueden utilizarse como abreviaciones para pruebas
más complicadas. Son especialmente valiosas para datos no numéricos, como
cuando los consumidores ordenan cereales u otros productores de acuerdo con su
preferencia.
Las pruebas no paramétrica es una rama de la estadística que estudia las pruebas
y modelos estadísticos, son las que, a pesar de basarse en determinadas
suposiciones, no parten de la base de que los datos analizados adoptan una
distribución normal. Las pruebas no paramétricas no requieren asumir normalidad
de la población y en su mayoría se basan en el ordenamiento de los datos, la
población tiene que ser continua. Son técnicas estadísticas que no presuponen
ningún modelo probabilístico teórico. Son menos potentes que las técnicas
paramétricas, aunque tienen la ventaja que se pueden aplicar más fácilmente.
Las pruebas no paramétricas son, sin duda, las técnicas estadísticas más
frecuentemente utilizadas por analistas e investigadores en todo tipo áreas
científicas, pero su utilidad se ve reducida, fundamentalmente, por dos razones:
por un lado, exigen el cumplimiento de algunos supuestos que en ocasiones
pueden resultar demasiado exigentes; por otro, obligan a trabajar con unos niveles
de medida que, especialmente en las ciencias sociales y de la salud, no siempre
resulta fácil alcanzar.
Los métodos no paramétricos se aplican a una gran variedad de situaciones, ya
que no se requiere que cumplan ciertas condiciones como lo es el de la
distribución normal de los datos como es el caso de los métodos paramétricos. Se
aplican principalmente cuando empleamos datos nominales, como es el caso en
muchas de las respuestas que se emplean en las encuestas y en muchas pruebas
de psicología y pedagogía. Sus cálculos son más sencillos y nos permiten una
interpretación más fácil de entender y aplicar, aunque la potencia de las pruebas
es menor a las pruebas paramétricas.
Existen numerosos métodos de pruebas no paramétricas para escoger y

5
seleccionar la que mejor nos convenga dependiendo de la situación que
deseemos plantear, todas ellas con una característica en común, arrojan
resultados que nos permite tomar las decisiones.

 Prueba de Chicuadrado de Pearson

 Rachas de pruebas

 Prueba de los Signos

 Prueba de Wilcoxon

 Prueba U de Mann- Whitney

 Prueba de Rachas de Wald- Wolfowitz, entre otras donde solo


estaremos desarrollando y analizando las más fundamentales.

Ventajas de las pruebas no paramétricas.


 Por lo general, son fáciles de usar y entender.

 Se pueden usar con muestras pequeñas.

 Se pueden usar con datos cualitativos.

 Son convenientes cuando no se conoce la distribución de la población.

Desventajas de las pruebas no paramétricas.


 A veces, ignoran, desperdician o pierden información.

 No son tan eficientes como las pruebas paramétricas.

 Llevan a una mayor probabilidad de no rechazar una hipótesis nula falsa


(incurriendo en un error de tipo II).

 Utilizan menor información de la variable

Prueba de bondad de ajuste ji cuadrada


e utiliza para decidir cuando un conjunto de datos se ajusta a una distribución
dada

Considérese una muestra aleatoria de tamaño n de la distribución de una variable


aleatoria X dividida en k clases exhaustivas e incompatibles, y sea Ni i = 1, 2, …,
k. el número de observaciones en la i-ésima clase. Considérese la hipótesis nula

6
H0: F(x)=F0(x)

en donde el modelo de probabilidad propuesto F0(x) se encuentra especificado de


manera completa, con respecto a todos los parámetros.

Es posible, pues, calcular pi: probabilidad de obtener una observación en la i-


ésima clase, bajo H0. Es obvio, también, que

Sea ni la realización de Ni para i = 1,2,…, k de manera que

La probabilidad de obtener de manera exacta ni observaciones en la i-ésima clase


es

Dado que existen k categorías mutuamente excluyentes con probabilidades p 1, p2,


…, pk; entonces bajo la hipótesis nula la probabilidad de la muestra agrupada es
igual a la función de probabilidad de una distribución multinomial determinada.

Para deducir una prueba estadística para H0, considérese el caso de k = 2. Este
es el caso de la distribución binomial con x = n1, p = p1, n-x =n2 y 1-p =p2. Sea la
variable aleatoria estandarizada:

para n grande, esta variable aleatoria se distribuye según una N(0;1). Además
sabemos que el cuadrado de una variable aleatoria N(0,1) se distribuye según una
chi-cuadrado con un grado de libertad. Entonces el estadístico

7
Si se sigue este razonamiento, puede demostrarse que para k≥2 categorías
distintas

Nótese que Ni es la frecuencia observada en la i-ésima clase y npi la esperada


bajo la hipótesis nula.

Esta estadística recibe el nombre de prueba de bondad de ajuste chi-cuadrada de


Pearson.

Si existe una concordancia perfecta entre las frecuencias observadas y las


esperadas, el estadístico tendrá un valor igual a cero; por otra parte si las
discrepancias entre estas frecuencias son grandes, el estadístico tomará un valor,
también muy grande. Por ello se desprende que para un valor dado del error de
tipo I, la región crítica estará en el extremo superior la distribución chi-cuadrada
con k-1 grado de libertad.

Una ventaja de la prueba de bondad de ajuste chi-cuadrada es que para valores


grandes de n, la distribución límite chi-cuadrada de la estadística, es
independiente de la forma que tenga la distribución F0(x) propuesta en la hipótesis
H0. Como consecuencia de esto se tiene que la prueba de bondad se utiliza
también para distribuciones de probabilidad en las que F0(x) es continua. Sin
embargo, debe insistirse en que la prueba de bondad es discreta, en el sentido de
que ésta compara frecuencias que se observan y se esperan para un número finito
de categorías.

De acuerdo con lo anterior, si F0(x) es continua, la prueba no compara las


frecuencias que se observan aisladas con la función de densidad propuesta tal y
como implica la hipótesis nula; sino, más bien, la comparación se lleva a cabo
aproximando la distribución continua bajo H0 con un número finito de intervalos de
clase.

No obstante, esta prueba es un procedimiento razonablemente adecuado para


probar suposiciones de normalidad siempre y cuando el tamaño de la muestra sea
suficientemente grande.

8
¿Qué tan grande debe ser el tamaño de la muestra? Se ha encontrado que
con n igual a 5 veces el número de clases, los resultados son aceptables. Una
regla conservadora es que ninguna clase tenga una frecuencia inferior a 5; si esto
sucediera, se agruparían clases vecinas.

A menos que se especifique una hipótesis alternativa que consista en un modelo


alternativo particular F1(x), la potencia de la prueba (probabilidad de que un valor
se encuentre en la región crítica cuando H0 es falsa) es muy difícil de determinar.
Por otra parte, puede demostrarse que la potencia tiende a 1 cuando n tiende a
infinito. Esto implica que cuando n es muy grande es casi seguro que se rechaza
H0, pues es muy difícil especificar una F0(x) lo suficientemente cercana a la
distribución. Por tanto esta prueba es cuestionable para muestras muy grandes.

Recuérdese que el modelo de probabilidad propuesto F0(x) se especificó


completamente. Por regla general, solo se conoce la normalidad de F 0(x),
necesitándose estimar la media y la varianza, en consecuencia las frecuencias
esperadas npi; i =1,2,…,k no pueden determinarse.

Sea T el estadístico del parámetro desconocido θ de F0(x). Tanto Ni (frecuencias


observadas) como npi(T) frecuencias esperadas son variables aleatorias, donde
pi(T) indica que la probabilidad bajo la hipótesis nula es función del estadístico T
de θ.

Puede demostrarse que si T es el estimador de máxima verosimilitud de θ,


entonces:

en donde r es el número de parámetros que se está intentando estimar.

Ejemplo 1

El gerente de una planta industrial pretende determinar si el número de empleados


que asisten al consultorio médico de la planta se encuentran distribuido en forma
equitativa durante los 5 días de trabajo de la semana. Con base en una muestra
aleatoria de 4 semanas completas de trabajo, se observó el siguiente número de
consultas:

Lunes Martes Miércoles Jueves Viernes

49 35 32 39 45

9
Con a=0,05, ¿existe alguna razón para creer que el número de empleados que
asisten al consultorio médico, no se encuentra distribuido de forma equitativa
durante los días de la semana?

Solución

Una distribución uniforme lleva consigo que la probabilidad sería la misma para
cada día de la semana. Por tanto pi=0,2 para i = 1, 2, 3, 4, 5.

La hipótesis nula H0: pi=0,2 para i = 1, 2, 3, 4, 5. Dado que n=200, la frecuencia


esperada para cada día de la semana es 200*0,2=40. Luego, el valor del
estadístico es:

Frecuencias Frecuencias (Ni-


Días Observadas teóricas npi)2/npi

Lunes 49 40 2,025

Martes 35 40 0,625

Miércoles 32 40 1,6

Jueves 39 40 0,025

Viernes 45 40 0,625

Suma 4,9

El estadístico sigue una chi-cuadrada con k-1 grado de libertad, con k=5. Luego

Por otro lado PRUEBA.CHI.INV(0,05;4)= 9,48772846. Como 4,9<9,48772846, no


puede rechazarse la hipótesis nula.

Pruebas de la bondad de ajuste

La bondad de ajuste de un modelo estadístico describe lo bien que se ajusta un


conjunto de observaciones. Las medidas de bondad en general resumen la
discrepancia entre los valores observados y los que valores esperados en el
modelo de estudio. Tales medidas se pueden emplear en el contraste de hipótesis,
e.g. el test de normalidad de los residuos, comprobar si dos muestras se obtienen
a partir de dos distribuciones idénticas (ver test de Kolmogorov-Smirnov), o si las
frecuencias siguen una distribución específica (ver ji cuadrada).

10
TABLAS DE CONTINGENCIA

En muchas ocasiones, los n elementos de una muestra tomada de una


población pueden clasificarse con dos criterios diferentes. Por tanto, es
interesante saber si los dos métodos de clasificación son
estadísticamente independientes. Supóngase que el primer método de
clasificación tiene r niveles, y que el segundo tiene c niveles. O sea Oij la
frecuencia observada para el nivel i del primer método de clasificación y
el nivel j del segúndo método de clasificación. En general, los datos
aparecerán como se muestra en la siguiente tabla. Una tabla de este tipo
usualmente se conoce como tabla de contingencia r x c.

Columnas

1 2 ... c

1 O11 O12 ... O1c

2 O21 O22 ... O2c

Renglones . . . . .

. . . . .

. . . . .

r Or1 Or2 ... Orc

El interés recae en probar la hipótesis de que los dos métodos de


clasificación renglón-columna son independientes. Si se rechaza esta
hipótesis, entonces se concluye que existe alguna interacción entre los
dos criterios de clasificación. Los procedimientos de prueba exactos son
difíciles de obtener, pero puede obtenerse un estadístico de prueba
aproximado válido para ngrande.

Sea pij la probabilidad de que un elemento seleccionado al azar caiga el


la
ij-ésima celda, dado que las dos clasificaciones son independientes.
Entonces, pij=uivj, donde ui es la probabilidad de que un elemento
seleccionado al azar pertenezca al renglón de la clase i, y vj es la
probabilidad de que un elemento seleccionado pertenezca a la columna
de la clase j. Ahora bien, si se supone independencia, los estimadores de
ui y vj son:

11
Por lo tanto, la frecuencia esperada de la celda es:

Entonces, para n grande, el estadístico

tiene una distribución aproximada ji-cuadrada con (r-1)(c-1) grados de


libertad si la hipótesis nula es verdadera. Por consiguiente, la hipótesis
de independencia debe rechazarse si el valor del estadístico de prueba
X2 calculado es mayor que X2 crítico o de tabla.

Ejemplos:

1. Una asociación de profesores universitarios quiere determinar si la


satisfacción en el trabajo es independiente del rango académico.
Para ello realizó un estudio nacional entre los académicos
universitarios y encontró los resultados mostrados son la tabla
siguiente. Con =0.05, haga una prueba para saber si son
dependientes la satisfacción en el trabajo y el rango.

Rango

Profesor Profesor
Instructor Profesor
Satisfacción asistente asociado
en el
Mucha 40 60 52 63
trabajo
Regular 78 87 82 88

Poca 57 63 66 64

12
Solución:

Ho; La satisfacción en el trabajo y el rango son independientes.

H1; La satisfacción en el trabajo y el rango son dependientes.

Grados de libertad: (r-1)(c-1) = (3-1)(4-1)=(2)(3) = 6

Regla de decisión:

Si X2R 12.592 no se rechaza Ho.

Si X2R > 12.592 se rechaza Ho.

Se procederá a calcular los valores esperados de cada celda.


Como los grados de libertad son 6, esto quiere decir que
necesitamos calcular únicamente 6 frecuencias esperadas, y las
faltantes se encuentran por diferencia.

Se calcularán los valores esperados E11, E12, E13, E21, E22 y E23.

Como se necesitan los totales de renglón y columna se mostrarán


en la tabla:

Rango

Profesor Profesor
Instructor Profesor Total
asistente asociado
Satisfacción
en el Mucha 40 60 52 63 215

Regular 78 87 82 88 335
trabajo
Poca 57 63 66 64 250

13
Total 175 210 200 215 800

Rango

Profesor Profesor
Satisfacción Instructor Profesor Total
asistente asociado

40 60 52 63
Mucha 215
(47.03) (56.44) (53.75) (57.78)

78 87 82 88
Regular 335
(73.28) (87.94) (83.75) (90.03)

57 63 66 64
Poca 250
(54.69) (65.62) (62.50) (67.19)

Total 175 210 200 215 800

Los valores entre paréntesis son los esperados, los que no se


calcularon por fórmula se obtuvieron por diferencia con respecto a
los totales.

Decisión y justificación:
Como el valor de 2.75 es menor que el de tabla 12.592, por lo tanto
no se rechaza Ho y se concluye con un =0.05 que la
satisfacción en el trabajo y el rango son independientes.
14
2. En un estudio de un taller, se reúne un conjunto de datos para
determinar si la proporción de defectuosos producida por los
trabajadores es la misma para el turno matutino, vespertino o
nocturno. Se reunieron los siguientes datos:
T
u
r
n
o

Matutino Vespertino Nocturno

Defectuosos 45 55 70

No defectuosos 905 890 870

Utilice un nivel de significancia de 0.025 para determinar si la


proporción de defectuosos es la misma para los tres turnos.

Solución:

Ho; La proporción de artículos defectuosos es la misma para los tres


turnos.

H1; La proporción de artículos defectuosos no es la misma para los tres


turnos.

Grados de libertad: (r-1)(c-1) = (2-1)(3-1)=(1)(2) = 2

15
Regla de decisión:

Si X2R 7.378 no se rechaza Ho.

Si X2R > 7.378 se rechaza Ho.

Se procederá a calcular los valores esperados de cada celda. Como los


grados de libertad son 2, esto quiere decir que necesitamos calcular
únicamente 2 frecuencias esperadas, y las faltantes se encuentran por
diferencia.

Se calcularán los valores esperados E11, y E22.

Como se necesitan los totales de renglón y columna se mostrarán en la


tabla:

Matutino Vespertino Nocturno Total

Defectuosos 45 55 70 170

No defectuosos 905 890 870 2665

Total 950 945 940 2835

Matutino Vespertino Nocturno Total

45 55 70 170
Defectuosos
(57.0) (56.7) (56.3)

905 890 870 2665


No defectuosos
(893.0) (888.3) (883.7)

Total 950 945 940 2835

16
Decisión:

Si se busca este valor dentro de la tabla de ji-cuadrada con 2 grados de


libertad nos dará un valor de P aproximado a 0.04. Si se observa el valor
de la ji-cuadrada calculada de 6.29 con el valor de tabla de 7.378, se
llega a la decisión de no rechazar Ho. Sin embargo sería riesgoso
concluir que la proporción de defectuosos producidos es la misma para
todos los turnos por tener un valor de P de 0.04.

Pruebas de independencia
El objetivo es verificar si existe una dependencia entre las variables cualitativas
que definen filas y columnas, es decir, si para todo i = 1, ..., k y j = 1, .., m se
verifica que la probabilidad del resultado correspondiente a la
combinación Ai ∩ Bj es el producto de las probabilidades marginales
correspondientes. P(Ai) es la probabilidad del resultado i para la variable fila
y P(Bj) la del resultado j para la variable columna.

P(Ai ∩ Bj) = P(Ai) · P(Bj)

Utilizaremos generalmente la notación más simplificada:

P(Ai ∩ Bj) = pij

P(Ai) = pi·

P(Bj) = p·j

Los valores de pi· y p·j se estimarán, a partir de los valores observados en la tabla
de contingencia, por ni·/N y n·j/N respectivamente.

Hipótesis nula de independencia: para toda combinación de resultados de las


variables fila y columna (i, j).

H0: pij = pi· p·j para todo i = 1, ..., k j = 1, .., m

La hipótesis alternativa, que implica dependencia, se puede formular diciendo que


alguna de las igualdades de la hipótesis nula es falsa.

Los valores observados son nij. Los valores esperados bajo la hipótesis nula de
independencia se calculan de la manera siguiente:

17
eij = N · pij = N · pi· · p·j = N · (ni·/N ) · (n·j/N ) = (ni· · n·j )/N

El estadístico de contraste se calcula de la manera habitual:

La distribución asintótica bajo la hipótesis nula es una χ2 con (k − 1) · (m − 1)


grados de libertad. Los grados de libertad pueden entenderse, de manera intuitiva,
entendiendo que el número de parámetros que se estiman son (k − 1) y (m − 1),
ya que queda fijada la probabilidad de la última clase de cada característica una
vez estimadas las restantes. Por tanto, aplicando la fórmula para los grados de
libertad se obtiene:

grados de libertad = número de clases − número de parámetros estimados − 1

grados de libertad = k · m − (k − 1) − (m − 1) − 1 = (k − 1) · (m − 1)

El criterio de decisión es el mismo que en el caso general:

Rechazamos la hipótesis nula si

donde el último término es el valor crítico asociado con una distribución χ2,
con (k − 1) · (m − 1) grados de libertad, tal que deja a su derecha una probabilidad
igual a α.

La condición de validez es que las frecuencias esperadas eij sean mayores que 5.

Qué es un método no paramétrico?

Una prueba no paramétrica es una prueba de hipótesis que no requiere que la


distribución de la población sea caracterizada por ciertos parámetros. Por ejemplo,
muchas pruebas de hipótesis parten del supuesto de que la población sigue una
distribución normal con los parámetros μ y σ. Las pruebas no paramétricas no
parten de este supuesto, de modo que son útiles cuando los datos son
considerablemente no normales y resistentes a transformaciones.

En la estadística paramétrica, se presupone que las muestras provienen de


distribuciones totalmente especificadas caracterizadas por uno o más parámetros
desconocidos sobre los cuales se desea hacer inferencias. En un método no

18
paramétrico, se presupone que la distribución de la que proviene la muestra no
está especificada y, con frecuencia, se desea hacer inferencias sobre el centro de
la distribución. Por ejemplo, muchas pruebas de la estadística paramétrica, como
la prueba t de 1 muestra, se realizan bajo el supuesto de que los datos provienen
de una población normal con una media desconocida. En un estudio no
paramétrico, se elimina el supuesto de normalidad.

Los métodos no paramétricos son útiles cuando no se cumple el supuesto de


normalidad y el tamaño de la muestra es pequeño. Sin embargo, las pruebas no
paramétricas no están completamente libres de supuestos acerca de los datos.
Por ejemplo, es fundamental presuponer que las observaciones de las muestras
son independientes y provienen de la misma distribución. Además, en los diseños
de dos muestras, se requiere el supuesto de igualdad de forma y dispersión.

Por ejemplo, los datos sobre salarios son fuertemente asimétricos hacia la
derecha, porque muchas personas devengan salarios modestos y pocas personas
ganan salarios más altos. Usted puede utilizar pruebas no paramétricas con estos
datos para responder a preguntas como las siguientes:

 ¿Es la mediana de los salarios de su empresa igual a cierto valor? Utilice la


prueba de signos de 1 muestra.

 ¿Es la mediana de los salarios de una sucursal urbana de un banco mayor


que la mediana de los salarios de una sucursal rural del banco? Utilice la
prueba de Mann-Whitney o la prueba de Kruskal-Wallis.

 ¿Son diferentes las medianas de los salarios en las sucursales rurales,


urbanas y suburbanas de un banco? Utilice la prueba de la mediana de
Mood.

 ¿Cómo incide el nivel de educación en los salarios de las sucursales rural y


urbana? Utilice la prueba de Friedman.

Limitaciones de las pruebas no paramétricas

Las pruebas no paramétricas tienen las siguientes limitaciones:

 Las pruebas no paramétricas por lo general son menos potentes que la


prueba paramétrica correspondiente cuando se cumple el supuesto de
normalidad. Por lo tanto, es menos probable que usted rechace la hipótesis
nula cuando sea falsa si los datos provienen de la distribución normal.

 Las pruebas no paramétricas suelen requerir que se modifiquen las


hipótesis. Por ejemplo, la mayoría de las pruebas no paramétricas acerca

19
del centro de la población son pruebas sobre la mediana y no sobre la
media. La prueba no responde a la misma pregunta que el procedimiento
paramétrico correspondiente si la población no es simétrica.

Pruebas paramétricas alternativas

Cuando tenga la posibilidad de escoger entre un procedimiento paramétrico y uno


no paramétrico, y esté reltivamente seguro de que se cumplen los supuestos del
procedimiento paramétrico, entonces utilice el procedimiento paramétrico.
También podría utilizar el procedimiento paramétrico cuando la población no esté
distribuida normalmente si el tamaño de la muestra es lo suficientemente grande.

La siguiente es una lista de las pruebas no paramétricas y sus alternativas


paramétricas.

Prueba no paramétrica Prueba paramétrica alternativa

Prueba de signos de 1 muestra Prueba Z de 1 muestra, prueba t de 1 muestra

Prueba de Wilcoxon de 1 muestra Prueba Z de 1 muestra, prueba t de 1 muestra

Prueba de Mann-Whitney Prueba t de 2 muestras

Prueba de Kruskal-Wallis ANOVA de un solo factor

Prueba de la mediana de Mood ANOVA de un solo factor

Prueba de Friedman ANOVA de dos factores

PRUEBA DE RANGO CON SIGNO DE WILCOXON


Se puede notar que la prueba de signo utiliza sólo los signos más y menos de las
diferencias entre las observaciones y 0 en el caso de una muestra, o los signos
más y menos de las diferencias entro los pares de observaciones en el caso de la
muestra pareada, pero no toma en consideración la magnitud de estas diferencias.
Una prueba que utiliza dirección y magnitud, propuesta en 1945 por Frank
Wilcoxon, se llama ahora comúnmente prueba de rango con signo de
20
Wilcoxon. Esta prueba se aplica en el caso de una distribución continua simétrica.
Bajo esta condición se puede probar la hipótesis nula = 0. Primero se resta
0 de cada valor muestral y se descarta todas las diferencias iguales a cero. Se
asigna un rango de 1 a la diferencia absoluta más pequeña, un rango de 2 a la
siguiente más pequeña, y así sucesivamente. Cuando el valor absoluto de dos o
más diferencias es el mismo, se asigna a cada uno el promedio de los rangos que
se asignarían si las diferencias se distinguieran. Por ejemplo, si la quinta y sexta
diferencia son iguales en valor absoluto, a cada una se le asignaría un rango de
5.5. Si la hipótesis = 0 es verdadera, el total de los rangos que corresponden a
las diferencias positivas debe ser casi igual al total de los rangos que
corresponden a las diferencias negativas. Se representan esos totales
como w+ y w-, respectivamente. Se designa el menor de w+ y w- con w.

Al seleccionar muestras repetidas esperaríamos que variarían w+ y w-, y por


tanto w. De esta manera se puede considerar a w+ y w-, y w como valores de las
correspondiente variables aleatorias W +, W -, y W. La hipótesis nula = 0 se
puede rechazar a favor de la alternativa < 0 sólo si w+ es pequeña y w- es
grande. Del mismo modo, la alternativa > 0 se puede aceptar sólo si w+ es
grande y w- es pequeña. Para una alternativa bilateral se puede rechazar H0 a
favor de H1 si w+ o w- y por tanto w son suficientemente pequeñas. No importa
cuál hipótesis alternativa puede ser, rechazar la hipótesis nula cuando el valor de
la estadística apropiada W +, W -, o W es suficientemente pequeño.

PRUEBA DE SUMA DE RANGOS DE WILCOXON


Cuando se trata de variables medibles en por lo menos una escala ordinal y
pueden suponerse poblaciones contínuas la prueba no paramétrica más potente
es la de Wilcoxon.

La hipótesis nula del contraste postula que las muestras proceden de poblaciones
con la misma distribución de probabilidad; la hipótesis alternativa establece que
hay diferencias respecto a la tendencia central de las poblaciones y puede ser
direccional o no.

El contraste se basa en el comportamiento de las diferencias entre las


puntuaciones de los elementos de cada par asociado, teniendo en cuenta no sólo
el signo, sino también la magnitud de la diferencia.

Sea la diferencia entre las puntuaciones de la pareja i-ésima; si


alguna de estas diferencias es nula la pareja
correspondiente se elimina del análisis, de forma que el tamaño de la muestra es

21
n, el número de diferencias no nulas. A continuación se asignan rangos desde 1
hasta n atendiendo únicamente al valor absoluto de las di y se suman los rangos
correspondientes a las diferencias positivas y a las diferencias negativas por
separado. Si la hipótesis nula es cierta, X e Y tienen el mismo valor central y es de
esperar que los rangos se distribuyan aleatoriamente entre las diferencias
positivas y negativas y, por tanto, que ambas sumas de rangos sean
aproximadamente iguales. El estadístico de prueba, T, es la menor de las dos
sumas de rangos. Cuando n > 15 la distribución muestral de T bajo el supuesto de
que H0 es cierta se aproxima a una normal de parámetros:

El estadístico de prueba es el valor Z:

que se distribuye según una normal


tipificada.

Para el nivel de significación deseado se rechazará la hipótesis nula si Z


pertenece a la región crítica localizada en las dos colas o en una cola de la normal
tipificada, según la naturaleza de la hipótesis alternativa.

PRUEBA DE SIGNOS
La prueba de los signos permite contrastar la hipótesis de que las respuestas a
dos ''tratamientos'' pertenecen a poblaciones idénticas. Para la utilización de esta
prueba se requiere únicamente que las poblaciones subyacentes sean contínuas y
que las respuestas de cada par asociado estén medidas por lo menos en una
escala ordinal.

La hipótesis nula puede expresarse como:

Siendo Xi la respuesta del elemento i-ésimo al primer ''tratamiento'' e Yi la


respuesta del elemento i-ésimo al segundo ''tratamiento''.

La hipótesis alternativa puede ser direccional, cuando postula que X es


estocásticamente mayor (o menor) que Y, o no direccional, cuando no predice la
dirección de la diferencia.

Para realizar el contraste se hallan los signos (+ o -) de las diferencias no nulas


entre las respuestas de los dos componentes de cada par y se cuenta cuántas son
positivas, S+, y cuántas negativas, S-. Si H0 es cierta, es de esperar que

22
aproximadamente la mitad de las diferencias sean positivas y la otra mitad
negativas.

El estadístico de prueba es S= mín [S+, S-].

Si H0 es cierta, S tiene distribución binomial de parámetros n= nº de diferencias


nulas y = 0'5. Si n es grande, la distribución de S puede aproximarse mediante
una normal de parámetros y la decisión
dependerá del valor tipificado de S. Para mejorar la aproximación se realiza una
corrección de continuidad, de forma que el estadístico de prueba es:

Z se distribuye según una normal tipificada.

Cuando el número de diferencias no nulas es pequeño la aproximación de la


distribución de S mediante la normal no es buena y en este caso el SPSS realiza
directamente la prueba binomial, dando el nivel de significación a partir del cual se
rechaza H0 en un contraste de dos colas. Si el contraste se realiza a una cola
dicho nivel de significación se reduce a la mitad.

PRUEBA DE MCNEMAR
La prueba de McNemar se utiliza para decidir si puede o no aceptarse que
determinado ''tratamiento'' induce un cambio en la respuesta dicotómica o
dicotomizada de los elementos sometidos al mismo, y es aplicable a los diseños
del tipo ''antes-después'' en los que cada elemento actúa como su propio control.

Los resultados correspondientes a una muestra de n elementos se disponen en


una tabla de frecuencias 2 x 2 para recoger el conjunto de las respuestas de los
mismos elementos antes y después. El aspecto general de dicha tabla, en la que
los signos + y - se utilizan para representar las diferentes respuestas, es el
siguiente:

Antes/Después - +

- a B

+ c D

En las celdas de la tabla, a es el número de elementos cuya respuesta es la


misma, -; b es el número de elementos cuya respuesta es - antes del ''tratamiento''

23
y + después de éste; c es el número de elementos que han cambiado de + a -;
y d es el número de elementos que mantienen la respuesta +.

Por tanto, b+c es el número total de elementos cuyas respuestas han cambiado, y
son los únicos que intervienen en el contraste. La hipótesis nula es que el
''tratamiento'' no induce cambios significativos en las respuestas, es decir, los
cambios observados en la muestra se deben al azar, de forma que es igualmente
probable un cambio de + a - que un cambio de - a +. Así pues, si H0 es cierta, de
los b+c elementos cuya respuesta ha cambiado es de esperar que (b+c)/2 hayan
pasado de + a -, y (b+c)/2 hayan pasado de - a +. En otras palabras, si H0 es
cierta, la frecuencia esperada en las correspondientes celdas es (a+b)/2.

La hipótesis alternativa puede ser no direccional, cuando postula que la


probabilidad de un cambio de + a - tiene distinta probabilidad que un cambio de - a
+, o direccional, cuando predice que un cambio de - a + es más (o menos)
probable que un cambio de + a -.

El estadístico de prueba que permite contrastar si existen diferencias significativas


entre las frecuencias esperadas y las observadas es:

Oi= frecuencia observada en la i-ésima celda

Ei = frecuencia esperada en la i-ésima celda si H0 es cierta

k = número de celdas

Para contrastar la significación de los cambios interesan sólo las celdas que
recogen cambios, por tanto el estadístico puede expresarse como

Si H0 es cierta, el estadístico tiene distribución aproximadamente chi-cuadrado


con 1 grado de libertad. La aproximación es más precisa si se realiza la corrección
de continuidad de Yates, quedando el estadístico:

La hipótesis nula, de que ambos tipos de cambio son igualmente probables, se


rechaza si el valor del estadístico se encuentra en la región crítica.
24
Cuando la frecuencia esperada (b+c)/2 es pequeña la aproximación de la
distribución del estadístico de prueba a la chi-cuadrado no es buena y, en tal caso,
el SPSS no calcula el estadístico anterior, sino que realiza la prueba binomial. El
contraste se plantea en este caso de la siguiente forma: supongamos que c<b; en
este caso la hipótesis nula es que c es un valor de una variable X con distribución
binomial de parámetros n=b+c y =0,5. El nivel de significación para una prueba
de dos colas es y se rechazará H0 para niveles de
significación iguales o superiores a éste. Si la hipótesis alternativa es direccional el
nivel de significación a partir del cual se rechazará H0 es la mitad del nivel de
significación bilateral.

Dos Muestras con Observaciones Pareadas


Para probar la hipótesis nula de que se muestrean dos poblaciones simétricas
continuas con 1= 2 para el caso de una muestra pareada, se clasifican las
diferencias de las observaciones paradas sin importar el signo y se procede como
en el caso de una muestra. Los diversos procedimientos de prueba para los casos
de una sola muestra y de una muestra pareada se resumen en la siguiente tabla:

No es difícil mostrar que siempre que n<5 y el nivel de significancia no exceda


0.05 para una prueba de una cola ó 0.10 para una prueba de dos colas, todos los
valores posibles de w+, w-,o w conducirán a la aceptación de la hipótesis nula. Sin
embargo, cuando 5 n 30, la tabla A.16 muestra valores críticos aproximados
de W + y W - para niveles de significancia iguales a 0.01, 0.025 y 0.05 para una
prueba de una cola, y valores críticos de W para niveles de significancia iguales a
0.02, 0.05 y 0.10 para una prueba de dos colas. La hipótesis nula se rechaza si el
valor calculado w+, w-, o w es menor o igual que el valor de tabla apropiado. Por
ejemplo, cuando n=12 la tabla A.16 muestra que se requiere un valor de w+ 17
para que la alternativa unilateral < 0 sea significativa en el nivel 0.05.

Ejemplos:

25
1. Los siguientes datos representan el número de horas que un compensador
opera antes de requerir una recarga: 1.5, 2.2, 0.9, 1.3, 2.0, 1.6, 1.8, 1.5, 2.0,
1.2 y 1.7. Utilice la prueba de rango con signo para probar la hipótesis en el
nivel de significancia de 0.05 que este compensador particular opera con
una media de 1.8 horas antes de requerir una recarga.

Solución:

H0; = 1.8

H1; 1.8

Se procederá a efectuar las diferencias y a poner rango con signo a los datos.

Dato di = dato - 1.8 Rangos

1.5 -0.3 5.5

2.2 0.4 7

0.9 -0.9 10

1.3 -0.5 8

2.0 0.2 3

1.6 -0.2 3

1.8 0 Se anula

1.5 -0.3 5.5

2.0 0.2 3

1.2 -0.6 9

1.7 -0.1 1

26
Regla de decisión:

Para una n = 10, después de descartar la medición que es igual a 1.8, la tabla
A.16 muestra que la región crítica es w 8.

Cálculos:

w+ = 7 + 3 + 3 = 13

w- = 5.5 + 10 + 8 + 3 + 5.5 + 9 + 1 = 42

por lo que w = 13 (menor entre w+ y w-).

Decisión y Conclusión:

Como 13 no es menor que 8, no se rechaza H0 y se concluye con un = 0.05


que el tiempo promedio de operación no es significativamente diferente de 1.8
horas.

2. Se afirma que un estudiante universitario de último año puede aumentar su


calificación en el área del campo de especialidad del examen de registro de
graduados en al menos 50 puntos si de antemano se le proporcionan
problemas de muestra. Para probar esta afirmación, se dividen 20
estudiantes del último año en 10 pares de modo que cada par tenga casi el
mismo promedio de puntos de calidad general en sus primeros años en la
universidad. Los problemas y respuestas de muestra se proporcionan al
azar a un miembro de cada par una semana antes del examen. Se registran
las siguientes calificaciones del examen:

Con Sin
problemas problemas
Par
de de
muestra muestra

1 531 509

2 621 540

3 663 688

27
4 579 502

5 451 424

6 660 683

7 591 568

8 719 748

9 543 530

10 575 524

Pruebe la hipótesis nula en el nivel de significancia de 0.05 de que los problemas


aumentan las calificaciones en 50 puntos contra la hipótesis alternativa de que el
aumento es menor a 50 puntos.

Solución:

La prueba de rango con signo también se puede utilizar para probar la hipótesis
nula 1- 2 = d0. En este caso las poblaciones no necesitan ser simétricas. Como
con la prueba de signo, se resta d0 de cada diferencia, se clasifican las diferencias
ajustadas sin importar el signo y se aplica el mismo procedimiento.

En este caso d0 = 50, por lo que se procede a calcular las diferencias entre las
muestras y luego restarles el valor de 50. Se representara con 1 y 2 la
calificación media de todos los estudiantes que resuelven el examen en cuestión
con y sin problemas de muestra, respectivamente.

H0; 1 - 2 = 50

H1; 1 - 2 < 50

Regla de decisión:

Para n=10 la tabla muestra que la región crítica es w+ 11.

Cálculos:

28
Con Sin
problemas problemas di –
Par di Rangos
de de d0
muestra muestra

1 531 509 22 -28 5

2 621 540 81 31 6

-
3 663 688 -75 9
25

4 579 502 77 27 3.5

5 451 424 27 -23 2

-
6 660 683 -73 8
23

7 591 568 23 -27 3.5

-
8 719 748 -79 10
29

9 543 530 13 -37 7

10 575 524 51 1 1

w+ = 6 + 3.5 + 1 = 10.5

Decisión y Conclusión:

Como 10.5 es menor que 11 se rechaza H0 y se concluye con un = 0.05 que


los problemas de muestra, en promedio, no aumentan las calificaciones de registro
de graduados en 50 puntos.

29
CONTRASTES DE NORMALIDAD
Un caso específico de ajuste a una distribución teórica es la correspondiente a la
distribución normal. Este contraste se realiza para comprobar si se verifica la
hipótesis de normalidad necesaria para que el resultado de algunos análisis sea
fiable, como por ejemplo para el ANOVA.

Para comprobar la hipótesis nula de que la muestra ha sido extraída de una


población con distribución de probabilidad normal se puede realizar un estudio
gráfico y/o analítico.

PRUEBA DE KOLMOGOROV-SMIRNOV
Cuando la prueba Kolmogorov-Smirnov kolmogorov se aplica para contrastar la
hipótesis de normalidad de la población, el estadístico de prueba es la máxima
diferencia:

siendo Fn(x) la función de distribución muestral y Fo(x) la función teórica o


correspondiente a la población normal especificada en la hipótesis nula.

La distribución del estadístico de Kolmogorov-Smirnov es independiente de la


distribución poblacional especificada en la hipótesis nula y los valores críticos de
este estadístico están tabulados. Si la distribución postulada es la normal y se
estiman sus parámetros, los valores críticos se obtienen aplicando la corrección de
significación propuesta por Lilliefors.

EJEMPLO

Con la información correspondiente a la variable Pla de la base de


datos Encinf.sav, se desea comprobar si la valoración que realizan los alumnos
del plan de estudios sigue una distribución uniforme.

Para realizar la prueba de bondad de ajuste Kolmogorov-Smirnov la secuencia a


seguir es Analizar > Pruebas no paramétricas> K-S de 1 muestra. Se selecciona la
variable Pla de la base de datos Encinf.sav y se indica que la Distribución de
contraste es uniforme.

Los resultados son:

30
A la vista de los resultados se concluye que no se puede rechazar la hipótesis de
que la valoración asignada por este grupo de alumnos al plan de estudios es
uniforme para cualquier nivel de significación inferior al 7,1%.

El estadístico Anderson-Darling
Mide qué tan bien siguen los datos una distribución específica. Para un conjunto
de datos y distribución en particular, mientras mejor se ajuste la distribución a los
datos, menor será este estadístico. Por ejemplo, usted puede utlizar el estadístico
de Anderson-Darling para determinar si los datos cumplen el supuesto de
normalidad para una prueba t.

Las hipótesis para la prueba de Anderson-Darling son:

 H0: Los datos siguen una distribución especificada

 H1: Los datos no siguen una distribución especificada

Utilice el valor p correspondiente (si está disponible) para probar si los datos
provienen de la distribución elegida. Si el valor p es menor que un nivel de
significancia elegido (por lo general 0.05 o 0.10), entonces rechace la hipótesis
nula de que los datos provienen de esa distribución. Minitab no siempre muestra
un valor p para la prueba de Anderson-Darling, porque este no existe
matemáticamente para ciertos casos.

También puede utilizar el estadístico de Anderson-Darling para comparar el ajuste


de varias distribuciones con el fin de determinar cuál es la mejor. Sin embargo,
para concluir que una distribución es la mejor, el estadístico de Anderson-Darling
debe ser sustancialmente menor que los demás. Cuando los estadísticos están

31
cercanos entre sí, se deben usar criterios adicionales, como las gráficas de
probabilidad, para elegir entre ellos.

Distribución Anderson-Darling Valor p

Exponencial 9.599 p < 0.003

Normal 0.641 p < 0.089

Weibull de 3 parámetros 0.376 p < 0.432

Exponencial

Normal

Weibull de 3 parámetros

Prueba de normalidad de Ryan-Joiner


Esta prueba evalúa la normalidad calculando la correlación entre los datos y las
puntuaciones normales de los datos. Si el coeficiente de correlación se encuentra
cerca de 1, es probable que la población sea normal. El estadístico de Ryan-Joiner
evalúa la fuerza de esta correlación; si se encuentra por debajo del valor crítico

32
apropiado, usted rechazará la hipótesis nula de normalidad de la población. Esta
prueba es similar a la prueba de normalidad de Shapiro-Wilk.

PRUEBA DE SHAPIRO-WILK
Cuando la muestra es como máximo de tamaño 50 se puede contrastar la
normalidad con la prueba de shapiro Shapiro-Wilk. Para efectuarla se calcula la
media y la varianza muestral, S2, y se ordenan las observaciones de menor a
mayor. A continuación se calculan las diferencias entre: el primero y el último; el
segundo y el penúltimo; el tercero y el antepenúltimo, etc. y se corrigen con unos
coeficientes tabulados por Shapiro y Wilk. El estadístico de prueba es:

donde D es la suma de las diferencias corregidas.

Se rechazará la hipótesis nula de normalidad si el estadístico W es menor que el


valor crítico proporcionado por la tabla elaborada por los autores para el tamaño
muestral y el nivel de significación dado.

33
Bibliografía

Pruebas no paramétricas

http://binomiald.blogspot.com/

Bondad de ajuste ji-cuadrado

http://binomiald.blogspot.com/

Pruebas de la bondad de ajuste

http://www.juntadeandalucia.es/averroes/centros-
tic/14002996/helvia/aula/archivos/repositorio/250/295/html/estadistica/bondad.htm

Prueba de chi-cuadrado para el análisis de tablas de contingencia con dos criterios de clasificación

http://www.juntadeandalucia.es/averroes/centros-
tic/14002996/helvia/aula/archivos/repositorio/250/295/html/estadistica/bondad.htm

Una prueba de independencia

http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo12/B0C12m1t6.htm

Metodos paramétricos vs no paramétricos

http://www.ub.edu/aplica_infor/spss/cap6-3.htm

Prueba de rangos de con signo de wilcoxon

https://www.ugr.es/~rruizb/cognosfera/sala_de_estudio/estadistica/tests%20noparametricos.PD
F

Sumas de rango de wilcoxon

http://www.itchihuahua.edu.mx/academic/industrial/estadistica1/toc.html

Pruebas de rangos con datos pareados

http://www.itchihuahua.edu.mx/academic/industrial/estadistica1/toc.html

Pruebas de Kolmogorov-smirnov

http://www.ub.edu/aplica_infor/spss/cap5-6.htm

Pruebas de Anderson-Darling

34
https://support.minitab.com/es-mx/minitab/18/help-and-how-to/statistics/basic-
statistics/supporting-topics/normality/the-anderson-darling-statistic/

Prueba de Ryan-Joiner

https://support.minitab.com/es-mx/minitab/18/help-and-how-to/statistics/basic-
statistics/supporting-topics/normality/test-for-normality/

Prueba de shapiro-wilk

http://www.ub.edu/aplica_infor/spss/cap5-6.htm

Videos de apoyo al tema

¿Qué es una prueba de bondad de ajuste?

https://www.youtube.com/watch?v=U8ZpUT1c8A4

Distribución chi-cuadrado

https://www.youtube.com/watch?v=gHkMGcn2MsE&t=40s

35