You are on page 1of 13

PRUEBAS DE HIPÓTESIS. Introducción.

En este texto de Métodos Cuantitativos aplicados a los estudios en Psicología, intenta describir en forma clara y precisa, los principales elementos básicos estadísticos de las pruebas que se emplean en las mediciones cuantitativas de ésta ciencia social. Se plantea el cálculo, la interpretación y la aplicación de los estadísticos o pruebas estadísticas más empleadas en la práctica. Planteando la estadística descriptiva e inferencial destinada principalmente a estudiantes del segundo semestre de la carrera de psicología, reseñando los contrastes paramétricos y no paramétricos de mayor aplicación, en la que se mencionan las principales características que los identifican; lo que ayudará al estudiante a poder seleccionarlos de acuerdo a estudio que realizan. Definición: La estadística se puede conceptualizar como un conjunto de mecanismos o procesos para: a) Obtener información. b) Interpretar la información (analizar). c) Inferir sobre la toma de decisión. Método: 1. Diseño. 2. Tipo de Estudio. 3. Variable involucrada. 4. Unidades experimentales. 5. Respuesta a: 6. Contraste de hipótesis. 7. Prueba estadística empleada. 8. Nivel de significación. 9. Distribución muestral. 10. Región de Rechazo. PRUEBAS PARAMÉTRICAS. Las pruebas paramétricas son los estadísticos más confiables, ya que poseen un alto grado de potencia estadística. En este tipo de pruebas no se utilizan los datos obtenidos del estudio en forma directa, sino que se les tiene que dar un tratamiento, es decir, se tienen que determinar los estimadores de la distribución en cuestión. Las pruebas paramétricas más comunes son: 1) Prueba Z 2) Prueba “ t “ de Student. 3) ANOVA (análisis de varianza). 4) Prueba F de Snedecor.

Entre mayor sea el número de grados de libertad que se tengan. llamadas distribuciones t de Student que contienen un reconocimiento inherente de las limitaciones impuestas por las muestras pequeñas.DISTRIBUCIÓN NORMAL (Prueba Z). Propiedades. que le permitan eliminar las trabas de los procedimientos experimentales y también le den una idea acerca de cuales podrían ser los resultados en un experimento más completo. está asociada al concepto de grados de libertad. Hipótesis. Niveles de Medición de la Variable. se determinan por el número de variables presentes. la distribución t. que los dos grupos no difieren significativamente en relación con la variable que se mide. se acercará más a la forma de una distribución normal. La ventaja de la t radica en la reducción de los errores de tipo I que resultan del empleo con muestras pequeñas. . En la realidad de la investigación psicológica se hace necesario a veces trabajar con muestras pequeñas para efectuar estudios preliminares o estudios “piloto”. desarrolló una familia de distribuciones. se deberán efectuar varias aplicaciones de la prueba t. DISTRIBUCIÓN “t” DE STUDENT. La hipótesis de investigación propone que los grupos difieren significativamente o convincentemente entre sí y que la hipótesis nula propone. En síntesis la t de Student. Gosset. (Ejemplo: Un experimento con dos grupos. La comparación se realiza sobre una sola variable. es una prueba estadística paramétrica que nos permite saber si dos grupos difieren entre sí de manera significativa respecto a sus medias. Variables Involucradas. Si se están manejando diferentes variables. los grados de libertad así asociados a una distribución. La distribución t de Student. los grados de libertad constituyen el número de maneras de cómo los datos pueden variar libremente. a uno de los cuales se aplica un estímulo experimental y el otro se emplea como grupo control). una por cada variable. Para expresarlo en forma simplificada. El estadístico W.S.

es decir. también llamadas independientes. El análisis de varianza no es solamente un método estadístico. la 2° hipótesis de la homogeneidad de la varianza. establece que existe diferencia entre las medias de los distintos grupos. Es decir. las varianzas <Dentro> y <Entre> de la misma población. La cuestión es que las medidas de la variable dependiente se conciben como aquellas que tienen dos o más componentes y la tarea del análisis de varianza consiste en determinar las contribuciones relativas de estos componentes a la variación de la variable dependiente. La segunda se emplea para medir propiedades. . la dispersión de las puntuaciones en cada grupo en particular. Las hipótesis 1° y 3° dependen de los adecuado del diseño experimental. El análisis de varianza exige el cumplimiento de varias hipótesis. Propiedades. Muestras. La prueba de ANOVA tiene dos estimadores (media y desviación estándar). no es necesario realizar varios cálculos para las diferentes combinaciones. siendo esto la dispersión de las medias de los grupos. Siendo la primera de estos niveles. ANÁLISIS DE VARIANZA (anova).Los niveles de medición para esta prueba son de Intervalo y de Razón. Es una técnica y una forma de pensar. La hipótesis nula propone que los grupos no difieren en forma alguna entre sus medias de forma significativa entre sí. aquella en donde a la propiedad se le asignan números y la escala se caracteriza por tener unidades constantes. así como no correlacionadas o no pareadas. El tipo de muestras que se pueden trabajar con esta prueba son: Correlacionadas o pareadas. es una prueba para analizar sí más de dos grupos de estudio difieren significativamente entre sí. El análisis de varianza permite el empleo de una cantidad de diseños sofisticados de los cuales podemos obtener un máximo de información. La ventaja de éste método es que toma en cuenta el total de las interrelaciones de los grupos y por tanto. Es también una de las muchas expresiones de lo que se llama modelo lineal general. Hipótesis. en cuanto a sus medias y varianzas. La hipótesis de investigación a la cual llamaremos “general” en este proceso.

ordinal. El ANOVA se puede describir mediante la siguiente forma del modelo lineal: X=µ+t+E X-µ=t+ E El cual revela que cualquier medición dada (x) difiere de la media poblacional (µ) en una cantidad que se debe a los efectos combinados del tratamiento (t) el cual se sometió a la unidad experimental y de la variación natural o residuo (E). I.Diseño Estratificado. por lo tanto si el tratamiento no produce efectos. son del tipo independientes y dependientes. por ejemplo: nivel socioeconómico (muy alto. 2. Análisis de Varianza para una Clasificación Simple y bivariada.). La variable independiente es categórica y la dependientes de intervalo o de razón. medio. Las variables que están relacionadas con ANOVA. El ANOVA unidimensional produce un valor conocido como “F” o razón F (Snedecor) que se basa en una distribución muestral.. El diseño estratificado o jerárquico es muy útil en numerosas situaciones de investigación psicológica. etc. . antigüedad en la empresa (de 0 a 1 año. así mismo puede ser una variable nominal. Este diseño forma parte de los diseños de experimentos más sofisticados.Variables Involucradas. Básicamente este diseño es una extensión del análisis del análisis de varianza simple.). bajo etc.Diseño Aleatorizado. alto. TIPO DE DISEÑOS.. por intervalos o de razón. la variable debe reducirse a categórica. Niveles de Medición. En el modelo aleatorizado. más de 5 años. utilizados comúnmente para el análisis. entonces t será nulo. pero en estos últimos dos casos. Significa que la variable independiente puede formar grupos diferentes. primero se selecciona la muestra por un número de individuos y luego son asignados aleatoriamente a los grupos de estudio.

en una gran muestra representativa de alguna población afectada por algún fenómeno psicológico. a0 es el término común a todos los sujetos. que se desea estudiar. que cuando no esta presente. la cual se emplea para reducir el error que proviene de la heterogeneidad de los factores ambientales en el terreno experimental. entre dos o más factores. puede ayudar a reducir la suma de los cuadrados (sc) de los residuos y aumenta la posibilidad de detectar diferencias reales entre las medias de los tratamientos. Aplicado a psicología. al examinar las diferencias entre los efectos de cuatro tipos de factores. tiene sus orígenes en la investigación agronómica. es un método estadístico que analiza los efectos independientes e interactuantes de dos o más variables independientes sobre una variable dependiente.3. B es el efecto de otra variable independiente. El modelo matemático se apoya en un modelo lineal siendo de la siguiente forma: Y = a0 + A + B + AB + e En el caso de dos variables. En ciertos casos experimentales. se toman del mismo modo los factores ambientales. 4. Por ejemplo. esto permite la detección de los efectos de “interacción”..Diseño Factorial. Un diseño factorial permite en esencia la separación y la evaluación de los factores de cada uno de los dos (o más) factores que afectan una sola unidad experimental. AB es el efecto de ambas variables trabajando conjuntamente o interactuando y e es el error. los bloques pueden establecerse en el área experimental y cada uno de ellos cuatro factores puede ser asignado aleatoriamente a cada uno de los cuatro factores experimentales que conforman el bloque. Este tipo de diseño de ANOVA. Un modelo de tres variables independientes tendría la siguiente forma: Y = a0 + A + B + C + AB + AC + BC + ABC + e La diversidad de los experimentos factoriales que pueden encontrarse en la experimentación psicológica es muy grande. entendiéndose por interacción. Además. donde y es el puntaje de un individuo sobre la variable dependiente.Diseño de Bloques Aleatorios.. la media general A es el efecto de la variable independiente. que el factor A puede tener efectos distintos cuando actúa en presencia del factor B. . El análisis factorial de la varianza. éste diseño de bloques.

En conclusión. Qué las distribuciones son simétricas respecto al mismo punto. Única posibilidad de uso. En las pruebas no paramétricas. 3. Son más sencillas de aplicar. pero si se requiere que las variables que representan a dichas mediciones (porcentajes u observaciones) sean variables continuas. (Debido al tamaño de la muestra). 4. rangos. 4. Las hipótesis que se establecen van relacionadas a: 1. Validas para datos expresados en rangos. (Se requieren pocos conocimientos matemáticos). Rapidez de aplicación. Cuando se ha logrado por lo menos una medida ordinal. Útiles cuando dos conjuntos de observaciones proceden de distintas poblaciones. Útiles a un nivel de significación determinado. cuando el tamaño de la muestra es pequeño. Considerar que la distribución es continua. Que las poblaciones tienen la misma forma. la U puede emplearse para probar si dos grupos independientes han sido tomados de la misma población. Campo de aplicación (Hipótesis menos detalladas). 5. no se hace referencia acerca de la forma exacta de la población de la que se obtienen las muestras. (Operaciones: restas. 1. conteo etc. es decir. 3. las pruebas no paramétricas son: 1.PRUEBAS NO PARAMÉTRICAS. 3. sumas. PRUEBA “U” DE MANN WHITNEY.). 2. facilidad de aplicación. La prueba U de Mann Whitney es una de las pruebas no paramétricas mas poderosas y constituye una alternativa cuando el investigador desea evitar suposiciones que otro tipo de pruebas exige o en el caso de que la investigación sea más vaga que la escala de intervalo. Ventajas y Desventajas de estas pruebas. estas hipótesis nunca determinan por completo la distribución de la población como lo es el caso de la curva normal. cuyos tamaños no requieren ser el mismo. Simplicidad de deducción. Sin embargo. La existencia o no de empates de los intervalos . se aplica con muestras aleatorias extraídas independientemente. 2. 2.

ya que está ignora las magnitudes de las observaciones pareadas provocando desviaciones con respecto a la hipótesis nula (Ho:). Para una prueba de dos colas. La prueba U es el equivalente no paramétrico de la prueba “t” de Student. pero las varianzas de las dos muestras no cumplen con una igualdad de la prueba de la varianza. Supongamos que tenemos muestras de dos poblaciones A y B. 2. . 3. luego entonces la hipótesis de investigación será: p(a > b) > ½. La hipótesis nula supondrá que A y B tienen la misma distribución. una hipótesis direccional. la hipótesis de investigación sería p (a > b ) ≠ ½. la confirmación de esta hipótesis implicaría una capacidad de B más alta que la de A. Cuando los datos están solamente en un nivel Ordinal. Si el valor observado de U tiene una probabilidad asociada igual o menor que α. Si los datos son de intervalo o de razón. Si los datos son de intervalo o de razón.jerarquizados (rangos) no influye o altera el resultado. frente a la cual probamos la hipótesis nula (H0:). La U elimina parcialmente la pérdida de información. teniendo en cuenta el signo algebraico para los valores negativos. se ordenan por rangos de acuerdo a valores crecientes en magnitud. causada por algunas pruebas estadísticas como lo sería la de “Signos”. se rechaza la H0: y se acepta la H1:. para datos independientes bajo las siguientes circunstancias: 1. se puede predecir que B es estocasticamente más grande que A. Todas las puntuaciones de la distribución en conjunto. Mientras que la hipótesis de investigación (H1:). una desventaja es que posee una baja efectividad estadística. Hipótesis. El estadístico U emplea las magnitudes relativas de las observaciones y es equivalente a la propuesta en forma independiente a la propuesta en forma independiente de Wilcoxon. cuando se compara a dos distribuciones poblacionales. para una predicción de diferencias que no asevera la dirección. pero están distribuidos anormalmente (Ejemplo: están severamente sesgados). Aunque tiene muchas ventajas. establece que A es estocasticamente mayor que B. Por supuesto. Sustituto. Propiedades.

de ambos grupos para clasificarlos de menor a mayor. Si las dos distribuciones poblacionales son más o menos similares. Entonces podemos llamar a un grupo 1 y al otro grupo 2. puede determinarse con la tabla correspondiente. La prueba U aplica combinando las observaciones o puntajes.La hipótesis nula establece la analogía de las distribuciones poblacionales y en cierta forma la igualdad de las dos medias o medianas. La prueba se emplea cuando los datos que se comparan en los dos subconjuntos corresponden a una medición ordinal (ejemplo: escalas de actitudes). La escala nominal se emplea en variables que resultan imposibles contar en forma como el genero. se deberá calcular la Ú y transformarse en U. Sea n1. Los tipos de variables en este proceso no paramétrico son del tipo Nominales y Ordinales. Si la U observada no aparece en la tabla. el número de casos del más pequeño de los dos grupos independientes y n2 el número de casos del más grande. Considerando n1 el grupo experimental y n2 el grupo control. Variables Involucradas y Escalas. En la que se establece: No hay diferencia estadísticamente significativa entre los valores de ambos grupos. la primera establece orden y jerarquía entre las categorías con intervalos iguales de medición y la segunda puede aplicar operaciones matemáticas. y cuantificar el número de elementos existente en 1 y 2. . dependen del tamaño de n2 de la siguiente forma: a) Si n2 es de ocho o menor. Desarrollo. la probabilidad exacta asociada con un valor tan pequeño como el valor observado de U aparece en la tabla correspondiente a este caso. cuando se pueden hacer comparaciones de mayor y menor o superior e inferior. la U es una prueba excelente de la tendencia central. con la siguiente formula: U = n1n2-Ú b) Si n2 está entre 9 y 20 datos. se aplica el valor de “p” obtenido en la tabla. Para determinar la asignación del valor observado de U. Cuando el valor observado de U sea mayor que n1n2/2. se trata de Ú y hay que usar la formula anterior para su transformación. la asignación de cualquier valor de U. color de piel. En la escala nominal se atribuyen números de categorías mutuamente excluyentes. tanto en forma como en variabilidad. Para una prueba de dos colas.

da mayor peso al “par” que muestra una diferencia grande entre las dos condiciones qué el “par” que exhibe una diferencia pequeña. se puede deducir que el tratamiento A difiere del tratamiento B. Propiedades. algunos de los rasgos mayores procederán de las diferencias positivas mientras que otros procederán de las diferencias negativas. . no es raro que el investigador pueda: a) Saber cual de los dos miembros de un par es mayor. Este estadístico tiene un alto grado de eficiencia entre las pruebas no paramétricas. Para una prueba de dos colas. se duplica la “p” que aparece en la tabla. para datos pareados. puede usarse para analizar un experimento de diferencias pareadas o correlacionadas. Si partimos de que los tratamientos A y B son equivalentes. es decir. el investigador puede usar esta prueba. procedente de dos pares. es decir. Esta prueba para datos correlacionados es un sustituto no paramétrico de la prueba “t” de Student. PRUEBA “T” DE WILCOXON.c) Si n2 es mayor que 20 la probabilidad asociada con el valor tan extremo como el valor observado de U. a través de las diferencias pareadas de los tratamientos A y B. Pero si la suma de los rangos positivos es diferente a la de los rangos negativos. Con tal información. Esta prueba propuesta por Wilcoxon. Es decir. así como la dirección de las diferencias. es la de mayor utilidad para el científico conductual. Hipótesis. b) Clasificar las diferencias por orden de tamaño absoluto. entonces Ho: es verdadera. considera la magnitud relativa. Sustituto. La prueba de la suma de rangos propuesta por Wilcoxon. puede determinarse calculando el valor de Z dado en la formula y se compara. es decir. puede hacer el juicio de “mayor que” entre las ejecuciones de cualquier par y también entre los puntajes de dos diferencias cualesquiera. Del mismo modo el estadístico T puede emplearse en muestras para datos no pareados empleando el estadístico U. Con datos conductuales de esta disciplina. de esta manera rechazamos la Ho:. La prueba T de Wilcoxon de rangos igualados y rangos señalados. indicar el signo de la diferencia en cualquier par.

se deberá encontrar la región de rechazo para T. tales como: la normalidad y la homogeneidad de las varianzas de los tratamientos en su lugar se puede emplear estadísticos no paramétricas. esto parece equivalente a pedir una medición con la fuerza de una escala métrica ordenada. pero también es útil cuando los datos son irregulares. Si alguna de las diferencias son nulas. Análisis de Varianza No Paramétrico. es similar al análisis de varianza unidimensional. a la siguiente el 2. Es sencillo y efectivo. Aquí se estudian dos formas básicas: los análisis de varianza unidimensional y bidimensional o de medidas repetidas. etc. mayor será el peso de la evidencia a favor del rechazo de la hipótesis nula. El requisito de información es Ordinal. La prueba de Kruskall Wallis es de gran utilidad en esas situaciones. que corresponde a la menor de las sumas de los rangos ordenados. Si el valor de T es menor. Existen en ocasiones situaciones de investigación en las cuales la única forma de medición posible es el orden por rangos o medición ordinal. sino también de las diferencias entre los pares. Es decir. se calculan las diferencias de los “n” pares. se emplea el estadístico T. A la diferencia cuyo valor absoluto es menor se le asigna el rango 1. Los métodos no paramétricos de análisis de varianza. de que las frecuencias relativas de las dos poblaciones son iguales. en situaciones en las cuales el . Si no se cumplen las suposiciones del análisis de varianza del método paramétrico. En cuanto a su fuerza una escala métrica ordenada se halla entre una escala ordinal y una escala de intervalos. aunque sujetos al rango.Para probar la hipótesis nula. Variables y Escalas. El Método de Kruskall Wallis. Para efectuar la prueba de Wilcoxon. Método. al igual que muchos otros no paramétricos dependen de la asignación del rango. Ahora se calcula la suma de los rangos asignados de las diferencias positivas y la suma de los rangos asignados a las diferencias negativas. no sólo dentro de los pares. PRUEBA H DE KRUSKALL WALLIS. Para probar la hipótesis nula de que los histogramas de frecuencias relativas de las dos poblaciones son iguales. se eliminan y se reduce el valor de “n”.

experimentador quiere expresar respuestas cualitativas en términos cuantitativos. al menos un grupo es diferente. El análisis de varianza de dos clasificaciones es útil para probar la hipótesis nula de un número “k” de muestras.3 y 4. si por el contrario el orden de los rangos se da en las columnas. Sustituto. se prueba la diferencia entre las filas. La H. Hipótesis. Variables Involucradas. La hipótesis nula establece que no existe diferencia alguna entre las medidas de los distintos grupos. Es importante recordar el hecho de que este método pierde importancia estadística. el número de casos es el mismo en cada una de las muestras. Puesto que las muestras han sido igualadas. apoyada en un modelo para evaluar el significado de esas diferencias. se puede utilizar una forma de análisis de varianza unidimensional. El orden por filas (hileras) prueba la diferencia entre las columnas. si existe diferencia entre grupos. El caso contrario la hipótesis de investigación dirá.2. Cuando los mismos sujetos son observados más de una vez. La igualación puede hacerse . se emplea cuando se desea saber. Propiedades. que han sido extraídas de la misma población. a medida que el número de grupos disminuye. La variable relacionada con esta prueba es del tipo Ordinal. por lo tanto ésta es una prueba de apoyo para la significación. Propiedades. La H se distribuye aproximadamente como la Chi Cuadrada ( χ 2 ). También puede emplearse un análisis de varianza bidireccional del orden de rangos. Esta prueba para datos no correlacionados es un sustituto no paramétrico de la prueba análisis de varianza bidimensional Aleatorizado. cuando los datos están por lo menos en una escala Ordinal. evaluando con una escala arbitraria tal como 1. PRUEBA χ 2 DE FRIEDMAN.

La primera es que es una variable aleatoria y no asume valores negativos. Las comparaciones más sencillas se relacionan con solamente dos categorías. cuando N o K o ambas son grandes. así como de una escala de intervalo. Variables y Escalas. La segunda es que la distribución Chi cuadrada. Esta técnica no paramétrica es esencial cuando se trabaja con variables categóricas y no variables cuantitativas. aprueba/reprueba. sino que estamos contando. cuántos elementos puede incluirse en cada una de varias categorías descriptivas. La región de rechazo consiste en que todos los valores de χ 2 son tan grandes. los datos se colocan en una tabla de dos clasificaciones con “N” filas y “K” columnas. si/no. por ejemplo: hombre/ mujer. Sustituto. Es una medida de la discrepancia que existe entre las frecuencias observadas y las esperadas. sólo depende de los grados de libertad y la tercera es que la distribución . cuando no estamos midiendo una cantidad para cada elemento de la muestra. Las filas representan a los diferentes sujetos o conjuntos de sujetos igualados y las columnas representan las diferentes condiciones. Para la prueba de Friedman. El requisito de la escala es Ordinal. PRUEBA χ 2 CHI O JI CUADRADA.estudiando el mismo grupo de sujetos en cada una de las “k” condiciones o se puede obtener varios conjuntos. es decir. Esta prueba para datos no correlacionados es un sustituto no paramétrico de la prueba análisis de varianza bidimensional por bloques. Método. sencillo/complejo. Hipótesis.05. etc. Al calcularse χ 2 su distribución muestral es aproximadamente como la de la prueba Chi cuadrada con grados de libertad K-1. que la probabilidad asociada con su ocurrencia conforme a la hipótesis nula es igual o menor que alfa igual a 0. Propiedades.

Son el número N de observaciones independientes en la muestra ( es decir. . menos sesgo se presenta. según una escala de actitud. Los grados se determinan en general. Nominales y Ordinales. si hay asociación entre dos variables cualitativas. el tamaño muestral) menos el número K de parámetros de la población que deben estimarse a partir de las observaciones de la muestra. Sustituto. y para cuando se analizan variables establece que no hay asociación entre las variables. debido a los datos categóricos. es decir. las frecuencias esperadas se determinan asignando la mitad de las respuestas <si> y la mitad de las respuestas <no> a cada uno de los dos grupos. Cuanto mas grados de libertad se tienen. El estadístico χ 2 se emplea para comprobar si una distribución difiere de alguna distribución teórica previamente establecida.Chi Cuadrada. Parecido sin tener ninguna relación con el análisis de varianza factorial. La hipótesis nula establece que no hay diferencia en la proporción de la variable en todos los grupos. Para el caso en que sólo intervenga el azar. está siempre sesgada a la derecha. mediante la expresión: gl = (r-1) (c-1) siendo: r = El número de renglones o filas de la tabla y c = El número de columnas de la tabla de contingencia. Grados de Libertad. En el caso de este estadístico. La aplicación se lleva a cabo a dos grupos o variables las cuales arrojan datos. con las cuales se calcula el valor de “s”. Variables y Escalas. el número de observaciones independientes en la muestra es N. Las variables y las escalas que maneja está prueba son del tipo categóricas es decir. Hipótesis. puesto que ambos son de igual tamaño.