You are on page 1of 20
4,.ESTADISTICA NO PARAMETRICA. 4.1 :Qué es la Estadisticn No Paramétriea? ‘Una prueba estadistica no paramétrica esta basada en un modelo que especifica solo condiciones muy generales y ninguna acerca de la forma especifica de la distribucién de In cual fue obtenida Ia muestra, Ciertas suposiciones estén asociadas con la mayoria de las pruebas no paramétricas, a saber: que las observaciones son independientes y quiz que Ia variable en estudio es continu; pero estas suposiciones son menores y més débiles que ‘aquéllas asociadas con las pruebas paramétricas. Los procedimientos no paramétricos prueban diferentes hipétess acerca dela poblacién, que los procedimientos paramétricos no hacen. Por itimo a diferencia de las pruebas paramétricas, existen no paramétricas que pueden aplicarse apropiadamente a datos medidos en una escala ordinal, y otras pruebas para datos ‘en una escala nominal o categérica, 1 Ventajas y desventajas de la Estadistica No Paramétrica. ‘Como todo tiene su pro y su contra en la estadistica no paramétrica no hay excepciones. En los siguientes puntos podemos observar las ventajas y desventajas que nos trae el utilizar la estadistica no paramétrica. 4.1.2 Ventajas deta Estaistica No Paramétrica, 1. Sil tamaio dela muestra es muy pequefo, puedé no haber ora opcin que usar una prueba extadstica no paramiérca, a menos que Ia naturalea de a istribucion de la pobacin se conozca con exacttd 2. Las prucbas no parameticastpiamente hacen menos suposiciones acerca dels datos Y pueden ser mis relevantes a una stuaion particular. Ademés, las hipétesisprobadas or una prusha no paramética pueden ser més adeoueds para i inventgacon, 3. Los mésodos no paramétios estin disponibles para tratar datos que son simplemente clasitiatrios categéricos, es decir, que son meds en una escala nominal, Nnguna téonica prameétrca se alia a tales datos 4. Enisten pruchesestaistoas no paramétias que son adecuadas para tratar muestas btenidas de observaciones de diferentes poblciones, Las prucbas paraméticas @ menudo no pueden manipular tales datos sin exigimos hacer suposiciones aparentemente reales o requisitos pesados de computacion, 5. Las prachasestaisicas no paramétricastpicamente son mis ficiles de aprender_y aplicar que la procbas paramétricas. Ademés, su interpretacion suele Ser mis directa que la intrpretacion de las pruebas parametrics. 4.13 Desventaja dela Estaistica No Paramétrica 1. Una objecion alas prucbas estadsias no parametricas es que no son sstemiticas, mientras qu las pruchasextadisticas paramétices han sido sistematizadas y diferentes pruebas son simplemente varaciones de un tema central 2. Otra objecion a las prucbas estadisticas no paramétricas se relaciona con la conveniencia, esto se debe a que no se tiene uita distribucién fija para este tipo de estadistica, por lo que en ocasiones puede ser un problema el elegir la adecuada. Las tablas necesarias para aplicar las pruebas no paramétricas estan muy difundidas y apareven en diferentes formatos, 1o que podiia ocisionar alguna confusion en el invesigador 6 la persona que este aplicando alguna prucba de la Estadstica No Paramétrica, 4.2 Herramientas de la Estadistica No Paramétrica 4.2.1 Prueba de cambio de MeNemir La prueba de McNemar para la significacion de los cambios es particularmente aplicable 4 los disefios “antes — después”, en los cuales cada sujeto se utiliza como su propio control yen los que las mediciones se reelizan ya sea en escala nominal u ordinal" En estas condiciones puede emplearse para probar Ia efectividad de un tratamiento particular (reuniones, editorial en los diarios, discursos en campafia, etc.) sobre las preferencias de los votantes acerca de los candidatos a puestos piiblicos. Notese que en estos estudios las personas pueden servir como su propio control y que la escala nominal se utiliza de manera adecuada para evaluar el cambio “antes - después" 4.2.2 Pracba de los signos La prueba de los signos es aplicable al caso de dos muestras relacionadas cuando el investigador desea establecer que dos condiciones son diferentes, La tinica suposici6n que | tnuendemn por escala nominal: 1 medion en su nivel més dil existe cuando lor mimeros ‘otros simbolos se usan simplemente para clasfcar un objeto, una persona o una caracteritica “Por escala ordinal tenemos que puede suceder que los objeos en una categoria de wna escala no sean tan silo dferentes de los objets en otras categoras de esa escala, sino que también exsia agin tipo de ‘elocién enre ellos. Las relactonestpicas entre las class son: més alto, mis preferid, et.” subyace a esta prueba es que la variable estudiada tiene una distribucién continua, La prueba no hace suposiciones acerca de la forma de la ibucién y tampoco supone que los sujetos pertenecen a una misma poblacién, Los diferentes pares pueden pertenccer a diferentes poblaciones en cuanto edad, sexo, inteligencia, etc, el nico requisito es que dentro de ciida par, el investigador haya igualado respecto a las variables extrafias relevantes. a 4.2.3 Prueba de rangos asignados de Wilcoxon La prueba de los signos utiliza informacién sélo en términos de la direccién de las diferencias en cada uno de los pares analizados. Si se consideran tanto la magnitud relativa como la direccién de las diferencias, se puede utilizar una prueba més poderosa. La prueba dde los rangos asignados de Wilcoxon adjudica mayor peso a los pares que muestran mayores diferencias entre las dos condiciones, més que en los pares cuya diferencia es pequeita La prueba de Wilcoxon se aplica con bastante éxito en las ciencias de la conducta. Con datos conductuales, es comin que se pueda: 1, Determinar cudl miembro del par es “més grande que” (determinar el signo de la diferencia entre cualquier par) y 2. Establecer rangos en las diferencias en orden de tamatlo absoluto. Esto es que se pueden hacer tanto como acerca de las diferencias entre dos pares cualesquiera, Con esta informacion se puede utilizar la prueba de Wilcoxon. 4.2.4 Prueba exacta de Fisher para tablas de 2x 2 La prueba de la probabilidad exacta de Fisher para tablas de 2 x 2 es una técnica extremadamente satisfactoria para analizar datos discretos (tanto nominales como ‘ordinales) cuando dos muestras independientes son pequefias. Se usa cuando dos puntuaciones, de dos muestras independientes al azar caen dentro de una de dos clases mutuamente excluyentes. En otras palabras, cada sujeto en cada grupo ‘obtiene una de dos puntuaciones posibles, las cuales son representadas por frecuencias en luna tabla de contingencia de 2 x 2, como en la tabla 1.1. Los grupos Iy II pueden ser una de dos variables independientes, tales como experimental y control, hombres y mujeres, empleados y desempleados, demécrata yrepublicanos, padres y madres, ec Los encabezados de los renglones, aqui indicados arbitrariamente como més (+) y menos (-), pueden tener cualquiera de dos clasificaciones: por arriba y por abajo de la ‘media, acertaron y erraron, ciencias mayores y artes mayores, acuerdos y desacuerdos, etc. La prueba determina si los dos grupos difieren en las proporciones en donde caen dentro de cualquiera de las clasificaciones. Para los datos de Ia tabla 1.1 (donde A, B, C, yD denotan frecuencias), determinaria si los grupos I y Il difieren significativamente en la proporcién de signos més (+) y signos menos(-) pertenecientes a cada grupo. Variable 1 0 Combinacién + A B ASB - c D c+D Toul | A+C BHD |" ON 1s Tabla 1.1 Tabla de contingencia de 2 x 2 4.2.5 Prueba dela mediana La prueba de la mediana es un procedimiento para evaluar si dos grupos independientes difieren en sus tendencias culturales. Mas precisamente, esta prueba nos proporciona informacién acerca de que tan probable es que dos grupos independientes (no necesariamente del mismo tamafio) hayan sido extraidos de la misma poblacién con la ‘misma mediana, La hipétesis nula plantea que los dos grupos son la misma poblacion y tienen la misma mediana; ta hipétesis altema puede plantear que la mediana de una poblacién es diferente de la otra poblacién, o que la mediana de una poblacién es superior que la de la otra poblacion. La prueba puede utilizarse cuando las puntuaciones de los dos grupos se miden en, al ‘menos, una escala ordinal Se notaré que puede no existir una prueba alterna a Ia prueba de la mediana, ain para datos en escala de intervalo. Esto podria ocurtir evando una o mis de las observaciones estén “fuera de la escala” y truncadas hacia el méximo (0 minimo) de las observaciones previamente asignadas. 4.2.6 Prueba de Wilcoxon - Mann - Whitney Esta prueba puede utlizarse para evaluar si dos grupos independientes fueron extraidos de Ja misma poblacién, si de las variables en estudio se han obtenido datos en, al menos, ‘scala ordinal, Esta es una de las pruebas no paramétrices més poderosas y constituye una opcién bastante buena a la prueba t cuando el investigador desea evitar supuestos de la prueba t 6 cuando las mediciones de la investigacién se encuentran en una escala inferior a la de intervalo. ‘Suponiendo que se tienen muestras de dos poblaciones, X y Y. La hipdtesis nula es que X y Y tienen la misma distribucién. La hipétesis altema es que X es estocésticamente ‘mayor que Y, una hipétesis unidireccional. : ‘Podemos aceptar Hi si la probabilidad de que una puntuacién de X sea mayor que una puntuacién de ¥, es mayor que %. Esto es, si X es una observacién de la poblacion de X y YY es una observacién de la poblacién Y, entonces, Hi es P(X>Y) > 4. Si las evidencias apoyan Hi, esto implica que la mayor parte de los elementos de la poblacién X es mayor que la mayor parte de los elementos de la poblacién Y. En este orden de ideas, la hipétesis mula ¢s Ho: P(X>Y) =%. Por supuesto que las hipotesis pueden plantearse de manera contraria, favoreciendo a la poblacién de Y. 4.2.7 Anélisis de la varianza unifactorial para rangos de Kruskal — Wallis El andlisis de la varianza unifactorial por rangos, de Kruskal - Wallis, es una prueba ‘extremadamente siti para decidir sik muestras independientes provienen de diferentes Poblaciones. Tos valores de In muestra invariablemente difieren de alguna manera, y Ia Pregunta es si la diferencias entre las muestras significan diferencias genuinas en Ia poblacién o si solo representan la clase de variaciones. que pueden esperarse en muestras 10 que se obtiene al azar de la misma poblacién, La técnica de Kruskal-Wallis prueba la hipétesis nula de que las k muestras provienen dé'la misma poblacién o de poblaciones idénticas con la misma mediana, Para especificar explicitamente las hipétesis mula y alterna, 6; debe ser Ia mediana de Ia poblacién para el j-ésimo grupo o muestra Entonces podemos escribir la hipétesis nula de que las iedianas son las. mismas como Ho 61 = 61.04; yl hiptesis alterna puede ser escrita como Hy: 6; #6; para algunos grupos iyi Esto es, sila hipétesis alterna es verdadera, al menos un par de grupos tienen medianas diferentes, Segiin la hipétesis nula, la prueba supone que las variables en est nen Ta misma distribucion subyacente; ademas, requiere que las mediciones de la variable se encuentren, al menos, en escala nominal 4.28, El coeficiente C de Cramér El coeficiente C de Cramér es una medida del grado de asociacién o relacién entre dos series de atributos 0 variables. Se usa inicamente cuando tenemos s6lo informacion categérica (escala nominal) acerca de uno o de ambos conjuntos de atributos o variables. Esto es, puede emplearse cuando la informacion acerca de los atributos consiste en una serie no ordenada de categorias. Para usar el coeficiente de Cramér, no es necesario suponer continuidad subyacente para las diferentes categorias usadas al medir uno o ambos conjuntos de atributos. De hecho, no necesitamos siquiera ser capaces de ordenar las categorias en alguna forma particular. El coeficiente de Cramér, al ser calculado de una tabla de contingencia, proporciona los rmismos valores sin considerar cémo fueron ordenadas las categorias en filas y columnas. n 4.2.9 Coeficiente Phi para tablas 2 x 2: re El coeficiente phi res una evaluacién de la asociacin o retacién entre dos conjuntos de atributos medidos en una escala nominal, cada uno de los cuales pueden tomar solo dos valores. De hecho, es idéntico en valor al voeficiente de Cramér. 4.2.10 Coeficiente de correlacién r, de Spearman de rangos ordenados _e todos los estaditicosbasados en rangos el coefciente de coreacionr, de Spearman de rangos ordenados, fue el primero en desarrollarse y .quizi sea el mejor conocido actualmente. Es una medida de asociacion entre dos variables que requiere que ambas estén medidas en al menos una escala ordinal, de manera tal_que los objetos 0 individuos en estudio puedan ser colocados en rangos en dos series ordenadas. 43 Procedimientos 4.3.1 Prueba del cambio de MeNemar Con este método para probar Ia significacién de cualquier cambio observado, se utiliza tuna tabla de 2 x 2 para representar el primero y el segundo conjuntos de respuestas de los mismos individuos. Los rangos generales de dicha tabla se muestran en la tabla 1.2, en donde + y— se usan para denotar diferentes respuestas. Nétese que todos aquellos casos que muestran cambios entre Ia primera y la segunda respuestas aparecen en las celdillas superior izquierda (de + a -) ¢ inferior derecha (de — a +) de la tabla, Las entradas en Ia tabla corresponden alas frecuencias (ocurrencias) de los resultados asociados. Asi A denota el nimero de individuos cuyas respuestas fueron + en la primera medicion y ~ en Ia segunda medicién, De manera similar, D es el nimero de individuos quienes cambiaron de — a+. B es la frecuencia de individuos que respondieron + en ambas ocasiones, y C es el niimero de personas que respondieron — en la primera y la segunda evaluaciones. R Asi, A +D es el total de personas cuyas respuestas cambiaron. La hipétesis nula es que el nimero de cambios en cada direccion es el mismo: ‘Asi es que de A + D individuos que cambiaron, nosotros esperariamos que (A + D)’2 individuos cambiaran de + a—y (A + D)?2 personas cambiaran de ~ a+. En otras palabras, cuando Ho es verdadera, la frecuencia esperada en cada una de las dos celdillas es (A + DY2 a Después ~ + + A B Antes - c D Tabla 1.2. Tabla de 2x 2 utilizada en la prueba de significacién de los cambios. En la prueba de McNemér para la significacion de los cambios, estamos interesados solo en las celdllas en las cuales pueden ocurrir cambios. Asi, si A es el nimero de casos observados cuyas respuestas cambiaron de + a -, D es el niimero observado de casos que cambiaron de ~ a +, y (A + Dy2 es el nimero de casos cesperado en las celdillas Ay D. Entonces P=DO-bY B Donde: nimero de casos observados en la i-ésima categoria E,= mimero de casos esperados en la isima categoria cuando Ho es verdadera k= nimero de categorias [4-Us Dyof , [b-(4+Dy af (py * (spy2 - Deserrollando y reduciendo términos, tenemos que con gl=1 we =D AvD 43.2 Prueba de los signos ‘La hipotesis nula evaluada por la prueba de los signos es si PIX Yi] = PIX<¥i] =% Donde. Xi, ¢s el juicio o puntuacién de acuerdo con una condicién y Yi €s el juicio 0 puntuacién de acuerdo con la otra condicién. Esto es. Xi y Yi son las dos puntuaciones obtenidas por cada miembro de la pareja. Otra manera de plantear la Hy es la siguiente: ta ‘mediana de las diferencias entre X y Y es cero. Durante Ia aplicacion de la prueba de los signos debemos prestar especial atencién a la direccion de la diferencia de cada X; y Yi, notando donde el signo de la diferencia es positivo 0 negativo (+0 -). Cuando Hy es verdadera, debemos esperar que el nimero de pares donde X; > Yi sea igual al nimero de pares donde X; < Yi, Vale decir, nla fuera verdadera, esperariamos que alrededor de la mitad de deferencias fuera positiva y le otra mitad fuera negativa. Se rechaza Ho si ocurén pocas diferencias con el mismo signo, 4.3.3 Prueba de rangos asignados de Wilcoxon La diferencia de las puntuaciones entre los miembros del par igualado (4) representa la diferencia entre las puntuaciones del paren ls tratamientos (X y Y), esto es, = Xi Yi Para utilizar la prueba de Wilcoxon, se deben de poner en columna todas las diferencias sin tomar en cuenta el signo. Adjudicar el rango 1 a la d; més pequefa, el rango 2 a la siguiente mas pequefia y sucesivamente. Cuando se tiene que decidir el rango entre un -1 y un +2 6 -2, el més pequefio sera —1 Entonces, a cada rango se debe de afadir el signo de la diferencia, Asi podemos indicar ¢ identificar los rangos de las diferencias positivas, de los rangos de las diferencias negativas La hipétesis mula es que los tratamientos X y Y son equivalentes, esto es, son muestras de una misma poblacién, con la misma mediana, Si Ho es verdadera, deberiamos encontrar algunas diferencias a favor del tratamiento X y otras a favor del tratamiento Y. Es decir, si sumamos los rangos que tienen sigo positivo y aquellos con signo negativo, esperariamos que ambas sumas fueran iguales (si Ho es verdadera). Pero, si la suma de los rangos positives es muy diferente de la suma de los rangos negativos, infeririamos que el tratamiento X difiere del tratamiento Y y, por lo tanto, rechazamos a He. Es decir, rechazamos Ho siempre que cualesquiera de las sumas de las diferencias (positivas 0 negativas) sea demasiado pequetia Para desarrolar esta prueba definiremos dos estadisticos: ‘T’ = suma de los rangos de las diferencias positivas T = suma de los rangos de las diferencias negativas De lo anterior la suma de todos los rangos es NON + 12, T=N(N + 1)2-T° 434 Prueba exacta de Fisher para tablas 2x2” La probabilidad exacta de observar un conjunto de frecuencias en una tabla de 2 x 2, (ver tabla 1.1) cuando los totales se consideran fijos, esta dada por la distribucion A+C)(B+D ") ee N A+B. hipergeomeétrica: _[4+o ac] (+ Dy B10) “ NUY(A+ BMC + DY La cual representa la siguiente transformacién para faciltar sus eélculos P=(A+B)! (C+d)! (A+)! B+D)!/NIAIBICID! 4.3.5 Prueba dela mediana Para aplicar la prueba de la mediana debemos determinar primero la puntuacién de la mediana para el grupo combinado (es decir, la mediana para todas las puntuaciones en ambas muestras). Después debemos dividir ambos conjuntos de puntuaciones a partir de la ‘mediana combinada y presentar estos en una tabla de 2 x 2, como en la tabla 1.3 6 Iu ‘Combinados No. De puntuaciones combinadas Por debajo de la media ALB ALR. No. De puntuaciones combinadas >. por arriba de la mediana cD Total mon ‘Tabla 1.3 Prueba de la mediana: Formato para los datos. Ahora, si los grupos I y II son muestras de poblaciones cuyas medianas son las mismas, esperariamos que alrededor de la mitad de las puntuaciones de cada grupo estuviera por arriba de la mediana combinada y que ta otra mitad estuviera por debajo, es decir, cesperariamos que tanto las frecuencias de A y C como las de’b y D fueran iguales. Puede demostrarse que si A es el mimero de m casos en el grupo I que cae sobre la mediana combinada y si B es el n nimero de casos en el grupo II que cae sobre la mediana combinada, entonces la distribuciém muestral de A y B segin la hipétesis mula ( Hy es que la mediana son las mismas) es la distribucion hipergeométrica: "7 Por lo tanto, si el nimero de casos en ambos grupos ( m =n ) es pequetio, se puede utilizar 1a prueba de Fisher para probar Ho, Si es grande, se puede utilizar la Ji-Cuadrada con gl=1 para evaluar Hy Para analizar datos individuales se considera lo siguiente: 1. Cuando N= m+ nes mayor que 20, utilizar la Ji-Cuadtada, con la siguiente expresin: X?=NOAD~BC|-N2V/(A + BXC+ DXA +0KB+D) . 2, Cuando N =m + n es igual o menor que 20 utilizar la prueba de Fisher. 4.3.6 Prueba de Wilcoxon-Mann-Wit En una muestra, m es el nimero de casos del grupo X y n es el mimero de casos de la muestra del grupo Y. Suponemos que las dos muestras son independientes, para aplica la prueba, primero debemos combinar las observaciones 0 puntuaciones de ambos grupos ¥ ‘ordenarlos por rangos de manera ascendente, En este ordenamiento se considera el tamafio algebraico, es decir, los rangos inferiores serén asignados a los valores negativos mayores en caso de existr. Enfocdndonos en uno de los grupos por ejemplo X. El valor de Wx que es el estadistico que utiliza esta prueba, es la sumatoria de los rangos del primer grupo. ‘Ademas, de la sumatoria de los rangos para ambos grupos deberia ser igual a la sumatoria de los rangos del grupo combinado. Esto es: Wx + Wy =NONHY/2 Si Ho es verdadera, esperariamos que el promedio de los rangos en cada uno de Jos ‘grupos fueran aproximadamente iguales. Si la sumatoria de los rangos de un grupo es muy ‘grande 0 muy pequefia, entonces tenemos razones para sospechar que las muestras no fueron extraidas de la misma poblacién. 18 4.3.7 Anilisis de la varianza unifactorial por rangos de Kruskal - Wallis. En la aplicacién del anilisis de varianza Unifactorial por rangos de Kruska-Wallis, los datos se presentan en una tabla de doble entrada donde cada columna representa cada grupo ‘© muestra sucesiva. Los datos se arreglan de la siguiente manera: Grupo . 1 2 k Xn Xirne Xe Kar Xap one Xak Kal Xea2an. XaaK Donde X; es el dato para tai ima observacién en el j-ésimo grupo y nj es el nimero de observaciones en el j-ésimo grupo. Para el célculo de la prueba, cada observacién (N ), se reemplaza por un rango, esto es, todas las puntuaciones de todas las k muestras se combinan en una solo serie y se ordenan por rangos en forma ascendente. A continuacion se debe encontrar la suma de los rangos en cada muestra (columna) A partir de estas sumatorias podemos calcular los rangos promedio para cada muestra Si las muestras provienen de poblaciones con la misma mediana, los rangos promedio deberian ser aproximadamente los mismos. La prueba de Kruskal-Wallis evalia la diferencia entre los rangos promedios para determinar si son suficientemente dispares, de tal suerte que no sea probable que las muestras hayan sido extraidas de la misma poblacién, 19 El calculo se obtiene de la siguiente manera: W =e ry BR -RY K =nimero de muestras o grupos . 1, = mimero de casos en la j-ésima muestra - N= niimero de casos en la muestra combinada (la sumd de n) [Ry = sumatoria de los rangos en la j-ésima muestra 0 grupo = promedio de los rangos en la j-ésima muestra o grupo I= promedio de los rangos en la muestra combinada (media general) ‘Cuando hay de k= 3 grupos y cuando el nimmero de observaciones en cada grupo es ‘mayor que cinco, el eéleulo de KW se aproxima con la distribucién Ji-Cuadrada con {g1= k— 1. La aproximacion se mejora cuando se inerementan los valores de k y n ‘Cuando k = 3 y el mimero de casos en cada una de las tres muestras es igual o menor que cinco, las probabilidades asociadas se pueden obtener a través de la tabla para el estadistico KW. 438 Coeficiente C de Cramér Suponiendo que tenemos datos en dos series de variables categéricas no ordenadas; por cconveniencia, denotaremos a estas variables como A y B. Para calcular el Coeficiente C de Cramér entre puntuaciones de dos conjuntos de variables categéricas A, con categorias At, A2,....Ak ¥ B, con categorias Br, Ba,..Br, arreglamos las frecuencias dentro de la siguiente tabla de contingencia (tabla 1.4) ‘Tabla 1.4 Tabla de contingencia Los datos pueden consistir en cualquier nimero de categorias. Es decir, se pueden calcular coeficientes para tablas 2 x 2, 2x 5, 4x4, 3 x 7,0 en general cualquier tabla. rx k En la tabla podemos tener frecuencias esperadas ( Ey), al determinar que frecuencias se esperaria que ocurrieran si no existiera asociacién entre ambas variables, esto ¢s, la frecuencia esperada si las variables fueran independientes 0 no relacionadas. Mientras ‘mayor sea la discrepancia entre es0s valores esperados y los observados, més alto es el ‘grado de asociacion entre las dos variables y por tanto més grande el valor de Coeficiente C de Cramér Para el ciloulo de este coeficiente, tenemos la siguiente expresién: c=) x2/NL-1 Donde: X =D DW, ~ BY Ey ° a Para calcular C, primero debemos obtener el vallor de la uadrada, después, sustituir en la couacién de C. L es el minimo nimero de filas 0 columnas en la tabla de contingencia, El grado de asociacién lo podemos ver en la tabla 1.5. [Existe completa relacion entre las variables Existe una fuerte relacion entre las variables Relacién Moderada entre las variables [Minima o muy pobre la relaciOn entre variables FNo existe ninguna relacin entre las variables ‘Tabla 1.5 Tabla que mide el grado de Asociacion 4.3.9 Coeficiente Phi para tablas 2 x2 Para calcular el coeficiente Phi, los datos se deben de arreglar en una tabla 2 x 2, ‘mostrindose como datos dicotémicos, suponemos que los datos son codificados como cero yuno para cada variable, se puede utilizar cualquier asignacién de tipo binario. Variable _X. Variable ¥ 0 7 Total 0 x B ATE 1 c D c+D Total AtC | B+D N @) eivlicteca Contral Universitaria El Coeficiente Phi para una tabla 2 x 2 se define coino: Cuyo rango puede ser desde cero hasta uno. Este coeficiente esta relacionado con el estadistico X? que se usa para probar la independencia de variables categoricas. Tal como: X?=N(| AD-BC|-N/2)?/(A+B)(C+D)(A+C)(B+D) Como se ha visto para k muestras independientes utiliza gl= 1, el cual prueba si Ho. Es decir, la poblacién de la cual tas variables fueron muestreadas es cero (variables independientes), contra Hh: Las variables estén relacionadas. Si el tamafio de muestra es pequefio, aproxime por la prueba de Fisher, 43.10 Coeficiente de correlacién r, de Spearman de rangos ordenados 1. Hacer una lista de los N sujetos u observaciones 2. Asignar rango para la variable X y para la variable Y 3. Determinar los valores de las diferencias d, = Xi- Yi 4. Obtenga el cuadrado de la diferencia ‘5. Sume todos los valores de los cuadrados 6. Sustituya este valor en la ecuacion ya 2

You might also like