You are on page 1of 16

Los test estadsticos

Indispensables, son pruebas matemticas que se aplican a las estadsticas para determinar su grado de certeza y su significado. Los mtodos estadsticos interferenciales no paramtricos: Son procedimientos matemticos para testar la hiptesis estadstica que, al contrario de la estadstica paramtrica, no hacen ninguna asuncin sobre las distribuciones de frecuencia de las variables que son determinadas. El nivel de medicin puede ser nominal u ordinal. La muestra no tiene que ser aleatoria. La distribucin de la frecuencia no tiene que ser normal. Se puede usar con muestras ms pequeas. Los mtodos estadsticos deductivos paramtricos: Son los procedimientos matemticos para testar la hiptesis estadstica que asumen que las distribuciones de las variables determinadas tienen ciertas caractersticas. El nivel de medicin debe ser racional o intervalar. La muestra debe ser aleatoria. La distribucin de la frecuencia debe ser normal. La variacin de resultados entre cada frecuencia debe ser similar.
Variable de respuesta

Factor de estudio

Cualitativa nominal (dos categoras)

Cualitativa nominal (> 2 categoras)

Cualitativa ordinal

Cuantitativa

Cualitativo (dos grupos) Independientes Z de Chi al comparacin de cuadrado. proporciones. U de MannWhitney. t de StudentFisher. Prueba de

Chi al cuadrado. Prueba exacta de Fisher. Apareados Prueba de McNemar. Prueba exacta de Fisher. Q de Cochran.

Welch.

Prueba de los t de Studentsignos. Fisher para datos Prueba de los apareados. rangos signados de Wilcoxon.

Cualitativo (ms de dos grupos) Independientes Chi al cuadrado. Chi al cuadrado. Prueba de KruskalWallis. Prueba de Friedman. Anlisis de la variancia.

Apareados

Q de Cochran.

Q de Cochran.

Anlisis de la variancia de dos vas.

Cuantitativo

t de StudentFisher.

Anlisis de Correlacin Correlacin de la variancia. de Spearman. Pearson. Tau de Kendall. Regresin lineal.

Cuando las pruebas estadsticas aplicables a las variables cuantitativas no cumplen las asunciones necesarias para su aplicacin, deben utilizarse las pruebas correspondientes como si las variables de respuesta fuera una variable ordinal (pruebas no paramtricas). PRUEBA DE KOLMOGOROV-SMIRNOV Prueba de significacin estadstica no paramtrica para contrastar la hiptesis nula cuando los parmetros de localizacin de ambos grupos son iguales. Este contraste, que es vlido nicamente para variables continuas, compara la funcin de distribucin (probabilidad acumulada) terica con la observada, y calcula un valor de discrepancia, representado habitualmente como D, que

corresponde a la discrepancia mxima en valor absoluto entre la distribucin observada y la distribucin terica, proporcionando asimismo un valor de probabilidad P, que corresponde, si estamos verificando un ajuste a la distribucin normal, a la probabilidad de obtener una distribucin que discrepe tanto como la observada si verdaderamente se hubiera obtenido una muestra aleatoria, de tamao n, de una distribucin normal. Si esa probabilidad es grande no habr por tanto razones estadsticas para suponer que nuestros datos no proceden de una distribucin, mientras que si es muy pequea, no ser aceptable suponer ese modelo probabilstico para los datos. PRUEBA DE F Prueba estadstica que sirve para comparar varianzas. El estadstico F experimental es el estadstico de contraste en el ANOVA y otras pruebas de comparacin de varianzas. TEST DE CHI AL CUADRADO La prueba de Ji-cuadrado es cualquier prueba estadstica de la hiptesis en cul el test estadstico de la distribucin del Ji-cuadrado si la hiptesis nula es verdad. Determina si existe asociacin entre variables cualitativas. Si el p-valor asociado al estadstico de contraste es menor se rechazar la hiptesis nula. Se utiliza para analizar tablas de contingencia y comparacin de proporciones en datos independientes PRUEBA EXACTA DE FISHER (p.- 5%) Permite valorar el efecto del azar. Es una prueba estadstica de significacin usada en el anlisis de los tamaos pequeos categricos de muestra de datos. La necesidad de la prueba de Fischer se presenta cuando tenemos datos que se dividan en dos categoras de dos maneras separadas. Prueba de significacin estadstica utilizada para comparar proporciones en tablas de contingencia. Es preferible a la prueba de x2 cuando el tamao de la muestra es reducido (de menos de 30 efectivos). Es la prueba estadstica de eleccin cuando la prueba de Chi cuadrado no puede ser empleada por tamao muestral insuficiente PRUEBA DE MCNEMAR. Prueba estadstica que sirve para comparar proporciones en datos pareados.

Prueba de significacin estadstica para probar la hiptesis nula de inexistencia de cambios en la proporcin de sujetos que experimentan un acontecimiento, cuando cada individuo es evaluado dos veces (en condiciones diferentes) y los datos estn emparejados. PRUEBA BINOMIAL En estadstica, la prueba binomial es una prueba exacta de la significacin estadstica de desviaciones de una distribucin tericamente prevista de observaciones en dos categoras. El uso ms comn de la prueba binomial es en el caso donde la hiptesis nula es que dos categoras son igualmente probables ocurrir. TEST DE CORRELACIN DE PEARSON Se utiliza para estudiar la asociacin entre un factor de estudio y una variable de respuesta cuantitativa, mide el grado de asociacin entre dos variables tomando valores entre -1 y 1.

Valores prximos a 1 indicarn fuerte asociacin lineal positiva. Valores prximos a -1 indicarn fuerte asociacin lineal negativa. Valores prximos a 0 indicarn no asociacin lineal, lo que no significa que no pueda existir otro tipo de asociacin.

Prueba en una hiptesis nula que las frecuencias relativas de la ocurrencia de acontecimientos observados siguen una distribucin de frecuencia especificada. Los acontecimientos deben ser mutuamente exclusivos. Es una prueba de la calidad de ajuste que establece s o no una distribucin de frecuencia observada diferencia de una distribucin terica. COEFICIENTE DE KAPPA El Kappa es un ndice mnibus de aceptacin en los estudios inter-observadores, indica el grado de interrelacin inter-observador. Permite cuantificar el nivel del acuerdo inter-observador para disminuir la subjetividad del mtodo utilizado (test de movilidad) y si el grado de acuerdo se debe al azar (a la suerte). El porcentaje de acuerdo acompaado del ndice de Kappa se utiliza para las variables cualitativas. Se habla del coeficiente de Kappa de Cohen para dos terapeutas y de Fleiss para ms de dos terapeutas. Este coeficiente est comprendido entre 0 y 1. 0, corresponde a una correlacin que es idntica a la encontrada por casualidad y 1 una correlacin perfecta entre los exmenes. Los valores negativos indican habitualmente que existe un desacuerdo en la

manera de realizar el mtodo entre los terapeutas. Se calcula como la proporcin de acuerdo, aparte del que ya sera de esperar por azar, que ha sido observado entre dos repeticiones del mismo instrumento (por ejemplo, un juicio realizado por dos observadores por separado). El coeficiente mximo de concordancia es de 1.00. Un valor de 0.00 indica ninguna concordancia.

entre 0.00 y 0.20: ligera. entre 0.21 y 0.40: pasable entre 0.41 y 0.60: moderada entre 0.61 y 0.80: importante entre 0.81 y 1.00: perfecta.

Un coeficiente de 0.4 puede considerarse como el lmite de fiabilidad aceptable de una prueba El kappa esun corrector de la medida de acuerdo. Como test de estadstica, el kappa puede verificar que el acuerdo exceda los niveles de suerte
Todos los bloques bloque C2-C4 bloque C5-6

Valor del Kappa

K = 0.675 SE = 0.041 Z = 17.067

K = 0.756 SE = 0.045 Z = 16.823

K = 0.460 SE = 0.091 Z = 5.039

Especificidad

98%

98%

91%

Sensibilidad

74%

78%

55%

K = coeficiente de Kappa, SE = error estndar, Z =Test de especificidad de la estadstica. COEFICIENTE DE CORRELACIN INTRACLASE (ICC) El coeficiente de correlacin intraclase (ICC) para las variables cuantitativas. Utiliza el modelo 2 de Landis y Koch para la fiabilidad interexaminador, y el modelo 3 para la fiabilidad intraexaminadores (Landis RJ et Koch GG, 1977). Este ndice est tambin comprendido entre 0 y 1.

- El valor 1 corresponde a una reproductividad perfecta entre las mediciones. - El valor 0 indicara que existe la misma variancia entre las mediciones tomadas sobre un nico paciente que las mediciones tomadas entre diferentes pacientes.
TESTS ICC KAPPA

Altura crestas ilacas

52

0.26

Altura EIPS

75

0.54

TFD

82

0.62

TFS

63

0.26

Gillet

60

0.18

Elev. activa pierna extendida

93

0.81

Joint play

75

0.61

Thigh thrust

81

0.73

Separacin

58

0.17

Gaenslen

80

0.51

Patrick

80

0.65

Sacral thrust

68

0.38

Sensibilidad ligamento SI.

91

0.83

Compresin TEST DE CORRELACIN DE SPEARMAN

85

0.59

Es una medicin no paramtrica de correlacin, asume una funcin monotnica arbitraria para describir la relacin entre dos variables, sin hacer ningunas asunciones sobre la distribucin de frecuencia de las variables. A la diferencia del coeficiente del test de Pearson, no requiere la asuncin que la relacin entre las variables es linear, ni que las variables sean medidas en escalas del intervalo; puede ser utilizado para variables medidas en nivel ordinal. Se utiliza si no se cumplen las condiciones de aplicacin del test de Pearson. Es una variante del test de correlacin de Pearson se aplica cuando cada valor en s no es tan importante como su situacin respecto a los restantes. Sus valores se interpretan exactamente igual que los del coeficiente de correlacin de Pearson. La correlacin de Spearman mide el grado de asociacin entre dos variables cuantitativas que siguen una tendencia siempre creciente o siempre decreciente. Es ms general que el Coeficiente de correlacin de Pearson, la correlacin de Spearman, en cambio se puede calcular para relaciones exponenciales o logartmicas entre las variables. TEST DE WILCOXON Contrasta la hiptesis nula de que la muestra procede de una poblacin en la que la magnitud de las diferencias positivas y negativas entre los valores de las variables es la misma. Prueba estadstica no paramtrica para la comparacin de dos muestras (dos tratamientos). Las distribuciones de datos no necesitan seguir la distribucin normal. Es por tanto una prueba menos restrictiva que la prueba t-Student. PRUEBA DE SHAPIRO-WILKS. Aunque esta prueba es menos conocida es la que se recomienda para contrastar el ajuste de nuestros datos a una distribucin normal, sobre todo cuando la muestra es pequea (n<30). Mide el ajuste de la muestra a una recta, al dibujarla en papel probabilstico normal.

PRUEBA t DE STUDENT-FISHER Si se comparan dos grupos respecto a una variable cuantitativa. En caso contrario, se utiliza una prueba no paramtrica equivalente, como la U de Mann-Whitney. Se utiliza para la comparacin de dos medias de poblaciones independientes y normales. Prueba de significacin estadstica paramtrica para contrastar la hiptesis nula respecto a la diferencia entre dos medias. Cuando las dos medias han sido calculadas a partir de dos muestras completamente independientes de observaciones (situacin poco probable en la prctica, por lo menos desde un punto de vista terico), la prueba se describe como no emparejada. Cuando las dos medias han sido extradas de observaciones consecutivas en los mismos sujetos en dos situaciones diferentes, se comparan los valores de cada individuo, y se aplica una prueba emparejada. La prueba "t" de Student es un tipo de estadstica deductiva. Se utiliza para determinar si hay una diferencia significativa entre las medias de dos grupos. Con toda la estadstica deductiva, asumimos que las variables dependientes tienen una distribucin normal. Especificamos el nivel de la probabilidad (nivel de la alfa, nivel de la significacin, p) que estamos dispuestos a aceptar antes de que cerco datos (p < .05 es un valor comn que se utiliza). Notas sobre la prueba t de Student:

Cuando la diferencia entre dos promedios de la poblacin se est investigando, se utiliza una prueba t. Es decir que se utiliza cuando deseamos comparar dos medias (las cuentas se deben medir en una escala de intervalo o de cociente). Utilizaramos una prueba t si deseamos comparar el logro de la lectura de hombres y de mujeres. Con una prueba t, tenemos una variable independiente y una dependiente. La variable independiente (gnero en este caso) puede solamente tener dos niveles (varn y hembra). Si la independiente tuviera ms de dos niveles, despus utilizaramos un anlisis de la variacin unidireccional (ANOVA). La prueba estadstica para t de Student es el valor t. Conceptualmente, la tvalor representa el nmero de unidades estndares que estn separando las

medias de los dos grupos.

Con una t-prueba, el investigador desea indicar con un cierto grado de confianza que la diferencia obtenida entre los medios de los grupos de la muestra sea demasiado grande ser un acontecimiento chance. Si nuestra t-prueba produce una t-valor que da lugar a una probabilidad de .01, decimos que la probabilidad de conseguir la diferencia que encontramos sera por casualidad 1 en 100 veces.

Cinco factores contribuyen para indicar si la diferencia entre dos medias de los grupos se puede considerar significativa: 1. Cuanto mayor es la diferencia entre las dos medias, mayor es la probabilidad que una diferencia estadstica significativa existe. 2. La cantidad de traslapo que existe entre los grupos (es una funcin de la variacin dentro de los grupos). Cuantas ms pequeas son las variaciones que existen entre los dos grupos, mayor es la probabilidad que una diferencia estadstica significativa existe. 3. El tamao de la muestra es extremadamente importante en la determinacin de la significacin de la diferencia entre las medias. Aumentando el tamao de la muestra, las medias tienden a ser ms estables y ms representativas. 4. Un nivel ms grande de la alfa requiere menos diferencia entre las medias (p < .05). 5. Se debe utilizar una hiptesis (con dos colas) no directivas. Asunciones subyacentes la prueba de t: 1. Las muestras se han dibujado aleatoriamente a partir de sus poblaciones respectivas. 2. La poblacin se debe distribuir normalmente. 3. Unimodal (un modo). 4. Simtrico (las mitades izquierdas y derechas son imgenes espejo), el mismo nmero de gente arriba o abajo de la media. 5. Acampanado (altura mxima (moda) en el medio). 6. Media, moda, y mediana se localizan en el centro. 7. Asinttico (cuanto ms lejos se aleja la curva de la media, ms cercana ser el eje de X; pero la curva nunca debe tocar el eje de X). 8. El nmero de personas en las poblaciones debe tener la misma varianza (s2 = s2).Si no es el caso se utiliza otro clculo para el error estndar. Existen 2 tipos de prueba t de Student

Test t para diferencia par ( grupos dependientes, test t correlacionado) : df=

n (nmero de pares) -1 Esto se refiere a la diferencia entre las cuentas medias de una sola muestra de individuos que se determina antes del tratamiento y despus del tratamiento. Puede tambin comparar las cuentas medias de muestras de individuos que se aparean de cierta manera (por ejemplo los hermanos, madres, hijas, las personas que se emparejan en trminos de las caractersticas particulares). - Test t para muestras independientes Esto se refiere a la diferencia entre los promedios de dos poblaciones. Bsicamente, el procedimiento compara los promedios de dos muestras que fueron seleccionadas independientemente una de la otra. Un ejemplo sera comparar cuentas matemticas de un grupo experimental con un grupo de control. Cmo decido qu tipo de t-prueba a utilizar? Error tipo I:

Rechaza una hiptesis nula que sea realmente verdad. La probabilidad de hacer un error tipo I depende del nivel alfa que se Eligio. Si se fij la probabilidad alfa en p < 05, entonces existe un 5% de posibilidades de hacer un error de tipo I. Se puede reducir la posibilidad de hacer un error tipo I fijando un nivel alfa ms pequeo (p < .01). El problema haciendo esto es que se aumenta la posibilidad de un error tipo II. Falla en rechazar una hiptesis nula que sea falsa. La idea bsica para calcular una prueba de Student es encontrar la diferencia entre las medias de los dos grupos y dividirla por el error estndar (de la diferencia), es decir la desviacin de estndar de la distribucin de las diferencias. Un intervalo de confianza para una prueba t con dos colas es calculado multiplicando los valores crticos por el error de estndar y agregando y restando eso de la diferencia de las dos medias. El efecto tamao se utiliza para calcular la diferencia prctica. Si existen varios miles de pacientes, es muy fcil encontrar una diferencia estadsticamente significativa. Saber si esa diferencia es prctica o significativa es otra pregunta. Con los estudios implicando diferencias de grupo, el tamao del efecto es la diferencia de las dos medias dividido por la desviacin estndar del grupo control (o la desviacin estndar media de ambos grupos si no hay grupo de

Error tipo II:


control).

Generalmente, el tamao del efecto es solamente importante si existe una significacin estadstica. Un efecto tamao de 2 se considera pequeo, 5 se considera medio, y 8 se considera grande.

TEST DE MANN-WHITNEY La prueba de Mann-Whitney U es una de las pruebas de significacin ms conocidas. Es apropiada cuando dos muestras independientes de observaciones se miden en un nivel ordinal, es decir que podemos decir cul es la mayor de estas dos observaciones. Determina si el grado de coincidencia entre dos distribuciones observadas es inferior a la esperada por suerte en la hiptesis nula que las dos muestras vienen de una misma poblacin. Prueba de significacin estadstica no paramtrica para probar la hiptesis nula de que el parmetro de localizacin (generalmente la mediana) es el mismo cuando se comparan dos grupos independientes, cualquiera que sea el tipo de distribucin de la variable (distribucin normal o de otro tipo). Se usa cuando se quiere comparar dos poblaciones usando muestras independientes, es decir; es una prueba alterna a la prueba de t para comparar dos medias usando muestras independientes. La hiptesis nula es que la mediana de las dos poblaciones son iguales y la hiptesis alterna puede ser que la mediana de la poblacin 1 sea mayor (menor distinta) de la mediana de la poblacin 2. Prueba de Mann-Whitney para muestras independientes:

Si tenemos dos series de valores de una variable continua obtenidas en dos muestras independientes: X1, X2,..., Xn, Y1, Y2,..., Ym, procederemos a ordenar conjuntamente todos los valores en sentido creciente, asignndoles su rango, corrigiendo con el rango medio los empates. Calculamos luego la suma de rangos para las observaciones de la primera muestra Sx, y la suma de rangos de la segunda muestra Sy. Si los valores de la poblacin de la que se extrajo la muestra aleatoria de X se localizan por debajo de los valores de Y, entonces la muestra de X tendr probablemente rangos ms bajos, lo que se reflejar en un valor menor de Sx del tericamente probable. Si la menor de las sumas de rangos es excesivamente baja, muy improbable en el caso de que fuera cierta la hiptesis nula, sta ser rechazada.

PRUEBA DE KRUSKAL-WALLIS

Prueba de significacin estadstica no paramtrica para contrastar la hiptesis nula cuando los parmetros de localizacin de dos o ms grupos son iguales. La prueba de Kruskal-Wallis, es una alternativa a la prueba F del anlisis de varianza para diseos de clasificacin simple. En este caso se comparan varios grupos pero usando la mediana de cada uno de ellos, en lugar de las medias. La prueba de Kruskal-Wallis, es una alternativa a la prueba F del anlisis de varianza para diseos de clasificacin simple. En este caso se comparan varios grupos pero usando la mediana de cada uno de ellos, en lugar de las medias.

Ho: La mediana de las k poblaciones consideradas son iguales y, Ha: Al menos una de las poblaciones tiene mediana distinta a las otras.

Donde, n es el total de datos. Este contraste, que es vlido nicamente para variables continuas, compara la funcin de distribucin (probabilidad acumulada) terica con la observada, y calcula un valor de discrepancia, representado habitualmente como D, que corresponde a la discrepancia mxima en valor absoluto entre la distribucin observada y la distribucin terica, proporcionando asimismo un valor de probabilidad P, que corresponde, si estamos verificando un ajuste a la distribucin normal, a la probabilidad de obtener una distribucin que discrepe tanto como la observada si verdaderamente se hubiera obtenido una muestra aleatoria, de tamao n, de una distribucin normal. Si esa probabilidad es grande no habr por tanto razones estadsticas para suponer que nuestros datos no proceden de una distribucin, mientras que si es muy pequea, no ser aceptable suponer ese modelo probabilstico para los datos. PRUEBAS NO-PARAMTRICAS El anlisis de la variacin asume que las distribuciones subyacentes estn distribuidas normalmente y que las variaciones de las distribuciones que son comparadas son similares. El coeficiente de correlacin de Pearson asume normalidad. Mientras que las tcnicas paramtricas son robustas (es decir, conservan a menudo un poder considerable para detectar diferencias o semejanzas incluso cuando se violan estas asunciones), algunas distribuciones violan tanto que un alternativa no paramtrica es ms deseable para detectar una diferencia o una semejanza. Pruebas no paramtricas para muestras relacionadas

Prueba

Nm. de variables

Variables

Objetivo

McNemar

Cualitativas: 2 Determinar si la diferencia entre las valores distribuciones de frecuencias de los valores de las dos variables es estadsticamente significativa.

Signos

En escala al Determinar si la diferencia entre el menos ordinal nmero de veces en que el valor de una variable es mayor que el de la otra y el nmero de veces en que es menor es estadsticamente significativa.

Wilcoxon

En escala al Determinar si la diferencia entre la menos ordinal magnitud de las diferencias positivas entre los valores de las dos variables y la magnitud de las diferencias negativas es estadsticamente significativa.

Q de Cochran

p>2

Cualitativas: 2 Determinar si las diferencias entre las valores distribuciones de frecuencias de los valores de las p variables son estadsticamente significativas.

F de Friedman

p>2

En escala al Determinar si las diferencias entre las menos ordinal distribuciones de las p variables son estadsticamente significativas.

ELECCIN DE LA TCNICA ESTADSTICA APROPIADA Con los elementos definidos en los prrafos anteriores se pueden establecer rboles de decisin para la ayuda en la eleccin de la tcnica o prueba estadstica apropiada. Existen ms de 300 pruebas estadsticas bsicas, con lo que es difcil poder abordarlas todas de forma exhaustiva en este artculo.
Criterio Descripcin Aclaraciones

Estadstica descriptiva

Ningn contenido estadstico o nicamente estadstica descriptiva

Pruebas t de Student, Para una muestra o dos muestras (datos pruebas z apareados y/o independientes)

Tablas bivariables

Chi cuadrado, prueba exacta de Fisher, test de MC Nemar

Tests no paramtricos Test de los signos. U de Mann-Whitney, prueba t de Wilcoxon

Estadsticas demoepidemiolgicos

Riesgo relativo. Odds ratio. Log. Odds. Medidas de asociacin. sensibilidad y especificidad

Correlacin lineal de Pearson

Correlacin clsica (coeficiente r de correlacin lineal)

Correlacin lineal de Pearson

Correlacin clsica (coeficiente r de correlacin lineal)

Regresin simple

Regresin de mnimos cuadrados con una variable productora y una respuesta

Anlisis de varianza

ANOVA, anlisis de la covarianza, pruebas F

10

Transformacin de variables

Empleo de transformaciones (logartmicas....)

11

Correlacin no paramtrica

Rho de Spearman, Tau de Kendall, pruebas de tendencia

12

Regresin mltiple

Incluye la regresin polinmica y la regresin paso a paso

13

Comparaciones mltiples

Comparaciones mltiples

14

Ajuste y estandarizacin

Estandarizacin de tasas de incidencia y prevalencia

15

Tablas multivariables

Procedimientos de Mantel-Haenszel- modelos log. lineales

16

Potencia y tamao muestral

Determinacin del tamao de la muestra en la base a una diferencia detectable

17

Anlisis de la supervivencia

Incluye tablas de vida, regresin de supervivencia y otros anlisis de supervivencia

18

Anlisis costebeneficio

Estimacin de los costes de salud para comparar directrices alternativas (costeefectividad)

19

Otros anlisis

Test no incluidos en las categoras precedentes: anlisis de Sensibilidad, anlisis cluster. Anlisis discriminante.

Protocolo diseado por EMERSON y COLDTIZ y adaptado por MORA RIPOLL y COLS. Niveles de referencia para el anlisis de accesibilidad

LOS PASOS SIGUIENTES

Una vez realizadas las estadsticas se debe proceder a:


Anlisis cualitativo o cuantitativo. Sntesis e interpretacin final de todos los datos ya analizados. Redaccin el informe de investigacin.