You are on page 1of 42

Estos Resúmenes y Tablas han sido extraídos del libro

40 ± 10 horas de BIOESTADÍSTICA (2013)
publicado en esta misma Editorial y por los mismos autores
A. Martín Andrés y J. de D. Luna del Castillo

RESÚMENES y TABLAS de

BIOESTADÍSTICA
3ª edición (2013)

¡ATENCIÓN!
No puede escribirse nada en este cuadernillo,
salvo correcciones de erratas autorizadas por los profesores

© Antonio Martín Andrés
Juan de Dios Luna del Castillo

© EDICIONES CAPITEL, S.L.
Europolis, C/ Bruselas 16B- 28232 LAS ROZAS ( Madrid)
e-mail (editor): rpa@norma-capitel.com.
e-mail (autores): amartina@ugr.es y jdluna@ugr.es.

Reservados los derechos de edición, adaptación o reproducción para todos los países.
No está permitida la reproducción total o parcial de este libro, ni su tratamiento in-
formático, ni la transmisión de ninguna forma o por cualquier medio, ya sea electrónico,
mecánico, por fotocopia, por registro u otros métodos, sin el permiso previo y por escri-
to de los titulares del Copyright.

ISBN: 978-84-8451-054-3.
Depósito Legal: M-24.370-2013

2

INTRODUCCIÓN 1

RESUMEN DEL CAPÍTULO I
INTRODUCCIÓN
1.1 NECESIDAD
Las Ciencias de la Salud se basan en el método inductivo (extensión al todo
de las conclusiones obtenidas en una parte), siendo el Método Estadístico el úni-
co modo de validarlo. Las razones que siguen son reflejo de la anterior:
a) La variabilidad biológica de los individuos objeto de estudio origina que
sus datos sean impredecibles: el Método Estadístico lo controla.
b) La naturaleza cuantitativa de las Ciencias de la Salud requiere del Método
Estadístico para analizar y poner orden en los datos que proporciona.
c) La investigación en las Ciencias de la Salud requiere de la Estadística en sus
etapas de diseño, recopilación de datos y análisis de los resultados, permi-
tiendo leer crítica y comprensivamente los resultados científicos ajenos.
d) La naturaleza del trabajo clínico es en esencia de tipo probabilístico o es-
tadístico, disciplinas que dan rigor y objetividad a los clásicos procesos sub-
jetivos de diagnóstico, pronóstico y tratamiento.
e) La perspectiva comunitaria de las Ciencias de la Salud requiere del uso de
la Estadística para poder extrapolar las conclusiones desde la parte estudiada
de la población a su globalidad.

1.2 DEFINICIÓN DE ESTADÍSTICA
Es el conjunto de métodos necesarios para recoger, clasificar, representar y
resumir datos, así como para hacer inferencias (extraer consecuencias) científi-
cas a partir de ellos (Bioestadística alude a la aplicación teórica y/o práctica de
la Estadística a las Ciencias de la Salud). De ahí que conste de dos partes:
a) Estadística Descriptiva, cuyo fin es la recogida, clasificación, representa-
ción y resumen de los datos.
b) Inferencia Estadística, cuyo fin es extender a toda la población las conclu-
siones obtenidas en una parte de ella (la muestra).

1.3 CONSIDERACIONES FINALES
a) El método estadístico es un método riguroso para el análisis de datos. Su va-
lidez está condicionada por la verificación de ciertas hipótesis que no pueden
ser violadas (y que, por tanto, deben ser comprobadas).
b) Es importante planificar adecuadamente la experiencia. Una planificación in-
correcta puede hacer desaprovechable la experiencia o elevar indeseablemen-
te el coste de la misma.
c) La Estadística Descriptiva no tiene valor inferencial alguno. Ella sólo descri-
be lo que hay y sugiere posibles preguntas, pero no permite extraer conclu-
siones ciertas sobre nada.

2 INTRODUCCIÓN

1.4 CONTENIDOS DE ESTOS RESÚMENES
El Cuadro R.1.1 presenta esquemáticamente los objetivos de interés y el
Resumen del Capítulo que los contiene.
Cuadro R.1.1
Capítulo donde encontrar los conceptos generales que se indican

Descriptiva
Herramientas
Estadística
II

Intervalos de confianza Distribución de los datos
Inferencial
¿Cuánto vale una caracterís-
III
tica en una población?
IV y partes del VI al X
Test de Hipótesis
¿Es cierta una hipótesis?
Generalidades: V

Hipótesis que implican dos
Hipótesis que implican a una proporción o
características
una media en:
(Problemas de Asociación)

1 pobla- 2 poblacio- 3 o más pobla-
ción nes ciones
VI VII VIII

Ambas Ambas Una numé-
no numé- numéri- rica y otra
ricas cas no
VIII IX y X X

2

b) Cualitativos: Cuando su resultado no es un número. b) Polígono de frecuencias: Es la línea poligonal obtenida uniendo los puntos del plano que tienen por abscisa la clase o marca de clase y por ordenada la frecuencia. Con frecuencia..1 TIPOS DE DATOS Los datos obtenidos de un experimento pueden ser: a) Cuantitativos: Cuando su resultado es un número.. En ambos casos. con cada valor de los mismos se forman las clases o modalidades del carácter. 2. se obtiene un diagrama de barras (histograma). Se dividen en: i) Discretos: Si toman valores numéricos aislados (se “cuentan”). Multiplicando hi por 100. d) Toda tabla debe tener un enunciado claro. la primera y/o última clases pueden ser excepción.3 PRESENTACIÓN GRÁFICA DE LOS DATOS a) Histograma/Diagrama de barras: Si sobre cada punto (intervalo) del eje de abscisas se levanta una barra (rectángulo) de tanta altura como frecuencia haya. c) Diagramas de sectores: Se obtiene si en un círculo se asigna a cada clase un sector de área proporcional a la frecuencia de la clase.. . contar con igual nº de decimales en cada columna.000. 1. valor que representa a toda ella. b) Los intervalos de clase vienen definidos por dos números. ESTADÍSTICA DESCRIPTIVA 3 RESUMEN DEL CAPÍTULO II ESTADÍSTICA DESCRIPTIVA 2. Pueden ser: i) Dicotómicos o Binarios: Si admiten solo dos posibilidades. Estos a su vez pueden ser ordinales (nominales) según que sus resultados sí (no) admitan una ordenación lógica.… se obtienen los % (tantos por ciento). El ángulo que lo deli- mita es 360hi (en grados). la pa- labra “histograma” alude a ambas representaciones. el límite inferior LI y el límite superior LS.2 PRESENTACIÓN TABULAR DE LOS DATOS a) Cuando los datos son discretos o cualitativos. ii) Multicotómicos o Policotómicos: Si admiten más de dos posibilidades. especificar el total de cada columna y “quedar bonita” (las fi deben crecer/decrecer razonablemente). 2. ii) Continuos: Si toman cualquier valor entre unos márgenes (se “miden”). la diferencia de ellos es la longitud de clase L = LILS y la semisuma es la marca de clase (LI+LS)/2. Cuando son continuos (o discretos con muchos valores posibles). 0/00 (tantos por mil). con cada conjunto de valores de los mismos se forman los intervalos de clase (que deben tener igual longitud).y la frecuencia relativa hi = fi/n (con n = número total de datos). indicar las unidades de medida.. c) A cada clase o intervalo de clase se le anota la frecuencia absoluta fi -o nú- mero de datos que pertenecen a la clase. Sucederá que fi = n y hi = 1.

. c3 = p75.4 SÍNTESIS DE DATOS Para sintetizar la información de todos los datos de la muestra mediante uno o más números representativos de ella. 99).. 2 2  Datos agrupados: s 2 = i i    i if x 2   n 1 n  1  n  iii) Desviación típica o estándar: es la raíz cuadrada (s) de la varianza. Se define como RI = c3c1 (en un margen de RI unidades se encuentran el 50% de los datos). la segunda es la apropiada para el cálculo y n =fi ):   xi  x  1  2  xi   2 2  Datos no agrupados: s 2 =    i x   n 1 n  1  n  f  x  x  1   fi xi   .  Para datos agrupados: x = fixi / n. ocupa la posición (n+1)/2. ii) Varianza o desviación cuadrática media: Es la medida de dispersión ade- cuada cuando se utiliza la media como medida de posición. 2.. se definen las medidas de una distribu- ción de frecuencias. vi) Media aritmética (la importancia de cada dato la da su frecuencia):  Para datos no agrupados: x = xi / n. con fi = n. Se define co- mo la media de los cuadrados de las desviaciones a la media. Son de dos tipos: a) Medidas de posición: Describen cómo se encuentra el resto de la muestra con respecto a ellas.2. v) Decil: d1 = p10.. Como CV = (s/ x )100%. Se obtiene mediante las fórmulas que siguen (en donde la primera fórmula es la defi- nición.. i) Moda: La clase cuya frecuencia alcanza un máximo absoluto (si la cuali- dad es nominal) o relativo (en otro caso). d2 = p20. iv) Cuartil: c1 = p25. iii) Percentil: El percentil pi es el nº que deja a su izquierda (incluido él mis- mo) un "i%” de la muestra ordenada de menor a mayor (i = 1. Las gráfi- cas deben verificar propiedades similares a las del resumen 2. el método se equivoca en CV (en términos de s). 4 .. con wi los pesos de ponderación.4 ESTADÍSTICA DESCRIPTIVA En los dos primeros casos la frecuencia puede ser absoluta o relativa. v) Coeficiente de variación: Se utiliza para evaluar un método de medida.. iv) Rango intercuartílico: Es la medida de dispersión adecuada cuando se uti- liza la mediana como medida de posición. 2.d. vii) Media ponderada (la importancia de cada dato la da su frecuencia y otro criterio): x p =wixi /wi. su interpretación es que por cada 100 unidades medidas. c2 = p50. ii) Mediana: Es el valor que divide a la muestra ordenada (de menor a ma- yor) en dos partes iguales. rango o amplitud: Es la diferencia entre los valores más grande y más pequeño de la muestra... b) Medidas de dispersión (describen cómo de dispersos son los datos): i) Recorrido. d9 = p90.

cuya representación gráfica es la curva de densidad. la variable x tipificada. ). moda y mediana) y desviación típica  (la distancia desde el eje vertical en  al punto de inflexión de la curva). ).2 DISTRIBUCIONES DE PROBABILIDAD TEÓRICAS La mayoría de las variables de la Naturaleza siguen alguna de las siguientes (se excluyen las distribuciones en el muestreo que se ven más adelante): a) Distribución Normal: i) Definición: una variable x sigue la distribución Normal (como la de la portada de este cuadernillo) si su curva de densidad tiene forma de cam- pana (campana de Gauss) con centro de simetría en  (media. entonces z = (x)/  N(0. 1) tal que Pr (z  z  +z) = 1. Cuando además x  N(. su probabilidad Pr (x)). b) Probabilidad (de un resultado dado de un fenómeno aleatorio): es el límite de la frecuencia relativa del resultado cuando el número de experiencias (re- peticiones del fenómeno) tiende hacia infinito. x   + z2 y x   z2 contienen al (1)100% de las ob- servaciones de la variable x.1 DEFINICIONES a) Fenómeno aleatorio: aquel fenómeno cuyos resultados son impredecibles. 1) es la llamada Normal típica o estándar.4 (que describen las muestras). Por ello.  y p. entonces (x)/. ). En general a ambas funciones se les llama distribución de probabilidad. con  y  los dos parámetros de la distribución. 2. Por tanto x toma valores entre  y +. iii) Tabla 1: para cada probabilidad  la tabla da el valor z de una N(0. ii) Tipificación: si x es una variable cualquiera de media  y desviación . d) Parámetros poblacionales: por contraposición a los parámetros muestrales del resumen R. c) Variable aleatoria: es el resultado numérico de un fenómeno aleatorio y pueden ser: i) Discretas: se identifican por la función de probabilidad Pr (x) (regla que asocia a cada valor x de la variable. s2. DISTRIBUCIONES DE PROBABILIDAD 5 RESUMEN DEL CAPÍTULO III DISTRIBUCIONES DE PROBABILIDAD 3.2. 3. ii) Continuas: se identifican por la función de densidad f(x) (que indica cómo de probable es que la variable caiga en los alrededores del valor x). si x  N(. tiene de media 0 y de desvia- ción 1. Los paralelos a los parámetros muestrales x . El área bajo la curva de densidad entre dos valores a y b indica la probabilidad de que la variable x se encuentre entre dichos valores: Pr (a  x  b). s y h = p̂ son los parámetros poblacionales . . se definen de modo similar los parámetros poblacionales (que describen las poblaciones o las variables aleatorias). los intervalos x    z. Para aludirla se indicará x  N(.

Por tanto 0  x < . lo anterior se verifica exac- tamente para cualquier valor de n. la Bi- nomial se aproxima a la Normal en el sentido de que la probabilidad de que la Binomial valga x es aproximadamente igual a la probabilidad de que la Normal valga entre x0. x sigue aproximadamente una Binomial si N > 40 y n/N (fracción de muestreo)  0. ii) Media y Varianza: son  = np y 2 = npq respectivamente. b) Distribución Binomial: i) Definición: si de una población de tamaño (N) infinito. Si x es Normal. / n ).6 DISTRIBUCIONES DE PROBABILIDAD iv) Teorema Central del Límite: si x es una variable cualquiera de media  y desviación típica . p). cuyos individuos ve- rifican una cierta característica dicotómica con probabilidad p.5 y x+0. se extrae una muestra de tamaño n. c) Distribución de Poisson: i) Identificación: Son variables x de Poisson (ley de los sucesos raros): i) Aproximadamente. el número x de individuos de entre los n que verifican la característica sigue una distribución Binomial. Cuando N < . x se distribuye aproximadamente como una Normal: x  N(. una Binomial con n grande y p pequeño. se aproxima a la Normal (en el mismo sentido que el indicado para la Binomial). ii) El número de partículas por unidad de medio (si un gran número de partículas están re- partidas al azar en una gran cantidad de medio). iii) Propiedad: Si  es suficientemente grande. 6 .5 es la corrección por conti- nuidad o mitad del salto de la variable). con q = 1p.5 (el valor 0. y si x es la media de una muestra de tamaño n  30. iii) El número de sucesos que ocurren por unidad de tiempo (si estos suceden al azar e independien- temente entre sí).10. con n y p los dos parámetros de la distribución. con / n el error estándar. iii) Propiedad: Si n es suficientemente grande (np. nq > 5 suele bastar). Para aludirla se indicará x  P(). ii) Media y Varianza:  = 2 =  en ambos casos. Por tanto 0  x  n. con  el único parámetro de la distribución. Para aludirla se indicará x  B(n.

). después de tomarla.3 INTERVALO DE CONFIANZA PARA UNA MEDIA  a) Intervalo: si x es una variable aleatoria de media  y varianza 2 desconoci- das. . ii) Si 2 es desconocida pero hay una muestra piloto: n = (ts/d)2. con  y  desconocidas.. etc. con  el error del intervalo y 1 la confianza del mismo: el investigador espera que este sea uno de los (1)100 intervalos de cada 100 que contienen realmente a  (y no uno de los 100% de cada 100 que fallan). se obtiene el intervalo de confianza (I. con z en la Tabla 1. xn es una muestra aleatoria de ella con media x y desvia- ción típica s. La Teoría de la Estimación es la parte de la Inferencia Estadística que sirve para determinar el valor de los parámetros po- blacionales en base al de los parámetros muestrales. de ser así.. 4.1 MUESTREO ALEATORIO Las muestras deben tomarse al azar. Antes de tomar la muestra se dice que ̂ es un estimador de . El azar puede imitarse mediante da- dos. a la expresión anterior hay que añadirle una corrección por continuidad:   x ± [ts/ n +1/(2n)] b) Tamaño de muestra: Si x  N(. en otro caso es un estimador sesgado o no centrado de . S) -dados por una fórmula. n el tamaño de la muestra piloto y s2 su va- rianza. .. ̂ es un es- timador insesgado o centrado de  (los estimadores citados arriba lo son). b) Por intervalo: si se asigna al parámetro desconocido () un intervalo de va- lores (I. Al tomar una muestra y determinar I y S en base a ella. ̂ 2 = s2 y p̂ = h).2 ESTIMACIÓN Los parámetros poblacionales no suelen ser conocidos y con frecuencia es imposible conocerlos exactamente. y se desea obtener un tamaño de muestra n tal que la media x de esa muestra verifique que  x  d    x  d.entre los cuales está  con una cierta probabilidad 1.. bolas en urna. con t en la Tabla 3 con ( n l) gl. S). 4. entonces   x ± ts/ n -con t en la Tabla 3 con (n1) gl y s/ n el llamado error estándar estimado. Usualmente ̂ es el parámetro muestral homónimo al parámetro poblacional  a estimar ( ˆ  x . Cuando x es discreta (y saltando de 1 en 1). La estimación puede ser: a) Por punto: si se asigna al parámetro desconocido () un único valor ( ̂ ) que será su valor aproximado y que es una función de los valores de la mues- tra. el valor de ̂ en ella es una estimación de . Solo en ese caso la muestra es representa- tiva de la población y será válido todo lo que se indica en estos Resúmenes. Es conveniente que el valor promedio de ̂ en todas las muestras posibles sea el verdadero valor  a estimar. ii) x es cualquiera pero n  60. y si x1.si: i) x es Normal. de modo que todo individuo de la po- blación tenga igual probabilidad de ser seleccionado y que la selección de uno de ellos no condicione la selección de otro. entonces: i) Si se conoce un valor máximo de 2: n = {z(Máx ) / d}2. pero lo mejor es hacerlo a través de una Tabla de Números Aleatorios como la Tabla 2. x2. INTERVALOS DE CONFIANZA 7 RESUMEN DEL CAPÍTULO IV INTERVALOS DE CONFIANZA 4.

El intervalo será   S o   I. obtener el extremo que interese (I o S) al error 2. En el primer caso hace falta comprobar al final que la muestra del tamaño n aconsejado verifica las especificaciones: tomada la muestra y obtenido el in- tervalo de confianza p  (pI. 4.5 y q = 1p.5 n  n 2n    n   El método de Wilson es siempre mejor que el de Wald.5 GENERALIDADES SOBRE LOS INTERVALOS DE CONFIANZA Lo que sigue es válido para todos los intervalos de confianza: a) Los intervalos de confianza de estos Resúmenes son siempre de dos colas -es decir del tipo   (I. 8 . Cuando se le desee de una cola. usar el  para el extremo inferior y el + para el superior). Los casos i) e ii) requieren comprobar que la muestra del tamaño n acon- sejado verifica las especificaciones: tomada la muestra y obtenido el intervalo de confianza   (I. ii) Sin información: n = (z/2d)2.8 INTERVALOS DE CONFIANZA iii) En otro caso: Hacer d = K y n = (z/K)2. S) en base a ella.5  1  2 4   n     n  z 2  (del símbolo . si x es no Normal. nx > 5:  z2 z2  x  0.se conoce que p  (pI. ii) Método de Wald ajustado: válido siempre pero peor que el de Wilson (uti- lizar solo si el anterior no es válido)    x  2  n  x+2   n+4 p    x  2    z      n4   b) Tamaño de muestra: Si se desea obtener un tamaño de muestra n tal que la proporción p̂ de ella verifique que  p̂ p d  p  p̂  d. 4. pS). con p el valor de dicho intervalo que esté más cercano a 0. Si el n resultante es grande ( 60). las fórmulas anteriores también valen. pS) y el valor de p̂ en base a ella. debe ocurrir que (SI)/2  d (de no ser así hay que volver a determinar el tamaño de muestra).5   p   x  0. entonces: i) Con información: Si en base a una información previa -bibliográfica o de muestra piloto. Cuando se desee un intervalo de confianza de una cola. cambiar en ellas  por 2.4 INTERVALO DE CONFIANZA PARA UNA PROPORCIÓN p Sea x  B(n. con z en la Tabla 1.5    z    x  0. S). aproximadamente. p) y x una observación (en lo que sigue z siempre en la Tabla 1): a) Intervalo: i) Método de Wilson con cpc: si x. debe ocurrir que p̂  pI  d y p̂  pS  d (de no ser así hay que volver a determinar el tamaño de muestra).con una confianza de 1. b) Las fórmulas de tamaño de muestra son válidas para un intervalo de confian- za de dos colas al error . expresión que se simplifica en el clásico método de Wald con cpc (el de casi todos los libros) si x > 20 y nx > 20 (en ella p̂ = x/n y qˆ  1  pˆ ):  ˆˆ pq 1   x n  x   p  ˆp   z   =  x   z  0 . n = (z/d)2pq.

el investigador debe decidir: a) H0: Hipótesis formulada como una igualdad o una afirmación positiva.3 ELECCIONES PREVIAS Antes de realizar un test. es decir aque- lla que.4 MÉTODO Para tomar la decisión debe obtenerse un intervalo de valores del estadísti- co de contraste cuya probabilidad. b) H1: Es la hipótesis que se quiere demostrar fuera de toda duda.5. si está fuera (es decir. viene dada por una función de los valores de la muestra que resume toda la información relevante de ella respecto del test a realizar. los valores que están fuera de él se denominan región crítica o región de rechazo.debe aceptarse en base al resultado obtenido en una muestra.2 TIPOS a) Test bilateral o de dos colas: Si H1 es la negación total de H0. d) Estadístico de contraste: Es la variable que se va a utilizar para realizar el test. si el valor que toma en ella el estadístico de con- traste está en la región de aceptación se acepta H0. en la región de rechazo) se acepta H1. sea 1. 5. se quiere estar prácticamente seguro de que es cierta. Obtenida la muestra. b) Test unilateral o de una cola: Si H1 es una parte de la negación de H0. en el segundo se dice que el test (o el resultado) es estadísticamente significativo (ambos para un test realizado al error ). Usualmente  = 5% .1 OBJETIVO Un test o contraste de hipótesis es un conjunto de reglas tendentes a decidir cuál de dos hipótesis -H0 (hipótesis nula) o H1 (hipótesis alternativa). En el primer caso se dice que el test (o el resul- tado) es estadísticamente no significativo. Una conclusión por ella no implica seguridad alguna acerca de su certeza (salvo que se fije de antemano el tamaño de la muestra). de concluirse. e) Tamaño de muestra n (opcional): Si se desea que una conclusión por H0 sea también fiable (ver los detalles en R. 5. bajo H0. 5. . c)  : Es un valor tanto más pequeño cuantas más garantías se precisen de que una decisión por H1 sea correcta.7). El intervalo -que será de dos colas en los tests bilaterales y de una cola (con la desigualdad en sentido opuesto al indicado por H1) en los unilaterales. CONCEPTO GENERAL DE TEST DE HIPÓTESIS 9 RESUMEN DEL CAPÍTULO V CONCEPTO GENERAL DE TEST DE HIPÓTESIS 5. Puede ser una parte de la negación de H0 (test de una cola) si la otra parte im- plica una conclusión/acción equivalente a la que proporcionaría una acepta- ción de H0.se denomina región de acepta- ción.

de ahí que una decisión por H1 es siempre fiable. c) El error  (o la potencia  = 1) para tal alternativa. en el caso de tests acerca de parámetros.10 CONCEPTO GENERAL DE TEST DE HIPÓTESIS 5. las conclusiones por H0 también son fiables (las conclusiones por H1 siempre lo son) pues su error  asociado también está controlado (como lo estaba ). pues se fija de antemano y es tan pequeño co- mo se desee. ii) El error  no está controlado de antemano. o menos veces si es menor). H1). para determinar n hace falta especificar: a) El error  del test. pudiendo ser grande.6 POTENCIA DE UN TEST Se llama potencia  a la capacidad que tiene un test para detectar las hipó- tesis alternativas verdaderas. iv) El error  disminuye conforme aumenta . El n obtenido garantiza que el test realizado con tal muestra (al error ) dará significativo el (1)100% de las veces en que la verdadera hipótesis H1 se diferencie de H0 en la cantidad  especificada (o más veces si la diferencia es mayor. iii) El error  es un único número (puesto que H0 alude a un único valor. conforme H1 se aleja de H0 y conforme aumenta el tamaño n de la muestra (si todo lo demás permane- ce constante). pues la primera alternativa de interés será 1 = 0 +  (para H1:  > 0). Si H0:  = 0 (con  el parámetro de interés).5 ERRORES ASOCIADOS A LA CONCLUSIÓN DE UN TEST a) Definiciones: Toda decisión de un test de hipótesis puede ser errónea. Las dos posibilidades de error se denominan: i) Si se concluye H1: error  = error de Tipo I = nivel de significación =  = Pr (decidir H1es cierta H0). pero el error  alude a muchos números (puesto que depende de la alternativa H1 que se considere). 5. dan lugar a una representación gráfica llamada curva de potencia (de  vs. 1 = 0   (para H1:  < 0) o 1 = 0   (para H1:   0). al venir dada por una igualdad). es decir:  = 1 = Pr (decidir H1es cierta H1) Como  también depende de la hipótesis alternativa.7 TAMAÑO DE MUESTRA Determinando el tamaño de muestra n de antemano. de ahí que una decisión por H0 no sea fiable (lo único que indica es que no se ha podido demostrar que es falsa). b) Consecuencias: i) El error  está controlado. ella alude a muchos núme- ros que. 10 . Un test es tanto mejor cuanto más potente sea. b) La primera alternativa de interés o primera H1 (digamos 1) que se desea diferenciar de H0. ii) Si se concluye H0: error  = error de Tipo II =  = Pr (decidir H0es cierta H1). Esto es equivalente a fijar la mínima diferencia de interés  =10. 5.

debe aumentarse n y repetirse el test.8 INTERVALOS DE CONFIANZA TRAS UN TEST DE HIPÓTESIS Tras realizar un test de hipótesis acerca de un parámetro usualmente es con- veniente obtener un intervalo de confianza para el mismo. el intervalo será de una cola: i) Si se concluyó H1: al error  y con la desigualdad en el sentido que indica H1. b) Consecuencias: i) P mide las evidencias que hay en contra de H0 (pero no mide cuánto de falsa es H0).8. ii) El valor P de un test de una cola (con H1 en la dirección a que apuntan los datos) suele ser la mitad del valor P del test de dos colas. ii) Si se concluyó H0: al error 2. cuando se concluye H1 puede interesar conocer si también hay significación biológica: la hay si el intervalo al error  (de dos colas si el test es de dos colas. nivel crítico P o nivel mínimo de significación es i) El mínimo error  al cual un resultado es significativo.10 REGLAS PARA TOMAR LA DECISIÓN a) Regla usual para un error  dado (generalmente  = 5%): i) Si P  % se concluye H1 (la decisión es fiable). si se concluye H1: el intervalo obtenido (que sirve para ver cuánto de falsa es H0) no debe contener al valor del parámetro bajo H0.c). En otro caso la conclusión no es fiable. c) En ambos casos. 5. si P >  se decide H0. tanto si se concluye H0 (para ver si la conclusión es fiable o debería aumentarse la muestra) como si se concluye H1 (para así indicar cuánto de falsa es H0). ii) Si n no fue fijado de antemano: la conclusión es fiable solo si el intervalo obtenido no contiene a la/s primera/s alternativa/s de interés. iii) Fijado un valor de : si P   se decide H1. ii) Si se concluyó H0: al error  y con la desigualdad en el sentido contrario al que indica H1. ii) La probabilidad de obtener un resultado tan extraño o más que el obtenido cuando H0 es cierta. el intervalo será de dos colas: i) Si se concluyó H1: al error . de una cola. ii) Si P > % se concluye H0 (la decisión será fiable si se verifica 5. con la desigualdad en sentido contrario al que indica H1.9 VALOR P a) Definición: El valor P. si se concluye H0: i) Si n fue fijado de antemano: la conclusión es fiable y no es preciso obte- ner el intervalo. b) Cuando el test es de una cola. 5. si el test es de una cola) contiene a algún valor relevantemente distin- to del valor del parámetro bajo H0. Adicionalmente. Las reglas son: a) Cuando el test es de dos colas. CONCEPTO GENERAL DE TEST DE HIPÓTESIS 11 5. . d) En ambos casos.

ii) Si SÍ es conforme con H1: Actuar como en a). decidiendo como sigue: i) Si la tabla proporciona dos límites CI y CS (como en las Tablas 4. 5. 6 y 7): Si C I  Cexp  CS  aceptar H 0  al error    Si Cexp  C I o Cexp  CS  aceptar H1  con error   ii) Si la tabla proporciona solo un límite C: Si Cexp  C  aceptar H 0  al error    Si Cexp  C  aceptar H1  con error   b) Cálculo de P y test de dos colas en base al mismo: Localizar en la Tabla del Apéndice apropiada los dos valores 1 y 2 consecutivos (con 1 < 2) en los que el test pasa de concluir H0 a concluir H1. pero en base al error 2. *. muy significativo o altamente significativo” respectivamente. b) Cuando P es “> 5%. Las conclusiones entonces suelen ser del tipo: H1 (P < 2%) o H0 (P  30%) por ejemplo. o menos veces si es menor).12 CONCEPTO GENERAL DE TEST DE HIPÓTESIS b) Regla Automática de Decisión para el caso de  = 5%: i) Si P 5%: se concluye H1.11 PRESENTACIÓN DE LAS CONCLUSIONES a) Las tablas estadísticas generalmente no permiten conocer el valor exacto de P. d) Tamaño de muestra: Las fórmulas de tamaño de muestra que se verán sir- ven para determinar el mínimo tamaño de muestra preciso para que un test de dos colas al error  dé significativo el (1)100% de las veces en que la verdadera hipótesis H1 se diferencie de H0 en la cantidad  que se especifique (o más veces si la diferencia es mayor. En todo caso. o como en b). ** o ***” respectivamente (para indicar que P toma los valores re- señados arriba). 12 .10. c) Tests de una cola al error : Comprobar si el resultado experimental es conforme con H1 y entonces: i) Si NO es conforme con H1: Decidir H0 sin más operaciones (P  50%). entonces 1 < P  2 y la decisión se toma del modo indicado en el Resumen 5.12 CRITERIOS GENERALES PARA TODOS LOS TESTS a) Tests de dos colas realizados a un error : Calcular una cantidad experi- mental Cexp a partir de los datos y compararla con la/s cantidad/es teórica/s C que indique/n la Tabla del Apéndice apropiada (al error ). cuando el test es de una cola hay que cambiar en la fórmula  por 2. pero con el P obtenido dividido por 2: 1/2 < P  2/2. En otras ocasiones encima del valor experimental se coloca “nada. ii) Si P > 15%: se concluye H0. iii) En otro caso: Se concluye H0. significativo.  5%. sino una cota del mismo. 5. indicando que hay indicios de significa- ción (en realidad conviene ampliar la muestra y repetir el test).  1% o  1‰” se dice que el test o el resultado es “no significativo.

p1 = p0+ para H1: p > p0 (además de cambiar  por 2 como es tradicional). con p desconocido: a) Test: Si x es una observación de ella y ocurre que np0 > 5 y nq0 > 5. .1 TEST DE NORMALIDAD DE D’AGOSTINO (H0: “La muestra proviene de una variable aleatoria Normal”) Si x1.. x2. p)... las cantidades z en la Tabla 1 y: i) En tests de una cola: p1 = p0 para H1: p < p0. . b) Tamaño de la muestra: Para detectar alternativas p1.5) / np0 q0 con una z de la Tabla 1.2 TEST DE HIPÓTESIS PARA UNA PROPORCIÓN (H0: p = p0) Sea xB(n. con q0 = 1p0.5 de entre los p0  . comparar con una D de la Tabla 4 (por el modo allí indicado) la cantidad: n 1 ixi  xi Dexp = 2  2  xi 2  n n xi    n  6. comparar zexp = (xnp00. TESTS CON UNA MUESTRA 13 RESUMEN DEL CAPÍTULO VI TESTS CON UNA MUESTRA 6. con p1p0= : 2  z p q  z2  p1q1  n=  0 0     con q1 = 1p1. xn es una muestra aleatoria (ordenada de menor a mayor) de una variable aleatoria x. ii) En tests de dos colas: p1 el valor más cercano a 0.

y compararla con F0. relacionadas o dependientes cuando cada individuo proporciona dos observaciones (los da- tos se obtienen por parejas).10 (Varianzas iguales:  12   22   2 ) (Test de Student): Com- parar con una t(n1+n22) de la Tabla 3 la cantidad: x1  x2  n  1 s12   n2  1 s22 texp = .2 TESTS PARAMÉTRICOS PARA COMPARAR DOS MEDIAS DE VARIABLES NORMALES (H0: 1 = 2) a) Test para muestras independientes: Si las muestras -de tamaños n1 y n2. con s12  s22 . iii) La mínima diferencia importante  alude al primer valor de 12 o de p1p2 a diferenciar del valor 0. n21] de la Tabla 5. obtener sus diferencias di = x1ix2i y la media ( d ) y varianza ( sd2 ) de las mismas. 7.1 GENERALIDADES VÁLIDAS PARA EL RESUMEN ACTUAL a) Muestras: Dos muestras son independientes cuando cada individuo de las mismas proporciona una única observación. lo anterior es válido sin el valor absoluto. con A = 1 .provienen de variables de medias 1 y 2 y varianzas  12 y  22 desconocidas. medias x1 y x2 y varianzas s12 y s22 . n. ii) Aluden a un test de dos colas: cuando sea de una cola cambiar  por 2. Son apareadas. con s 2 = 1 n n n1  n2  2 s2 1 2 n1n2 ii) Si Fexp  F0. El test consiste en comparar: d texp = vs. c) Intervalos de confianza: Todos están construidos como de dos colas. b) Test: Las comprobaciones previas a un test de una cola (H1: 1 < 2 o H1: p1 < p2 por ejemplo) son las lógicas ( x1  x2 o ˆp1  ˆp2 ). Cuando la asociación entre esas parejas de datos es positiva. x2i) de las mismas.10 [n11. obtener Fexp = s12 / s22 . d) Tamaños de muestra: En las fórmulas debe entenderse que: i) El tamaño pronosticado alude al tamaño de cada una de las dos muestras (n = n1 = n2) cuando estas se planifican como iguales.10 (Varianzas distintas:  12   22 ) (Test de Welch): Comparar con una t(f) de la Tabla 3 la cantidad:  A  B 2 x x s2 s2 texp = 1 2 . entonces: i) Si Fexp < F0. con i = 1.14 TESTS DE HOMOGENEIDAD CON DOS MUESTRAS RESUMEN DEL CAPÍTULO VII TESTS DE HOMOGENEIDAD CON DOS MUESTRAS 7. Si el test es de una cola. 2. el muestreo apareado es preferible al independiente. …. B = 2 y f = A B n1 n2 A2 B2  n1  1 n2  1 b) Test para muestras apareadas (Test de Student): Dadas dos variables (x1 y x2 de medias 1 y 2 respectivamente) y n parejas de datos (x1i. t(n1) de la Tabla 3 sd / n 2 14 . Para una cola cambiar  por 2 y conservar sólo el extremo apropiado.

. n =   ds . la segunda cuando hay una muestra piloto de tamaño n y varianza s2 (con f  = n 1 gl). n =          K  la primera expresión se utiliza cuando  d2 (o su valor máximo) es conoci- do.c. n = 2         K  la primera expresión se utiliza cuando  (o su valor máximo) es conoci- 2 do. con: 2 2 2 2  z  z2   2  t  t2    z  z2   n  2   .c. condiciones y alusiones de entonces: 12(numerador de la texp sin valor absoluto)  t(denominador de la texp) d) Tamaño de muestra: Con igual notación que en a) y b). con la misma notación. la segunda cuando hay muestras piloto de tamaños ni y varianza común s2 (con f  = n1  n2  2 ) y la tercera cuando  = K (con K un va- lor dado de antemano que usualmente verifica 0  K  0.i) y el intervalo del Resumen 7. ii) Muestras apareadas: 2 2 2  z  z2   2  t  t2   2  z  z2   n=  d  .a.2. n = 2s    .3 TESTS PARAMÉTRICOS PARA COMPARAR DOS MEDIAS DE VARIABLES CUALESQUIERA (H0: 1 = 2) Si.d si el n final predicho es superior a 60. Las reglas aconsejadas son las siguientes: a) Test e intervalo para muestras independientes: Aplicar el test de Welch del Resumen 7. en las condiciones y notación del Resumen 7.a.2.2. gran parte de lo indicado allí es aproximadamente váli- do si las muestras son grandes (mayores que 60 si las variables son marcada- mente no Normales). si la variable implicada es discreta y saltando de 1 en 1 conviene efectuar una cpc consistente en sumar al radio del intervalo de confianza la cantidad c (o restar al numerador de la texp la cantidad c) con: i) Muestras independientes: c = (n1+n2)/2n1n2. para detectar una diferencia 12=  (en lo que sigue zx se mira en la Tabla 1 y tx en la Ta- bla 3 con f  gl): i) Muestras independientes (Varianzas iguales): n1 = n2 = n.2. d) Variables discretas: En los casos a) y b). TESTS DE HOMOGENEIDAD CON DOS MUESTRAS 15 c) Intervalo de confianza para la diferencia de medias: La siguiente expre- sión es válida para los tres casos citados en a) y b).ii) y el intervalo del Resumen 7. 7. la tercera cuando 12= Kd.2. las variables implicadas (x o d) no son Normales. ii) Muestras apareadas: c = 1/2n. b) Test e intervalo para muestras apareadas: Aplicar el test de Student del Resumen 7.5).2. c) Tamaño de muestra: Es válido lo indicado en el Resumen 7.

ii) Si n > 25: Comparar con el valor z de la Tabla 1 la cantidad (en lo que sigue no se tiene en cuenta la posible existencia de empates): R       0. Por tal se entiende al proceso de. unir las dos muestras en una sola.5 n  n  1 2n  1 zexp = . ordenar el resto (n) de menor a mayor valor de sus valores absolutos. por ejemplo. = xs. asignarles rangos y calcular las sumas de rangos -R(+) y R(). p̂ =a1/N.7. pues se utiliza la aproximación de la Binomial a la Normal): 16 .1. con  = y 2 =   4 6 La verificación del sentido de la significación se hace en base a los rangos: si R(+) < R() entonces 1 < 2..  xn).. dada una muestra orde- nada de menor a mayor (x1  x2  . el rango n al elemento xn.. con  = 1 2  2 6 La verificación del sentido de la significación se hace en base a los rangos médios Ri = Ri/ni de cada muestra: si R1 < R2 entonces 1 < 2. Deberá suceder que R(+) + R() = n(n+1)/2. Cuando haya varios ele- mentos xi consecutivos iguales (empates) a cada uno de ellos se le asigna el rango promedio que tendrían si fueran distintos. el rango 2 al elemento x2.. Llamar por Rexp a la suma de rangos (R1) de la muestra de menor tamaño y entonces: i) Si n1+n2  30: Comparar Rexp con el valor R de la Tabla 6 por el modo allí indicado. es lo mismo. obtener las n' diferencias entre ellas.16 TESTS DE HOMOGENEIDAD CON DOS MUESTRAS 7.con el valor R de la Ta- bla 7 por el modo allí indicado.5  n  n  1 n1 y 2 =  n2 . b) Muestras independientes (test de Wilcoxon): Dadas dos muestras indepen- dientes de tamaños n1 y n2 (n1  n2 por convenio). llamando por p̂i =xi/ni. entonces. ordenarla de menor a mayor. lo que es prácticamente equivalente a afirmar que 1 = 2) a) Asignación de rangos: En lo que sigue se hablará de “asignar rangos a una muestra ordenada”. a cada elemento se le asigna el rango promedio (r+s)/2. . si xr = xr+1 = . asignarle rangos a sus elementos y calcular las sumas de rangos (R1 y R2) de los elementos de cada una de las muestras. 7. Deberá suceder que R1+R2 = (n1+n2)(n1+n2+1)/2. ii) Si n1+n2 >30: Comparar con el valor z de la Tabla 1 la cantidad (en lo que sigue no se tiene en cuenta la posible existencia de empates): zexp= Rexp    0. Entonces: i) Si n  25: Comparar R(+) -o R()..son independientes y si de cada una de ellas se obtiene una muestra en el formato de la Tabla R. rechazar las que sean cero. c) Muestras apareadas (test de Wilcoxon): Dadas n' parejas de datos. asignar el rango 1 al elemento x1.4 TESTS NO PARAMÉTRICOS (TESTS DE WILCOXON) PARA COMPARAR DOS MUESTRAS DE VARIABLES CUALESQUIERA (H0: La primera población no tiende a dar valores más altos o más bajos que la segunda.5 TESTS DE COMPARACIÓN DE DOS PROPORCIONES (MUES- TRAS INDEPENDIENTES) (H0: p1 = p2) Si xi  B(ni. 2. q̂i =1 p̂i y qˆ  1  ˆp (en lo que sigue las cantidades zx siem- pre en la Tabla 1..de las diferencias positivas y negativas. pi) -con i = 1..

qi = 1pi y las p1 y p2 lo más cercanas posibles a 0. para c = 0 y con los datos incrementados en z2 4 ). compatibles con la información que se posea sobre ellas y ta- les que p1 p2 = . basta con que E  7. El test incondicionado consiste en comparar: N 1/n n si n1  n2 zexp =  ˆp1  ˆp2  c  ˆpqˆ . n2)/N.      con p = (p1+p2)/2. a2)Mín (n1.2 Presentación de datos cuando se comparan Presentación de datos cuando se comparan dos proporciones independientes dos proporciones apareadas Característica B SÍ NO Totales SÍ NO Total Muestras A 1 x1 y1 n1 SÍ n11 n12 2 x2 y2 n2 NO n21 n22 Totales a1 a2 N Total n a) Test: Sea E = Mín (a1.7. c) Tamaño de muestra: Para detectar una diferencia  = p1p2: i) Con información (sobre las pi): 2  z 2 pq  z2  p1q1  p2 q2  n   .7.5  /2 arriba: 2 1  z  z2  1    2 n=   2     . z n1n2 2 /n1n2 si n1  n2 siendo válido si E  14. y1.5  /2. TESTS DE HOMOGENEIDAD CON DOS MUESTRAS 17 Tabla R. y2 son todos mayores que 5:  ˆp qˆ ˆp qˆ  p1  p2  ( ˆp1  ˆp2 )   z 1 1  2 2  c  con c como arriba  n1 n2  ii) Método de Agresti-Caffo (mejor que el anterior): Si h = z2 4 : p1p2  1 x h x h  2  z  x1  h  y1  h    x2  h  y2  h  n1  2h n2  2h n13 n23 (el método de Wald. x2. con c=  1 2 vs. Más conservador es el test condicionado clásico con la cpc de Yates que se obtiene haciendo arriba c = N/2n1n2.9 (aunque cuando N  500.7). ii) Sin información: haciendo pi = 0.1 Tabla R. el cual suele decirse (erróneamente) que es válido si E > 5. q = 1p. b) Intervalo de confianza para la diferencia de proporciones: i) Método de Wald (clásico): Si x1.

2. n21 > 5:     n  n21  2   p1  p2   n12  n21    z  n12  n21   12  0. comparar n12  n21  0.7 COMPARACIONES MÚLTIPLES: Método de Bonferroni Cuando deban hacerse K tests de hipótesis sobre los que se desea un error global de .5 e incrementando los datos en 0.7. z. n12  n21 b) Intervalo de confianza para la diferencia de proporciones: i) Método de Wald (clásico): Si n12.5 zexp = vs. los datos pueden presentarse como en la Tabla R. el nivel de error a utilizar en cada test individual debe ser de /K.5: (n12  n21 )2 (n12  n21 )  z (n12  n21 +1)  p1  p2  n2 n2 c) Tamaño de muestra: Para valores .6 TEST DE COMPARACIÓN DE DOS PROPORCIONES (MUES- TRAS APAREADAS) (H0: p1 = p2) Si los n individuos de una muestra son clasificados según que presenten (SÍ) o no (NO) una determinada característica tras la aplicación de un tratamien- to A (entendido de modo genérico: no tiene porqué ser un tratamiento médico) y lo mismo tras la aplicación de otro tratamiento B. 18 . La Tabla 8 ayuda a obtener las cantidades teóricas t/K (f gl) y z/K (la de antes en f = ).  y  =p1p2=p12p21: i) Con información (sobre las pi): hacer (p12+p21) () lo máximo posible en:    2 n= z p12  p21  z2  p12  p21   2  ii) Sin información: n =  z   2   z2  1   2  7.5 n   n   ii) Método de Agresti-Min (mejor que el anterior): Equivalente a aplicar el anterior omitiendo el 0.18 TESTS DE HOMOGENEIDAD CON DOS MUESTRAS 7. Si p1 y p2 son las proporciones de respuestas SÍ a cada tratamiento (en lo que sigue zx siempre en la Tabla 1): a) Test de McNemar: Si n12+n21 > 10.

clases = colum- nas). Si en los T individuos de una muestra aleatoria se determinan dos caracte- res cualitativos A y B. 2 {gl = (r1)(sl)} de la Tabla 9. Ahora las causas de la significación se pueden buscar por filas o columnas. se define: Oij = Nº de individuos de la muestra i que caen en la clase j = Cantidades Observadas.j Eij i .1 TESTS EN TABLAS rs DISTINTAS DE 22 a) Test de homogeneidad de varias muestras cualitativas (H0: La proporción de individuos que caen en una determinada clase es la misma para todas las poblaciones y esto vale para todas las clases  Todas las muestras provienen de igual población). Cj = Total de la columna j = nº total de individuos de la clase j =iOij.8. T = Gran total = nº total de individuos = Fi = Cj =Oij.1 (muestras = filas. b) Test de independencia entre dos cualidades (H0: Los caracteres A y B son independientes  no están asociados  no están relacionados). comparar O  Eij  2 Oij2   ij  2 exp  T vs.8. el primero dividido en r clases y el segundo en s cla- ses. si ninguna Eij es inferior a 1 y no más del 20% de ellas son infe- riores o iguales que 5. iii) Búsqueda de la significación (si ocurre): A través de los % por filas. j Eij La cantidad experimental anterior se denomina estadístico chi-cuadrado de Pearson (su segunda expresión es la más apropiada para el cálculo). i. Fi = Total de la fila i = nº total de individuos de la muestra i = jOij.8. TEST CHI-CUADRADO Y TABLAS 22 19 RESUMEN DEL CAPÍTULO VIII TEST CHI-CUADRADO Y TABLAS 22 8. . Tabla R.1: Tabla de contingencia rs Columnas Oij Totales 1 2 ··· s 1 O11 O12 ··· O1s F1 Filas 2 O21 O22 ··· O2s F2 ··· ··· ··· ··· ··· ··· r Or1 Or2 ··· Ors Fr Totales C1 C2 ··· Cs T i) Presentación de los datos: Dadas r muestras cuyos individuos se clasifi- can en s clases como en la Tabla R.1 (con “fi- las” y “columnas” cambiadas por “clases del carácter A” y “clases del carác- ter B” respectivamente) proceder como en el Resumen a) anterior. ii) Realización del test: Calcular las Cantidades Esperadas Eij = FiCj/T (cuyos totales de fila y de columna han de ser las Fi y Cj de antes) y en- tonces. y se les clasifica en base a ello en una tabla como la Tabla R.

7 (aunque si N  500 basta con E  8.4 MEDIDAS DE ASOCIACIÓN EN TABLAS 22 Con frecuencia los dos caracteres dicotómicos estudiados (E y FR) suelen aludir a la presencia o no de una enfermedad o efecto indeseado (E o E ) y a la presencia o no de un factor de riesgo (FR o FR ).8). C2) / T = mínima cantidad esperada de la tabla. a) Tipos de muestreo y tipos de estudio (epidemiológico): Para estudiar la asociación entre E y FR los tipos de muestreo pueden ser dos y los tipos de 20 . es posible y preferible asignarle valores numéricos a sus clases y analizar los nuevos datos por la técnica cuantitativa apropiada (en lugar de por el test chi-cuadrado). c) La asignación puede hacerse si el fenómeno estudiado hubiera podido medir- se en una escala continua (de haber dispuesto de los instrumentos adecuados) y si las clases obtenidas pueden considerarse como un agrupamiento de tal escala por medio de otra más burda formada por sus valores redondeados.5  2 11  2 exp = T F1 F2 C1C2 8. con c=  F1 F2C1C2  2 si F1  F2 c) Test (óptimo) de independencia en tablas 22: (SÍ USAR) Si E  6. b) Si una característica cualitativa es ordinal. pues dan lu- gar a tests más potentes.3 ASIGNACIÓN DE VALORES CUANTITATIVOS ARBITRARIOS a) Los métodos basados en datos cuantitativos (como los tests de Student) son preferibles a los basados en datos cualitativos (como el test 2). F2)Mín (C1.9 (aunque cuando N  500. basta con que E  7.2 TESTS EN TABLAS 22 Con la misma notación y objetivos de la sección anterior. aplicar el estadístico del Resumen 8.9): O O22  O12 O21  0.2. obteniendo así unos datos como los de la Tabla R.1 con la cpc de Yates: 2  T  O  O  O O  2 Oij  Eij  0.7): O O22  O12O21  c  2 1 si F1  F2  2 exp = 11  T .1 que es igual a: O O  O12O21   T 2  P2 = 11 22 F1 F2C1C2 ii) Test chi-cuadrado de Yates = test chi-cuadrado con la corrección por continuidad de Yates: Si E  20. basta con que E  3. aplicar el estadístico del Resumen 8. 8.8. para todo lo que sigue se define E = Mín (F1 . el factor de riesgo en columnas y el SÍ en pri- mer lugar. En lo que sigue se asume que la enfermedad se ubica en filas.2 (aun- que cuando N  500. a) Tests clásicos para cualquier tabla 22: (NO USAR) i)Test chi-cuadrado de Pearson = test chi-cuadrado sin corrección por con- tinuidad: Si E > 5. La cantidad teórica para el test es siempre 2 {gl = l} de la Tabla 9.5  11 22 12 21    2 Y2   T Eij F1 F2C1C2 b) Test (óptimo) de homogeneidad en tablas 22: (SÍ USAR) Si E  14.20 TEST CHI-CUADRADO Y TABLAS 22 8.

8.5 (en general la enfermedad: estudio retrospectivo).2 (basta con E  3.  Estudio Retrospectivo o de Caso-Control: Tomar F1 y F2 individuos al azar y clasificarlos en base a FR.4). pero la medida a usar depende del fin perseguido y su cálculo será lícito o no en función del muestreo utilizado. TEST CHI-CUADRADO Y TABLAS 22 21 estudio tres (en lo que sigue se utiliza el nombre que está subrayado): Tabla R. Longitudinal o de Seguimiento: Tomar C1 y C2 in- dividuos al azar y clasificarlos en base a E. ii) Muestreo de Tipo II: F1 enfermos y F2 sanos se clasifican en base al resulta- do del test (estudio retrospectivo del Resumen 8. b) Test apropiado (H0: E y FR son independientes): i) En el muestreo de Tipo I: Si E  6. Desde un punto de vista estadístico.9 si N  500): O O22  O12 O21  0.9 (basta con E  7.5 EVALUACIÓN DE UN MÉTODO DE DIAGNÓSTICO BINARIO Si en la Tabla R. a) Tipos de muestreo: La tabla puede haberse obtenido de dos modos: i) Muestreo de Tipo I: T individuos al azar se clasifican en base a su estado real y al resultado del test (estudio transversal del Resumen 8.1 las resume (pero él es aplicable solo a datos en el formato de la Tabla R.3. 8.8. se obtiene entonces la Tabla R. ii) Muestreo de Tipo II (Preferible al de Tipo I si las Fi o las Cj se planifican como iguales):  Estudio Prospectivo. El Cuadro R.2 Formato estándar para los estudios epidemiológicos Factor de riesgo Enfermedad SÍ = FR NO = FR Totales SÍ = E O11 O12 F1 NO = E O21 O22 F2 Totales C1 C2 T i) Muestreo de Tipo I (Estudio Transversal): Tomar T individuos al azar y clasificarlos en base a E y FR. El objetivo es eva- luar la bondad del test.5  2 11  2 exp = T F1 F2 C1C2 ii) En el muestreo de Tipo II: Si E  14.7 si N  500): O O22  O12O21  c  2  2 exp = 11  T con: F1 F2C1C2 1 si F1  F2 1 si C1  C2 Si Retrospectivo: c=  .2 se entiende que FR alude a que un test diagnóstico ha dado positivo (suceso D). . el diseño óptimo consiste en tomar muestras de igual tamaño de los niveles de la característica cuya frecuencia dista más de 0.8. Si Prospectivo: c=   2 si F1  F2  2 si C1  C2 c) Medidas de asociación: Una medida de asociación es un número que indica el grado de dependencia existente entre los dos caracteres E y FR estudiados.2).8.4).8.

en donde SN+FN=EP+FP = 100 (FP y FN aluden a fallos en el diagnóstico). 22 . VPN VPP  = O22 C1 C2 ii) Muestreo de Tipo II: No se pueden estimar hasta conocer la prevalencia p de la población de interés. En base a ellos: i) Si EP es alta: el test es útil para afirmar la enfermedad (conviene aplicarlo a individuos sospechosos de poseerla). FN SN  = O12 .a). FN = Falsos Negativos = % de enfermos diagnosticados negativamente. VPN = Valor Predictivo Negativo = % de los diagnósticos negativos que son correctos. cuyos valores que dependen de SN. c) Evaluación de la utilidad clínica de un test: Se basa en los % de aciertos de los diagnósticos positivo o negativo (los de interés para el enfermo): VPP = Valor Predictivo Positivo = % de diagnósticos positivos que son correctos. FP  F1 F1 F2 F2 y por intervalo de confianza como en el Resumen 4. Para estimarlos hay que contem- plar dos situaciones: i) Muestreo de Tipo I: Como son proporciones binomiales.3 Resultados de un test diagnóstico en función del estado real del individuo Resultado del test +(D) (D) Presencia de la SÍ (E) O11 O12 F1 enfermedad NO ( E ) O21 O22 F2 C1 C2 T b) Evaluación de la calidad de un test: Se basa en los porcentajes de aciertos SN y EP al diagnosticar a los enfermos y sanos respectivamente: SN = Sensibilidad = % de enfermos diagnosticados positivamente.4.22 TEST CHI-CUADRADO Y TABLAS 22 Tabla R. EP y de la prevalencia p (% de enfermos) de la población a la que se esté aludiendo.a) y puntualmente por:   O11 . ii) Si VPN es alto: el test es útil para descartar la enfermedad. EP = Especificidad = % de sanos diagnosticados negativamente. ii) Si SN es alta: el test es útil para descartar la enfermedad (conviene apli- carlo como procedimiento de rutina para el diagnóstico precoz de ella). en cuyo caso ( S y EP como en i)): = VPP p  S  = . se estiman por intervalo de confianza como en el Resumen 4. FP = Falsos Positivos = % de sanos diagnosticados positivamente.4. VPN 1  p   EP  p  SN   +  1  p   1  EP   1  p   EP   + p  1  SN   En base a tales valores (y para la prevalencia asumida): i) Si VPP es alto: el test es útil para afirmar la enfermedad. Tales parámetros son proporciones binomiales que se estiman puntual- mente (bajo cualquiera de los dos muestreos) por:   O11 . E  O  O21 P  22 .8.

1  O11 O12 O21 O22  Riesgo relativo (de FR para E): La probabilidad de enfermar es R veces mayor en los individuos con el FR que en los sin el FR.5. es O veces mayor en los individuos con el FR que en los sin el FR. Fi. TEST CHI-CUADRADO Y TABLAS 22  O21 O  Clásica: R  Rˆ  exp   z  22  en h = 0. Cj+2h). 23 . (4) p = Prevalencia de la enfermedad (% de enfermos en la población).5: ver la nota (3) que sigue. Cuadro R. (2) Si alguna Oij = 0.8. sino en base a los datos incrementados (Oij+h. efectuar la estimación para h = 0.5 p < 0. (3) Cuando se indica “en h =” quiere decir que la fórmula se aplica no en base a los datos originales (Oij. Fi +2h.1 Medidas de asociación epidemiológicas en tablas 22 (Asociación ) Definición (1) Valores Independencia Caso Estimación (2) Estudios en Intervalo de Confianza (aproximado) posibles que es válida (z en la TABLA 1) (3) (Asociación +) 1   < 0 O11O22  O12O21 Transversales O O O O  = p1p2  =0 General δ̂ =   δ̂  z 11 3 12  21 3 22 en h = z2 / 4 C C Prospectivos C C2 0 <   +1 1 2 1 Diferencia de Berkson: La probabilidad de enfermar en los individuos con el FR aumenta en un 100 % (en términos absolutos) respecto de los sin el FR. p1 1  p2  0O<1 ˆ  exp   z 1  O11O22 Transversales 1 1 1 O= O=1 General Ô = Prospectivos O O     en h = 0. (1) p1 (p2) = % de enfermos en el grupo con (sin) el FR. Cj).5 p2 1  p1  O12O21 Retrospectivos   O11 O12 O21 O22  1<O Razón del producto cruzado: La fracción de individuos que enferman frente a los que no.  O11C1 O12C2  O C 0R<1 General Rˆ = 11 2 Transversales p1 O12C1 Prospectivos R̂  O21 O O21O22  Mejor: R  1  z  22  z2  en h = z / 4 2 R= R=1 O21  O C O C O O C C   p2 1  z 2 11 1 12 2 11 12 1 2 O11C1 1<R< (4) Si  1 1 1 1  ˆ R̂  O Retrospectivos R  Oˆ  exp   z     en h = 0.

24 . su representación por puntos en el plano cartesiano da lugar a una nube de puntos. A la variable ubicada en el eje horizontal (usualmente x) se le llama variable independiente o controlada. Ello sucede por dos causas: i) La variabilidad biológica de los individuos a estudiar. ii) La variabilidad aleatoria de los métodos utilizados al medir las dos varia- bles implicadas. Puede ocurrir: i) Que x sea realmente la causa de y. ii) Estudiar el tipo de relación que las liga (si existe). ii) Regresión curvilínea: Si hay sólo dos variables. la técnica de regresión puede perseguir tres objetivos: i) Estudiar si ambas variables están relacionadas o si son independientes. RESUMEN DEL CAPÍTULO IX REGRESIÓN LINEAL SIMPLE 9. x e y. x e y. se dice que existe regresión. Si a ella se ajusta alguna curva. a la curva se le llama línea de regresión y a la función que la re- presenta se le llama función de regresión. c) Sobre la existencia de regresión: Dadas n parejas de valores (xi. 23 iii) Regresión múltiple: Si hay una variable objetivo y a relacionar con más de una variable de apoyo x1. x2. pero en las Ciencias de la Salud la relación es aleatoria (conocido el valor de una variable se conoce el de la otra sólo de un modo aproximado). … e) Asociación y causalidad: La demostración estadística de que dos variables están asociadas no constituye una prueba de que una de ellas sea causa de la otra. ii) Que ambas variables se influyan mutuamente. d) Tipos de regresión: i) Regresión lineal simple (la de este capítulo): Si hay solo dos variables. relacionadas entre sí mediante una línea recta. iii) Que ambas variables dependan de una causa común (una tercera variable z no contemplada).1 INTRODUCCIÓN a) Objetivos: Dadas dos variables cuantitativas x e y medidas en los mismos in- dividuos. a la ubicada en el eje vertical (usualmente y) se le llama variable dependiente. b) Relaciones deterministas y aleatorias: En las Ciencias Exactas la relación entre dos variables es determinista (conocido el valor de una de ellas se co- noce exactamente el de la otra). TEST CHI-CUADRADO Y TABLAS 22 iii) Predecir los valores de una de ellas a partir de los de la otra. relacionadas entre sí mediante una línea curva. yi) obteni- dos de una muestra.

la variable y sigue una distribución Normal de media x = +x y de varianza 2 constante (independiente de x). by·x y s y2 x por haber sido obtenidos de la regresión de “y sobre x” (y en el eje ver- tical. linealidad y homogeneidad de varianzas. es decir cuando x = 0). yi) pueden hacerse me- diante dos tipos de muestreo (es preferible el segundo). En todo ca- so. Sea la nube de puntos de residuales que se obtiene al representar di = yi ŷi (en el eje vertical) con- tra ŷi (en el eje horizontal). siendo di = yi ŷi los residuos o residuales (o error de la pre- dicción). que conviene que sea grande) sólo la de “y sobre x”. b) Predicciones y residuales: ŷ = a+bx proporciona la predicción de y en ca- da valor de x. Las claves del modelo son pues: Normalidad. Los parámetros poblacionales anteriores se estimarán por sus correspon- dientes parámetros muestrales ̂ = a (altura en el origen muestral). e) Comprobación del modelo: Sea la nube de puntos normal que se obtiene al representar en el plano las n parejas de valores (xi. las predicciones solo son válidas dentro del rango de muestreo (entre el valor mínimo y el valor máximo de xi). a  altura en el origen po- blacional (altura en que corta la recta al eje vertical. c) ¿Quién sobre quién?: Los parámetros anteriores se entiende que son ay·x. a  pendiente poblacional (lo que aumenta la media de y cuando x aumenta en una unidad) y a 2 varianza de regresión poblacional (variabilidad de y alre- dedor de la recta de regresión). La predicción puntual de x en este último caso se hace por calibración lineal: x̂   y / b    a / b  . el de Tipo II (que es preferible por controlar la variabilidad de los valores xi. REGRESIÓN LINEAL SIMPLE 25 9. bx·y y sx2 y ) si en el eje horizontal se pone a la variable y y en el vertical la variable x (regre- sión de “x sobre y”). ̂ 2 = s2 (varianza de regresión muestral) e ŷ = a+bx (recta de regresión muestral). Se realizará la regresión de “y sobre x” cuando el objeti- vo sea predecir y a partir de x. d) Tipos de muestreo: La obtención de las n parejas (xi. x en el horizontal). en donde el término “muestral” puede susti- tuirse por “experimental” o por “estimada”. ii) Muestreo de Tipo II: Tomar n valores de x elegidos de antemano (que no tienen porqué ser todos distintos) y obtener un valor de y al azar en cada uno de ellos. A x = +x se le llama recta de regresión poblacional.2 MODELO DE REGRESIÓN LINEAL SIMPLE Y SUS CONSE- CUENCIAS a) Modelo: Para cada valor de x. El muestreo de Tipo I permite hacer las dos regresiones. siendo la clave que los valores de yi deben obtenerse siempre al azar: i) Muestreo de Tipo I: Tomar n individuos al azar y anotar sus valores de x e y. Los resultados no son los mismos (ax·y. ̂ = b (pendiente muestral). Las tres condiciones del modelo de regresión se pueden verificar del siguiente modo (el basado en los residuales es mejor): i) Normalidad: No se verifica si la variable y es discreta o si el test de Nor- malidad es significativo al aplicarlo a cada conjunto de observaciones y . yi).

s2 26 . a veces un cambio de escala apropiado puede convertir la curva en recta (linealización): cambiar x por log x. la tercera su método abreviado de cálculo y la primera su símbolo corto para referencias. La de residuales ha de ser paralela al eje horizontal. comparar texp = b  xx  vs. 9. con i = 1. n. iii) Homogeneidad de varianzas: La nube de puntos normal ha de ser ovala- da. . La de residuales igual con el aumento de ŷ . Cuando esto no es así. y) obtenidos por TEST CHI-CUADRADO Y TABLAS 22 alguno de los tipos de muestreo anteriores. los estimadores a de  y b de  que dan lugar a la recta de regresión estimada ŷ = a+bx se determinan por el princi- pio de los mínimos cuadrados... y/o similarmente con y. 2. t.  xx  b) Test de independencia (H0:  = 0): Si la relación es lineal.4 INFERENCIAS EN REGRESIÓN LINEAL SIMPLE En los dos casos que siguen. en cada x (lo que requiere de un muestreo con observaciones repetidas). ii) Linealidad: La nube de puntos normal ha de mostrar una tendencia ex- clusivamente lineal. 1/x. a = y  bx y 2 1   xy    b= s   yy     xx  n2  xx)  con:  Σxi  2 2 (xx) = (xi x ) =  xi  2 n  Σyi  2 (yy) = (yi y )2 =  yi2  n (xy) = (xi x )(yi y ) = xiyi   Σxi  Σyi  n en donde la segunda expresión es la definición.. etc. x . es decir haciendo que la suma de los cuadrados de las diferencias entre lo real (y) y lo estimado ( ŷ ) -(yi ŷ )2= (yiabxi)2- sea lo más pequeña posible. son n parejas de valores de (x. yi). 23 9. t se busca en la Tabla 3 con (n2) g1: s2 a) Intervalo de confianza para la pendiente:   b  t .3 ESTIMACIÓN DE LOS PARÁMETROS DEL MODELO DE RE- GRESIÓN LINEAL Si (xi. El criterio ocasiona que tales estimadores y el esti- mador s2 de 2 sean:  xy  . sin mostrar tendencia a ser más ancha o más estrecha con el aumento de x.

3. se trata de: i) Medir la fuerza con ambas variables que están relacionadas: mediante el coeficiente de correlación. ii) Para el test de independencia: de Tipo I o de Tipo II (los valores de xi o yi están dados de antemano). x e y son independientes) si  = 0. y) se utilizará la técnica de correlación si el único objetivo es saber si ambas están relacionadas y con qué fuerza. 12.4. con i = 1. ii) 2 es la proporción de la variabilidad total de y que está explicada por su regresión lineal en x (el resto. Se utilizará la técnica de regresión si lo que se desea es saber si están relacionadas y efectuar predicciones de una variable a partir de la otra..2 COEFICIENTE DE CORRELACIÓN LINEAL SIMPLE (O DE PEARSON): CORRELACIÓN PARAMÉTRICA a) Modelo. Cuando tiene forma circular o es para- lela a uno de los ejes entonces  = 0. d) Test de independencia entre x e y (H0:  = 0): Cualquiera que sea el mues- treo utilizado. más y). iii) El valor absoluto  mide la fuerza de relación entre x e y (a más  más fuerza).. 10. el cual se estima (en el muestreo I) por el coeficiente de correlación muestral ( ̂ = r): r  xy  . yi) se miden en los n individuos de una muestra. H1: “x e y son dependientes”. en tanto que el signo de  indica el sentido de la misma: po- sitiva si  > 0 (a más x. comparar (test idéntico al del Resumen 9. negativa si  < 0 (a más x. t (n2 gl) de la Tabla 3 1 r2 e) ¿Regresión o correlación? Dadas dos variables (x.a) y e) y 9..1 INTRODUCCIÓN a) Objetivos: Dadas dos variables cuantitativas x e y cuyos valores (xi. más grande es .  xx  yy  c) Propiedades de  (lo que sigue es válido también para r): i) 1    +1 es un número adimensional que no depende de las unidades de medida ni del orden en que se enuncien las variables (xy=yx). n. es la parte no explicada que depende de otras variables no contempladas en el problema). ii) Realizar el test de independencia entre ambas: mediante el contraste de H0: “x e y son independientes” vs. comprobación del modelo y valores de (xx).b):  n   r 2 texp = vs. menos y) o nu- la (es decir. Es muy habitual simultanear ambos resultados. b) Muestreo válido: i) Para medir la fuerza: de Tipo I (los valores xi e yi se eligen al azar). (xy) e (yy): Como en los Resúmenes 9. CORRELACIÓN 27 RESUMEN DEL CAPÍTULO X CORRELACIÓN 10. .2. iv) Cuanto más aplastada es una nube de puntos respecto de una misma recta de regresión.. b) Estimación: La fuerza con que las dos variables están ligadas se mide me- diante el coeficiente de correlación poblacional (lineal simple) .

pero la asociación entre las mismas ha de ser monotónica (una variable siempre crece o siempre de- crece con la otra). Sea x una variable cuantitativa cualquiera y C una cualidad con s clases. 10.4. yi) originales. y con igual convenio que en el Resumen 9.3) y aplicar a las parejas (xi. b) Modelo: Las dos variables pueden ser cualesquiera. b) Si C es una cualidad no ordinal: i) Si s = 2: Comparar los valores medios de x (1 y 2) en las dos clases de C por el procedimiento de los Resúmenes 7. .c).2 o 10.a). ii) Si s > 2: Comparar los valores medios de x (1.3 COEFICIENTE DE CORRELACIÓN DE SPEARMAN: CORRE- LACIÓN NO PARAMÉTRICA a) Objetivo: Medir la asociación entre dos variables cuantitativas cualesquiera. el cual se estima (en el muestreo I) por el coefi- ciente de correlación muestral ̂ S = rS que se obtiene como sigue: (1) Obtener una muestra de n parejas de valores (xi.3.3. convertir la cantidad x en cualidad (definiendo r intervalos de clase arbitrarios). comprobando que Ri =  Ri = n(n+1)/2. Alternativamente. yi) así obtenidas los Resúmenes 10. 28 . la fórmula anterior se simplifica en la siguiente:   Ri  Ri 2 rS = 1  6   n  1 n  n+1 d) Propiedades: Como en el Resumen 10.. (2) Ordenar de menor a mayor los valores de xi y asignarles rangos Ri como en el Resumen 7. c) Estimación: La fuerza de la asociación la mide el coeficiente de correlación poblacional de Spearman S. Si se toma una muestra de n individuos se obtendrán n parejas de valores (x.b). 2. e) Test de independencia entre x e y (H0: S = 0): con cualquier muestreo: i) Si n  30: Comparar rS con r de la Tabla 10 por el modo allí indicado.2. Los métodos para ello son: a) Si C es una cualidad ordinal: Convertir la cualidad en cantidad (asignándo- le a sus clases valores cuantitativos arbitrarios y por el método del Resumen 8. lo que puede comprobarse a través de la nube de puntos..1 (aunque ello conlleva una gran pérdida de potencia).. (5) Obtener el coeficiente de correlación lineal simple para las n parejas de ran- gos. s) en las s clases de C por el procedimiento del análisis de la varianza (no contemplado en es- tos Resúmenes).a) o 7.a). es decir. pero relativas a los rangos.3.4.28 CORRELACIÓN 10.2. ii) Si n > 30: Comparar con z de la Tabla 1 la cantidad zexp = rS n  1 . Ri ) correspondientes a las parejas (xi. 7. yi). (4) Anotar las parejas (Ri. (3) Proceder igual con los valores de yi asignándoles rangos Ri . rS   RR   RR  RR  Cuando no hay empates.4 TEST DE INDEPENDENCIA CON VARIABLES MIXTAS (H0: Los valores de un individuo con respecto a una variable cuantitativa x son in- dependientes de la clase a que este pertenece respecto de una cualidad C). formar la tabla contingencia rs que ello produce y analizarla por la técnica de 2 del Resumen 8. C) a partir de las cuales hay que contrastar H0.

......... (Eds) (1986)..... Glasser.......... J..A.... Critical values of the coefficient of rank correla- tion for testing the hypothesis of independence....J................ Princeton........ Biometrika 48.......... Biometrics 8.......................... 34 Tabla 6 .... Memorandum report nº 17 Statisti- cal Research group...................B............. The simplest signed rank tests........... 32 Tabla 4 ...... 30 Tabla 2 .. Tabla 1 .................... S... R........... Distribución F de Snedecor . Goodness-of-fit Techniques.......E........ Ediciones del Castillo.... Distribución de Bonferroni .................. Ríos....... TABLAS 29 TABLAS DE BIOESTADÍSTICA Pág................ . (1952).... 37 Tabla 9 .......... (1967)......... 35 Tabla 7 .... Distribución Normal típica (dos colas) ............................ White....................... 2. Límites de significación para el test de Normalidad de D’Agostino ..................... G........ (1961). (1949)........ and Stephens..... Distribución t de Student .............................................. Métodos estadísticos.............. Marcel Dekker..... 33 Tabla 5 . 444-448............. Límites de significación para el coeficiente de correlación de Spearman ............. 36 Tabla 8 ................................ New York....... The use of ranks in a test of significance for comparing two treat- ments....................W.. Inc........ Distribución  .... R..... 39 REFERENCIAS D'Agostino...................... 31 Tabla 3 ... Tukey............ Límites de significación para el test de Wilcoxon (dos muestras independientes) .... Madrid...500 números aleatorios ............ 33-40.. Límites de significación para el test de Wilcoxon (dos muestras apareadas) . M................. C... New Jersey... and Winter....... 2 38 Tabla 10 ............

358 0.311 0.812 1.8 0.126 1.598 0.036 1.994 0.860 0.6 0.555 1.228 0.772 0.253 0.254 1.755 0.824 0.08 0.305 0.30 TABLAS Tabla 1 Distribución Normal típica (dos colas) /2 /2  z 0  z  0.598 1.015 0.164 0.202 0.090 3.440 1.000 1 0.881 1.063 0.151 0.643 0.100 0.510 0.200 1.539 0.292 0.150 1.138 0.075 0.013 Tabla para los pequeños valores de   0.892 5.954 0.806 0.227 1.440 0.09 0.5 0.266 0.05 0.514 1.842 0.327 Nota: Para cada valor de  (en el caso de la tabla principal.751 1.000 000 1 z 3.974 0.935 0.113 0.326 2.960 1.054 1.476 1.412 0. 30 .568 0.080 1.103 1.000 001 0.372 1.175 1.695 0.659 0.06 0.002 0.126 0.088 0.9 0.341 1.03 0.001 0.07 0.189 0.878 0.282 1.468 0.385 0.240 0. la suma de la primera columna y de la primera fila) en el interior de la tabla se da el valor z tal que a la izquierda de  z y a la derecha de + z hay un área total de .319 0.722 0.583 0.417 4.645 1.739 0.050 0.170 2.454 0.896 0.482 0.553 0.058 0.628 0.332 0.279 0.372 0.915 0.345 0.176 0.000 01 0.674 0.496 0.02 0.025 0.01 0.789 0.524 0.405 1.290 3.2 1.215 0.4 0.426 0.891 4.0  2.00 0.690 0.3 1.7 0.576 2.613 0.04 0.399 0.706 0.038 0.1 1.

TABLAS 31 Tabla 2 2. Ríos (1967) . ...500 números aleatorios 0347437386 3696473661 4698637162 3326168045 6011141095 9774246762 4281145720 4253323732 2707360751 2451798973 1676622766 5650267107 3290797853 1355385859 8897541410 1256859926 9696682731 0503729315 5712101421 8826498176 5559563564 3854824622 3162430990 0618443253 2383013030 1622779439 4954435482 1737932378 8735209643 8426349164 8442175331 5724550688 7704744767 2176335025 8392120676 6301637859 1695556719 9810507175 1286735807 4439523879 3321123429 7864560782 5242074438 1551001342 9966027954 5760863244 0947279654 4917460962 9052847727 0802734328 1818079246 4417165809 7983861962 0676500310 5523640505 2662389775 8416074499 8311463224 2014858845 1093728871 2342406474 8297777781 0745321408 3298940772 9385791075 5236281995 5092261197 0056763138 8022025353 8660420453 3785943512 8339500830 4234079688 5442068798 3585294839 7029171213 4033203826 1389510374 1776371304 0774211930 5662183735 9683508775 9712259347 7033240354 9777464480 9949572277 8842954572 1664361600 0443186679 9477242190 1608150472 3327143409 4559346849 1272073445 9927729514 3116933243 5027898719 2015370049 5285666044 3868881180 6834301370 5574307740 4422788426 0433460952 6807970657 7457256576 5929976860 7191386754 1358182476 1554559552 2742378653 4855906572 9657693610 9646924245 9760490491 0039682961 6637322030 7784570329 1045650426 1104966724 2994989424 6849691082 5375919330 3425205727 4048735192 1690826659 8362641112 6719007174 6047212968 0202370331 1127947506 0609197466 0294373402 7670903086 3845943038 3524101620 3332512638 7978450491 1692535616 0275509598 3823168638 4238970150 8775668141 4001749162 4851840832 3196259147 9644334913 3486825391 0052434885 2755268962 5667406714 6405719586 1105650968 7683203790 5716001166 1490844511 7573880590 5227411486 2298122208 0752749580 6805511800 3396027519 0760629355 5933824390 4937384459 2046787390 9751401402 0402333108 3954164936 4795931330 6419589779 1506159320 0190107506 4078788962 0267741733 0526937060 2235851513 9203515977 5956780683 5291057074 0797108823 0998429964 6171629915 0651291693 5805770951 6871868585 5487664754 7332081112 4495926316 2956242948 2699616553 5837788070 4210506742 3217558574 9444671694 1465526875 8759362241 2678630655 1308270150 1529393943 1753775871 7141615072 1241949626 4495273699 0296743083 9026592119 2352233312 9693021839 0702183607 2599327023 4123525599 3104496996 1047484588 1341438920 9717144917 6020508169 3199736868 3581330376 2430124860 1899107234 9125380590 9458284136 4537590309 9035572912 8262546560 3450577437 9880330091 0977931982 7494800404 4507316649 8522043943 7381539479 3362468628 0831544631 5394133847 0979137748 7382972221 0503272483 7289440560 3580399488 8875801814 2295754249 3932822249 0248077037 1604616787 9096237000 3900030690 5585783836 9437306932 9089007633 Nota: Los números pueden seleccionarse en cualquier orden (de izquierda a derecha. de arriba abajo.) y comenzando por cualquier posición.

684 0.697 0.001 1 1.602 2.316 1.365 2.776 3.734 2.680 0.729 2.681 3.706 0.064 2.310 1.787 3.083 1.042 1.119 1.306 1.706 31.438 2.925 31.796 2.l.106 4.160 2.816 1.412 2.313 1.959 7 0.10 0.101 2.660 3.819 22 0.290 1.015 17 0.467 2.073 16 0.262 2.686 0.941 1.701 2.812 2.047 1.764 3.965 18 0.984 2.679 0.314 1.250 4.639 3.679 2.868 1.604 8.646 35 0.02 0.341 1.296 1.533 2.064 1.684 0.895 2.050 1.043 1.660 30 0.860 1.688 0.479 2.32 TABLAS Tabla 3 Distribución t de Student /2 /2 t 0 t  g.290 Nota: Para cada valor de los gl (primera columna) y de  (primera fila).717 2.440 1.520 50 0.947 4.355 5.306 2.681 0.363 1.390  0.100 1.390 2.015 2.724 3.01 0.250 1.330 1.292 1.499 5.674 29 0.301 1.870 1.052 1.50 0.328 1.689 28 0.855 1.179 2.282 1.684 0.886 2.703 0.725 2.052 2.703 2.920 4.567 2.093 2.000 2.638 2.364 2.691 0.476 2.055 1.866 1.883 20 0.756 3.879 1.896 3.896 1.855 1.876 1.922 19 0.058 1.063 1.686 0.374 2.865 1.093 1.045 1.134 1.325 1.845 3.697 2.856 1.860 2.848 1.873 1.059 1.30 0.753 2.061 1.591 40 0.677 0.056 1.228 2.624 2.056 2.108 1.578 2 0.397 1.761 2.323 1.671 2.685 0.036 1.857 1.851 1.920 1.878 3.386 1.383 1.20 0.849 1.071 1.841 12.457 2.145 2.372 1.030 2.707 27 0.080 2.771 3.169 4.460 80 0.518 2.714 2.319 1.687 0.854 1.850 1.132 2.600 3 0.682 0.190 1.963 3.021 2.690 3.423 2.819 3.854 1.699 2.182 4.508 2.337 1.055 1.048 2.120 2.074 2.704 3.782 2.110 2.333 1.768 24 0.678 3.781 10 0.069 1.863 1.821 3.807 3.779 3.539 2.058 1.889 1.032 6.856 1.765 0.792 23 0.041 9 0.057 1.055 4.311 1.998 3.318 1.437 12 0.676 2.797 3.690 2.014 2.201 2.571 3.403 2.156 1.086 2.303 6.05 0.684 2.862 1.978 1.688 0.656 636.353 3.583 2.078 6.869 6 0.977 4.447 3.552 2.861 3.067 1.485 2.683 0.069 2.741 0.695 0.528 2.960 2.356 1.066 1.990 2.345 1.859 1.831 3.898 3.833 2.541 5.683 0.924 4 0.683 0.079 1.718 0.727 0.074 1.883 1.000 1.088 1.706 2.852 1.131 2.689 0.610 5 0.678 0.707 5.650 3.061 1.012 4.473 2.551 45 0.299 1.858 1.965 9.140 15 0.326 2. en el interior de la tabla se da el valor t tal que a la izquierda de t y a la derecha de +t queda un área total de .350 1.315 1.750 3.376 1.745 25 0.40 0.321 1.690 0.943 2. 0.718 3.861 1.679 0.711 2.221 14 0.674 0.645 1.763 3.318 13 0.045 2.747 4.576 3.721 2.685 0.314 12. 32 .921 4.842 1.700 0.845 1.416 100 0.846 1.821 63.415 1.711 0.664 1.076 1.500 2.906 1.660 1.303 1.694 0.143 3.850 21 0.049 1.740 2.725 26 0.771 2.462 2.692 0.708 2.626 3.060 1.365 4.746 2.060 2.587 11 0.496 60 0.408 8 0.042 2.858 1.492 2.009 2.

2751 .2793 .2843 0.2870 24 0.2869 22 0.0.2564 .0.0.2710 .2806 .2850 500 0.0.2873 38 0.2844 0.2707 .2787 .2807 .2636 .2861 0.2790 .0.2675 .2794 .0.0.2846 0.2868 20 0.2674 .0.2868 0.2809 .2636 .0.0.2744 .0.2836 0.2867 0.2835 0.2834 0.0.0.0.2717 .2865 150 0.0.2849 550 0.2639 .2799 .2861 0.0.2646 .2850 0.2858 0.2867 0.2840 0.0.2854 0.2698 .0.2845 800 0.2749 .0.0.2838 0.0.2770 .2866 0.2737 .2853 0.2683 .0.2618 .2851 0.0.2848 600 0.2763 .2861 0.0.2871 26 0.0.2482 .2617 .0.0.2862 0.0.2774 .0.2866 0.2862 0.0.0.2795 .0:2839 0.2544 .2698 .2725 .2651 .2647 .2800 .0.0.2867 0.2854 0.2785 .2840 1500 0.0.2853 0.0.0.0.0.2866 0.0.2872 28 0.2722 .2726 .0.2855 0.2793 .2873 34 0.0. 01 n 10 0.2838 0.2861 0.0.2793 .2766 .2750 .0.2751 .2698 .2844 0.0.0.0.0.2798 .0.0.0.2853 0.2845 0.0.0.0.0.2807 .2796 .0.2714 .0.2850 0.2836 0.2857 300 0.2744 .0.2867 0.2525 .2737 .2623 .0.2775 .0.2763 .0.2667 .2857 12 0.2854 0.2629 .2767 .2833 0.2847 0.2795 .0.2581 .2802 .0.2800 .0.2379 .2527 .2834 0.2687 .2854 0.0.2845 0.2622 .0.2841 0.0.2836 0.2862 0.2720 .2861 0.2649 .2803 .2860 0.0.0.2833 0.0.2612 .2776 .0.0.0.2785 .2870 100 0.2796 .0.2837 0.0.2767 .2772 .2863 0.2866 0.0.2780 .2741 .DS) tales que si el estadístico Dexp de D’Agostino verifica que Dexp  DI o Dexp  DS.2846 0.0.2804 .2603 .2832 0.2617 .2873 36 0.2860 250 0.2862 14 0.2842 0.2761 .2776 .2842 1250 0.2837 0.0.2804 .2672 .0.2808 .0.2808 .2600 .2837 0.0.2803 .2859 0.2713 .0.0.2806 .2844 0.0.2765 .2782 .2864 160 0.2592 .0.2839 0.2679 .2840 0.2847 0.2786 .0.2734 .2864 0.2811 .2855 350 0.2843 950 0.0.0.2842 0.0.0.2804 .2865 0.2807 .02 0.0.0.2840 0.2802 .0.2784 .2789 .2727 .2834 0.2740 .0.2682 .0 2840 0.2849 0.2801 .0.0.2843 0.2632 .2790 .2780 .2862 0.2836 0.2858 0.2779 .0.2865 0.2757 .2839 0.2854 0.2791 .2792 .2809 .0.0.2729 .2874 44 0.2690 .2870 0.2853 0. D’Agostino and Stephens (1986).2568 .2870 0.2854 0.2865 0.2854 0.2741 .0.0.2755 .0.0.0.2874 46 0.2804 .2852 0.2841 0.2855 0.2799 .0.2847 0.0.2861 0.2873 30 0.0.0.2838 0.2871 0.0.0.2860 0.0.0.2839 0.2673 .0.2732 .2851 0.2842 0.0.2869 0.0.05 0.2861 0.2799 .0.2759 .2802 .2655 .2779 .2542 .2669 .2831 0.0.0.0.2591 .2725 .2505 .2845 0.0.0.2867 0.2806 .2843 0.2871 0.2455 .2473 .2871 0.2856 0.2798 .0.0.2705 .2838 0.2702 .2844 900 0.2707 .2849 0.0.2857 0.2866 0.2856 0.0.2863 0.2797 .2807 .2792 .2835 0.2699 .2869 0.2784 .2831 0.0.2874 60 0.0.2770 .2872 32 0.0.2832 0.2854 0.2787 .0.2833 0.2513 .2734 .2717 .2855 0.2835 0.2855 0.0.0.0.0.2846 0.2795 .2837 0.2866 0.2759 .2436 .2871 0.2849 0.0.2784 .2801 .0.2768 .2570 .2810 .2799 .0.0.0.2735 .0.2841 0.0.2835 0.2852 0.0.0.2587 .2870 0.0.2799 .2843 0.0.2862 0.2842 0.2838 0.2791 .2805 .0.2860 0.0.0.2693 .2703 .0.2737 .0.2871 0.2846 750 0.2867 0.2854 0.2711 .0. en el interior de la tabla se dan dos números (DI .2662 .2862 0.2797 .2691 .0.0.0.0.0.2781 .0.2579 .0.0.2745 .2695 .2853 0.2676 .2752 .2867 0.2863 0.0.0.0.0.2859 0.2803 .2874 48 0.2829 0.0.2841 0.0.0.2727 .2862 0.0.0.2866 0.0.0.2851 0.0.2758 .2664 .0.0.20 0.2777 .2830 0.2862 0.2853 0.2803 .2833 0.0.0.0.2840 0.2835 0.0.2609 .0.2657 .0.0.0.2844 0.2865 16 0.2867 18 0.2743 .0.2812 .0.0.2721 .2799 .2834 0.2792 .2849 0.0.2778 .2659 .2855 0.2704 .2864 0.0.2641 .0.0.2721 .0.0.0.0.2846 0.2835 0.0.0.0.2557 .0.2573 .0.0.2668 .2849 0.2747 .0.2848 0.2871 0.2869 120 0.0.2844 850 0.2725 .2756 .0.0.2784 .0.2843 1000 0.2850 0.2843 0.0.2834 0.2799 .0.2859 0.2841 0.0.2848 0.0.2845 0.2861 0.2835 0.0.2681 .0.2771 .0.2854 0.2871 0.2854 0.2801 .0.2503 .2853 400 0.2865 0.2760 .2793 .2367 0.2873 40 0.0.2837 Nota: Para cada tamaño de muestra n (primera columna) y para cada nivel de significación  (primera fila).2789 .2854 0.2838 2000 0.2874 42 0. TABLAS 33 Tabla 4 Límites de significación para el test de Normalidad de D’Agostino  0.0.2705 .2850 0.2839 1750 0.0.2871 90 0.2787 .0.2774 .2859 0.2772 . .2688 .2788 .2782 .2801 .2844 0.2866 140 0.0.2848 0.2714 .2832 0.2791 .2874 50 0.0.2869 0.2854 0.2782 .2863 180 0.0.0.2646 .2871 0.2797 .0.2862 200 0.2668 .0.0.2745 .2861 0.0.2807 .2771 .2796 .2836 0.0.2842 0. entonces se rechaza la hipótesis nula de Normalidad.0.2841 0.2793 .2803 .0.0.0.2806 .0.2643 .2847 650 0.2873 70 0.2833 0.2871 0.0.2862 0.0.0.2794 .2655 .2852 450 0.0.2837 0.2788 .0.2802 .0.0.0.0.0.0.2603 .2598 .2630 .2796 .2839 0.2847 0.2857 0.0.0.2866 0.2630 .0.0.0.0.2839 0.0.2789 .2747 .2750 .0.2420 .2846 700 0.2871 0.2800 .2854 0.2653 .2805 .2857 0.2692 .2860 0.0.0.2738 .2853 0.2791 .2871 0.0.2856 0.2688 .2745 .0.0.0.0.0.2655 .2861 0.2830 0.0.2547 .2860 0.0.2851 0.2872 80 0.0.0.2717 .2852 0.2634 .2787 .10 0.2796 .

47 9.75 1.69 1.66 1.44 3.42 2.65 29 4.16 2.01 2.65 1.92 3.13 2.79 5.35 2.96 18 4.59 22 2.68 1.18 2.74 4.05 1.28 3.32 3.16 2.66 1.84 3.54 1.42 2.30 2.45 2.34 2.00 2.47 1.17 3.87 1.92 1.01 1.77 1.67 1.16 2.90 2.52 1.98 2.49 3.61 2.75 1.51 2.42 3.30 2.17 2.98 1.33 19.38 9.30 2.28 5.9 245.00 1.22 2.26 6.08 3.85 1.66 1.15 5.59 55.46 4.51 2.72 2.17 2.91 1.83 1.97 1.74 1.39 2.24 2.73 1.89 1.81 1.23 2.18 3.64 1.35 2.55 2.59 2.32 2.79 2.62 1.88 1.84 1.14 2.59 1.54 1.43 2.16 2.85 8.77 1.75 2.72 1.37 1.74 2.62 1.44 1.48 2.70 2.05 2.94 1.00 9.70 1.27 5.96 1.74 2.45 3.71 2.50 3 10.75 2.79 1.64 1.18 2.08 2.97 5.04 1.44 2.05 2.16 2.06 2.35 2.62 4.45 3.18 2.46 2.33 2.66 1.47 1.94 1.85 2.70 8.16 9.35 3.76 1.23 2.74 2.75 1.61 21 2.50 1.06 2.20 2.42 2.70 2.45 2.63 1.30 2.24 3.76 1.06 1.72 7 3.62 2.1 250.54 4.36 2.37 9.80 1.32 3.94 1.55 2.40 2.48 2.36 3.02 1.49 2.93 1.34 3.40 2.38 3.09 2.60 1.48 3.74 3.97 12 3.23 2.33 2.34 2.23 2.54 5.33 2.23 8 5.08 2.29 3.94 3.06 2.71 6.17 5.08 1.13 15 4.78 1.58 2.39 1.94 1.94 1.35 9.47 2.97 1.73 2.60 1.15 2.59 2.98 1.87 2.25 2.61 1.00 1.60 2.32 2.35 3.22 2.31 2.93 1.10 2.59 2.46 4.99 1.45 2.69 27 4.13 2.90 2.86 3.82 1.15 2.31 5.27 2.16 2.39 2.96 2.87 1.82 2.07 2.24 2.90 1.15 2.66 2.86 2.21 2.18 2.78 2.29 2.80 2.10 6 3.42 2.67 2.92 2.18 2.75 1.92 2.12 2.66 1.57 1.33 2.78 1.51 2.22 2.60 1.3 2 18.05 1.86 60.87 1.35 2.78 3.12 2.63 5 6.37 2.51 2.61 5.95 2.81 22 4.50 53.29 120 2.59 3.77 1.79 2.10 2.39 3.59 1.29 9.96 2.55 1.71 10 4.01 1.93 2.73 1.92 2.79 1.58 2.66 1.48 9.52 26 2.29 2.71 1.06 3.39 5.14 2.80 15 3.59 8.80 3.00 3.21 2.92 1.31 2.90 13 3.53 1.07 2.29 2.60 3.79 1.34 3.52 3.06 2.00 19.5 215.35 2.49 2.07 1.51 2.59 2.34 1.53 62.61 2.28 4.99 1.14 3.15 4.89 1.20 3.92 1.32 2.06 63.22 5.34 2.25 2.09 2.85 14 3.06 2.65 2.72 17 3.77 1.54 2.86 5.10 2.34 2.66 1.81 1.36 3.53 2.59 2.21 2.84 3.57 8.54 2.84 1.86 1.02 1.61 1.50 3.01 1.96 2.94 6.40 3 5.82 1.99 1.86 1.10 2.37 3.25  3.13 1.49 2.01 1.52 1.80 1.07 2.64 1.10 2.93 1.78 2.63 1.81 1.74 5.19 2.86 49.24 3.43 2.86 2.96 2.57 1.67 1.23 3.75 2.52 2.09 2.29 2.13 9.79 1.79 1.56 1.58 1.76 2.47 2.30 1.30 2.39 2.30 2.64 2.57 1.20 2.35 4.84 1.37 19.55 2.92 1.68 1.01 1.95 1.39 120 3.46 2.42 1.49 2.81 3.96 1.58 1.80 2.57 1.49 3.32 4.69 2.36 2.53 2.96 1.76 2.61 2.27 2.83 1.19 2.85 2.84 1.73 25 4.00 1.43 2.48 19.48 3.41 3.92 1.02 2.54 2.14 3.10 4.07 2.87 1.00 1.18 2.6 230.70 2.15 2.10 2.55 1.55 1.77 1.05 4.11 2.58 1.55 2.82 1.08 2.27 2.01 2.74 1.36 2.40 2.21 14 4.97 2.65 2.61 2.87 1.01 1.34 2.28 2.39 2.72 1.85 1.96 2.88 1.71 61.91 1.26 3.15 2.92 1.53 1.97 3.38 2.54 1.83 1.23 2.71 1.11 3.36 2.69 5.32 4.59 4.49 2.18 2.89 1.31 2.89 1.32 2.72 1.14 2.37 2.69 1.24 3.94 1.78 3.88 1.39 2.84 1.46 40 2.03 1.91 1.91 5.40 4.90 1.15 2.56 2.03 1.11 4.51 1.38 19.11 2.23 2.27 3.95 3.77 3.50 1.01 1.74 62.98 2.35 1.64 1.42 2.40 3.24 2.77 2.41 3.60 2.71 1.81 1.99 1.24 2.82 1.98 1.39 4.03 1.38 2.68 3.16 2.71 3.19 4.26 3.14 4.92 1.72 5.20 2.2 253.86 1.94 1.79 2.83 2.20 58.34 2.51 60 4.01 1.26 3.42 9.53 2.70 2.00 2.84 1.40 12 4.10 2.84 1.79 1.83 57.78 3.22 3.70 1.28 2.75 1.46 3.91 2.84 2.91 2.81 2.23 2.00 1.47 2.00 62.57 2.88 20 4.38 2.25 5.01 2.39 6.89 1.79 1.98 1.00 1.57 2.32 1.38 3.12 3.04 1.30 3.79 1.67 1.61 2.83 3.53 2.91 1.84 1.19 2.88 1.98 3.99 2.28 2.98 1.64 2.73 3.10 2.53 2.70 1.62 2.96 1.28 2.30 19.71 2.82 1.95 2.33 2.62 3.34 2.79 3.05 2.26 62.54 2.95 1.38 2.62 8.29 3.44 3.37 2.21 4.78 1.76 2.35 2.76 16 3.00 5.20 2.52 2.53 25 2.90 2.49 1.25 2.96 4.46 2.24 5.44 2.56 2.07 3.92 2.81 8.91 1.90 3.55 3.19 60.06 11 3.48 29 2.13 2.07 16 4.01 2.82 1.89 1.0 236.25 2.31 2.83 1.50 2.90 1.45 9.16 10 3.95 1.12 4.67 3.35 2.95 4.41 5.50 2.67 1.05 3.92 19 4.87 1.53 2.84 1.69 1.01 2.90 1.72 1.63 2.96 1.35 2.59 1.75 1.42 2.83 1.75 1.09 2.56 4.1 252.14 5.61 2.06 2.63 3.77 1.45 19.93 1.47 19.27 2.28 3.18 2.08 3.54 11 4.8 238.18 2.97 1.97 1.60 1.08 2.29 2.48 1.5 241.56 1.86 1.77 1.78 23 4.50 27 2.16 2.0 249.76 1.25 2.21 2.38 2.40 2.24 2.53 4 7.20 5.22 61.46 2.21 2.67 7 5.38 2.26 3.42 2.64 8.85 1.18 2.62 2.98 3.63 3.83 2.01 1.49 2.15 3.23 2.11 2.81 1.19 2.49 19.13 2.32 2.07 2.45 2.18 3.21 3.80 5.89 1.51 2.95 1.83 1.49 3.10 3.99 5.55 1.99 2.10 2.90 1.87 1.74 1.52 3.81 1.28 9.09 2.93 1.89 1.20 2.93 1.47 8 3.25 2.51 1.96 1.28 2.07 2.04 2.45 2.11 2.89 3.55 24 2.12 3.89 1.89 1.85 2.03 2.04 2.42 2.68 3.03 1.12 2.51 2.24 58.76 5 4.34 TABLAS Tabla 5: Distribución F de Snedecor  (a)  = 10% Fα v1 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120  v2 1 39.58 3.18 2.47 3.19  2.47 30 2.73 1.66 2.88 2.27 2.46 2.19 5.31 2.03 2.68 1.32 1.70 2.94 1.31 3.31 2.74 8.59 3.38 2.36 6 5.91 2.72 1.96 1.06 2.67 2.73 1.06 2.64 2.09 3.23 2.89 8.63 20 2.84 1.49 2.95 2.74 1.25 2.74 2.30 2.11 2.04 1.54 3.85 2.44 59.94 2.96 1.84 3.88 1.9 240.83 1.72 1.74 1.76 2.94 8.41 2.60 1.19 2.34 2.10 2.7 224.36 2.44 3.19 2.18 2.72 1.84 2.32 2.45 19.10 2.09 2.22 3.18 5.82 2.82 4.77 4.84 21 4.78 1.54 2.00 1.53 2.90 1.95 1.85 2.18 5.88 1.93 1.28 2.42 2.57 23 2.54 2.56 2.65 1.81 1.79 1.77 2.92 1.15 2.69 2.33 9.15 2.53 4.34 2.55 9.87 3.05 4.70 3.85 1.12 3.34 3.56 2.00 3.51 1.55 8.43 1.94 1.55 2.04 6.57 3.01 3.64 3.78 1.25 2.46 9.90 2.06 1.51 3.25 19.41 1.35 19.24 1.9 243.14 2.08 2.17 3.84 3.35 2.40 2.28 2.39 9.34 2.74 1.71 2.38 1.35 1.77 5.03 2.12 2.11 2.33 2.69 1.39 2.21 2.40 1.46 2.1 251.04 2.45 2.09 6.18 3.39 2.15 2.99 1.29 3.44 9.18 2.13 4 4.81 1.89 2.43 19.93 2.85 1.96 1.12 2.93 1.21 3.84 1.69 1.9 248.53 4.66 5.23 3.22 1.68 4.94 3.34 5.75 3.56 2.44 2.69 2.27 3.10 2.17 2.16 19.70 1.22 2.89 2.05 2.11 2.90 1.76 4.06 2.73 4.46 3.76 1.90 1.54 1.28 2.82 1.69 1.65 1.00 (b)  = 5% v1 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120  v2 1 161.74 2.14 3:07 3.71 26 4.09 2.39 2.44 2.98 1.91 1.08 2.16 6.82 3.29 2.62 1.03 2.05 2.92 3.97 2.00 2.61 1.41 19.88 4.69 3.66 8.67 1.37 3.48 2.16 5.27 2.46 2.30 3.73 1.84 1.10 2.93 1.33 3.37 2.09 2.21 2.98 1.68 2.24 2.20 2.37 2.27 2.77 1.27 2.07 2.46 5.20 2.63 2.13 2.68 2.38 60 2.01 2.37 2.68 1.28 2.05 2.03 1.57 2.79 63.96 1.40 3.12 9.01 8.57 1.70 1.40 19.61 1.87 1.78 1.96 1.61 2.98 2.99 1.88 2.95 1.11 2.49 28 2.11 2.60 2.17 2.94 2.70 2.87 3.94 1.49 2.84 3.64 1.01 17 4.05 2.26 1.71 1.63 1.85 1.72 1.87 1.96 2.00 Nota: Para cada valor de los primeros gl (v1 en la primera fila) y de los segundos gl (v2 en la prime- ra columna).03 2.41 2.64 30 4.02 1.80 2.54 2.16 2.47 9.86 1.67 28 4.93 1.06 2.60 2.19 2.73 2.67 1.80 1.2 234.62 2.00 1.84 2.4 199.81 3.15 2.99 1.50 4.3 254.87 1.01 1.84 2.58 2.46 2.91 59.93 9 5.06 2.73 2.73 2.71 1.54 2.45 1.41 3.81 2.20 2.33 2 8.75 1.02 1.28 2.42 1.75 1.17 1.59 6.81 2.23 5.62 2.48 1.19 3.43 4.02 1.08 2.66 19 2.86 1.67 2.04 1.30 13 4.77 2.59 2.75 2.67 1.79 8.04 1.61 1.34 2.24 2.13 2.50 2.06 4.87 2.90 2.59 1.31 2.53 9.25 2.20 3.87 3.71 2.72 2.57 2.98 1.74 3.98 1.11 2.22 2.91 1.66 2.13 2.79 2.12 2.32 2.96 1.46 1. 34 .04 3.83 2.64 1.66 2.11 3.76 2.46 19.16 3.69 18 3.29 9 3.62 40 4.00 1. en el interior de la tabla se da el valor F que deja a su derecha un área de .75 1.59 3.92 2.70 1.81 2.79 3.18 3.78 2.25 2.16 2.87 1.38 2.93 1.07 3.90 2.76 24 4.67 2.99 1.41 9.93 2.66 2.68 1.91 1.51 19.52 2.97 1.86 1.45 2.60 2.02 1.01 2.24 9.71 2.65 1.94 2.

20 28 . 17 75 .185 105 .128 12.65 26 .167 70 . 16 176 .53 18 .69 28 .146 76 . 16 72 .198 6. 20 83 .127 63 . y para cada ni- vel de significación  (primera fila). 10 69 . 15 116 .69 8. 21 69 .232 133 .113 32 . 6 28 .104 43 .123 10.57 19 .127 43 .51 13 .48 8. 17 123 .133 4.97 38 .43 15 . 19 38 .215 125 .119 10.92 33 .123 65 .138 60 .124 60 .177 81 . 20 53 . n2 n1 .82 19 .83 33 .180 96 . 16 156 .102 10.134 64 . 17 90 . 9 33 .147 82 .99 11.32 10 .111 65 .59 29 .84 27 .133 58 .206 6.162 5. 15 84 . 5 19 .235 7. 20 40 .109 56 .62 8.63 31 . 24 45 .134 52 . 12 38 .96 8.178 4.69 32 .132 71 . 22 30 .76 40 .117 7.193 94 .150 64 .74 34 .117 4.198 6. 18 49 . 14 147 .217 111 .229 6.52 18 .105 52 .130 4. 14 166 .129 62 .115 5.82 9.72 24 . 16 58 .106 30 .117 62 . 14 67 . 18 127 .90 35 .294 7.142 4.189 5.103 9.104 11.124 49 . 19 113 .79 30 . 12 28 .111 10.95 13.35 10 . 18 37 .57 24 .99 41 .89 11. 9 66 .96 53 . 17 142 .01 0.87 26 .96 34 .57 9.92 42 .89 38 .142 12.42 11 .265 155 .139 53 .182 6.76 8.90 29 .195 6.154 91 .68 22 . 15 191 . 18 63 .46 16 .114 46 . 23 58 . 7.80 11.195 102 . 13 30 .160 4.34 7.67 32 .54 23 . 20 67 .115 10.246 147 .141 79 .212 6.153 96 .159 87 . 12 104 . 7 39 .258 169 .102 29 .66 36 .135 76 .100 4. 10 35 .152 72 . 24 32 . 17 106 .177 95 .140 67 . 25 47 .141 84 . 19 51 .76 23 .63 21 . 21 29 . 16 87 .34 13 .73 17 .152 79 .127 56 . 16 34 .108 6. 19 80 . 12 120 .61 20 .111 14.94 40 .176 5. 14 81 .200 97 .240 136 .69 9. 23 31 . 7.128 78 .254 7. entonces se rechaza la hipótesis nula de homogeneidad de ambas muestras.113 12.169 5.244 7.230 6.132 44 .117 68 .214 6. 18 77 .67 16 .78 9. 14 129 .52 8.65 11.58 20 .106 14. 7 14 . La falta de límites se indica con un guión (-).150 4.203 6. 15 171 .148 4.128 5.101 39 .157 87 .94 10.137 12.188 113 .57 14 .94 37 .105 62 .65 27 .209 136 .218 135 .274 184 . 21 85 .133 70 .149 5.60 10. 10 56 . 17 35 .29 .123 71 .225 145 .156 5.247 7.89 8. 14 96 . 14 112 .88 40 .55 27 .70 11.226 7.55 8.87 34 .165 76 .217 119 .166 84 .81 42 .196 5.269 7.122 15. 23 74 .242 154 . 13 92 . 11 86 .98 10.72 22 . 9 43 .119 58 .100 50 . 6 13 .169 5.64 21 .202 105 . 12 19 .71 38 . 13 125 .209 115 .05 0.139 72 .114 56 . 8 31 .171 78 .95 21 .161 94 . 16 46 .59 8. 15 152 . n2 0.171 93 .112 60 .155 66 .154 4.72 29 .105 46 . 18 93 . .184 5.281 171 .187 119 . 11 47 . 11 59 .05 0. 13 20 .97 43 . 18 26 .100 14.48 12 .110 54 . 11 27 .159 74 .71 34 .136 4.167 103 .99 47 .172 4.47 21 .149 57 .38 7.61 25 . 13 40 .135 5.87 28 .87 43 . 16 120 .159 81 .279 7.101 45 . 22 72 .121 61 .42 16 .118 40 . 18 146 .187 92 .139 5.183 5.176 5.31 12 .72 8.206 6.180 115 .180 103 . 10 45 .36 17 . 13 142 . 8 23 . 13 108 .111 4.38 15 .122 54 .155 4.83 31 .201 112 . 11 100 .165 90 .134 65 .58 24 .98 29 .70 16 . en el interior de la tabla se dan dos números (RI . 11 37 .93 8.45 12 . 13 64 . 14 42 .95 28 .45 16 . 12 62 .49 17 .129 73 .187 99 . 15 56 .221 6.114 39 .166 6.75 25 . 14 31 .173 86 .144 62 . 15 69 .94 11.122 53 . 25 33 .118 12.38 11 .40 14 . White (1952).10 0.249 164 .226 139 .54 13 .128 67 .149 77 .49 9.153 84 .76 30 .223 129 .10 0. 16 24 .90 10.106 10.234 150 .44 20 .181 110 .139 73 .256 151 . 7 21 .91 46 . 8 15 . 22 43 .105 37 .105 49 .55 10.81 27 . 13 78 .85 49 .160 81 .88 32 .76 18 .138 66 . 19 131 .80 32 .40 18 .84 11.65 8. 11 72 . 16 138 .73 9.109 44 .91 27 .126 54 .84 13. 8 51 .82 8. 12 75 . 7 29 .80 37 . 24 60 . 10 82 .263 7.86 9.174 106 .62 26 .66 22 .RS) tales que si la suma de los rangos Rexp de la muestra de menor tamaño verifica que Rexp  RI o Rexp  RS.148 88 .180 89 .110 51 . TABLAS 35 Tabla 6 Límites de significación para el test de Wilcoxon (dos muestras independientes)   n1 . 6 20 .161 5. 22 57 .132 12. 17 25 .225 122 . 13 52 .210 131 .191 5. 15 22 .203 121 . 19 27 .213 6. 26 34 .166 4.144 74 . 9 54 .65 9.144 4.187 107 . 15 99 .50 26 .222 6.259 7.55 19 .44 9.53 9.119 47 .160 99 .210 124 .69 23 . 10 26 .190 6. 12 49 .143 68 .123 42 .233 125 . 11 18 . 18 110 .129 50 .79 18 .134 81 . 15 133 . 21 102 . 15 44 .95 48 .195 123 . 17 61 . 14 54 .174 6.60 21 .74 28 .105 4.84 37 . 20 99 .106 58 .196 117 .113 50 .01 4.154 5.123 4.238 6.128 Nota: Para cada pareja de tamaños de muestra n1 (primera columna) y n2 (segunda columna).165 90 .193 110 . 14 21 .52 23 .144 55 .25 10 .155 79 .217 141 .60 15 .92 20 .116 53 .86 44 .172 93 . 9 16 .78 26 .93 45 .49 17 . 17 47 . 19 65 . 21 41 .83 25 . 17 161 .89 13.79 35 .37 14 .90 51 . 15 33 .108 42 .28 11 .193 109 .117 51 .73 13.86 8.75 11.61 9.63 15 .26 . 21 55 .147 5.209 108 . 22 88 .79 8.240 160 .85 19 .203 127 .161 68 .150 4. 23 44 .139 4. 16 103 .184 83 .80 24 . 12 89 .89 20 .76 35 .101 36 .249 140 .105 40 .123 12.110 38 .167 97 .93 4.115 58 .101 55 .51 22 .142 5. 4 11 . 5 12 .45 7.78 13.110 31 . 20 117 .109 48 . 9 24 .99 4.84 38 .40 9. 10 17 .70 27 .146 69 .122 5. 19 96 .41 7. 8 41 .174 100 .

37 5 . Tukey (1949).219 61 .164 58 .239 25 100 .257 Nota: Para cada valor del número n de parejas de datos (primera columna) y para cada nivel de significación  (primera fila).189 22 75 .47 3 .158 37 .71 13 21 . 36 . en el interior de la tabla se dan dos números (RI .144 32 .90 25 .187 48 .RS) tales que si la suma de los rangos positivos R(+) verifica que R(+)  RI o R(+)  RS.45 8 .173 42 .137 46 . El test puede hacerse tam- bién con la suma de los rangos negativos R().107 19 .82 14 25 .178 66 .236 68 .150 52 .131 27 .101 29 .225 89 . - 6 2 .222 24 91 .112 34 .84 12 .21 - 7 3 .95 15 .203 54 .61 13 .209 81 .56 5 .117 17 41 .105 16 35 .158 20 60 .01 n 5 0 . La falta de límites se indica con un guión (-).130 18 47 .26 - 8 5 .36 TABLAS Tabla 7 Límites de significación para el test de Wilcoxon (dos muestras apareadas)  0.124 40 .61 12 17 .25 2 .33 0 .31 3 .74 9 . entonces se rechaza la hipótesis nula de homogeneidad de ambas muestras.144 19 53 .173 21 67 .10 0.40 1 .80 21 .193 73 .65 7 .05 0.53 10 .70 17 .119 23 .52 11 13 .36 9 8 .15 .205 23 83 .44 10 10 .93 15 30 .19 0 .

31 3.43 28.34 3.31 60 1.41 3.69 3.05 8.86 3.46 4.97 31.60 6.03 3.03 5.94 3.44 5.26 4.72 3.69 2.60 2.42 2.78 2.09 3.84 8.55 3.48 4.98 4.73 3.93 3.08 5.23 6.12 3.38 4.26 3.60 18.89 4.41 3.20 3.71 5.82 2.53 4.87 2.03 4.00 5.62 3.25 3.30 6.73 3.69 3.12 4.16 2.77 2.73 3.43 4.81 6.87 7.21 04 2.08 6.66 3.38 5.67 3.01 4.68 2.96 5.17 3.10 2.64 3.25 3.34 3.85 3.79 2.02 07 3.84  2.22 4.23 3.13 3.66 1.23 4.51 3.70 2.86 9.68 4.70 4.60 6.22 4.33 24.02 3.62 2.89 3.69 3.33 3.58 2.13 4.72 4.50 3.93 4.32 4.93 4.23 4.26 2.99 3.75 2.11 3.17 3.70 4.54 2.89 2.89 6.47 2.48 3.64 4.62 5.80 2.13 2.65 3.70 2.30 10 1.88 3.83 3.04 3.93 3.31 3.95 4.46 3.25 3.29 4.80 3.97 6.38 8.27 2.46 10.69 2.63 3.75 30 2.22 3.55 3.44 09 3.65 8.47 2.91 2.00 3.09 3.35 3.26 13 3.26 3.97 7.66 2.70 2.08 5.36 8.87 3.24 4.89 2.33 2.66 3.60 5.85 3.59 13.86 2.98 3.40 5.95 7.25 6.33 3.65 3.74 4.67 2.59 11 2.29 K 1 2 3 4 5 6 7 8 9 10 15 20 25 30 35 40 45 50 f 02 9.84 2.88 3.92 4.04 5.54 2.87 2.97 4.93 3.46 2.83 4.18 4.58 3.02 4.16 3.85 2.88 20 2.57 3.56 2.44 4.80 2.73 2.84 5.98 3.69 3.34 6.20 5.96 120 2.54 3.81 3.93 3.22 4.90 12.45 2.14 4.62 2.97 3.40 3.61 3.14 3.33 2.47 12.31 6.74 3.94 5.43 3.21 3.38 3.53 7.82 2.60 3.94 2.27 3.72 2.57 2.47 9.03 4.18 3.86 3.57 10.37 3.12 3.12 8.46 3.09 4.68 3.62 3.80 2.72 2.93 13 1.75 2.33 17.66 2.36 2.85 2.05 3.03 4.82 3.69 3.39 3.55 4.39 40 1.98 3.63 2.58 3.12 4.58 9.18 3.81 2.92 3.01 3.25 5.21 5.36 3.15 3.54 2.10 4.69 3.58 2.62 5.28 3.67 3.72 Nota: Para cada nivel de significación  (a la derecha de cada tabla).96 4.98 5.37 4.93 3.98 5.05 5.43 3.16 3.13 2.79 4.66 2.98 5.15 4.23 3.80 3.45 3.81 3.77 5.83 4.39 3.15 4.36 3.75 3.51 2.97 3.71 3.12 3.32 4.41 3.32 4.75 2.53 4.07 3.57 2.81 2.91 3.12 4.62 2.88 2.43 28.60 38.52 3.63 3.43 2.33 4.00 3.60 3.23 3.33 3.71 44.76 2.76 4.81 4.69 3.37 3.95 3.84 3.37 3.61 2.43 2.80 3.58 2.50 6.56 5.33 5.82 2.75 2.62 3.77 3.96 2.56 2.58 3.85 4.42 4.74 4.79 08 1.26 5.09 2.84 3.23 4.70 49.69 2.65 2.25 3.16 4.75 3.61 9.54 4.73 3.76 2.97 3.22 3.36 3.64 2.31 10.69 2.37  1.48 3.72 2.32 3.20 5.51 3.26 29.14 5.03 4.42 4.60 5.47 3.58 3.34 3.58 2.96 5.78 2.74 2.31 2.90 2.33 3.21 6.07 16 2.53 3.71 2.37 4.03 3.58 3.44 5.60 21.70 3.39 2.45 8.73 2.70 2.81 2.68 3.09 K 1 2 3 4 5 6 7 8 9 10 15 20 25 30 35 40 45 50 f 02 4.44 3.42 2.09 60 2.00 3.02 3.44 12 2.78 2.17 3.20 04 4.36 3.03 4.62 3.14 3.13 2.01 3.84 5.98 9.73 3.45 2.29 3.26 4.06 4.78 3.60 5.52 2.84 6.65 3.22 3.58 3.19 4.74 2.53 3.59 2.81 4.83 2.43 3.51 2.52 3.00 3.70 4.93 3.36 2.02 3.98 2.71 4.83 3.54 4.13 4.93 3.16 3.91 4.50 3.85 3.84 3.81 5.42 4.29 5.12 2.20 3.28 4.40 2.95 4.29 3.29 3.05 5.03 3.84 2.86 2.20 2.45 2.58 3.20 3.57 2.09 3.14 3.93 4.69 3.76 5.13 5.03 4.82 2.95 4.16 3.78 2.16 3.09 3.85 10.16 2.90 3.06 4.97 3.50 3.46 2.15 4.50 3.53 3.06 70.65 3.15 3.15 3.95 3.59 3.83 2.20 3.00 4.52 4.86 4.85 5.76 3.77 2.02 2.08 3.62 4.96 5.50 2.29 3.88 16 2.32 2.30 4.14 2.50 4.33 3.54 6.60 4.29 3.88 4.45 8.81 2.71 4.49 3.77 5.92 3.39 2.35 3.04 9.76 2.94 2.46 2.82 4.60 4.06 3.29 3.35 4.84 2.47 3.96 4.18 3.79 2.68 2.81 3.93 2.45 2.04 2.75 3.31 2.39 4.56 3.69 11 3.11 3.56 3.50 4.34 6.14 2.11 3.81 3.75 2.71 6.51 3.76 3.11 3.72 2.58 3.86 9.02 4.05 3.54 3.33 24.08 4.60 3.38 3.27 3.38 3.76 59.50 4.79 2.75 3.38 3.60 5.87 3.37 3.15 4.80 3.45 11.06 2.80 2.61 19 1.98  = 1% 15 2.90 3.09 3.43 3. Cuando f = .23 3.79 3.18 4.43 6.73 3.17 3.30 3.45 3.92 12.39 5.17 7.87 8.15 3.96 4.31 5.90 3.11 2.99 3.39 5.14 11 1.53 2.18 2.90 3.98 12.73 2.28 19.12 4.19 4.19 14.15 3.71 4.23 3.96 3.47 3.63 2.06 3.61 3.83 3.00 3.55 3.12 2.04 3.83 5.51 2.15 3.42 4.21 3.12 3.39 2.10 4.51 3.26 67.70 3.69 3.34 3.89 11.46 3.55 60 2.21 4.79 4.85 24 2.45 8.62 4.23 120 1.37 3.97 3.36 3.49 2.09 17.70 4.32 3.30 4.92 4.05 3.58 3.58 2.55 3.66 4.71 2.09 15.30 2.53 3.59 3.33 03 2.00 4.02 4.23 9.17 3.36 3.30 5.80 2.26 3.40 5.21 7.39 3.05 4.99 54.33 2.82 3.75 2.66 3.59 4.17 3.49 4.05 3.11 3.94 3.12 8.25 3.60 5.18 22.59 20 2.02 3.32 7.81 2.24 2.12 3.67 6.59 4.59 2.71 19.15 4.40 3.45 3.73 3.75 3.75 3.39 3.98 3.44 4.67 3.88 2.86 2.45 2.96 22.21 4.62 2.56 2.85 5.82 3.44 5.25 5.89 3.71 6.31 4.84 6.62 2.26 3.94 5.25 6.73 3.85 3.95 3.68 3.92 3.54 2.03 4.52 6.79 7.86 5.45 3.48 3.83 2.16 3.52 4.32 13 2.90 2.67 19.02 4.73 16 1.36 14.38 3.60 2.11 4.15 4.87 06 2.62 4.26 2.03 3.49 2.37 3.77 2.23 40 2.80 6.49 2.49 4.89 6.46 3.89 4.14 6.28 18.36 2.22 3.90 3. t/K es el valor z/K de la Tabla 1.93 4.33 3.92 3.93 6.73 3.62 4.15 2.21 07 1.48 3.96 6.47 26.09 2.95 4.60 5.14 6.31 4.23 2.73 3.09 17.62 2.92 3.24 2.00 4.41 3.00 4.70 2.44 11.66 2.69 17 1.58 2.62 3.11 3.70 3.80 3.96 2.38 30 2.69 4.46 2.85 3.43 2.55 3.56 3.37 3.39 2.23 2.61 3.22 3.80 3.78 10 2.83 2.71 7.06 3.47 3.79 17 2.71 2.84 7.20 3.85 4.19 4.02 4.63 3.02 4.64 2.18 4.36 4.35 6.14  = 5% 15 2.58 20 1.70 3.30 3.52 3.27 4.00 2.53 7.19 3.18 4.64 3.07 4.71 03 5.28 8.03 4.07 3.48 3.17 5.23 3.82 16.16 63.52 4.62 2.00 3.63 5.86 3.15 4.79 3.61 3.76 7.89 2.07 3.53 4.34 2.36 4.58 3.44 22.47 30 1.03 4.00 2.04 3.44 3.86 3.03 3.76 2.49 2.05 3.57 2.28 3.84 3.92 4.27 3.71 18 2.96 4.68 2.43 3.86 2.44 3.86 5.55 24 1.96 21.30 2.71 4.53 2.26 3.44 4.18 3.73 3.13 2.94 3.18 2.32 4.58 3.90 3.91 4.30 2.98 4.20 5.69 3.90 7.51 3.59 4.01 3.70 2.53 4.45 4.83 4.35 3.94 2.75 2.13 3.86 3.12 4.50 2.34 3.86 2.23 6.86 4.75 2.19 3.25 3.68 2.83 4.86 3.30 3.58 3.72 5.70 2.52 7.35 4. grados de libertad f (primera columna) y número K de comparaciones (primera fila).29 2.42 3.65 19 2.59 4.39 3.98 3.09 3.91 3.09 3.73 3.43 2.17 3.09 2.34 4.38 3.41 3.12 4.53 3.61 4.33 4.88 3.85 14 1.73 3.31 5.05 3.06 3.96 07 2.22 4.75 3.85 3.33 4.11 4.30 3.03 4.55 4.54 3.48 4.87 11.66 3.01 3.57 2.14 4.96 7.03 4.15 3.90 3. .04 2.96 22.87 3.66 2.92 14.91 3.01 3.71 4.78 2.26 3.79 3.31 3.27 3.97 3.43 2.33 3.19 3.05 5.55 2.45 12 3.35 3.63 3.86 4.07 7.19 3.42 4.78 5.30 4.63 2.06 4.42 3.29 3.81 2.91 2.66 4.89 2.61 2.31 12.68 4.78 3.29 3.82 3.37 5.02 12 1.28 19.06 08 3.36 4.76 3.21 3.77 12.22 5.98 5.19 3.81 2. TABLAS 37 Tabla 8: Distribución de Bonferroni K 1 2 3 4 5 6 7 8 9 10 15 20 25 30 35 40 45 50 f 02 2.51 3.00 3.33 4.82 3.46 5.33 3.26 4.09 3.02 4.50 3.88 2.12 5.41 9.84 8.16 3.56 5.49 3.11 2.23 2.91 3.47 26.44 3.58 9.89 06 1.97 18 2.13 3.98 3.19 3.74 2.16 4.54 2.43 3.77 2.18 7.86 5.38 8.11 14 2.67 2.02 2.09 3.73 3.88 2.95 6.86 3.31 5.20 4.87 3.08 5.37 3.10 4.95 4.54 4.55 4.67 2.41 5.58 3.53 3.60 5.11 3.66 3.18 2.48 3.92 04 2.53 2.65 3.92 3.26 29.96 4.39 4.96 3.31 3.46 9.18 3.96 3.21 10.66 3.92 3.51 3.62 4.56 3.44 4. en el interior de la tabla se da el va- lor t/K de una distribución t de Student (con f gl) tal que a la izquierda de  t/K y a la de- recha de + t/K queda un área total de /K.86 2.58 6.34 3.10 5.06 3.17 05 2.22 3.06 3.26 2.04 09 2.07 5.54 3.46 3.46 2.10 2.11 3.35 3.64 4.95 4.36 4.47 2.19 3.13 3.32 4.24 4.77 4.29 4.49 4.01 10 3.80 3.72 4.71 20.65 2.26 3.15 3.44 4.24 3.38 2.48 3.64 2.05 3.03 3.96 4.82 2.75 2.99 4.58 9.81 2.09 4.79 3.74 7.92 11.50 7.50 3.03 4.79 4.65 18 1.71 2.36 4.69 2.37 3.64 3.09 2.64 2.69 8.85 4.20 2.63 2.47 12.86 4.88 3.36 2.09 3.73 2.46 120 1.73 2.86 2.66 2.46 10.06 4.68 13.45 11.68 3.81 3.25 6.48 3.96 4.48 3.26 3.76 17.25 3.79 3.12 3.76 7.92 14.04 05 4.36 2.11 6.65 8.50 2.02 3.20 2.50 09 1.98 3.21 3.91 3.51 3.97 31.96 4.75 2.74 2.24 3.76 6.96 4.16  1.68 06 3.54 3.36 4.61 3.83 4.29 3.21 10.77 2.98 8.47 4.41 08 2.62 3.98 12.12 3.39 2.42 2.29 2.81 3.60 4.77 3.27 2.64 1.50 2.22 4.33 2.65 3.02 2.42 3.60 03 3.18 3.94 3.06 2.14 4.98 2.54 3.31 3.25 3.64 2.77 5.61 05 2.26 4.50 3.92 10.20 5.75 3.11 3.50 4.58 2.54 6.76 4.53 5.36 2.65 40 2.44 3.23 3.17 7.21 5.79 =10% 15 1.51 3.54 24 2.86 3.71 5.78 3.30 4.04 3.92 2.01 17 2.54 2.43 3.11 3.92 19 2.35 6.23 3.22 14 2.65 2.52 3.85 3.87 11.25 5.76 2.

808 2 3.050 0.551 21.957 41.498 30.073 12.237 11.782 46.317 9 12.039 28.632 43.000 27.251 40.918 22 27.633 17.858 32. para   0.804 Notas: 1) Para cada valor de los gl (primera columna) y de  (primera fila).386 23 28.304 30.665 48.001 gl 1 1.565 45.745 27.181 37.819 16.750 6 8.591 40.894 41.005 0.678 35.902 27.031 21.782 9.206 46.642 6.637 7.325 12.301 28.762 11 14.119 43.027 34.556 33.817 33.337 46.132 29.920 41.271 15 19.344 44.843 48.817 9.087 16.989 7.220 10.706 3.824 18.070 16.270 24.690 3 4.842 5.973 52.814 22.310 25.100 0.178 38.154 29.173 29.676' 7 9.377 58.660 40.947 20 25.840 16 20.810 18.261 43.914 53.761 25.792 40.762 20.314 42.059 10 13.321 39.391 17 21. en el interior de la tabla se da el valor 2 que deja a su derecha un área de .938 26.459 16.003 45.148 32.431 5 7.20 puede utilizarse la siguiente aproxima- 3     ción (z2 en la Tabla 1): 2  f    z2   f  f  38 .380 43.582 28 34.549 22. 2) Cuando ocurre que gl = f > 30.681 14 18.384 37.938 45.593 30.713 59.334 54.069 13 16.067 23.662 44.691 26.199 36.363 15.160 27 32.745 40.604 5.311 20.867 36.563 28.150 13.877 31.430 12 15.646 12.466 23.249 33.020 14.681 21.020 18.838 15.169 31.219 4.140 39.992 28.925 19.278 19.449 46.194 25.995 7.605 32.291 4 5.200 0.925 18 22.025 0.913 36.492 11.604 51.559 10.538 34.367 24.031 13.771 40.443 19 23.589 13.526 8 11.688 55.416 34.010 0.596 14.291 9.046 45.216 38.986 19.754 26.280 14.654 23.435 35.252 7.831 37.610 52.415 31.686 16.933 36.152 21.738 49.292 25 30.028 37.439 21 26.844 24 29.813 18.246 28.493 38.092 42.030 23.024 6.642 2.730 26 31.997 29 35.678 34.566 38.796 35.546 26.431 32.201 33.356 11.38 BIOESTADÍSTICA para las Ciencias de la Salud (+) Tabla 9 Distribución 2 α χ α2  0.312 22.470 20.804 12.379 9.300 51.089 41.771 27.206 30.475 48.012 35.930 24.878 34.208 42.421 39.349 26.243 14.714 31.495 23.443 15.986 49.619 32.404 30 36.905 10.376 36.546 20.717 29.659 44.036 56.990 18.082 21.992 50.512 17.228 49.616 24.856 37.

6071 0.9286 1. 39 Tabla 10 Límites de significación para el coeficiente de correlación de Spearman  0.9000 1. en el interior de la tabla se da un valor r tal que si el coeficiente de correlación de Spearman rS verifica que rS  r.6247 0.4277 0.8565 14 0.5621 0.7945 18 0.8286 0.3226 0.7143 0.5492 0.4900 0.6429 0.4748 0.5152 0.6833 0.7080 0.9030 11 0.5760 0.3772 0.7509 0.8255 16 0.6717 26 0.5258 0.5238 0.8333 0.5910 0.3989 0.6581 27 0.7939 0.6485 0.7381 0.4957 0.6333 29 0.5371 0.3774 0.3290 0.5052 0.3507 0.3678 0.6861 25 0.4112 0.7635 20 0.4868 0.6000 0.4973 0.05 0.8875 12 0.7480 21 0.4001 0.5658 0.6650 0. Glasser and Winter (1961).6453 28 0.7325 22 0.7857 0.9333 10 0.7790 19 0.3166 0. Las casillas con -.7294 0.7170 23 0.01 0.0000 -.3877 0.4179 0.8100 17 0.7015 24 0.6194 0.4496 0. .indican que para esos valores de n y  el test no puede dar significativo.5436 0. entonces se rechaza la hipótesis nula de independencia.3589 0.6219 30 0.3054 0.8857 1.7724 0.4754 0.6440 0.0000 -- 7 0.4383 0. -- 6 0.3704 0.4783 0.4562 0.4087 0.9762 9 0.5294 0.4620 0.0000 8 0.6865 0.4247 0.001 n 5 0.3430 0.4396 0.3844 0.5909 0.5061 0.3108 0.8410 15 0.6110 Nota: Para cada número n de parejas de datos (primera columna) y para cada nivel de significa- ción  (primera fila).8810 0.3920 0.5636 0.3640 0.8720 13 0.3358 0.10 0.