You are on page 1of 22

ANLISIS DE LA

VARIANZA
CON DOS FACTORES:





REALIZADO POR:
ARACELI RUIZ GUILLAMN 4 AGRNOMO
1. INTRODUCCIN

El anlisis de la varianza (o Anova: Analysis of variance) es un mtodo
para comparar dos o ms medias, que es necesario porque cuando se quiere
comparar ms de dos medias. Este tipo de anlisis utiliza una sola variable
numrica mediada en los elementos de la muestra para probar la hiptesis nula
de medias poblacionales. Esta variable puede ser de intervalo o de escala de
razn y algunas veces recibe el nombre de variable dependiente.
Es incorrecto utilizar repetidamente el contraste basado en la t de
Student. por dos motivos:
En primer lugar, y como se realizaran simultnea e independientemente
varios contrastes de hiptesis, la probabilidad de encontrar alguno significativo
por azar aumentara. En cada contraste se rechaza la H
0
si la t supera el
nivel crtico, para lo que, en la hiptesis nula, hay una probabilidad . Si se
realizan contrastes independientes, la probabilidad de que en la hiptesis nula
ningn estadstico supere el valor crtico es (1 - )
m
, por lo tanto, la
probabilidad de que alguno lo supere es 1 - (1 - )
m
, para valores de
prximos a 0 es aproximadamente igual a m. Una primera solucin,
denominada mtodo de Bonferroni, consiste en bajar el valor de , usando en
su lugar /m, aunque resulta un mtodo muy conservador.
Por otro lado, en cada comparacin la hiptesis nula es que las dos
muestras provienen de la misma poblacin, por lo tanto, cuando se hayan
realizado todas las comparaciones, la hiptesis nula es que todas las muestras
provienen de la misma poblacin y, sin embargo, para cada comparacin, la
estimacin de la varianza necesaria para el contraste es distinta, pues se ha
hecho en base a muestras distintas.
El mtodo que resuelve ambos problemas es el Anova, aunque es algo
ms que esto: es un mtodo que permite comparar varias medias en diversas
situaciones; muy ligado, por tanto, al diseo de experimentos y, de alguna
manera, es la base del anlisis multivariante.
La hiptesis nula y alternativa en Anova son:
C Ho = = = = ... 3 2 1 :
1 H : No todas las poblaciones tienen la misma media.
En la prueba ANOVA, se rene evidencia muestral de cada poblacin
bajo estudio y se usan estos datos para calcular un estadstico muestral.
Despus se consulta la distribucin muestral apropiada para determinar si el
estadstico muestral contradice la suposicin de que la hiptesis nula es cierta.
Si es as, se rechaza; de lo contrario no se rechaza.
Hemos de recordar que en la prueba de varianza con dos poblaciones
se calcula el coeficiente de las varianzas muestrales y se verifica con arreglo a
la distribucin F. Este procedimiento tambin se usa en ANOVA para probar
la hiptesis nula.
Se supone que todas las poblaciones bajo estudio tienen la misma
varianza, sin importar si sus medias son iguales. Es decir, ya sea que las
poblaciones tengan medias iguales o distintas, la variabilidad de los elementos
alrededor de su respectiva media es la misma. Si esta suposicin es vlida,
entonces se puede probar la hiptesis nula de las medias poblacionales iguales
usando la distribucin F.

2. BASES DEL ANLISIS DE LA VARIANZA (Suposiciones del modelo).
Supnganse k muestras aleatorias independientes, de tamao n,
extradas de una nica poblacin normal. A partir de ellas existen dos maneras
independientes de estimar la varianza de la poblacin
2
.

1) Mtodo dentro: para estimar la varianza de las poblaciones produce
una estimacin vlida, sea o no cierta la hiptesis nula.
2) Mtodo entre: produce una estimacin vlida slo si la hiptesis nula
es cierta.

El paso final en ANOVA requiere el clculo de un cociente con la
estimacin del mtodo entre en el numerador y la estimacin del mtodo dentro
en el denominador. Si la hiptesis nula de que las poblaciones tienen la misma
media es cierta, esta razn consiste en dos estimaciones separadas de la
misma varianza poblacional y, se puede obtener la distribucin F si las
medias poblacionales no son iguales. La estimacin en el numerador estar
inflada, y el resultado ser un cociente muy grande. Al consultar la distribucin
F no es probable que un cociente tan grande haya sido obtenido de esta
distribucin, y la hiptesis nula ser rechazada. La prueba de hiptesis en
ANOVA es de una cola: un estadstico F grande llevar al rechazo de la
hiptesis nula y un valor pequeo har que no se rechace.

1) Varianza dentro de los grupos o varianza de error, o cuadrados
medios del error (slo contribuye a ella la varianza dentro de las muestras) y
habitualmente representada por MSE (Mean Square Error) o MSW (Mean
Square Within) que se calcula como la media de las k varianzas muestrales
(cada varianza muestral es un estimador centrado de
2
y la media de k
estimadores centrados es tambin un estimador centrado y ms eficiente que
todos ellos). MSE es un cociente: al numerador se le llama suma de cuadrados
del error y se representa por SSE y al denominador grados de libertad por ser
los trminos independientes de la suma de cuadrados.
El mtodo dentro que produce una estimacin vlida sin importar la
hiptesis nula de las medias poblacionales iguales es cierta se debe a que la
variabilidad de los factores de la muestra se determina comparando cada
elemento en los datos con la media muestral. Cada valor de la muestra
obtenido de la poblacin A se compara con la media muestral A; cada elemento
obtenido de la poblacin B se compara con la media muestral B, y as
sucesivamente. La ecuacin para calcular la estimacin de la varianza con el
mtodo dentro es:

-
( )
2 2
j ij
x x SSE =



- ( ) 1 n K
- ( ) 1 = n K SSE MS
Donde:
o MS: Estimacin de la varianza muestral con el mtodo
dentro.
o Xij: i-simo elemento de los datos de grupo j.
o Xj: media del grupo j.
o K: nmero de grupos.
o N= nmero de elementos de la muestra en cada grupo.

El doble signo de suma en la ecuacin, significa que primero deben
sumarse los valores indicados por el signo de la derecha, y despus sumar los
valores indicados por el de la izquierda. Primero, se encuentran las diferencias
entre cada valor x y la media del grupo, se elevan al cuadrado y se suman.
Despus, se agregan estas sumas para cada grupo. El resultado es la suma
del cuadrado de las desviaciones entre cada medida de la muestra y la media
de su grupo. Este valor con frecuencia se llama la suma de cuadrados dentro
(SSE). Esta suma se divide despus entre el nmero adecuado de grados de
libertad para poder producir una estimacin de la varianza desconocida de la
poblacin.
El nmero adecuado de grados de libertad para el mtodo dentro se
calcula como K(n-1) si el nmero de observaciones en cada grupo es igual.
Como a cada elemento del grupo se le resta la media de ese grupo, slo (n-1)
elementos de cada grupo pueden variar. Adems como se tienen K grupos,
K se multiplica por (n-1) para as obtener los grados de libertad para el
mtodo dentro.

Ejemplo:

Se obtienen muestras del peso del llenado de cuatro paquetes de
espinacas congeladas, a partir de tres contenedores. La pregunta es si los
pesos promedio de los paquetes son iguales o diferentes entre los tres
contenedores. Seguidamente se ofrecen los pesos de la muestra, medias de
grupos, media global y estimacin de la varianza con el mtodo dentro usando
la ecuacin correspondiente.

Pesos de las muestras:
GRUPO 1: 12,4; 13,7; 11,5; 10,3 Media= 00 , 12
4
3 , 10 5 , 11 7 , 13 2 , 12
=
+ + +

GRUPO 2: 11,9; 9,3; 12,1; 10,6 Media= 11,00
GRUPO 3: 10,3; 12,4; 11,9; 10,2 Media= 11,2

Media Global 11,4

Para calcular el SSE:

( )
2
1
2
x x SSE
i
=


= (12,4 - 12)
2
+ (13,7 - 12)
2
+ (11,5 - 12)
2
+ (10,3 -
12)
2
= 6,19

( )
2
2
2
x x SSE
i
=


= (11,9 - 11)
2
+ (9,3 - 11)
2
+ (12,1 - 11)
2
+ (10,6 -
11)
2
= 5,07

( )
2
3
2
x x SSE
i
=


= (10,3 - 11,2)
2
+ (12,4 - 11,2)
2
+ (11,9 - 11,2)
2
+
(10,2 - 11,2)
2
= 3,74

( )
2 2
J IJ
x x SSE =


= 2 6,19 + 5,07 + 3,74 = 15
) 1 (
=
n k
SSE
MS = 15/9 =1,67
k(n-1) = 3 (4 - 1) = 9

Cada valor x en la muestra se compara con la media de su propio
Grupo. Estas diferencias se elevan al cuadrado y se suman. Los resultados se
suman y se dividen entre los grados de libertad. El resultado, 167, es una
estimacin de la varianza comn de las tres poblaciones. Con frecuencia el
trmino MS se denomina error cuadrtico medio (MSE).

2) Varianza entre grupos o varianza de los tratamientos, o cuadrados
medios de los tratamientos (slo contribuye a ella la varianza entre las distintas
muestras) y representada por MSA o MSB (Mean Square Between). Se calcula
a partir de la varianza de las medias muestrales y es tambin un cociente; al
numerador se le llama suma de cuadrados de los tratamientos (se le
representa por SSA) y al denominador (k-1) grados de libertad. Produce una
estimacin vlida slo si la hiptesis nula es cierta. Para entender el mtodo
entre se compara con el teorema del lmite central. Este teorema establece
que la distribucin de las medias muestrales tiende a una distribucin normal
conforme crece el tamao de la muestra.
MSA y MSE, estiman la varianza poblacional en la hiptesis de que las
k muestras provengan de la misma poblacin. La distribucin muestral del
cociente de dos estimaciones independientes de la varianza de una poblacin
normal es una F con los grados de libertad correspondientes al numerador y
denominador respectivamente, por lo tanto se puede contrastar dicha hiptesis
usando esa distribucin.
Si en base a este contraste se rechaza la hiptesis de que MSE y MSA
estimen la misma varianza, se puede rechazar la hiptesis de que las k
medias provengan de una misma poblacin.
Aceptando que las muestras provengan de poblaciones con la misma
varianza, este rechazo implica que las medias poblacionales son distintas, de
modo que con un nico contraste se contrasta la igualdad de k medias.
Existe una tercera manera de estimar la varianza de la poblacin, aunque no es
independiente de las anteriores. Si se consideran las kn observaciones como
una nica muestra, su varianza muestral tambin es un estimador centrado de

2
:
Se suele representar por MST, se le denomina varianza total o cuadrados
medios totales, es tambin un cociente y al numerador se le llama suma de
cuadrados total y se representa por SST, y el denominador (kn -1) grados de
libertad. La ecuacin para calcular la estimacin de la varianza con el mtodo
dentro es:
( )
2

= x x SST
j

( )
1
2

=

kn
x x
MST
j

kn- 1 (grados de libertad)
j
Donde:
MST = Estimacin de la varianza de la distribucin muestral de
medias.
Xj = Media del grupo j.
X = Media Global (media de todos los valores) usada como
estimacin de .
K = nmero de grupos.
n = tamao de la muestra o nmero de elementos en cada grupo.
J = n de la columna.

Ejemplo:

Se obtienen muestras del peso del llenado de cuatro paquetes de
espinacas congeladas, a partir de tres contenedores. La pregunta es si los
pesos promedio de los paquetes son iguales o diferentes entre los tres
contenedores. Seguidamente se ofrecen los pesos de la muestra, medias de
grupos, media global y estimacin de la varianza con el mtodo dentro usando
la ecuacin correspondiente.

Pesos de las muestras:
GRUPO 1: 12,4; 13,7; 11,5; 10,3 Media= 00 , 12
4
3 , 10 5 , 11 7 , 13 2 , 12
=
+ + +

GRUPO 2: 11,9; 9,3; 12,1; 10,6 Media= 11,00
GRUPO 3: 10,3; 12,4; 11,9; 10,2 Media= 11,2

Media Global 11,4

( )
2

= x x SST
j
= 12,0 - 11,4)2 + (11,0 - 11,4)2 + (11,2 -11,4) = 0,56
J = 0,56 x 4 (nmero de elementos) = 2, 24
k- 1= 3 (grupos) 1 = 2

( )
1
2

=

kn
x x
MST
j
= 12 , 1
2
24 2
=

La estimacin de la varianza poblacional, calculada con el mtodo entre
es 1,12.

Los resultados de un Anova se suelen representar en una tabla como la
siguiente:
Fuente de variacin G.L. SC MS
(Estimacin
de
2
)
Coeficiente F
Entre grupos
Tratamientos
k-1 SSA
n(xij-x)
2

SSA/(k-1) MSA/MSE
Dentro Error (n-1)k SSE
(xij-xj)
2
SSE/k(n-1)
Total kn-1 SST
(xij-x)
2


Donde:
j = Nmero de la columna
i = Nmero de la fila
K = Nmero de columnas (grupos)
n = Nmero de elementos en cada grupo (tamao de la
muestra)

Y el cociente F se usa para realizar el contraste de la hiptesis de
medias iguales..
La regin crtica para dicho contraste es F > F
(k-1,(n-1)k)

Es fcil ver en la tabla anterior que:
( )
total trata error
GL nk k k nk k k n GL GL = = + = + = + 1 1 1 1

No es tan inmediato, pero las sumas de cuadrados cumplen la misma
propiedad, llamada identidad o propiedad aditiva de la suma de cuadrados:
SST = SSA + SSE
El anlisis de la varianza se puede realizar con tamaos muestrales
iguales o distintos, sin embargo es recomendable iguales tamaos por dos
motivos:
La F es insensible a pequeas variaciones en la asuncin de igual
varianza y si el tamao es igual.
Para estimar la varianza desconocida de las poblaciones, se forma un
cociente con estas dos estimaciones MST/
2
de los dos mtodos.
Si la hiptesis nula es cierta, tanto el numerador como el denominador
de la ecuacin son estimaciones vlidas de la varianza comn de las
poblaciones que se estudian. Este cociente se ajusta a la distribucin F, Si la
hiptesis nula es falsa y el numerador de la ecuacin en realidad es una
estimacin inflada de
2
; y el denominador sigue siendo una estimacin vlida.
Bajo estas condiciones, el valor F ser muy grande, y se puede concluir que
la hiptesis nula es falsa. La figura que mostramos a continuacin presenta la
distribucin muestral para la prueba ANOVA junto con las regiones de
aceptacin y rechazo.

3. MODELOS DE ANLISIS DE LA VARIANZA.

El Anova permite distinguir dos modelos para la hiptesis alternativa:
Modelo I o de efectos fijos en el que la H
1


supone que las k muestras
son muestras de k poblaciones distintas y fijas.
Modelo II o de efectos aleatorios en el que se supone que las k
muestras, se han seleccionado aleatoriamente de un conjunto de m>k
poblaciones.
Un ejemplo de modelo I de Anova es que se asume que existen cinco
terrenos o poblaciones (sin fertilizante, con abonado, bsicas, cidas, etc.) fijas,
de donde se han extrado las muestras.

Un ejemplo de modelo II sera: un agricultor est interesado en
determinar el contenido, y sus variaciones, de calcio en los suelos de cultivo;
toma 5 muestras al azar y realiza, a cada una, 3 anlisis.
La manera ms sencilla de distinguir entre ambos modelos es pensar
que, si se repitiera el estudio un tiempo despus, en un modelo I las muestras
seran iguales (no los individuos que las forman) es decir corresponderan a la
misma situacin, mientras que en un modelo II las muestras seran distintas.
Aunque las asunciones iniciales y los propsitos de ambos modelos son
diferentes, los clculos y las pruebas de significacin son los mismos y slo
difieren en la interpretacin y en algunas pruebas de hiptesis suplementarias.
Anlisis de la varianza de dos factores es un diseo de Anova que
permite estudiar simultneamente los efectos de dos fuentes de variacin.
En cualquier caso, el agricultor puede estar interesado en estudiar si hay, o no,
contenido en exceso de sodio. En un Anova de dos vas se clasifica a los
individuos de acuerdo a dos factores (o vas) para estudiar simultneamente
sus efectos. En este ejemplo se haran cinco grupos de tratamiento para el
contenido en calcio y otros cinco para el contenido en sodio, en total diez
grupos; en general, si el primer factor tiene a niveles y el segundo tiene b, se
tendrn ab muestras o unidades experimentales, cada una con n individuos
o repeticiones.
Una observacin individual se representa como:
El primer subndice indica el nivel del primer factor, el segundo el nivel
del segundo factor y el tercero la observacin dentro de la muestra. Los
factores pueden ser ambos de efectos fijos (se habla entonces de modelo I), de
efectos aleatorios (modelo II) o uno de efectos fijos y el otro de efectos
aleatorios (modelo mixto). El modelo matemtico de este anlisis es:

Y
ijk
= +
i
+
j
+ ( )
ij
+
ijk
modelo I
Y
ijk
= + A
i
+ B
j
+ (AB)
ij
+
ijk
modelo II
Y
ijk
= +
i
+ B
j
+ ( B)
ij
+
ijk
modelo mixto

Donde es la media global,
i
o A
i
el efecto del nivel i del 11
factor,
j
o B
j
el efecto del nivel j del 2 factor y i
jk
las desviaciones aleatorias
alrededor de las medias, que tambin se asume que estn normalmente
distribuidas, son independientes y tienen media 0 y varianza
2
.
A las condiciones de muestreo aleatorio, normalidad e independencia, este
modelo aade la de aditividad de los efectos de los factores.
A los trminos ()
ij
, (AB)
ij
, (B)
ij
, se les denomina interaccin entre
ambos factores y representan el hecho de que el efecto de un determinado
nivel de un factor sea diferente para cada nivel del otro factor.
Si en un determinado estudio se encuentra interaccin entre dos
factores, no tiene sentido estimar los efectos de los factores por separado. A la
interaccin positiva, es decir, cuando el efecto de los factores actuando juntos
es mayor que la suma de efectos actuando por separado, en Biologa se le
denomina sinergia o potenciacin y a la interaccin negativa inhibicin.

4. CONTRASTES DE HIPTESIS EN UN ANLISIS DE LA VARIANZA DE
DOS FACTORES.

Del mismo modo que se hizo en el Anova de una va, para plantear los
contrastes de hiptesis habr que calcular los valores esperados de los
distintos cuadrados medios. Los resultados son:

Modelo I
MS Valor esperado
MSA

+
a
I
I
a
nb
1
2 2
1


MSB

+
a
I
I
b
na
1
2 2
1


MSAB
( )
2
1 1
2
) 1 )( 1 (

=

=

+
a
I
b
I
I I
b a
n

MSE

2


Por lo tanto, los estadsticos MSAB/MSE, MSA/MSE y MSB/MSE se
distribuyen como una F con los grados de libertad correspondientes y
permiten contrastar, respectivamente, las hiptesis:
No existe interaccin (MSAB/MSE)
( ) b aj i o Ho
ij
,..., 1 ,..., 1 ; : = = =

No existe efecto del primer factor, es decir, diferencias entre
niveles del primer factor (MSA/MSE)
a
Ho = =... :
1

No existe efecto del segundo factor (MSB/MSE)

b
Ho = =... :
1

Si se rechaza la primera hiptesis de no interaccin, no tiene sentido
contrastar las siguientes. En este caso lo que est indicado es realizar un
anlisis de una va entre las ab combinaciones de tratamientos para encontrar
la mejor combinacin de los mismos.

5. CONDICIONES POST HOC O A POSTERIORI: BONFERRONI, SCHEFFE,
TUKEY, DUNCAN, DUNNET, DIFERENCIA MNIMA SIGNIFICATIVA
(LSD).
Si alguno de los estadsticos F correspondientes a los efectos
principales resulta significativo, puede interesar efectuar comparaciones post
hoc. Anova, nos permite nicamente contrastar la hiptesis general de que los
promedios comparados son iguales. Al rechazar esa hiptesis, sabemos que
existen diferencias, pero no sabemos dnde se encuentran.
Para saber qu media en concreto difiere de otra, debemos utilizar un
tipo particular de contrastes denominados comparaciones post hoc o
comparaciones a posteriori. Estas comparaciones permiten controlar la tasa de
error al efectuar varias comparaciones utilizando las mismas medias, es decir,
permiten controlar la probabilidad de cometer errores tipo I al tomar decisiones
(los errores tipo I se cometen cuando se decide rechazar una hiptesis nula
que en realidad no debera rechazarse).


MTODO BONFERRONI
Mtodo basado en la distribucin t de Student y en la desigualdad de
Bonferroni (tambin conocido como mtodo de Dunn su promotor en 1961
o de DunnBonferroni). Controla la tasa de error dividiendo el nivel de
significacin () entre el nmero de comparaciones (k) llevadas a cabo. Cada
comparacin se evala utilizando un nivel de significacin
c
= /k
Calcula simplemente una nueva pareja alfa para guardar el valor de la
alfa en 0.05 (u otro valor especfico). La frmula para hacer esto es:

FWE
B
c

=
Donde la nueva
B
basada en la prueba de Bonferroni se debe utilizar
para evaluar cada prueba de la comparacin o de la significacin, el
FWE
es
el tipo de error segn lo computado en la frmula, y c es el nmero de las
comparaciones (pruebas estadsticas).

El Mtodo Bonferroni, es probablemente la prueba de post hoc de mayor
uso general, porque es altamente flexible, muy simple de utilizar, y puede ser
utilizado con cualquier tipo de prueba estadstica (e.g., correlaciones) - no slo
pruebas de post hoc con ANOVA. El Bonferroni tradicional, sin embargo,
tiende a carecer de energa. La prdida de energa ocurre por varias razones:
(1) El clculo del error que depende de asumir todas las pruebas, la
hiptesis nula es verdad. Este caso es poco probable que se de,
especialmente despus de una prueba significativa.
(2) Todas las pruebas se asumen para ser ortogonales (es decir,
independientes o sin solape); cuando calculamos la prueba del error, y no es
un caso general, es cuando las comparaciones se hacen todas en parejas.
(3) La prueba no considera si los resultados son constantes en teora y
ms all de la investigacin. Si es constante en los resultados y con la teora,
un resultado individual debe ser menos probable para el tipo error I.
(4) El error de tipo II es demasiado alto para las pruebas individuales.

MTODO SCHEFFE
Este mtodo, basado en la distribucin F, permite controlar la tasa de
error para el conjunto total de comparaciones que es posible disear con J
medias (una con otra, una con todas las dems, dos con dos, etc.). Utilizando
para efectuar slo comparaciones por pares, es un procedimiento muy
conservador: tiende a considerar significativas menos diferencias de las que
debera.
Comparar grupos del ANOVA ms grandes (es decir, una correccin
para una t-prueba estndar). La frmula modifica simplemente el valor F-
crtico porque considera el nmero de los grupos que son comparados: (a -
1) F-critico. El nuevo valor crtico representa el valor crtico para el tipo de
error mximo posible. Se puede suponer que tambin da lugar a un tipo ms
alto que el deseado al error de Tipo II, imponiendo una correccin severa.
Tiene menos potencia al igual que Tukey

MTODO TUKEY
Es un mtodo simple y dispone de lmites de confianza
Tambin conocido como HSD de Tukey para la diferencia honestamente
significativa de Tukey. Equivale a utilizar el mtodo de Student-Newman-Keuls
con r=J= n de medias. Por tanto, todas las comparaciones son referidas a una
misma diferencia mnima
La prueba de Tukey calcula un nuevo valor crtico que se puede utilizar
para evaluar si las diferencias entre cualesquiera dos pares de medios son
significativas. El valor crtico es un poco diferente porque implica la mala
diferencia que tiene que ser excedida para alcanzar la significacin. As que
calcula simplemente un valor crtico y por tanto la diferencia entre todos los
pares posibles. Cada diferencia entonces se compara al valor crtico de Tukey.
Si la diferencia es ms grande que el valor de Tukey, la comparacin es
significativa. La frmula para el valor crtico es la siguiente:
n
MS
q d
A s
T
T
/
=
Donde q
T
se estudia en estadstica (similar a los valores t-critico, pero
diferente), y que se encuentra en tablas, MS
s/A
es el error de la media
cuadrada de la F-prueba total, y n es el tamao de muestra para cada
grupo. El error df mencionado en la tabla es el df
s/A
usado en la prueba de
ANOVA. FWE es el tipo de error deseado. sta es la prueba que generalmente
se suele recomendar, porque los estudios demuestran que tiene mayor energa
que las otras pruebas bajo la mayora de las circunstancias y de ella son
fcilmente disponibles en paquetes de la computadora. La prueba de Tukey-
Kramer es utilizada por SPSS cuando los tamaos del grupo son desiguales.
Es importante observar que la ventaja de la energa de la prueba de Tukey
depende de la asuncin que todas las comparaciones posibles en parejas se
estn haciendo. Aunque esto es generalmente lo que se desea cuando se
hacen las pruebas post hoc. En circunstancias donde no son necesarias todas
las comparaciones posibles u otras pruebas, tales como el Dunnett o un
mtodo modificado de Bonferroni deben ser consideradas porque pueden tener
ms ventajas de la energa.
Comprende una considerable variedad de distribuciones con
caractersticas especiales en cuanto a asimetra y elongacin sobre todo para
datos que provengan de distribuciones con formas diferentes a la distribucin
normal. . Es uno de los medios de mayor aceptacin.

MTODO DUNCAN
Prueba del rango mltiple de Duncan. Mtodo de comparacin por
pasos basado en la distribucin del rango estudentizado. Controla la tasa de
error utilizando, para el conjunto de medias separadas r pasas, un nivel de
significacin
1
) 1 ( 1

=
r
c
. Cuantos ms pasos existen entre dos medias,
mayor es la diferencia mnima con la que vamos a considerar que esas medias
difieren significativamente.
Tiene un trmino medio de dificultad

METODO DUNNET
Es similar a la prueba de Tukey (descrita ms arriba) pero se utiliza
solamente si un sistema de comparaciones se est haciendo a un grupo
particular. Por ejemplo, puede ser que tengamos varios grupos del tratamiento
que se comparen a un grupo de control.
Compara cada grupo con un grupo control. Por tanto controla la tasa de
error para k-1 comparaciones. Por defecto, se considera que la ltima
categora del factor es la que define el grupo control, pero puede seleccionarse
la primera categora. Permite efectuar tanto contrastes bilaterales como
unilaterales.
Puesto que ste es raramente de inters, y el Tukey sirve mucho ms
para fines generales, se recomienda la prueba de Tukey.

MTODO DIFERENCIA MNIMA SIGNIFICATIVA (LSD)
Mtodo de Fisher (LSD) para la diferencia mnima significativa. Basada
en la distribucin t de Student. Este mtodo, inicialmente propuesto por Fisher
(1935), no ejerce ningn control sobre la tasa de error. Es decir, cada
comparacin se lleva a cabo utilizando el nivel de significacin establecido,
(generalmente 0,05), por lo que la tas de error para el conjunto de
comparaciones puede llegar a 1-(1- )
k
, siendo el nivel de significacin y k el
nmero de comparaciones llevadas a cabo. (Suele encontrarse en la literatura
de estadstica con su acrnimo ingls: LSD =Least Significant Difference).
La prueba de LSD es simplemente el anlisis razonado de una prueba
realizada y significativa, la hiptesis nula es incorrecta. (Si la prueba mnibus
no es significativa, no se hace ninguna prueba de post hoc.) El razonamiento
se basa en la asuncin que si la hiptesis nula es incorrecta, segn lo indicado
por una F-prueba mnibus significativa, el error de tipo I no sera realmente
posible (o poco probable), porque ocurre solamente cuando la falta de
informacin es verdadera. As pues, con una prueba mnibus, primero se
defiende hacia fuera las diferencias del grupo que existen debido al error de
muestreo, y reducir as la probabilidad de un de tipo I estar presente entre los
medios. El Test de Fisher (LSD) se ha constatado que no es suficiente para
controlar el error de Tipo I. No obstante, encuentran al Mtodo Fisher (LSD) a
veces en la literatura.

6. Y EN EXCEL?
Hemos experimentado con levadura para una receta de panes dulces.
Parece ser que la cantidad de azcar y la temperatura del agua afectan el
tamao de los panes. Basndose en los siguientes datos, realizamos un
anlisis de varianza para averiguar lo que es significativo de estas recetas.
Escribimos esto en el Excel.

Levadura: Tamao de los panes dulces
Agua Fra Agua Tibia Agua Caliente
Poco Azcar 75 87 60
Azcar Normal 74 82 55
Mucho Azcar 70 79 53

Lo seleccionamos, pinchamos Herramientas Anlisis de Datos




Una vez pinchado anlisis de datos, te aparece este cuadro; tendrs que
pinchar en Anlisis de varianza de dos factores con una sola muestra por
grupo . Y le das a Aceptar .


Te aparecer este cuadro, donde tendrs que seleccionar el rango de
datos al que va dirigido, en este caso ser el cuadro de datos que metimos
anteriormente seleccionando incluso los textos.
Para que los textos aparezcan, hay que pincha en rtulos y dnde
pone rango de datos seleccionas desde qu punto de la hoja de clculo Excel
quieres que te aparezcan, siempre por debajo de donde estn los datos de la
tabla, que te aparezcan en otra diferente.



Cuando ya has seleccionado los correspondientes rangos de datos, le das a
Aceptar y te saldrn los siguientes resultados:

El resultado en Excel (Anlisis de varianza) indica el valor estadstico de
la "F." En este caso el valor de la "F" por las filas (cantidad de azcar) es 23.15.
Para saber si estos resultados son significativos (o sea, si la probabilidad P
tiene un valor menor a 0.05), el valor de la "F" observado necesita ser al menos
6.94 (o sea, el valor crtico de la F). Entonces, como el valor de "F" observado
es de 23.15 y es mucho mayor que el valor crtico de la F (6.94), estamos
seguros que los resultados de nuestras pruebas son significativas. El valor de
la "F" para las columnas (temperatura del agua) es igual a 378.53. Esto es
tambin significativo, porque el valor de "F" crtico es solamente 6.94. En otras
palabras, existe una relacin significativa en la cantidad de azcar, la
temperatura del agua y el tamao de los panes dulces. La probabilidad muestra
a qu nivel los resultados son estadsticamente significativos.

7. BIBLIOGRAFA

- Thomas M. Little, F. Jackson Hills: Mtodos estadsticos para la
investigacin en la agricultura. 1991. Ed: Trillas.
- Csar Prez. Econometra y anlisis estadstico multivariable con
STATGRAPHICS tcnicas avanzadas. 1998. Ed: ra-ma.
- http://www.puc.cl/agronomia/d_investigacion/Proyectos/ProyectosTitulos/pd
f/CatalinaSaavedra.pdf
- http://www.unne.edu.ar/Web/cyt/com2005/4-Veterinaria/V-029.pdf
- http://www.colpos.mx/agrocien/Bimestral/2001/ene-feb/art-7.pdf
- http://mipagina.cantv.net/ssinha/cmtukey.htm
- http://www.emis.de/journals/RCE/V24/V24_1_33Torres.pdf
- http://www.serbi.luz.edu.ve/scielo.php?script=sci_arttext&pid=S0798-
22592005010000012&lng=es&nrm=is.
- http://books.google.com/books?id=aT21YbVLghwC&pg=PA331&lpg=PA331&
dq=analisis+de+varianza+para+dos+factores&source=web&ots=TlHP6idx4
1&sig=YX1t8GnrtmwBKTSe70STJ5vNk-s#PPA331,M1
- http://www.uv.es/aliaga/COMPMU93.htmln
- http://www.ine.es/revistas/estaespa/164_4.pdf
- http://www.seh-lelha.org/subgrupos.htm
- http://moodle.uho.edu.cu/course/view.php?id=36
- http://www.fedem.org/revista/n17/estadistica.htm
- http://www.personal.us.es/jlmoreno/Modelos%20Lineales%2003-
04%20Relacion%204.pdf
- http://bibcyt.ucla.edu.ve/cgi-
win/be_alex.exe?Acceso=T070300010764/0&Nombrebd=BIBCYT
- http://www.uam.es/personal_pdi/ciencias/cifus/biologia/metodos/Resumen.
pdf
- http://www2.uca.es/serv/ai/formacion/spss/Pantalla/15anova2.pdf
- http://www.hrc.es/bioest/Anova_10.html
- http://www.monografias.com/trabajos7/anva/anva.shtml
- http://www.seh-lelha.org/anova.htm
- http://www.laits.utexas.edu/orkelm/excel/EXCEL/ANOVA2ONE.HTM
- http://e-stadistica.bio.ucm.es/mod_anova/anova7.html
- http://html.rincondelvago.com/analisis-de-la-varianza_1.html
- http://www.upa.pdx.edu/IOA/newsom/da1/ho_posthoc.doc
- http://www2.uca.es/serv/ai/formacion/spss/Imprimir/14anova1.pdf