You are on page 1of 6

ANOVA BIFACTORIAL

Es una t´ecnica estad´ıstica para analizar el efecto de dos variables independientes (factores) sobre
una variable respuesta. Hasta el momento hemos estudiado el efecto de un factor sobre la variable
respuesta, pero en muchas situaciones pr´acticas es necesario investigar el efecto de varios factores.
Una forma de llevar a cab este objetivo es mediante los experimentos factoriales, en los que cada nivel
de un factor se combina con cada uno de los niveles de los otros factores para formar los tratamientos.
Estos tipos de dise˜ nos permiten evaluar los efectos de las interacciones. Se dice que entre dos factores
hay interacci´ on si los efectos de un nivel de un factor dependen de los niveles del otro. La existencia
de interacciones indica que los efectos de los factores sobre la respuesta no son aditivos y por tanto
no pueden separarse los efectos de los factores.
0 1 2 3 4
tratamie
4
6
8
10
12
14
M
e
d
i
a
s

m
a
r
g
i
n
a
l
e
s

e
s
t
i
m
a
d
a
s
sexo
1
2
MODELO BIFACTORIAL DE EFECTOS FIJOS
Supongamos que se tiene una variable respuesta X y dos factores A y B, de los que estamos interesados
en los niveles i = 1, . . . , I para el factor A y los niveles j = 1, . . . , J para el factor B . Supongamos que
la variable respuesta bajo el tratamiento ij , X
ij
se comporta como una distribuci´on N(µ
ij
, σ) y que se
dispone de un muestra aleatoria simple de tama˜ no K (el modelo es equilibrado ya que en otro caso se
complica mucho la notaci´on y los desarrollos) para esta variable (x
ij1
, . . . , x
ijK
). Al igual que ocurr´ıa
en el modelo unifactorial las observaciones se descomponen de la forma x
ijk
= µ
ij
+ e
ijk
aunque los
errores son variables que no se puedan observar.
Las hip´otesis b´asicas del modelo son e
ijk
≡ N(0, σ) e independientes, es decir los par´ametros del
modelo son θ = (µ
ij
, i = 1, . . . , I, j = 1, . . . , J, σ) ∈ R
IJ+1
.
Se puede reparametrizar el modelo de la forma siguiente
µ
i.
=

J
j=1
µ
ij
J
, µ
.j
=

I
i=1
µ
ij
I
, µ
..
=

I
i=1

J
j=1
µ
ij
IJ
α
i
= µ
i.
−µ.., β
j
= µ
.j
−µ.., γ
ij
= µ
ij
−µ
i.
−µ
.j

..
con lo que se tiene
x
ijk
= µ +α
i

j

ij
+e
ijk
I

i=1
α
i
=
J

j=1
β
j
=
I

i=1
γ
ij
=
J

j=1
γ
ij
= 0
y, en este caso, el espacio param´etrico ser´ıa θ = (µ, α
1
, . . . , α
I−1
, β
1
, . . . , β
J−1
, γ
11
, . . . , γ
I−1,J−1
, σ) ∈
R
IJ+1
.
Las hip´otesis que se plantean son :
H
0
AB
: γ
ij
= 0 ∀i, j ≡ No hay interacci´on ≡los factores influyen aditivamente en la respuesta .
H
0
A
: α
i
= 0 ∀i ≡ No hay influencia del factor A supuesto que el modelo es aditivo.
H
0
B
: β
j
= 0 ∀j ≡ No hay influencia del factor B supuesto que el modelo es aditivo.
Para construir los estad´ısticos asociados a los test anteriores se descompone la variaci´on total de los
datos en los varios sumandos de la forma siguiente: SCT = SCA+SCB +SCI +SCE.
Donde:
• La suma de cuadrados total recoge la variaci´on total de los datos, atribuible tanto al error
experimental como a los factores
SCT =
I

i=1
J

j=1
K

k=1
(x
ijk
−x
...
)
2
• La suma de cuadrado del error recoge la variaci´on dentro de los tratamientos o debida al error
experimental:
SCE =
I

i=1
J

j=1
K

k=1
(x
ijk
−x
ij.
)
2
=
I

i=1
J

j=1
K

k=1
(e
ijk
−e
ij.
)
2
• La suma de cuadrados de la interacci´on recoge la variaci´on debida a las interacciones y al error,
depende de γ
ij
y los errores.
SCI = K
I

i=1
J

j=1
(x
ij.
−x
i..
−x
.j.
+x
...
)
2
= K
I

i=1
J

j=1

ij
+e
ij.
−e
i..
−e
.j.
+e
...
)
2
• La suma de cuadrados del factor A, depende de α
i
y los errores
SCA = JK
I

i=1
(x
i..
−x
...
)
2
= JK
I

i=1

i
+e
i..
−e
...
)
2
• a suma de cuadrados del factor B, depende de β
j
y los errores
SCB = IK
J

j=1
(x
.j.
−x
...
)
2
= IK
J

j=1

j
+e
.j.
−e
...
)
2
Cada una de las sumas anteriores es una variable aleatoria y su comportamiento permite construir los
distintos estad´ısticos para realizar los contrastes ya definidos. Estos estad´ısticos est´an basados en la
esperanza de las distintas sumas de cuadrados, que bajo el modelo propuesto son:
• E
_
SCE
IJ(k−1)
_
= σ
2
• E
_
SCI
(I−1)(J−1)
_
= σ
2
+
K
(I−1)(J−1)

ij
γ
2
ij
• E
_
SCA
I−1
_
= σ
2
+
KJ
I−1

i
α
2
i
• E
_
SCB
J−1
_
= σ
2
+
KI
J−1

j
β
2
j
Para buscar la distribuci´on de los distintos estad´ısticos necesito estudiar las distribuciones de varias
formas cuadr´aticas asociadas a los errores
Distribuciones asociadas a los errores:
Sean e
ijk
≡ N(0, σ), i = 1, . . . , I, j = 1, . . . , J, k = 1, . . . , K, independientes, se verifica que:
• e
ij.
≡ N(0,
σ

K
), e
i..
≡ N(0,
σ

KJ
), e
.j.
≡ N(0,
σ

KI
) , e
...
≡ N(0,
σ

IJK
).
• Q =

ijk
(e
ijk
−e
...
)
2
σ
2
≡ χ
2
IJK−1
.
• Q
1
=

ijk
(e
ijk
−e
ij.
)
2
σ
2
≡ χ
2
IJ(K−1)
.
• Q
2
= K

ij
(e
ij.
−e
i..
−e
.j.
+e
...
)
2
σ
2
≡ χ
2
(I−1)(J−1)
.
• Q
3
= JK

i
(e
i..
−e
...
)
2
σ
2
≡ χ
2
I−1
.
• Q
4
= IK

j
(e
.j.
−e
...
)
2
σ
2
≡ χ
2
J−1
.
• Q = Q
1
+Q
2
+Q
3
+Q
4
y estas cuatro ´ ultimas formas cuadr´aticas son independientes.
Utilizando estos resultados se tiene:
• SCE = Q
1
≡ χ
2
IJ(K−1)
por tanto el CME=
SCE
IJ(K −1)
es un estimador insesgado de σ
2

CMI
CME

H
0
AB
F
(I−1)(J−1),IJ(K−1)

CMA
CME

H
0
A
F
(I−1),IJ(K−1)

CMB
CME

H
0
B
F
(J−1),IJ(K−1)
lo que termite construir la siguiente tabla
FV g.l. SC CM ECM F
Trata. IJ-1 K

ij
(x
ij.
−x
...
)
2 SCtr
IJ−1
σ
2
+
K
IJ−1

ij

ij
−µ)
2 CMtr
CME
F1 I-1 JK

i
(x
i..
−x
...
)
2 SCF1
I−1
σ
2
+
KJ
I−1

i
α
2
i
CMF1
CME
F2 J-1 IK

j
(x
.j.
−x
...
)
2 SCF2
J−1
σ
2
+
KI
J−1

j
β
2
j
CMF2
CME
Inter (I-1)(J-1) K

ij
(x
ij.
−x
i..
−x
.j.
+x
...
)
2 SCI
(I−1)(J−1)
σ
2
+
K
(I−1)(J−1)

ij
γ
2
ij
CMI
CME
Error IJ(K-1)

ijk
(x
ijk
−x
ij.
)
2 SCE
IJ(K−1)
σ
2
Total IJK-1

ijk
(x
ijk
−x
...
)
2
La primera hip´otesis que se contrasta es H
0
AB
ya que su rechazo implica que los efectos de los fac-
tores no son aditivos y por tanto no se pueden separar, en este caso se realiza un ANOVA sobre los
tratamientos.
En caso contrario se pasa a realizar los contrastes H
0
A
y H
0
B
, pudiendo aplicarse test a posteriori, en
el caso de su rechazo. Estos test son an´alogos son an´alogos a los del ANOVA unifactorial y tratan de
buscar que niveles son responsables del rechazo de la hip´otesis nula.
As´ı si se rechaza H
0
A
pero no H
0
AB
se verifica, aplicando el m´etodo de Scheff´e, que:
Pr {|x
i..
−x
h..
| < c ∀i, h} ≥ 1 −α
siendo
c
2
= CME
2
JK
(I −1)F
I−1,IJ(K−1),α
o formulado en t´erminos de regi´on cr´ıtica
Pr
_
max
ih
|x
i..
−x
h..
| >
_
CME
2
JK
(I −1)F
I−1,IJ(K−1),α
_
≤ α
aunque si las evidencias de que H
0
AB
es cierta son ’fuertes’ podr´ıa utilizarse la SCAB tambi´en como
estimador de σ
2
y entonces el estimador insesgado ser´ıa
SCAB +SCE
(I −1)(J −1) +IJ(K −1)
obteni´endose
Pr {|x
i..
−x
h..
| < c ∀i, h} ≥ 1 −α
siendo
c
2
=
2
JK
(I −1)F
I−1,(I−1)(J−1)+IJ(K−1),α
SCAB +SCE
IJK −I −J + 1
An´alogamente se pueden aplicar los procedimientos de Bonferroni y Tukey.
En este modelo las estimaciones de los par´ametros son
´ σ = CME ´ µ = x
...
, ´ α
i
= x
i..
−x
...
´
β
j
= x
j..
−x
...
´ γ
ij
= x
ij.
−x
i..
−−x
.j.
+x
...
y las inferencias sobre estos par´ametros se basan, respectivamente en las siguientes funciones pivotales:
SCE
σ
2
≡ χ
2
n−IJ
,
x
...
−µ
_
CME
n
≡ t
n−IJ
x
i..
−x
...
−α
i
_
(I+1)CME
n
≡ t
n−IJ
,
x
.j.
−x
...
−β
j
_
(J+1)CME
n
≡ t
n−IJ
´ γ
ij
−γ
ij
_
(I+1)(J+1)CME
n
≡ t
n−IJ
MODELO DE EFECTOS ALEATORIOS
Supone que los niveles de los factores se eligen al azar por lo tanto aparecen nuevas fuentes de alea-
torizaci´on. Se eligen I niveles al azar para el factor A y J niveles al azar para el factor B. El modelo
que se trabaja en este caso es:
X
ijk
= µ +α
i

j

ij
+e
ijk
α
i
≡ N(0, σ
A
) β
j
≡ N(0, σ
B
) γ
ij
≡ N(0, σ
AB
) e
ijk
≡ N(0, σ) independientes
La hip´otesis a contrastar en el ANOVA son:
H
0
AB
: σ
AB
= 0 H
0
A
: σ
A
= 0 H
0
B
: σ
B
= 0
.
Para su contraste se utilizan las mismas sumas de cuadrados que en el modelo de efectos fijos y para
la b´ usqueda de las esperanzas y distribuciones asociadas se construyen las variables :
f
i
= α
i

i.
+e
i..
≡ N(0, σ
f
), σ
2
f
=
KJσ
2
A
+Kσ
2
AB

2
KJ
g
j
= β
j

.j
+e
.j.
≡ N(0, σ
g
), σ
2
g
=
KIσ
2
B
+Kσ
2
AB

2
KI
h
ij
= γ
ij
+e
ij.
≡ N(0, σ
h
), σ
2
h
=

2
AB

2
K
que permiten escribir las sumas de cuadrados como
SCA = KJ

i
(f
i
−f)
2
≡ KJσ
2
f
χ
2
I−1
SCB = KI

j
(g
j
−g)
2
≡ KIσ
2
g
χ
2
J−1
SCI = K

ij
(h
ij
−h
i.
−h
.j
+h
..
)
2
≡ Kσ
2
h
χ
2
(I−1)(J−1)
Variaci´on g.l. SC CM ECM F
Factor A I-1 JK

i
(x
i..
−x
...
)
2 SCF1
I−1
KJσ
2
A
+Kσ
2
AB

2 CMF1
CMI
Factor B J-1 IK

j
(x
.j.
−x
...
)
2 SCF2
J−1
KIσ
2
B
+Kσ
2
AB

2 CMF2
CMI
Interacci´on AB (I-1)(J-1) K

ij
(x
ij.
−x
i..
−x
.j.
+x
...
)
2 SCI
(I−1)(J−1)

2
AB

2 CMI
CME
Error IJ(K-1)

ijk
(x
ijk
−x
ij.
)
2 SCE
IJ(K−1)
σ
2
Las estimaciones de los par´ametros son:
´ σ
2
= CME ´ σ
2
AB
=
CMI −CME
K
´ σ
2
A
=
CMA−CMI
JK
´ σ
2
B
=
CMB −CMI
IK
´ µ = x
...
Las inferencias sobre par´ametros se basan en:
SCE
σ
2
≡ χ
2
n−IJ
x
...
−µ
_
CMA+CMB−CMI
n

= t
ν
ν ≈
(CMA+CMB −CMI)
2
CMA
2
(I−1)
+
CMB
2
(J−1)
+
CMI
2
(I−1)(J−1)
CMI −CME

2
AB

=
χ
2
ν
1
ν
1
ν
1

(CMI −CME)
2
CMI
2
(I−1)(J−1)

CME
2
n−IJ
donde las aproximaciones a funciones de tipo χ
2
se basan en el siguiente lema
Lema: Sean F
i
variables aleatorias de tipo χ
2
r
i
independientes, se considera una variable combinaci´on
lineal de las anteriores, Y =

a
i
F
i
, que toma valores positivos, entonces

a
i
F
i

a
i
r
i

=
χ
2
ν
ν
donde ν se
calcula para que los dos miembros de la aproximaci´on tengan la misma media y varianza.
MODELO DE EFECTOS MIXTOS (A fijo, B aleatorio)
Hip´otesis del modelo:
X
ijk
= µ +α
i

j

ij
+e
ijk

i
α
i
= 0,

i
γ
ij
= 0, β
j
≡ N(0, σ
B
), γ
ij
≡ N(0, σ
I
) e
ijk
≡ N(0, σ)
todas las variables aleatorias que intervienen son independientes entre si salvo las γ
ij
que tiene la
restricci´on de la suma nula en el ´ındice i.
F.V. g.l. SC ECM F
F1 I-1 JK

i
(x
i..
−x
...
)
2
KJ

i
α
2
i
(I−1)
+K
I
(I−1)
σ
2
I

2 CMF1
CMI
F2 J-1 IK

j
(x
.j.
−x
...
)
2
KIσ
2
B

2 CMF2
CME
I (I-1)(J-1) K

ij
(x
ij.
−x
i..
−x
.j.
+x
...
)
2
K
I
(I−1)
σ
2
I

2 CMI
CME
E IJ(K-1)

ijk
(x
ijk
−x
ij.
)
2
σ
2
Las estimaciones de los par´ametros son:
´ σ
2
= CME ´ σ
2
AB
=
CMI −CME
K
´ σ
2
B
=
CMB −CMI
IK
´ µ = x
...
´ α
i
= x
i..
−x
...
Las inferencias sobre el par´ametro µ se basan en la funci´on pivotal
x
...
−µ
_
CMB
n
≡ t
J−1