Capítulo 2

Distribuciones en el muestreo para una
normal multivariada
39
40
2.1. Introducción
En este capítulo se obtienen estimadores de parámetros de una muestra i.i.d. de un vector normal multivari-
ado, se definen sus distribuciones y estudian sus propiedades.
Sea un vector poblacional x ∼N
p
(µ, Γ), Γ invertible y una muestra de n observaciones independientes de x:
{x
1
, x
2
, . . . , x
n
}. Entonces la media muestral ¯ x
n
y la covarianza muestral S
n
son:
¯ x
n
=
1
n
n

i=1
x
i
, S
n
=
1
n
n

i=1
(x
i
− ¯ x
n
)(x
i
− ¯ x
n
)
t
Observamos que S
n
=
1
n
n

i=1
x
i
x
t
i
− ¯ x
n
¯ x
t
n
.
2.2. Estimador de máxima verosimilitud
La función de verosimilitud es:
f
n
(x
1
, x
2
, ..., x
n
|µ, Γ) =
|Γ|
−n/2
(2π)
np/2
exp
_

1
2
n

1
(x
i
−µ)
t
Γ
−1
(x
i
−µ)
_
.
ln( f
n
(x
1
, x
2
, ..., x
n
|µ, Γ)) =
n
2
ln(|Γ|
−1
) −
np
2
ln(2π) −
1
2
n

1
(x
i
−µ)
t
Γ
−1
(x
i
−µ).
∂ln( f
n
)
∂µ
= 0 =⇒ ˆ µ =
1
n
n

1
x
i
= ¯ x
n
∂ln( f
n
)
∂Γ
−1
= 0 =⇒
ˆ
Γ =
1
n
n

1
(x
i
− ¯ x
n
)(x
i
− ¯ x
n
)
t
= S
n
Sea D =∑
n
1
(x
i
−µ)(x
i
−µ)
t
. De la misma manera que en el caso p = 1,
1
n
n

i=1
(x
i
−µ)
2
es una estimación insesgada de la varianza σ
2
de la población cuando la media µ es conocida,
1
n
D es una
estimación insesgada de Γ cuando el vector de medias µ es conocido.
En efecto, E((x
i
−µ)(x
i
−µ)
t
) =Var(x
i
) =Γ y D =
n

i=1
(x
i
−µ)(x
i
−µ)
t
, luego E(D) = nΓ.
Pero S
n
es un estimador sesgado de Γ: E(S
n
) =
n−1
n
Γ. En efecto D = nS
n
+n¯ x
n
¯ x
t
n
−nµµ
t
.
Como E[ ¯ x
n
¯ x
t
n
−µµ
t
] = E[( ¯ x
n
−µ)( ¯ x
n
−µ)
t
] =Var( ¯ x
n
), E(S
n
) =
n−1
n
Γ.
41
Un estimador insesgado de Γ construido a partir de S
n
entonces:
ˆ
Γ =
n
n−1
S
n
=
1
n−1
∑(x
i
− ¯ x
n
)(x
i
− ¯ x
n
)
t
.
2.3. Distribución de Wishart y distribución de Hotelling
Definición 2.1 Se dice que una matriz V cuadrada de orden p sigue una distribución de Wishart W
p
(n, Γ)
si y solo V puede escribirse como:
V =
n

1
x
i
x
t
i
donde los x
i
son i.i.d. con x
i
∼N (0, Γ).
Proposición 2.1 Si V
1
∼W
p
(n
1
, Γ), V
2
∼W
p
(n
2
, Γ) y V
1
y V
2
son independientes, entonces
V
1
+V
2
∼W
p
(n
1
+n
2
, Γ).
2.3.1. Distribución de la media y la covarianza muestrales
En el caso de una variable X a una dimensión, la media muestral sigue una distribución normal: ¯ x
n

N (µ, σ
2
) y n
ˆ σ
2
σ
2
∼χ
2
n−1
. Vamos a generalizar las distribuciones de los estimadores para el caso de un vector
de normal multivariado.
Si las x
i
son i.i.d. y x
i
∼N
p
(µ, Γ), la distribución del vector de medias muestrales es ¯ x
n
∼N
p
(µ, Γ/n).
La distribución de Wishart es la distribución de una matriz de varianza-covarianza empírica. Generaliza la
distribución χ
2
n
. Si {x
1
, x
2
, . . . , x
n
} es una m.a.s. de la N(µ, σ
2
) con σ > 0 , entonces
1
σ
2
n

i=1
(x
i
−µ)
2
∼χ
2
n
y si
¯ x
n
=
1
n
n

i=1
x
i

1
σ
2
n

i=1
(x
i
− ¯ x
n
)
2
∼χ
2
n−1
.
Consideremos una muestra aleatoria simple de tamaño n de un vector aleatorio de IR
p
de distribución
N
p
(µ, Σ). Sea X ∈ M
n,p
la matriz que tiene en fila las realizaciones independientes X
i
∼ N
p
(µ, Σ), o sea
X =
_
_
_
_
_
_
x
t
1
x
t
2
.
.
.
x
t
n
_
_
_
_
_
_
Consideremos D = (X −1
n
µ
t
)
t
(X −1
n
µ
t
) =
n

i=1
(x
i
−µ)(X
i
−µ)
t
es decir la matriz de las sumas y productos
42
de las observaciones centradas en las medias de la población.
Propiedades:
De la misma manera que en el caso p = 1,
1
n
n

i=1
(x
i
−µ)
2
es una estimación insesgada de la varianza σ
2
de la población cuando la media µ es conocida,
1
n
D es
una estimación insesgada de Γ cuando el vector de medias µ es conocido.
La matriz D es semi-definida positiva; es definida positiva (p.s.) cuando Γ es invertible.
La matriz D tiene una distribución de Wishart W
p
(n, Γ). Se puede muestrar que cuando la matriz D es
definida positiva, su función de densidad es:
f (D) =
1
K
_
|D|
n−p−1
e

1
2
Traza(Σ
−1
D)
donde K es una constante:
K = 2
np/2
π
p(p−1)/4
|Σ|
n/2
p

j=1
Γ((n+ j −1)/2).
Se puede mostrar también que E(D) = nΓ y E(D
−1
) =
1
n−p−1
Γ
−1
si n−p−1 > 0.
Notas:
Para p = 1: W
1
(n, σ
2
) =∑
n
i=1
(x
i
−µ)
2
∼σ
2
χ
2
n
Si D ∼W
p
(n, Γ), entonces ∀u ∈ IR
p
\Ker(Γ) : u
t
Du ∼W
1
(n, u
t
Γu).
Proposición 2.2 Sean q matrices mutuamente independientes D
k
(k = 1, 2, ..., q) tales que D
k
∼W
p
(n
k
, Γ)
con n =

k
n
k
. Entonces ∑D
k
sigue una distribución de Wishart W
p
(n, Γ).
Demostración: Se deja la demostración como ejercicio.
Proposición 2.3 Sean ¯ x el vector de medias empíricas y V la matriz de varianzas-covarianzas empíricas:
¯ x =
1
n
n

i=1
x
i
V = (X −1
n
¯ x
t
)
t
(X −1
n
¯ x
t
)
entonces ¯ x ∼ N
p
_
µ,
1
n
Γ
_
y V ∼W
p
(n−1, Γ).
43
Demostración: Se observa que V = D−n( ¯ x −µ)( ¯ x −µ)
t
y que n( ¯ x −µ)( ¯ x −µ)
t
∼W
p
(1, Γ) y se aplica la
proposición 1.5.
Proposición 2.4 Sea D ∼W
p
(n, Γ), entonces para todo vector constante u ∈ IR
p
, se tiene
u
t
Du
u
t
Γu
∼χ
2
n
Demostración: Como u
t
Du ∼W
1
(n, u
t
Γu),
u
t
Du
u
t
Γu
∼W
1
(n, 1) =χ
2
n
. Se puede demostrar también que
u
t
Γ
−1
u
u
t
D
−1
u

χ
2
n−p+1
; estos resultados, que se generalizan para vectores u aleatorios, son delicados a demostrar.
2.3.2. La distribución T
2
de Hotelling
Esta distribución generaliza la distribución t-Student. La v.a. t
n
=
N(0, 1)
_
χ
2
n
/n
sigue una distribución de Student
a n grados de libertad cuando el numerador y el denominador son independientes, por ejemplo

n( ¯ x
n
−µ)
¸
1
n
n

i=1
(x
i
−µ)
2
∼t
n

n( ¯ x
n
−µ)
¸
1
n−1
n

i=1
(x
i
− ¯ x
n
)
2
∼t
n−1
.
Definición 2.2 Si el vector x ∼N
p
(0, I
p
), V ∼W
p
(n, I
p
) y x es independiente de D, entonces nx
T
V
−1
x
sigue una distribución de T
2
de Hotelling de parámetro n denotada T
2
p
(n).
Proposición 2.5 Se puede escribir la T
2
p
(n) de Hotelling en función de una F de Fisher:
T
2
p
(n) =
np
n−p+1
F
p,n−p+1
.
Demostración: En efecto: x ∼ N
p
(µ, Γ), entonces se puede escribir:
T
2
p
(n) =
n(x −µ)
t
D
−1
(x −µ)
(x −µ)
t
Γ
−1
(x −µ)
(x −µ)
t
Γ
−1
(x −µ)
Por otro lado vimos que
u
t
Γ
−1
u
u
t
D
−1
u
∼χ
2
n−p+1
y (x −µ)
t
Γ
−1
(x −µ) ∼χ
2
p
, luego se escribe que T
2
p
= n
χ
2
p
χ
2
n−p+1
.
Como x y D son independientes, se concluye que T
2
p
(n) =
np
n−p+1
F
p,n−p+1
.
Vemos que en particular si p = 1: T
2
p
(n) = F
1,n
=t
2
n
.
44
De la proposición anterior se deduce que E(T
2
p
(n)) =
np
n−p+1
E(F
p,n−p+1
) =
np
n−p−1
.
Se deduce la proposición:
Proposición 2.6 Si x ∼N
p
(µ, Γ), D∼W
p
(n, Γ) y x independiente de D, entonces n(x−µ)
t
D
−1
(x−µ) sigue
una distribución de Hotelling T
2
p
(n).
Demostración: Existe A tal que las filas A
i
de A son realizaciones independientes de N
p
(0, Γ) y B =


1
2
tiene en filas los vectores Γ

1
2
A
i
que son realizaciones independientes de N
p
(0, I
p
). Luego B
t
B =
Γ

1
2


1
2
∼ W
p
(n, I
p
). Por otra parte Γ

1
2
(x −µ) ∼ N
p
(0, I
p
). Se deduce entonces de la definición que
n(x −µ)
t
D
−1
(x −µ) sigue una distribución de Hotelling T
2
p
(n).
Otra proposición muy importante es:
Proposición 2.7 Sean una muestra {x
1
, x
2
, ..., x
n
} i.i.d., x ∼N
p
(µ, Γ), ¯ x =
1
n
∑x
i
, y S =
1
n
∑(x
i
− ¯ x)(x
i
− ¯ x)
t
,
entonces n( ¯ x −µ)
t
S
−1
( ¯ x −µ)
t
∼ T
2
p
(n−1).
Demostración: Se deja como ejercicio. Es muy parecida a la demostración de la proposición anterior.
Utilizaremos en las siguientes secciones la distribución de T
2
de Hotelling para construir tests sobre vector
de medias.
2.4. Test de vector de medias para una población
Sea ahora una muestra multivariada i.i.d. {x
1
, x
2
, . . . , x
n
} con x
i
∼ N
p
(µ, Γ) con Γ invertible.
Queremos construir un test para la hipótesis nula H
o
: µ = µ
o
contra la hipótesis alternativa H
1
: µ = µ
o
.
Vamos a construir el test de razón de verosimilitudes:
−2lnΛ = 2(l
1
−l
o
)
donde
l
1
= m´ ax
µ,Γ
ln( f
n
(x
1
, ..., x
n
; µ, Γ)
l
o
= m´ ax
Γ
ln( f
n
(x
1
, ..., x
n
; µ
o
, Γ)
Luego
m´ ax
µ,Γ
ln( f
n
(x
1
, ..., x
n
; µ, Γ) = ln( f
n
(x
1
, ..., x
n
; ¯ x, S)
m´ ax
Γ
ln( f
n
(x
1
, ..., x
n
; µ
o
, Γ) = ln( f
n
(x
1
, ..., x
n
; µ
o
, S
o
)
donde S =
1
n
∑(x
i
− ¯ x)(x
i
− ¯ x)
t
y S
o
=
1
n
∑(x
i
−µ
o
)(x
i
−µ
o
)
t
.
45
Luego
l
1
= −
n
2
ln|S| −
np
2
ln(2π) −
1
2

(x
i
− ¯ x)
t
S
−1
(x
i
− ¯ x)
l
o
= −
n
2
ln|S
o
| −
np
2
ln(2π) −
1
2

(x
i
−µ
o
)
t
S
−1
o
(x
i
−µ
o
)
Observamos que

(x
i
− ¯ x)
t
S
−1
(x
i
− ¯ x) = Traza(S
−1

(x
i
− ¯ x)(x
i
− ¯ x)
t
) =traza(nS
−1
S) = np

(x
i
−µ
o
)
t
S
−1
o
(x
i
−µ
o
) = Traza(S
−1
o ∑
(x
i
−µ
o
)(x
i
−µ
o
)
t
) =traza(nS
−1
o
S
o
) = np
Entonces
l
1
−l
o
=
n
2
(ln|S
o
| −ln|S|)
Observamos ahora que S
o
= S+( ¯ x −µ
o
)( ¯ x −µ
o
)
t
, luego ln|S
o
| = ln|S+( ¯ x −µ
o
)( ¯ x −µ
o
)
t
|.
Usaremos el siguiente resultado: Si A(mxn) y B(nxm), entonces |I
m
+AB| =|I
n
+BA| y si m = 1, BA es una
matriz de orden pero AB es un escalar, entonces: |I
n
+BA| = |I
1
+AB| = 1+AB.
Se deduce que
−2lnΛ = 2(l
1
−l
o
) = n(ln|S
o
| −ln|S|) = nln[1+ ¯ x −µ
o
)
t
S
−1
( ¯ x −µ
o
)]
EL estadístico de razón de verosimilitudes depende entonces de (n−1)( ¯ x −µ
o
)
t
S
−1
( ¯ x −µ
o
) que segue una
distribución T p
2
(n −1). La región de rechazo tiene la forma: Como T p
2
(n −1) =
n−p
(n−a)p
F
p,n−p
se deduce
que el estadístico
n−p
p
( ¯ x −µ
o
)
t
S
−1
( ¯ x −µ
o
) ∼ F
p,n−p
.
Ejemplo 2.1 Si n = 40, p = 2, S =
_
4, 288 1, 244
1, 244 0, 428
_
y
¯
X =
_
6, 069
6, 255
_
con H
0
: µ =
_

50
6
_
T
2
=
93, 45 y
n−p
(n−1)p
T
2
= 44, 27 ⇒ IP(F
2,38
> 44, 27) ≈ 0, 00 ⇒ se rechaza H
0
.
2.5. Test para dos poblaciones
Sea una variable X observada en dos poblaciones P
1
y P
2
y dos muestras independientes, una muestra mul-
tivariada {x
11
, x
12
, . . . , x
1n
1
} i.i.d. en P
1
con x
1i
∼ N
p

1
, Γ) y una muestra multivariada {x
21
, x
22
, . . . , x
2n
2
}
i.i.d. en P
2
con X
2i
∼ N
p

2
, Γ) con Γ invertible. Observan que se supone que las dos poblaciones tienen
la misma matriz de varianza. Se compara las dos poblaciones a través de sus medias con la hipótesis nula
H
0
: µ
1
= µ
2
contra la hipótesis alternativa H
1
: µ
1
= µ
2
.
46
Sean ¯ x
1
y ¯ x
2
los dos vectores de medias muestrales,
¯ x
1
=
1
n
1

x
1i
y ¯ x
2
=
1
n
2

x
2i
Sean A
1
= ∑
n
i=1
(x
1i
− ¯ x
1
)(x
1i
− ¯ x
1
)
t
y A
2
= ∑
n
i=1
(x
2i
− ¯ x
2
)(x
2i
− ¯ x
2
)
t
, entonces S =
A
1
+A
2
n
1
+n
2
−2
es un esti-
mador insesgado de la matriz de varianza Γ común a las dos poblaciones.
Como ¯ x
1
y A
1
son independientes y ¯ x
2
y A
2
son independientes, y las dos muestras son independientes,
¯ x
1
− ¯ x
2
y S son independientes. Por otro lado se tiene que:
(n
1
+n
2
−2)S ∼W
p
(n
1
+n
2
−2, Γ) y ¯ x
1
− ¯ x
2
∼ N
p
_
µ
1
−µ
2
,
n
1
+n
2
n
1
n
2
Γ
_
,
luego
n
1
n
2
n
1
+n
2
( ¯ x
1
− ¯ x
2
)
t
S
−1
( ¯ x
1
− ¯ x
2
) ∼ T
2
p
(n
1
+n
2
−2)
y
n
1
+n
2
−p−1
(n
1
+n
2
−2)p
T
2
p
(n
1
+n
2
−2) ∼ F
p,n
1
+n
2
−p−1
.
La región crítica de nivel de significación α es entonces dada por IP(F
p,n
1
+n
2
−p−1
> c) =α.
Ejercicio: Muestre que este test F equivale al test de razón de verosimilitudes.
2.6. Análisis de perfiles
Hay situaciones en las cuales el vector normal no corresponde a diferentes variables sino a una misma vari-
able repetida, por ejemplo en el tiempo o el espacio. Cuando se tienen dos poblaciones, se quiere comparar
las medias transversal y longitudinalmente. Por ejemplo se tiene dos grupos de personas, un grupo con n
1
personas y el otro con n
2
personas. En cada uno de los grupos se aplica a un tratamiento distinto y se mide
el resultado del tratamiento con un examen en p diferentes instantes. En la figura 2.1 se presenta un ejemplo
de las medias en cada instante para cada uno de los grupos. En abscisa tenemos los instantes o repeticiones
y en la ordenada el valor de la media en este instante. El seguimiento de cada grupo constituye un perfil.
Lo importante a observar aquí es que longitudinalmente las observaciones no son independientes ya que son
medidas sobre el mismo individuo u objeto.
Más alla que estudiar la igualdad de las curvas (o los perfiles), queremos contestar a tres preguntas:
¿Los grupos se comportan de manera similares durante todo el proceso? O sea ¿Las curvas son par-
alelas?
¿Los grupos tienen un nivel parecido? O sea ¿Las curvas son del mismo nivel?
47
¿No hay cambio en el tiempo? O sea ¿La curva promedio es horizontal?
Trataremos en primer lugar el caso de dos grupos y generalizaremos después.
Figura 2.1: Perfiles para dos grupos
2.6.1. Caso de dos perfiles
Sean µ
1
el vector de medias en la población P
1
y µ
2
en P
2
.
µ
1
=
_
_
_
_
_
_
µ
11
µ
12
.
.
.
µ
1p
_
_
_
_
_
_
, µ
2
=
_
_
_
_
_
_
µ
21
µ
22
.
.
.
µ
2p
_
_
_
_
_
_
en donde µ
ji
es la media del grupo j en la repetición o en el instante i.
Para saber si los perfiles son idénticos se hace el test de hipótesis H
0
: µ
1
= µ
2
, que vimos en el párrafo
anterior. Pero la primera pregunta sobre el paralelismo de los perfiles se traduce por la hipótesis nula:
H
0
: µ
11
−µ
21
= µ
12
−µ
22
= · · · = µ
1p
−µ
2p
Lo que equivale a:
H
0
:
_
¸
¸
¸
¸
_
¸
¸
¸
¸
_
µ
11
−µ
12
= µ
21
−µ
22
µ
12
−µ
13
= µ
22
−µ
23
.
.
.
µ
1(p−1)
−µ
1p
= µ
2(p−1)
−µ
2p
Esta hipótesis se escribe matricialmente
H
0
: C(µ
1
−µ2) = 0
48
donde
C =
_
¸
¸
¸
¸
¸
¸
¸
_
1 −1 0 0 . . . 0
0 1 −1 0 . . . 0
0 0 1 −1 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . 1 −1
_
¸
¸
¸
¸
¸
¸
¸
_
.
Si S =
A
1
+A
2
n
1
+n
2
−2
es el estimador insesgado de la matriz de varianza Γ común a las dos poblaciones,
(n
1
+n
2
−2)S ∼W
p
(n
1
+n
2
−2, Γ) y
¯
X
1

¯
X
2

_
µ
1
−µ
2
,
n
1
+n
2
n
1
n
2
Γ
_
y estos son independientes, entonces
se tiene
(n
1
+n
2
−2)CSC
t
∼W
p−1
(n
1
+n
2
−2,CΓC
t
)
C( ¯ x
1
− ¯ x
2
) ∼ N
p−1
_
C(µ
1
−µ
2
),
n
1
+n
2
n
1
n
2
CΓC
t
_
luego
n
1
n
2
n
1
+n
2
( ¯ x
1
− ¯ x
2
)
t
C
t
(CSC
t
)
−1
C( ¯ x
1
− ¯ x
2
) ∼ T
2
p−1
(n
1
+n
2
−2)
y
n
1
+n
2
−p
(n
1
+n
2
−2)(p−1)
T
2
p−1
(n
1
+n
2
−2) ∼ F
p−1,n
2
+n
2
−p
Ejemplo 2.2 n
1
= 37 y n
2
= 12
¯ x
1
=
_
_
_
_
_
_
12, 57
9, 57
11, 49
7, 97
_
_
_
_
_
_
¯ x
2
=
_
_
_
_
_
_
8, 75
5, 33
8, 50
4, 75
_
_
_
_
_
_
S =
_
¸
¸
¸
¸
_
11, 25 9, 40 7, 15 3, 38
9, 40 13, 53 7, 38 2, 55
7, 15 7, 38 11, 57 2, 62
3, 38 2, 55 2, 62 5, 80
_
¸
¸
¸
¸
_
.
Se muestra los dos perfiles, que son casi-paralelos, en la figura 2.2.
La hipótesis nula es: H
0
: C(µ
1
−µ
2
) = 0 con C =
_
¸
_
1 −1 0 0
0 1 −1 0
0 0 1 −1
_
¸
_
(CSC
t
)
−1
=
_
¸
_
0, 2585 0, 1232 0, 0644
0, 1232 0, 1705 0, 0686
0, 0644 0, 0686 0, 113
_
¸
_
C
¯
X
1
=
_
_
_
3
−1, 92
3, 52
_
_
_, C
¯
X
2
=
_
_
_
3, 42
−3, 17
3, 75
_
_
_.
49
Figura 2.2: Perfiles de los grupos
Se obtiene T
2
= 1, 46 y
45
47∗3
1, 46 = 0, 47.
El p-valor es igual a: IP(F
3,45
> 0, 47) = 0, 70 ⇒ no se rechaza
H
0
: µ
11
−µ
21
= µ
12
−µ
22
= µ
13
−µ
23
= µ
14
−µ
24
Concluyamos al paralelismo de los dos perfiles.
Puede ser que los dos perfiles no sean paralelos, pero podrían ser del mismo nivel. Es la segunda pregunta
que se traduce en la hipótesis nula:
1
t
p
µ
1
= 1
t
p
µ
2
Tenemos aquí que comparar las medias univariada de dos poblaciones.
Sea y
1 j
=
p

k=1
x
1 jk
e y
2 j
=
p

k=1
x
2 jk
y las medias ¯ y
1
e ¯ y
2
. Se usa entonces un test t-Student.
t =
¯ y
1
− ¯ y
2
¸
¸
¸
¸
_
_
1
n
1
+
1
n
2
_∑
j
(y
1j
− ¯ y
1
)
2
+

j
(y
2j
− ¯ y
2
)
2
n
1
+n
2
−2
∼t
n
1
+n
2
−2
.
En el ejemplo ¯ y
1
= 41, 60, ¯ y
2
= 27, 33 y

j
(y
1 j
− ¯ y
1
)
2
+

j
(y
2j
− ¯ y
2
)
2
n
1
+n
2
−2
= 107, 13 y
t =
41, 60−27, 33
¸
_
1
37
+
1
12
_
107, 13
= 4, 15.
IP(|t
45
| > 4, 15) ≈ 0, 00 ⇒ se rechaza que los dos perfiles son del mismo nivel.
50
Para la tercera pregunta, si se detecto que los perfiles no son paralelos, habría que responder a la pregunta
separando los dos grupos. Si se concluyo que los perfiles son paralelos podemos ver si las medias sobre los
dos grupos difieren longitudinalmente, o sea si la curva promedio de los dos grupos reunidos es horizontal.
En este caso la hipótesis nula se escribe:
H
0
: µ
11

21
= µ
12

22
= · · · = µ
1p

2p
Utilizando la misma matriz C de la pregunta 1: H
0
: C(µ
1

2
) = 0
Sea ¯ x =
n
1
¯ x
1
+n
2
¯ x
2
n
1
+n
2
el perfil promedio observado. ¯ x ∼ N
p
_
¯ µ,
Γ
n
1
+n
2
_
. Se tiene:

n
1
+n
2
C¯ x ∼ N
p−1
((n
1
+n
2
)C¯ µ,CΓC
t
)
(n
1
+n
2
−2)CSC
t
∼W
p−1
(n
1
+n
2
−2,CΓC
t
)
Entonces el estadístico del test es:
(n
1
+n
2
) ¯ x
t
C
t
(CSC
t
)
−1
C¯ x ∼ T
2
p−1
(n
1
+n
2
−2)
y
n
1
+n
2
−p
(n
1
+n
2
−2)(p−1)
T
2
p−1
(n
1
+n
2
−2) ∼ F
p−1,n
1
+n
2
−p
.
En el ejemplo, ¯ x =
_
_
_
_
_
_
11, 63
8, 53
10, 76
7, 18
_
_
_
_
_
_
y T
2
= 166, 07 ⇒F = 53, 01 ⇒IP(F
3,45
> 166, 07) ≈0, 00. Se rechaza que
las medias son iguales longitudinalmente.
Se deja, en ejercicio, construir el test para los dos grupos separados.
2.6.2. Caso de varios perfiles
Sean q poblaciones P
1
, P
2
, . . . , P
q
y µ
j
=
_
_
_
_
_
_
µ
j1
µ
j2
.
.
.
µ
j p
_
_
_
_
_
_
el vector de medias en la población P
j
. Tomamos nueva-
mente las tres preguntas que se hicieron en el caso de dos perfiles.
Para saber si los perfiles son paralelos se plantea la hipótesis nula:
H
0
: µ
11
−µ
j,1
= µ
12
−µ
22
= · · · = µ
1p
−µ
2p
( j = 2, 3, . . . q)
51
Lo que equivale a:
H
0
:
_
¸
¸
¸
¸
_
¸
¸
¸
¸
_
µ
11
−µ
12
= µ
j1
−µ
j2
µ
12
−µ
13
= µ
j2
−µ
j3
.
.
.
µ
1(p−1)
−µ
1p
= µ
j(p−1)
−µ
j p
.
Esta hipótesis se escribe matricialmente
H
0
: B
t
MC = 0 (C
t
M
t
B = 0)
en donde
M
t
= [ µ
1
µ
2
. . . µ
q
]
B
t
=
_
¸
¸
¸
¸
¸
¸
¸
_
1 −1 0 0 . . . 0
0 1 −1 0 . . . 0
0 0 1 −1 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . 1 −1
_
¸
¸
¸
¸
¸
¸
¸
_
(q−1)×q
C
T
=
_
¸
¸
¸
¸
¸
¸
¸
_
1 −1 0 0 . . . 0
0 1 −1 0 . . . 0
0 0 1 −1 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . 1 −1
_
¸
¸
¸
¸
¸
¸
¸
_
(p−1)×p
.
Sea ¯ x
j
el vector de medias muestrales obtenido en una muestra de tamaño n
j
en la población P
j
( j =
1, 2, . . . , q) y
ˆ
M
t
= [ ¯ x
1
¯ x
2
. . . ¯ x
q
].
Con el supuesto de normalidad con igualdad de matriz varianza-covarianza Γ, se obtiene un estimador
insesgado de Γ con
S =
q

j=1
A
j
n−q
en donde A
j
=

i
(x
ji
− ¯ x
j
)(x
ji
− ¯ x
j
)
t
y n =
q

j=1
n
j
.
Sea H = (B
t
ˆ
MC)
t
(B
t
(D)
−1
B)
−1
(B
t
ˆ
MC).
Como (n −q)S ∼W
p
(n −q, Γ) y
¯
X
j
∼ N
p
_
µ
j
,
Γ
n
_
y son independientes entre si, se tiene (n −q)C
Tt
SC ∼
W
p−1
(n−q,C
T
ΓC) y bajo H
0
Traza(HS
−1
) ∼ T
2
p−1
(n−q)
52
o sea
n−p−q+2
(n−q)(p−1)
T
2
p−1
(n−q) ∼ F
p−1,n−p−q+2
.
Ejemplo 2.3 Se tiene 4 grupos de efectivos: n
1
= 8, n
2
= 5, n
3
= 4, n
4
= 4 y 3 repeticiones (x
1
, x
2
, x
3
) para
cada observación (tabla 2.1).
¯ x
1
=
_
_
_
18, 00
20, 00
19, 75
_
_
_ ¯ x
2
=
_
_
_
13, 8
15, 2
14, 2
_
_
_ ¯ x
3
=
_
_
_
13
14
15
_
_
_ ¯ x
4
=
_
_
_
10
9
11
_
_
_.
Se muestran los cuatro perfiles promedios en la figura 2.3.
Figura 2.3: Perfiles promedios
La hipótesis nula para el paralelismo de los 4 perfiles es: H
0
: B
t
MC = 0 con
B
t
=
_
¸
_
1 −1 0 0
0 1 −1 0
0 0 1 −1
_
¸
_ C
t
=
_
1 −1 0
0 1 −1
_
y
ˆ
M =
_
_
_
¯ x
t
1
¯ x
t
2
¯ x
t
3
_
_
_
C
t
SC =
_
3, 0118 −2, 0000
−2, 0000 3, 6176
_
y H =
_
24, 61 −20, 48
−20, 48 24, 31
_
.
Finalmente T
2
= 11, 65 y F = 5, 48. Como IP(F
2,16
> 5, 48) = 0, 015, se rechaza que los cuatro perfiles son
paralelos. Pero no impide eventualmente que dos de ellos estén paralelos como se observa en la figura 4.3.
Los 4 perfiles pueden ser no paralelos pero pueden ser del mismo nivel. Es la segunda pregunta que se
traduce en la hipótesis nula:
H
0
:
p

j=1
µ
1j
=
p

j=1
µ
2j
= · · · =
p

j=1
µ
qj
53
Grupo Variables Total variables
x
1
x
2
x
3
1
19
20
19
18
16
17
20
15
20
21
22
19
18
22
19
19
18
19
22
21
20
19
20
19
57
60
63
58
54
58
59
53
Media grupo 1 18 20 19,75 57,75
2
12
15
15
13
14
14
15
17
14
16
12
17
15
14
13
38
47
47
41
43
Media grupo 2 13,8 15,2 14,2 43,20
3
15
13
12
12
14
14
15
13
17
15
15
13
46
42
42
38
Media grupo 3 13 14 15 42,00
4
8
10
11
11
9
10
10
7
10
12
10
12
27
32
31
30
Media grupo 4 10 9 11 30,00
Media total 14,52 15,62 15,86 46,00
Cuadro 2.1: Perfiles de las observaciones
Lo que se escribe matricialmente: H
0
: B
t
M1
p
= 0. Tenemos aquí que comparar las medias univariadas de q
poblaciones.
Sea y
ji
=
p

k=1
x
i jk
i = 1, 2, . . . , n
j
, j = 1, 2, . . . , q y las medias por grupo ¯ y
1
, ¯ y
2
, . . . , ¯ y
q
y la media total ¯ y =
q

j
n
j
n
¯ y
j
, que son unidimensionales.
Se puede mostrar que H =
q

j=1
n
j
( ¯ y
j
− ¯ y)
2
representa la varianza inter-grupo y E = I1
T
p
SI1
p
=
q

j=1
n
j

i=1
n
j
(y
ji

54
¯ y
j
)
2
representa la varianza intra-grupo.
H/(q−1)
E/(n−q)
∼ F
q−1,n−q
En el ejemplo anterior ¯ y
1
= 57, 75, ¯ y
2
= 43, 20, ¯ y
3
= 42, 00, ¯ y
4
= 30, 00 e ¯ y = 46, 00.
H = 2231, 7, E = 178, 30 ⇒
H/(q−1)
E/(n−q)
= 70, 93
El p-valor que es igual a IP(F
3,17
> 70, 93) ≈ 0 indica que se rechaza claramente la hipótesis que los 4
perfiles son del mismo nivel.
Para resolver la tercera pregunta, o sea ver si las medias de grupos difieren longitudinalmente o si la curva
promedio es horizontal, consideremos la hipótesis nula:
H
0
: C
t
_
p

i=1
µ
•i
_
= 0
en donde µ
•i
=
1
q
q

j=1
µ
ji
(i = 1, 2, . . . , p) es el perfil promedio.
Se construye un estadístico de Hotelling para el test a partir de
¯ x =
q

j=1
n
j
¯ x
j
q

j=1
n
j
el perfil promedio observado:

nC
t
¯ x ∼ N
p−1
_√
nC
t
¯ µ,C
t
ΓC
_
(n−q)C
t
SC ∼W
p−1
(n−q,C
t
ΓC)
Luego
n¯ x
t
C(C
t
SC)
−1
C
t
¯ x ∼ T
2
p−1
(n−q)
y
n−q−p+2
(n−q)(p−1)
T
2
p−1
(n−q) ∼ F
p−1,n−q−p+2
55
Para nuestro ejemplo:
¯ x
_
_
_
14, 52
15, 62
15, 86
_
_
_ C
T
¯ x =
_
−1, 095
−0,0238
_
⇒ T
2
= 16, 91 ⇒ F = 7, 96 ⇒ IP(F
2,16
> 7, 96) = 0, 004
Se rechaza entonces que las repeticiones son iguales.
56

40 .

xn |µ. Entonces la media muestral xn y la covarianza muestral Sn son: ¯ xn = ¯ 1 n 1 n xi . xn }. x2 . De la misma manera que en el caso p = 1. Γ) = 1 n |Γ|−n/2 exp − ∑(xi − µ)t Γ−1 (xi − µ) . x2 . i=1 Pero Sn es un estimador sesgado de Γ: E(Sn ) = n−1 n Γ..2... 1 1 n ∑ (xi − µ)2 n i=1 1 es una estimación insesgada de la varianza σ2 de la población cuando la media µ es conocida. n i=1 i 2. E((xi − µ)(xi − µ)t ) = Var(xi ) = Γ y D = ∑ (xi − µ)(xi − µ)t . luego E(D) = nΓ. ..i. Como E[xn xtn − µµt ] = E[(xn − µ)(xn − µ)t ] = Var(xn ). x2 . Introducción En este capítulo se obtienen estimadores de parámetros de una muestra i. . Estimador de máxima verosimilitud La función de verosimilitud es: fn (x1 . Sea un vector poblacional x ∼ N p (µ.d. Γ)) = ln(|Γ|−1 ) − ln(2π) − ∑(xi − µ)t Γ−1 (xi − µ). n En efecto. xn |µ. Γ invertible y una muestra de n observaciones independientes de x: {x1 . Γ). . . . E(Sn ) = ¯ ¯ ¯ ¯ ¯ 41 . . 2 2 2 1 ∂ln( fn ) 1 n = 0 =⇒ µ = ∑ xi = xn ˆ ¯ ∂µ n 1 n ∂ln( fn ) ˆ 1 = 0 =⇒ Γ = ∑(xi − xn )(xi − xn )t = Sn ¯ ¯ ∂Γ−1 n 1 Sea D = ∑n (xi − µ)(xi − µ)t . de un vector normal multivariado. En efecto D = nSn + nxn xtn − nµµt . n D es una estimación insesgada de Γ cuando el vector de medias µ es conocido.1. Sn = ∑ (xi − xn )(xi − xn )t ¯ ¯ ∑ n i=1 n i=1 Observamos que Sn = 1 n ¯ ¯ ∑ xi xt − xn xtn ... ¯ ¯ n−1 n Γ. 2 1 (2π)np/2 n np 1 n ln( fn (x1 . se definen sus distribuciones y estudian sus propiedades.2.

¯ La distribución de Wishart es la distribución de una matriz de varianza-covarianza empírica.p la matriz que tiene en fila las realizaciones independientes Xi ∼ Np (µ. ¯ ∑ n−1 n i=1 σ i=1 Consideremos una muestra aleatoria simple de tamaño n de un vector aleatorio de IR p de distribución Np (µ. de la N(µ. Σ). la distribución del vector de medias muestrales es xn ∼ N p (µ. la media muestral sigue una distribución normal: xn ∼ ¯ ˆ N (µ. Σ). xtn Consideremos D = (X − 1n µt )t (X − 1n µt ) = ∑ (xi − µ)(Xi − µ)t es decir la matriz de las sumas y productos i=1 n       42 . . Distribución de Wishart y distribución de Hotelling Definición 2. Γ).1 Se dice que una matriz V cuadrada de orden p sigue una distribución de Wishart Wp (n.1.i. Vamos a generalizar las distribuciones de los estimadores para el caso de un vector n−1 σ 2 de normal multivariado.a. Si {x1 . .1 Si V1 ∼ Wp (n1 . . V2 ∼ Wp (n2 .d. Generaliza la distribución χ2 . . entonces V1 +V2 ∼ Wp (n1 + n2 . Γ). Si las xi son i. Γ/n). Γ) si y solo V puede escribirse como: V = ∑ xi xti 1 n donde los xi son i.3. con xi ∼ N (0. Γ) y V1 y V2 son independientes. Proposición 2.i. σ2 ) y n σ2 ∼ χ2 . Γ).s.ˆ Un estimador insesgado de Γ construido a partir de Sn entonces: Γ = n n−1 Sn = 1 n−1 ¯ ¯ ∑(xi − xn )(xi − xn )t . 2. . . entonces n 1 n ∑ (xi − µ)2 ∼ χ2 n σ2 i=1 y si xn = ¯ 1 n 1 n xi ⇒ 2 ∑ (xi − xn )2 ∼ χ2 . σ2 ) con σ > 0 . Γ).d. 2. x2 . xn } es una m. y xi ∼ N p (µ. Distribución de la media y la covarianza muestrales En el caso de una variable X a una dimensión. o sea    X =   xt1 xt2 . Sea X ∈ Mn.3.

3 Sean x el vector de medias empíricas y V la matriz de varianzas-covarianzas empíricas: ¯ x= ¯ 1 n ∑ xi n i=1 V = (X − 1n x t )t (X − 1n x t ) ¯ ¯ entonces x ∼ Np µ..2 Sean q matrices mutuamente independientes Dk (k = 1. su función de densidad es: f (D) = donde K es una constante: K = 2np/2 π p(p−1)/4 |Σ|n/2 ∏ Γ((n + j − 1)/2). 1 n ∑ (xi − µ)2 n i=1 es una estimación insesgada de la varianza σ2 de la población cuando la media µ es conocida.) cuando Γ es invertible. 1 D es n una estimación insesgada de Γ cuando el vector de medias µ es conocido.. q) tales que Dk ∼ Wp (nk .de las observaciones centradas en las medias de la población. Proposición 2. Γ). Se puede muestrar que cuando la matriz D es definida positiva. Γ). La matriz D es semi-definida positiva. La matriz D tiene una distribución de Wishart Wp (n. Γ).. . entonces ∀u ∈ IR p \ Ker(Γ) : ut Du ∼ W1 (n. Γ) Demostración: Se deja la demostración como ejercicio. con n = ∑ nk . 2. Entonces ∑ Dk sigue una distribución de Wishart Wp (n. Γ). ¯ n 43 . σ2 ) = ∑n (xi − µ)2 ∼ σ2 χ2 n i=1 1 Γ−1 si n − p − 1 > 0. Propiedades: De la misma manera que en el caso p = 1. n− p−1 Si D ∼ Wp (n.s. ut Γu). j=1 p 1 K |D|n−p−1 e− 2 Traza(Σ 1 −1 D) Se puede mostrar también que E(D) = nΓ y E(D−1 ) = Notas: Para p = 1: W1 (n. es definida positiva (p. k Proposición 2. 1 Γ y V ∼ Wp (n − 1.

V ∼ Wp (n. Ip ) y x es independiente de D. son delicados a demostrar. Definición 2. luego se escribe que Tp = n 2 . que se generalizan para vectores u aleatorios. Proposición 2. Se puede demostrar también que t −1 ∼ n ut Γu uD u χ2 .5 Se puede escribir la Tp (n) de Hotelling en función de una F de Fisher: 2 Tp (n) = np Fp. Ip ).2. se concluye que Tp (n) = Fp. 1) 1 n ¯ ∑ (xi − xn )2 n − 1 i=1 ∼ tn−1 .a.4 Sea D ∼ Wp (n. Γ) y se aplica la ¯ ¯ ¯ ¯ proposición 1. entonces para todo vector constante u ∈ IR p . La v. n− p+1 Demostración: En efecto: x ∼ Np (µ. entonces nxT V −1 x 2 sigue una distribución de T 2 de Hotelling de parámetro n denotada Tp (n).n−p+1 . 44 .2 Si el vector x ∼ Np (0. por ejemplo √ n(xn − µ) ¯ 1 n ∑ (xi − µ)2 n i=1 √ n(xn − µ) ¯ ∼ tn Esta distribución generaliza la distribución t-Student. tn = N(0.n = tn .3. n− p+1 2 2 Vemos que en particular si p = 1: Tp (n) = F1.Demostración: Se observa que V = D − n(x − µ)(x − µ)t y que n(x − µ)(x − µ)t ∼ Wp (1. 2 Proposición 2. ut Du ut Γ−1 u ∼ W1 (n. estos resultados. La distribución T 2 de Hotelling sigue una distribución de Student χ2 /n n a n grados de libertad cuando el numerador y el denominador son independientes.n−p+1 .5. 1) = χ2 . Γ). n−p+1 2. entonces se puede escribir: 2 Tp (n) = n(x − µ)t D−1 (x − µ) (x − µ)t Γ−1 (x − µ) (x − µ)t Γ−1 (x − µ) Por otro lado vimos que χ2 ut Γ−1 u p 2 ∼ χ2 y (x − µ)t Γ−1 (x − µ) ∼ χ2 . p n−p+1 ut D−1 u χn−p+1 np 2 Como x y D son independientes. se tiene ut Du ∼ χ2 n ut Γu Demostración: Como ut Du ∼ W1 (n. Γ). ut Γu).

xn . Γ).7 Sean una muestra {x1 .6 Si x ∼ Np (µ. Γ) = ln( fn (x1 . x2 . Vamos a construir el test de razón de verosimilitudes: −2lnΛ = 2(l1 − lo ) donde l1 = m´ x ln( fn (x1 . 2.. Γ) y B = AΓ− 2 tiene en filas los vectores Γ− 2 Ai que son realizaciones independientes de Np (0. So ) a Γ 1 donde S = 1 ∑(xi − x)(xi − x)t y So = n ∑(xi − µo )(xi − µo )t . .. ¯ ¯ n 45 . entonces n(x−µ)t D−1 (x−µ) sigue 2 una distribución de Hotelling Tp (n). Por otra parte Γ− 2 (x − µ) ∼ Np (0..Γ Γ lo = m´ x ln( fn (x1 . {x1 . 1 1 1 1 1 Otra proposición muy importante es: Proposición 2. xn . µ. . xn . Γ) a µ. Utilizaremos en las siguientes secciones la distribución de T 2 de Hotelling para construir tests sobre vector de medias. xn } i. xn . ¯ ¯ Demostración: Se deja como ejercicio.... Ip ).. Queremos construir un test para la hipótesis nula Ho : µ = µo contra la hipótesis alternativa H1 : µ = µo .i. .n−p+1 ) = . µo . . S) a ¯ µ. x2 . x..d. xn } con xi ∼ Np (µ..i.d... µo . Γ). Γ) y x independiente de D. Test de vector de medias para una población Sea ahora una muestra multivariada i..4. µo . ... n− p+1 n− p−1 Se deduce la proposición: Proposición 2... . Es muy parecida a la demostración de la proposición anterior. Ip ). ¯ n ¯ ¯ n 2 entonces n(x − µ)t S−1 (x − µ)t ∼ Tp (n − 1).2 De la proposición anterior se deduce que E(Tp (n)) = np np E(Fp. Γ) con Γ invertible. µ.. . Luego Bt B = Γ− 2 DΓ− 2 ∼ Wp (n.. x ∼ Np (µ. . Demostración: Existe A tal que las filas Ai de A son realizaciones independientes de Np (0. y S = 1 ∑(xi − x)(xi − x)t . .. x = 1 ∑ xi . Γ) = ln( fn (x1 . Γ) a Luego m´ x ln( fn (x1 . xn . Se deduce entonces de la definición que 2 n(x − µ)t D−1 (x − µ) sigue una distribución de Hotelling Tp (n).. .Γ m´ x ln( fn (x1 . Ip ). D ∼ Wp (n. ... xn .

.d. √ con H0 : µ = Ejemplo 2.Luego n np 1 l1 = − ln|S| − ln(2π) − ∑(xi − x)t S−1 (xi − x) ¯ ¯ 2 2 2 np 1 n −1 lo = − ln|So | − ln(2π) − ∑(xi − µo )t So (xi − µo ) 2 2 2 Observamos que ¯ ¯ ¯ ¯ ∑(xi − x)t S−1 (xi − x) = Traza(S−1 ∑(xi − x)(xi − x)t ) = traza(nS−1 S) = np −1 −1 −1 ∑(xi − µo )t So (xi − µo ) = Traza(So ∑(xi − µo )(xi − µo )t ) = traza(nSo So ) = np Entonces n l1 − lo = (ln|So | − ln|S|) 2 Observamos ahora que So = S + (x − µo )(x − µo )t . Se deduce que −2lnΛ = 2(l1 − lo ) = n(ln|So | − ln|S|) = nln[1 + x − µo )t S−1 (x − µo )] ¯ ¯ EL estadístico de razón de verosimilitudes depende entonces de (n − 1)(x − µo )t S−1 (x − µo ) que segue una ¯ ¯ distribución T p2 (n − 1).d. (n − 1)p 2. x12 .5. Γ) y una muestra multivariada {x21 . x1n1 } i. Se compara las dos poblaciones a través de sus medias con la hipótesis nula H0 : µ1 = µ2 contra la hipótesis alternativa H1 : µ1 = µ2 .1 Si n = 40. 00 ⇒ se rechaza H0 . . ¯ ¯ ¯ ¯ Usaremos el siguiente resultado: Si A(mxn) y B(nxm). x2n2 } i.n−p se deduce ∼ Fp.n−p . S = 93. La región de rechazo tiene la forma: Como T p2 (n − 1) = que el estadístico n−p t −1 ¯ ¯ p (x − µo ) S (x − µo ) n−p (n−a)p Fp. Γ) con Γ invertible. 244 0.38 > 44. 244 1. 27) ≈ 0. 069 6. Test para dos poblaciones Sea una variable X observada en dos poblaciones P1 y P2 y dos muestras independientes. 45 y 4. una muestra multivariada {x11 . entonces: |In + BA| = |I1 + AB| = 1 + AB. luego ln|So | = ln|S + (x − µo )(x − µo )t |. 428 ¯ yX= 6.i. en P1 con x1i ∼ Np (µ1 . 27 ⇒ IP(F2. entonces |Im + AB| = |In + BA| y si m = 1. 288 1. BA es una matriz de orden pero AB es un escalar. . . p = 2.i. 46 . x22 . en P2 con X2i ∼ Np (µ2 . . . 255 50 6 T2 = n− p 2 T = 44. Observan que se supone que las dos poblaciones tienen la misma matriz de varianza. . .

Ejercicio: Muestre que este test F equivale al test de razón de verosimilitudes. (n1 + n2 − 2)p p y La región crítica de nivel de significación α es entonces dada por IP(Fp. Cuando se tienen dos poblaciones. entonces S = ¯ ¯ ¯ ¯ i=1 i=1 mador insesgado de la matriz de varianza Γ común a las dos poblaciones. En la figura 2. un grupo con n1 personas y el otro con n2 personas.1 se presenta un ejemplo de las medias en cada instante para cada uno de los grupos. Análisis de perfiles Hay situaciones en las cuales el vector normal no corresponde a diferentes variables sino a una misma variable repetida. ¯ ¯ Como x1 y A1 son independientes y x2 y A2 son independientes. queremos contestar a tres preguntas: ¿Los grupos se comportan de manera similares durante todo el proceso? O sea ¿Las curvas son paralelas? ¿Los grupos tienen un nivel parecido? O sea ¿Las curvas son del mismo nivel? 47 . En cada uno de los grupos se aplica a un tratamiento distinto y se mide el resultado del tratamiento con un examen en p diferentes instantes. 2. se quiere comparar las medias transversal y longitudinalmente. y las dos muestras son independientes. ¯ ¯ x1 = ¯ 1 1 x1i y x2 = ∑ x2i ¯ n1 ∑ n2 A1 + A2 es un estin1 + n2 − 2 Sean A1 = ∑n (x1i − x1 )(x1i − x1 )t y A2 = ∑n (x2i − x2 )(x2i − x2 )t .n1 +n2 −p−1 . x1 − x2 y S son independientes.n1 +n2 −p−1 > c) = α.6. En abscisa tenemos los instantes o repeticiones y en la ordenada el valor de la media en este instante. Por ejemplo se tiene dos grupos de personas. Γ) y luego x1 − x2 ∼ Np µ1 − µ2 . n1 n2 n1 n2 2 (x1 − x2 )t S−1 (x1 − x2 ) ∼ Tp (n1 + n2 − 2) ¯ ¯ ¯ ¯ n1 + n2 n1 + n2 − p − 1 2 T (n1 + n2 − 2) ∼ Fp.Sean x1 y x2 los dos vectores de medias muestrales. ¯ ¯ n1 + n2 Γ . El seguimiento de cada grupo constituye un perfil. Lo importante a observar aquí es que longitudinalmente las observaciones no son independientes ya que son medidas sobre el mismo individuo u objeto. Más alla que estudiar la igualdad de las curvas (o los perfiles). por ejemplo en el tiempo o el espacio. Por otro lado se tiene que: ¯ ¯ (n1 + n2 − 2)S ∼ Wp (n1 + n2 − 2.

µ1p   µ21 µ22 . µ1(p−1) − µ1p = µ2(p−1) − µ2p H0 : . µ2 =      en donde µ ji es la media del grupo j en la repetición o en el instante i. .1: Perfiles para dos grupos 2. . . Para saber si los perfiles son idénticos se hace el test de hipótesis H0 : µ1 = µ2 .1. Caso de dos perfiles Sean µ1 el vector de medias en la población P1 y µ2 en P2 .¿No hay cambio en el tiempo? O sea ¿La curva promedio es horizontal? Trataremos en primer lugar el caso de dos grupos y generalizaremos después. .6. . Figura 2. µ2p            . . que vimos en el párrafo anterior.    µ1 =    µ11 µ12 . Pero la primera pregunta sobre el paralelismo de los perfiles se traduce por la hipótesis nula: H0 : µ11 − µ21 = µ12 − µ22 = · · · = µ1p − µ2p Lo que equivale a:            Esta hipótesis se escribe matricialmente H0 : C(µ1 − µ2) = 0 48 µ11 − µ12 = µ21 − µ22 µ12 − µ13 = µ22 − µ23 .

. en la figura 2. . 0 0 −1 1 . 97    5.  . 53 7. 1232 0. ¯ ¯ luego y n1 + n2 CΓCt n1 n2 n1 n2 2 (x1 − x2 )t Ct (CSCt )−1C(x1 − x2 ) ∼ Tp−1 (n1 + n2 − 2) ¯ ¯ ¯ ¯ n1 + n2 n1 + n2 − p T 2 (n1 + n2 − 2) ∼ Fp−1. 17  . Γ) y X1 − X2 ∼ µ1 − µ2 . . 0 0 0 . 38 2. 75   11.. 57 2. 75 . .2 n1 = 37 y n2 = 12  12.n2 +n2 −p (n1 + n2 − 2)(p − 1) p−1 Ejemplo 2. 80 Se muestra los dos perfiles. que son casi-paralelos. 1  0   0 . 38 3. . 57   x1 =  ¯  11. 0686  0. 0644 0. 92  . 42    ¯ CX1 =  −1. 25 9. . . ... 75   9. 1705 0. 3. 3. 0  −1 . 11. 0644    (CSCt )−1 =  0. 0686 0. 38  2. 40 S=  7.CΓCt ) C(x1 − x2 ) ∼ Np−1 C(µ1 − µ2 ).donde      C=    1 −1 0 0 .   1 −1 0 0   La hipótesis nula es: H0 : C(µ1 − µ2 ) = 0 con C =  0 1 −1 0  0 0 1 −1  0. 1232 0. .. 40 13.. 55 7.  . 50    4. n1 + n2 − 2 n1 + n2 ¯ ¯ (n1 + n2 − 2)S ∼ Wp (n1 + n2 − 2. . 15  3.  . . 49    7.. 52 49   ¯ CX2 =  −3. .2.  −1 A1 + A2 es el estimador insesgado de la matriz de varianza Γ común a las dos poblaciones.. . 57   8. 15 7. 33   x2 =  ¯  8. 62 5. 55  . entonces n1 n2 se tiene Si S = (n1 + n2 − 2)CSCt ∼ Wp−1 (n1 + n2 − 2. 0 1 0 . . 62   2. Γ y estos son independientes. . 113  3   3. 2585 0. 38     9.

Figura 2. pero podrían ser del mismo nivel. 46 = 0. y2 = 27. 70 ⇒ no se rechaza H0 : µ11 − µ21 = µ12 − µ22 = µ13 − µ23 = µ14 − µ24 Concluyamos al paralelismo de los dos perfiles. 46 y 45 1. k=1 p p k=1 t= 1 1 + n1 n2 y1 − y2 ¯ ¯ ¯ ∑(y1 j − y1 ) j 2 + ∑(y2 j − y2 ) ¯ j 2 ∼ tn1 +n2 −2 . 33 y ¯ ¯ t= j j n1 + n2 − 2 41. n1 + n2 − 2 ¯ ¯ ∑(y1 j − y1 )2 + ∑(y2 j − y2 )2 En el ejemplo y1 = 41.2: Perfiles de los grupos Se obtiene T 2 = 1. Sea y1 j = ¯ ¯ ∑ x1 jk e y2 j = ∑ x2 jk y las medias y1 e y2 . 33 1 1 + 107. Se usa entonces un test t-Student.45 > 0. 47) = 0. 00 ⇒ se rechaza que los dos perfiles son del mismo nivel. Puede ser que los dos perfiles no sean paralelos. 15. IP(|t45 | > 4. 15) ≈ 0. 50 . 60. 13 y = 4. 47 ∗ 3 El p-valor es igual a: IP(F3. 13 37 12 = 107. 60 − 27. 47. Es la segunda pregunta que se traduce en la hipótesis nula: t t 1 p µ1 = 1 p µ2 Tenemos aquí que comparar las medias univariada de dos poblaciones.

76  7. 07) ≈ 0.6. (n1 + n2 − 2)(p − 1) p−1   11. habría que responder a la pregunta separando los dos grupos. P2 . Se tiene: ¯ ¯ ¯ 1 + n2 1 2 √ n1 + n2Cx ∼ Np−1 ((n1 + n2 )Cµ. . . o sea si la curva promedio de los dos grupos reunidos es horizontal. 01 ⇒ IP(F3. q) .n1 +n2 −p . . 00. x =  ¯   10. . 63    8. . . 07 ⇒ F = 53. Se rechaza que En el ejemplo.45 > 166. 18 las medias son iguales longitudinalmente.CΓCt ) Entonces el estadístico del test es: 2 (n1 + n2 )xt Ct (CSCt )−1Cx ∼ Tp−1 (n1 + n2 − 2) ¯ ¯ n1 + n2 − p T 2 (n1 + n2 − 2) ∼ Fp−1. . construir el test para los dos grupos separados. .1 = µ12 − µ22 = · · · = µ1p − µ2p 51 ( j = 2. y 2. en ejercicio. Tomamos nueva  µ jp mente las tres preguntas que se hicieron en el caso de dos perfiles. Para saber si los perfiles son paralelos se plantea la hipótesis nula: H0 : µ11 − µ j.CΓCt ) ¯ ¯ (n1 + n2 − 2)CSCt ∼ Wp−1 (n1 + n2 − 2. Caso de varios perfiles    Sean q poblaciones P1 . Se deja.     el vector de medias en la población Pj . En este caso la hipótesis nula se escribe: H0 : µ11 + µ21 = µ12 + µ22 = · · · = µ1p + µ2p Utilizando la misma matriz C de la pregunta 1: H0 : C(µ1 + µ2 ) = 0 x ¯ ¯ Γ Sea x = n1n1 + n2 x2 el perfil promedio observado.Para la tercera pregunta. n + n . 53    y T 2 = 166. Pq y µ j =    µ j1 µ j2 .2. Si se concluyo que los perfiles son paralelos podemos ver si las medias sobre los dos grupos difieren longitudinalmente. . si se detecto que los perfiles no son paralelos. x ∼ Np µ. 3.

. 0 1 0 . . .   . . . se tiene (n − q)CT t SC ∼ q ˆ ˆ Sea H = (Bt MC)t (Bt (D)−1 B)−1 (Bt MC).. y son independientes entre si.. . . µ1(p−1) − µ1p = µ j(p−1) − µ j p . . . 0 0 1 . .  −1 (q−1)×q 0  1 −1 0 0 . Γ) y X j ∼ Np µ j .. .. 0 0 −1 1 . ¯ ¯ ¯ Con el supuesto de normalidad con igualdad de matriz varianza-covarianza Γ. . .. 0 −1 .. . . . 2.  . xq ]. 1  0   0  . 0 0 −1 1 .  0   0   . . . . . . ¯ Como (n − q)S ∼ Wp (n − q. H0 : −1 .  −1 (p−1)×p Sea x j el vector de medias muestrales obtenido en una muestra de tamaño n j en la población Pj ( j = ¯ ˆ 1. .. .. . . . .. . ..  .  .Lo que equivale a:            Esta hipótesis se escribe matricialmente H0 : Bt MC = 0 en donde Mt = [ µ1 µ2 . . q) y Mt = [ x1 x2 . 0 0 0 .CT ΓC) y bajo H0 2 Traza(HS−1 ) ∼ Tp−1 (n − q) 52 ..      Bt =          CT =     1 −1 0 0 . µq ] 0  (Ct Mt B = 0) µ11 − µ12 = µ j1 − µ j2 µ12 − µ13 = µ j2 − µ j3 . . . Γ n Wp−1 (n − q. se obtiene un estimador insesgado de Γ con S= en donde A j = ∑(x ji − x j )(x ji − x j )t y n = ¯ ¯ i j=1 ∑ Aj n−q q j=1 ∑ n j. . ... ... 0 1 0 . . . . ..

61 −20. 0000 3. x2 . 31 . 3. Como IP(F2. 48 Finalmente T 2 = 11. Pero no impide eventualmente que dos de ellos estén paralelos como se observa en la figura 4. Es la segunda pregunta que se traduce en la hipótesis nula: H0 : j=1 ∑ µ1 j = p j=1 ∑ µ2 j = · · · = 53 p j=1 ∑ µq j p . x3 ) para cada observación (tabla 2. 48 24. 6176 y H= 24. n4 = 4 y 3 repeticiones (x1 .o sea n− p−q+2 2 T (n − q) ∼ Fp−1. 2  ¯ 14. 015. 0000 −2.3 Se tiene 4 grupos de efectivos: n1 = 8.n−p−q+2 . 00  ¯ 19. Figura 2. 48) = 0. 2   x3 =  14  ¯ 15   x4 =  9  .16 > 5. ¯ 11 Se muestran los cuatro perfiles promedios en la figura 2. 00   13.3. 75   x2 =  15.1). se rechaza que los cuatro perfiles son paralelos. n2 = 5. 0118 −2. 65 y F = 5. 48. (n − q)(p − 1) p−1 Ejemplo 2.3: Perfiles promedios La hipótesis nula para el paralelismo de los 4 perfiles es: H0 : Bt MC = 0 con  1 −1 1 0 0 Ct SC = 0 −1 1 0  Ct = 1 −1 0 1 0 −1 y  xt1 ¯   Bt =  0  0  −1 ˆ  ¯  M =  xt2  xt3 ¯ −20.3. Los 4 perfiles pueden ser no paralelos pero pueden ser del mismo nivel. 8   13   10    x1 =  20.  18. n3 = 4.

75 12 17 15 14 13 14. . p j = 1.2 14 14 15 13 14 9 10 10 7 9 15.00 Cuadro 2. . . Tenemos aquí que comparar las medias univariadas de q poblaciones. . .62 Total variables x3 18 19 22 21 20 19 20 19 19. 2. .75 38 47 47 41 43 43.Grupo x1 19 20 19 18 16 17 20 15 18 12 15 15 13 14 13.86 57 60 63 58 54 58 59 53 57. .52 1 Media grupo 1 2 Media grupo 2 3 Media grupo 3 4 Media grupo 4 Media total Variables x2 20 21 22 19 18 22 19 19 20 14 15 17 14 16 15. q q nj nj Se puede mostrar que H = j=1 ¯ ¯ ∑ n j (y j − y)2 representa la varianza inter-grupo y E = I1T SI1 p = p 54 j=1 i=1 ∑ ∑ n j (y ji − .8 15 13 12 12 13 8 10 11 11 10 14. . n j .20 46 42 42 38 42. que son unidimensionales.2 17 15 15 13 15 10 12 10 12 11 15. y2 . .1: Perfiles de las observaciones Lo que se escribe matricialmente: H0 : Bt M1 p = 0. . .00 27 32 31 30 30.00 46. q y las medias por grupo y1 . . yq y la media total y = ¯ ¯ ¯ ¯ ¯ ∑ n y j . Sea y ji = q j k=1 ∑ xi jk i = 1. 2.

17 > 70. ¯ ¯ ¯ ¯ ¯ H = 2231. 93) ≈ 0 indica que se rechaza claramente la hipótesis que los 4 perfiles son del mismo nivel. 00. Se construye un estadístico de Hotelling para el test a partir de ¯ ∑ n jx j q x= ¯ j=1 q j=1 ∑ nj √ t nC µ. 30 ⇒ H/(q − 1) = 70. . y4 = 30. 00.y j )2 representa la varianza intra-grupo. . o sea ver si las medias de grupos difieren longitudinalmente o si la curva promedio es horizontal.n−q−p+2 (n − q)(p − 1) p−1 55 . y3 = 42. Para resolver la tercera pregunta. 2. . 20. 93 E/(n − q) El p-valor que es igual a IP(F3. y2 = 43. ¯ H/(q − 1) ∼ Fq−1. 75. .n−q E/(n − q) En el ejemplo anterior y1 = 57. consideremos la hipótesis nula: H0 : Ct 1 q q i=1 ∑ µ•i p =0 en donde µ•i = j=1 ∑ µ ji (i = 1. 7. E = 178.Ct ΓC ¯ el perfil promedio observado: √ nCt x ∼ Np−1 ¯ (n − q)Ct SC ∼ Wp−1 (n − q. p) es el perfil promedio. 00 e y = 46.Ct ΓC) Luego 2 nxt C(Ct SC)−1Ct x ∼ Tp−1 (n − q) ¯ ¯ y n−q− p+2 2 T (n − q) ∼ Fp−1.

91 ⇒ F = 7. 52  CT x = ¯ −1. 86 Se rechaza entonces que las repeticiones son iguales. 96) = 0.16 > 7. 96 ⇒ IP(F2. 62  ¯ 15.0238 ⇒ T 2 = 16. 56 . 004   x  15.Para nuestro ejemplo:  14. 095 −0.

Sign up to vote on this title
UsefulNot useful