Professional Documents
Culture Documents
DE ESTATISTICA
COORDENAC
AO
Modelos Lineares
(Notas de Curso)
o Gil de
Texto elaborado pelos professores Dr. Joa
Luna e Dra. Divanilda Maia Esteves, utilizado
na disciplina: Modelos Lineares do curso de Bacharelado em Estatstica da UEPB, para o perodo 2009.1.
CAMPINA GRANDE
Estado da Paraba - Brasil
2009
SUMARIO
1 T
opicos de matrizes
1.1 Definicoes . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Tipos de matrizes . . . . . . . . . . . . . . . . . . . . .
1.3 Operacoes basicas com matrizes . . . . . . . . . . . . .
1.4 Particao de matrizes . . . . . . . . . . . . . . . . . . .
1.5 Formas escalonadas . . . . . . . . . . . . . . . . . . . .
1.6 Formas escalonadas canonicas . . . . . . . . . . . . . .
1.7 Posto ou rank de uma matriz . . . . . . . . . . . . . .
1.8 Inversa de matrizes nao singulares . . . . . . . . . . .
1.9 Diagonalizacao de matrizes reais . . . . . . . . . . . .
1.10 Autovalores e autovetores . . . . . . . . . . . . . . . .
1.11 Vetores ortogonais . . . . . . . . . . . . . . . . . . . .
1.12 Fatoracao de matrizes . . . . . . . . . . . . . . . . . .
1.13 Decomposicao de matrizes . . . . . . . . . . . . . . . .
1.13.1 A decomposicao espectral . . . . . . . . . . . .
1.13.2 A decomposicao em valores singulares . . . . .
1.14 Lista de exerccio # 1 . . . . . . . . . . . . . . . . . .
1.15 Inversas generalizadas de matrizes reais . . . . . . . .
1.15.1 A Inversa generalizada de Moore-Penrose, A+
1.15.2 Inversa generalizada condicional . . . . . . . .
1.15.3 Inversa generalizada de mnimos quadrados . .
1.16 Lista de exerccios # 2 . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
2
4
8
9
9
10
12
13
15
17
19
25
26
27
29
34
34
39
41
43
2 Solu
co
es de Equa
co
es Lineares
47
2.1 Introducao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.2 Consistencia e Solucao . . . . . . . . . . . . . . . . . . . . . . . . 47
2.3 Solucao Aproximada . . . . . . . . . . . . . . . . . . . . . . . . . 54
3
3 Formas Quadr
aticas
3.1 Conceito . . . . . . . . . . . . . . . . . .
3.2 Casos de Interesse Para Estatstica . . .
3.3 Classificacao de Formas Quadraticas . .
3.4 Derivadas de Formas Quadraticas . . . .
3.5 Valor Esperado e Matriz de Dispersao .
3.6 Distribuicao e Independencia de Formas
Quadraticas Sob Normalidade . . . . . .
57
57
.
.
.
.
.
63
63
64
64
68
70
. . . . . . . . . . . . . .
73
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4 Introdu
c
ao aos Modelos Lineares
4.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . .
4.2 Localizacao do Problema Fundamental . . . . . . . . .
4.3 O Modelo Linear . . . . . . . . . . . . . . . . . . . . .
4.3.1 Defincao e Exemplos . . . . . . . . . . . . . . .
4.3.2 O Modelo Linear de Gauss-Markov (G.M.) . .
4.3.3 O Sistema de Equacoes Normais (S.E.N.) . . .
4.4 Estimacao em Modelos Lineares . . . . . . . . . . . . .
4.5 Regras Praticas de Estimabilidade . . . . . . . . . . .
4.5.1 Funcoes Basicas Estimaveis . . . . . . . . . . .
4.5.2 Combinacoes Lineares de Funcoes Estimaveis .
4.5.3 Usando as Equacoes Normais . . . . . . . . . .
4.5.4 Um Teste Alternativo . . . . . . . . . . . . . .
4.5.5 Equacoes Normais Reduzidas e Estimacao
de Subconjuntos de Parametros . . . . . . . . .
4.6 A Analise de Variancia . . . . . . . . . . . . . . . . . .
4.6.1 Soma de Quadrados da Hipotese Ho : B 0 =
4.7 Estimacao por Intervalo . . . . . . . . . . . . . . . . .
4.8 Hipoteses Equivalentes . . . . . . . . . . . . . . . . . .
4.9 Estimacao Por Regiao . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
81
81
81
82
82
85
89
91
100
100
101
103
105
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
105
108
116
121
123
125
Captulo 1
T
opicos de matrizes
Neste primeiro captulo procuraremos intruzir alguns conceitos de matrizes
e para facilitar a aprendizagem procuraremos exemplificar o maximo possvel.
1.1
Defini
co
es
Defini
c
ao 1.1.1 (Matriz) e, em geral, um arranjo retangular de elementos
em linhas e colunas.
Neste curso, uma matriz sera denotada por letras mai
usculas em negrito e
sera constituda de elementos pertencentes ao conjunto dos n
umeros reais.
Exemplo 1.1.1 S
ao exemplos de matrizes:
A=
2
0
3
2
1
3
B=
1
3
2
5
1
C= 1
1
1
1 .
0
o par ordenado de n
Defini
c
ao 1.1.2 (Dimens
ao) E
umeros naturais que descreve o n
umero de linhas e o n
umero de colunas de uma matriz.
Denotaremos as dimensoes das matrizes A, B e C, citadas anteriormente,
por:
ou A(23) a matriz A tem duas linhas e tres colunas;
B (22) ou B (2) a matriz B tem duas linhas e duas colunas;
es linhas e duas colunas.
3 C 2 , ou C (32) a matriz C tem tr
2 A3
2B2,
..
.
..
m An =
..
..
.
.
.
am1 am2 amn
ou simplesmente
linhas e n colunas e
A = (aij ),
onde i = 1, 2, , m e o ndice de linhas e j = 1, 2, , n e o ndice de
colunas.
1.2
Tipos de matrizes
Defini
c
ao 1.2.1 (Matriz quadrada) Se
matriz quadrada e e denotada por:
m An
m An
tem m = n, ent
ao m An e uma
= A(n) .
B (n) = .
C
=
.
.
.
.
.. .
(n)
.. . . .
..
..
.. . . .
..
.
0
0 bnn
cn1 cn2 cnn
Aqui, B (n) e triangular superior e C (n) e triangular inferior.
Defini
c
ao 1.2.3 (Matriz diagonal) A matriz D (n) = (dij ) e uma matriz
diagonal se, e somente se, dij = 0, para todo i 6= j.
Isto e,
D (n) =
d11
0
0 d22
.. . .
..
.
.
.
0
0
0
0
..
.
dnn
I (n) =
1 0
0 1
.. ..
. .
0 0
..
.
0
0
..
.
= diag{1, 1, , 1}.
5
A= 2
3
2
9
1
3
1 .
4
m An
= (aij ), sua
A0 = At = (aji ).
Exemplo 1.2.3 Seja A uma matriz, tal que
2 A3
2
5
3
1
1
2
. Entao, a transposta de A e: 3 A0 2
Defini
c
ao 1.2.7 (Matriz nula) Se
A e uma matriz nula.
m An
2 5
= 3 1 .
1 2
m An
caracteriDefini
c
ao 1.2.9 (Matriz com todos elementos iguais a um) E
zada por:
eij = 1, (i, j).
m E n = (eij ), onde,
Neste curso, tal matriz sera denotada por E.
Defini
c
ao 1.2.10 (Matriz bloco diagonal:) Tem
seguinte exemplo,
a b 0 0 0 0 0
c d 0 0 0 0 0
0 0 e f g 0 0
A=
0 0 a b g 0 0
0 0 w x z 0 0
0 0 0 0 0 c d
0 0 0 0 0 x z
Defini
c
ao 1.2.11 (Vetor) Se uma matriz m An e tal que m = 1 ou n = 1,
ent
ao
e um vetor coluna
m A1
e
1 An
e um vetor linha.
Aqui, sempre que mensionarmos o termo vetor estaremos nos referindo a vetor
na forma de coluna e sera denotado por letras min
usculas em negrito. Em
estatstica e comum utilizarmos
y1
y2
y =m y 1 = . ; y 0 = 1 y 0m = y1 y2 ym .
..
ym
Obs.: O vetor nulo sera denotado por .
1.3
Operaco
es b
asicas com matrizes
Defini
c
ao 1.3.1 (Adi
c
ao) Dadas as matrizes m An = (aij ) e m B n = (bij ),
define-se a soma entre elas como a matriz m C n =m An + m B n = (cij ), tal que
cij = aij + bij , (i, j).
Exemplo 1.3.1 Sejam as matrizes:
A=
2
1
1
a
0
3
Entao,
C =A+B =
B=
r+2
1
r 1
0 2
0
a2
1
6
1
3
Algumas propriedades:
Sejam m An = (aij ), m B n = (bij ) e m C n = (cij ) matrizes reais. Em relacao
a adicao temos as seguintes propriedades:
P.1) Comutativa:
m An
+ m B n = m B n + m An ;
P.2) Associativa:
m An
+ m B n + m C n = (m B n + m An ) + m C n = m An + (m B n + m C n );
m n
e qualquer, entao,
m An
A + = + A = A;
Defini
c
ao 1.3.2 (Subtra
c
ao) Dadas as matrizes
(bij ), definimos:
= (aij ) e
m An
1)
m C n = m An
2)
m D n =m B n
mBn
2
A= 1
3
a
10
0 ; B = 20
1
30
40
50 .
60
8
8 a 40
C = A B = 19 50 e D = B A = 19
33
33 59
40 a
50 .
59
Defini
c
ao 1.3.3 (Multiplica
c
ao por escalar) Sejam um escalar e m An
uma matriz, define-se o produto escalar A = A, como a matriz m B n = (bij ),
onde bij = aij = aij , (i, j).
Exemplo 1.3.3 Consideremos o escalar e a matriz A, dados a seguir:
=3
A=
1
3
2
a
2
a
.3 =
3
9
6
3a
Defini
c
ao 1.3.4 (Multiplica
c
ao entre matrizes) Dadas as matrizes reais
m An = (aij ) e n B p = (bjk ), define-se o produto R = AB como a matriz
Pn
m Rp = (rik ), onde rik =
j=1 aij bjk .
Exemplo 1.3.4 Sejam as matrizes A e B, dadas por:
Entao,
a11
a
A
=
21
3 2
a31
a12
b11
a22 e 2 B 4 =
b21
a32
r11
r21
A
B
=
R
=
3 22 4
3 4
r31
onde,
r12
r22
r32
b12
b22
r13
r23
r33
b13
b23
b14
b24
r14
r24 ,
r34
L1 C 1 L1 C 2 L1 C 3 L1 C 4
= L2 C 1 L2 C 2 L2 C 3 L2 C 4
3 A2 2 B 4 = 3 R 4
L3 C 1 L3 C 2 L3 C 3 L3 C 4
A=
2
1
1
2
0
3
1
; B= 1
1
1
1
2
. Entao, AB =
0
3
0
4
Defini
c
ao 1.3.5 (Soma direta) Dadas as matrizes m An e r B s , definimos
sua soma direta como
A
AB =
= m+r C n+s
B
A=
Entao,
eB=
1
AB = 0
0
2
0
0
3
0
0
0
6
4
6
4
7
1
0
7
1
Defini
c
ao 1.3.6 (Produto direto) Dadas as matrizes m An e r B s , define-se
o produto direto ou produto de Kronecker de A por B como a matriz mr C ns ,
tal que
C =AB =
..
..
..
..
.
.
.
.
am1 B
am2 B
amn B
A=
1
0
0
1
, B=
x y
y x
Entao teremos:
x
y
AB =
0
0
y 0
x 0
0 x
0 y
1
2
3
Av =
0
0
0
1
e v = 2 .
3
0
e BA=
y
x
0
e vA=
2
3
x
0
y
0
0
x
0
y
1
0
2
0
3
0
0
1
0
2
0
3
y 0
0 y
,
x 0
0 x
Defini
c
ao 1.3.7 (Pot
encia de matrizes) Dada a matriz quadrada A(n) e
um n
umero inteiro e positivo k, define-se a k-esima potencia de A por:
Ak = AAA
{z A}
|
k vezes
A3
7 10
,
Entao, A2 = AA =
15 22
37
54
A2 A =
e, assim por diante.
81 118
1
3
2
4
Defini
c
ao 1.3.8 Dada a matriz quadrada A(n) , ent
ao, em relaca
o a sua
potencia, ela ser
a:
1. Idempotente, se A2 = A;
2. Nilpotente, se A2 = ;
3. Unipotente, se A2 = I.
Exemplo 1.3.9 As matriz A, B e C dadas a seguir, s
ao:
2 1
1
1
2
A=
3
1 1
1
1 e idempotente,
2
1
3
7
6 14 e nilpotente,
B= 2
1 3 7
1 0
2
3
0 1
4
5
e unipotente.
C=
0 0 1
0
0 0
0 1
1.4
Partic
ao de matrizes
Dada a matriz
Por exemplo:
m An ,
X=
1
1
1
1
1
1
1
1
1
0
0
0
0
0
0
1
1
1
1
0
0
1
0
0
0
1
0
0
1
0
0
0
1
0
0
1
X=
X1
X2
X3
X 01
X 0 X = X 02
X 03
Isto e,
X1
X2
0
XX=
1.5
=
X3
6
3
3
2
2
2
3
3
0
1
1
1
1
1
1
0
0
0
1
1
1
1
1
1
0
0
0
1
1
1
1
0
0
1
0
0
X 01 X 1
= X 02 X 1
X 03 X 1
3
0
3
1
1
1
2
1
1
2
0
0
2
1
1
0
2
0
2
1
1
0
0
2
0
1
0
0
1
0
0
0
1
0
0
1
X 01 X 3
X 02 X 3 .
X 03 X 3
X 01 X 2
X 02 X 2
X 03 X 2
Formas escalonadas
1
A= 0
0
1.6
0
1
0
0
1
0 , B =
0
1
0
1
0
1
x
x
1
, C= 0
0
0
1
0
x
x .
0
A matriz m An esta na forma escalonada canonica se estiver na forma escalonada com todas as linhas nulas abaixo das linhas nao nulas.
10
A(3)
1
= 0
0
0
1
0
4
Exemplo 1.6.2 Dada a matriz A = 2
2
escalonada can
onica do seguinte modo:
4
2
2
4
0
0
2
4
2
0 4 4
2
4
0
2 2
4
0
2 2 0 2
0 0
0
0
1
1 .
0
2
2
0
2
0 , podemos obter a sua forma
2
2
4
2
2
0 0 2
2
4
0
2 2
4
1 0
1
2 0 1 1 = H.
0
0 0
0
2
2
0
Defini
c
ao 1.6.1 (Forma de Hermite - H) Uma matriz A(n) est
a na forma
de Hermite, se estiver na forma escalonada can
onica e os lderes ocupam a
diagonal principal.
Exemplo 1.6.3 A matriz A(3) a seguir, est
a na forma de Hermite.
A(3)
1.7
1
= 0
0
0
1
0
1
1 .
0
Defini
c
ao 1.7.1 (Posto de uma matriz) Dada uma matriz m An , definimos
o posto de A , denotamos por r(A), o n
umero de linhas n
ao nulas de sua forma
escalonada can
onica.
Exemplo 1.7.1 Dada a matriz
4
A= 2
2
2
2
0
2
0 .
2
11
Assim, teremos
I =
4 2
2 2
2 0
H
Segue que:
2
0
0
1
0
1
2
21
12
1
0
1 1
LA
1
2
12
1
2
1
0
2
1 1 1
1 0
1
0 1 1 = H;
0 0
0
2
2
0
3. ALA = A, ou seja
ALA
=
Segue, ainda, que
4
2
2
2
2
0
2
2
0
1
2
0
2
2
1
2
0 = A.
2
12
1
0
2
2
1 1
2
2
0
12
5. Se
6. Se
7. Se
m An ,
tem r(A) = n,
exemplo:
1
1
X=
1
1
m An ,
entao
m An
3
5
0
1
= r(X) = 2;
0
0
1
0
0
0
m An
plo:
1
1
X=
1
1
1.8
1
1
1
1
0
0
1
0
0
0
1
1
= r(X) = 2.
0
0
0
1
0
0
Inversa de matrizes n
ao singulares
A(3)
1
= 2
1
=
2
1 1
2 1 0 0 1
1 1 1 0 0
I (3) A1
.
(3)
2
1
1
1
0 , entao,
1
0
0
1
0
21
1
2
21
12
1
2
1
=
3
2
1.9
21
1
2
12
21
13
1
2
1
e a matriz inversa de A.
3
2
Diagonaliza
c
ao de matrizes reais
1
A= 2
1
Entao,
A
1
1
1
1
0
0
0
1
0
1
1 .
1
1
0
1
2
1
1
1
1
1
1
2
0
0
1
0
1
0
0
0
1
1
1
1
0
1
2
1
0
1
0
1
0
0
0
1
0
0
1
1
1
2
1
0
1
1
1
2
1
2
3
1
1
0
1
0
1
1
1
1
1
1
2
0
0
1
0
0
0
1
1
0
0
0
1
1
0
1
0
1
2
1
0
1
0
0
0
1
1
0
0
0
1
0
0
0
1
0
1
1
0
0
1
1
2
1
0
0
1
2
3
1
0
0
1
!
0
0
1
!
0
0
1
14
Consequentemente,
D = CAC
1
0 0
1
2
1 0 2
1 1 1
1
1
0 0
0 1 0
0
0 1
2
3
1
1
1
1 0
1
0
1
1
1
2
1
0
Defini
c
ao 1.9.1 Dada a matriz A(n) real e simetrica e sua forma diagonal
obtida pelo Teorema 1, ent
ao:
1. A(n) e uma matriz Positiva Definida se, e somente se, di > 0, i (di , i =
1, 2, , n, elementos de D);
2. A(n) e Negativa Definida se, e somente se, di < 0, i;
3. A(n) e Semi Positiva Definida se, e somente se, di 0, i;
4. A(n) e Semi Negativa Definida se, e somente se, di 0, i;
5. A(n) e N
ao Definida se, e somente se, di muda de sinal.
Observa
c
ao: Em estatstica temos particular interesse nas matrizes Definidas
Positivas e Semi Definidas Positivas.
Exemplo 1.9.2 Dada a matriz
2
= 1
1
Entao,
I =
2 1
1 2
1 1
=
2
e Definida Positiva.
1
2
1
1
1 .
2
0
0
1
0
3
2
1
2
4
3
13
31
15
Teorema 1.9.2 Dada a matriz A(n) real, simetrica e definida positiva, ent
ao
0
1 1/2
existe uma matriz R(n) , tal que A = RR . Neste caso, R = C D . Isto e,
D = CAC 0
C 1 DC 01 = C 1 CAC 0 C 01
1/2 01
1 1/2
C
D }D
| {zC } = A
| {z
R
R0
2
= 1
1
D=
0
C 1 =
4
3
0
0
1
2
1
2
1
3
Portanto,
R = C 1 D 1/2
1.10
1
1 . Entao,
2
0
,
3
2
1
2
1
2
2
2
2
1 0
C = 2
,
1
1
3 3 1
2
0
0
3
.
0
0
e D 1/2 =
2
q
4
0
0
3
0
3
2
3
2
0 = 2
2
2
3
2
2
6
2
6
6
0
.
2 3
3
Autovalores e autovetores
Defini
c
ao 1.10.1 (Autovalor) Dada uma matriz quadrada real A(n) , ent
ao a
equaca
o (A(n) I (n) ) = |A(n) I (n) | = 0 e definida como a equaca
o caracterstica de A. Suas raizes s
ao chamadas de raizes caractersticas, autovalores
ou valores pr
oprios de A.
Exemplo 1.10.1 Seja a matriz
16
A=
(A I (2) )
2
1
=
=
=
2
1
1
2
, entao
2
1
=
1
2
4 16 12
2
2
(2 ) 1 = 4 + 3 = =
2
1 = 3
sao os autovalores de A.
2 = 1
1
2
1
0
0
1
3 1 1
1
1
3
3
1 .
A = 1 3 1 e A I (3) = 1
1 1 3
1
1
3
Isto e,
A I (3) = 3 92 + 24 20 = 0.
Coef. do polin
omio
1 -9 24
-20
1 -7 10
0
1 -5 0
1 0
Portanto,
1 = 5,
2 = 2
3 = 2.
Defini
c
ao 1.10.2 (Autovetor) Os vetores x, tais que: (AI (n) )x = , s
ao
os autovetores de A.
Considerando o exemplo anterior, temos:
Para = 3,
2
1
1
2
x11
x12
x11 + x12 = 0
= x11 = x12
x11 x12 = 0
x11
0
=
0
x12
1
= x1 =
, .
1
1
1
1
1
17
Para = 1,
2
1
1
2
x21
x22
x21 + x22 = 0
= x21 = x22
x21 + x22 = 0
x21
x22
= x2 =
1
1
1
1
1
1
0
0
, .
Observa
c
ao: Note que vetores sao representados por letras min
usculas em
negrito enquanto que suas componentes sao representadas por letras min
usculas
normais. Por exemplo: xij e uma componente do vetor xi .
Defini
c
ao 1.10.3 (Norma) A norma de um vetor x e definida como:
sX
k x k= x0 x =
x2j .
j
2.
definido como:
Defini
c
ao 1.10.4 (Vetor Normalizado - u) E
u=
1
x.
kxk
1.11
Vetores ortogonais
Defini
c
ao 1.11.1 (Vetores ortogonais) Dois vetores x e y s
ao ortogonais
se, e somente se,
x0 y = y 0 x = 0.
Exemplo 1.11.1 Dados os vetores
1
x= 1
2
1
y = 1 .
0
Entao,
x0 y = y 0 x = 0.
18
2
1
1
2
1
u1 =
2
Entao,
P =
= P 0 AP
u1
u2
1
2
12
1
2
12
1
2
1
2
0
1
1
2
1
2
3
0
1
1
2
1
1
u2 =
2
.
1
2
1
1
Portanto,
1
2
1
2
1
2
12
Teorema 1.11.2 Dada a matriz quadrada real A(n) com raizes caractersticas
i (i = 1, 2, , n), ent
ao:
1. i 6= 0, i A e n
ao singular;
2. Se r(A) = k < n, ent
ao A tem k raizes caractersticas n
ao nulas e n k
raizes nulas;
3. Se A(n) e n
ao singular, ent
ao as raizes de A1 s
ao 1/i , (i = 1, 2, , n);
4. Existe sempre um vetor caracterstico xi associado a uma raiz caracterstica
i ;
Pn
5. T r(A) = i=1 i ;
Qn
6. (A) = i=1 i ;
7. Se A = B C, ent
ao (A) = (B ) (C ) , onde, (A) , (B ) e (C )
s
ao matrizes diagonais que exibem as raizes caractersticas de A, B e C,
respectivamente;
19
1.12
Fatorac
ao de matrizes
1 1/2
0
1/2 01
C 1 CAC 0 C 01 = C 1 DC 01 = C
D }D
| {z
| {zC } = RR = A.
R
R0
(1.1)
(1.2)
20
4
Exemplo 1.12.1 Seja A = 2
2
2
0 , encontre R, tal que A = RR0 .
2
2
2
0
2 1
2 0 0 1 0
0 1
0 2 0 0 1
2 0
1 0 0
0
2
1
1 1 2 1 0
1
2
0 0 1
1 0 0
0
0
1
1 1 2 1 0
1
1 21 0 1
1 0 0
0 0
1
1 0 2 1 0
= D
0 0 1 1 1
21
1 0
0 1
1
0
1
0
21
21
21
=
1
1
2 1 0 0 1
1 1 1 0 0
1 0 0 1
0
1
1
0 1 0 2
0 0 1 12 1
1 0
1 1
0
0 1 0 2 1 0
1
0 1 1 1 0 1
1
0
.
= I (3) C
21
Agora,
R = C 1 D 1/2
Observe que
2
RR0 = 1
1
4
Sendo A = 2
2
(A I) =
4 2
2 2
2 0
Portanto,
1
2
1
2
0
0
0
1
0 0
2
1 0 0
1 0
0
0
1
0
0
2
0 = 1
0
1
1
4
1 = 2
0
2
1
1
0
2
2
0
0 0
1 0 .
1 0
2
0 .
2
2
0 , entao
2
0 0
2
0
0 4
0 = 2
2
2
2
0
2
0
2
64 48
=
2
1 =
2 =
8+4
2
84
2
3 = 0.
=6
=2
Assim,
1 = 6,
Agora, teremos,
Para = 6,
4 2
2 2
2 0
2 = 2
6
2
0 0
0
2
0
6
0
0
x11
0
0 x12 = 0 .
0
6
x13
= 0.
22
Isto e,
2
2
2
2
4
0
ou
0
2
x11
2x11 + 2x12 + 2x13 = 0
2x11 4x12 = 0
0 x12 = 0 =
2x11 4x13 = 0
0
x13
4
2
x11 = 2x12
x11 = 2x13
= x1 = 1 .
Para = 2,
Isto e,
ou
2
2
2
4
2
2
2
0
0
Para = 0,
Isto e,
ou
4
2
2
2
2
0 0
2
0
0
2
0
0
x21
0
0 x22 = 0 .
x23
2
0
2
x21
0
2x21 + 2x22 + 2x23 = 0
0 x22 = 0 =
2x21 = 0
0
x23
2x21 = 0
0
0
x21 = 2x22 2x23
x21 = 0
= x2 = 1 .
x21 = 0
1
4
2
2
2
2
0
2
2
0
2
2
0
2
0
0 0
2
0
0
0
0
0
0
x21
0 x22 = 0 .
x23
0
0
0
2
x31
4x31 + 2x32 + 2x33 = 0
2x31 + 2x32 = 0
0 x32 = 0 =
x33
0
2x31 + 2x33 = 0
2
1
2x31 = x32 x33
x31 = x32
= x3 = 1 .
x31 = x33
1
0
1
1
1
x2 =
u2 =
k x2 k
2
1
1
1
1
x3 = 1
u3 =
k x3 k
3
1
P =
23
2
6
1
3
1
6
12
13
1
6
1
2
13
P 0 AP = .
Isto e,
2
6
1
6
1
6
12
1
2
1
3
13
13
2
0
6
= 0
0
2
2
0
2
0
1
0
6
3
R = 16 12 13 0
1
1
1
3
6
2
2
6
1
3
1
6
12
13
1
6
1
2
13
0
0 .
0
2
0 0
2 0 = 1
1
0 0
0
1
1
0
0 .
0
Observe que,
2
RR0 = 1
1
0
1
1
2
0
0 0
0
0
1
1
0
4
1
1 = 2
2
0
2
2
0
2
0 =A
2
= m B kk C n .
24
m An
i = 1, 2, , p, , m (e o ndice de linhas),
j = 1, 2, , q, , n (e o ndice de colunas).
(a) Escolher algum elemento apq 6= 0;
(b) Obter o produto u1 v 01 ,
a1q
a2q
..
1
.
u1 =
apq
apq
.
..
amq
onde
e v 01 =
ap1
ap2
apq
apn
(c) Fazer A1 = A u1 v 01 ;
(d) Se A1 = , o processo esta encerrado e
B = u1
C = v 01 ;
= u1 v 01 + u2 v 02 + + uk v 0k = m B kk C n ,
onde
B=
u1
u2
uk
4
Exemplo 1.12.2 Seja a matriz A = 2
2
Entao,
(a) a11 = 4;
2
2
0
C=
2
0 .
2
v 01
v 02
..
.
v 0k
25
1
4
(b) u1 = 41 2 = 1/2 ;
v 01
2
1/2
1
4
u1 v 01 = 1/2 4 2 2 = 2
1/2
2
(c) Obter A1 = A u1 v 01 .
4 2
A1 = 2 2
2 0
2
1 .
1
2
1
1
Ou seja,
2
4
0 2
2
2
, e
2
0
1 = 0
1
0
2
1
1
0
1
1
0
1 .
1
0
1
1
0
1 .
1
0
(b) u2 = 11 1 ;
1
v 02 =
0
(c) Obter A2 = u2 v 02 = 1
1
(d) Como A2 = A1 u2 v 02 = ,
1
0
1
1
B=
2
1
1
2
Observe que
A = BC =
1.13
1
1
2
1
2
1 ,
0
= 0
0
4
1
0
C=
2
1
2
1
4
0
2
1
2
1
4
= 2
2
2
2
0
2
0 .
2
Decomposic
ao de matrizes
Nas duas subsecoes a seguir, veremos dois casos muito importantes para a
estatstica.
26
1.13.1
A decomposic
ao espectral
onde
= diag{1 , , n }
e
0
U = [u1 un ].
4 2 2
Exemplo 1.13.1 Seja A = 2 2 0 .
2 0 2
1 = 6,
2
6
u1 =
1
6
1
6
, 2 = 2
12
u2 =
1
2
e a decomposicao espectral de A e
3
X
1
3
u3 = 13
13
i=1
e 3 = 0,
4
2
2
2
6
1
6
1
6
2
1
1
2
6
1
6
0
2
1 + 0
0
1
1
6
0
1
1
12
+ 2
0
1 .
1
1
2
12
1
2
27
=
=
=
.
2 0
U
2U
6
1
6
1
6
24
12
12
1
2
12
1
3
13
13
0 0
22 0
0 0
62
12 12
8
4 = AA.
4
8
2
6
0
1
3
1
6
1
2
13
1
6
12
13
Tambem,
1
A2
=
=
0
2
U
2 U
6
1
6
1
6
0
1
2
12
1
3
13
13
2
6
4
6
2
6
1
6
2
6
1
6
1
62
0 0
0 22 0
0
0 0
1
2
1
6
1
2
1
2
1
6
1
2
Observe que
4
A A = 2
2
1
2
1.13.2
1
2
2
2
0
2
6
0
1
3
1
6
1
2
13
1
6
12
13
2
0 = A.
2
A decomposic
ao em valores singulares
28
Pode ser mostrado que {2i } sao os autovalores nao nulos da matriz simetrica
AA0 e tambem da matriz A0 A. Os vetores {ui } sao os correspondentes autovetores normalizados de AA0 , e os vetores {v i } sao os correspondentes autovetores
normalizados de A0 A.
Exemplo 1.13.2 Seja a matriz
5 2 9
0 1 2
A=
2 1 4 .
4 3 2
0.901
0.098
0.169 0.195 11.619
0
0.436
A=
0.394
0.000
0 5.477
0.802
0.056 0.980
ou equivalente
0.393
0.074
A = 11.619
0.172
0.024
0.196
0.037
0.086
0.012
0.079
0.787
0.156
0.148
+ 5.477
0.000
0.344
0.786
0.049
0.218
0.535
0.052
0.104
0.000
0.524
0.873
0.267
0.026
0.052
.
0.000
0.262
1.14
29
Lista de exerccio # 1
1
2
2
4
B=
1
1/2
1
1
1
1 1
1
1
1
,
1 1
1
1 1 1
1
1
A=
1
1
1
2
3
5
B=
0
4
2
1
(c) (AB)0 = B 0 A0 ;
(d) A0 A e AA0 sao simetricas.
1.4 Sejam
1
A= 0
0
2
1
0
3
0 ;
5
3
B= 1
1
1
3
1
1
1
3
K = 2.
(c) (AB)1 = B 1 A1 , se A1 e B 1 ;
1
A1 .
(d) (AK)1 = (KA)1 = K
1.5 O traco de uma matriz quadrada A(n) e definido como sendo a soma dos
Pn
elementos da sua diagonal principal. Isto e, T r(A) = i=1 aii . Usando
as matrizes A e B do exerccio 1.4, verifique as seguintes propriedades:
(a) T r(A B) = T r(A) T r(B);
(c) T r(A1 BA)P= T r(B);
(e) T r(AA0 ) = i,j a2ij .
A
v0
u
a
1
B
q0
30
1
(b) B = A1 + A1 uv 0 A1 ;
(d) q 0 = v 0 A1 .
1
1
1
5
P4
i=1
yi2
(b)
1
1
1
1
1
1
1
1
1
1
.
1
1
Obtenha
yy 0 ;
1
1
A=
1
1
10
20
30
40
(a) Obtenha A0 A e B 0 B;
1
1
B=
1
1
1
1
0
0
0
0
1
1
31
= y1
= y2
= y3
= y4
P
n
i yi
i xi
.
; (ii) X 0 y =
(i) X 0 X = P
P
P 2
i x i yi
i xi
i xi
= X 0 y, onde
=
(d) Usando (c) escreva o sistema X X
0
= y x
Sxy
=
,
Sxx
onde,
Sxy =
n
X
i=1
x i yi
n
P
i=1
x
=
(f ) Admita X =
X1
xi
..
.
Determine:
n
P
yi
i=1
1X
xi
n i
X2
Sxx =
i=1
y =
1
1
=
1
1
:
:
:
:
6. R = y 0 (I P )y;
n
P
xi
i=1
2
10
100
90
20
ey=
150
30
40
160
x2i
1X
yi .
n i
n
X
32
2. P (I P ) = (I P )P = ;
P
yi
i x i yi
e =
, mostre
0 X 0 y = C + S,
M =
onde,
C=
Calcule C e S.
Pn
i=1
yi )
xy ;
S = S
G.L.
r(X 1 )
r(X 2 )
Parametros
Resduo
r(X)
n r(X)
Total
S.Q.
C
S
M = 0 X 0 y
R = y 0 y 0 X 0 y
Q.M.
S
r(X 2 )
M
r(X)
R
nr(X )
F =
a=
b=
a
b
t1
t2
n
r1
r2
; onde, r1 e o n
1
umero de
(c) Verifique que X 0 X = r1 r1 + 1
r2
1
r2 + 1
repeticoes de t1 e r2 e o n
umero de repeticoes de t2 .
G
P
P
(d) Verifique que X 0 y = T1 , onde G = i,j yij , T1 = j y1j e T2 =
T2
P
y
.
j 2j
33
6
8
0
0
t1 t2 .
(f ) Calcule:
X 0 y;
1. M =
2. M = y 0 P y, onde P = X(X 0 X) X 0 ;
3. T = y 0 y;
0 X 0 y;
4. R = y 0 y
5. R = y 0 (I P )y;
6. r(P ) e r(I P ).
(g) Prove algebricamente e verifique numericamente que:
1. P e I P sao idempotentes;
2. P (I P ) = (I P )P = .
G
y..
= t1 = y1. y.. e X 0 y = T1 ,
(h) Usando o fato de que
y2. y..
T2
t2
0
0
0
ri
C =
G.L.
g1 = r(X 1 ) =
g2 = r(X 2 ) =
g3 = r(X) =
g4 = n r(X) =
g5 = n =
S.Q.
C=
S=
M=
R=
T =
G2
C=
n
S=
i=1
2
X
i=1
ri (
yi. y.. )2 .
(i) Calcule C e S;
(j) Preencha o quadro a seguir:
F. Variacao
Correcao
Tratamento
Parametros
Resduo
TOTAL
Q.M.
a=
M
g3
b=
S
g2
R
g4
a
b
34
1.15
m An
1.15.1
Defini
c
ao 1.15.1 Dada uma matriz m An , de posto r(A) = k, ent
ao a matriz
+
+
A
de
posto
r(A
)
=
k
que
satisfaz
as
quatro
condi
c
o
es:
n m
(i) AA+ A = A
(iii) A+ A = (A+ A)0 (simetrica)
(ii) A+ AA+ = A+
(iv) AA+ = (AA+ )0 ( simetrica)
e
dada
por:
n m
1
A+ = C 0 (CC 0 )1 (B 0 B) B 0
onde B e C s
ao matrizes de posto coluna e posto linha completos, respectivamente e s
ao tais que A = BC.
1 - A exist
encia de A+
Se
m An
= =
+
n Am
= que satisfaz;
Observe que
35
= C 0 (CC 0 )1 (B 0 B)1 B 0 = A+ ;
Portanto, A+ existe.
2 - A unicidade de A+
(a.2) AA+
2 A = A;
+
+
(b.2) A+
2 AA2 = A2 ;
+
+
(c.2) A2 A = (A2 A)0 ;
+ 0
(d.2) AA+
2 = (AA2 ) .
Assim,
(a.1)
(c.1) e (c.2)
+
+
(e) A+
1 A = A1 AA1 A
+
tanto, A1 A = A+
2 A;
(a.2)
0 +
A 0 A+
1 A A2
(c.1) e (c.2)
0 (a.1)
= A 0 A+
2
0 (c.2)
= A+
2 A. Por-
0
+ 0
0
+
0 +
+
(f ) AA+
= AA+
=
A+
1
2 A A1 A = A2 A = (AA2 ) =
2 AA1
+
+
+
AA2 . Portanto, AA1 = AA2 ;
(b.1)
(e)
(f )
(b.2)
+
+
+
+
+
+
+
(g) A+
= A+
= A+
1
1 AA1 = A2 AA1 = A2 AA2
2 . Logo A1 = A2 =
+
+
A . Isto e, A e u
nica.
1
1
Exemplo 1.15.1 Seja X =
1
1
de Moore-Penrose de X, X + .
1
1
0
0
0
0
. Encontre a inversa generalizada
1
1
36
1
1
1
1 1
e v 01 = 1 1 0 ;
(a) a11 = 1, u1 = 1 =
1
1
1
1
1
1 1 0
1
1 1 0
(b) u1 v 01 =
1 1 1 0 = 1 1 0 ;
1
1 1 0
1 1 0
1 1 0
0
0
1 1 0 1 1 0 0
0
0
(c) A1 = A u1 v 1 =
1 0 1 1 1 0 = 0 1
1 0 1
1 1 0
0 1
Vamos repetir o processo,
0
0
0
1
0
0
(a) a32 = 1, u2 = 1
1 = 1 e v 2 = 0 1 1
1
1
0
0
0 0
0
0
0 0
(b) u2 v 02 =
1 0 1 1 = 0 1 1 ;
1
0 1 1
0
0 0
0
0 0
0
0 0
0 0
0
(c) A2 = A1 u2 v 02 =
0 1 1 0 1 1 = .
0 1 1
0 1 1
esta encerrado e temos
1 0
1 0
..
4B2 =
u1 . u2 = 1 1
1 1
v 01
1
=
2C 3 =
0
0
v2
Da,
0
BB=
1
0
1
0
1
1
1
1
e
(B 0 B)1 =
1
2
1
1
1
1
1
1
1 0
1 1
0
0
4
=
1
2
1
1
2
2
2
0
0
=
6 .
1
1
O processo
37
CC =
1
0
1 0
1 1
e
0 1
(CC )
1
1
0
1
=
3
Agora, calculamos:
C 0 (CC 0 )1
(B B)
1
1
1
=
3
0
=
=
0
2
1
=
1
1
2
1
0
2
1
1
1
1
1
1
2
1
1
1
2
1
2
1
2
1
2
1
2
2
1
1
=
3
1
1
0
1 1
0 1
1 0 0
.
1 1 1
1
1 ;
2
1
1
Finalmente
A+
=
=
C 0 (CC 0 )1 (B 0 B)1 B 0
2
1
1
1
1
1 0 0
1 1
1 1 1 1
3
2
1
2
1
1
1
1
1
2
2 1 1 .
6
1 1
2
2
38
4
Exemplo 1.15.2 Seja A = 2
2
2
0 de onde temos,
2
2
2
0
1 = 6 e 2 = 2;
x1 =
1 = u1 =
P =
= P AP
, x2 =
2
6
1
6
1
6
u1
u2
2
6
1
6
1
6
1
2
12
6
0
0
2
1 = u2 =
2
1
12
2
6
1
6
1
2
1
6
12
2
2
0
2
2
2
6
1
6
1
2
1
6
12
6
1
6
1
6
2
1
1
A+ = P 1 P 0
2
6
1
6
1
+ 0
1
0
2
6
39
1
6
0
1
1
+ 2
0
1
2
12
0
4 2
1
= 2 2
1
2 0
0
1
6
1
2
1
6
12
2
1
1
18
1
1
5
4
1
4 .
5
0
1
2
1
2
12
0
= A;
2
2
6
1
6
1
6
1
2
12
Observa
c
ao: Se A(n) for nao singular, entao
A+ = A1 =
1.15.2
1
1
1
u1 u01 + u2 u02 + +
un u0n .
1
2
n
Defini
c
ao 1.15.2 Dada uma matriz m An de posto r(A) = k, toda matriz n A
m
que satisfaz a condica
o AA A = A, e chamada de inversa generalizada condicional de A.
Um algoritmo u
til para encontrar inversas generalizadas condicionais de A
e o Algoritmo de Searle cujo procedimento e como segue:
1. Tomar uma matriz menor M de posto r(A) = k da matriz A;
0
2. Obter M 1 ;
0
3. Substituir em A, M 1 em lugar de M e fazer todos os outros elementos
de A, nulos;
40
1
1
1
1
0
0
0
0
, ent
ao, temos
1
1
1
0
0
1
3. Substituir em A, M 1
mentos de A:
entao M 1
0
0
1
0
0
1
1
0
0
1
0
0
0
0
0
1
0
0
0 0 0
0 1 0
0 0 1
0
0
1
0
0
0 .
0
0 0 0 0
A = 0 1 0 0 .
0 0 1 0
Observe que
AA A
1
1
1
1
1
1
1
1
1
1
0
0
1
1
0
0
0
0 0
0
0
1
1
0 0
1
0
0
= A.
1
1
0
0
1
1
0
1
0
1
0
1
1
1
0
0
0
0
1
1
1.15.3
41
Defini
c
ao 1.15.3 Dada uma matriz
que satisfaz as condico
es:
(i)
AA` A = A
m An
0
AA` = AA`
(simetrica)
(ii)
1
1
Exemplo 1.15.4 Seja X =
1
1
1
1
0
0
0
0
.
1
1
4 2 2
Entao, X 0 X = 2 2 0 .
2 0 2
Consideremos tres inversas generalizadas condicionais de X 0 X. Isto e,
0 0 0
21 0
2
0
0
1 0
A1 = (X X) = 0 2 0 , A2 = (X X) = 2
1
0 0 2
0
0 0
e
A3 = (X X) =
21
1
2
1
2
1
2
1
2
21
0
.
X `1
= (X X) X = A1 X =
0
,
1
2
42
X `2
e
X `3
Observe que
= (X X) X = A2 X =
1
2
2
XX `1 = XX `2 = XX `3 =
1
2
1
2
1
2
1
2
12
21
= (X X) X = A3 X =
1
2
1
2
12
12
1
2
1
2
1
2
1
2
1
2
0
.
1
2
, e invariante.
1
2
1
2
1.16
43
Lista de exerccios # 2
2
2.1 Dada a matriz A = 4
2
6
15
9
4 2
14 7
10 5
1 1 0 0
1 1 0 0
1 1 0 0
1 1 0 0
1 0 1 0 t1
=
1 0 1 0 t2
1 0 1 0
t3
1 0 0 1
1 0 0 1
1 0 0 1
conforme se segue,
5
4
8
10
(b) Determine:
1. o1 = X + y;
2. o2 = (X 0 X)+ X 0 y;
0
3. o3 = (X 0 X)
1 X y;
0
4. o4 = (X 0 X)
2 X y;
5. o5 = X ` y;
0
onde (X 0 X)
ao duas inversas condicionais distintas
1 e (X X)2 s
0
de X X.
44
2.
e = y P y = (I P )y;
3.
e = y X oi , i.
G.L.
S.Q.
r(P 1 ) = 1 =
k
y k2 =
Tratamento
r(P P 1 ) = 2 =
k
yy
k2 =
Parametros
r(P ) = 3 =
k
y k2 =
Resduo
r(I P ) = 4 =
k
ek 2 =
TOTAL
r(I) = 5 =
kyk2 =
Media
Q.M.
a=
F(obs.)
ky
k2
1
ky
y
k2
2
a/c =
ky
k2
3
b/c =
k
ek 2
4
b=
onde y
= P 1 y, P 1 = X 1 X +
e a primeira coluna da matriz X e P =
1 , X1
+
XX .
mine:
n r 1 r2
r1 r1 0
r2 0 r 2
..
..
.. . .
.
.
.
.
rI
0 0
45
rI
0
0
..
.
rI
PI
1. r(A);
2. Uma forma geral, com base no algortmo de Searle, para a inversa
condicional mais simples (diagonal) de A;
3. Atraves do item
inversa
2, determine uma
n
10 4 3 3
4 4 0 0 r1
0
A=XX=
3 0 3 0 = r2
r3
3 0 0 3
nesse caso, X e dada no exerccio 2.3.
condicional
r 1 r2 r3
r1 0 0
0 r2 0
0 0 r3
para
a matriz
. Note que,
46
Captulo 2
Soluco
es de Equaco
es
Lineares
2.1
Introduc
ao
2.2
Consist
encia e Soluc
ao
48
4x1
2x1
2x1
ou
4
2
2
+
+
2
2
0
2x2
2x2
2x3
2x3
=
=
=
14
6
8
14
x1
2
0 x2 = 6
8
x3
2
3
X
xoij cj .
j=1
Assim,
g
3
X
j=1
4
2
2
14
0 2 + 3 2 + 4 0 = 6 ;
2
0
2
8
3
xo21
2. xo2 = xo22 = 0 .
1
xo23
49
4
2
2
14
g = 3 2 + 0 2 + 1 0 = 6 ;
2
0
2
8
Finalmente,
o
4
x31
3. xo3 = xo32 = 1 . Temos, que Axo3 = g e
xo33
0
4
2
2
14
g = 4 2 1 2 + 0 0 = 6
2
0
2
8
4 2
anterior, onde A = 2 2
2 0
Entao,
4
2
2
2 2
2 0
0 2
sistema
es lineares Ax = g do exerccio
de equaco
2
0 e r(A) = 2.
2
14
1
6 0
8
0
0
1
0
4
1
1 1
0
0
.
e portanto, r(A) = r(A .. g) = 2 e, como ja visto, o sistema e consistente.
Exemplo 2.2.3 Suponhamos agora o sistema
4 2 2
x1
1
2 2 0 x2 = 1 .
2 0 2
1
x3
50
Desse modo,
4 2 2
2 2 0
2 0 2
1
1
1 0
1
0
0
1
0
0
1
1 1/2 .
1
0
.
Conforme podemos perceber r(A) = 2 6= r(A .. g) = 3.
Note que os u
ltimos componentes dos vetores coluna da matriz resultante
de A sao todos nulos, enquanto que o u
ltimo componente do vetor resultante
de g e igual 1 6= 0. Assim, nao existe combinacao linear das colunas de A
que reproduza o vetor g. Em outras palavras, g 6 C(A) e o sistema nao e
consistente. Lembre-se de que os coeficientes das colunas, na combinacao linear,
sao os componentes do vetor solucao. Entao, se nao existe combinacao linear
das colunas de A que reproduza g, o sistema Ax = g nao tem solucao.
Teorema 2.2.3 Uma condica
o necess
aria e suficiente para que o sistema de
equaco
es lineares A(n)n x1 = n g 1 seja consistente e que A seja n
ao singular.
Basta pre-multiplicar o sistema por A1 e teremos xo = A1 g. A unicidade
de A1 garante a invariancia de xo .
Exemplo 2.2.4 Seja o sistema Ax = g caracterizado por
x1
2 1
7
.
=
1 1
5
x2
1 1
7
2
1
o
Entao, x = A g =
=
.
1
2
5
3
Note que neste caso a solucao e u
nica. Isto e, existe apenas uma combinacao
linear das colunas de A que reproduz g. Ou seja,
2
1
7
g=2
+3
=
.
1
1
5
Nesse caso, o Teorema 2.2.2 pode fornecer diretamente a solucao. Pois, se
.
.
existe A1 , entao (A .. g) (I .. xo ). de fato,
2 1 7
1 0 2
.
1 1 5
0 1 3
Teorema 2.2.4 Uma condica
o necess
aria e suficiente para que o sistema de
equaco
es Ax = g seja consistente e que exista uma inversa condicional de A,
tal que AA g = g.
(a) Ax = g consistente = AA g = g.
51
Ax = g consistente = xo : Axo = g
(I).
AA Axo = AA g = Axo = AA g = g = AA g.
(b) AA g = g = Ax = g e consistente. Seja AA g = g. Basta tomar
xo = A g e desse modo Axo = g e o sistema e consistente.
Exemplo 2.2.5 Seja o sistema Ax = g caracterizado por
1
1
3
1 1 x1
= 1
x2
2
0
2
Usando o algortmo de Searle, temos
M=
1
1
1
1
Portanto,
A =
1
1
AA g = 1 1
2
0
e M 1 =
1
2
1
2
1
2
21
1
2
1
2
1
2
12
1
2
1
2
1
2
12
3
3
1 = 1 =
6 g.
4
2
0
0
AA` g = g
(b)
AA+ g = g.
1
1
3
x
1
1 1
= 1 .
x2
2
0
4
52
Tem-se que
1
2
21
1
2
, A` = 1
6
1
3
1
3
2
0
= A+ .
3
AA g = AA` g = AA+ g = 1 = g,
4
e o sistema e consistente.
FATOS:
1. Veremos mais tarde que se A e de posto coluna completo, como no exerccio acima, e se o sistema e consistente, entao a solucao e u
nica;
2. Note que, se Ax = g e consistente, entao
AA g = A(A0 A) A0 g = AA` g = AA+ g = g.
Teorema 2.2.6 Uma condica
o suficiente para que o sistema
seja consistente e que r(A) = m.
m Ann x1
m g1
Axo
=
=
AA g + A(I A A)h
AA g + (A AA A)h = AA g, h.
4 2
2 2
2 0
2
x1
14
0 x2 = 6 .
2
x3
8
53
0 0 0
14
0
0 1 0 6 = 3 ,
xo1 = A
g
=
1
2
8
4
0 0 12
1
21 0
2
4
14
1
6 = 1
1 0
xo2 = A
2 g = 2
0
8
0
0 0
e
1
0 12
2
14
3
6 = 0 .
0 0
0
xo3 = A
g
=
3
8
1
12 0
1
Tomemos agora o vetor
0
1
3
1
xo = A
g
+
(I
A
A)h
=
+
1
1
4
1
Portanto,
0 0
h1
0 0 h2
h3
0 0
h1
xo = 3 h1 e solucao, h1 R.
4 h1
3
xo = 0 = xo2 ;
1
para h1 = 4 temos
4
xo = 1 = xo3 ;
0
54
2.3
Soluc
ao Aproximada
55
Observe que podemos ter muitas solucoes aproximadas, sendo que umas sao
melhores que outras, de modo que o nosso problema sera encontrar a melhor
delas.
Uma forma de medir o tamanho do erro cometido ao tomar xo como solucao
do sistema inconsistente Ax = g, e atraves do quadrado da norma, popularmente conhecida como soma dos quadrados dos erros ou dos resduos. Ou seja,
e1
n
e2 X 2
ei .
kek2 = e0 e = e1 e2 en . =
..
i=1
en
2
1 1 0
3
1 1 0
1 =
5
1 0 1
2
4
1 0 1
(1) Como nao conhecemos, ainda, uma regra para a obtencao de solucoes aproximadas, tomemos a ttulo de exemplo dois vetores solucao com o objetivo
de quantificar o tamanho do erro cometido:
1
o1 = 1 . O erro cometido ao tomarmos o1 como solucao, e
1
2
1 1 0
0
1
3
1
1
0
1 = 1 .
e1 ( o1 ) = y X o1 =
5 1 0 1
3
1
4
1 0 1
2
Consequentemente,
14/6
o
Tomando, por exemplo, 2 = 1/6 , obtemos de modo analogo,
13/6
ke2 k2 = SQR2 = 1, 0, que sem d
uvida e menor que SQR1 .
(2) Procuremos agora um vetor o , tal que, a soma dos quadrados dos resduos
seja a menor possvel. Neste caso temos que minimizar
SQR = f (, 1 , 2 ) = kek2 = ky Xk2 = (y X)0 (y X),
56
onde,
2
1
3 1
y X =
5 1
4
1
1
1
0
0
Portanto,
SQR
0
2 1
3 1
0
1 =
5 2
1
2
1
4 2
4
X
= e.
e2i
kek2 = e0 e = (y X)0 (y X) =
(2 1 )2 + (3 1 )2 + (5 2 )2 + (4 2 )2 .
i=1
Os valores de , 1 e 2 , isto e, o , 1o e 2o que minimizam a soma dos quadrados dos resduos sao obtidos derivando-se parcialmente a SQR e igualando-se a
zero. Isto e,
(SQR)
= 28 + 8 + 41 + 42
(SQR)
1
= 10 + 4 + 41
(SQR)
2
= 18 + 4 + 42 .
4o +
2o +
2o
Dessa forma, qualquer solucao
4 2
2 2
2 0
21o
21o
22o
22o
=
=
=
14
5
9
do sistema
o
2
14
0 1o = 5 ,
9
2
2o
(2.1)
ja sabidamente consistente, nos levara a uma menor soma dos quadrados dos
resduos.
Obs.1: O procedimento aqui utilizado e um caso particular do metodo dos
mnimos quadrados;
Obs.2: O sistema de equacoes lineares obtido em (2.1) e conhecido como sistemas de equacoes normais.
Entre muitas solucoes do sistema (2.1) temos:
14
16
4
1
1
1
o2 = 1 , o3 = 1 , e o4 = 1 ,
6
6
2
13
11
5
57
de onde podemos perceber que SQR1 > SQR2 = SQR3 = SQR4 . Diante
deste fato, temos aqui um problema a ser resolvido. Ou seja, se existem muitas
solucoes que torna mnima a soma dos quadrados dos resduos, como escolher a
melhor delas?
2.4
A Melhor Soluc
ao Aproximada
Defini
c
ao 2.4.1 O vetor x e definido como a melhor soluca
o aproximada do
sistema de equaco
es lineares Ax = g, inconsistente (BAS: Best Approximate
Solution) se, e somente se, para qualquer outra soluca
o aproximada x o , tivermos:
1. ke(x )k2 ke(xo )k2 ,
2. Caso prevaleca a igualdade, a melhor soluca
o aproximada ser
a aquela que
2
o 2
satisfaz a condica
o: kx k < kx k .
Nota: A condicao 2 diz que a melhor solucao aproximada, e a solucao de
norma mnima.
Teorema 2.4.1 A melhor soluca
o aproximada de Ax = g, inconsistente e
+
x = A g.
Exemplo 2.4.1 A soluca
o do sistema inconsistente X = y, do exemplo anterior, dada por:
= X + y = o2 =
1
6
1
2
1
2.5
1
2
1
1
1
2
2
1
14
3 1
1 ,
1
5 = 6
2
13
4
Soluc
ao Aproximada de Mnimos
Quadrados
58
para o vetor solucao aproximada pode nao ser necessaria. Se for utilizada,
podemos perder, em muitos casos, a propriedade da unicidade da solucao aproximada. No entanto, temos, em geral, a vantage da simplicidade de calculo, por
nao ter que usar a inversa generalizada de Moore-Penrose.
A solucao de mnimos quadrados pressupoe apenas a primeira condicao da
Defini
c
ao 2.4.1 o que, em geral, e suficiente para resolver os problemas estatsticos abordados neste curso.
Defini
c
ao 2.5.1 Um vetor xo e definido como um vetor soluca
o aproximado
de mnimos quadrados para o sistema inconsistente Ax = g se, e somente se,
ke(xo )k2 ke(x? )k2
para qualquer soluca
o aproximada x? , (LSS: Least Squares Soluction).
Nota 1: A solucao LSS, nao exige como a BAS que se prevalecer a igualdade,
entao kxo k2 < kx? k2 . Assim, enquanto a BAS e u
nica, a LSS nao o e.
Nota 2: As solucoes LSS sao muito importantes em estatstica.
4
2
2
2
2
0
o
14
2
0 1o = 5 .
9
2
2o
59
Alem disso, qualquer solucao exata deste sistema sempre consistente e solucao
aproximada de mnimos quadrados para o sistema inconsistente y = X. Sao
exemplos,
7
2
0
3
3
1 o 1 o 1 o 5
o
= 6 ; = 2 ; = 6 ; = 2
5
2
13
6
9
2
11
6
e existem muitos outros vetores o que nos levarao a` menor soma dos quadrados
dos resduos (no exemplo, SQR = 1, 0).
Defini
c
ao 2.5.3 O vetor g
= Axo , onde xo e qualquer soluca
o aproximada de
mnimos quadrados para o sistema inconsistente Ax = g, e definido como a
aproximaca
o de mnimos quadrados para o vetor g.
Exemplo 2.5.2 No sistema inconsistente y = X, temos
1
y
= X o =
1
1
1
1
0
0
0
0
0
1 5 = 1
1 2
2
9
1
5
5
.
9
9
7/2
o = 2 . Entao,
2
1 1 0
5
7/2
1 1 0
5
1
2 =
y
=
1 0 1
2 9
2
1 0 1
9
Defini
c
ao 2.5.4 Definimos o erro de ajuste devido a aproximaca
o de mnimos
quadrados para Ax = g inconsistente, como
e=gg
= g Axo .
Exemplo 2.5.3 Para o exemplo em quest
ao, temos
2
3 1
e=yy
=
5 2
4
5
1
5
= 1 1 .
9
1
2
9
1
60
e=yy
= y X o = y P y = (I P )y.
Defini
c
ao 2.5.5 O erro devido a aproximaca
o de mnimos quadrados e ortogonal ao espaco gerado pelas colunas de A. Isto e,
e C(A).
Exemplo 2.5.4 Para o exemplo em quest
ao, e imediato verificar que
X 0
e = .
Ou seja,
1
1
0
1
1
0
1
0
1
1
1
0
1
1
= 0 .
0
2 1
1
0
1
61
Lista de Exerccios # 3
1. Verifique se o sistema de
afirmativo, apresente uma
x1 +
x1 +
2x1 +
5 2
2 2
3 0
x2
x2
x2
lineares
3
0
3
x3
+
x4
3x4
=
=
=
3
6
5
A = g, caracterizado por
33
1
2 = 18
15
3
1
1
3.1
1
1
1
1
3.2
1
1
1 0
10
1 0
1 = 12 ;
0 1
6
2
0 1
4
10
2
8
=
14 .
6
12
8
x
5 1 1 1
1 5 1 1 y
1 1 5 1 z =
w
1 1 1 5
26
22
,
18
14
P4
4.1 Obtenha A+ = A1 = i=1 1i P i P 0i , onde i e P i sao respectivamente autovalores e autovetores normalizados de A;
4.2 Apresente a solucao do sistema.
62
1
1
1
7.1 Determine:
caracterizado por
1 0
4
1 0 1 = 3 ,
0 1
2
4
7.1.1 o = (X 0 X) X 0 y
7.1.2 y
= X o
7.1.3 y
= P y, onde P = X(X 0 X) X 0 = XX ` = XX +
7.1.4
e=yy
7.1.5
e = (I P )y
7.1.8 SQRes. = y 0 (I P )y = k
ek2 = ky y
k2 = ky X o k2
7.1.9 r(P ), r(I) e r(I P ).
7.2.4 kyk2 = k
y k2 + k
ek2 , (SQTotal=SQPar.+SQRes.).
Captulo 3
Formas Quadr
aticas
3.1
Conceito
Defini
c
ao 3.1.1 Uma funca
o do tipo
X
Q(x) = x0 Ax =
aij xi xj ,
i,j
onde aij s
ao constantes reais, e chamada de forma quadr
atica em x.
Exemplo 3.1.1 A forma
Q(x)
2 21
0
1
3
x1 x2 x3
5
=
2
2
3
0
1
2
x1
x2 = x0 Ax
x3
x1
x2
j=1
a12
a22
2 X
2
X
aij xi xj
i=1 j=1
63
64
3.2
i6=j
Pn
i=1
x2i
Pn
2
2. Se A(n) = E (n) = Q(x) = x0 Ex = ( i=1 xi ) .
h
i
0
1
x0 Ix x Ex
fornece uma medida para a variancia de x.
Note que n1
n
Logo,
a22 = 5,
2a12 = 1
a12 = 21 ,
2a23 = 3
a23 =
a13 = 0
1
A=
2
3.3
a33 = 0,
3
2,
a31 = 0.
21
3
2
3
2
Classificac
ao de Formas Quadr
aticas
Defini
c
ao 3.3.1 Dada a forma quadr
atica Q(y) = y 0 Ay, no que se refere a
sua classificaca
o, temos:
1. Se Q(y) > 0, y 6= = Q(y) e positiva definida;
2. Se Q(y) 0 para y 6= e existe pelo menos um y 6= , tal que Q(y) = 0,
ent
ao Q(y) e semi positiva definida;
3. Se Q(y) < 0, y 6= , = Q(y) e negativa definida;
4. Se Q(y) 0 para y 6= e existe pelo menos um y 6= , tal que Q(y) = 0,
ent
ao Q(y) e semi negativa definida;
65
2
1
1
3
2
0
0
5/2
66
10
Q(x) =
20
2
1
1
3
10
20
. Entao
10
20
= 1800.
72
94
, cuja diagonal conEntao, Q(y) = y 0 M y, onde M = C 0 AC =
94 123
72
0
gruente e D 2 =
. Portanto, Q(y) = 72y12 + 188y1 y2 + 123y22
0 1175/18
e positiva definida. Alem disso,
1
5
10
5 3
.
=
y = C 1 x =
0
20
4
2
2
Portanto,
Q(y) = y 0 M y = 72(5)2 = 1800.
Teorema 3.3.2 Se A(n) e real e simetrica de posto k n, ent
ao a forma
0
quadr
atica Q(x) = x Ax pode ser escrita na forma similar mais simples. Isto
e,
k
X
Q(y) =
i yi2 ,
i=1
onde i , i = 1, 2, , k, s
ao as raizes caractersticas n
ao nulas de A.
Sendo A(n) real e simetrica de posto k, entao existe P ortogonal tal que
Seja
P 0 AP =
(k)
= diag{1 , , k , 0, , 0} = .
Q(x) = x0 Ax e seja x = P y,
entao,
Q(y) = y 0 P 0 AP y = ( y 01
y 02 )
(k)
y1
y2
= y 0 y =
k
X
i=1
i yi2 .
67
2 1
2
Q(x) = x0 Ax, onde A = 1
1 1
1
0 0
P 0 AP = 0 3
0 0
Assim, 1 = 0,
1
1
2
1
3
1
2
12
1
6
1
6
1
3
0
. Entao,
26
0
0 = .
3
2 = 3 = 3. Portanto,
Q(x)e semi positiva definida.
1
Tomando, como exemplo, o vetor x = 1 = Q(x) = 0.
1
Por outro lado, Q(y) = 0y12
+ 3y22 +
3y32 = y 0 y, onde x = P y = y = P 0 x
3
3
(P ortogonal). Portanto, y =
0 e segue que, Q(y) = 0 3 + 3 0 +
0
3 02 = 0.
Naturalmente, dada a similaridade, Q(x) e Q(y) tem a mesma classificacao.
Teorema 3.3.3 Se A(n) e real, simetrica e positiva definida, ent
ao a forma
quadr
atica x0 Ax pode ser escrita na forma similar mais simples, a saber:
Q(x) = Q(y) =
n
X
yi2 .
i=1
Q(x) = y 0 B 1 AB 0
y = y 0 B 1 BB 0 B 0
y = y0y =
n
X
i=1
yi2 .
68
5 0 0
3 1 1
A = 1 3 1 e = 0 2 0 .
0 0 2
1 1 3
Assim, 1 = 5, 2 = 3 = 2 =
e p.d. = Q(x) e p.d.
A
1
Seja, como ilustracao x = 1 = Q(x) = 15. Por outro lado,
1
C 1 D 1/2
3
1 0 0
=
3 1 0 0
1
1
1
0
3
4
Portanto,
y=Bx=
6
3
10
2
5 3
3
5 6
6
10
2
B = P 1/2
Nesse caso,
3
3
2 6
3
3
3
6
6
10
2
= Q(y) = 15.
15
1
=
15
3
15
3
3
0
3
.
3
2 3
15
0 e Q(y) = 15.
0
y = Bx =
3.4
< xi < i = 1, 2, 3.
(3.1)
69
f (x)
x2
f (x)
.
x3
Desde que f (x) possa ser escrita como uma funcao do vetor x, pode ser desejavel
expressar as tres derivadas parciais como um vetor. Definimos f(xx) como
f (x)
e obtemos a expressao
f (x)
x1
f (x)
x2
f (x)
x3
12x1 2x2
f (x)
2x1
=
x
2x3
x1
x2
x = . ,
..
xn
e denotada por
f (x)
x
e e definida por
f (x)
=
f (x)
x1
f (x)
x2
..
.
f (x)
xn
Teorema 3.4.1 (Derivada de uma forma linear) Seja `(x) uma funca
o liPn
near de n vari
aveis reais independentes definida por `(x) = i=1 ai xi = a0 x =
x0 a, onde a0 = a1 a2 an e os a0i s s
ao constantes quaisquer. Ent
ao
`(x)
= a.
x
70
n
n X
X
aij xi xj ,
j=1 i=1
3.5
Defini
c
ao 3.5.1 Dado um vetor x de vari
aveis aleat
orias com funca
o densidade de probabilidade f (x1 , , xn ), definimos a esperanca matem
atica da
funca
o t(x1 , , xn ), como
E[t(x1 , , xn )] =
Em particular, se W =
x11
x21
..
.
71
x12
x22
..
.
..
.
x1q
x2q
..
.
. Entao,
E(x11 ) E(x12 )
E(x21 ) E(x22 )
E[W ] =
..
..
..
.
.
.
E(xp1 ) E(xp2 )
E(x1q )
E(x2q )
..
.
E(xpq )
V ar(x1 )
Cov(x1 , x2 ) Cov(x1 , xn )
Cov(x1 , x2 )
V ar(x2 )
Cov(x2 , xn )
V (x) =
.
..
..
..
..
.
.
.
.
Cov(x1 , xn )
Cov(x2 , xn )
V ar(xn )
V [Ax] = AV (x)A0 .
Teorema 3.5.2 Seja x um vetor de vari
aveis aleat
orias com vetor de medias
e matriz de covari
ancia V , positiva definida. Seja tambem uma matriz A,
simetrica, de constantes reais. Ent
ao,
E[x0 Ax] = T r(AV ) + 0 A.
72
T r[P I 2 ] + 0 X 0 P X
T r(P ) 2 + 0 X 0 XX + X
r(P ) 2 + 0 X 0 X.
Portanto,
E[y 0 P y] = r(X) 2 + 0 X 0 X.
(b)
E[y 0 (I P )y]
=
=
=
T r[I P ] 2 + 0 X 0 [I P ]X
r[I P ] 2 + 0 X 0 X 0 X 0 P X
(n k) 2 + 0 X 0 X 0 X 0 X.
Portanto,
E[y 0 (I P )y] = (n k) 2 .
Suponha, agora, que y = X + e
com i = 1, 2 e j = 1, 2. Neste caso,
1 1
y11
y12 1 1
=
y21 1 0
y22
1 0
Entao:
1/2
1/2
P =
0
0
0
e11
0
1 + e12
e21
1
2
e22
1
1/2
1/2
0
0
0
0
1/2
1/2
1/2 1/2
1/2
1/2
(I P ) =
0
0
0
0
0
0
;
1/2
1/2
0
0
1/2
1/2
0
0
;
1/2
1/2
73
e
0 X 0 X
=
=
2 2
1 2
2 0 1
0 2
2
X
X
2
2
4 + 2
i + 4
i .
4
2
2
i2 + 4
i i
= 0. E,
1
[y 0 (I P )y]
r(I P )
1
E[y 0 (I P )y] = 2 .
nk
y1
P
Teorema 3.5.3 Seja y Nn ( , ) com y = , onde y 1 e p 1,
y2
y 2 tem dimens
ao q 1 e p + q = n. Ent
ao y 1 e y 2 s
ao estatsticamente
1
independentes se, e somente se, Cov(y 1 , y 2 ) = .
E
Defini
c
ao 3.5.4 (Graus de liberdade) O n
umero de graus de liberdade da
forma quadr
atica y 0 Ay e dado por r(A). Denotaremos por g.l.(y 0 Ay) = r(A).
3.6
Distribuic
ao e Independ
encia de Formas
Quadr
aticas Sob Normalidade
Teorema 3.6.1 Seja um vetor y Nn ( , V ) e uma matriz A(n) real e simetrica de posto k n. Ent
ao, uma condica
o necess
aria e suficiente para que a
1 Veja
74
forma quadr
atica y 0 Ay tenha distribuica
o de qui-quadrado com k graus de liberdade e par
ametro de n
ao-centralidade = 21 0 A, e que AV seja idempotente.
Isto ser
a denotado por: y 0 Ay 2(k , 1 0 A) .
2
Corol
ario 1 Se y N (, I) ent
ao y 0 Ay 2(k) se, e somente se, A e
idempotente de posto k;
Corol
ario 2 Se y N (, V ) ent
ao y 0 Ay 2(k) se, e somente se, AV e
idempotente de posto k;
Corol
ario 3 Se y N (, 2 I) ent
ao
A e idempotente de posto k;
y 0 Ay
2
2(k,
1
2 2
Corol
ario 4 Se y N (, I) ent
ao y 0 Ay 2(k, 1 0 ) se, e somente se, A e
2
idempotente de posto k.
As demonstracoes do Teorema 3.6.1 e Corol
arios podem ser vistas com
detalhes em Searle(1971), pg. 57.
Teorema 3.6.2 Seja um vetor y Nn ( , I 2 ) e uma matriz A(n) real e
simetrica de posto k. Ent
ao, uma condica
o necess
aria e suficiente para que
1
0
2
(y
)
A(y
e
que
A
seja
idempotente.
(k)
2
Prova: Seja z =
1
(y
). Entao teremos:
E[z] =
V [z] =
1
E[y ] = ,
1
1
V [y ] = 2 I 2 = I.
2
Logo,
z Nn ( , I).
Por teorema anterior, z 0 Az 2(k) A for idempotente.
Mas, z 0 Az = 12 (y )0 A(y ) 2(k) A for idempotente.
Teorema 3.6.3 Se y Nn ( , V ), A(n) e real e simetrica de posto k e q B n
real de posto linha completo. Ent
ao:
(i) E[y 0 Ay] = T r(AV ) + 0 A,(mesmo y n
ao sendo normal);
(ii) Cov[By , y 0 Ay] = 2BV A;
(iii) Cov[By , Ay] = BV A.
75
(SU F.)
(N EC.)
By e y 0 Ay indep. = 2BV A = = BV A = , .
Teorema 3.6.5 Seja y Nn ( , V ) e sejam A(n) e B (n) matrizes reais e
simetricas. Ent
ao uma condica
o necess
aria e suficiente para que y 0 Ay e y 0 By
seja independentemente distribuda e que AV B = BV A = .
Exemplo 3.6.1 Seja y Nn (X , I 2 ) e sejam as formas quadr
aticas
y 0 (I P )y
, onde P = X(X 0 X) X 0 = XX + .
2
y 0 P y y 0 (I P )y
Entao, as formas quadraticas 2 e
sao independentes. Pois,
2
y0 P y
2
P (I P ) = XX + (I XX + ) = XX + XX + XX + = .
De modo analogo, teremos (I P )P = .
Alem disso, sendo P e (I P ) matrizes simetricas e idempotentes com
r(P ) = r(XX + ) = r(X) e r(I P ) = nr(X), temos duas formas quadraticas
com distribuicao de qui-quadrado. Isto e,
y 0 (I P )y
y0 P y
2[r(X ) , ] e
2[nr(X ) , ] ,
2
1
2
2
cujos parametros de nao centralidade sao:
1 =
1 0 0
1 0 0
X XX + X =
X X.
2
2
2 2
e
2 =
Portanto,
1 0 0
X (I XX + )X = .
2 2
y0 P y
2[r(X ) , 1 0 X 0 X ] , nao central
2
2 2
y 0 (I P )y
2[n(X )] , central.
2
E, conforme ja vimos, sao independentes. Pois, P (I P ) = .
76
y 0 Ai0 y, i 6= i0 , i, i0 = 1, 2, , p
e que r
p
X
Ai
i=1
p
X
sejam independentes,
r(Ai ).
i=1
p
X
r(Ai ) = n.
i=1
Exemplo 3.6.2 Note que o exerccio anterior pode ser resolvido atraves do
teorema de Fisher - Cochran.
Basta notar que
I = P + (I P ).
Suponha, a ttulo de ilustracao, que os elementos envolvidos sejam:
n y1 ,
I (n) ,
nX p,
com
r(X) = k n.
Assim, teremos
r(I (n) ) = n,
r(P ) = k
r(I P ) = n k.
Portanto,
r(I (n) ) = r(P ) + r(I P ).
E, assim, teremos diretamente
y0P y
2[k , ] ,
2
1 0 0
X X
2 2
y 0 (I P )y
2[nk]
2
e sao independentemente distribudas. Pois,
P (I P ) = P P = .
77
W 2[k] ,
V 2[r]
U 2[p, ] .
Ent
ao:
i)
Z
q
W
k
t(k) ,
iv)
ii)
Z
q
V
r
U/p
F[p, k, ]
W/k
t(r) ,
onde e o par
ametro de n
ao centralidade.
v)
iii)
W/k
F[k, r] ,
V /r
U/p
F[p, r, ] .
V /r
78
Lista de Exerccios # 4
4.1 Dadas as matrizes:
3 1
3
A = 1
1 1
1
1
3
3
B= 1
1
1
3
1
1
1 .
3
4.1.1 Forneca para cada uma delas, uma matriz diagonal congruente;
4.1.2 De suas classificacoes;
4.1.3 Encontre matrizes T 1 e T 2 , tais que A = T 1 T 01 e B = T 2 T 02 ;
4.1.4 Verifique se r(A) = r(T 1 ) e se r(B) = r(T 2 );
4.1.5 Encontre os autovalores de A e de B;
1 1 0
1 1 0
1 0
2 y Ay;
4.3.2 Q2 =
1 0
2 y (P
4.3.3 Q3 =
1 0
2 y P y;
4.3.4 Q4 =
1 0
2 y y
4.3.5 Q5 =
1 0
2 y (I
A)y;
1 0
2 y Iy;
P )y;
4.3.6 Verifique a independencia entre as formas quadraticas do numerador e do denominador em 4.3.7 e 4.3.8.
y 0 (P A)y
y 0 (I P )y
/ 12 nr(X ) , com n = 5;
4.3.7 F1 = 12 r(X )1
1 y Py
2 r(X )
0
79
y 0 (I P )y
/ 12 nr(X ) .
Q2 = y 0 (P A)y;
Q4 = y 0 (I P )y
Q3 = y 0 P y;
Q5 = y 0 Iy.
Q1 + Q 2 + Q 4 = Q 5
Q3 + Q 4 = Q 5 .
4.6 Utilizando os dados do item 4.4, preencha com valores numericos a seguinte
tabela:
F. Variaca
o
G.L.
Media
S.Q.
Q1 =
Tratamento
r(X) 1 =
Q2 =
par
ametros
r(X) =
Q3 =
n r(X) =
Q4 =
n=
Q5 =
Resduo
Total
a=
Q2
r(X )1
a
c
Q3
r(X )
b
c
Q4
nr(X )
b=
c=
Q.M.
GL
SQ
E[SQ]
E[QM ]
Media
Q1
2 + 52
2 + 52
Tratamento
Q2
2 + 312 + 222
2 +
312 +222
1
parametros
Q3
2 2 + 52 + 312 + 222
2 +
52 +312 +222
2
Resduo
Q4
3 2
Total
Q5
5 2 + 52 + 312 + 222
80
Captulo 4
Introduc
ao aos Modelos
Lineares
4.1
Generalidades
4.2
Localizac
ao do Problema Fundamental
Seja y uma variavel que deve ser explicada atraves de um conjunto de fatores
x1 , x2 , , xd . Isto e,
y = f (x1 , x2 , , xd , e) = f (x, e)
onde e representa um conjunto provavelmente grande de outros fatores nao
considerados e que denominaremos de erro ou resduo.
81
82
y = 0 + 1 log x1 + e,
etc.
y = 1 x1 + 22 x2 + e,
etc.
Nesse contexto, uma funcao linear nos parametros que se presta para aproximar um vetor y, de observacoes, e um modelo linear.
OBS.1: Os modelos lineares sao classificados de acordo com as variaveis que
descrevem os fatores sejam qualitativos , quantitativos ou ambas. Maiores
detalhes podem ser visto, por exemplo, em GRYBILL(1961, p. 103 e
seguintes). Aqui, abordaremos apenas os modelos para delineamentos
experimentais, que o referido autor classifica como modelo 4.
OBS.2 Usaremos neste captulo, a norma euclideana para calcularmos a funcao
distancia. Onde procuramos uma funcao d[y, f (x, )] que seja mnima.
4.3
O Modelo Linear
Nesta secao definiremos o modelo linear geral e apresentaremos algunas caracterizacoes comumente encontradas na solucao de problemas praticos.
4.3.1
Definc
ao e Exemplos
Defini
c
ao 4.3.1 Sejam, sobre o corpo dos reais:
n y1 ,
um vetor de observaco
es;
nX p,
p 1 ,
n e1 ,
83
Ent
ao,
y = X + e
(4.1)
Regresso linear m
ultipla,
(f ) yikj = + i + k + ik + eikj
(a)
(b)
(c)
y1
y2
..
.
yn
y1
y2
..
.
yn
y11
y12
y13
y21
y22
y23
1
1
..
.
x1
x2
..
.
xn
0
+
e1
e2
..
.
en
1
1
..
.
x11
x12
..
.
x21
x22
..
.
xk1
xk2
..
.
x1n
x2n
xkn
1 1 0
1 1 0
1 1 0
1 0 1
1 0 1
1 0 1
1 +
e11
e12
e13
e21
e22
e23
0
1
2
..
.
k
e1
e2
..
.
en
84
(d)
(e)
(f )
y11
y12
y13
y21
y22
y23
y11
y12
y13
y21
y22
y23
y111
y112
y113
y121
y122
y123
y211
y212
y213
y221
y222
y223
1 1
1 1
1 1
1 0
1 0
1 0
0 x11
0 x12
0 x13
1 x21
1 x22
1 x23
1 1
1 1
1 1
1 0
1 0
1 0
0 1
0 0
0 0
1 1
1 0
1 0
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
1
1
1
1
1
1
1
1
1
0
0
0
1
1
1
0
0
0
1
+
2
0 0
1 0
0 1
0 0
1 0
0 1
0
0
0
1
1
1
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
1
1
1
0
0
0
0
0
0
1
2
1
2
3
0
0
0
0
0
0
1
1
1
0
0
0
e11
e12
e13
e21
e22
e23
+
0
0
0
0
0
0
0
0
0
1
1
1
e11
e12
e13
e21
e22
e23
1
2
1
2
11
12
21
22
e111
e112
e113
e121
e122
e123
e211
e212
e213
e221
e222
e223
y..
6 3 3
3 3 0 1 = y1.
y2.
2
3 0 3
0
1/3
0
0
y..
0
0 y1. = y1.
y2.
y2.
1/3
85
E, conforme ja vimos, como X 0 X tem posto incompleto, uma solucao qualquer o nao tem valor por si so, mas sim atraves de X. Pois como ja sabemos
= X o e a aproximacao de mnimos quadrados para o vetor y das equacoes
y
= yy
e ortogonal ao
normais. Alem disso, sabemos que o vetor dos erros e
espaco coluna de X ou espaco dos parametros. Ademais P = XX + = XX ` =
X(X 0 X) X 0 , u
nico para cada X, e o projetor ortogonal de y em C(X) e o
= X o = P y, a aproximacao
vetor projetado ortogonalmente e exatamente y
de mnimos quadrados para y.
Usando o teorema de Pitagoras, podemos ver que o vetor y se decompoe na
4.3.2
Defini
c
ao 4.3.2 O modelo
y = X + e,
(4.2)
onde,
y e um vetor de realizaco
es de vari
aveis aleat
orias de dimens
oes n 1,
X e uma matriz de constantes conhecidas de dimens
oes n p, de posto k
min{n, p},
e um vetor de par
ametros desconhecidos de dimens
oes p 1, que desejamos
estim
a-lo,
86
e e um vetor de componentes n
ao observ
aveis e aleat
orios de dimens
oes n 1
2
com media e vari
ancia I . Quando o modelo apresenta essa estrutura
para o erro, o mesmo ser
a definido como Modelo Linear Ordin
ario de
Gauss-Markov.
FATOS:
(i) De acordo com as definicoes dos termos no modelo (4.2), teremos por conseq
uencia que: E[y] = E[X + e] = X, V ar[y] = V ar[X + e] = I 2 .
Alem disso, o S.E.N. e dado por:
X 0 X o = X 0 y
e a solucao de mnimos quadrados ordinaria e:
o = X 0 X
X 0 y;
(ii) A matriz de covariancias dos erros pode assumir caracterizacoes mais complexas do que simplesmente I 2 . Se V ar[e] e diagonal diferente de I 2 ,
as demais pressuposicoes permanecem inalteradas, isto e, se E[e] = e
V ar[e] = D 2 , entao o modelo e conhecido na literatura como Modelo
Linear Ponderado de Gauss Markov. Nesse caso o S.E.N. fica:
X 0 D 1 X o = X 0 D 1 y
e a solucao de mnimos quadrados ponderada e dada por:
o = X 0 D 1 X
X 0 D 1 y;
(iii) Se a matriz de covariancias tem estrutura mais geral que as formas diagonais anteriores, isto e, se E[e] = e V [e] = 2 , entao o modelo e referido
como Modelo Linear Generalizado de Gauss-Markov. E, o S.E.N. e dado
por:
X 0 1 X o = X 0 1 y
e uma solucao de mnimos quadrados generalizada e dada por:
o = X 0 1 X
X 0 1 y.
87
Defini
c
ao 4.3.3 Quando associamos a distribuica
o normal ao vetor dos erros
e do modelo (4.2), teremos o modelo conhecido por Modelo Linear de Gauss
Markov Normal (G.M.N.)
Assim, teremos:
e Nn ( , I 2 )
e Nn ( , D 2 )
y = X + e, (G.M.N ) =
e Nn ( , 2 )
Ordin
ario
P onderado
Generalizado.
Observa
c
ao: Neste contexto, sempre que mensionarmos o modelo linear de
Gauss-Markov, estaremos supondo o modelo ordinario, caso contrario,
comentaremos o fato.
Para efeito de fixacao dos conceitos, tomaremos como exemplo, o modelo
associado a um experimento com um fator inteiramente casualizado. Isto e, o
modelo y = X + e, caracterizado por: yij = + i + eij .
Exemplo 4.3.1 Consideraremos um ensaio hipotetico de complementaca
o alimentar para engorda de suinos, instalado num delineamento inteiramente ao
acaso. No qual foram considerados os seguintes tratamentos: T1 : Ureia, T2 :
Oleo
vegetal a 1% e T3 : Oleo
vegetal a 2%. Os resultados relativos ao ganho de
peso(em kg) por animal, ap
os 30 dias, encontram-se na Tabela 4.1.
Leitao
1
2
3
4
Total
M
edia
Vari
ancia
T1
y11 = 5, 0
y12 = 4, 0
y13 = 3, 0
y14 = 4, 0
y1. = 16, 0
y1 = 4, 0
s21 = 2/3
Tratamento
T2
y21 = 6, 0
y22 = 7, 0
y23 = 8, 0
y2. = 21, 0
y2 = 7, 0
s22 = 1, 0
T3
y31 = 9, 0
y32 = 8, 0
y33 = 10, 0
y3. = 27, 0
y3 = 9, 0
s23 = 1, 0
88
0.4
0.3
0.2
0.1
2 4 6 8 1012
0.4
0.3
0.2
0.1
2 4 6 8 1012
0.4
0.3
0.2
0.1
2 4 6 8 1012
d
0.4
0.3
0.2
0.1
2 4 6 8 1012
89
y11
5, 0
1 1 0
y12 4, 0 1 1 0
y13 3, 0 1 1 0
y14 4, 0 1 1 0
y21 6, 0 1 0 1
=
y22 7, 0 = 1 0 1
y23 8, 0 1 0 1
y31 9, 0 1 0 0
y32 8, 0 1 0 0
y33
10, 0
1 0 0
4.3.3
escrever:
0
0
1
0
2
0
0
3
1
1
e11
e12
e13
e14
e21
e22
e23
e31
e32
e33
O Sistema de Equaco
es Normais (S.E.N.)
10 4 3 3
64
4 4 0 0 1o 16
3 0 3 0 2o = 21
3o
3 0 0 3
27
n r 1 r2 r k
r1 r1 0 0 1o
r2 0 r2 0 2o
..
..
.. . .
. .
.
. .. ..
.
.
rk
rk
ko
onde,
n=
Pk
i=1 ri ,
y..
y1.
y2.
..
.
yk.
e o n
umero total de observacoes;
ri e o n
umero de repeticoes do tratamento i, i = 1, , k;
y.. e o total geral;
yi. e o total das observacoes no tratamento i.
(4.3)
90
Uma solucao do Sistema de equacoes (4.3) pode ser obtida, de modo generico,
por o = (X 0 X) X 0 y. E, considerando a inversa generalizada mais simples,
teremos:
o
0
0
0
0
y..
0
1o 0 1/r1
0
o
y1. y1
2 0
0
1/r2
0 y2. = y2
=
.
.. ..
.. .. ..
..
..
..
. .
.
.
.
.
.
.
ko
1/rk
yk.
yk
0
o
o
1
1
o =
2o = y2
y3
3o
0
4, 0
=
7, 0
9, 0
o
e y
= X =
4
4
4
4
7
7
7
9
9
9
Isto e, yij = yi .
No exemplo em questao, a solucao o , para e obtida facilmente (em outros
modelos isto nem sempre ocorre). Veremos, em momento oportuno, que se a
matriz X nao tem posto coluna completo, entao o nao e um estimador nao
viciado para , e sim, para funcoes dos componentes de .
4.4
91
Estimac
ao em Modelos Lineares
V []
o = X + y,
etc.
92
0
0
0
0
0 1/4
0
0
,
(X 0 X)
1 = 0
0
1/3
0
0
0
0
1/3
temos
1
0
H 1 = (X 0 X)
1 (X X) = 1
1
0
1
0
0
0
0
1
0
1
0
0 2
1
3
0
+ 1
=
+ 2 .
+ 3
1 1 1 0
1
1 0
,
1 7/4
(X 0 X)
2 =
1
1
2 0
3
0
0
0 0
teremos,
1 0
0 1
0
0
H 2 = (X X)2 (X X) =
0 0
0 0
0
0
1
0
1
1
1 2
0
3
+ 3
1 3
=
2 3
0
93
Defini
c
ao 4.4.1 (Rao, 1945) Uma funca
o linear parametrica do tipo 0 , e
dita estim
avel no modelo linear y = X + e (G.M.) se, e somente se, existir
uma combinaca
o linear das observaco
es, a0 y, tal que E[a0 y] = 0 .
FATO: Essa definicao sera muito u
til em demonstracoes, como veremos posteriormente, no entanto do ponto de vista pratico, ela e pouco operacional,
pois depende da dimensao do vetor y das observacoes.
Exemplo 4.4.1 Consideremos a funca
o parametrica
1
0 = 1 1 0 0
2 = + 1 .
3
Estudemos a sua estimabilidade, empregando a definicao.
E[a0 y] = 0 = a0 X = 0 = a0 X = 0 = X 0 a = .
Assim,
1
1
0
0
ou
1 1 1
1 1 1
0 0 0
0 0 0
1 1
0 0
1 1
0 0
1 1
0 0
1 0
0 1
1 1
0 0
0 0
1 1
a1
a2
a3
a4
a5
a6
a7
a8
a9
a10
1
1
0
0
a1 + a2 + a3 + a4 + a5 + a6 + a7 + a8 + a9 + a10 = 1
a1 + a 2 + a 3 + a 4
=1
a
+
a
+
a
=0
5
6
7
a8 + a9 + a10 = 0
4
1/4
1
1/4
1
1/4
1
1/4
0
0
1
0
1
0
0
0
E[a01 y] = a01 E[y] = a01 X = a02 X = 0 = + 1
94
a01 y
0
y11
y12
y13
y14
y11
y22
y23
y31
y32
y33
1
0
E[a01 y] = a01 X = 1 1 0 0
2 = + 1 =
3
(c) Usando os dados observados do Exemplo 4.3.1, duas dentre suas estimativas nao viciadas, sao:
5
4
0
d
= a01 y = 4 1 1 0 ... = 9, 0.
8
10
5
4
0
d
0
= a2 y = 1/4 1/4 0 0 ... = 4, 0.
8
10
95
1
1
1
0 + 2
0
0
+ 3
1
0
1
0
1
0
=
0 1
1
0
1 + 2 + 3
1
=
=0
=1
=1
=0
P3
ao a funcao parametrica
Como nao existem i , tal que,
i=1 i v i = 1 , ent
0
1 nao e estimavel no modelo linear (G.M.).
Por outro lado, a funcao parametrica 02 = 1 2 e estimavel. Pois,
1
1
1 + 2 + 3 = 0
1
0
1
0
0 1
1
= 1
1
0 + 2 1 + 3 0 = 1 =
= 1
2
0
0
3 = 0
1
0
96
10
4
3
3
4
4
0
0
3 3
0 0
3 0
0 3
0 1
1 1
1 0
0 0
02 = + 1
03 = 1 + 2 23 .
1
2
1
0
0
0
0
1
0
0
0
0
1
0
1
1
1
0
23
11
12
1
1
0
1
4
0
0
23
1
0
11
12
10 4 3 3
1
0
4 4 0 0 2 1
3 0 3 0 3 = 0 .
3 0 0 3
4
1
0 0
0 1
4
o
(1) =
0 0
0 0
o(2)
Portanto,
1
3
1
3
=
1
3
97
tomemos:
0 0
0
0 0
1
0
3
0
1
0 13
31
13
7
12
1
3
1
3
2
3
[Xo(1) ]0 = [Xo(2) ]0 =
1
4
1
4
=
0
0
1
0
0
1
0
1
4
1
4
1
4
13
=
0
13
13
7
12
1
3
31
31
e invariante.
Vimos que se 0 e estimavel, ela pode apresentar muitos estimadores nao
viciados, nos modelos de posto incompleto. Veremos agora, que apenas uma
delas e a melhor.
Defini
c
ao 4.4.3 Seja o modelo y = X + e (G.M.) e todas as possveis combinaco
es lineares a0 y, tais que E[a0 y] = 0 . Dentre elas, seja a 0 y. Ent
ao
0
0
a y e definida como o melhor estimador n
ao viesado de se, e somente se,
V [a 0 y] = M in{V [a0 y]},
a0 y : E[a0 y] = 0 .
= 0 X 0 y,
98
(I)
= (0 X 0 0 )V (y)(X )
= (0 X 0 X 0 X 0 0 X + 0 ) 2 .
(II)
=
=
E[(0 X 0 0 )y] = (0 X 0 0 )X
0 X 0 X 0 X = 0 = 0 X 0 X = 0 0 X.
(III).
V [a0 y] = (0 + 0 ) 2 .
(IV )
99
= 1d
2 = o(1) 0 X 0 y = o(2) 0 X 0 y = y1 y2 = 4 9 = 5.
O teorema a seguir fornece uma regra mais operacional, baseada nas equacoes
normais, para a obtencao do BLU E de 0 .
Teorema 4.4.3 (Teorema de Gauss-Markov) Se 0 e estim
avel no mode0
d
lo y = X+e (G.M.), ent
ao o BLUE de 0 e dado por 0 o , isto e,
= o ,
para qualquer o soluca
o das equaco
es ormais.
0 estimavel = : X 0 X = = 0 = 0 X 0 X,
pos-multiplicando por o = 0 o = 0 X 0 X o .
Usando as equacoes normais, tem-se:
0
d
0 o = 0 X 0 y =
.
FATOS:
0 (X 0 X) X 0 y = 0 X 0 X(X 0 X) X 0 y = 0 X 0 XX + y
0 X 0 y.
(b) Atraves do teorema de Gauss-Markov podemos obter uma forma mais operacional para a variancia do BLUE de 0 .
0
d
V [
]
V [0 o ] = V [0 (X 0 X) X 0 y]
0 (X 0 X) X 0 X[(X 0 X) ] 2
0
4, 0
0
d
100
0
d
=
=
1d
3 = 0 o
0
e
0
d
V [
]
0
y1
1
y2 = y1 y3 = 5, 0
y3
V [1d
3 ] = 0 (X 0 X) 2
0
0
0 1/4
0 1 0 1
=
0
0
0
0
7 2
=
12
0
0
1/3
0
0
0
1
0
0 0
1/3
1
4.5
Regras Pr
aticas de Estimabilidade
Na secao anterior estudamos estimacao por ponto baseado no espaco coluna de X 0 (ou no espaco linha de X). Agora, consideraremos algumas regras
praticas, objetivando facilitar o estudo de estimabilidade.
4.5.1
Funco
es B
asicas Estim
aveis
1
1
E[y] = X =
1
1
1
1
0
0
+ 1
0
+ 1
0
1 =
+ 2
1
2
+ 2
1
101
De fato,
E[yij ] = E[ + i + eij ] = + i .
(b) Na caracterizacao yij = + i + j + eij ,
1 1 0 1 0 0
1 1 0 0 1 0
1 1 0 0 0 1
E[y] =
1 0 1 1 0 0
1 0 1 0 1 0
1 0 1 0 0 1
i = 1, 2 e j = 1, 2, 3.
+ 1 + 1
+ 1 + 2
1
2
= + 1 + 3
1
+ 2 + 1
2 + 2 + 2
+ 2 + 3
3
4.5.2
Combinaco
es Lineares de Funco
es Estim
aveis
E[
E[c1 a01 y]
E[c2 a02 y]
..
.
=
=
..
.
c1 a01 X
c2 a02 X
..
.
=
=
..
.
E[cp a0p y]
cp a0p X
Pp
0
`=1 c` a` y]
Pp
0
`=1 c` a` X
c1 01
c2 02
..
.
cp 0p
Pp
0
`=1 c` `
Portanto,
Pp
Pp
w0 = `=1 c` a0` e 0 = `=1 c` 0` , tais que, E[w 0 y] = 0 .
Pp
Entao, 0 = `=1 c` 0` e estimavel.
102
3
X
ci 0i =
i=1
ou simplesmente
1( + 1 ) + 1( + 2 ) + 1( + 3 ) = 3 + 1 + 2 + 3 .
(b) 05 = 21 2 3 = 2( + 1 ) 1( + 2 ) 1( + 3 ). Ou seja,
1
1
1
1
0
0
1 =
0 , 2 = 1 3 = 0 , c1 = 2, c2 = c3 = 1.
0
0
1
Assim,
0
1
0 2
1
0 = 1
1
1
1
1
0
1
5 =
ci i = 2
0 1 1
i=1
0
0
3
X
Portanto,
05 =
ci i ,
i=1
s
X
1
1
2 = 21 2 3
3
Defini
ao 4.5.1 Seja o modelo linear y = X + e (G.M.)
c
0
= 1 k ... 1 s ... 11 ks
Ent
ao as funco
es parametricas do tipo
k
X
c j j ,
k X
s
X
cij ij ,
e seja ,
tal que,
..
. .
etc,
i=1 j=1
s
ao denominadas contrastes se, e somente se,
k
X
i=1
ci =
s
X
cj =
j=1
k X
s
X
cij = 0.
i=1 j=1
1
02 = 1 (2 + 3 ),
2
03 = 31 2 3 4 , etc.
103
Observa
co
es:
(a) Os contrastes formam um subconjunto das funcoes estimaveis, sendo porP
tanto, estimaveis (caso particular onde ` c` = 0, no teorema da combinacao linear).
(b) Sendo 0 estimavel, entao
0
d
= 0 o = 0 (X 0 X) X 0 y =
0
d
V [
] = 0 (X 0 X) 2 =
X 2
i
i yi ,
ri
onde, ri e o n
umero de repeticoes do tratamento i, sao invariantes para
qualquer (X 0 X) .
Considerando-se um modelo com um fator inteiramente casualizado e a inversa condicional mais simples, e facil chegar a esses resultados.
Exemplo 4.5.2 Seja a funca
o parametrica
0 =
1
1
2 = 21 2 3 .
3
0
d
= 0 o = 2
y1 y2 y3 = 8, 0,
2
(2)
5
(1)2
(1)2 2
0
0
0
2
d
V [ ] = (X X) =
= 2 .
+
+
4
3
3
3
4.5.3
5
0
d
Vb [
] = s2 ,
3
onde,
s2 = QM Res.
Usando as Equaco
es Normais
104
X 0 X (lado esquerdo do S.E.N.). Em caso afirmativo, seu BLUE sera dado pela
mesma combinacao linear dos componentes de X 0 y (lado direito do S.E.N.).
No exemplo em questao, temos
64
10 4 3 3
4 4 0 0 1 16
3 0 3 0 2 = 21 .
3
27
3 0 0 3
Seja a funcao parametrica
0 = 1 2 =
1
4
Portanto,
Se considerarmos
1d
2 =
0 = + 3 =
1 1
0
2 3
3
1
1
(16) (21) = 3, 0.
4
3
1
3
teremos
d
+ 3 =
1
3
2 ,
3
1
(27) = 9, 0 = y3 .
3
1
0
2
3
4.5.4
105
Um Teste Alternativo
a0 X(X 0 X) (X 0 X) = a0 [X(X 0 X) X 0 ]X
a0 P X = a0 XX + X = a0 X = 0 .
1 0 0
1
0 0 0 0
0 1 0 1
1 1 0 0
,
e H2 =
H1 =
0 0 1 1
1 0 1 0
0 0 0
0
1 0 0 1
01 H 1 = 01 H 2 = 01 , pois 1 2 e estimavel.
e que
02 H 1 6= 02 e 02 H 2 6= 02 , pois 1 + 2 + 3 nao e estimavel.
4.5.5
Equaco
es Normais Reduzidas e Estimac
ao
de Subconjuntos de Par
ametros
X1
..
.
X2
1
+ e = X 1 1 + X 2 2 + e
2
106
o
X 01 y
X 01 X 1 X 01 X 2
1
X 02 y
o2
X 02 X 1 X 02 X 2
ou
o
o
X 01 X 1 1 + X 01 X 2 2 = X 01 y
X 02 X 1 o1 + X 02 X 2 o2 = X 02 y
(I)
(II)
o
o
0
0
+
0
0
+
0
X 02 X +
1 X 1 X 1 1 + X 2 X 1 X 1 X 2 2 = X 2 X 1 X 1 y =
o
o
0
+
0
+
X 02 X 1 X +
1 X 1 1 + X 2 X 1 X 1 X 2 2 = X 2 X 1 X 1 y =
X 02 X 1 o1 + X 02 P 1 X 2 o2 = X 02 P 1 y,
X 1X +
1
(III)
X 1 (X 01 X 1 ) X 01
onde P 1 =
=
e o projetor ortogonal de y em C(X 1 ).
Subtraindo-se (III) de (II), temos:
X 02 X 1 o1 + X 02 X 2 o2 = X 02 y
X 02 X 1 o1 X 02 P 1 X 2 o2 = X 02 P 1 y
X 02 (I P 1 )X 2 o2 = X 02 (I P 1 )y
1
.
o
2o .
X = X1 . X2 , =
, onde =
o
3o
8 4 4
32
1
3
3
4
7 3 2o =
6 ,
y = X 1 + X 2 + e e
10
10
o
4 3
7
3
26
respectivamente.
Uma solucao de mnimos quadrados para o e dada por:
o
=
=
[X 02 (I P 1 )X 2 ] X 02 (I P 1 )y
0 0 0
32
0
1
3
0 7 3
6 = 3 .
12
10
0 3 7
26
5
107
Observa
co
es:
(a) Sendo (I P 1 ) = (I X 1 X +
1 ) idempotente, podemos escrever
X 02 (I P 1 )(I P 1 )X 2 o2 = X 02 (I P 1 )y.
Fazendo W = (I P 1 )X 2 teremos W 0 W o = W 0 y que tem as caractersticas das equacoes normais, sendo portanto consistente.
(b) Note que X 02 (IP 1 )X 2 tem dimensoes menores que X 0 X. Para o exemplo
em questao a reducao das dimencoes e pequena, porem em modelos mais
parametrizados esta e bastante significativa, facilitando sobremaneira a
obtencao das solucoes. De modo analogo, no estudo de estimabilidade e
na obtencao dos BLUEs e suas variancias. Observe que, num modelo
0
0
mais parametrizado, 0 de 0 , fica reduzida a de , onde 0 e do
tipo:
0 = 0 ... 0 ... 0 ... ... 0 .
No exemplo em questao, temos 0 = 0 ... 0 .
0
=
e
=
.
X1 . X2
1 . 2
.
Entao, o sistema de equacoes normais associados fica:
X 01 X 1 1 + X 01 X 2 2 = (I)
X 02 X 1 1 + X 02 X 2 2 =
(II)
invariante, o2 soluca
o das E.N.A. Alem disso,
0
0
V [d
2 ] = [X 02 (I P 1 )X 2 ] 2 .
108
1 = 3, 0
0
d
2 = 8, 0
0
0 o
d
1 = 1 =
0
V [d
1 ]
7 2
0
d
V [
1 ] =
12
5 2
0
d
V [
2 ] = .
3
0
3 = 3, 0
5
1 [X 02 (I P 1 )X 2 ] 1 2
1
0 0 0
1
1 1 0 0 7 3 1 2
=
12
0
0 3 7
7 2
=
.
12
0
d
0
0 o
2 = 2 = 2 1 1 3 = 8, 0
5
0
V [d
2 ]
4.6
2 [X 02 (I P 1 )X 2 ] 2 2
0 0
1
2 1 1 0 7
=
12
0 3
5 2
=
.
3
2
0
3 1 2
1
7
A An
alise de Vari
ancia
109
y 0 y = o X 0 y + (y 0 y o X 0 y),
(4.4)
SQT otal = y 0 y =
i,j
2
= (5, 0)2 + (4, 0)2 + + (10, 0)2 = 460, 0,
yij
SQP ar. = o X 0 y =
64
16
9
21 = 454, 0
27
=
=
o X 0 y + (y 0 y o X 0 y)
Portanto,
y 0 Iy = y 0 P y + (y 0 Iy y 0 P y)
ou ainda,
y 0 Iy = y 0 P y + y 0 (I P )y,
(4.5)
110
SQP ar. = y 0 P y = y 0 P 0 P y = y
0 y
Mas,
y
= Py =
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
4
1
3
1
3
1
3
1
3
1
3
1
3
1
3
1
3
1
3
1
3
1
3
1
3
1
3
1
3
1
3
1
3
1
3
1
3
5
4
3
4
6
8
7
9
8
10
4
4
4
4
7
7
7
9
9
9
Assim,
SQP ar.
y0P y = y0y
=y
0 y
9
4
4
4
4
7
7
7
9
9
9
= 454, 0,
SQRes = y 0 (I P )y = y 0 (I P )0 (I P )y =
e0
e.
Mas,
e =
(I P )y
Portanto,
3
4
41 41 14
111
0
1 3 1 1
4 4 4 4 0 0 0 0 0 0
1 1 3 1
4 4 4 4 0 0 0 0 0 0
1 1 1 3
4 4 4 4 0 0 0 0 0 0
0 0 0 0 2 1 1 0 0 0
3
3
3
0 0 0 0 1 2 1 0 0 0
3
3
3
0 0 0 0 1 1 2 0 0 0
3
3
3
0 0 0 0 0 0 0 2 1 1
3
3
3
0 0 0 0 0 0 0 1 2 1
3
3
3
0 0 0 0 0 0 0 13 31 32
5
4
3
4
6
8
7
9
8
10
SQRes. = y 0 (I P )y =
e0
e = 6, 0
Observe na Tabela 4.1 do Exemplo 4.3.1 que a variancia da amostra
relativa ao tratamento i, (i=1,2,3), foi obtida a partir da expressao:
P
2
X
y
)
(
ij
1
j
,
y2
s2i =
ri 1 j ij
ri
E[s2i ] = 2 .
Deve ser observado tambem que P e (I P ) sao idempotentes. Isto e,
P P = P e (I P )(I P ) = (I P ). Alem disso, que as formas quadraticas
y 0 P y e y 0 (I P )y sao independentes. Pois, P (I P ) = .
A Defini
c
ao 3.5.4 diz que o n
umero de graus de liberdade de uma soma de
quadrados e dado pelo posto da matriz n
ucleo da forma quadratica correspondente. Assim, para o exemplo que estamos considerando, teremos:
SQT otal = y 0 Iy = g.l.[SQT otal] = r[I (n) ] = r[I (10) ] = 10,
SQP ar. = y 0 P y = g.l.[SQP ar.] = r[P ] = r[XX + ] = r[X] = 3,
SQRes. = y 0 (I P )y = g.l.[SQRes.] = r[I P ] = r[I] r[P ] = 7.
De acordo com o Teorema 3.6.1, tem-se que:
112
SQP ar.
2
2
.
0
0
[r(X ); 212 X X ]
Pois, 0 X 0 P X = 0 X 0 XX + X = 0 X 0 X.
SQRes.
2
y 0 (I P )y
2nr(X ) .
[
]
Uma vez que X 0 (I P )X = 0 X 0 X 0 X 0 XX + X = .
2
0
= , X = X1
..
.
X2
, X 01 =
1
1
X 1 X 01 = E (n) ,
n
n
e uma matriz quadrada de ordem n com todos seus elementos iguais
P 1 = X 1 (X 01 X 1 ) X 01 =
onde E(n)
a um.
Portanto,
SQM edia = y 0 P 1 y =
1 0
y Ey =
n
hP
i,j yij
i2
y..2
=C
n
X
i
ri (
yi. y.. )2 =
X y2
i.
ri
C.
2
y..
n
(64)2
10
SQT rat. =
P3
= 409.6 e
2
yi.
i=1 ri
C =
(16)2
4
(21)2
3
(27)2
3
409.6 = 44, 4.
113
SQT rat
2
y 0 (P P 1 )y
2r(X )1; 1 P r 2 .
[
i i ]
2 2
i
= 0, mostra-se que
X
X
ri (i )2 .
ri i2 =
0 X 0 (P P 1 )X =
i r i i
2
Observe que no modelo de Gauss Markov, sob qualquer hipotese, SQRes.
2
segue distribuicao de qui-quadrado central com n r(X) graus de liberdade e
rat.
sob H0 , SQT
tem distribuicao de qui-quadrado central com r(X) 1 graus
2
de liberdade. Alem de serem independentes. Pois, pode-se verificar que (I
P )(P P 1 ) = .
Por outro lado, os valores esperados das somas dos quadrados sao:
E[SQRes.]
=
=
E[SQT rat.]
E[SQRes.]
nr(X )
= 2
e
E[QM T rat.] =
E[SQT rat.]
r(X )1
= 2 +
ri (i )2
r(X )1
= 2 + f (i ), f (i ) 0.
114
2 + f (i )
E(QM T rat.)
=
= 1.
E(QM Res.)
2
2
(i )
Dessa forma, podemos estabelecer uma regra para verificar se +f
e signi2
ficativamente diferente de 1. Ou seja, se i e significativamente diferente de ,
usando os dados amostrais.
Portanto, visto que a decomposicao y 0 y = y 0 P y + y 0 (I P )y se verifica,
isto e, que a decomposicao cumpre com as condicoes do Teorema de Cochran e
que
y 0 (I P )y
QM Res.
=
2[nr(X )]
[n r(X)]
2
e, sob H0 ,
SQT rat. = [r(X) 1]
y 0 (P P 1 )y
QM T rat.
=
2[r(X )1] .
2
QM T rat.
F[r(X )1; nr(X )]
QM Res.
rat
segue uma distribuicao
Em palavras, visto que, sob H0 , a estatstica SQT
2
de qui-quadrado central com t = r(X) 1 e que independentemente de H0
a estatstica SQRes
segue uma distribuicao de qui-quadrado central com r =
2
n r(X), alem de serem independentes. Entao a estatstica F segue uma distribuicao F de Snedecor e Fisher central com t graus de liberdade do numerador
e r graus de liberdade do denominador. A regra de decisao sera, rejeitar H0
quando o valor da estatstica F for maior que o correspondente valor teorico da
distribuicao F com t e r graus de liberdade ao nvel de significancia .
Se QM T rat. for muito maior que QM Res., o valor de F sera muito maior que
1, tao maior que ultrapassara o valor crtico da distribuicao F[t ; r , ] (valores
que ja se encontram tabelado a um dado nvel de significancia), localizando-se
na regiao de rejeicao de H0 . Esse fato ocorre conforme ilustra a Figura 4.2.
115
GL
r(X 1 ) = 1
SQ
409,60
QM
Tratamento
Parametros
r(X) 1 = 2
r(X) = 3
44,40
454,00
22,2000
25, 90
Resduo
Total
n r(X) = 7
n = 10
6,00
460,00
s2 = 0, 8571
Observe que
F =
22, 2000
QM T rat.
=
= 25, 90.
QM Res.
0, 8571
116
4.6.1
N (0 , 0 (X 0 X) 2 )
e que
0
d
B
Nr(B ) (B 0 , B 0 (X 0 X) B 2 )
[B 0 (X 0 X) B]1 = A0 A = B 0 (X 0 X) B = A1 A0
0
d
1
E[AB
1
2 AV
Segue que,
0
d
A(B
B 0 )
.
AB 0 ] =
0
d
[B
]A0 =
1 0 1 0 2
1
A A
2 AA
= I.
Q0 Q 2r(B ) .
Isto e,
Q0 Q =
0
0
d
d
(B
B 0 )0 [B 0 (X 0 X) B]1 (B
B 0 )
2[r(B )] .
2
Sabemos que
SQRes. = y 0 (I P )y
1 0
y (I P )y 2[nr(X )] .
2
117
Alem disso,
Q0 Q e
y 0 (I P )y
Q0 Q/r(B)
F[r(B ) ; nr(X )] .
QM Res.
Defini
c
ao 4.6.1 (Soma de Quadrados de Hip
otese) A forma quadr
atica
0
0
d
d
do tipo (B
B 0 )0 [B 0 (X 0 X) B]1 (B
B 0 ) e definida como soma de
quadrados devida a hip
otese Ho : B 0 = `. Como estamos interessados nas
hip
oteses do tipo Ho : B 0 = , ent
ao
0 0
0
d
d
SQHo = (B
) [B 0 (X 0 X) B]1 (B
)
1
Ho : B 0 = 1
1
1
0
0
0
1
0
Nesse caso,
0
1
+ 1
0
1
= + 2 = 2 = 0
0
2
3
+ 3
0
1
3
1
0
d
B
= B 0 o = 1
1
e
B 0 (X 0 X) B
1
0
0
0
1
0
0
0
4
4
= 7
0
7
1
9
9
1 1 0 0
1 0 1 0
1 0 0 1
1
0 0
4
0 1 0 .
3
0 0 13
0
0
0
0
0
1
4
0
0
0
0
1
3
0
1
1
0
0 0
1
0
3
1
0
1
0
1
0
0
1
118
4
0
0
0
4
0 7
3
9
0
3
0
2 + 3
Ho(2) : 21 = 2 + 3 Ho(2) : 21 + 2 + 3 = 0.
2
Obviamente, teremos
H0 : B 0 =
0
0
0
2
1
1
1
1
Alem disso,
0
d
B
= B 0 o =
0
0
1
0
2 + 3
=
=
.
2
0
21 + 2 + 3
3
0
2
1
1
1
1
e
B 0 (X 0 X) B =
=
0
0
0
2
1
1
1
1
0
0
0
0
0
1/4
0
0
0
0
1/3
0
0
4
2
=
7
8
9
0
0
0
0
0 1
1/3
1
0
2
1
1
=
Portanto,
2/3
3/5
SQH0
119
3/2
2
8
0
3/5
3 2 3 2
(2) + (8) = 6, 00 + 38, 4 = 44, 4 = SQT rat.
2
5
X 2
i
ri
, i .
No exemplo,
a11 =
(1)2
3
(1)2
3
= 23 ,
a22 =
(2)2
4
(1)2
3
(1)2
3
= 53 .
GL
1
SQ
6,00
QM
6,0000
F
7, 00
3
Ho : 1 = 2 +
2
(3)
Tratamento (H0 : 1 = 2 = 3 = )
1
2
38,40
44,40
38,4000
22,2000
44, 80
25, 90
Resduo
Total
7
9
6,00
50,40
s2 = 0, 8571
-
(2)
120
Conclus
ao: A hipotese Ho foi rejeitada ao nvel de 5% de significancia pelo
(2)
(3)
teste F enquanto que as hipoteses Ho e Ho foram rejeitadas ao nvel
de 1%.
4.7
121
Estimac
ao por Intervalo
N (0 , 0 (X 0 X) 2 ).
0
d
Uma estimador para V [
] e obtido de
0
d
Vb [
] = 0 (X 0 X) s2 ,
onde s2 = QM Res.
0
d
Alem disso, o teorema a seguir garante a indepedencia entre
e QM Res.
Teorema 4.7.1 Se 0 e estim
avel no Modelo Linear de Gauss-Markov, ent
ao
0
d
0
e y (I P )y s
ao independentes.
0
d
Prova: Sabemos que
= 0 X 0 y. Alem disso,
0 X 0 (I P )
=
=
0 X 0 (I XX + ) = 0 X 0 0 X 0 XX +
0 X 0 0 X 0 = .
0
d
Portanto,
e y 0 (I P )y. sao independentes.
Z=p
Entao,
E[Z] = p
V [Z] =
Portanto,
0 X 0 0 X 0 (XX + )0 = 0 X 0 0 X 0 X + X 0
0
d
0 (X 0 X) 2
(X
Z=p
X) 2
0
d
E[
0 ] = 0
1
0 (X 0 X) 2
0
d
0 (X 0 X) 2
!2
0
d
V [
] = 1.
N (0, 1).
0
d
0 (X 0 X) s2
t[nr(X )] .
122
P r t 2 p
0
d
0 (X 0 X) s2
t 2
= 1 ,
1 = 1 = 0 0 1 1
7 =2
9
0
0 o
d
2 = 2 =
0
4
1
7 = 8, 00,
9
2
5
, 2 0 (X 0 X) 2 = e s2 = QM Res. = 0, 8571.
3
3
Portanto,
"
IC(2 + 3 )[99%] : 2, 00 3, 50
#
2
(0, 8571) = [2, 00 2, 65]
3
e
"
IC(21 + 2 + 3 )[99%] : 8, 00 3, 50
#
5
(0, 8571) = [8, 00 4, 18]
3
Observe que o IC(2 0 )[99%] nao contem o ponto zero, enquanto que o
IC(1 0 )[99%] contem o ponto zero concordando com os resultados obtidos para
os testes das hipoteses desses contrastes na Tabela 4.3.
4.8
123
Hip
oteses Equivalentes
Para o melhor aproveitamento das vantagens que a SQHo oferece, e conveniente introduzirmos o conceito de Hip
oteses Equivalentes. Note que na SQH o ,
0
0
temos B , onde B e de posto linha completo, cujas linhas escolhidas podem
ser ortogonais.
(1)
(2)
Defini
c
ao 4.8.1 Sejam Ho : B 0 = e Ho : A0 = , duas hip
oteses
lineares test
aveis. Dizemos que elas s
ao equivalentes se, e somente se, existir
uma matriz n
ao singular R, tal que RA0 = B 0 .
(2)
(1)
Teorema 4.8.1 Se Ho e Ho
crticas s
ao coincidentes.
s
ao hip
oteses equivalentes, ent
ao suas regi
oes
(B 0 )0 [B 0 (X 0 X) B]1 (B 0 )
(ii)
H0
onde:
(2)
: A0 = , H0
(3)
: B 0 = , H0
(4)
: C 0 = , H0
: D 0 = ,
124
A0 =
0
0
1
1
B0 =
0
0
1
0
C=
0
0
0
2
D0 =
1
0
0
1
0 1
1 3
1 =
;
1 2
1
0 2
3
1 2
1
0
1 =
;
2 3
1 1 2
3
2 3
1 1
1 =
;
21 2 3
1 1 2
3
+ 1
1
0
1 =
.
1 3
0 1 2
3
(1)
(4)
0 1
.
R1 = A0 D(D 0 D)1 =
1
1
2 2
Mas,
(1)
R1 D 0 =
21
1
2
12
12
(4)
6= A0 .
R2 = A0 C(C 0 C)1 =
R2 C 0 =
21
1
2
0
(1)
= A0 .
(2)
(3)
125
(1)
(a) Em H0 : A0 = ,
1 = 3
1 3 = 0
= 1 = 2 = 3 .
=
1 = 2
1 2 = 0
(2)
(b) Em H0 : B 0 = ,
1 2 = 0
1 = 2
=
= 1 = 2 = 3 .
2 3 = 0
2 = 3
(3)
(c) Em H0 : C 0 = ,
2 3 = 0
2 = 3
2 = 3
1 = 2 = 3
21 2 3 = 0
21 22 = 0
1 = 2
4.9
Estimac
ao Por Regi
ao
Consideraremos aqui o problema relativo a` construcao de regioes de confianca para um conjunto de p funcoes estimaveis linearmente independentes.
Para tanto, sejam p B 0 ` , esse conjunto, onde B 0 tem posto linha completo.
Vimos que:
Q=
1 d
0
d
(B 0 B 0 )0 [B 0 (X 0 X) B]1 (B
B 0 ) 2[r(B )] ,
2
0
0
d
d
(B
B 0 )0 [B 0 (X 0 X) B]1 (B
B 0 )
F[p; nr(X ); ] ,
ps2
126
Exemplo 4.9.1 Tomando o Exemplo 4.3.1 e admitindo que estamos interessados em construir uma regi
ao de confianca - RC, para o conjunto das funco
es
estim
aveis: B 0 , onde
1
2 + 3
0
0 1 1
1
0
.
=
=
B=
2
21 + 2 + 3
0 2
1 1 2
3
Admitindo = 0, 01, vamos ter:
(i) ps2 F[2 ; 7 ; 0,01] = (2)(0, 8571)(9, 55) = 16, 3706. Alem disso,
3/2
0
(ii) [B 0 (X 0 X) B]1 =
e
0
3/5
2
0
d
(iii) B
= B 0 o =
.
8
ou
ou ainda,
(1 2)2
(2 8)2
+
1.
10, 9137
27, 2843
127
Y2
14
12
10
8
6
4
2
-2
-1
Y1
128
2k
pq ,
x=
x1
x2
Assim, teremos:
ou
y1
y2
cos
sen
sen
cos
x1
x2
y1 = x1 cos x2 sen
.
y2 = x1 sen + x2 cos
0 1
0 1
1 = 1 + 3 = 1 .
B0 =
0
0 1 1 2
2 + 3
2
3
129
5 1
2 2
2, 4
1, 2
1, 2
2, 1
ou
x1
x2
2, 4
1, 2
1, 2
2, 1
5 1
2 2
16, 3706.
x1
x2
16, 3706
x1
x2
1 5
2 2
(4.6)
na inequacao
(4.7)
2 1, 2
= 8 = 2 = 82, 875 = = 41, 4375.
2, 4 2, 1
y1
y2
3, 4594
0
0
1, 0407
y1
y2
16, 3706
(4.8)
130
Z2
6
4
2
3
Z1
-2
Figura 4.4: Regiao com coeficiente de confianca conjunta de 99% para B 0 ,
delimitada pela elipse de centro C(5 ; 2) e semi-eixos a = 2, 18 e b = 3, 97
ou
3, 4594y12 + 1, 0407y22 16, 3706.
(4.9)
4
0 o
0
0 1 0 1
d
1 = 1 =
7 =5
9
0 0
0
d
2 = 2 =
0
4
1
7 = 2,
9
7
2
, 2 0 (X 0 X) 2 = e s2 = QM Res. = 0, 8571.
12
3
131
Portanto,
"
"
IC(1 + 3 )[99%] : 5, 00 3, 50
e
IC(2 + 3 )[99%] : 2, 00 3, 50
#
7
(0, 8571) = [2, 53 ; 7, 47]
12
#
2
(0, 8571) = [0, 65 ; 4, 65] .
3
vs H(1) : 01 = 1 + 3 6= 0
Ho(2) : 02 = 2 + 3 = 0
vs H(2) : 02 = 2 + 3 6= 0,
e
procedemos do seguinte modo:
Calculamos:
t1 = p
0
d
|
1 0|
01 (X 0 X) 1 s2
t2 = p
0
d
|
2 0|
02 (X 0 X) 2 s2
=q
=q
|5 0|
7
12
|2 0|
2
3
= 7, 071
0, 8571
= 1, 528.
0, 8571
132
Lista de Exerccios # 5
Os valores observados de uma variavel resposta num experimento inteiramente
casualizado foram os seguintes:
Tratamento
Ti
T1
T2
T3
Geral
Repeticoes
R1 R2 R3
4
3
2
3
4
5
6
7
8
-
Total
yi.
9
12
21
42
Media
yi
3,00
4,00
7,00
4,67
Variancia
s2i
1,00
1,00
1,00
-
(b) o2 = (X 0 X)
2 Xy,
(d) o4 = X ` y.
133
5.14 Calcule:
..
.
X2
e P 1 = X 1 (X 01 X 1 ) X 01 .
SQP ar
2 ,
(b)
SQT rat
2
(c)
SQRes
2 .
5.17 Encontre:
(a) E[QM T rat],
5.18 Com relacao ao item anterior, qual a hipotese natural a ser testada?
5.19 Preencha a tabela a seguir:
134
F. Variacao
Media
Tratamentos
Parametros
Resduo
Total
GL
r[P 1 ] =
SQ
y0P 1y =
QM
r[P P 1 ] =
y 0 (P P 1 )y =
r[P ] =
y0P y =
y 0 (P P 1 )y
=
r[P P 1 ]
y0 P y
=
r[P ]
r[I P ] =
y 0 (I P )y =
y 0 (I P )y
=
r[I P ]
r[I] =
y 0 Iy =
5.20 Encontre estimativas por ponto (blue) e por intervalo ( = 0, 05) para as
funcoes parametricas:
(a) 01 = 1 2 ,
(b) 02 = 2 3 ,
(c) 03 = + 1 ,
(d) 04 = + 2 .
(a) Ho
: 1 = 2
(2)
(b) Ho
: 2 = 3 .
1
B 0 = .
02
5.25 Construa o elipsoide de confianca ( = 0.01) para as funcoes parametricas
do item 5.24.
135
GL
r[P 1 ] =
SQ
y0P 1y =
QM
r[P P 1 ] =
y 0 (P P 1 )y =
r[P ] =
y0P y =
y 0 (P P 1 )y
=
r[P P 1 ]
y0 P y
=
r[P ]
r[I P ] =
y 0 (I P )y =
y 0 (I P )y
=
r[I P ]
(1)
: 1 = 3
r[1 ] =
(2)
1 +3
2
r[2 ] =
Ho
Ho
= 2
Tratamentos
Parametros
Resduo
Total
y 0 Iy =
r[I] =
(1)
(2)
Ho(1) : B 01 =
B 01
B 02
Ho(2) : B 02 = ,
=
0
0
0
0
1
1
1
0
1
1
0
2
0
1
1
,
1
onde,
=
2
3
+ 2 ,
+ 3 .