You are on page 1of 139

UEPB - CCT - DME

DE ESTATISTICA
COORDENAC
AO

Modelos Lineares
(Notas de Curso)

o Gil de
Texto elaborado pelos professores Dr. Joa
Luna e Dra. Divanilda Maia Esteves, utilizado
na disciplina: Modelos Lineares do curso de Bacharelado em Estatstica da UEPB, para o perodo 2009.1.

CAMPINA GRANDE
Estado da Paraba - Brasil
2009

Luna, J. G. & Esteves, E. M.


SUMARIO

1 T
opicos de matrizes
1.1 Definicoes . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Tipos de matrizes . . . . . . . . . . . . . . . . . . . . .
1.3 Operacoes basicas com matrizes . . . . . . . . . . . . .
1.4 Particao de matrizes . . . . . . . . . . . . . . . . . . .
1.5 Formas escalonadas . . . . . . . . . . . . . . . . . . . .
1.6 Formas escalonadas canonicas . . . . . . . . . . . . . .
1.7 Posto ou rank de uma matriz . . . . . . . . . . . . . .
1.8 Inversa de matrizes nao singulares . . . . . . . . . . .
1.9 Diagonalizacao de matrizes reais . . . . . . . . . . . .
1.10 Autovalores e autovetores . . . . . . . . . . . . . . . .
1.11 Vetores ortogonais . . . . . . . . . . . . . . . . . . . .
1.12 Fatoracao de matrizes . . . . . . . . . . . . . . . . . .
1.13 Decomposicao de matrizes . . . . . . . . . . . . . . . .
1.13.1 A decomposicao espectral . . . . . . . . . . . .
1.13.2 A decomposicao em valores singulares . . . . .
1.14 Lista de exerccio # 1 . . . . . . . . . . . . . . . . . .
1.15 Inversas generalizadas de matrizes reais . . . . . . . .
1.15.1 A Inversa generalizada de Moore-Penrose, A+
1.15.2 Inversa generalizada condicional . . . . . . . .
1.15.3 Inversa generalizada de mnimos quadrados . .
1.16 Lista de exerccios # 2 . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

1
1
2
4
8
9
9
10
12
13
15
17
19
25
26
27
29
34
34
39
41
43

2 Solu
co
es de Equa
co
es Lineares
47
2.1 Introducao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.2 Consistencia e Solucao . . . . . . . . . . . . . . . . . . . . . . . . 47
2.3 Solucao Aproximada . . . . . . . . . . . . . . . . . . . . . . . . . 54
3

Luna, J. G. & Esteves, E. M.


2.4
2.5

A Melhor Solucao Aproximada . . . . . . . . . . . . . . . . . . .


Solucao Aproximada de Mnimos
Quadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3 Formas Quadr
aticas
3.1 Conceito . . . . . . . . . . . . . . . . . .
3.2 Casos de Interesse Para Estatstica . . .
3.3 Classificacao de Formas Quadraticas . .
3.4 Derivadas de Formas Quadraticas . . . .
3.5 Valor Esperado e Matriz de Dispersao .
3.6 Distribuicao e Independencia de Formas
Quadraticas Sob Normalidade . . . . . .

57
57

.
.
.
.
.

63
63
64
64
68
70

. . . . . . . . . . . . . .

73

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

4 Introdu
c
ao aos Modelos Lineares
4.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . .
4.2 Localizacao do Problema Fundamental . . . . . . . . .
4.3 O Modelo Linear . . . . . . . . . . . . . . . . . . . . .
4.3.1 Defincao e Exemplos . . . . . . . . . . . . . . .
4.3.2 O Modelo Linear de Gauss-Markov (G.M.) . .
4.3.3 O Sistema de Equacoes Normais (S.E.N.) . . .
4.4 Estimacao em Modelos Lineares . . . . . . . . . . . . .
4.5 Regras Praticas de Estimabilidade . . . . . . . . . . .
4.5.1 Funcoes Basicas Estimaveis . . . . . . . . . . .
4.5.2 Combinacoes Lineares de Funcoes Estimaveis .
4.5.3 Usando as Equacoes Normais . . . . . . . . . .
4.5.4 Um Teste Alternativo . . . . . . . . . . . . . .
4.5.5 Equacoes Normais Reduzidas e Estimacao
de Subconjuntos de Parametros . . . . . . . . .
4.6 A Analise de Variancia . . . . . . . . . . . . . . . . . .
4.6.1 Soma de Quadrados da Hipotese Ho : B 0 =
4.7 Estimacao por Intervalo . . . . . . . . . . . . . . . . .
4.8 Hipoteses Equivalentes . . . . . . . . . . . . . . . . . .
4.9 Estimacao Por Regiao . . . . . . . . . . . . . . . . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

81
81
81
82
82
85
89
91
100
100
101
103
105

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

105
108
116
121
123
125

Captulo 1

T
opicos de matrizes
Neste primeiro captulo procuraremos intruzir alguns conceitos de matrizes
e para facilitar a aprendizagem procuraremos exemplificar o maximo possvel.

1.1

Defini
co
es

Defini
c
ao 1.1.1 (Matriz) e, em geral, um arranjo retangular de elementos
em linhas e colunas.
Neste curso, uma matriz sera denotada por letras mai
usculas em negrito e
sera constituda de elementos pertencentes ao conjunto dos n
umeros reais.
Exemplo 1.1.1 S
ao exemplos de matrizes:

A=

2
0

3
2

1
3

B=

1
3

2
5

1
C= 1
1

1
1 .
0

o par ordenado de n
Defini
c
ao 1.1.2 (Dimens
ao) E
umeros naturais que descreve o n
umero de linhas e o n
umero de colunas de uma matriz.
Denotaremos as dimensoes das matrizes A, B e C, citadas anteriormente,
por:
ou A(23) a matriz A tem duas linhas e tres colunas;
B (22) ou B (2) a matriz B tem duas linhas e duas colunas;
es linhas e duas colunas.
3 C 2 , ou C (32) a matriz C tem tr
2 A3

2B2,

Luna, J. G. & Esteves, E. M.

Forma Geral: De modo geral, uma matriz A com m


denotada como:

a11 a12 a1n


a21 a22 a2n

..
.
..
m An =
..
..
.
.
.
am1 am2 amn
ou simplesmente

linhas e n colunas e

A = (aij ),
onde i = 1, 2, , m e o ndice de linhas e j = 1, 2, , n e o ndice de
colunas.

1.2

Tipos de matrizes

Defini
c
ao 1.2.1 (Matriz quadrada) Se
matriz quadrada e e denotada por:
m An

m An

tem m = n, ent
ao m An e uma

= A(n) .

a matriz quadrada A(n) que tem nuDefini


c
ao 1.2.2 (Matriz triangular) E
los todos os elementos abaixo ou acima da diagonal. Isto e,

b11 b12 b1n


c11
0
0
0 b22 b2n
c21 c22
0

B (n) = .
C
=

.
.
.
.
.. .
(n)
.. . . .
..
..
.. . . .
..

.
0
0 bnn
cn1 cn2 cnn
Aqui, B (n) e triangular superior e C (n) e triangular inferior.

Defini
c
ao 1.2.3 (Matriz diagonal) A matriz D (n) = (dij ) e uma matriz
diagonal se, e somente se, dij = 0, para todo i 6= j.
Isto e,

D (n) =

d11
0
0 d22
.. . .
..
.
.
.
0
0

0
0
..
.
dnn

= diag{d11 , d22 , , dnn }

toda matriz diagonal tal que dii = 1.


Defini
c
ao 1.2.4 (Matriz identidade) E
Exemplo 1.2.1 A matriz I (n) a seguir, representa uma matriz identidade de
tamanho n.

Luna, J. G. & Esteves, D. M.

I (n) =

1 0
0 1
.. ..
. .
0 0

..
.

0
0
..
.

= diag{1, 1, , 1}.

Denotaremos sempre a matriz identidade por I (n) e quando for conveniente


denotaremos simplesmente por I.
Defini
c
ao 1.2.5 (Matriz sim
etrica) Se uma matriz quadrada A(n) = (aij )
tem aij = aji , para todo par (i, j), ent
ao A(n) e uma matriz simetrica.
Exemplo 1.2.2 A matriz A dada a seguir e simetrica,

5
A= 2
3

2
9
1

3
1 .
4

Pois, a12 = a21 = 2, a13 = a31 = 3 e a23 = a32 = 1.


Defini
c
ao 1.2.6 (Matriz transposta) Dada uma matriz
transposta, denotada por A0 ou At , e dada por:

m An

= (aij ), sua

A0 = At = (aji ).
Exemplo 1.2.3 Seja A uma matriz, tal que

2 A3

2
5

3
1

1
2

. Entao, a transposta de A e: 3 A0 2

Defini
c
ao 1.2.7 (Matriz nula) Se
A e uma matriz nula.

m An

2 5
= 3 1 .
1 2

= (aij ) tem aij = 0, (i, j), ent


ao

Denotaremos a matriz nula por .


Defini
c
ao 1.2.8 (Matrizes iguais) A matriz
m B n = (bij ) se, e somente se, aij = bij , (i, j).

m An

= (aij ) e igual a matriz

caracteriDefini
c
ao 1.2.9 (Matriz com todos elementos iguais a um) E
zada por:
eij = 1, (i, j).
m E n = (eij ), onde,
Neste curso, tal matriz sera denotada por E.

Luna, J. G. & Esteves, E. M.

Defini
c
ao 1.2.10 (Matriz bloco diagonal:) Tem
seguinte exemplo,

a b 0 0 0 0 0
c d 0 0 0 0 0

0 0 e f g 0 0

A=
0 0 a b g 0 0
0 0 w x z 0 0

0 0 0 0 0 c d
0 0 0 0 0 x z

aspecto de acordo com o

Defini
c
ao 1.2.11 (Vetor) Se uma matriz m An e tal que m = 1 ou n = 1,
ent
ao
e um vetor coluna
m A1
e
1 An

e um vetor linha.

Aqui, sempre que mensionarmos o termo vetor estaremos nos referindo a vetor
na forma de coluna e sera denotado por letras min
usculas em negrito. Em
estatstica e comum utilizarmos

y1
y2


y =m y 1 = . ; y 0 = 1 y 0m = y1 y2 ym .
..
ym
Obs.: O vetor nulo sera denotado por .

1.3

Operaco
es b
asicas com matrizes

Defini
c
ao 1.3.1 (Adi
c
ao) Dadas as matrizes m An = (aij ) e m B n = (bij ),
define-se a soma entre elas como a matriz m C n =m An + m B n = (cij ), tal que
cij = aij + bij , (i, j).
Exemplo 1.3.1 Sejam as matrizes:
A=

2
1

1
a

0
3

Entao,
C =A+B =

B=

r+2
1

r 1
0 2

0
a2

1
6

1
3

Algumas propriedades:
Sejam m An = (aij ), m B n = (bij ) e m C n = (cij ) matrizes reais. Em relacao
a adicao temos as seguintes propriedades:

Luna, J. G. & Esteves, D. M.

P.1) Comutativa:
m An

+ m B n = m B n + m An ;

P.2) Associativa:
m An

+ m B n + m C n = (m B n + m An ) + m C n = m An + (m B n + m C n );

p.3) Elemento neutro: Se

m n

e uma matriz nula e

e qualquer, entao,

m An

A + = + A = A;
Defini
c
ao 1.3.2 (Subtra
c
ao) Dadas as matrizes
(bij ), definimos:

= (aij ) e

m An

1)

m C n = m An

m B n = (cij ), onde cij = aij bij , (i, j).

2)

m D n =m B n

m An = (dij ), onde dij = bij aij , (i, j).

mBn

Note que, em relacao a subtracao, a propriedade comutativa nao e valida.


Exemplo 1.3.2 Sejam as matrizes A e B, tais que

2
A= 1
3

a
10
0 ; B = 20
1
30

40
50 .
60

Entao, com relacao a subtracao, teremos:

8
8 a 40
C = A B = 19 50 e D = B A = 19
33
33 59

40 a
50 .
59

Defini
c
ao 1.3.3 (Multiplica
c
ao por escalar) Sejam um escalar e m An
uma matriz, define-se o produto escalar A = A, como a matriz m B n = (bij ),
onde bij = aij = aij , (i, j).
Exemplo 1.3.3 Consideremos o escalar e a matriz A, dados a seguir:

=3

A=

Entao, B = A e dado por:



 
1 2
1
B = 3.
=
3
a
3

1
3

2
a

2
a


.3 =

3
9

6
3a

Luna, J. G. & Esteves, E. M.

Defini
c
ao 1.3.4 (Multiplica
c
ao entre matrizes) Dadas as matrizes reais
m An = (aij ) e n B p = (bjk ), define-se o produto R = AB como a matriz
Pn
m Rp = (rik ), onde rik =
j=1 aij bjk .
Exemplo 1.3.4 Sejam as matrizes A e B, dadas por:

Entao,

a11

a
A
=
21
3 2
a31


a12
b11
a22 e 2 B 4 =
b21
a32

r11

r21
A
B
=
R
=
3 22 4
3 4
r31

onde,

r12
r22
r32

b12
b22

r13
r23
r33

b13
b23

b14
b24

r14
r24 ,
r34

r11 = a11 b11 + a12 b21


r12 = a11 b12 + a12 b22
r13 = a11 b13 + a12 b23
e assim por diante.
Regra pr
atica: Tomando-se a primeira matriz em forma de vetores linha e a
segunda em forma de vetores coluna, teremos:

L1 C 1 L1 C 2 L1 C 3 L1 C 4
= L2 C 1 L2 C 2 L2 C 3 L2 C 4
3 A2 2 B 4 = 3 R 4
L3 C 1 L3 C 2 L3 C 3 L3 C 4

r11 r12 r13 r14


= r21 r22 r23 r24 ,
r31 r32 r33 r34

onde rik = Li Ck e a soma dos produtos dos elementos da linha i da primeira


matriz, pelos elementos correspondentes da coluna k da segunda.
Exemplo 1.3.5 Sejam A e B matrizes, tais que

A=

2
1

1
2

0
3

1
; B= 1
1


1
1

2
. Entao, AB =
0
3

0
4

Defini
c
ao 1.3.5 (Soma direta) Dadas as matrizes m An e r B s , definimos
sua soma direta como


A
AB =
= m+r C n+s
B

Luna, J. G. & Esteves, D. M.

Exemplo 1.3.6 Sejam as matrizes A e B, tais que

A=

Entao,

eB=

1
AB = 0
0

2
0
0

3
0
0


0
6
4

6
4

7
1

0
7
1

Defini
c
ao 1.3.6 (Produto direto) Dadas as matrizes m An e r B s , define-se
o produto direto ou produto de Kronecker de A por B como a matriz mr C ns ,
tal que

a11 B a12 B a1n B


a21 B a22 B a2n B

C =AB =

..
..
..
..

.
.
.
.
am1 B

am2 B

amn B

Exemplo 1.3.7 Sejam as matrizes A e B e o vetor v, tais que

A=

1
0

0
1

, B=

x y
y x

Entao teremos:

x
y

AB =
0
0

y 0
x 0
0 x
0 y

1
2

3
Av =
0

0
0

1
e v = 2 .
3

0
e BA=

y
x

0
e vA=

2
3

x
0
y
0

0
x
0
y

1
0
2
0
3
0

0
1
0
2
0
3

y 0
0 y
,
x 0
0 x

Defini
c
ao 1.3.7 (Pot
encia de matrizes) Dada a matriz quadrada A(n) e
um n
umero inteiro e positivo k, define-se a k-esima potencia de A por:
Ak = AAA
{z A}
|
k vezes

Searle(1982), em analogia com os reais, define A0(n) = I (n) .

Luna, J. G. & Esteves, E. M.

Exemplo 1.3.8 Seja a matriz A, tal que

A3



7 10
,
Entao, A2 = AA =
15 22


37
54
A2 A =
e, assim por diante.
81 118


1
3

2
4

Defini
c
ao 1.3.8 Dada a matriz quadrada A(n) , ent
ao, em relaca
o a sua
potencia, ela ser
a:
1. Idempotente, se A2 = A;
2. Nilpotente, se A2 = ;
3. Unipotente, se A2 = I.
Exemplo 1.3.9 As matriz A, B e C dadas a seguir, s
ao:

2 1
1
1
2
A=
3
1 1

1
1 e idempotente,
2

1
3
7
6 14 e nilpotente,
B= 2
1 3 7

1 0
2
3
0 1
4
5
e unipotente.
C=
0 0 1
0
0 0
0 1

1.4

Partic
ao de matrizes

Dada a matriz
Por exemplo:

m An ,

podemos particiona-la conforme nossas conveniencias.

X=

1
1
1
1
1
1

1
1
1
0
0
0

0
0
0
1
1
1

1
0
0
1
0
0

0
1
0
0
1
0

0
0
1
0
0
1

Luna, J. G. & Esteves, D. M.

podemos particiona-la do seguinte modo

X=

X1

X2

X3

X 01
X 0 X = X 02
X 03

Isto e,

X1

X2

0
XX=

1.5


=

X3

6
3
3
2
2
2

3
3
0
1
1
1

1
1
1
0
0
0

1
1
1
1
1
1

0
0
0
1
1
1

1
0
0
1
0
0

X 01 X 1
= X 02 X 1
X 03 X 1
3
0
3
1
1
1

2
1
1
2
0
0

2
1
1
0
2
0

2
1
1
0
0
2

0
1
0
0
1
0

0
0
1
0
0
1

X 01 X 3
X 02 X 3 .
X 03 X 3

X 01 X 2
X 02 X 2
X 03 X 2

Formas escalonadas

Uma matriz esta na forma escalonada se ela tiver as seguintes caractersticas:


1. O 1o elemento da 1a coluna e sempre zero ou um. Se ele for um, este sera
um lder;
2. Toda coluna que tem lder tem todos os outros elementos nulos;
3. O um lder da linha i esta sempre a` esquerda (numa coluna anterior) aos 1s
lderes das proximas linhas.
Exemplo 1.5.1 As matrizes A, B e C a seguir, est
ao na forma escalonada:

1
A= 0
0

1.6

0
1
0


0
1
0 , B =
0
1

0
1

0
1

x
x

1
, C= 0
0

0
1
0

x
x .
0

Formas escalonadas can


onicas

A matriz m An esta na forma escalonada canonica se estiver na forma escalonada com todas as linhas nulas abaixo das linhas nao nulas.

10

Luna, J. G. & Esteves, E. M.

Exemplo 1.6.1 A matriz A(3) est


a na forma escalonada can
onica.

A(3)

1
= 0
0

0
1
0

4
Exemplo 1.6.2 Dada a matriz A = 2
2
escalonada can
onica do seguinte modo:

4
2
2

4
0
0


2
4
2
0 4 4
2
4
0

2 2
4
0
2 2 0 2
0 0
0
0

1
1 .
0
2
2
0

2
0 , podemos obter a sua forma
2

2
4
2
2
0 0 2
2
4
0
2 2

4
1 0
1
2 0 1 1 = H.
0
0 0
0

2
2
0

Portanto, H e uma forma escalonada canonica de A.

Defini
c
ao 1.6.1 (Forma de Hermite - H) Uma matriz A(n) est
a na forma
de Hermite, se estiver na forma escalonada can
onica e os lderes ocupam a
diagonal principal.
Exemplo 1.6.3 A matriz A(3) a seguir, est
a na forma de Hermite.

A(3)

1.7

1
= 0
0

0
1
0

1
1 .
0

Posto ou rank de uma matriz

Defini
c
ao 1.7.1 (Posto de uma matriz) Dada uma matriz m An , definimos
o posto de A , denotamos por r(A), o n
umero de linhas n
ao nulas de sua forma
escalonada can
onica.
Exemplo 1.7.1 Dada a matriz

4
A= 2
2

2
2
0

2
0 .
2

Luna, J. G. & Esteves, D. M.

11

Usando o algoritmo de Gauss obtem-se a segunte forma:


A

Assim, teremos


I =

4 2

2 2

2 0
H

Segue que:

2


0
0

1
0

1
2

21

12

1
0

1 1

1. H e a forma de Hermite de A e r(A) = 2;


2. LA = H. Isto e,

LA

1
2

12

1
2

1
0

2
1 1 1

1 0
1
0 1 1 = H;
0 0
0

2
2
0

3. ALA = A, ou seja

ALA

=
Segue, ainda, que

4
2
2

2
2
0
2
2
0

1
2

0
2

2
1

2
0 = A.
2

12

1
0
2

2
1 1

2
2
0

4. Se A(n) tem r(A) = n, entao H = I (n) , A(n) e n


ao singular e A(n) tem
posto completo;

12

Luna, J. G. & Esteves, E. M.

5. Se

6. Se

7. Se

m An ,

tem r(A) = m, entao m An tem posto linha completo, como por


exemplo:




1 0 1
1 1
0
= r(B) = 2;

B=
0 1 1
1
1 2
m An ,

tem r(A) = n,
exemplo:

1
1
X=
1
1
m An ,

entao

m An

tem posto coluna completo, como por

3
5

tem r(A) < min{m, n}, entao

0
1
= r(X) = 2;
0
0

1
0
0
0

m An

e de posto incompleto. Exem-

plo:

1
1
X=
1
1

1.8

1
1

1
1
0
0

1
0
0
0

1
1
= r(X) = 2.
0
0

0
1
0
0

Inversa de matrizes n
ao singulares

Dada a matriz quadrada A(n) de posto n, entao existe A1 , tal que A1 A =


1
e sua inversa u
nica.
AA1 = I (n) . Sendo assim, A(n) e dita nao singular e A(n)
1
Para obter A utilzaremos o algoritmo de Gauss, conforme procedimento
a seguir:


A I I A1

Exemplo 1.8.1 Seja a matriz

A(3)

1
= 2
1

=
2

1 1

2 1 0 0 1

1 1 1 0 0


I (3) A1
.
(3)

2
1
1

1
0 , entao,
1

0
0

1
0

21

1
2

21

12

1
2

1
=

3
2

Luna, J. G. & Esteves, D. M.


Isto e,

1.9

21

1
2

12

21

13

1
2

1
e a matriz inversa de A.

3
2

Diagonaliza
c
ao de matrizes reais

Operacoes de congruencia sobre uma matriz quadrada A(n) , sao operacoes


elementares efetuadas sequencialmente sobre linhas e colunas.
Teorema 1.9.1 Dada a matriz A(n) , real e simetrica, ent
ao existe uma matriz
C n
ao singular tal que
CAC 0 = D
onde,
1. D = diag{d1 , d2 , , dn }, se r(A) = n;
2. D = diag{d1 , d2 , , dk , 0, , 0}, se r(A) = k < n.

Regra: Partindo de A I
e fazendo operacoes elementares seq
uenciais


sobre linhas e colunas de A I , chegamos a D C .
Exemplo 1.9.1 Seja a matriz

1
A= 2
1

Entao,
A

1
1
1

1
0
0

0
1
0

1
1 .
1

1
0
1

2
1
1

1
1
1

1
2
0

0
1
0

1
0
0

0
1
1

1
1
0

1
2
1

0
1
0

1
0
0

0
1
0

0
1
1

1
2
1

0
1
1

1
2
1

2
3
1

1
0
1

0
1
1

1
1
1

1
2
0

0
1
0

0
0
1

1
0
0

0
1
1

0
1
0

1
2
1

0
1
0

0
0
1

1
0
0

0
1
0

0
0
1

0
1
1

0
0
1

1
2
1

0
0
1

2
3
1

0
0
1

!
0
0
1

!
0
0
1

14

Luna, J. G. & Esteves, E. M.

Consequentemente,
D = CAC

1
0 0
1
2
1 0 2
1 1 1
1

1
0 0
0 1 0
0
0 1

2
3
1

1
1
1 0
1
0

1
1
1

2
1
0

Defini
c
ao 1.9.1 Dada a matriz A(n) real e simetrica e sua forma diagonal
obtida pelo Teorema 1, ent
ao:
1. A(n) e uma matriz Positiva Definida se, e somente se, di > 0, i (di , i =
1, 2, , n, elementos de D);
2. A(n) e Negativa Definida se, e somente se, di < 0, i;
3. A(n) e Semi Positiva Definida se, e somente se, di 0, i;
4. A(n) e Semi Negativa Definida se, e somente se, di 0, i;
5. A(n) e N
ao Definida se, e somente se, di muda de sinal.
Observa
c
ao: Em estatstica temos particular interesse nas matrizes Definidas
Positivas e Semi Definidas Positivas.
Exemplo 1.9.2 Dada a matriz

2
= 1
1

Entao,

I =

2 1

1 2

1 1
=

2


e Definida Positiva.

1
2
1

1
1 .
2

0
0

1
0

3
2

1
2

4
3

13

31

Luna, J. G. & Esteves, D. M.

15

Teorema 1.9.2 Dada a matriz A(n) real, simetrica e definida positiva, ent
ao
0
1 1/2
existe uma matriz R(n) , tal que A = RR . Neste caso, R = C D . Isto e,
D = CAC 0

C 1 DC 01 = C 1 CAC 0 C 01

1/2 01
1 1/2
C
D }D
| {zC } = A
| {z
R
R0

Exemplo 1.9.3 Seja a matriz

2
= 1
1

D=
0

C 1 =

4
3

0
0

1
2

1
2

1
3

Portanto,

R = C 1 D 1/2

1.10

1
1 . Entao,
2

0
,

3
2

1
2
1

2
2

2
2

1 0
C = 2
,

1
1
3 3 1


2
0
0

3
.
0
0
e D 1/2 =
2

q
4
0
0
3
0

3
2

3
2



0 = 2
2

2
3

2
2

6
2

6
6

0
.

2 3
3

Autovalores e autovetores

Defini
c
ao 1.10.1 (Autovalor) Dada uma matriz quadrada real A(n) , ent
ao a
equaca
o (A(n) I (n) ) = |A(n) I (n) | = 0 e definida como a equaca
o caracterstica de A. Suas raizes s
ao chamadas de raizes caractersticas, autovalores
ou valores pr
oprios de A.
Exemplo 1.10.1 Seja a matriz

16

Luna, J. G. & Esteves, E. M.

A=

(A I (2) )



2


1

=
=
=

2
1

1
2

, entao

 

2

1
=


1
2

4 16 12
2
2
(2 ) 1 = 4 + 3 = =
2

1 = 3
sao os autovalores de A.
2 = 1
1
2

1
0

0
1

Para encontrar as raizes de um polinomio de mais alto grau poderemos usar


o metodo de Briot Rufini. Seja, por exemplo:


3 1 1
1
1

3
3
1 .
A = 1 3 1 e A I (3) = 1

1 1 3
1
1
3
Isto e,



A I (3) = 3 92 + 24 20 = 0.

As possveis raizes do polinomio sao os divisores de 20: 1; 2; 4; 5; 10;


20. E assim, teremos:
Raizes
2
2
5

Coef. do polin
omio
1 -9 24
-20
1 -7 10
0
1 -5 0
1 0

Portanto,
1 = 5,

2 = 2

3 = 2.

Defini
c
ao 1.10.2 (Autovetor) Os vetores x, tais que: (AI (n) )x = , s
ao
os autovetores de A.
Considerando o exemplo anterior, temos:
Para = 3,


2
1

1
2



x11
x12

x11 + x12 = 0
= x11 = x12
x11 x12 = 0



  
x11
0
=
0
x12


1
= x1 =
, .
1

1
1

1
1

Luna, J. G. & Esteves, D. M.

17

Para = 1,

2
1

1
2



x21
x22

x21 + x22 = 0
= x21 = x22
x21 + x22 = 0



x21
x22

= x2 =

1
1

1
1

1
1

0
0

, .

Observa
c
ao: Note que vetores sao representados por letras min
usculas em
negrito enquanto que suas componentes sao representadas por letras min
usculas
normais. Por exemplo: xij e uma componente do vetor xi .
Defini
c
ao 1.10.3 (Norma) A norma de um vetor x e definida como:
sX

k x k= x0 x =
x2j .
j

Considerando = = 1 e os vetores x1 e x2 do exemplo anterior, temos


k x1 k=k x2 k=

2.

definido como:
Defini
c
ao 1.10.4 (Vetor Normalizado - u) E
u=

1
x.
kxk

Para os vetores x1 e x2 do exemplo anterior, temos


 


1
1
1
1
u1 =
e
u2 =
.
1
1
2
2

1.11

Vetores ortogonais

Defini
c
ao 1.11.1 (Vetores ortogonais) Dois vetores x e y s
ao ortogonais
se, e somente se,
x0 y = y 0 x = 0.
Exemplo 1.11.1 Dados os vetores

1
x= 1
2

1
y = 1 .
0

Logo, x e y sao vetores ortogonais.

Entao,

x0 y = y 0 x = 0.

18

Luna, J. G. & Esteves, E. M.

Teorema 1.11.1 Dada uma matriz A(n) real e simetrica, ent


ao existe uma
matriz P (n) ortogonal, tal que,
P 0 AP = P 1 AP = (n) ,
onde P 0 = P 1 , = diag{1 , 2 , , n } e P e obtida dos autovetores normalizados de A.
Exemplo 1.11.2 Dada a matriz A e os respectivos vetores caractersticos normalizados u1 e u2 a saber,
A=

2
1

1
2

1
u1 =
2

Entao,
P =

= P 0 AP

u1

u2

1
2

12

1
2

12


1
2

1
2

0
1

1
2

1
2

3
0

1
1

2
1

1
u2 =
2

.
1
2

1
1

Portanto,

1
2

1
2

1
2

12

Teorema 1.11.2 Dada a matriz quadrada real A(n) com raizes caractersticas
i (i = 1, 2, , n), ent
ao:
1. i 6= 0, i A e n
ao singular;
2. Se r(A) = k < n, ent
ao A tem k raizes caractersticas n
ao nulas e n k
raizes nulas;
3. Se A(n) e n
ao singular, ent
ao as raizes de A1 s
ao 1/i , (i = 1, 2, , n);
4. Existe sempre um vetor caracterstico xi associado a uma raiz caracterstica
i ;
Pn
5. T r(A) = i=1 i ;
Qn
6. (A) = i=1 i ;

7. Se A = B C, ent
ao (A) = (B ) (C ) , onde, (A) , (B ) e (C )
s
ao matrizes diagonais que exibem as raizes caractersticas de A, B e C,
respectivamente;

Luna, J. G. & Esteves, D. M.

19

8. Sejam xi e xj vetores caractersticos associados, respectivamente, a


`s raizes
0
caractersticas i e j . Ent
ao, se i 6= j = xi xj = 0;
9. Se B e n
ao singular, ent
ao A, B 1 AB e BAB 1 tem as mesmas raizes
caractersticas.
Teorema 1.11.3 Seja a matriz quadrada real A(n) e seja (n) a matriz diagonal que exibe as raizes caractersticas de A. Isto e, (n) = diag{1 , , n }.
Ent
ao:
1. i > 0, i, = A e positiva definida;
2. i 0, i, e | i = 0, = A e semi-positiva definida;
3. i < 0, i, = A e negativa definida;
4. i 0, i e | i = 0, = A e semi-negativa definida;
5. i muda de sinal = A e n
ao definida.

1.12

Fatorac
ao de matrizes

Veremos como obter matrizes B e C, tais que A = BC.


Teorema 1.12.1 Dada A(n) real, simetrica e n
ao negativa, ent
ao existe uma
0
matriz R, tal que A = RR .
Do Teorema 1.9.2, temos que CAC 0 = D. Pre e pos multiplicando ambos os
lados por C 1 e C 01 , respectivamente, temos:

1 1/2
0
1/2 01
C 1 CAC 0 C 01 = C 1 DC 01 = C
D }D
| {z
| {zC } = RR = A.
R
R0

(1.1)

De modo analogo, temos do Teorema 1.11.1, que


P 0 AP = .

Pre e pos multiplicando ambos os lados por P e P 0 , respectivamente, vem,


1/2 1/2 0
0
P P 0 AP P 0 = P P 0 = P
|
| {zP} = RR = A.
{z }
R
R0

(1.2)

20

Luna, J. G. & Esteves, E. M.

4
Exemplo 1.12.1 Seja A = 2
2

2
0 , encontre R, tal que A = RR0 .
2

2
2
0

Para obter a fatoracao sugerida pela equacao (1.1), vem

2 1

2 0 0 1 0
0 1

0 2 0 0 1
2 0

1 0 0
0
2


1

1 1 2 1 0


1
2
0 0 1

1 0 0
0
0


1

1 1 2 1 0


1
1 21 0 1

1 0 0
0 0

1
1 0 2 1 0
= D

0 0 1 1 1

21

1 0

0 1
1

0
1
0

21

21

21

=
1

1

2 1 0 0 1

1 1 1 0 0

1 0 0 1
0

1
1

0 1 0 2

0 0 1 12 1

1 0

1 1

Por outro lado,

0
0 1 0 2 1 0

1
0 1 1 1 0 1


1
0
.
= I (3) C

Luna, J. G. & Esteves, D. M.

21

Agora,

R = C 1 D 1/2

Observe que

2
RR0 = 1
1

Por outro lado, para


conforme se segue:

4
Sendo A = 2
2
(A I) =

4 2

2 2

2 0

Portanto,

1
2

1
2

0
0

0
1

0 0
2
1 0 0
1 0
0

0
1
0


0
2
0 = 1
0
1


1
4
1 = 2
0
2

1
1
0

2
2
0

0 0
1 0 .
1 0

2
0 .
2

obter a fatoracao sugerida pela equacao (1.2), procedemos


2
2
0

2
0 , entao
2

0 0
2
0


0 4
0 = 2
2

2
2
0

2
0
2

(4 )(2 )2 4(2 ) 4(2 ) = 0,


ou
(2 8 + 12) = 0.
Portanto,
3 = 0
e
=

64 48
=
2

1 =
2 =

8+4
2
84
2

3 = 0.

=6
=2

Assim,
1 = 6,
Agora, teremos,
Para = 6,

4 2
2 2
2 0

2 = 2


6
2
0 0
0
2

0
6
0



0
x11
0
0 x12 = 0 .
0
6
x13




= 0.

22

Luna, J. G. & Esteves, E. M.

Isto e,

2
2
2

2
4
0

ou

0
2
x11
2x11 + 2x12 + 2x13 = 0
2x11 4x12 = 0
0 x12 = 0 =

2x11 4x13 = 0
0
x13
4


2
x11 = 2x12
x11 = 2x13
= x1 = 1 .

x11 = x12 + x13


1

Para = 2,

Isto e,

ou

2
2
2

4
2
2
2
0
0

Para = 0,

Isto e,

ou

4
2
2


2
2
0 0
2
0

0
2
0



0
x21
0
0 x22 = 0 .
x23
2
0


2
x21
0
2x21 + 2x22 + 2x23 = 0
0 x22 = 0 =
2x21 = 0

0
x23
2x21 = 0
0

0
x21 = 2x22 2x23
x21 = 0
= x2 = 1 .

x21 = 0
1

4
2
2
2
2
0

2
2
0

2
2
0


2
0
0 0
2
0

0
0
0



0
0
x21
0 x22 = 0 .
x23
0
0

0
2
x31
4x31 + 2x32 + 2x33 = 0
2x31 + 2x32 = 0
0 x32 = 0 =

x33
0
2x31 + 2x33 = 0
2

1
2x31 = x32 x33
x31 = x32
= x3 = 1 .

x31 = x33
1

Os autovetores normalizados de A, quando = = = 1, sao:



2
1
1
1
;
x1 =
u1 =
k x1 k
6
1

Luna, J. G. & Esteves, D. M.

Assim sendo, teremos

0
1
1
1
x2 =
u2 =
k x2 k
2
1

1
1
1
x3 = 1
u3 =
k x3 k
3
1

P =

23

2
6

1
3

1
6

12

13

1
6

1
2

13

P 0 AP = .
Isto e,

2
6

1
6

1
6

12

1
2

1
3

13

13

2
0

6
= 0
0

2
2

0
2
0

Agora, teremos R = P 1/2 . Ou seja,


2

1
0
6
3

R = 16 12 13 0

1
1
1

3
6
2

2
6

1
3

1
6

12

13

1
6

1
2

13

0
0 .
0

2
0 0
2 0 = 1
1
0 0

0
1
1

0
0 .
0

Observe que,

2
RR0 = 1
1

0
1
1

2
0
0 0
0
0

1
1
0


4
1
1 = 2
2
0

2
2
0

2
0 =A
2

Teorema 1.12.2 Dada a matriz real m An de posto k, ent


ao existem matrizes
B
e
C
ambas
de
posto
k,
tais
que,
m k
k n
m An

= m B kk C n .

24

Luna, J. G. & Esteves, E. M.


Em geral B e C nao sao u
nicas.

Algoritmo de Dwivedi (nao e u


nico). Este algoritmo converge em apenas
r(A) = k passos.
Dada a matriz

m An

= (aij ), com r(A) = k, onde

i = 1, 2, , p, , m (e o ndice de linhas),
j = 1, 2, , q, , n (e o ndice de colunas).
(a) Escolher algum elemento apq 6= 0;
(b) Obter o produto u1 v 01 ,

a1q
a2q

..
1
.
u1 =
apq
apq
.
..
amq

onde

e v 01 =

ap1

ap2

apq

apn

(c) Fazer A1 = A u1 v 01 ;
(d) Se A1 = , o processo esta encerrado e
B = u1

C = v 01 ;

(e) Se A1 6= , repetir o processo para A1 , e assim sucessivamente ate que


Ak = . No final do processo, teremos
m An

= u1 v 01 + u2 v 02 + + uk v 0k = m B kk C n ,

onde
B=

u1

u2

uk

4
Exemplo 1.12.2 Seja a matriz A = 2
2

Entao,

(a) a11 = 4;


2
2
0

C=

2
0 .
2

v 01
v 02
..
.
v 0k

Luna, J. G. & Esteves, D. M.

25

1
4
(b) u1 = 41 2 = 1/2 ;
v 01
2
1/2

1
4

u1 v 01 = 1/2 4 2 2 = 2
1/2
2

(c) Obter A1 = A u1 v 01 .

4 2
A1 = 2 2
2 0

2
1 .
1

2
1
1

Ou seja,

2
4
0 2
2
2

, e


2
0
1 = 0
1
0

2
1
1

0
1
1

0
1 .
1

0
1
1

0
1 .
1

(d) Como A1 6= , retomamos o processo para A1 . Isto e,


(a) a22 = 1;

0
(b) u2 = 11 1 ;
1

v 02 =

0
(c) Obter A2 = u2 v 02 = 1
1

(d) Como A2 = A1 u2 v 02 = ,

1
0

1
1
B=
2

1
1
2
Observe que

A = BC =

1.13

1
1
2
1
2


1 ,

0
= 0
0

o processo esta encerrado e teremos:


4
1
0

C=

2
1

2
1

4
0

2
1

2
1

4
= 2
2

2
2
0

2
0 .
2

Decomposic
ao de matrizes

Nas duas subsecoes a seguir, veremos dois casos muito importantes para a
estatstica.

26

Luna, J. G. & Esteves, E. M.

1.13.1

A decomposic
ao espectral

Seja a matriz A(n) , real e simetrica, com autovalores {i } e autovetores


associados {ui }, tais que u0i ui = 1, (i = 1, , n). Entao A(n) pode ser escrita
como
n
X
i ui u0 ,
A(n) = U U 0 =
i=1

onde

= diag{1 , , n }

e
0

U = [u1 un ].

A matriz U e ortogonal, visto que U U = U 0 U = I. Tambem, se A(n) for


semipositiva definida, teremos,
Am = U m U 0 ,
m
com m = diag{m
1 , , n } para qualquer m inteiro. Se os autovalores {i }
sao todos nao negativos, entao potencias racionais de A(n) podem ser definidas
de modo analogo e em particular para potencias 21 e 21 .

4 2 2
Exemplo 1.13.1 Seja A = 2 2 0 .
2 0 2

Entao, conforme exemplo anterior,

1 = 6,

2
6

u1 =

1
6
1
6

, 2 = 2

12
u2 =

1
2

e a decomposicao espectral de A e

3
X

1
3

u3 = 13

13

i ui u0i = 1 u1 u01 + 2 u2 u02 + 3 u3 u03

i=1

e 3 = 0,

4
2
2

2
6
1
6
1
6

2
1
1

2
6

1
6


0
2
1 + 0
0
1

1
6

0
1
1

12
+ 2

0
1 .
1

1
2

12

1
2

Luna, J. G. & Esteves, D. M.

27

Por outro lado, temos


A2

=
=

=
.

2 0
U
2U

6
1
6
1
6

24
12
12

1
2
12

1
3
13
13

0 0

22 0
0 0

62

12 12
8
4 = AA.
4
8

2
6

0
1
3

1
6
1
2
13

1
6
12
13

Tambem,
1

A2

=
=

0
2
U
2 U

6
1
6
1
6

0
1
2
12

1
3
13
13

2
6

4
6
2
6

1
6

2
6

1
6

1
62
0 0

0 22 0
0
0 0

1
2

1
6

1
2

1
2

1
6

1
2

Observe que

4
A A = 2
2
1
2

1.13.2

1
2

2
2
0

2
6

0
1
3

1
6
1
2
13

1
6
12
13

2
0 = A.
2

A decomposic
ao em valores singulares

Se a matriz A tem dimensoes n p e posto k. Entao A pode ser escrita


como
A = U V 0 ,
onde = diag{1 , , k }, com 1 2 k 0, U e uma matriz
ortogonal de ordem n k, e V e uma matriz ortogonal de ordem k k, isto
e, U 0 U = V 0 V = I. O conjunto de valores {i } sao chamados de valores
singulares de A. Se U e V sao escritos em termos de seus vetores coluna,
U = [u1 u2 uk ] e V = [v 1 v 2 v k ], entao {ui } sao os vetores singulares a`
esquerda de A e {v} sao os vetores singulares a` direita de A. A matriz A pode
entao ser escrita como
k
X
A=
i ui v 0i .
i=1

28

Luna, J. G. & Esteves, E. M.

Pode ser mostrado que {2i } sao os autovalores nao nulos da matriz simetrica
AA0 e tambem da matriz A0 A. Os vetores {ui } sao os correspondentes autovetores normalizados de AA0 , e os vetores {v i } sao os correspondentes autovetores
normalizados de A0 A.
Exemplo 1.13.2 Seja a matriz

5 2 9
0 1 2

A=
2 1 4 .
4 3 2

Entao, a decomposicao em valores singulares de A e

0.901
0.098 

0.169 0.195 11.619
0
0.436

A=
0.394
0.000
0 5.477
0.802
0.056 0.980

ou equivalente

0.393
0.074
A = 11.619
0.172
0.024

0.196
0.037
0.086
0.012

0.079
0.787
0.156
0.148
+ 5.477
0.000
0.344
0.786
0.049

0.218
0.535

0.052
0.104
0.000
0.524

0.873
0.267

0.026
0.052
.
0.000
0.262

Luna, J. G. & Esteves, D. M.

1.14

29

Lista de exerccio # 1

1.1 Dadas as matrizes


A=

1
2

2
4

B=

1
1/2

1
1

verifique que em geral a multiplicacao de matrizes nao e comutativa.


1.2 Sendo

1
1 1
1
1
1
,
1 1
1
1 1 1

1
1
A=
1
1

verifique que, com relacao a multiplicacao, A e A0 comutam (A e normal).


1.3 Sejam
A=

1
2

3
5

B=

0
4

2
1

verifique as seguintes propriedades:


(a) (A0 )0 = A;
(b) (A + B)0 = A0 + B 0 ;

(c) (AB)0 = B 0 A0 ;
(d) A0 A e AA0 sao simetricas.

1.4 Sejam

1
A= 0
0

2
1
0

3
0 ;
5

3
B= 1
1

1
3
1

verifique as propriedades de matrizes inversa:


(a) (A1 )1 = A;
(b) (A1 )0 = (A0 )1 ;

1
1
3

K = 2.

(c) (AB)1 = B 1 A1 , se A1 e B 1 ;
1
A1 .
(d) (AK)1 = (KA)1 = K

1.5 O traco de uma matriz quadrada A(n) e definido como sendo a soma dos
Pn
elementos da sua diagonal principal. Isto e, T r(A) = i=1 aii . Usando
as matrizes A e B do exerccio 1.4, verifique as seguintes propriedades:
(a) T r(A B) = T r(A) T r(B);
(c) T r(A1 BA)P= T r(B);
(e) T r(AA0 ) = i,j a2ij .

1.6 Seja a identidade:

A
v0

u
a

1

(b) T r(A) = T r(A0 );


(d) T r(AB) = T r(BA), se as
dimensoes sao favoraveis.


B
q0

30

Luna, J. G. & Esteves, E. M.


Onde, u, v, p e q sao vetores, a e sao escalares e A e nao singular.
Considere

 



1
1
1 2
; e a = 1.
; v=
; u=
A=
0
0
0 3
Verifique que:
(a) = a v 0 A1 u
(c) p = A1 u;

1

(b) B = A1 + A1 uv 0 A1 ;
(d) q 0 = v 0 A1 .

1
1
1
5

1.7 Dado o vetor y =


3 e a matriz E (4) = 1
1
9

(a) Verifique que y 0 y =


(c) Obtenha y 0 Ey.

P4

i=1

yi2

(b)

1
1
1
1

1
1
1
1

1
1
.
1
1

Obtenha

yy 0 ;

1.8 Dadas as matrizes

1
1
A=
1
1

10
20

30
40

(a) Obtenha A0 A e B 0 B;

1
1
B=
1
1

1
1
0
0

0
0

1
1

(b) Determine r(A), r(A0 A), r(B) e r(B 0 B);


(c) Dentre estas quatro matrizes existe alguma nao singular?
(d) Dentre elas existe alguma de posto coluna completo?
1.9 Dado o sistema de equacoes lineares

2x1 + x2 = 3
2x1 + 3x2 = 5
(a) Escreva o sistema na forma matricial Ax = g;
(b) Encontre a solucao do sistema x = A1 g;
(c) Pre multiplique ambos os membros de Ax = g por A0 e obtenha
A0 Ax = A0 g;
(d) Obtenha a solucao do novo sistema atrves de x = (A0 A)1 A0 g;
(e) Compare os resultados de (b) com (d).

Luna, J. G. & Esteves, D. M.

31

1.10 Dado o sistema de equacoes lineares com incognitas e :


+ x1
+ x2
+ x3
+ x4

= y1
= y2
= y3
= y4

(a) Escreva-o na forma matricial X = y, onde =

(b) Verifique que a matriz X tem posto coluna completo;

(c) Verifique que para i = 1, 2, 3, 4 = n

P
n
i yi
i xi
.
; (ii) X 0 y =
(i) X 0 X = P
P
P 2
i x i yi
i xi
i xi

= X 0 y, onde
=
(d) Usando (c) escreva o sistema X X
0

= (X 0 X)1 X 0 y, Mostre que:


(e) Sendo

= y x

Sxy
=
,
Sxx

onde,

Sxy =

n
X
i=1

x i yi

n
P

i=1

x
=

(f ) Admita X =

X1

xi

..
.

Determine:

n
P

yi

i=1

1X
xi
n i
X2

Sxx =

i=1

y =

1

1
=
1
1

:
:
:
:

6. R = y 0 (I P )y;

n
P

xi

i=1

2

10
100
90
20
ey=
150
30
40
160

3. M = y 0 P y, onde P = X(X 0 X)1 X 0 ;


X 0 y;
5. R = y 0 y

x2i

1X
yi .
n i

atraves do item (e);


1.
e ,
0 X 0 y;
2. M =
4. T = y 0 y;

n
X

32

Luna, J. G. & Esteves, E. M.


7. r(P ) e r[(I P )];
(g) Verifique numericamente que:
1. P e (I P ) sao idempotentes;

2. P (I P ) = (I P )P = ;
P

(h) Usando o fato de que X 0 y = P


que:

yi

i x i yi

e =

, mostre

0 X 0 y = C + S,
M =

onde,
C=
Calcule C e S.

Pn

i=1

yi )

xy ;
S = S

(i) Usando os dados fornecidos para X e y no item (f) preencha o quadro


de analise de variancia a seguir
F. Variacao
Correcao
Regressao

G.L.
r(X 1 )
r(X 2 )

Parametros
Resduo

r(X)
n r(X)

Total

S.Q.
C
S
M = 0 X 0 y
R = y 0 y 0 X 0 y

Q.M.

S
r(X 2 )
M
r(X)
R
nr(X )

F =

a=
b=

a
b

1.11 Dado o sistema de equacoes lineares


+ t1 = y11
+ t1 = y12
+ t2 = y21
+ t2 = y22
t1 + t 2 = 0
(a) Escreva-o na forma matricial X = y, onde 0 =

t1

t2

(b) Verifique que a matriz X tem posto coluna completo;

n
r1
r2
; onde, r1 e o n
1
umero de
(c) Verifique que X 0 X = r1 r1 + 1
r2
1
r2 + 1
repeticoes de t1 e r2 e o n
umero de repeticoes de t2 .

G
P
P
(d) Verifique que X 0 y = T1 , onde G = i,j yij , T1 = j y1j e T2 =
T2
P
y
.
j 2j

Luna, J. G. & Esteves, D. M.

33

6
8
0
0

(e) Admitindo que y =


10 , obtenha o sistema X X = X y e verifique
20
que
= y.. ; t1 = y1. y.. ; t2 = y2. y.. e t1 + t2 = 0. Note que

0 =

t1 t2 .
(f ) Calcule:

X 0 y;
1. M =
2. M = y 0 P y, onde P = X(X 0 X) X 0 ;
3. T = y 0 y;
0 X 0 y;
4. R = y 0 y

5. R = y 0 (I P )y;

6. r(P ) e r(I P ).
(g) Prove algebricamente e verifique numericamente que:
1. P e I P sao idempotentes;
2. P (I P ) = (I P )P = .

G
y..
= t1 = y1. y.. e X 0 y = T1 ,
(h) Usando o fato de que
y2. y..
T2
t2
0
0
0

mostre que M = y P y = X y = C + S, onde


2
X
T2

ri

C =

G.L.
g1 = r(X 1 ) =
g2 = r(X 2 ) =
g3 = r(X) =
g4 = n r(X) =
g5 = n =

S.Q.
C=
S=
M=
R=
T =

G2
C=
n

S=

i=1

2
X
i=1

ri (
yi. y.. )2 .

(i) Calcule C e S;
(j) Preencha o quadro a seguir:
F. Variacao
Correcao
Tratamento
Parametros
Resduo
TOTAL

Q.M.
a=
M
g3

b=

S
g2

R
g4

a
b

34

Luna, J. G. & Esteves, E. M.

1.15

Inversas generalizadas de matrizes reais

Dada uma matriz


seguintes situacoes:

m An

de posto k, no que se refere a sua inversa, temos as

1. Se m = n = k = m An = A(n) = A1 , tal que AA1 = A1 A = I


(A e nao singular);
2. Se m = n > k = m An = A(n) =6 A1 . Logo A e singular;
3. Se m 6= n, nao faz sentido se falar da inversa A1 .
O conceito de inversa de matrizes e aplicavel apenas a`s matrizes quadradas
nao singulares que nem sempre e suficiente para resolver problemas praticos.
Introduziremos a seguir mais tres tipos de inversa de matrizes.

1.15.1

A Inversa generalizada de Moore-Penrose, A+

Defini
c
ao 1.15.1 Dada uma matriz m An , de posto r(A) = k, ent
ao a matriz
+
+
A
de
posto
r(A
)
=
k
que
satisfaz
as
quatro
condi
c
o

es:
n m
(i) AA+ A = A
(iii) A+ A = (A+ A)0 (simetrica)

(ii) A+ AA+ = A+
(iv) AA+ = (AA+ )0 ( simetrica)

e dita inversa generalizada de Moore-Penrose.


Teorema 1.15.1 Dada a matriz m An de posto r(A) = k, ent
ao existe uma, e
+
es de Moore-Penrose.
somente uma matriz n Am , que satisfaz as quatro condico
+
A

e
dada
por:
n m
1
A+ = C 0 (CC 0 )1 (B 0 B) B 0
onde B e C s
ao matrizes de posto coluna e posto linha completos, respectivamente e s
ao tais que A = BC.
1 - A exist
encia de A+

Se

m An

= =

+
n Am

= que satisfaz;

Se m An 6= com r(A) = k 6= 0, entao pelo Teorema 7, existem


matrizes m B k e k C n ambas de posto k tais que A = BC.
Naturalmente B 0 B e CC 0 sao matrizes nao singulares.
r(k B 0 B k ) = r(k CC 0k ) = k, por construcao.
(a) AA+ A = B CC 0 (CC 0 )1 (B 0 B)1 B 0 B C = BC = A;
|
{z
}|
{z
}
I

Observe que

Luna, J. G. & Esteves, D. M.

35

(b) A+ AA+ = C 0 (CC 0 )1 (B 0 B)1 B 0 B CC 0 (CC 0 )1 (B 0 B)1 B 0


{z
}|
{z
}
|
I

= C 0 (CC 0 )1 (B 0 B)1 B 0 = A+ ;

(c) A+ A = C 0 (CC 0 )1 (B 0 B)1 B 0 B C = C 0 (CC 0 )1 C, que e uma forma


|
{z
}
I

simetrica. Portanto, A+ A = (A+ A)0 ;

(d) AA+ = B CC 0 (CC 0 )1 (B 0 B)1 B 0 = B(B 0 B)1 B 0 , que e, tambem uma


{z
}
|
I

forma simetrica. Portanto, AA+ = (AA+ )0 .

Portanto, A+ existe.
2 - A unicidade de A+

Admitamos a existencia de duas inversas generalizadas de Moore-Penrose,


+
A+
ao,
1 e A2 . Ent
(a.1) AA+
1A=A
+
+
(b.1) A+
1 AA1 = A1
+
+
(c.1) A1 A = (A1 A)0
+ 0
(d.1) AA+
1 = (AA1 )

(a.2) AA+
2 A = A;
+
+
(b.2) A+
2 AA2 = A2 ;
+
+
(c.2) A2 A = (A2 A)0 ;
+ 0
(d.2) AA+
2 = (AA2 ) .

Assim,
(a.1)

(c.1) e (c.2)

+
+
(e) A+
1 A = A1 AA1 A
+
tanto, A1 A = A+
2 A;
(a.2)

0 +
A 0 A+
1 A A2

(c.1) e (c.2)

0 (a.1)

= A 0 A+
2

0 (c.2)

= A+
2 A. Por-

0
+ 0
0
+
0 +
+
(f ) AA+
= AA+
=
A+
1
2 A A1 A = A2 A = (AA2 ) =
2 AA1
+
+
+
AA2 . Portanto, AA1 = AA2 ;
(b.1)

(e)

(f )

(b.2)

+
+
+
+
+
+
+
(g) A+
= A+
= A+
1
1 AA1 = A2 AA1 = A2 AA2
2 . Logo A1 = A2 =
+
+
A . Isto e, A e u
nica.

1
1
Exemplo 1.15.1 Seja X =
1
1
de Moore-Penrose de X, X + .

1
1
0
0

0
0
. Encontre a inversa generalizada
1
1

Para obtermos B e C tais que A = BC, usaremos o algoritmo de Dwivedi.


Isto e,

36

Luna, J. G. & Esteves, E. M.


1
1
1

1 1

e v 01 = 1 1 0 ;
(a) a11 = 1, u1 = 1 =

1
1
1
1

1
1 1 0
1
 1 1 0

(b) u1 v 01 =
1 1 1 0 = 1 1 0 ;
1
1 1 0



1 1 0
1 1 0
0
0
1 1 0 1 1 0 0
0
0


(c) A1 = A u1 v 1 =
1 0 1 1 1 0 = 0 1
1 0 1
1 1 0
0 1
Vamos repetir o processo,


0
0

0
1
0
0
(a) a32 = 1, u2 = 1
1 = 1 e v 2 = 0 1 1
1
1

0
0
0 0
0
 0
0 0

(b) u2 v 02 =
1 0 1 1 = 0 1 1 ;
1
0 1 1

0
0 0
0
0 0

0
0 0
0 0

0
(c) A2 = A1 u2 v 02 =
0 1 1 0 1 1 = .
0 1 1
0 1 1
esta encerrado e temos

1 0

 1 0
..

4B2 =
u1 . u2 = 1 1
1 1


v 01
1
=
2C 3 =
0
0
v2

Da,
0

BB=

1
0

1
0

1
1

1
1

e
(B 0 B)1 =


1
2

1
1

1
1

1
1

1 0
1 1

0

0
4
=
1
2
1
1
2

2
2

0
0
=
6 .
1
1


O processo

Luna, J. G. & Esteves, D. M.

37

Por outro lado,


0

CC =

1
0

1 0
1 1

e
0 1

(CC )

1
1
0
1
=
3

Agora, calculamos:
C 0 (CC 0 )1

(B B)

1
1
1
=
3
0

=
=


0
2

1
=
1
1
2
1


0
2
1
1
1


1
1
1
2

1
1
1
2

1
2

1
2

1
2



1
2

2
1
1
=
3
1
1
0

1 1
0 1

1 0 0
.
1 1 1

1
1 ;
2
1
1

Finalmente
A+

=
=

C 0 (CC 0 )1 (B 0 B)1 B 0



2
1
1
1
1
1 0 0
1 1
1 1 1 1
3
2
1
2

1
1
1
1
1
2
2 1 1 .
6
1 1
2
2

A inversa generalizada de Moore-Penrose tem excelentes propriedades, as


quais facilitam algumas demonstracoes teoricas. Dentre elas destacamos:
1. Se A e uma matriz nao singular, entao A+ = A1 ;
2. Se A e simetrica, entao A+ tambem e simetrica;
3. Da definicao temos que AA+ e A+ A sao simetricas e pode ser demonstrado facilmente que ambas sao idempotentes. Isto e, (AA+ )(AA+ ) = AA+
e (A+ A)(A+ A) = A+ A. Ademais, r(A+ A) = r(AA+ ) = r(A+ ) =
r(A).
4. Se r(A) = m (n
umero de linhas de A), diz-se que A e de posto linha
completo. A+ = A0 (AA0 )1 e AA+ = I (m) .
Se r(A) = n (n
umero de colunas de A) diz-se que A e de posto coluna
completo. A+ = (A0 A)1 A0 e A+ A = I (n)

38

Luna, J. G. & Esteves, E. M.


5. Dadas as matrizes I (n) e m An , com r(A) = k, entao r(I AA+ ) = n k;
6. Se A(n) e real e simetrica com raizes caractersticas 1 , 2 , , n e vetores
caractersticos normalizados u1 , u2 , , un . Entao
P 0 AP = , onde P = (u1 u2 un )
e, portanto
A = P P 0 = 1 u1 u01 + 2 u2 u02 + + n un u0n ,
e chamada de decomposicao espectral de A e
A+ = P 1 P 0 .

4
Exemplo 1.15.2 Seja A = 2
2

2
0 de onde temos,
2

2
2
0

1 = 6 e 2 = 2;

x1 =
1 = u1 =

P =

= P AP

, x2 =

2
6
1
6
1
6

u1

u2

2
6

1
6

1
6

1
2

12

6
0

0
2

1 = u2 =
2

1
12

2
6

1
6

1
2

1
6

12

2
2
0

2
2

2
6

1
6

1
2

1
6

12

Luna, J. G. & Esteves, D. M.


P P 0 = 1 u1 u01 + 2 u2 u02 =
2
=

6
1
6
1
6

2
1
1

A+ = P 1 P 0

2
6

1
6

1
+ 0

1
0

2
6

39

1
6

0
1
1

+ 2

0
1
2

12

0
4 2

1
= 2 2

1
2 0
0

1
6

1
2

1
6

12

2
1
1
18
1

1
5
4

1
4 .
5

0
1
2

1
2

12

0
= A;

2
2
6

1
6

1
6

1
2

12

Observa
c
ao: Se A(n) for nao singular, entao
A+ = A1 =

1.15.2

1
1
1
u1 u01 + u2 u02 + +
un u0n .
1
2
n

Inversa generalizada condicional

Defini
c
ao 1.15.2 Dada uma matriz m An de posto r(A) = k, toda matriz n A
m
que satisfaz a condica
o AA A = A, e chamada de inversa generalizada condicional de A.
Um algoritmo u
til para encontrar inversas generalizadas condicionais de A
e o Algoritmo de Searle cujo procedimento e como segue:
1. Tomar uma matriz menor M de posto r(A) = k da matriz A;
0
2. Obter M 1 ;
0
3. Substituir em A, M 1 em lugar de M e fazer todos os outros elementos
de A, nulos;

40

Luna, J. G. & Esteves, E. M.


4. Transpor a matriz resultante;
5. O resultado obtido e uma inversa generalizada condicional de A.

1
1

Exemplo 1.15.3 Seja a matriz A =


1
1

1
1
0
0

0
0
, ent
ao, temos
1
1

1. Como r(A) = 2 podemos escolher a matriz menor M =


2. Sendo M 1 =

1
0

0
1

3. Substituir em A, M 1
mentos de A:

entao M 1

0

0

1
0

0
1

1
0

0
1

em lugar de M e anular todos os outros ele

0
0

0
0

0
1
0
0

4. Transpor a matriz resultante. Isto e,

0 0 0
0 1 0
0 0 1

0
0

1
0

0
0 .
0

5. O resultado obtido e uma inversa generalizada condicional de A, Isto e,

0 0 0 0
A = 0 1 0 0 .
0 0 1 0
Observe que

AA A

1
1

1
1

1
1

1
1

1
1
0
0
1
1
0
0

0
0 0

0
0
1
1
0 0
1

0
0
= A.
1
1

0
0
1

1
0
1
0
1
0
1

1
1
0
0

0
0

1
1

Luna, J. G. & Esteves, D. M.

1.15.3

41

Inversa generalizada de mnimos quadrados

Defini
c
ao 1.15.3 Dada uma matriz
que satisfaz as condico
es:
(i)

AA` A = A

m An

de posto r(A) = k, toda matriz n A`m


0
AA` = AA`
(simetrica)

(ii)

e chamada inversa generalizada de mnimos quadrado de A.

Teorema 1.15.2 Toda matriz A` = (A0 A) A0 e inversa de mnimos quadrados de A.


Pode ser demonstrado que AA` e u
nica e invariante para qualquer condicional (A0 A) . Alem disso, AA` e simetrica e idempotente. Isto e, AA` =
(AA` )(AA` ).

1
1
Exemplo 1.15.4 Seja X =
1
1

1
1
0
0

0
0
.
1
1

4 2 2
Entao, X 0 X = 2 2 0 .
2 0 2
Consideremos tres inversas generalizadas condicionais de X 0 X. Isto e,

0 0 0
21 0
2

0
0

1 0
A1 = (X X) = 0 2 0 , A2 = (X X) = 2

1
0 0 2
0
0 0
e

A3 = (X X) =

21

1
2

1
2

1
2

1
2

21

0
.

Assim sendo, teremos

X `1

= (X X) X = A1 X =

0
,

1
2

42

Luna, J. G. & Esteves, E. M.

X `2

e
X `3

Observe que

= (X X) X = A2 X =

1
2

2
XX `1 = XX `2 = XX `3 =

1
2

1
2

1
2

1
2

12

21

= (X X) X = A3 X =

1
2

1
2

12

12

1
2

1
2

1
2

1
2

1
2

0
.

1
2

, e invariante.

1
2

1
2

Luna, J. G. & Esteves, D. M.

1.16

43

Lista de exerccios # 2

2
2.1 Dada a matriz A = 4
2

6
15
9

4 2
14 7
10 5

(a) Atraves do algortmo de Dwivedi, encontre matrizes B e C, tais que


A = BC e r(A) = r(B) = r(C). (observe que B e C nao sao u
nicas
e dependem da primeira escolha do elemento apq );

(b) Determine a inversa de Moore-Penrose de A;


(c) Verifique numericamente as quatro condicoes da definicao de A+ ;
(d) Obtenha uma inversa condicional, A .

1
2
+

2.2 Dado o vetor u =


3 , determine u .
4

2.3 Considere o sistema de equacoes lineares X = y,

1 1 0 0

1 1 0 0

1 1 0 0

1 1 0 0

1 0 1 0 t1
=

1 0 1 0 t2

1 0 1 0
t3

1 0 0 1

1 0 0 1
1 0 0 1

conforme se segue,

5
4

8
10

(a) Pre-multiplique o sistema por X 0 , obtendo-se X 0 X = X 0 y que,


como veremos posteriormente, e chamado de Sistema de Equaco
es
Normais;

(b) Determine:
1. o1 = X + y;
2. o2 = (X 0 X)+ X 0 y;
0
3. o3 = (X 0 X)
1 X y;
0
4. o4 = (X 0 X)
2 X y;

5. o5 = X ` y;
0

onde (X 0 X)
ao duas inversas condicionais distintas
1 e (X X)2 s
0
de X X.

44

Luna, J. G. & Esteves, E. M.


(c) Prove que as matrizes que pre-multiplicam y no item (b), (1,2,3,4 e
5) sao inversas de mnimos quadrados de X;
(d) Verifique numericamente que oi , i = 1, 2, , 5 e solucao do sistema
X 0 X = X 0 y (veremos posteriormente que existem outras solucoes);
(e) Dentre os vetores solucao oi , obtidos em (b) qual deles apresenta
menor norma?
(f ) Veremos nas proximas secoes que se X e de posto coluna completo,
entao o vetor solucao o nao tem valor por si so. Nesse caso, o
que importa realmente, e o vetor y
= X o o qual e invariante para
qualquer o que seja solucao das equacoes normais. Posteriormente
definiremos o vetor y
como aproximacao de mnimos quadrados para
y. Verifique essa invariancia atraves das cinco solucoes obtidas em
(b);
(g) Determine y
= P y, onde P = XX + = XX ` = X(X 0 X) X 0 e
verifique numericamente que y
= X o = P y;
(h) Verifique algebricamente que X oi = P y, onde oi , i = 1, 2, , 5
dados por (b);
(i) Determine:
1.
e=yy
;

2.
e = y P y = (I P )y;

3.
e = y X oi , i.

(j) Preencha o seguinte quadro:


F. Variacao

G.L.

S.Q.

r(P 1 ) = 1 =

k
y k2 =

Tratamento

r(P P 1 ) = 2 =

k
yy
k2 =

Parametros

r(P ) = 3 =

k
y k2 =

Resduo

r(I P ) = 4 =

k
ek 2 =

TOTAL

r(I) = 5 =

kyk2 =

Media

Q.M.

a=

F(obs.)

ky
k2
1

ky
y
k2
2

a/c =

ky
k2
3

b/c =

k
ek 2
4

b=

onde y
= P 1 y, P 1 = X 1 X +
e a primeira coluna da matriz X e P =
1 , X1
+
XX .

Luna, J. G. & Esteves, D. M.

2.4 Dada a matriz A =

mine:

n r 1 r2
r1 r1 0
r2 0 r 2
..
..
.. . .
.
.
.
.
rI
0 0

45
rI
0
0
..
.
rI

PI

, onde n = i=1 ri , deter

1. r(A);
2. Uma forma geral, com base no algortmo de Searle, para a inversa
condicional mais simples (diagonal) de A;
3. Atraves do item

inversa
2, determine uma
n
10 4 3 3
4 4 0 0 r1
0

A=XX=
3 0 3 0 = r2
r3
3 0 0 3
nesse caso, X e dada no exerccio 2.3.

condicional
r 1 r2 r3
r1 0 0
0 r2 0
0 0 r3

para
a matriz

. Note que,

46

Luna, J. G. & Esteves, E. M.

Captulo 2

Soluco
es de Equaco
es
Lineares
2.1

Introduc
ao

Dado o sistema de equacoes lineares Ax = g, onde A e uma matriz m n de


componentes reais, x e um vetor real n 1 e g e um vetor m 1 de componentes
reais, consideremos as seguintes questoes:
1. Existe ao menos um vetor xo , tal que, Axo = g? (O sistema e consistente?);
2. Se a resposta ao item 1 for Sim, a proxima pergunta sera: quantos
vetores xo existem? (O sistema e determinado ou indeterminado?);
3. Se a resposta ao item 1 e Nao, a proxima pergunta sera: existe algum
vetor x , tal que a igualdade se verifique ao menos aproximadamente,
para uma conveniente definicao de aproximacao? (Existe alguma solucao
aproximada x para o sistema inconsistente Ax = g, com propriedades
adequadas?).

2.2

Consist
encia e Soluc
ao

Teorema 2.2.1 Uma condica


o necess
aria e suficiente para que o sistema de
equaco
es lineares Ax = g seja consistente e que g pertenca ao espaco coluna de
A.
Ax = g consistente = g C(A).
47

48

Luna, J. G. & Esteves, E. M.


Ax = g consistente = xo : Axo = g = g e combinacao linear das
colunas de A. Uma regra para essa combinacao e dada por xo . Entao
g C(A).
g C(A) = Ax = g consistente.
g C(A) = g e combinacao linear das colunas de A. Entao qualquer xo
que forneca uma combinacao linear das colunas de A, que reproduza g, e
solucao do sistema. Desse modo, xo : Axo = g e o sistema e consistente.

Exemplo 2.2.1 Seja o sistema de equaco


es lineares Ax = g caracterizado por:

4x1
2x1

2x1

ou

4
2
2

+
+

2
2
0

2x2
2x2

2x3

2x3

=
=
=

14
6
8

14
x1
2
0 x2 = 6
8
x3
2

A ttulo de ilustracao, consideremos tres vetores solucao do sistema x oj , j =


1, 2, 3.
o
0
x11
1. xo1 = xo12 = 3 . Verifiquemos que Axo1 = g. Alem disso, g esta
xo13
4
no espaco coluna de A. Pois, pode ser obtido como combinacao linear das
suas colunas. Uma combinacao e dada por xo1 . Isto e,
g=

3
X

xoij cj .

j=1

Assim,
g

3
X

xo1j cj = xo11 c1 + xo12 c2 + xo13 c3

j=1

4
2
2
14
0 2 + 3 2 + 4 0 = 6 ;
2
0
2
8


3
xo21
2. xo2 = xo22 = 0 .
1
xo23

Luna, J. G. & Esteves, D. M.

49

Temos, que Axo2 = g e

4
2
2
14
g = 3 2 + 0 2 + 1 0 = 6 ;
2
0
2
8

Finalmente,
o

4
x31
3. xo3 = xo32 = 1 . Temos, que Axo3 = g e
xo33
0

4
2
2
14
g = 4 2 1 2 + 0 0 = 6
2
0
2
8

e assim por diante. Naturalmente o sistema em questao e consistente e


indeterminado.
Teorema 2.2.2 Uma condica
o necess
aria e suficiente para que o sistema de
equaco
es lineares Ax = g seja consistente e que o posto da matriz A seja igual
.
ao posto da matriz A aumentada de g. Isto e, r(A) = r(A .. g).
.
Ax = g cons. r(A) = r(A .. g).

Exemplo 2.2.2 Tomemos


o

4 2
anterior, onde A = 2 2
2 0
Entao,

4
2
2

2 2
2 0
0 2

sistema
es lineares Ax = g do exerccio
de equaco
2
0 e r(A) = 2.
2

14
1
6 0
8
0

0
1
0

4
1
1 1
0
0

.
e portanto, r(A) = r(A .. g) = 2 e, como ja visto, o sistema e consistente.
Exemplo 2.2.3 Suponhamos agora o sistema


4 2 2
x1
1
2 2 0 x2 = 1 .
2 0 2
1
x3

50

Luna, J. G. & Esteves, E. M.

Desse modo,

4 2 2
2 2 0
2 0 2

1
1
1 0
1
0

0
1
0

0
1
1 1/2 .
1
0

.
Conforme podemos perceber r(A) = 2 6= r(A .. g) = 3.
Note que os u
ltimos componentes dos vetores coluna da matriz resultante
de A sao todos nulos, enquanto que o u
ltimo componente do vetor resultante
de g e igual 1 6= 0. Assim, nao existe combinacao linear das colunas de A
que reproduza o vetor g. Em outras palavras, g 6 C(A) e o sistema nao e
consistente. Lembre-se de que os coeficientes das colunas, na combinacao linear,
sao os componentes do vetor solucao. Entao, se nao existe combinacao linear
das colunas de A que reproduza g, o sistema Ax = g nao tem solucao.
Teorema 2.2.3 Uma condica
o necess
aria e suficiente para que o sistema de
equaco
es lineares A(n)n x1 = n g 1 seja consistente e que A seja n
ao singular.
Basta pre-multiplicar o sistema por A1 e teremos xo = A1 g. A unicidade
de A1 garante a invariancia de xo .
Exemplo 2.2.4 Seja o sistema Ax = g caracterizado por



 
x1
2 1
7
.
=
1 1
5
x2


 

1 1
7
2
1
o
Entao, x = A g =
=
.
1
2
5
3
Note que neste caso a solucao e u
nica. Isto e, existe apenas uma combinacao
linear das colunas de A que reproduz g. Ou seja,



  
2
1
7
g=2
+3
=
.
1
1
5
Nesse caso, o Teorema 2.2.2 pode fornecer diretamente a solucao. Pois, se
.
.
existe A1 , entao (A .. g) (I .. xo ). de fato,




2 1 7
1 0 2

.
1 1 5
0 1 3
Teorema 2.2.4 Uma condica
o necess
aria e suficiente para que o sistema de
equaco
es Ax = g seja consistente e que exista uma inversa condicional de A,
tal que AA g = g.
(a) Ax = g consistente = AA g = g.

Luna, J. G. & Esteves, D. M.

51

Ax = g consistente = xo : Axo = g

(I).

Seja A alguma inversa condicional de A. Pre-multiplicando (I) por


AA , vem
(I)

AA Axo = AA g = Axo = AA g = g = AA g.
(b) AA g = g = Ax = g e consistente. Seja AA g = g. Basta tomar
xo = A g e desse modo Axo = g e o sistema e consistente.
Exemplo 2.2.5 Seja o sistema Ax = g caracterizado por




1
1
3
1 1 x1
= 1
x2
2
0
2
Usando o algortmo de Searle, temos
M=

1
1

1
1

Portanto,

A =

facil verificar que


E

1
1
AA g = 1 1
2
0

e M 1 =
1
2

1
2

1
2

21

1
2

1
2

1
2

12

1
2

1
2

1
2

12


3
3
1 = 1 =
6 g.
4
2
0
0

Portanto, o sistema e inconsistente. Esse fato pode ser confirmado facilmente


atraves do Teorema 2.2.2.
Teorema 2.2.5 S
ao condico
es necess
arias e suficientes para que o sistema
Ax = g seja consistente.
(a)

AA` g = g

(b)

AA+ g = g.

Basta lembrar que A+ e A` sao tambem A .


Exemplo 2.2.6 Considere o sistema Ax = g caracterizado por



1
1
3
x
1
1 1
= 1 .
x2
2
0
4

52

Luna, J. G. & Esteves, E. M.

Usando o fato de que


1
A =

Tem-se que

1
2

21

1
2

, A` = 1
6

1
3

1
3

2
0

= A+ .

3
AA g = AA` g = AA+ g = 1 = g,
4

e o sistema e consistente.
FATOS:

1. Veremos mais tarde que se A e de posto coluna completo, como no exerccio acima, e se o sistema e consistente, entao a solucao e u
nica;
2. Note que, se Ax = g e consistente, entao
AA g = A(A0 A) A0 g = AA` g = AA+ g = g.
Teorema 2.2.6 Uma condica
o suficiente para que o sistema
seja consistente e que r(A) = m.

m Ann x1

m g1

De fato, vimos das propriedades da inversa de Moore-Penrose que se A e de


posto linha completo, entao A+ = A0 (AA0 )1 e AA+ = I (m) .
Basta aplicar o resultado do teorema anterior e teremos
AA+ g = Ig = g.
Teorema 2.2.7 O vetor xo = A g + (I A A)h, onde h e um vetor n 1,
e soluca
o do sistema m Ann x1 = m g 1 , consistente.
Se xo e solucao, devemos ter Axo = g. O que e equivalente a pre-multiplicar
x por A. Isto e,
o

Axo

=
=

AA g + A(I A A)h

AA g + (A AA A)h = AA g, h.

Sendo Ax = g consistente por hipotese, entao AA g = g. Portanto, Axo =


g e xo , assim definido, e solucao do sistema.
Exemplo 2.2.7 Seja Ax = g

4 2
2 2
2 0

consistente, dado por

2
x1
14
0 x2 = 6 .
2
x3
8

Luna, J. G. & Esteves, D. M.

53

Tomando tres inversas condicionais de A, temos tres solucoes distintas para o


sistema, obtidas por xoi = A
i g, i = 1, 2, 3, a saber

0 0 0

14
0

0 1 0 6 = 3 ,
xo1 = A
g
=
1
2

8
4
0 0 12

1
21 0
2

4
14

1
6 = 1
1 0
xo2 = A
2 g = 2

0
8
0
0 0
e

1
0 12
2

14
3

6 = 0 .
0 0
0
xo3 = A
g
=
3

8
1
12 0
1
Tomemos agora o vetor


0
1

3
1
xo = A
g
+
(I

A
A)h
=
+
1
1
4
1

Portanto,

0 0
h1
0 0 h2
h3
0 0

h1
xo = 3 h1 e solucao, h1 R.
4 h1

Assim, para h1 = 3 temos

3
xo = 0 = xo2 ;
1

para h1 = 4 temos

4
xo = 1 = xo3 ;
0

e assim por diante.

Teorema 2.2.8 Se Ax = g e consistente, ent


ao os vetores
xo = A` g + (I A` A)h
xo = A+ g + (I A+ A)h,
s
ao soluco
es do sistema.

54

Luna, J. G. & Esteves, E. M.

Neste caso, basta lembrar que A+ e A` sao tambem A .


Teorema 2.2.9 Se o sistema Ax = g e consistente, ent
ao
xo = A g, xo = A` g e xo = A+ g,
s
ao soluco
es.
Basta tomar h = nos Teoremas 2.2.7 e 2.2.8.
Teorema 2.2.10 Uma condica
o necess
aria e suficiente para que o sistema consistente m Ann x1 = m g 1 , tenha soluca
o u
nica e que r(A) = n.
Basta usar o Teorema 2.2.7.
Teorema 2.2.11 Dado o sistema consistente m Ann x1 = m g 1 com r(A) =
k > 0 e g 6= , ent
ao existem exatamente n k + 1 soluco
es linearmente
independentes.
Teorema 2.2.12 O conjunto de soluco
es do sistema linear homogeneo Ax =
e o complemento ortogonal do espaco coluna de A.
Teorema 2.2.13 Uma condica
o necess
aria e suficiente para que o sistema linear homogeneo m Ann x1 = m 1 tenha soluco
es diferentes da trivial, xo = , e
que r(A) < n.
Teorema 2.2.14 O sistema linear homogeneo m Ann x1 = m 1 , com r(A) = k,
tem exatamente n k vetores soluca
o linearmente independentes.
Teorema 2.2.15 Todo vetor soluca
o de um sistema m Ann x1 = m g 1 pode ser
obtido como a soma de um vetor soluca
o fixo desse sistema e uma combinaca
o
linear de n k linearmente independentes do sistema homogeneo associado.

2.3

Soluc
ao Aproximada

Consideremos agora, o caso no qual o sistema de equacoes lineares Ax = g


e inconsistente. Isto e, quando nao existe xo , tal que Axo = g.
Em muitos problemas praticos, como por exemplo, nas analises estatsticas
de experimentos, e muito importante obtermos solucoes aproximadas de sistemas de equacoes lineares.
Denotemos por e(xo ) o erro cometido ao tomar o vetor xo como solucao
aproximada do sistema Ax = g, inconsistente. Entao, teremos e(xo ) = gAxo .

Luna, J. G. & Esteves, D. M.

55

Observe que podemos ter muitas solucoes aproximadas, sendo que umas sao
melhores que outras, de modo que o nosso problema sera encontrar a melhor
delas.
Uma forma de medir o tamanho do erro cometido ao tomar xo como solucao
do sistema inconsistente Ax = g, e atraves do quadrado da norma, popularmente conhecida como soma dos quadrados dos erros ou dos resduos. Ou seja,

e1
n


e2 X 2
ei .
kek2 = e0 e = e1 e2 en . =
..
i=1

en

Exemplo 2.3.1 Seja o sistema de equaco


es lineares X = y, caracterizado
por:

2
1 1 0

3
1 1 0
1 =

5
1 0 1
2
4
1 0 1

(1) Como nao conhecemos, ainda, uma regra para a obtencao de solucoes aproximadas, tomemos a ttulo de exemplo dois vetores solucao com o objetivo
de quantificar o tamanho do erro cometido:

1
o1 = 1 . O erro cometido ao tomarmos o1 como solucao, e
1



2
1 1 0
0
1

3
1
1
0

1 = 1 .
e1 ( o1 ) = y X o1 =
5 1 0 1
3
1
4
1 0 1
2
Consequentemente,

ke1 k2 = SQR1 = (0)2 + (1)2 + (3)2 + (2)2 = 14, 0.

14/6
o
Tomando, por exemplo, 2 = 1/6 , obtemos de modo analogo,
13/6
ke2 k2 = SQR2 = 1, 0, que sem d
uvida e menor que SQR1 .
(2) Procuremos agora um vetor o , tal que, a soma dos quadrados dos resduos
seja a menor possvel. Neste caso temos que minimizar
SQR = f (, 1 , 2 ) = kek2 = ky Xk2 = (y X)0 (y X),

56

Luna, J. G. & Esteves, E. M.

onde,


2
1
3 1

y X =
5 1
4
1

1
1
0
0

Portanto,
SQR

0
2 1

3 1
0
1 =
5 2
1
2
1
4 2
4
X

= e.

e2i

kek2 = e0 e = (y X)0 (y X) =

(2 1 )2 + (3 1 )2 + (5 2 )2 + (4 2 )2 .

i=1

Os valores de , 1 e 2 , isto e, o , 1o e 2o que minimizam a soma dos quadrados dos resduos sao obtidos derivando-se parcialmente a SQR e igualando-se a
zero. Isto e,
(SQR)
= 28 + 8 + 41 + 42

(SQR)
1

= 10 + 4 + 41

(SQR)
2

= 18 + 4 + 42 .

Igualando-se a zero, resulta em

4o +
2o +

2o
Dessa forma, qualquer solucao

4 2
2 2
2 0

21o
21o

22o

22o

=
=
=

14
5
9

do sistema
o

2
14
0 1o = 5 ,
9
2
2o

(2.1)

ja sabidamente consistente, nos levara a uma menor soma dos quadrados dos
resduos.
Obs.1: O procedimento aqui utilizado e um caso particular do metodo dos
mnimos quadrados;
Obs.2: O sistema de equacoes lineares obtido em (2.1) e conhecido como sistemas de equacoes normais.
Entre muitas solucoes do sistema (2.1) temos:


14
16
4
1
1
1
o2 = 1 , o3 = 1 , e o4 = 1 ,
6
6
2
13
11
5

Luna, J. G. & Esteves, D. M.

57

de onde podemos perceber que SQR1 > SQR2 = SQR3 = SQR4 . Diante
deste fato, temos aqui um problema a ser resolvido. Ou seja, se existem muitas
solucoes que torna mnima a soma dos quadrados dos resduos, como escolher a
melhor delas?

2.4

A Melhor Soluc
ao Aproximada

Defini
c
ao 2.4.1 O vetor x e definido como a melhor soluca
o aproximada do
sistema de equaco
es lineares Ax = g, inconsistente (BAS: Best Approximate
Solution) se, e somente se, para qualquer outra soluca
o aproximada x o , tivermos:
1. ke(x )k2 ke(xo )k2 ,
2. Caso prevaleca a igualdade, a melhor soluca
o aproximada ser
a aquela que
2
o 2
satisfaz a condica
o: kx k < kx k .
Nota: A condicao 2 diz que a melhor solucao aproximada, e a solucao de
norma mnima.
Teorema 2.4.1 A melhor soluca
o aproximada de Ax = g, inconsistente e
+

x = A g.
Exemplo 2.4.1 A soluca
o do sistema inconsistente X = y, do exemplo anterior, dada por:

= X + y = o2 =

1
6

1
2
1

e a melhor solucao aproximada.

2.5

1
2
1

1
1
2

2
1
14
3 1

1 ,
1
5 = 6
2
13
4

Soluc
ao Aproximada de Mnimos
Quadrados

Conforme vimos anteriormente, qualquer solucao aproximada do sistema de


equacoes (2.1), leva a um mnimo a soma dos quadrados dos erros. Vimos
tambem, que a melhor solucao aproximada era uma delas.
Na verdade para os propositos deste curso, basta que tenhamos mnima a
soma dos quadrados dos erros. Nesse contexto, a propriedade da norma mnima

58

Luna, J. G. & Esteves, E. M.

para o vetor solucao aproximada pode nao ser necessaria. Se for utilizada,
podemos perder, em muitos casos, a propriedade da unicidade da solucao aproximada. No entanto, temos, em geral, a vantage da simplicidade de calculo, por
nao ter que usar a inversa generalizada de Moore-Penrose.
A solucao de mnimos quadrados pressupoe apenas a primeira condicao da
Defini
c
ao 2.4.1 o que, em geral, e suficiente para resolver os problemas estatsticos abordados neste curso.
Defini
c
ao 2.5.1 Um vetor xo e definido como um vetor soluca
o aproximado
de mnimos quadrados para o sistema inconsistente Ax = g se, e somente se,
ke(xo )k2 ke(x? )k2
para qualquer soluca
o aproximada x? , (LSS: Least Squares Soluction).
Nota 1: A solucao LSS, nao exige como a BAS que se prevalecer a igualdade,
entao kxo k2 < kx? k2 . Assim, enquanto a BAS e u
nica, a LSS nao o e.
Nota 2: As solucoes LSS sao muito importantes em estatstica.

Vejamos agora algumas regras para obtencao de solucoes aproximadas de


mnimos quadrados.
Teorema 2.5.1 O vetor xo = A` g e uma soluca
o aproximada de mnimos
quadrados do sistema inconsistente Ax = g.
Defini
c
ao 2.5.2 Os sistemas de equaco
es lineares do tipo A0 Ax = A0 g s
ao
conhecidos por Sistemas de Equaco
es Normais.
Teorema 2.5.2 Os sistemas de equaco
es normais s
ao sempre consistentes.
Teorema 2.5.3 Uma condica
o necess
aria e suficiente para que xo seja uma
soluca
o aproximada de mnimos quadrados para o sistema inconsistente Ax = g
e que xo seja soluca
o do sistema de equaco
es normais.
Exemplo 2.5.1 Como vimos atraves da express
ao (2.1), o sistema de equaco
es
o
0
0
normais X X = X y referente ao sistema inconsistente y = X, e dado por:

4
2
2

2
2
0

o
14

2
0 1o = 5 .
9
2
2o

Luna, J. G. & Esteves, D. M.

59

Alem disso, qualquer solucao exata deste sistema sempre consistente e solucao
aproximada de mnimos quadrados para o sistema inconsistente y = X. Sao
exemplos,
7

2
0
3
3

1 o 1 o 1 o 5
o

= 6 ; = 2 ; = 6 ; = 2

5
2

13
6

9
2

11
6

e existem muitos outros vetores o que nos levarao a` menor soma dos quadrados
dos resduos (no exemplo, SQR = 1, 0).
Defini
c
ao 2.5.3 O vetor g
= Axo , onde xo e qualquer soluca
o aproximada de
mnimos quadrados para o sistema inconsistente Ax = g, e definido como a
aproximaca
o de mnimos quadrados para o vetor g.
Exemplo 2.5.2 No sistema inconsistente y = X, temos

1
y
= X o =
1
1

1
1
0
0


0
0

0
1 5 = 1
1 2
2
9
1

5
5
.
9
9

Tomemos agora, outra solucao para o sistema de equacoes normais, a saber,

7/2
o = 2 . Entao,
2

1 1 0
5
7/2
1 1 0
5
1
2 =
y
=
1 0 1
2 9
2
1 0 1
9

e, de modo analogo para qualquer o solucao de X 0 X o = X 0 y.

Defini
c
ao 2.5.4 Definimos o erro de ajuste devido a aproximaca
o de mnimos
quadrados para Ax = g inconsistente, como

e=gg
= g Axo .
Exemplo 2.5.3 Para o exemplo em quest
ao, temos

2
3 1

e=yy
=
5 2
4

5
1

5
= 1 1 .

9
1
2
9
1

60

Luna, J. G. & Esteves, E. M.

Nota: Recordando que X o = XX ` y = X(X 0 X) X 0 y = P y. Temos,


entao:
y
= X o = P y

e=yy
= y X o = y P y = (I P )y.

Defini
c
ao 2.5.5 O erro devido a aproximaca
o de mnimos quadrados e ortogonal ao espaco gerado pelas colunas de A. Isto e,
e C(A).
Exemplo 2.5.4 Para o exemplo em quest
ao, e imediato verificar que
X 0
e = .
Ou seja,

1
1
0

1
1
0

1
0
1


1
1
0
1
1
= 0 .
0
2 1
1
0
1

Luna, J. G. & Esteves, D. M.

61

Lista de Exerccios # 3
1. Verifique se o sistema de
afirmativo, apresente uma

x1 +
x1 +

2x1 +

equacoes lineares a seguir e consistete. Caso


solucao.

2. Dado o sistema de equacoes

5 2
2 2
3 0

x2
x2
x2

lineares

3
0
3

2.1 Verifique sua consistencia;

x3
+

x4
3x4

=
=
=

3
6
5

A = g, caracterizado por

33
1
2 = 18
15
3

2.2 Apresente uma solucao da forma:


2.2.1 o1 = A g;
2.2.2 o2 = A+ g;
2.2.3 o3 = AG g + (I AG A)h, para alguma G-inversa de A.
3. Estude a

1
1
3.1
1
1

1
1
3.2
1
1

consistencia dos sistemas X = y, caracterizados por:

1 0
10

1 0
1 = 12 ;

0 1
6
2
0 1
4

10
2


8

=
14 .
6
12
8

4. Dado o sistema Ax = g caracterizado por


x
5 1 1 1
1 5 1 1 y

1 1 5 1 z =
w
1 1 1 5

26
22
,
18
14

P4
4.1 Obtenha A+ = A1 = i=1 1i P i P 0i , onde i e P i sao respectivamente autovalores e autovetores normalizados de A;
4.2 Apresente a solucao do sistema.

5. Com os dados do exerccio 3 desta lista:

62

Luna, J. G. & Esteves, E. M.


5.1 Determine a melhor solucao aproximada e outra solucao de mnimos
quadrados para 3.1;
5.2 Verifique a consistencia de X 0 X = X 0 y com os dados de 3.1 e 3.2.
Um tem solucao u
nica e o outro e indeterminado. Justifique.
6. Estude a invariancia de X o , o solucao de X 0 X = X 0 y, utilizando
os dados de 3.1.
7. Dado o sistema X = y,

1
1
1
7.1 Determine:

caracterizado por


1 0

4
1 0 1 = 3 ,
0 1
2
4

7.1.1 o = (X 0 X) X 0 y
7.1.2 y
= X o
7.1.3 y
= P y, onde P = X(X 0 X) X 0 = XX ` = XX +
7.1.4
e=yy

7.1.5
e = (I P )y

7.1.6 SQT otal = y 0 y = y 0 Iy

7.1.7 SQP ar. = y 0 P y = k


y k2 = kX o k2

7.1.8 SQRes. = y 0 (I P )y = k
ek2 = ky y
k2 = ky X o k2
7.1.9 r(P ), r(I) e r(I P ).

7.2 Verifique numericamente que:


7.2.1 P e (I P ) sao simetricas;

7.2.2 P e (I P ) sao idempotentes;


7.2.3 P (I P ) = (I P )P = ;

7.2.4 kyk2 = k
y k2 + k
ek2 , (SQTotal=SQPar.+SQRes.).

Captulo 3

Formas Quadr
aticas
3.1

Conceito

Defini
c
ao 3.1.1 Uma funca
o do tipo
X

Q(x) = x0 Ax =

aij xi xj ,

i,j

onde aij s
ao constantes reais, e chamada de forma quadr
atica em x.
Exemplo 3.1.1 A forma

Q(x)

2x21 + 5x22 x23 x1 x2 + 3x2 x3

2 21
0

 1
3
x1 x2 x3
5
=
2
2

3
0
1
2

e uma forma quadratica em x.

Exemplo 3.1.2 De modo generico, a forma



 a11
x1 x2
Q(x) =
a21
=

x1

x2 = x0 Ax

x3


x1
x2

a11 x21 + a22 x22 + a12 x1 x2 + a21 x2 x1


2
2
X
X
a2j x2 xj
a1j x1 xj +
j=1

j=1

a12
a22

2 X
2
X

aij xi xj

i=1 j=1

63

64

Luna, J. G. & Esteves, E. M.

e uma forma quadratica em x, se aij sao constantes reais.


Nestas condicoes, e facil observar que se a matriz A e simetrica, entao
X
X
Q(x) =
aij x2i + 2
aij xi xj .
i=j

3.2

i6=j

Casos de Interesse Para Estatstica

1. Se A(n) = I (n) = Q(x) = x0 Ix =

Pn

i=1

x2i

Pn
2
2. Se A(n) = E (n) = Q(x) = x0 Ex = ( i=1 xi ) .
h
i
0
1
x0 Ix x Ex
fornece uma medida para a variancia de x.
Note que n1
n

3. Sendo Q(y) = y 0 Ay = 2y12 + 5y22 y1 y2 + 3y2 y3 , como determinar A


quando simetrica?
a11 = 2,

Logo,

a22 = 5,

2a12 = 1

a12 = 21 ,

2a23 = 3

a23 =

a13 = 0

1
A=
2

3.3

a33 = 0,

3
2,

a31 = 0.
21

3
2

3
2

Classificac
ao de Formas Quadr
aticas

Defini
c
ao 3.3.1 Dada a forma quadr
atica Q(y) = y 0 Ay, no que se refere a
sua classificaca
o, temos:
1. Se Q(y) > 0, y 6= = Q(y) e positiva definida;
2. Se Q(y) 0 para y 6= e existe pelo menos um y 6= , tal que Q(y) = 0,
ent
ao Q(y) e semi positiva definida;
3. Se Q(y) < 0, y 6= , = Q(y) e negativa definida;
4. Se Q(y) 0 para y 6= e existe pelo menos um y 6= , tal que Q(y) = 0,
ent
ao Q(y) e semi negativa definida;

Luna, J. G. & Esteves, D. M.

65

5. Se Q(y) muda de sinal conforme a escolha de y 6= , ent


ao Q(y) e n
ao
definida.
Exemplo 3.3.1 Consideremos os seguintes casos:
P 2
1. Q(y) = y 0 Iy = y 0 y =
e positiva definida, pois e uma soma de
i yi
0
quadrados e y y = 0 y = ;
P
2
2. Q(y) = y 0 Ey = ( i yi ) e semi positiva definida, pois se refere a um
quadrado, sendo portanto nao negativo. No entanto qualquer y tal que a
soma de seus elementos seja nula, por exemplo, leva a Q(y) = 0;



 1 3
y1
3. Q(y) = y1 y2
e nao definida, pois muda de sinal
3 1
y2
 
1
=
conforme a escolha do vetor y 6= . Como por exemplo: y =
1


1
Q(y) = 8, y =
= Q(y) = 4, e assim por diante.
1
Observe que classificar uma forma quadratica pela definicao e algo bastante laborioso. Uma alternativa interessante, sera verificar a classificacao da
forma quadratica atraves da classificacao da matriz n
ucleo. Ou seja, uma forma
quadratica tem a mesma classificacao de sua matriz n
ucleo. Para tanto, basta
diagonalizar a matriz n
 es de operacoes de congruencia.
ucleo atrav
1 3
. Entao,
Por exemplo: A =
3 1




1 3
1
0

.Logo, A e nao definida.
3 1
0 8
Teorema 3.3.1 A classificaca
o de uma forma quadr
atica n
ao se altera por
transformaca
o n
ao singular.
Seja Q(x) = x0 Ax e seja uma transformacao nao singular x = Cy. Entao
Q(x) = x0 Ax = y 0 C 0 ACy = y 0 M y = Q(y). Onde A e M sao congruentes,
tendo portanto, a mesma classificacao. Portanto, Q(x) e Q(y) tem a mesma
classificacao.
Exemplo 3.3.2 Seja Q(x) = 2x21 + 2x1 x2 + 3x22 .
Logo
A=

2
1

1
3

e sua diagonal congruente e D 1 =

Portanto, Q(x) e positiva definida.

2
0

0
5/2

66

Luna, J. G. & Esteves, E. M.


Tomando, como exemplo, o vetor x =

10

Q(x) =

20

2
1


1
3

10
20


. Entao

10
20

= 1800.

Seja, agora, a transformacao nao singular x = Cy, onde






1
5 3
2 3
C=
.
e C 1 =
4
2
4 5
2



72
94
, cuja diagonal conEntao, Q(y) = y 0 M y, onde M = C 0 AC =
94 123


72
0
gruente e D 2 =
. Portanto, Q(y) = 72y12 + 188y1 y2 + 123y22
0 1175/18
e positiva definida. Alem disso,

 


1
5
10
5 3
.
=
y = C 1 x =
0
20
4
2
2
Portanto,
Q(y) = y 0 M y = 72(5)2 = 1800.
Teorema 3.3.2 Se A(n) e real e simetrica de posto k n, ent
ao a forma
0
quadr
atica Q(x) = x Ax pode ser escrita na forma similar mais simples. Isto
e,
k
X
Q(y) =
i yi2 ,
i=1

onde i , i = 1, 2, , k, s
ao as raizes caractersticas n
ao nulas de A.
Sendo A(n) real e simetrica de posto k, entao existe P ortogonal tal que

Seja

P 0 AP =

(k)

= diag{1 , , k , 0, , 0} = .

Q(x) = x0 Ax e seja x = P y,
entao,
Q(y) = y 0 P 0 AP y = ( y 01

y 02 )

(k)

y1
y2

= y 0 y =

k
X
i=1

i yi2 .

Luna, J. G. & Esteves, D. M.

67

Fato: Se A(n) e real, simetrica e idenpotente de posto k n, entao, de acordo


com o Teorema 1.11.2, A(n) tem k raizes caractersticas iguais a um e (n k)
raizes iguais a zero. Assim,


k
X
I (k)
yi2 .
e Q(y) = y 0 P 0 AP y =
P 0 AP =

i=1

Exemplo 3.3.3 Seja a forma quadr


atica

2 1
2
Q(x) = x0 Ax, onde A = 1
1 1
1

e seja a transformacao x = P y, onde P =

0 0
P 0 AP = 0 3
0 0
Assim, 1 = 0,

1
1
2
1
3

1
2

12

1
6

1
6

1
3

0
. Entao,

26

0
0 = .
3
2 = 3 = 3. Portanto,
Q(x)e semi positiva definida.
1
Tomando, como exemplo, o vetor x = 1 = Q(x) = 0.
1
Por outro lado, Q(y) = 0y12
+ 3y22 +
3y32 = y 0 y, onde x = P y = y = P 0 x
3
3

(P ortogonal). Portanto, y =
0 e segue que, Q(y) = 0 3 + 3 0 +

0
3 02 = 0.
Naturalmente, dada a similaridade, Q(x) e Q(y) tem a mesma classificacao.
Teorema 3.3.3 Se A(n) e real, simetrica e positiva definida, ent
ao a forma
quadr
atica x0 Ax pode ser escrita na forma similar mais simples, a saber:
Q(x) = Q(y) =

n
X

yi2 .

i=1

Seja Q(x) = x Ax. Se A e p.d. = B nao singular, tal que A = BB 0 . Seja


1
a transformacao y = B 0 x = x = B 0 y. Portanto,
0

Q(x) = y 0 B 1 AB 0

y = y 0 B 1 BB 0 B 0

y = y0y =

n
X
i=1

yi2 .

68

Luna, J. G. & Esteves, E. M.

Exemplo 3.3.4 Seja a forma quadr


atica Q(x) = x0 Ax, onde

5 0 0
3 1 1
A = 1 3 1 e = 0 2 0 .
0 0 2
1 1 3
Assim, 1 = 5, 2 = 3 = 2 =
e p.d. = Q(x) e p.d.
A
1
Seja, como ilustracao x = 1 = Q(x) = 15. Por outro lado,
1
C 1 D 1/2

3
1 0 0

=
3 1 0 0

1
1
1
0
3
4

Portanto,

y=Bx=

6
3

10
2

5 3
3

5 6
6

10
2

Outra matriz B poderia ser

B = P 1/2

Nesse caso,

3
3

2 6
3

3
3

6
6

10
2

= Q(y) = 15.


15
1
=
15
3
15

3
3
0


3
.
3
2 3

15
0 e Q(y) = 15.
0

y = Bx =

3.4

Derivadas de Formas Quadr


aticas

Em muitas situacoes e necessario as derivadas (parciais) de uma funcao com


respeito as variaveis envolvidas. Por exemplo, considere a funcao das variaveis
reais x1 , x2 e x3 , dada por
f (x1 , x2 , x3 ) = 6x21 2x1 x2 + x23 ,

< xi < i = 1, 2, 3.

(3.1)

Luna, J. G. & Esteves, D. M.

69

e suponha que e necessario obter as tres derivadas parciais


f (x)
,
x1

f (x)
x2

f (x)
.
x3

Desde que f (x) possa ser escrita como uma funcao do vetor x, pode ser desejavel
expressar as tres derivadas parciais como um vetor. Definimos f(xx) como
f (x)

e obtemos a expressao

f (x)

x1

f (x)
x2
f (x)
x3

12x1 2x2
f (x)

2x1
=
x
2x3

a partir da equacao (3.1). Isto nos conduz a` proxima definicao.


Defini
c
ao 3.4.1 (Derivada da fun
c
ao de um vetor) Seja f (x) uma funca
o de n vari
aveis reais independentes x1 , x2 , , xn . A derivada de f (x) com
respeito ao vetor x, onde

x1
x2

x = . ,
..
xn

e denotada por

f (x)
x

e e definida por

f (x)
=

f (x)
x1
f (x)
x2

..
.
f (x)
xn

Teorema 3.4.1 (Derivada de uma forma linear) Seja `(x) uma funca
o liPn
near de n vari
aveis reais independentes definida por `(x) = i=1 ai xi = a0 x =

x0 a, onde a0 = a1 a2 an e os a0i s s
ao constantes quaisquer. Ent
ao
`(x)
= a.
x

70

Luna, J. G. & Esteves, E. M.

Prova: Observe que o t-esimo elemento de `(x)/x e, por definicao, igual


a `(x)/xt , que e claramente at .
Teorema 3.4.2 (Derivada de uma forma quadr
atica) Seja Q(x) uma forma
quadr
atica em n vari
aveis reais independentes x1 , x2 , , xn definida por
Q(x) = x0 Ax,
onde A = (aij ) e uma matriz n n simetrica de constantes reais. Ent
ao,
Q(x)
= 2Ax.
x
Prova: Podemos escrever
Q(x) =

n
n X
X

aij xi xj ,

j=1 i=1

O t-esimo elemento de Q(x)/x, e obviamente


n
n
n
X
X
Q(x) X
atj xj = 2Ax,
ait xi = 2
atj xj +
=
xt
j=1
i=1
j=1

desde que A seja simetrica.

3.5

Valor Esperado e Matriz de Dispers


ao

Defini
c
ao 3.5.1 Dado um vetor x de vari
aveis aleat
orias com funca
o densidade de probabilidade f (x1 , , xn ), definimos a esperanca matem
atica da
funca
o t(x1 , , xn ), como
E[t(x1 , , xn )] =

t(x1 , , xn )f (x1 , , xn )dx1 , , dxn ,

desde que existam as integrais envolvidas.


Defini
c
ao 3.5.2 Seja p W q uma matriz na qual cada elemento e funca
o de
vetores n x1 , de vari
aveis aleat
orias: W = (wij ), onde wij = tij (x1 , , xn ).
Ent
ao a esperanca matem
atica de W e igual a uma matriz p Aq , tal que,
E[W ] = A; onde A = (aij ) e aij = E[tij (xi , , xn )].

Luna, J. G. & Esteves, D. M.

Em particular, se W =

x11
x21
..
.

71

x12
x22
..
.

..
.

x1q
x2q
..
.

. Entao,

xp1 xp2 xpq

E(x11 ) E(x12 )
E(x21 ) E(x22 )

E[W ] =
..
..
..

.
.
.
E(xp1 ) E(xp2 )

E(x1q )
E(x2q )
..
.

E(xpq )

Teorema 3.5.1 Sejam W e T matrizes de vari


aveis aleat
orias e A1 e A2
matrizes de constantes reais. Ent
ao se as dimens
oes forem compatveis e as
integrais existirem, teremos
1. E(A1 ) = A1 ;
2. E(A1 W ) = A1 E(W );
3. E(W A2 ) = E(W )A2 ;
4. E(A1 W A2 ) = A1 E(W )A2 ;
5. E(A1 T + A2 W ) = A1 E(T ) + A2 E(W ).
Defini
c
ao 3.5.3 Se x e y forem vetores de vari
aveis aleat
orias com E(x) e
E(y), define-se a covari
ancia entre eles por:
Cov(x, y) = E{[x E(x)][y E(y)]0 }.
Em particular, se x = y, temos a matriz de variancias e covariancias, ou matriz
de dispersao de x. Denotada por

V ar(x1 )
Cov(x1 , x2 ) Cov(x1 , xn )
Cov(x1 , x2 )
V ar(x2 )
Cov(x2 , xn )

V (x) =
.
..
..
..
..

.
.
.
.
Cov(x1 , xn )

Cov(x2 , xn )

V ar(xn )

Se A e uma matriz de constantes, entao

V [Ax] = AV (x)A0 .
Teorema 3.5.2 Seja x um vetor de vari
aveis aleat
orias com vetor de medias
e matriz de covari
ancia V , positiva definida. Seja tambem uma matriz A,
simetrica, de constantes reais. Ent
ao,
E[x0 Ax] = T r(AV ) + 0 A.

72

Luna, J. G. & Esteves, E. M.

Exemplo 3.5.1 Suponha y = X + e, onde X tem dimens


oes n k, y
+
2
N (X , I ) e seja P = XX o projetor ortogonal de y em C(X), onde X e
n k e P e simetrica e idempotente.
Entao:
(a)
E[y 0 P y]

T r[P I 2 ] + 0 X 0 P X

T r(P ) 2 + 0 X 0 XX + X

r(P ) 2 + 0 X 0 X.

Portanto,
E[y 0 P y] = r(X) 2 + 0 X 0 X.
(b)
E[y 0 (I P )y]

=
=
=

T r[I P ] 2 + 0 X 0 [I P ]X

r[I P ] 2 + 0 X 0 X 0 X 0 P X

(n k) 2 + 0 X 0 X 0 X 0 X.

Portanto,
E[y 0 (I P )y] = (n k) 2 .
Suponha, agora, que y = X + e
com i = 1, 2 e j = 1, 2. Neste caso,

1 1
y11
y12 1 1
=

y21 1 0
y22
1 0

Entao:

1/2
1/2
P =
0
0

seja caracterizado por yij = + i + eij ,

0
e11

0
1 + e12
e21
1
2
e22
1

1/2
1/2
0
0

0
0
1/2
1/2

1/2 1/2
1/2
1/2
(I P ) =

0
0
0
0

0
0
;
1/2
1/2

0
0
1/2
1/2

0
0
;
1/2
1/2

Luna, J. G. & Esteves, D. M.

73

e
0 X 0 X

=
=

2 2

1 2
2 0 1
0 2
2
X
X
2
2
4 + 2
i + 4
i .


4
2
2

Usando (a) podemos escrever:


E[y 0 P y] = 2 2 + 42 + 2

i2 + 4

Alem disso, sob certas condicoes, pode ser desejavel tomar


neste caso, vamos ter:
X
E[y 0 P y] = 2 2 + 42 + 2
i2 .

i i

= 0. E,

Nos estudos de componentes da variancia e de interesse obter os seguintes


resultados:


X
1
1
i2 .
y0P y =
E[y 0 P y] = 2 + 22 +
E
r(X)
r(X)
i
e

1
[y 0 (I P )y]
r(I P )

1
E[y 0 (I P )y] = 2 .
nk

y1
P
Teorema 3.5.3 Seja y Nn ( , ) com y = , onde y 1 e p 1,
y2
y 2 tem dimens
ao q 1 e p + q = n. Ent
ao y 1 e y 2 s
ao estatsticamente
1
independentes se, e somente se, Cov(y 1 , y 2 ) = .
E

Defini
c
ao 3.5.4 (Graus de liberdade) O n
umero de graus de liberdade da
forma quadr
atica y 0 Ay e dado por r(A). Denotaremos por g.l.(y 0 Ay) = r(A).

3.6

Distribuic
ao e Independ
encia de Formas
Quadr
aticas Sob Normalidade

Teorema 3.6.1 Seja um vetor y Nn ( , V ) e uma matriz A(n) real e simetrica de posto k n. Ent
ao, uma condica
o necess
aria e suficiente para que a
1 Veja

detalhes em Seber(1977), pg. 32.

74

Luna, J. G. & Esteves, E. M.

forma quadr
atica y 0 Ay tenha distribuica
o de qui-quadrado com k graus de liberdade e par
ametro de n
ao-centralidade = 21 0 A, e que AV seja idempotente.
Isto ser
a denotado por: y 0 Ay 2(k , 1 0 A) .
2

Corol
ario 1 Se y N (, I) ent
ao y 0 Ay 2(k) se, e somente se, A e
idempotente de posto k;
Corol
ario 2 Se y N (, V ) ent
ao y 0 Ay 2(k) se, e somente se, AV e
idempotente de posto k;
Corol
ario 3 Se y N (, 2 I) ent
ao
A e idempotente de posto k;

y 0 Ay
2

2(k,

1
2 2

0 ) se, e somente se,

Corol
ario 4 Se y N (, I) ent
ao y 0 Ay 2(k, 1 0 ) se, e somente se, A e
2
idempotente de posto k.
As demonstracoes do Teorema 3.6.1 e Corol
arios podem ser vistas com
detalhes em Searle(1971), pg. 57.
Teorema 3.6.2 Seja um vetor y Nn ( , I 2 ) e uma matriz A(n) real e
simetrica de posto k. Ent
ao, uma condica
o necess
aria e suficiente para que
1
0
2
(y

)
A(y

e
que
A
seja
idempotente.
(k)
2
Prova: Seja z =

1
(y

). Entao teremos:
E[z] =

V [z] =

1
E[y ] = ,

1
1
V [y ] = 2 I 2 = I.
2

Logo,
z Nn ( , I).
Por teorema anterior, z 0 Az 2(k) A for idempotente.
Mas, z 0 Az = 12 (y )0 A(y ) 2(k) A for idempotente.
Teorema 3.6.3 Se y Nn ( , V ), A(n) e real e simetrica de posto k e q B n
real de posto linha completo. Ent
ao:
(i) E[y 0 Ay] = T r(AV ) + 0 A,(mesmo y n
ao sendo normal);
(ii) Cov[By , y 0 Ay] = 2BV A;
(iii) Cov[By , Ay] = BV A.

Luna, J. G. & Esteves, D. M.

75

Teorema 3.6.4 Se y Nn ( , V ) e A(n) e real e simetrica, ent


ao uma
condica
o necess
aria e suficiente para que a forma linear By e a forma quadr
atica
y 0 Ay sejam independentemente distribuda e que BV A = .
BV A = = By e y 0 Ay independentes

(SU F.)

Seja BV A = . Pos-multiplicando por 2 = 2BV A = . Entao, do item


(ii) do teorema anterior, Cov(By , y 0 Ay) = . Portanto, sob normalidade, By
e y 0 Ay sao independentes.
By e y 0 Ay independentes = BV A = .

(N EC.)

By e y 0 Ay indep. = 2BV A = = BV A = , .
Teorema 3.6.5 Seja y Nn ( , V ) e sejam A(n) e B (n) matrizes reais e
simetricas. Ent
ao uma condica
o necess
aria e suficiente para que y 0 Ay e y 0 By
seja independentemente distribuda e que AV B = BV A = .
Exemplo 3.6.1 Seja y Nn (X , I 2 ) e sejam as formas quadr
aticas

y 0 (I P )y
, onde P = X(X 0 X) X 0 = XX + .
2
y 0 P y y 0 (I P )y
Entao, as formas quadraticas 2 e
sao independentes. Pois,
2
y0 P y
2

P (I P ) = XX + (I XX + ) = XX + XX + XX + = .
De modo analogo, teremos (I P )P = .
Alem disso, sendo P e (I P ) matrizes simetricas e idempotentes com
r(P ) = r(XX + ) = r(X) e r(I P ) = nr(X), temos duas formas quadraticas
com distribuicao de qui-quadrado. Isto e,
y 0 (I P )y
y0 P y
2[r(X ) , ] e
2[nr(X ) , ] ,
2
1
2

2
cujos parametros de nao centralidade sao:
1 =

1 0 0
1 0 0
X XX + X =
X X.
2
2
2 2

e
2 =
Portanto,

1 0 0
X (I XX + )X = .
2 2

y0 P y
2[r(X ) , 1 0 X 0 X ] , nao central
2
2 2

y 0 (I P )y
2[n(X )] , central.
2
E, conforme ja vimos, sao independentes. Pois, P (I P ) = .

76

Luna, J. G. & Esteves, E. M.

Teorema 3.6.6 (Teorema de Fisher-Cochran) Seja y Nn ( , I 2 ) e


Pp
seja y 0 Iy = y 0 y = i=1 y 0 Ai y. Ent
ao, uma condica
o necess
aria e suficiente
para que
y 0 Ai y
1 0
[r(Ai ) , i ] , onde i =
Ai
2
2 2
e para que
y 0 Ai y

y 0 Ai0 y, i 6= i0 , i, i0 = 1, 2, , p
e que r

p
X

Ai

i=1

p
X

sejam independentes,

r(Ai ).

i=1

Ou seja, sendo r(I (n) ) = n, deveremos ter

p
X

r(Ai ) = n.

i=1

Exemplo 3.6.2 Note que o exerccio anterior pode ser resolvido atraves do
teorema de Fisher - Cochran.
Basta notar que
I = P + (I P ).
Suponha, a ttulo de ilustracao, que os elementos envolvidos sejam:
n y1 ,

I (n) ,

nX p,

com

r(X) = k n.

Assim, teremos
r(I (n) ) = n,

r(P ) = k

r(I P ) = n k.

Portanto,
r(I (n) ) = r(P ) + r(I P ).
E, assim, teremos diretamente
y0P y
2[k , ] ,
2

1 0 0
X X
2 2

y 0 (I P )y
2[nk]
2
e sao independentemente distribudas. Pois,
P (I P ) = P P = .

Luna, J. G. & Esteves, D. M.

77

Teorema 3.6.7 Sejam as vari


aveis aleat
orias: Z, W , V e U , independentemente distribudas, como:
Z Nn ( , I),

W 2[k] ,

V 2[r]

U 2[p, ] .

Ent
ao:
i)

Z
q

W
k

t(k) ,

iv)

ii)

Z
q

V
r

U/p
F[p, k, ]
W/k

t(r) ,

onde e o par
ametro de n
ao centralidade.

v)

iii)

W/k
F[k, r] ,
V /r

U/p
F[p, r, ] .
V /r

78

Luna, J. G. & Esteves, E. M.

Lista de Exerccios # 4
4.1 Dadas as matrizes:

3 1
3
A = 1
1 1

1
1
3

3
B= 1
1

1
3
1

1
1 .
3

4.1.1 Forneca para cada uma delas, uma matriz diagonal congruente;
4.1.2 De suas classificacoes;
4.1.3 Encontre matrizes T 1 e T 2 , tais que A = T 1 T 01 e B = T 2 T 02 ;
4.1.4 Verifique se r(A) = r(T 1 ) e se r(B) = r(T 2 );
4.1.5 Encontre os autovalores de A e de B;

1 1 0
1 1 0

4.2 Dada a matriz X =


1 1 0 , obtenha:
1 0 1
1 0 1

4.2.1 P , onde P = X(X 0 X) X 0 = XX ` = XX + ;

4.2.2 A = 15 E, onde E e uma matriz quadrada de uns com dimensao 5;


4.2.3 P A;
4.2.4 I P ;
4.2.5 Verifique numericamente que A, P , P A e I P sao simetricas
e idempotentes.
4.3 Suponha que y N (X , I 2 ), onde 0 = ( 1 2 ), com 31 + 22 = 0.
(Use este fato para simplificacoes futuras) e de a distribuicao das formas
quadraticas:
4.3.1 Q1 =

1 0
2 y Ay;

4.3.2 Q2 =

1 0
2 y (P

4.3.3 Q3 =

1 0
2 y P y;

4.3.4 Q4 =

1 0
2 y y

4.3.5 Q5 =

1 0
2 y (I

A)y;

1 0
2 y Iy;

P )y;

4.3.6 Verifique a independencia entre as formas quadraticas do numerador e do denominador em 4.3.7 e 4.3.8.
 


y 0 (P A)y
y 0 (I P )y
/ 12 nr(X ) , com n = 5;
4.3.7 F1 = 12 r(X )1

Luna, J. G. & Esteves, D. M.


4.3.8 F2 =

1 y Py
2 r(X )
0

79

 

y 0 (I P )y
/ 12 nr(X ) .

4.4 Suponha que y 0 = (5 6 4 10 12). Determine os valores numericos das forma


quadraticas:
Q1 = y 0 Ay;

Q2 = y 0 (P A)y;

Q4 = y 0 (I P )y

Q3 = y 0 P y;

Q5 = y 0 Iy.

4.5 Verifique numericamente que


Q1 + Q 2 = Q 3 ;

Q1 + Q 2 + Q 4 = Q 5

Q3 + Q 4 = Q 5 .

4.6 Utilizando os dados do item 4.4, preencha com valores numericos a seguinte
tabela:
F. Variaca
o

G.L.

Media

S.Q.

Q1 =

Tratamento

r(X) 1 =

Q2 =

par
ametros

r(X) =

Q3 =

n r(X) =

Q4 =

n=

Q5 =

Resduo
Total

a=

Q2
r(X )1

a
c

Q3
r(X )

b
c

Q4
nr(X )

b=
c=

Q.M.

4.7 Aplique o teorema de F isher Cochran a tabela do item 4.6.


4.8 Usando o teorema adequado prove cada resultado (apenas das colunas das
esperancas matematicas) do quadro seguinte:
F. Variacao

GL

SQ

E[SQ]

E[QM ]

Media

Q1

2 + 52

2 + 52

Tratamento

Q2

2 + 312 + 222

2 +

312 +222
1

parametros

Q3

2 2 + 52 + 312 + 222

2 +

52 +312 +222
2

Resduo

Q4

3 2

Total

Q5

5 2 + 52 + 312 + 222

80

Luna, J. G. & Esteves, E. M.

OBS.: Proceda a`s simplificacoes propostas em 4.3.


4.9 Aplique o Teorema 3.3.2 a`s formas quadraticas Q1 a Q5 do item 4.4 (use
computador para encontrar as raizes caractersticas dos n
ucleos das formas
quadraticas correspondentes).

Captulo 4

Introduc
ao aos Modelos
Lineares
4.1

Generalidades

Estudaremos neste captulo alguns dos aspectos fundamentais na teoria dos


modelos lineares, no que se refere a`s equacoes normais, estimacao e teste de
hipoteses sobre parametros. Tendo em vista os objetivos iniciais da simplicidade
na apresentacao e da comparacao, sempre que possvel, dos resultados aqui
obtidos com aqueles que constam nos textos classicos de Estatstica Experimental, estaremos usando como exemplo um modelo para experimentos com
um fator inteiramente casualizado. Sem d
uvida, essa comparacao sera bastante
facilitada atraves do conceito de restricao nao estimavel nas solucoes.
Aqui, nao abordaremos o uso e as conseq
uencias da imposicao de restricoes
estimaveis aos parametros. Os interessados poderao buscar informacoes em
Carvalho (1984), Dachs & Carvalho(1984) e Searle(1984), entre outros.

4.2

Localizac
ao do Problema Fundamental

Seja y uma variavel que deve ser explicada atraves de um conjunto de fatores
x1 , x2 , , xd . Isto e,
y = f (x1 , x2 , , xd , e) = f (x, e)
onde e representa um conjunto provavelmente grande de outros fatores nao
considerados e que denominaremos de erro ou resduo.
81

82

Luna, J. G. & Esteves, E. M.

De certo modo, nosso problema resume-se no fato de encontrarmos uma


funcao f (x, ) que aproxime convenientemente y, como ja o fizemos anteriormente. Aqui, consideraremos apenas as funcoes que sao lineares nos parametros
(componentes do vetor ). Assim, sao lineares nos parametros:
y = 1 + 2 x2 + 3 x3 + e,

y = 0 + 1 log x1 + e,

etc.

y = 1 x1 + 22 x2 + e,

etc.

Nao sao lineares nos parametros:


y = 0 1 + x22 + 3 x3 + e,

Nesse contexto, uma funcao linear nos parametros que se presta para aproximar um vetor y, de observacoes, e um modelo linear.
OBS.1: Os modelos lineares sao classificados de acordo com as variaveis que
descrevem os fatores sejam qualitativos , quantitativos ou ambas. Maiores
detalhes podem ser visto, por exemplo, em GRYBILL(1961, p. 103 e
seguintes). Aqui, abordaremos apenas os modelos para delineamentos
experimentais, que o referido autor classifica como modelo 4.
OBS.2 Usaremos neste captulo, a norma euclideana para calcularmos a funcao
distancia. Onde procuramos uma funcao d[y, f (x, )] que seja mnima.

4.3

O Modelo Linear

Nesta secao definiremos o modelo linear geral e apresentaremos algunas caracterizacoes comumente encontradas na solucao de problemas praticos.

4.3.1

Definc
ao e Exemplos

Defini
c
ao 4.3.1 Sejam, sobre o corpo dos reais:
n y1 ,

um vetor de observaco
es;

nX p,

uma matriz de constantes conhecidas, de posto k min{n, p};

p 1 ,

um vetor de elementos desconhecidos, que chamaremos vetor de par


ametros e que desejamos estim
a-los;

n e1 ,

um vetor de elementos desconhecidos que chamaremos vetor dos erros


sem nenhuma pressuposica
o adicional.

Luna, J. G. & Esteves, D. M.

83

Ent
ao,
y = X + e

(4.1)

e definido como um modelo linear.

Naturalmente, de acordo com o interesse, o modelo linear podera assumir


diferentes caracterizacoes, como por exemplo:
(a) yi = 0 + 1 Xi + ei

Regresso linear simples,

(b) yi = 0 + 1 X1i + 2 X2i + + k Xki + ei


(c) yij = + i + eij

Regresso linear m
ultipla,

Experimento inteiramente ao acaso,

(d) yij = + i + Xij + eij


(e) yij = + i + j + eij

Modelo para analise de covariancia,


Experimento em blocos ao acaso,

(f ) yikj = + i + k + ik + eikj

Fatorial AB inteiramente ao acaso.

Considerando i = 1, 2, , n para os itens (a), (b); i = 1, 2 e j = 1, 2, 3 para


os itens (c), (d) e (e); i = 1, 2, j = 1, 2, 3 e k = 1, 2 para o item (f), o modelo
(4.1), tera as seguintes caracterizacoes:

(a)

(b)

(c)

y1
y2
..
.
yn
y1
y2
..
.
yn
y11
y12
y13
y21
y22
y23

1
1
..
.

x1
x2
..
.

xn




0
+

e1
e2
..
.
en

1
1
..
.

x11
x12
..
.

x21
x22
..
.

xk1
xk2
..
.

x1n

x2n

xkn

1 1 0
1 1 0
1 1 0
1 0 1
1 0 1
1 0 1

1 +

e11
e12
e13
e21
e22
e23

0
1
2
..
.
k

e1
e2
..
.
en

84

Luna, J. G. & Esteves, E. M.

(d)

(e)

(f )

y11
y12
y13
y21
y22
y23
y11
y12
y13
y21
y22
y23
y111
y112
y113
y121
y122
y123
y211
y212
y213
y221
y222
y223

1 1
1 1
1 1
1 0
1 0
1 0

0 x11
0 x12
0 x13
1 x21
1 x22
1 x23

1 1
1 1
1 1
1 0
1 0
1 0

0 1
0 0
0 0
1 1
1 0
1 0

1
1
1
1
1
1
1
1
1
1
1
1

1
1
1
1
1
1
0
0
0
0
0
0

0
0
0
0
0
0
1
1
1
1
1
1

1
1
1
0
0
0
1
1
1
0
0
0

1
+
2

0 0
1 0
0 1
0 0
1 0
0 1
0
0
0
1
1
1
0
0
0
1
1
1

1
1
1
0
0
0
0
0
0
0
0
0

0
0
0
1
1
1
0
0
0
0
0
0

1
2
1
2
3
0
0
0
0
0
0
1
1
1
0
0
0

e11
e12
e13
e21
e22
e23




+



0
0
0
0
0
0
0
0
0
1
1
1

e11
e12
e13
e21
e22
e23

1
2
1
2
11
12
21
22

e111
e112
e113
e121
e122
e123
e211
e212
e213
e221
e222
e223

Sendo y um vetor de observacoes e se o nosso objetivo e encontrar para


, para y, entao o
alguma caracterizacao de y = X + e, a melhor aproximacao y
problema resume-se em encontrarmos para essas caracterizacoes, um vetor o tal
seja a menor possvel. Mas isso nos ja sabemos fazer
que a distancia entre y e y
desde o captulo 2, pois qualquer o solucao das Equacoes Normais, minimiza
essa distancia.
Assim, para o modelo (c), o sistema de equacoes normais, X 0 X o = X 0 y,
fica:

y..

6 3 3
3 3 0 1 = y1.
y2.
2
3 0 3

Escolhendo a inversa condicional mais simples, teremos uma solucao de


mnimos quadrados. Isto e, o = X ` y = (X 0 X) X 0 y, entao,

0
o
1o = 0
0
2o

0
1/3
0

0
y..
0
0 y1. = y1.
y2.
y2.
1/3

Luna, J. G. & Esteves, D. M.

85

E, conforme ja vimos, como X 0 X tem posto incompleto, uma solucao qualquer o nao tem valor por si so, mas sim atraves de X. Pois como ja sabemos
= X o e a aproximacao de mnimos quadrados para o vetor y das equacoes
y
= yy
e ortogonal ao
normais. Alem disso, sabemos que o vetor dos erros e
espaco coluna de X ou espaco dos parametros. Ademais P = XX + = XX ` =
X(X 0 X) X 0 , u
nico para cada X, e o projetor ortogonal de y em C(X) e o
= X o = P y, a aproximacao
vetor projetado ortogonalmente e exatamente y
de mnimos quadrados para y.
Usando o teorema de Pitagoras, podemos ver que o vetor y se decompoe na

soma de dois vetores pertencentes a subespacos ortogonais entre si: o vetor y

do subespaco dos parametros, C(X), e o vetor e, o subespaco dos resduos. Isto


e,
k2 + k e
k2
k y k2 =k y
Note que ate o momento nao impuzemos nenhuma estrutura ao vetor de
erros. O modelo em questao sera bastante u
til e suficiente para grande parte
do estudo a que nos propomos neste curso. No entanto, em problemas praticos
ocorre o fato de que dados experimentais podem ser, em geral, melhor descritos
atraves de variaveis aleatorias. Para bem interpretar esse fato, pense no seguinte
experimento: Plantar uma muda de tomateiro em um vaso e medir sua altura
apos 20 dias. Ora, e bem sabido que se esse experimento for repetido, digamos
dez vezes, as alturas das plantas serao, em geral, diferentes mesmo que sejam
mantidas todas as condicoes experimentais do primeiro vaso, por exemplo: sementes geneticamente semelhantes, mesmo solo, mesmos tratos culturais, etc.
facil intuir que o conceito de variavel aleatoria esta aqui embutido. Nesse
E
contexto, torna-se desejavel ligar essas ideias ao modelo.

4.3.2

O Modelo Linear de Gauss-Markov (G.M.)

Defini
c
ao 4.3.2 O modelo
y = X + e,

(4.2)

onde,
y e um vetor de realizaco
es de vari
aveis aleat
orias de dimens
oes n 1,
X e uma matriz de constantes conhecidas de dimens
oes n p, de posto k
min{n, p},
e um vetor de par
ametros desconhecidos de dimens
oes p 1, que desejamos
estim
a-lo,

86

Luna, J. G. & Esteves, E. M.

e e um vetor de componentes n
ao observ
aveis e aleat
orios de dimens
oes n 1
2
com media e vari
ancia I . Quando o modelo apresenta essa estrutura
para o erro, o mesmo ser
a definido como Modelo Linear Ordin
ario de
Gauss-Markov.
FATOS:
(i) De acordo com as definicoes dos termos no modelo (4.2), teremos por conseq
uencia que: E[y] = E[X + e] = X, V ar[y] = V ar[X + e] = I 2 .
Alem disso, o S.E.N. e dado por:
X 0 X o = X 0 y
e a solucao de mnimos quadrados ordinaria e:
o = X 0 X

X 0 y;

(ii) A matriz de covariancias dos erros pode assumir caracterizacoes mais complexas do que simplesmente I 2 . Se V ar[e] e diagonal diferente de I 2 ,
as demais pressuposicoes permanecem inalteradas, isto e, se E[e] = e
V ar[e] = D 2 , entao o modelo e conhecido na literatura como Modelo
Linear Ponderado de Gauss Markov. Nesse caso o S.E.N. fica:
X 0 D 1 X o = X 0 D 1 y
e a solucao de mnimos quadrados ponderada e dada por:
o = X 0 D 1 X

X 0 D 1 y;

(iii) Se a matriz de covariancias tem estrutura mais geral que as formas diagonais anteriores, isto e, se E[e] = e V [e] = 2 , entao o modelo e referido
como Modelo Linear Generalizado de Gauss-Markov. E, o S.E.N. e dado
por:
X 0 1 X o = X 0 1 y
e uma solucao de mnimos quadrados generalizada e dada por:
o = X 0 1 X

X 0 1 y.

(iv) No momento em que formos desenvolver o item sobre inferencia estatstica,


mais especificamente a estimacao por intervalo, por regiao e testes de
hipoteses sera necessario associar uma distribuicao de probabilidade aos
erros.

Luna, J. G. & Esteves, D. M.

87

Defini
c
ao 4.3.3 Quando associamos a distribuica
o normal ao vetor dos erros
e do modelo (4.2), teremos o modelo conhecido por Modelo Linear de Gauss
Markov Normal (G.M.N.)
Assim, teremos:

e Nn ( , I 2 )

e Nn ( , D 2 )
y = X + e, (G.M.N ) =

e Nn ( , 2 )

Ordin
ario

P onderado

Generalizado.

Observa
c
ao: Neste contexto, sempre que mensionarmos o modelo linear de
Gauss-Markov, estaremos supondo o modelo ordinario, caso contrario,
comentaremos o fato.
Para efeito de fixacao dos conceitos, tomaremos como exemplo, o modelo
associado a um experimento com um fator inteiramente casualizado. Isto e, o
modelo y = X + e, caracterizado por: yij = + i + eij .
Exemplo 4.3.1 Consideraremos um ensaio hipotetico de complementaca
o alimentar para engorda de suinos, instalado num delineamento inteiramente ao
acaso. No qual foram considerados os seguintes tratamentos: T1 : Ureia, T2 :

Oleo
vegetal a 1% e T3 : Oleo
vegetal a 2%. Os resultados relativos ao ganho de
peso(em kg) por animal, ap
os 30 dias, encontram-se na Tabela 4.1.

Tabela 4.1: Dados hipoteticos de um ensaio inteiramente casualizado.

Leitao
1
2
3
4
Total
M
edia
Vari
ancia

T1
y11 = 5, 0
y12 = 4, 0
y13 = 3, 0
y14 = 4, 0
y1. = 16, 0
y1 = 4, 0
s21 = 2/3

Tratamento
T2
y21 = 6, 0
y22 = 7, 0
y23 = 8, 0
y2. = 21, 0
y2 = 7, 0
s22 = 1, 0

T3
y31 = 9, 0
y32 = 8, 0
y33 = 10, 0
y3. = 27, 0
y3 = 9, 0
s23 = 1, 0

88

Luna, J. G. & Esteves, E. M.

0.4
0.3
0.2
0.1

2 4 6 8 1012
0.4
0.3
0.2
0.1

2 4 6 8 1012

0.4
0.3
0.2
0.1

2 4 6 8 1012
d

0.4
0.3
0.2
0.1

2 4 6 8 1012

Figura 4.1: Graficos de y1 N (4, 1), y2 N (7, 1) e y3 N (9, 1)


Seja o modelo y = X + e, G.M. caracterizado por: yij = + i + eij . Ao
adotarmos este modelo, estamos supondo que:
(i) Cada observacao pode ser explicada atraves de uma adicao (modelo aditivo)
de dois componentes: um fixo, + i = i e um aleatorio eij ;
(ii) Desde que E[eij ] = 0 = E[yij ] = + i = i ;
(iii) Como i e constante para cada i, entao V [yij ] = V [eij ] = 2 .
De fato, y = X + e (G.M ). = E[y] = X e V [y] = I 2 , que
mostra tambem, atraves de I 2 , que os erros sao independentes. Isto
e, E[eij ei0 j 0 ] = E[eij ]E[ei0 j 0 ] = 0, para i 6= i0 ou j 6= j 0 . Sendo eij
independentes, entao os yij tambem o sao.
(iv) Entao, as observacoes yij sao independentemente distribudas e sao tais
que yij N (i , 2 ) ou y Nn (X , I 2 ).
A Figura 4.1 representa o comportamento probabilstico de tres populacoes
normais independentes com medias 1 = 4, 2 = 7 e 3 = 9 e variancia comum
2 = 1.
Obs.: A analise dos resduos, a qual nao sera abordada aqui, fornece um conjunto de tecnicas para verificar se as suposicoes acerca do modelo adotado
estao coerentes com o conjunto de dados em estudo.
Associando o modelo y = X + e caracterizado por yij = + i + eij a`s

Luna, J. G. & Esteves, D. M.

89

observacoes obtidas no experimento, podemos



y11
5, 0
1 1 0
y12 4, 0 1 1 0



y13 3, 0 1 1 0



y14 4, 0 1 1 0



y21 6, 0 1 0 1

=

y22 7, 0 = 1 0 1



y23 8, 0 1 0 1



y31 9, 0 1 0 0



y32 8, 0 1 0 0
y33
10, 0
1 0 0

4.3.3

escrever:

0
0

1
0

2
0

0
3

1
1

e11
e12
e13
e14
e21
e22
e23
e31
e32
e33

O Sistema de Equaco
es Normais (S.E.N.)

Ja sabemos que a aproximacao de mnimos quadrados para y e dada por


= P y = X o , onde o e qualquer solucao do sistema de equacoes normais,
y
independentemente da distribuicao de probabilidade associada ao erro e ij . Assim, para os dados experimentais aqui considerados, temos o seguinte S.E.N.
X 0 X o = X 0 y:

10 4 3 3
64
4 4 0 0 1o 16

3 0 3 0 2o = 21
3o
3 0 0 3
27

Observe que, para o modelo aqui considerado, o


camente, do seguinte modo:
o

n r 1 r2 r k
r1 r1 0 0 1o

r2 0 r2 0 2o

..
..
.. . .
. .
.
. .. ..
.
.
rk

rk

ko

onde,
n=

Pk

i=1 ri ,

S.E.N pode ser escrito generi

y..
y1.
y2.
..
.
yk.

e o n
umero total de observacoes;

ri e o n
umero de repeticoes do tratamento i, i = 1, , k;
y.. e o total geral;
yi. e o total das observacoes no tratamento i.

(4.3)

90

Luna, J. G. & Esteves, E. M.

Uma solucao do Sistema de equacoes (4.3) pode ser obtida, de modo generico,
por o = (X 0 X) X 0 y. E, considerando a inversa generalizada mais simples,
teremos:
o

0
0
0

0
y..
0
1o 0 1/r1

0
o
y1. y1
2 0

0
1/r2
0 y2. = y2

=
.
.. ..
.. .. ..
..
..
..
. .

.
.
.
.
.
.
ko

1/rk

yk.

yk

Para os dados do exemplo, temos:


0
o
o

1
1
o =
2o = y2
y3
3o

0
4, 0

=
7, 0
9, 0

o
e y
= X =

4
4
4
4
7
7
7
9
9
9

Isto e, yij = yi .
No exemplo em questao, a solucao o , para e obtida facilmente (em outros
modelos isto nem sempre ocorre). Veremos, em momento oportuno, que se a
matriz X nao tem posto coluna completo, entao o nao e um estimador nao
viciado para , e sim, para funcoes dos componentes de .

Luna, J. G. & Esteves, D. M.

4.4

91

Estimac
ao em Modelos Lineares

O sistema de equacoes normais (S.E.N.) apresenta propriedades importantes.


Dentre elas destacam-se aquelas sobre projecao e invariancia. Estudaremos
agora, algumas ideias sobre a solucao das equacoes normais, ja sabidamente
consistente, visando introduzir o conceito de estimacao por ponto no modelo
linear de Gauss-Markov.
Dado o modelo y = X + e (G.M.), se X tem posto coluna completo,
como em geral ocorre nos problemas de regressao, a menos da existencia de
colinearidade, entao X 0 X e positiva definida e portanto nao singular. Nesse
caso a sulucao u
nica do sistema e dada por:
= (X 0 X)1 Xy.

e um estimador nao viciado para . Ou seja,


Alem disso,
= E[(X 0 X)1 X 0 y] = (X 0 X)1 X 0 E[y] = (X 0 X)1 X 0 X = .
E[]
Assim, podemos dizer que se X tem posto coluna completo, a solucao u
nica
e o estimador de mnimos quadrados para .
de mnimos quadrados
pode ser obtida como:
Por outro lado, a matriz de dispersao de

V []

V [(X 0 X)1 X 0 y] = (X 0 X)1 X 0 V [y]X(X 0 X)1

(X 0 X)1 X 0 I 2 X(X 0 X)1 = (X 0 X)1 2 .

Observe que sendo X 0 X simetrica, sua inversa u


nica (X 0 X)1 tambem o e.
Se, no entanto, X nao tem posto coluna completo, como normalmente ocorre
nos delineamentos experimentais, a menos que sejam impostas restricoes ou
reparametrizacoes, Entao nao existe (X 0 X)1 e o S.E.N. e indeterminado.
Dentre as possveis solucoes, temos:
o = X ` y = (X 0 X) X 0 y,

o = X + y,

etc.

Nesses casos o nao e um estimador nao viciado para . Pois,


E[ o ] = E[(X 0 X) X 0 y] = (X 0 X) X 0 E[y] = (X 0 X) X 0 X = H,
Onde, H = (X 0 X) X 0 X e uma forma escalonada. Mais tarde veremos que
as funcoes determinadas por H serao chamadas de funco
es parametricas estim
aveis. Existem outras.
Dessa forma, a menos de condicoes especiais, como por exemplo, em certos
casos de restricao parametrica e/ou reparametrizacao, os componentes do vetro

92

Luna, J. G. & Esteves, E. M.

nao sao individualmente estimaveis. Ou seja, se X nao tem posto culuna


completo, entao a solucao o nao tem valor por si so, mas sim atraves de X.
Pois, X o = y
= P y e, conforme ja vimos, invariante para qualquer o solucao
das equacoes normais.
No exemplo em questao, tomando a inversa condicional mais simples, isto e:

0
0
0
0
0 1/4
0
0
,

(X 0 X)
1 = 0
0
1/3
0
0
0
0
1/3

temos

1
0

H 1 = (X 0 X)
1 (X X) = 1
1

0
1
0
0

0
0
1
0

1
0

0 2
1
3

0
+ 1
=

+ 2 .
+ 3

Se considerarmos outra inversa condicional de X 0 X, digamos:

1 1 1 0
1
1 0
,
1 7/4
(X 0 X)
2 =

1
1
2 0
3
0
0
0 0

teremos,

1 0
0 1
0
0

H 2 = (X X)2 (X X) =
0 0
0 0

0
0
1
0

1
1

1 2
0
3

+ 3
1 3

=
2 3
0

Observe que para cada H temos aparentemente um novo conjunto de funcoes


estimaveis. Na verdade os elementos de um conjunto podem ser obtidos como
combinacoes lineares do outro.
Note que no modelo em questao, E[yij ] = + i . E, portanto, + i e
estimavel. Esses resultados estao em H. Tambem o primeiro elemento de
H 2 e do tipo + i . Alem disso, os outros dois elementos nao nulos de H 2
sao,
( + 1 ) ( + 3 ) = 1 3
( + 2 ) ( + 3 ) = 2 3 .
Naturalmente existem outras funcoes nesse modelo que sao estimaveis.
Formalizaremos agora, algumas ideias basicas sobre estimacao em modelos
lineares.

Luna, J. G. & Esteves, D. M.

93

Defini
c
ao 4.4.1 (Rao, 1945) Uma funca
o linear parametrica do tipo 0 , e
dita estim
avel no modelo linear y = X + e (G.M.) se, e somente se, existir
uma combinaca
o linear das observaco
es, a0 y, tal que E[a0 y] = 0 .
FATO: Essa definicao sera muito u
til em demonstracoes, como veremos posteriormente, no entanto do ponto de vista pratico, ela e pouco operacional,
pois depende da dimensao do vetor y das observacoes.
Exemplo 4.4.1 Consideremos a funca
o parametrica

 1

0 = 1 1 0 0
2 = + 1 .
3
Estudemos a sua estimabilidade, empregando a definicao.

E[a0 y] = 0 = a0 X = 0 = a0 X = 0 = X 0 a = .
Assim,

1
1

0
0

ou

1 1 1
1 1 1
0 0 0
0 0 0

1 1
0 0
1 1
0 0

1 1
0 0
1 0
0 1

1 1
0 0
0 0
1 1

a1
a2
a3
a4
a5
a6
a7
a8
a9
a10

1
1

0
0

a1 + a2 + a3 + a4 + a5 + a6 + a7 + a8 + a9 + a10 = 1

a1 + a 2 + a 3 + a 4
=1
a
+
a
+
a
=0

5
6
7

a8 + a9 + a10 = 0

4
1/4
1
1/4

1
1/4

1
1/4

e a2 = 0 , sao tais que


Observe que os vetores, a1 =
2
0

0
0

1
0

1
0
0
0
E[a01 y] = a01 E[y] = a01 X = a02 X = 0 = + 1

94

Luna, J. G. & Esteves, E. M.

e existem outros vetores com esta caracterstica.


A combinacao linear a01 y, ou seja,

a01 y


0

y11
y12
y13
y14
y11
y22
y23
y31
y32
y33

4y11 (y12 + y13 + y14 ) + 2(y21 y22 ) + (y31 y32 ),



e um estimador de + 1 . Alem disso, sendo a01 X = 1 1 0 0 , tem-se

 1
0

E[a01 y] = a01 X = 1 1 0 0
2 = + 1 =
3

e, concluimos que a01 y e um estimador nao viciado para = + 1 .


De modo analogo, podemos verificar que a02 y = y1. tambem e um estimador
nao viciado para + 1 .
Dessa forma, teremos:
(a) 0 = + 1 e uma funcao parametrica estimavel;
(b) Dois dentre seus estimadores nao viesados sao:
0
d

= a01 y = 4y11 (y12 + y13 + y14 ) + 2(y21 y22 ) + (y31 y32 )


0
d

= a02 y = 41 (y11 + y12 + y13 + y14 ) = y1. .

(c) Usando os dados observados do Exemplo 4.3.1, duas dentre suas estimativas nao viciadas, sao:

5
4

0
d

= a01 y = 4 1 1 0 ... = 9, 0.

8
10

5
4

0
d
0
= a2 y = 1/4 1/4 0 0 ... = 4, 0.

8
10

Luna, J. G. & Esteves, D. M.

95

Observe que existem muitos outros estimadores nao tendenciosos a 0 y de


= +1 , basta escolher o vetor a, tal que X 0 a = . Veremos posteriormente
que apenas um deles sera o escolhido, por ser o melhor dentre todos.
0

Teorema 4.4.1 (RAO, 1945) Uma condica


o necess
aria e suficiente para que
0
a funca
o parametrica seja estim
avel no modelo y = X + e (G.M.) e que
C(X 0 ).
(Suf.) C(X 0 ) = 0 e estimavel.
C(X 0 ) = a : X 0 a = = 0 = a0 X,
Pos-multiplicando por = 0 = a0 X = 0 = a0 E[y] =
0 = E[a0 y] = 0 estimavel.
(Nec.) 0 estimavel = C(X 0 ).
0 estimavel = a : E[a0 y] = 0 = a0 X = 0 =
C(X 0 ), .
Exemplo 4.4.2 Utilize o teorema acima para verificar se as funco
es parame0
0
tricas: 1 = 1 + 2 e 2 = 1 2 , s
ao estim
aveis no modelo linear de
Gauss-Markov, y = X + e.
Verificando: Ora, 1 C(X 0 ) se existir uma combinacao linear das colunas de
X 0 , tal que, 1 v 1 + 2 v 2 + + k v k = 1 . Onde, i R (i = 1, 2, , k)
e v i (i = 1, 2, , k) sao vetores (colunas) linearmente independentes de
X 0 . Assim, teremos:

1
1

1
0 + 2
0

0
+ 3

1
0


1
0
1
0
=
0 1
1
0

1 + 2 + 3

1
=

=0
=1
=1
=0

P3
ao a funcao parametrica
Como nao existem i , tal que,
i=1 i v i = 1 , ent
0
1 nao e estimavel no modelo linear (G.M.).
Por outro lado, a funcao parametrica 02 = 1 2 e estimavel. Pois,

1
1
1 + 2 + 3 = 0
1
0

1
0
0 1
1
= 1

1
0 + 2 1 + 3 0 = 1 =

= 1
2

0
0
3 = 0
1
0

96

Luna, J. G. & Esteves, E. M.

Note que 1 = 1, 2 = 1 e 3 = 0 e solucao do sistema de equacoes. Isto


P3
e, existem i , tal que, i=1 i v i = 2 . Portanto, a funcao parametrica 02 e
estimavel no modelo linear de Gauss-Markov.
Corol
ario 5 Cada condica
o dada a seguir e necess
aria e suficiente para que
0 seja estim
avel no modelo linear de Gauss-Markov.
.
(a) r[X 0 ] = r[X 0 ..],
.
(b) r[X 0 X] = r[X 0 X ..].

Observe a associacao entre os conceitos de estimabilidade e de consistencia


visto no Captulo 2.
Exemplo 4.4.3 Consideremos o Exemplo 4.3.1 e as funco
es parametricas:
01 = 1 + 2 ,
Entao,

10
4

3
3

4
4
0
0

3 3
0 0
3 0
0 3

0 1
1 1
1 0
0 0

02 = + 1

03 = 1 + 2 23 .

1
2

1
0
0
0

0
1
0
0

0
0
1
0

1
1
1
0

23
11
12

1
1

0
1
4

0
0

23

1
0

11
12

Portanto, de acordo com o Corol


arion 5, dentre as tres funcoes parametricas
0
dadas, apenas 1 = 1 + 2 nao e estimavel no modelo proposto.
Defini
c
ao 4.4.2 Dada a funca
o parametrica 0 estim
avel no modelo linear de
0
Gauss-Markov, ent
ao o sistema consistente X X = e definido como sistema
de equaco
es normais associadas.
Observa
c
ao: O sistema de equacoes normais associadas (S.E.N.A.) preserva as
propriedades importantes do sistema de equacoes normais (S.E.N.), como
por exemplo, a invariancia de Xo , o solucao do S.E.N.A.
Tomemos como exemplo o contraste 0 = 1 3 , ja sabidamente estimavel.

10 4 3 3
1
0
4 4 0 0 2 1

3 0 3 0 3 = 0 .
3 0 0 3
4
1

Luna, J. G. & Esteves, D. M.


Dentre outras possveis solucoes

0 0

0 1
4

o
(1) =

0 0

0 0

o(2)

Portanto,

1
3

1

3
=
1

3

97

tomemos:

0 0
0

0 0
1

0
3
0

1
0 13

31

13

7
12

1
3

1
3

2
3

[Xo(1) ]0 = [Xo(2) ]0 =

1
4

1
4





=




0

0
1

0
0

1
0
1
4

1
4

1
4

13





=




0

13

13
7
12
1
3

31

31

e invariante.
Vimos que se 0 e estimavel, ela pode apresentar muitos estimadores nao
viciados, nos modelos de posto incompleto. Veremos agora, que apenas uma
delas e a melhor.
Defini
c
ao 4.4.3 Seja o modelo y = X + e (G.M.) e todas as possveis combinaco
es lineares a0 y, tais que E[a0 y] = 0 . Dentre elas, seja a 0 y. Ent
ao
0
0
a y e definida como o melhor estimador n
ao viesado de se, e somente se,
V [a 0 y] = M in{V [a0 y]},

a0 y : E[a0 y] = 0 .

A combinacao linear a 0 y assim definida, e conhecida como BLUE de 0 (Best


0
d
Linear Umbiased Estimator) e e denotada por: BLUE de 0 =
.
Teorema 4.4.2 Se 0 e estim
avel no modelo linear de Gauss-Markov, ent
ao
seu BLUE e obtido de modo u
nico por:
0
d

= 0 X 0 y,

onde e qualquer soluca


o das E.N.A.

facil ver, dada a invariancia de X, que 0 X 0 y e u


E
nica. Verifiquemos,
entao, se 0 X 0 y e realmente o BLUE de 0 .

98

Luna, J. G. & Esteves, E. M.

(a) 0 X 0 y e um estimador nao viciado de 0 . Isto e,


E[0 X 0 y] = 0 X 0 X = 0 , pois das E.N.A, temos que X 0 X = = 0 =
0 X 0 X.
(b) 0 X 0 y tem a menor variancia dentre todos os estimadores nao viciados de
0 .
Calculemos inicialmente a variancia de 0 X 0 y.
V [0 X 0 y] = 0 X 0 V [y]X = 0 X 0 X 2 = 0 2 .

(I)

Seja, agora, 0 X 0 y 0 y = (0 X 0 0 )y um outro estimador nao viciado de


0 . Entao,
V [a0 y]

= (0 X 0 0 )V (y)(X )

= (0 X 0 X 0 X 0 0 X + 0 ) 2 .

(II)

Por outro lado, na classe dos nao viciados, temos que:


E[a0 y]

=
=

E[(0 X 0 0 )y] = (0 X 0 0 )X

0 X 0 X 0 X = 0 = 0 X 0 X = 0 0 X.

Usando as E.N.A., temos que, 0 X 0 X 0 X = 0 se, e somente se,


0 X = , .

(III).

Assim, (II) fica:


V [a0 y] = (0 X 0 X + 0 ) 2

e, das E.N.A., vem

V [a0 y] = (0 + 0 ) 2 .

(IV )

Mas e um vetor e, portanto, 0 0.


Entao, comparando (I) e (IV), temos:
V [a0 y] V [0 Xy].
0
d
Assim, da definicao, temos que 0 Xy =
.
Alem disso, a igualdade so e verificada quando = , garantindo, como ja
vimos no incio da demonstracao, a unicidade do BLUE.

Exemplo 4.4.4 Seja 0 = 1 3 .

Luna, J. G. & Esteves, D. M.

99

Entao, usando resultados anteriores,


0
d

= 1d
2 = o(1) 0 X 0 y = o(2) 0 X 0 y = y1 y2 = 4 9 = 5.

O teorema a seguir fornece uma regra mais operacional, baseada nas equacoes
normais, para a obtencao do BLU E de 0 .
Teorema 4.4.3 (Teorema de Gauss-Markov) Se 0 e estim
avel no mode0
d
lo y = X+e (G.M.), ent
ao o BLUE de 0 e dado por 0 o , isto e,
= o ,
para qualquer o soluca
o das equaco
es ormais.
0 estimavel = : X 0 X = = 0 = 0 X 0 X,
pos-multiplicando por o = 0 o = 0 X 0 X o .
Usando as equacoes normais, tem-se:
0
d
0 o = 0 X 0 y =
.

FATOS:

(a) A unicidade de 0 esta garantida, pois,


0 o

0 (X 0 X) X 0 y = 0 X 0 X(X 0 X) X 0 y = 0 X 0 XX + y

0 X 0 y.

(b) Atraves do teorema de Gauss-Markov podemos obter uma forma mais operacional para a variancia do BLUE de 0 .
0
d
V [
]

V [0 o ] = V [0 (X 0 X) X 0 y]

0 (X 0 X) X 0 X[(X 0 X) ] 2

Sendo 0 estimavel = a : X 0 a = . Portanto,


0
d
V [
] = 0 (X 0 X) X 0 X[(X 0 X) ]0 X 0 a 2

Por outro lado, [(X 0 X) ]0 e tambem inversa condicional de X 0 X (veja,


dentre outros, Searle, 1971, pg. 20, Teorema 7, item (i)). Entao,
X[(X 0 X) ]0 X 0 = XX + = P . Assim sendo, temos:
0
d
V [
] = 0 (X 0 X) 2 .

0
4, 0
0
d

Exemplo 4.4.5 Seja


= 1d
3 e considerando o =
7, 0 do exemplo
9, 0
anterior, temos que

100

Luna, J. G. & Esteves, E. M.

0
d

=
=

1d
3 = 0 o
0

e
0
d
V [
]

0
 y1

1
y2 = y1 y3 = 5, 0
y3

V [1d
3 ] = 0 (X 0 X) 2

0
0
 0 1/4
0 1 0 1
=
0
0
0
0
7 2

=
12

0
0
1/3
0

0
0
1
0

0 0
1/3
1

Se usarmos outra condicional de (X 0 X) chegaremos ao mesmo resultado. Isto


7 2
.
e, V [1d
3 ] = 12

4.5

Regras Pr
aticas de Estimabilidade

Na secao anterior estudamos estimacao por ponto baseado no espaco coluna de X 0 (ou no espaco linha de X). Agora, consideraremos algumas regras
praticas, objetivando facilitar o estudo de estimabilidade.

4.5.1

Funco
es B
asicas Estim
aveis

Sabemos que dado o modelo linear y = X + e (G.M.), entao E[y] = X.


Portanto, X e estimavel. Usando este fato, podemos determinar as funcoes
basicas estimaveis para cada caracterizacao de y = X+e. Assim, por exemplo:
(a) Na caracterizacao yij = + i + eij , i = 1, 2 e j = 1, 2

1
1
E[y] = X =
1
1

1
1
0
0

+ 1
0

+ 1
0
1 =
+ 2
1
2
+ 2
1

Portanto, as funcoes basicas estimaveis nesse modelo, sao do tipo 0 =


+ i .

Luna, J. G. & Esteves, D. M.

101

De fato,
E[yij ] = E[ + i + eij ] = + i .
(b) Na caracterizacao yij = + i + j + eij ,

1 1 0 1 0 0
1 1 0 0 1 0

1 1 0 0 0 1

E[y] =
1 0 1 1 0 0

1 0 1 0 1 0
1 0 1 0 0 1

i = 1, 2 e j = 1, 2, 3.

+ 1 + 1

+ 1 + 2
1

2
= + 1 + 3

1
+ 2 + 1
2 + 2 + 2
+ 2 + 3
3

Entao, E[yij ] = + i + j exibe o conjunto de funcoes basicas estimaveis


nesse model. E assim por diante.
A associacao dessa propriedade com outra que vem a seguir, resolve a
maioria dos problemas praticos de estimabilidade.

4.5.2

Combinaco
es Lineares de Funco
es Estim
aveis

Sejam 01 , 02 , , 0p , p funcoes lineares parametricas estimaveis em


alguma caracterizacao de y = X + e (G.M.). Entao, da definicao de estimabilidade, tem-se que a : E[a0 y] = 0i , i = 1, 2, , p.
Seja c` , n
umeros reais arbitrarios, entao

E[

E[c1 a01 y]
E[c2 a02 y]
..
.

=
=
..
.

c1 a01 X
c2 a02 X
..
.

=
=
..
.

E[cp a0p y]

cp a0p X

Pp

0
`=1 c` a` y]

Pp

0
`=1 c` a` X

c1 01
c2 02
..
.

cp 0p
Pp

0
`=1 c` `

Portanto,
Pp
Pp
w0 = `=1 c` a0` e 0 = `=1 c` 0` , tais que, E[w 0 y] = 0 .
Pp
Entao, 0 = `=1 c` 0` e estimavel.

Exemplo 4.5.1 Considere as funco


es b
asicas estim
aveis do exemplo inicial,
isto e, i = + i .
Entao sao estimaveis, dentre outras,
(a) 04 = 3 + 1 + 2 + 3 .

102

Luna, J. G. & Esteves, E. M.


Basta tomar ci = 1, i e teremos
04 =

3
X

ci 0i =

i=1

ou simplesmente

1( + 1 ) + 1( + 2 ) + 1( + 3 ) = 3 + 1 + 2 + 3 .
(b) 05 = 21 2 3 = 2( + 1 ) 1( + 2 ) 1( + 3 ). Ou seja,



1
1
1
1
0
0



1 =
0 , 2 = 1 3 = 0 , c1 = 2, c2 = c3 = 1.
0
0
1
Assim,


0
1

0 2

1

0 = 1
1
1

1
1
0
1

5 =
ci i = 2
0 1 1
i=1
0
0

3
X

Portanto,

05 =

e assim por diante.

ci i ,

i=1

s
X

 1

1
2 = 21 2 3
3

Defini
ao 4.5.1 Seja o modelo linear y = X + e (G.M.)
 c
0
= 1 k ... 1 s ... 11 ks
Ent
ao as funco
es parametricas do tipo
k
X

c j j ,

k X
s
X

cij ij ,

e seja ,
 tal que,
..
. .

etc,

i=1 j=1

s
ao denominadas contrastes se, e somente se,
k
X
i=1

ci =

s
X

cj =

j=1

k X
s
X

cij = 0.

i=1 j=1

Assim, sao exemplos de contrastes:


01 = 1 2 ,

1
02 = 1 (2 + 3 ),
2

03 = 31 2 3 4 , etc.

Luna, J. G. & Esteves, D. M.

103

Observa
co
es:
(a) Os contrastes formam um subconjunto das funcoes estimaveis, sendo porP
tanto, estimaveis (caso particular onde ` c` = 0, no teorema da combinacao linear).
(b) Sendo 0 estimavel, entao
0
d

= 0 o = 0 (X 0 X) X 0 y =

0
d
V [
] = 0 (X 0 X) 2 =

X 2
i

i yi ,

ri

onde, ri e o n
umero de repeticoes do tratamento i, sao invariantes para
qualquer (X 0 X) .
Considerando-se um modelo com um fator inteiramente casualizado e a inversa condicional mais simples, e facil chegar a esses resultados.
Exemplo 4.5.2 Seja a funca
o parametrica

0 =

 1

1
2 = 21 2 3 .
3

Entao, a estimativa do contraste e dada por:

0
d

= 0 o = 2
y1 y2 y3 = 8, 0,

a variancia do contraste, por:

 2

(2)
5
(1)2
(1)2 2
0
0
0

2
d
V [ ] = (X X) =
= 2 .
+
+
4
3
3
3

e a estimativa da variancia da estimativa do contraste, por:

4.5.3

5
0
d
Vb [
] = s2 ,
3

onde,

s2 = QM Res.

Usando as Equaco
es Normais

Dado o sistema de equacoes normais X 0 X = X 0 y, entao 0 e estimavel


se, e somente se, puder ser obtida como combinacao linear dos componentes de

104

Luna, J. G. & Esteves, E. M.

X 0 X (lado esquerdo do S.E.N.). Em caso afirmativo, seu BLUE sera dado pela
mesma combinacao linear dos componentes de X 0 y (lado direito do S.E.N.).
No exemplo em questao, temos

64
10 4 3 3

4 4 0 0 1 16

3 0 3 0 2 = 21 .
3
27
3 0 0 3
Seja a funcao parametrica

0 = 1 2 =

1
4

Portanto,

Se considerarmos

1d
2 =
0 = + 3 =

 1 1

0
2 3
3

1
1
(16) (21) = 3, 0.
4
3

1
3

teremos
d
+ 3 =

 1

3
2 ,
3

1
(27) = 9, 0 = y3 .
3

 1

0
2
3

Luna, J. G. & Esteves, D. M.

4.5.4

105

Um Teste Alternativo

Ja vimos que 0 estimavel = a : X 0 a = = 0 = a0 X. Posmultiplicando por H = (X 0 X) (X 0 X), temos


0 H

a0 X(X 0 X) (X 0 X) = a0 [X(X 0 X) X 0 ]X

a0 P X = a0 XX + X = a0 X = 0 .

Em outras palavras, se 0 e estimavel, entao 0 H = 0 .


No exemplo em questao, seja 01 = 1 2 , ja sabidamente estimavel e seja
02 = 1 + 2 + 3 .
Tomando duas matrizes H, isto e,

1 0 0
1
0 0 0 0

0 1 0 1
1 1 0 0

,
e H2 =
H1 =

0 0 1 1
1 0 1 0

0 0 0
0
1 0 0 1

podemos verificar que:

01 H 1 = 01 H 2 = 01 , pois 1 2 e estimavel.
e que
02 H 1 6= 02 e 02 H 2 6= 02 , pois 1 + 2 + 3 nao e estimavel.

4.5.5

Equaco
es Normais Reduzidas e Estimac
ao
de Subconjuntos de Par
ametros

Aqui, apresentaremos algumas ideias sobre equacoes normais reduzidas, as


quais sao de grande utilidade para o estudo de modelos mais parametrizados
que o inteiramente casualizado com um fator.
Consideremos o modelo y = X + e (G.M.) e as particoes:




e 0 = 1 ... 2 .
X = X 1 ... X 2

Entao podemos escrever


y=

X1

..
.

X2

1
+ e = X 1 1 + X 2 2 + e
2

106

Luna, J. G. & Esteves, E. M.

e o sistema de equacoes normais, X 0 X o = X 0 y, fica:

o
X 01 y
X 01 X 1 X 01 X 2
1

X 02 y
o2
X 02 X 1 X 02 X 2

ou

o
o
X 01 X 1 1 + X 01 X 2 2 = X 01 y

X 02 X 1 o1 + X 02 X 2 o2 = X 02 y

(I)
(II)

Para encontrar o sistema de equacoes normais reduzidas de o2 eliminado o1 ,


procedemos como segue.
0
Pre- multiplicando (I) por X 02 X +
1 , vem
0

o
o
0
0
+
0
0
+
0
X 02 X +
1 X 1 X 1 1 + X 2 X 1 X 1 X 2 2 = X 2 X 1 X 1 y =
o
o
0
+
0
+
X 02 X 1 X +
1 X 1 1 + X 2 X 1 X 1 X 2 2 = X 2 X 1 X 1 y =

X 02 X 1 o1 + X 02 P 1 X 2 o2 = X 02 P 1 y,
X 1X +
1

(III)

X 1 (X 01 X 1 ) X 01

onde P 1 =
=
e o projetor ortogonal de y em C(X 1 ).
Subtraindo-se (III) de (II), temos:
X 02 X 1 o1 + X 02 X 2 o2 = X 02 y
X 02 X 1 o1 X 02 P 1 X 2 o2 = X 02 P 1 y
X 02 (I P 1 )X 2 o2 = X 02 (I P 1 )y

que e o sistema de equacoes normais reduzidas para o2 eliminado o1 .


Para o exemplo que temos considerado nas secoes anteriores, podemos ter:

1


.
o

2o .
X = X1 . X2 , =
, onde =
o
3o

Assim sendo, o modelo linear e o SENR para o eliminado o , ficam:

8 4 4
32
1
3
3

4
7 3 2o =
6 ,
y = X 1 + X 2 + e e
10
10
o
4 3
7
3
26

respectivamente.
Uma solucao de mnimos quadrados para o e dada por:
o

=
=

[X 02 (I P 1 )X 2 ] X 02 (I P 1 )y


0 0 0
32
0
1
3

0 7 3
6 = 3 .
12
10
0 3 7
26
5

Luna, J. G. & Esteves, D. M.

107

Observa
co
es:
(a) Sendo (I P 1 ) = (I X 1 X +
1 ) idempotente, podemos escrever
X 02 (I P 1 )(I P 1 )X 2 o2 = X 02 (I P 1 )y.
Fazendo W = (I P 1 )X 2 teremos W 0 W o = W 0 y que tem as caractersticas das equacoes normais, sendo portanto consistente.
(b) Note que X 02 (IP 1 )X 2 tem dimensoes menores que X 0 X. Para o exemplo
em questao a reducao das dimencoes e pequena, porem em modelos mais
parametrizados esta e bastante significativa, facilitando sobremaneira a
obtencao das solucoes. De modo analogo, no estudo de estimabilidade e
na obtencao dos BLUEs e suas variancias. Observe que, num modelo
0
0
mais parametrizado, 0 de 0 , fica reduzida a de , onde 0 e do
tipo:


0 = 0 ... 0 ... 0 ... ... 0 .


No exemplo em questao, temos 0 = 0 ... 0 .
0

Teorema 4.5.1 Uma funca


o linear parametrica e estim
avel no modelo
linear de Gauss-Markov y = X 1 1 +X 2 2 +e se, e somente se, C[X 02 (I
P 1 )].
Prova: Tomando as E.N.A. X 0 X = e uma funcao parametrica 0 .






..
..
..
0
0
0
0
Sejam X =
,

=
e

=
.
X1 . X2
1 . 2
.
Entao, o sistema de equacoes normais associados fica:

X 01 X 1 1 + X 01 X 2 2 = (I)

X 02 X 1 1 + X 02 X 2 2 =

(II)

Pre-multiplicando (I) por X 02 X +


1 e subtraindo de (II), encontramos
X 02 (I P 1 )X 2 1 = ,
que, por resultados discutidos anteriormente, e a prova do teorema.
0

Teorema 4.5.2 Se 2 e estim


avel no modelo y = X 1 1 +X 2 2 +e (G.M.),
ent
ao seu BLUE pode ser obtido por:
0
0
d
2 = o2 .

invariante, o2 soluca
o das E.N.A. Alem disso,
0
0
V [d
2 ] = [X 02 (I P 1 )X 2 ] 2 .

108

Luna, J. G. & Esteves, E. M.


A prova do teorema e semelhante a` do item anterior.

Exemplo 4.5.3 Sejam as funco


es parametricas estim
aveis: 01 = 1 2 e
0
a estudadas anteriormente, para as quais tivemos,
2 = 21 2 3 , j
0
d

1 = 3, 0

0
d

2 = 8, 0

No caso presente, temos:

0
0 o
d
1 = 1 =

0
V [d
1 ]

7 2
0
d
V [

1 ] =
12
5 2
0
d
V [
2 ] = .
3

0
3 = 3, 0
5

1 [X 02 (I P 1 )X 2 ] 1 2

1
0 0 0

1
1 1 0 0 7 3 1 2
=
12
0
0 3 7
7 2
=
.
12

0

d
0
0 o
2 = 2 = 2 1 1 3 = 8, 0
5

0
V [d
2 ]

4.6

2 [X 02 (I P 1 )X 2 ] 2 2

0 0

1
2 1 1 0 7
=
12
0 3
5 2
=
.
3

2
0
3 1 2
1
7

A An
alise de Vari
ancia

Vimos anteriormente que y pode ser decomposto na soma de dois vetores de


espacos ortogonais, ou seja, y = y
+
e. Assim, temos
kyk2 = k
y k2 + k
ek2 = kX o k2 + ky X o k2 .

Luna, J. G. & Esteves, D. M.

109

Usando a definicao da norma euclideana e lembrando que o sistema de


equacoes normais e dado por X 0 X o = X 0 y, vem
0

y 0 y = o X 0 y + (y 0 y o X 0 y),

(4.4)

cujos termos sao definidos respectivamente como: Soma de quadrados total,


Soma de quadrados dos parametros e Soma de quadrados dos resduos. Ou
melhor,
SQT otal = SQP ar. + SQRes.
Para o exemplo que estamos considerando, temos
X

SQT otal = y 0 y =

i,j

2
= (5, 0)2 + (4, 0)2 + + (10, 0)2 = 460, 0,
yij

SQP ar. = o X 0 y =

64
 16

9
21 = 454, 0
27

SQRes. = SQT otal SQP ar. = 460, 0 454, 0 = 6, 0.


As formas quadraticas correspondentes ficam facilmente identificadas quando substituimos o por (X 0 X) X 0 y. Ou seja,
y0y

=
=

o X 0 y + (y 0 y o X 0 y)

y 0 X(X 0 X) X 0 y + (y 0 y y 0 X(X 0 X) X 0 y).

Portanto,
y 0 Iy = y 0 P y + (y 0 Iy y 0 P y)
ou ainda,
y 0 Iy = y 0 P y + y 0 (I P )y,

(4.5)

onde P e o projetor ortogonal de y em C(X), o subespaco dos parametros e


(I P ) e o projetor ortogonal de y no espaco ortogonal ao espaco coluna de
X, C (X), o espaco dos resduos.
Na pratica, nao calculamos as somas de quadrados atraves dos projetores.
Pois, quando trabalhamos com grandes massas de dados e inpraticavel a sua
utilizacao.
Exemplo 4.6.1 Utilizando os dados do exemplo em quest
ao, temos:

110

Luna, J. G. & Esteves, E. M.

SQP ar. = y 0 P y = y 0 P 0 P y = y
0 y

Mas,

y
= Py =

1
4

1
4

1
4

1
4

1
4

1
4

1
4

1
4

1
4

1
4

1
4

1
4

1
4

1
4

1
4

1
4

1
3

1
3

1
3

1
3

1
3

1
3

1
3

1
3

1
3

1
3

1
3

1
3

1
3

1
3

1
3

1
3

1
3

1
3

5
4
3
4
6
8
7
9
8
10

4
4
4
4
7
7
7
9
9
9

Assim,
SQP ar.

y0P y = y0y
=y
0 y


9

4
4
4
4
7
7
7
9
9
9

= 454, 0,

SQRes = y 0 (I P )y = y 0 (I P )0 (I P )y =
e0
e.
Mas,

e =

(I P )y

Luna, J. G. & Esteves, D. M.

Portanto,

3
4

41 41 14

111
0

1 3 1 1

4 4 4 4 0 0 0 0 0 0

1 1 3 1

4 4 4 4 0 0 0 0 0 0

1 1 1 3

4 4 4 4 0 0 0 0 0 0

0 0 0 0 2 1 1 0 0 0
3
3
3

0 0 0 0 1 2 1 0 0 0
3
3
3

0 0 0 0 1 1 2 0 0 0
3
3
3

0 0 0 0 0 0 0 2 1 1
3
3
3

0 0 0 0 0 0 0 1 2 1

3
3
3

0 0 0 0 0 0 0 13 31 32

5
4
3
4
6
8
7
9
8
10

SQRes. = y 0 (I P )y =
e0
e = 6, 0
Observe na Tabela 4.1 do Exemplo 4.3.1 que a variancia da amostra
relativa ao tratamento i, (i=1,2,3), foi obtida a partir da expressao:

P
2
X
y
)
(
ij
1
j

,
y2
s2i =
ri 1 j ij
ri

e, desse modo, sob (G.M.)

E[s2i ] = 2 .
Deve ser observado tambem que P e (I P ) sao idempotentes. Isto e,
P P = P e (I P )(I P ) = (I P ). Alem disso, que as formas quadraticas
y 0 P y e y 0 (I P )y sao independentes. Pois, P (I P ) = .
A Defini
c
ao 3.5.4 diz que o n
umero de graus de liberdade de uma soma de
quadrados e dado pelo posto da matriz n
ucleo da forma quadratica correspondente. Assim, para o exemplo que estamos considerando, teremos:
SQT otal = y 0 Iy = g.l.[SQT otal] = r[I (n) ] = r[I (10) ] = 10,
SQP ar. = y 0 P y = g.l.[SQP ar.] = r[P ] = r[XX + ] = r[X] = 3,
SQRes. = y 0 (I P )y = g.l.[SQRes.] = r[I P ] = r[I] r[P ] = 7.
De acordo com o Teorema 3.6.1, tem-se que:

112

Luna, J. G. & Esteves, E. M.


y0 P y

SQP ar.
2

2
.
0
0
[r(X ); 212 X X ]
Pois, 0 X 0 P X = 0 X 0 XX + X = 0 X 0 X.

SQRes.
2

y 0 (I P )y

2nr(X ) .
[
]
Uma vez que X 0 (I P )X = 0 X 0 X 0 X 0 XX + X = .
2
0

Os parametros envolvidos no modelo considerado, resumem-se em media e


tratamento. Assim sendo, temos:
SQP ar. = SQM edia + SQT rat.
Em geral, estamos interessados nos efeitos dos tratamentos. Dessa forma,
podemos tomar
SQT rat. = y 0 (P P 1 )y,
onde,


= , X = X1

..
.

X2

, X 01 =

1
1
X 1 X 01 = E (n) ,
n
n
e uma matriz quadrada de ordem n com todos seus elementos iguais
P 1 = X 1 (X 01 X 1 ) X 01 =

onde E(n)
a um.
Portanto,

SQM edia = y 0 P 1 y =

1 0
y Ey =
n

hP

i,j yij

i2

y..2
=C
n

Onde, C e conhecido como fator de correca


o ou soma de quadrados da media.
Assim sendo, definimos a soma de quadrados de tratamento como:
SQT rat. = y 0 (P P 1 )y = y 0 P y y 0 P 1 y = SQP ar. C.
Alem disso, pode ser verificado que
SQT rat. = y 0 (P P 1 )y =

X
i

ri (
yi. y.. )2 =

X y2

i.

ri

C.

Considerando-se os dados do exemplo, temos:


C=

2
y..
n

(64)2
10

SQT rat. =

P3

= 409.6 e

2
yi.
i=1 ri

C =

(16)2
4

(21)2
3

(27)2
3

409.6 = 44, 4.

Luna, J. G. & Esteves, D. M.

113

Observe que (P P 1 ) e simetrica e idempotente, e entao,


r[(P P 1 )] = T r[(P P 1 ) = T r[P ] T r[P 1 ] = r[X] 1
Desse modo,
SQT rat. = y 0 (P P 1 )y = g.l.[SQT rat.] = r[X] 1 e segue que,

SQT rat
2

y 0 (P P 1 )y

2r(X )1; 1 P r 2 .
[
i i ]
2 2
i

= 0, mostra-se que
X
X
ri (i )2 .
ri i2 =
0 X 0 (P P 1 )X =

Pois, admitindo-se que

i r i i

Assim, nos delineamento inteiramente casualizados, onde sao considerados


apenas tratamentos, a hipotese natural a ser formulada e:
H0 : 1 = 2 = = k =
Assim, sob H0 ,
y 0 (P P 1 )y
SQT rat.
=
2r(X )1 .
2
[
]

2
Observe que no modelo de Gauss Markov, sob qualquer hipotese, SQRes.
2
segue distribuicao de qui-quadrado central com n r(X) graus de liberdade e
rat.
sob H0 , SQT
tem distribuicao de qui-quadrado central com r(X) 1 graus
2
de liberdade. Alem de serem independentes. Pois, pode-se verificar que (I
P )(P P 1 ) = .
Por outro lado, os valores esperados das somas dos quadrados sao:
E[SQRes.]

=
=

E[SQT rat.]

E[y 0 (I P )y] = T r[(I P )] 2 + 0 X 0 (I P )X


[n r(X)] 2 ,

E[y 0 (P P 1 )y] = T r[(P P 1 )] 2 + 0 X 0 (P P 1 )X


X
= [r(X) 1] 2 +
ri (i )2

e os respectivos valores esperados dos quadrados medios sao:


E[QM Res.] =

E[SQRes.]
nr(X )

= 2

e
E[QM T rat.] =

E[SQT rat.]
r(X )1

= 2 +

ri (i )2

r(X )1

= 2 + f (i ), f (i ) 0.

114

Luna, J. G. & Esteves, E. M.

Note que, sob H0 : 1 = = k = , o quadrado medio de tratamentos e


um estimador nao viciado para 2 e que independentemente de H0 , o quadrado
medio dos resduos tambem e um estimador nao viciado para 2 . Entao, podemos deduzir que uma estatstica apropriada para testar H0 e aquela que compara
o QM T rat. com QM Res., com base nos dados de um experimento (amostra).
Obviamente, se 1 = = k = , entao
f (i ) = 0

2 + f (i )
E(QM T rat.)
=
= 1.
E(QM Res.)
2
2

(i )
Dessa forma, podemos estabelecer uma regra para verificar se +f
e signi2
ficativamente diferente de 1. Ou seja, se i e significativamente diferente de ,
usando os dados amostrais.
Portanto, visto que a decomposicao y 0 y = y 0 P y + y 0 (I P )y se verifica,
isto e, que a decomposicao cumpre com as condicoes do Teorema de Cochran e
que
y 0 (I P )y
QM Res.
=
2[nr(X )]
[n r(X)]
2

e, sob H0 ,
SQT rat. = [r(X) 1]

y 0 (P P 1 )y
QM T rat.
=
2[r(X )1] .
2

Entao, sob H0 , o quociente


F =

[r(X )1]QM T rat.


[r(X )1] 2
[nr(X )]QM Res.
[nr(X )] 2

QM T rat.
F[r(X )1; nr(X )]
QM Res.

rat
segue uma distribuicao
Em palavras, visto que, sob H0 , a estatstica SQT
2
de qui-quadrado central com t = r(X) 1 e que independentemente de H0
a estatstica SQRes
segue uma distribuicao de qui-quadrado central com r =
2
n r(X), alem de serem independentes. Entao a estatstica F segue uma distribuicao F de Snedecor e Fisher central com t graus de liberdade do numerador
e r graus de liberdade do denominador. A regra de decisao sera, rejeitar H0
quando o valor da estatstica F for maior que o correspondente valor teorico da
distribuicao F com t e r graus de liberdade ao nvel de significancia .
Se QM T rat. for muito maior que QM Res., o valor de F sera muito maior que
1, tao maior que ultrapassara o valor crtico da distribuicao F[t ; r , ] (valores
que ja se encontram tabelado a um dado nvel de significancia), localizando-se
na regiao de rejeicao de H0 . Esse fato ocorre conforme ilustra a Figura 4.2.

Luna, J. G. & Esteves, D. M.

115

Figura 4.2: Grafico da Distribuicao F: Regiao de Aceitacao e Regiao de


Rejeicao de H0 ; Valores crticos de F quando = 0, 05 e = 0, 01.
Para o exemplo que estamos considerando, encontramos os seguintes resultados para analise de variancia:
Tabela 4.2: Analise de variancia
F. Variacao
Media

GL
r(X 1 ) = 1

SQ
409,60

QM

Tratamento
Parametros

r(X) 1 = 2
r(X) = 3

44,40
454,00

22,2000

25, 90

Resduo
Total

n r(X) = 7
n = 10

6,00
460,00

s2 = 0, 8571

Observe que
F =

22, 2000
QM T rat.
=
= 25, 90.
QM Res.
0, 8571

Os valores crticos da distribuicao F com 2 e 7 graus de liberdade e nveis de


significancia = 0, 05 e = 0, 01 sao respectivamente F[2; 7; 0,05] = 4, 74 e
F[2; 7; 0,01] = 9, 55.
Como F = 25, 90 > F[2; 7; 0,01] = 9, 55, rejeitamos H0 e concluimos, ao nvel
de significancia de 1%, que os efeitos das complementacoes alimentares sobre o
ganho de peso dos suinos nao sao todos nulos, ou que o ganho de peso medio
dos suinos diferem estatsticamente entre si para pelo menos um para de medias
(i , i0 ), i 6= i0 = 1, 2, 3.

116

Luna, J. G. & Esteves, E. M.

Soma de Quadrados da Hip


otese Ho : B 0 =

4.6.1

Este assunto e bastante amplo e nesta seq


uencia estudaremos o caso mais
simples. Os interessados que desejarem aprofundar-se poderao encontrar su (1959), Searle (1966), Searle
porte teorico em Rao (1945-1965), Scheffe
(1971-1984), dentre outros.
Partiremos do princpio de que somente hipoteses baseadas em funcoes parametricas estimaveis sao testaveis. Neste sentido, estaremos interessados em
testar apenas hipoteses do tipo H0 : B 0 = , onde B 0 e estimavel e B 0 tem
posto linha completo.
Sabemos do Modelo Linear de Gauss-Markov, que y Nn (X , I 2 ) e
entao,
0
d

N (0 , 0 (X 0 X) 2 )
e que

0
d
B
Nr(B ) (B 0 , B 0 (X 0 X) B 2 )

Sabemos que B 0 (X 0 X) B e positiva definida e, portanto, nao singular, pois


B tem posto linha completo. Seja A nao singular, tal que,
0

[B 0 (X 0 X) B]1 = A0 A = B 0 (X 0 X) B = A1 A0

e seja a forma quadratica Q0 Q, onde


Q=
Entao,
E[Q] =
V [Q] =

0
d
1
E[AB
1
2 AV

Segue que,

0
d
A(B
B 0 )
.

AB 0 ] =

0
d
[B
]A0 =

1 0 1 0 2
1
A A
2 AA

= I.

Q0 Q 2r(B ) .
Isto e,
Q0 Q =

0
0
d
d
(B
B 0 )0 [B 0 (X 0 X) B]1 (B
B 0 )
2[r(B )] .
2

Sabemos que

SQRes. = y 0 (I P )y

1 0
y (I P )y 2[nr(X )] .
2

Luna, J. G. & Esteves, D. M.

117

Alem disso,
Q0 Q e

y 0 (I P )y

sao independentes, pois,


(I P )[B 0 (X 0 X) B]1 = .
Portanto,
F =

Q0 Q/r(B)
F[r(B ) ; nr(X )] .
QM Res.

Defini
c
ao 4.6.1 (Soma de Quadrados de Hip
otese) A forma quadr
atica
0
0
d
d
do tipo (B
B 0 )0 [B 0 (X 0 X) B]1 (B
B 0 ) e definida como soma de
quadrados devida a hip
otese Ho : B 0 = `. Como estamos interessados nas
hip
oteses do tipo Ho : B 0 = , ent
ao
0 0
0
d
d
SQHo = (B
) [B 0 (X 0 X) B]1 (B
)

Exemplo 4.6.2 Retomando o exemplo que estamos considerando, queremos


testar a hip
otese Ho : 1 = 2 = 3 = 0.
Entao,

1
Ho : B 0 = 1
1

1
0
0

0
1
0

Nesse caso,

0
1
+ 1
0
1
= + 2 = 2 = 0
0
2
3
+ 3
0
1
3

1
0
d
B
= B 0 o = 1
1
e

B 0 (X 0 X) B

1
0
0

0
1
0


0
0
4
4
= 7
0
7
1
9
9

1 1 0 0

1 0 1 0

1 0 0 1

1
0 0
4
0 1 0 .
3
0 0 13

0
0
0
0

0
1
4

0
0

0
0
1
3

0
1
1
0

0 0
1
0
3

1
0
1
0

1
0

0
1

118

Luna, J. G. & Esteves, E. M.

Dessa forma, temos


SQH0

4
0
0


0
4
0 7
3
9

0
3
0

4(4)2 + 3(7)2 + 3(9)2 = 454,

que corresponde a` soma de quadrados de parametros ja calculada anteriormente.


facil ver que
E
X
X
SQHo =
ri (d
+ i )2 =
ri yi2 .
i

Para testar a hipotese Ho : i = , podemos tomar B 0 constituda de


funcoes estimaveis de tratamentos (lembre-se de que i nao e estimavel).
Se tomarmos, por exemplo, B 0 com k 1 contrastes ortogonais, teremos a
vantagem de obter B 0 (X 0 X) B diagonal, resguardando o balanceamento.
No exemplo em questao, poderamos tomar, a ttulo de ilustracao, dois contrastes:
a) Entre oleos vegetais:
Ho(1) : 2 = 3 Ho(1) : 2 = 3 Ho(1) : 2 + 3 = 0,
b) Ureia vs o
leos vegetais:
Ho(2) : 1 =

2 + 3
Ho(2) : 21 = 2 + 3 Ho(2) : 21 + 2 + 3 = 0.
2

Obviamente, teremos

H0 : B 0 =

0
0

0
2

1
1

1
1

Alem disso,
0
d
B
= B 0 o =

0
0

  

1
0
2 + 3
=

=
.
2
0
21 + 2 + 3
3

0
2

1
1

1
1

e
B 0 (X 0 X) B =
=

0
0

0
2

1
1

1
1

0
0

0
0

0
1/4
0
0

0
0
1/3
0

0
 
4
2
=
7
8
9

0
0
0
0

0 1
1/3
1

0
2

1
1

Luna, J. G. & Esteves, D. M.

=
Portanto,

2/3

3/5

SQH0

119

3/2

2
8

0
3/5
3 2 3 2
(2) + (8) = 6, 00 + 38, 4 = 44, 4 = SQT rat.
2
5

Note que, de modo geral, se os contrastes envolvidos forem ortogonais entre


si, vamos ter:
B 0 (X 0 X) B = Diag{aii }, onde aii =

X 2
i

ri

, i .

No exemplo,
a11 =

(1)2
3

(1)2
3

= 23 ,

a22 =

(2)2
4

(1)2
3

(1)2
3

= 53 .

Podemos, entao, reorganizar as somas de quadrados na seguinte tabela:


Tabela 4.3: Decomposicao da SQTrat. em somas de quadrados de contrastes
ortogonais de interesse.
F. Variacao
(1)
Ho : 2 = 3

GL
1

SQ
6,00

QM
6,0000

F
7, 00

3
Ho : 1 = 2 +
2
(3)
Tratamento (H0 : 1 = 2 = 3 = )

1
2

38,40
44,40

38,4000
22,2000

44, 80
25, 90

Resduo
Total

7
9

6,00
50,40

s2 = 0, 8571
-

(2)

() Efeito significativo ao nvel de 5% de probabilidade.


() Efeito significativo ao nvel de 1% de probabilidade.
Da tabela da distribuicao F , tem-se:
F[1 ; 7 ; 0,05] = 5, 59; F[1 ; 7 ; 0,01] = 12, 20 e F[2 ; 7 ; 0,01] = 9, 55.

120

Luna, J. G. & Esteves, E. M.


(1)

Conclus
ao: A hipotese Ho foi rejeitada ao nvel de 5% de significancia pelo
(2)
(3)
teste F enquanto que as hipoteses Ho e Ho foram rejeitadas ao nvel
de 1%.

Luna, J. G. & Esteves, D. M.

4.7

121

Estimac
ao por Intervalo

Sabemos que se a funcao parametrica 0 e estimavel no modelo linear de


Gauss-Markov Normal, entao
0
d

N (0 , 0 (X 0 X) 2 ).

0
d
Uma estimador para V [
] e obtido de

0
d
Vb [
] = 0 (X 0 X) s2 ,

onde s2 = QM Res.
0
d
Alem disso, o teorema a seguir garante a indepedencia entre
e QM Res.
Teorema 4.7.1 Se 0 e estim
avel no Modelo Linear de Gauss-Markov, ent
ao
0
d
0
e y (I P )y s
ao independentes.

0
d
Prova: Sabemos que
= 0 X 0 y. Alem disso,

0 X 0 (I P )

=
=

0 X 0 (I XX + ) = 0 X 0 0 X 0 XX +
0 X 0 0 X 0 = .

0
d
Portanto,
e y 0 (I P )y. sao independentes.

Por outo lado, seja

Z=p

Entao,

E[Z] = p
V [Z] =

Portanto,

0 X 0 0 X 0 (XX + )0 = 0 X 0 0 X 0 X + X 0

0
d

0 (X 0 X) 2

(X

Z=p

X) 2

0
d
E[
0 ] = 0

1
0 (X 0 X) 2
0
d

0 (X 0 X) 2

!2

0
d
V [
] = 1.

N (0, 1).

e, pode ser demonstrato que


T =p

0
d

0 (X 0 X) s2

t[nr(X )] .

122

Luna, J. G. & Esteves, E. M.


Dessa forma,
"

P r t 2 p

0
d

0 (X 0 X) s2

t 2

= 1 ,

e intervalos com 100(1 )% de confianca para 0 podem ser obtidos


por:


q
0
d
IC (0 )[100(1)%] :
t 2 0 (X 0 X) s2

Exemplo 4.7.1 Encontre intervalos com 99% de confianca para as funco


es
parametricas 1 0 = 2 + 3 e 2 0 = 21 + 2 + 3 .

Com base nos dados do Exemplo 4.3.1, temos que



0
 4
0
0 o
d

1 = 1 = 0 0 1 1
7 =2
9
0
0 o
d
2 = 2 =

0
 4

1
7 = 8, 00,
9

e usando a tabela da distribuicao t-Student com 7 graus de liberdade e = 0, 01


encontramos t 2 = 3, 50.
Por outro lado,
1 0 (X 0 X) 1 =

2
5
, 2 0 (X 0 X) 2 = e s2 = QM Res. = 0, 8571.
3
3

Portanto,
"

IC(2 + 3 )[99%] : 2, 00 3, 50

#
2
(0, 8571) = [2, 00 2, 65]
3

e
"

IC(21 + 2 + 3 )[99%] : 8, 00 3, 50

#
5
(0, 8571) = [8, 00 4, 18]
3

Observe que o IC(2 0 )[99%] nao contem o ponto zero, enquanto que o
IC(1 0 )[99%] contem o ponto zero concordando com os resultados obtidos para
os testes das hipoteses desses contrastes na Tabela 4.3.

Luna, J. G. & Esteves, D. M.

4.8

123

Hip
oteses Equivalentes

Para o melhor aproveitamento das vantagens que a SQHo oferece, e conveniente introduzirmos o conceito de Hip
oteses Equivalentes. Note que na SQH o ,
0
0
temos B , onde B e de posto linha completo, cujas linhas escolhidas podem
ser ortogonais.
(1)

(2)

Defini
c
ao 4.8.1 Sejam Ho : B 0 = e Ho : A0 = , duas hip
oteses
lineares test
aveis. Dizemos que elas s
ao equivalentes se, e somente se, existir
uma matriz n
ao singular R, tal que RA0 = B 0 .
(2)

(1)

Teorema 4.8.1 Se Ho e Ho
crticas s
ao coincidentes.

s
ao hip
oteses equivalentes, ent
ao suas regi
oes

Prova: Sejam as regioes:


(i)

(B 0 )0 [B 0 (X 0 X) B]1 (B 0 )

(ii)

(A0 )0 [A0 (X 0 X) A]1 (A0 ).

Sendo B 0 = RA0 = B = AR0 , entao, (i) fica:


(B 0 )0 [B 0 (X 0 X) B]1 (B 0 )

(RA0 )0 [RA0 (X 0 X) AR0 ]1 (RA0 )

0 AR0 R1 [A0 (X 0 X) A]1 R1 RA0

(A0 )0 [A0 (X 0 X) A]1 (A0 ).

Sendo A de posto coluna completo, entao A0 A e positiva definida e, portanto,


nao singular. Alem disso, AA+ = I.
Da definicao temos que RA0 = B 0 . Pos-multiplicando por A, vem
RA0 A = B 0 A = R = B 0 A(A0 A)1 ,
que e uma regra para obtencao de R.
De fato,
RA0 = B 0 A(A0 A)1 A0 = B 0 AA+ = B 0 I = B 0 .
Exemplo 4.8.1 Consideremos as seguintes hip
oteses:
(1)

H0
onde:

(2)

: A0 = , H0

(3)

: B 0 = , H0

(4)

: C 0 = , H0

: D 0 = ,

124

Luna, J. G. & Esteves, E. M.

A0 =

0
0

1
1

B0 =

0
0

1
0

C=

0
0

0
2

D0 =

1
0

0
1




0 1
1 3
1 =
;
1 2
1
0 2
3





1 2
1
0
1 =
;
2 3
1 1 2
3





2 3
1 1
1 =
;
21 2 3
1 1 2
3





+ 1
1
0
1 =
.
1 3
0 1 2
3


(1)

(4)

Inicialmente verifiquemos se H0 e H0 sao hipoteses equivalentes.


(4)
(1)
Se H0 e H0 forem equivalentes entao R1 nao singular, tal que R1 D 0 =
A0 , onde

0 1
.
R1 = A0 D(D 0 D)1 =
1
1
2 2
Mas,

(1)

R1 D 0 =

21

1
2

12

12

(4)

6= A0 .

Dessa forma, H0 e H0 nao sao hipoteses equivalentes.


(1)
(3)
Por outro lado, H0 e H0 , sao equivalentes. Pois, R2 nao singular, tal
que R2 C 0 = A0 , onde
1 1
Agora temos,

R2 = A0 C(C 0 C)1 =

R2 C 0 =

21

1
2

0
(1)

= A0 .
(2)

(3)

De modo analogo, podemos verificar que H0 , H0 e H0 sao hipoteses equi(4)


valentes entre si e nenhuma delas e equivalente a H0 . De fato, temos:

Luna, J. G. & Esteves, D. M.

125

(1)

(a) Em H0 : A0 = ,


1 = 3
1 3 = 0
= 1 = 2 = 3 .
=
1 = 2
1 2 = 0
(2)

(b) Em H0 : B 0 = ,


1 2 = 0
1 = 2
=
= 1 = 2 = 3 .
2 3 = 0
2 = 3
(3)

(c) Em H0 : C 0 = ,



2 3 = 0
2 = 3
2 = 3

1 = 2 = 3
21 2 3 = 0
21 22 = 0
1 = 2

Ate agora so podemos testar hipotese sobre a igualdade entre efeitos de


tratamentos (ausencia de efeito diferencial). Como i nao e individualmente
estimavel no modelo em questao, nao podemos testar hipotese do tipo H 0 :
i = 0, i. Para que seja possvel testar esse tipo de hipotese, adotaremos uma
P
restricao parametrica nao estimavel, do tipo i i = 0. Nesse caso, e facil ver
que acrescentando-se a equacao 1 + 2 + 3 = 0 a qualquer um dos tres pares de
equacoes acima, a hipotese comum fica: H0 : i = 0, i, mas isso sera assunto
para as proximas secoes.

4.9

Estimac
ao Por Regi
ao

Consideraremos aqui o problema relativo a` construcao de regioes de confianca para um conjunto de p funcoes estimaveis linearmente independentes.
Para tanto, sejam p B 0 ` , esse conjunto, onde B 0 tem posto linha completo.
Vimos que:
Q=

1 d
0
d
(B 0 B 0 )0 [B 0 (X 0 X) B]1 (B
B 0 ) 2[r(B )] ,
2

se B 0 tem posto linha completo.


2
Vimos tambem, que R = [n r(X)] s 2 2[nr(X )] .
Desse modo, dada a independencia entre Q e R, teremos

0
0
d
d
(B
B 0 )0 [B 0 (X 0 X) B]1 (B
B 0 )
F[p; nr(X ); ] ,
ps2

onde, p = r(B) e s2 = QM Res. Nesse contexto, podemos obter estimativas por


regiao, com coeficiente de confianca 1 para B 0 estimavel, delimitada pelo
elipsoide:
0
0
d
d
(B
B 0 )0 [B 0 (X 0 X) B]1 (B
B 0 ) ps2 F[p; nr(X ); ] .

126

Luna, J. G. & Esteves, E. M.

Exemplo 4.9.1 Tomando o Exemplo 4.3.1 e admitindo que estamos interessados em construir uma regi
ao de confianca - RC, para o conjunto das funco
es
estim
aveis: B 0 , onde


 



1
2 + 3
0
0 1 1
1
0

.
=
=
B=
2
21 + 2 + 3
0 2
1 1 2
3
Admitindo = 0, 01, vamos ter:

(i) ps2 F[2 ; 7 ; 0,01] = (2)(0, 8571)(9, 55) = 16, 3706. Alem disso,


3/2
0
(ii) [B 0 (X 0 X) B]1 =
e
0
3/5


2
0
d
(iii) B
= B 0 o =
.
8

ou

Com estes resultados, a regiao de confianca RC pode ser obtida por:





 3/2
1
2 1
0
2 1 8 2
1,
0
3/5
8 2
16, 3706
1, 5
0, 6
(2 1 )2 +
(8 2 )2 1
16, 3706
16, 3706

ou ainda,

(1 2)2
(2 8)2
+
1.
10, 9137
27, 2843

Fazendo a translacao, vem


 


1 2
x1
=
.
x=
2 8
x2
Temos que Q(x) = x0 Ax fornece a regiao delimitada pelo elipsoide (aqui, elpse,
p = 2) de centro (2 , 8) e equacao
x21
x22
+
= 1.
10, 91 27, 28
Lembrando que a equacao tpica da elipse de centro C(h , k) e semi-eixos a e
b e dada por:
(1 h)2
(2 k)2
+
= 1.
a2
b2
Entao, teremos para o nosso exemplo: a = 3, 30 e b = 5, 22. Assim, a Figura
4.3 exibe graficamente a regiao delimitada por esta elipse.

Luna, J. G. & Esteves, D. M.

127

Y2
14
12
10
8
6
4
2
-2

-1

Y1

Figura 4.3: Regiao com coeficiente de confianca conjunto de 99% para B 0 ,


delimitada pela elpse de centro C(2 ; 8) e semi-eixos a = 3, 30 e b = 5, 22).
Observa
co
es:
Note que a elpse nao contem a origem dos eixos, isto e nao contem o
ponto (0 , 0), concordando com a rejeicao de H0 : 1 = 2 = 3 = 0 (ver
Tabela 4.3);
De modo analogo, o intervalo de confianca obtido para
3, 82 21 + 2 + 3 12, 18,
nao contem o ponto zero, enquanto que o intervalo de confianca obtido
para
0, 65 2 + 3 4, 65
contem a origem. Estes resultados sao concordantes com os testes das

hipoteses correspondentes; Ureia vs Oleos


Vegetais e Entre Oleos
Vegetais,
apresentados na tabela da ANOVA;
Na tabela da ANOVA a hipotese de igualdade entre efeitos dos oleos vegetais nao foi rejeitada ao nvel de significancia = 0, 01, fato concordante
com o grafico aqui apresentado;
A regiao de confianca assim construda tem um coeficiente de confianca
conjunto de (1 ).
Uma outra ideia e construir um ret
angulo de confianca usando os intervalos
de confianca individualmente. No entanto, tal retangulo nao preserva o coeficiente de confianca conjunto (1 ), mas sim:

128

Luna, J. G. & Esteves, E. M.

1. c = (1 )p ( Seber(1977), Kirk(1968), dentre outros),


2. c0 = 1 p (Seber(1977), dentre outros).
3. No nosso exemplo, c = (1 0, 01)2 0, 98 e c0 = 1 2(0, 01) = 0, 98.
4. Se = 0, 05, teriamos: c 0, 90 em lugar de 0,95 e c0 = 0, 90 em lugar de
0,95. E, assim por diante. Obviamente, o erro cresce conforme p cresce.
5. No exemplo em questao, para fins didaticos, escolhemos funcoes (contrastes) ortogonais. Este fato, leva a B 0 (X 0 X) B diagonal. Desse modo
nao ocorrem duplos produtos na equacao da elipse. Se as funcoes envolvidas na construcao da regiao de confianca nao forem ortogonais, a matriz
B 0 (X 0 X) B nao sera diagonal (a menos para funcoes do tipo + i ,
nesse modelo), e portanto, ocorrerao duplos produtos. Nesse contexto,
para obtencao da equacao tpica da elipse, torna-se necessaria uma transformacao ortogonal. Neste sentido, ha muitas formas equivalentes para
se efetuar a rotacao (transformacao ortogonal). Aqui, apresentamos uma
delas.
Seja a elipse:
px21 + 2kx1 x2 + qx22 = s.
(a) Obeter tg 2 =

2k
pq ,

onde e o angulo da rotacao;

(b) Efetuar a transformacao ortogonal y = P 0 x, onde






y1
cos sen
y=
, P =
e
y2
sen
cos

x=

x1
x2

Assim, teremos:

ou

y1
y2

cos
sen

sen
cos



x1
x2

y1 = x1 cos x2 sen
.
y2 = x1 sen + x2 cos

Exemplo 4.9.2 Admitamos agora, que estamos interessados em construir a


regi
ao de confianca - RC, para o conjunto das funco
es estim
aveis: B 0 , onde,




 


0 1
0 1
1 = 1 + 3 = 1 .
B0 =
0
0 1 1 2
2 + 3
2
3

Luna, J. G. & Esteves, D. M.

129

Admitindo = 0, 01, vamos ter:


(i) ps2 F[2 ; 7 ; 0,01] = (2)(0, 8571)(9, 55) = 16, 3706. Alem disso,


2, 4 1, 2
(ii) [B 0 (X 0 X) B]1 =
e
1, 2
2, 1


5
0
0 o
d
.
(iii) B = B =
2

Substituindo estes resultados, a regiao de confianca RC fica:




5 1

2 2

2, 4
1, 2

1, 2
2, 1

Fazendo a substituicao (translacao), x =


(4.6), obtem-se:


ou

x1

x2

2, 4
1, 2

1, 2
2, 1



5 1
2 2

16, 3706.

x1
x2

16, 3706

x1
x2



1 5
2 2

(4.6)

na inequacao

(4.7)

2, 4x21 2 1, 2x1 x2 + 2, 1x22 16, 3706.


Fazendo a transformacao ortogonal (rotacao de eixos), do tipo y = P 0 x,
onde P e uma matriz ortogonal obtida a partir dos autovetores normalizados
de A = [B 0 (X 0 X) B]1 . Assim sendo, x0 Ax = y 0 P 0 AP y = y 0 y, onde
= Diag{1 , 2 }.
Para o nosso exemplo, encontramos:




0, 7497 0, 6618
3, 4594
0
P =
e =
.
0, 6618 0, 7497
0
1, 0407
Como dissemos anteriormente, a matriz P pode tambem ser obtida a partir de:


2k
cos sen
P =
, onde, tg2 =
.
sen
cos
pq
Para o nosso caso,
tg2 =

2 1, 2
= 8 = 2 = 82, 875 = = 41, 4375.
2, 4 2, 1

Dessa forma, vamos ter:


y 0 y =

y1

y2

3, 4594
0

0
1, 0407



y1
y2

16, 3706

(4.8)

130

Luna, J. G. & Esteves, E. M.

Z2
6
4
2
3

Z1

-2
Figura 4.4: Regiao com coeficiente de confianca conjunta de 99% para B 0 ,
delimitada pela elipse de centro C(5 ; 2) e semi-eixos a = 2, 18 e b = 3, 97
ou
3, 4594y12 + 1, 0407y22 16, 3706.

(4.9)

Dividindo ambos os membros por 16,3706 e colocando a inequacao (4.9) na


forma tpica da elipse, encontramos:
y22
y12
+
1.
(2, 1755)2
(3, 9663)2
Assim, a Figura 4.4 ilustra a regiao delimitada por essa elipse.
As estimativas por intervalo, com coeficientes de confianca de 99%, para as
funcoes parametricas 1 0 = 1 + 3 e 2 0 = 2 + 3 , foram obtidos do
seguinte modo:

0


4
0 o
0

0 1 0 1
d
1 = 1 =
7 =5
9

0 0
0
d
2 = 2 =

0
 4

1
7 = 2,
9

e usando a tabela da distribuicao t-Student com 7 graus de liberdade e = 0, 01


encontramos t 2 = 3, 500.
Por outro lado,
1 0 (X 0 X) 1 =

7
2
, 2 0 (X 0 X) 2 = e s2 = QM Res. = 0, 8571.
12
3

Luna, J. G. & Esteves, D. M.

131

Portanto,
"

"

IC(1 + 3 )[99%] : 5, 00 3, 50
e

IC(2 + 3 )[99%] : 2, 00 3, 50

#
7
(0, 8571) = [2, 53 ; 7, 47]
12

#
2
(0, 8571) = [0, 65 ; 4, 65] .
3

Para testar as hipoteses marginais:


Ho(1) : 01 = 1 + 3 = 0

vs H(1) : 01 = 1 + 3 6= 0

Ho(2) : 02 = 2 + 3 = 0

vs H(2) : 02 = 2 + 3 6= 0,

e
procedemos do seguinte modo:
Calculamos:

t1 = p

0
d
|
1 0|

01 (X 0 X) 1 s2

t2 = p

0
d
|
2 0|

02 (X 0 X) 2 s2

=q
=q

|5 0|

7
12

|2 0|

2
3

= 7, 071

0, 8571
= 1, 528.

0, 8571

A tabela t Student nos fornece para 7 graus de liberdade ao nvel de


significancia ( = 0, 01) o valor crtico t[7 , 0,01] = 3, 500. Isso indica que a
(1)
hipotese Ho foi rejeitada ao nvel de significancia = 0, 01 enquanto que a
(2)
hipotese Ho nao foi rejeitada.
Note que o IC(2 0 )[99%] contem o ponto zero, enquanto que o IC(1 0 )[99%]
nao contem o ponto zero, concordando com os resultados obtidos para os testes
bom lembrar que o teste t Student
das hipoteses pelo teste t Student. E
aplicado a`s duas hipotese marginais nao preserva o nvel de significancia conjunto.

132

Luna, J. G. & Esteves, E. M.

Lista de Exerccios # 5
Os valores observados de uma variavel resposta num experimento inteiramente
casualizado foram os seguintes:
Tratamento
Ti
T1
T2
T3
Geral

Repeticoes
R1 R2 R3
4
3
2
3
4
5
6
7
8
-

Total
yi.
9
12
21
42

Media
yi
3,00
4,00
7,00
4,67

Variancia
s2i
1,00
1,00
1,00
-

5.1 Faca a analise de variancia usual.


5.2 Admitindo o modelo y = X + , G.M. Normal, caracterizado por: yij =
+ i + eij , (i, j = 1, 2, 3). Escreva o conjunto de equacoes relativas a
cada observacao.
5.3 Escreva o sistema de equacoes do item anterior na forma matricial.
5.4 Escreva o sistema de equacoes normais.
5.5 Determine:
(a) o1 = (X 0 X)
1 Xy,
(c) o3 = X + y,

(b) o2 = (X 0 X)
2 Xy,
(d) o4 = X ` y.

5.6 Apresente quatro funcoes estimaveis neste modelo.


5.7 Verifique a estimabilidade das seguintes funcoes parametricas associadas a
este modelo:
(a) 01 = 1 2 ,
(b) 02 = + 1 ,
0
(c) 3 = ,
(d) 04 = 3 ,
0
(e) 5 = 1 + 2 + 3 , (f ) 06 = 21 2 3 .
5.8 Sendo 0 = 1 2 uma funcao estimavel, use a definicao de Rao(1945)
para determinar duas combinacoes lineares das observacoes, a0 y, tal que,
E(a0 y) = 01 .
5.9 No item anterior foram determinados dois estimadores imparciaias para
01 . Seus valores numericos sao duas estimativas imparciais de 01 .
(a) Determine agora o blue de 01 e sua variancia;
0
d
0
0
(b) Compare V (
1 ) com V (a1 y) e V (a2 y) do item anterior e observe
0
d
que V ( ) min{V (a0 y) , V (a0 y)}.
1

Luna, J. G. & Esteves, D. M.

133

Na verdade, a igualdade so ocorrera se o valor numerico da combinacao


linear escolhida coincidir com o blue.
5.10 Determine o blue de cada funcao parametrica estimavel do item 5.7 e suas
respectivas variancias estimadas.
5.11 Use as quatro solucoes obtidas no item 5.5 e obtenha para cada funcao
parametrica do item 5.7, as estimativas 0j oi , (i = 1, 2, 3, 4). Observe
que para j fixo, 0j oi e invariante quando a funcao 0j for estimavel
enquanto que 0j oi e totalmente inconsistente quando a funcao 0j nao
for estimavel.
5.12 Para cada funcao parametrica estimavel do item 5.7, calcule 0j (X 0 X) j .
5.13 Atraves da regra pratica de estimabilidade (lados esquerdo e direito das
E.N.) determine d
+ 1 .

5.14 Calcule:

(a) SQT otal = y 0 y,


0

(b) SQP ar. = y 0 P y = o X 0 y, o , solucao das E.N.


0

(c) SQRes. = y 0 (I P )y = y 0 y o X 0 y, o , solucao das E.N.


P
(d) SQRes. = i (ri 1)s2i ,
(e) SQT rat. = y 0 (P P 1 )y,
(f ) C = y 0 P 1 y,

Obs.: X = X 1

..
.

X2

5.15 Verifique que:

(g) SQT rat = o X 0 y C,

e P 1 = X 1 (X 01 X 1 ) X 01 .

(a) P e (I P ) sao simetricas e idempotentes,


(b) SQP ar e SQRes sao independentes.
5.16 De as distribuicoes das formas quadraticas relativas a:
(a)

SQP ar
2 ,

(b)

SQT rat
2

(c)

SQRes
2 .

5.17 Encontre:
(a) E[QM T rat],

(b) E[QM Res].

5.18 Com relacao ao item anterior, qual a hipotese natural a ser testada?
5.19 Preencha a tabela a seguir:

134

Luna, J. G. & Esteves, E. M.

F. Variacao
Media
Tratamentos
Parametros
Resduo
Total

GL
r[P 1 ] =

SQ
y0P 1y =

QM

r[P P 1 ] =

y 0 (P P 1 )y =

r[P ] =

y0P y =

y 0 (P P 1 )y
=
r[P P 1 ]
y0 P y
=
r[P ]

r[I P ] =

y 0 (I P )y =

y 0 (I P )y
=
r[I P ]

r[I] =

y 0 Iy =

5.20 Encontre estimativas por ponto (blue) e por intervalo ( = 0, 05) para as
funcoes parametricas:
(a) 01 = 1 2 ,

(b) 02 = 2 3 ,

(c) 03 = + 1 ,

(d) 04 = + 2 .

5.21 Determine as regioes de confianca ( = 0.05), para:


0
1
(a) B 01 , onde B 01 = ,
02
0
3
(b) B 02 , onde B 02 = .
04
5.22 Construa as elipses do item 5.21.

5.23 Usando SQHo , teste as hipoteses:


(1)

(a) Ho

: 1 = 2

(2)

(b) Ho

: 2 = 3 .

Comente esses resultados comparando com os intervalos obtidos no item


5.20 (a e b).
5.24 Usando SQHo , faca a particao da SQT rat, na soma de quadrados dos
contrastes
01 = 3 1 e 02 = 1 22 + 3 . Sugestao: Use
0 ortogonais:

1
B 0 = .
02
5.25 Construa o elipsoide de confianca ( = 0.01) para as funcoes parametricas
do item 5.24.

Luna, J. G. & Esteves, D. M.

135

5.26 Preencha a tabela a seguir:


F. Variacao
Media

GL
r[P 1 ] =

SQ
y0P 1y =

QM

r[P P 1 ] =

y 0 (P P 1 )y =

r[P ] =

y0P y =

y 0 (P P 1 )y
=
r[P P 1 ]
y0 P y
=
r[P ]

r[I P ] =

y 0 (I P )y =

y 0 (I P )y
=
r[I P ]

(1)

: 1 = 3

r[1 ] =

(2)

1 +3
2

r[2 ] =

Ho
Ho

= 2

Tratamentos
Parametros
Resduo
Total

y 0 Iy =

r[I] =
(1)

5.27 Verifique se as hipoteses Ho

(2)

e Ho , a seguir, sao equivalentes:

Ho(1) : B 01 =

B 01
B 02

Ho(2) : B 02 = ,

=


0
0

0
0

1
1
1
0

1
1

0
2
0
1


1
,
1


onde,

=
2
3

5.28 Construa algebricamente e graficamente a regiao de confianca ( = 0.05)


para a colecao de funcoes estimaveis:
+ 1 ,

+ 2 ,

+ 3 .

You might also like