You are on page 1of 110

Liliana A. L.

Mescua
Rigoberto G. S. Castro

Setembro de 2009
Sumário

1 Matrizes 1

1.1 Tipos de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

1.2 Operações com Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.2.1 Adição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.2.2 Subtração . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.2.3 Multiplicação de um número real por uma Matriz . . . . . . . . . . 5

1.2.4 Multiplicação de Matrizes . . . . . . . . . . . . . . . . . . . . . . . 5

1.3 Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

1.3.1 Calculo da Inversa por Operações Elementares . . . . . . . . . . . . 7

1.4 Determinante de uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . . 9

1.4.1 Propriedades do Determinante . . . . . . . . . . . . . . . . . . . . . 10

1.4.2 Cálculo do Determinante usando redução por Linhas ou Colunas


(Triangulação) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

1.5 Matriz Adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

1.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2 Sistemas de Equações Lineares Algébricas 16

2.1 Classificação de um Sistema Linear . . . . . . . . . . . . . . . . . . . . . . 17

2.2 Resolução de Sistemas por Escalonamento . . . . . . . . . . . . . . . . . . 18

ii
2.3 Resolução de Sistemas pela Regra de Cramer . . . . . . . . . . . . . . . . . 20

2.4 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3 Vetores 22

3.1 Interpretação Geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

3.1.1 Adição de Vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

3.1.2 Multiplicação de um Número Real por um Vetor . . . . . . . . . . . 25

3.1.3 Ângulo entre dois vetores . . . . . . . . . . . . . . . . . . . . . . . . 25

3.2 Interpretação Algébrica no Plano . . . . . . . . . . . . . . . . . . . . . . . 26

3.3 Interpretação Algébrica no Espaço . . . . . . . . . . . . . . . . . . . . . . . 28

3.4 Produto Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

3.4.1 Interpretação Geométrica do Produto Escalar . . . . . . . . . . . . 30

3.4.2 Ângulo entre dois Vetores . . . . . . . . . . . . . . . . . . . . . . . 31

3.4.3 Projeção de um Vetor sobre Outro . . . . . . . . . . . . . . . . . . 32

3.5 Produto Vetorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

3.5.1 Propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

3.5.2 Interpretação Geométrica . . . . . . . . . . . . . . . . . . . . . . . 35

3.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

4 Espaço Vetorial 37

4.1 Subespaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

4.1.1 Propriedades dos Subespaços . . . . . . . . . . . . . . . . . . . . . 40

4.2 Combinação Linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

4.3 Espaço Gerado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

4.4 Independência e Dependência Linear . . . . . . . . . . . . . . . . . . . . . 43

4.5 Base e Dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

iii
4.5.1 Componentes de um Vetor . . . . . . . . . . . . . . . . . . . . . . . 51

4.6 Espaço Vetorial Euclideano . . . . . . . . . . . . . . . . . . . . . . . . . . 51

4.6.1 Complementos Ortogonais . . . . . . . . . . . . . . . . . . . . . . . 53

4.6.2 Uma Relação Geometrica Entre Espaço Nulo e Espaço Linha . . . . 54

4.6.3 Conjuntos Ortogonais e Ortonormais . . . . . . . . . . . . . . . . . 55

4.6.4 Processo de Gram - Schimidt . . . . . . . . . . . . . . . . . . . . . 56

4.7 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

5 Transformações Lineares 63

5.1 Propriedades das Transformações Lineares . . . . . . . . . . . . . . . . . . 66

5.1.1 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

5.2 Núcleo de uma Transformação Linear . . . . . . . . . . . . . . . . . . . . . 68

5.3 Imagem de uma Transformação Linear . . . . . . . . . . . . . . . . . . . . 69

5.4 Propriedades do Núcleo e da Imagem . . . . . . . . . . . . . . . . . . . . . 71

5.4.1 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

5.5 Matriz de uma Transformação Linear . . . . . . . . . . . . . . . . . . . . . 73

5.6 Operações com Transformações Lineares . . . . . . . . . . . . . . . . . . . 78

5.6.1 Adição ou Soma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

5.6.2 Multiplicação por Escalar . . . . . . . . . . . . . . . . . . . . . . . 78

5.6.3 Composição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

5.6.4 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

5.7 Mudança de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

5.8 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

6 Autovalores e Autovetores 84

6.1 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

iv
7 Diagonalização de Matrizes 89

7.1 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

7.2 Matrizes Simétricas e autovetores ortogonais . . . . . . . . . . . . . . . . . 91

8 Aplicações 93

8.1 Mı́nimos Quadrados na Solução de Sistemas Lineares Inconsistentes . . . . 93

8.1.1 Ajuste de Mı́nimos Quadrados a Dados . . . . . . . . . . . . . . . . 95

8.2 Rotação de Cônicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99

A Números Complexos 102

v
Capı́tulo 1

Matrizes

Definição 1.1. Uma matriz de ordem m × n é uma tabela de mn escalares (números


reais ou complexos) dispostos em m linhas (número de filas horizontais) e n colunas
(número de filas verticais). Por convenção usaremos sempre as letras maiúsculas A, B, C, D, . . .
para nomea-las
   
a11 a12 . . . a1n a11 a12 . . . a1n
   
   
 a21 a22 . . . a2n   a21 a22 . . . a2n 
A= .

.. .. ..  =  ..
 
.. .. ..  = (aij )m×n .
 (1.1)
 . . . . .   . . . . 
   
am1 am2 . . . amn am1 am2 . . . amn

Exemplo:
   
2 2 0 1 4
A=  B=  (1.2)
1 −3 5 0 7
2×3 2×2

Exercı́cio: Escreva a matriz A = (aij )2×2 onde aij = i + 2j.

Observação 1.1. De acordo com o número de linhas e colunas da matriz, podemos destacar
os seguintes casos particulares

• Quando m = 1, matriz linha

• Quando n = 1, matriz coluna

• Quando m = n, matriz quadrada

1
Definição 1.2. (Igualdade de Matrizes:) Duas matrizes A = (aij )m×n e B = (bij )m×n
são ditas iguais, se todos seus elementos correspondentes são iguais, isto é, se aij = bij .
   
a 2 11
   
   
Exercı́cio: Determine a, b, c, d de modo que:  1 b+1  = 1 1.
   
c−2 d 6 3

1.1 Tipos de Matrizes

Matriz Nula: É uma matriz cujos elementos são todos nulos, isto é aij = 0, ∀ i, j.
 
0 0
Exemplo: O =  
0 0
Matriz Diagonal Uma matriz quadrada D = (dij )n×n é dita diagonal quando dij = 0,
∀ i 6= j.
 
2 0
Exemplo: D= 
0 4

Matriz Identidade: É uma matriz diagonal onde aii = 1 para todo i, e aij = 0 para
todo i 6= j.
 
1 0 ... 0
 
 
0 1 . . . 0
Exemplo: I =
 .. ..

.. 
. . .
 
0 0 ... 1
Matriz Triangular Uma matriz quadrada A = (aij )nxn é dita triangular superior, se
aij = 0 para i > j. Uma matriz B = (bij )nxn é dita triangular inferior quando bij = 0,
para i < j.
   
5 4 4 5 5 0 0 0
   
   
0 1 9 6 2 1 0 0
Exemplo: A=


 e B=



0 0 3 8 9 7 3 0
   
0 0 0 0 8 6 5 1

Matriz Simétrica: É uma matriz quadrada, onde aij = aji .

2
 
  a b c d
4 3 1 






  b e f g 
Exemplo:  3 2 0  e 



   c f h i 
1 0 5  
d g i k
Observe que, no caso de uma matriz simétrica, a parte superior é uma “reflexão”da
parte inferior, em relação à diagonal.

Matriz Transposta A transposta de uma matriz A = (aij )m×n , é uma outra matriz
AT = (bij )n×m , cujas linhas são as colunas de A, isto é, bij = aji .
 
3 −1  



 3 4 5
Exemplo: A transposta de A =  4 −2  é AT =  
  −1 −2 −3
5 −3 2×3
3×2

É simples verificar que:

1. A transposta da transposta de uma matriz é ela mesma, isto é (AT )T = A.

2. Uma matriz é simétrica se somente se ela for igual à sua transposta, isto é, A = AT .

1.2 Operações com Matrizes

Ao utilizar matrizes, surge naturalmente a necessidade de efetuarmos certas operações.


Veremos algumas delas e suas propriedades a seguir:

1.2.1 Adição

A soma de duas matrizes da mesma ordem, A = (aij )m×n e B = (bij )m×n , é uma matriz
m × n, definida por A + B = (aij + bij )m×n .
       
1 4 −1 1 1−1 4+1 0 5
       
       
Exemplo:  2 5  +  −3 0  =  2 − 3 5 + 0  =  −1 5 .
       
3 6 4 2 3+4 6+2 7 8

3
Propriedades da Adição

Se as matrizes A, B e C possuem a mesma ordem, valem as seguintes propriedades:

1. A + B = B + A (comutativa).

2. A + (B + C) = (A + B) + C (associativa).

3. A + O = A, quando O é uma matriz nula (elemento neutro).

4. Seja A = (aij )m×n . Chama-se matriz oposta de A, a matriz m × n representada por


−A = (−aij )m×n , tal que A + (−A) = O (−A é o elemento oposto).

5. (A + B)T = AT + B T , a transposta de uma soma é igual a somas das transpostas.


   
1 −4 −1 4
   
   
Exemplo: A matriz oposta de A =  2 0  é − A =  −2 0 .
   
7 3 −7 −3

1.2.2 Subtração

A diferença de duas matrizes da mesma ordem, A = (aij )m×n e B = (bij )m×n , é uma
matriz m × n, que denota-se por A − B, que é a soma de A com a oposta de B; isto é:

A − B = A + (−B) = (aij )m×n + (−bij )m×n = (aij − bij )m×n (1.3)


       
1 4 −1 1 1+1 4−1 2 3
       
       
Exemplo:  2 5  −  −3 0  =  2 + 3 5 − 0  =  5 5  .
       
3 6 4 2 3−4 6−2 −1 4

Exercı́cio:

1. Sejam A = (aij )3×2 e B = (bij )3×2 , tal que aij = 2i + j e bij = 1 + i − j.

(a) Determine as matrizes C = A + B e D = A − B.

(b) Represente genericamente um elemento cij de C e dij de D.

4
2. Encontre as matrizes 2 × 2, A e B, sabendo que:
     
1 1 4 0 0 2
A+B+ = + 
1 1 1/2 −1 3/2 4
   
6 −3 2 −2
A−B = − .
4 0 2 1

1.2.3 Multiplicação de um número real por uma Matriz

Seja A = (aij )m×n e k um número real diferente de zero. Definimos a matriz


B = kA = (bij )m×n onde bij = kaij .
     
3 −1 6 −2 1 −1/3
    1  
     
Exemplo Se A =  1 0  , então 2A =  2 0 e A =  1/3 0 
    3  
6 4 12 8 2 4/3

1.2.4 Multiplicação de Matrizes

Sejam as matrizes A = (aij )m×p e B = (bij )p×n . Definimos C = A · B = (cuv )m×n , tal
que
p
X
cuv = auk bkv (1.4)
k=1

Observação 1.2. Só se pode efetuar o produto de duas matrizes Am×p e Bp×n , se o número
de colunas da primeira matriz for igual ao número de linhas da segunda matriz, sendo
assim o resultado da multiplicação de A por B será uma matriz de ordem m×n. Note que
o elemento cij é obtido multiplicando os elementos da i-ésima linha da primeira matriz
pelos elementos correspondentes da j-ésima coluna da segunda matriz, e somando este
produtos.

Exemplo:
     
−1   −1.(−3) −1.4 3 −4
a)   −3 4 = =  
2 1×2 2.(−3) 2.4 −6 8
2×1 2×2
       
1 0 −1 1 1.(−1) + 0.(5) 1.(1) + 0.(3) −1 1
b)     = = 
3 −2 5 3 3.(−1) + −2.(5) 3.(1) + −2.(3) −13 −3
2×2 2×2 2×2

5
Observação 1.3. A propriedade conmutativa em matrizes nem sempre é válida, isto é AB
e BA não necessariamente são iguais. No exemplo anterior verifique se AB = BA.

Se A é uma matriz quadrada n × n e I a matriz identidade n × n, então

AI = IA = A.

Propriedades da Multiplicação

Supondo que a ordem das matrizes A, B e C estejam definidas de modo que cada uma das
operações abaixo indicadas possam ser efetuadas, então as propriedades seguintes serão
válidas.

1. (A.B).C = A.(B.C) (associatividade).

2. (A ± B).C = A.C ± B.C (distributividade à direita).

3. A.(B ± C) = A.B ± A.C (ditributividade à esquerda).

4. k(B ± C) = kB ± kC, k, s ∈ R

5. (k ± s)A = kA ± sA, k, s ∈ R

6. k(sA) = (ks)A, k, s ∈ R

7. (α.A)T = α.AT , onde α é qualquer escalar.

8. (A.B)T = B T .AT (deve-se observar a ordem).

Matriz Anti-simétrica: É uma matriz quadrada, onde AT = −A.


 
0 3 4
 
 
Exemplo: A = −3 0 −6 é anti-simérica.
 
−4 6 0

1.3 Matriz Inversa

Uma matriz quadrada A é dita inversı́vel ou não singular, se existir uma outra matriz
B (inversa multiplicativa), da mesma ordem, tal que A.B = I e B.A = I. Denotaremos
B = A−1 , sendo que
A.A−1 = A−1 .A = I.

6
Definição 1.3. Uma matriz A é dita não inversı́vel ou singular se ela não tem uma
inversa multiplicativa.

Propriedades

1. Uma matriz inversı́vel tem uma única inversa multiplicativa.

2. Se A e B são matrizes de mesma ordem, ambas inversı́veis, então A e B é inversı́vel


e (A.B)−1 = B −1 . A−1 .

3. Nem toda matriz tem inversa.


   
2 1 1/2 −1/8
Exemplo: As matrı́zes A =  eB=  são inversas uma da outra já
0 4 0 1/4
que A.B = B.A = I

1.3.1 Calculo da Inversa por Operações Elementares

Um outra forma para achar a inversa de uma matriz A qualquer, e que envolve substan-
cialmente menos contas do que aplicando a definição diretamente, é usando as operações
elementares sobre as linhas da matriz aumentada associada (A|I) de modo que esta se
transforme numa matriz aumentada da forma (I|B). Diremos que B = A−1 .

As operações elementares permitidas são:

1. Permutar linhas Li ←→ Lj

2. Multiplicar uma linha por um número real α não nulo, Li ←→ αLi .

3. Somar a uma linha um múltiplo de uma outra, Li ←→ Li + αLj .


 
0 1 5
 
 
Exemplo: Ache a inversa da matriz A =  3 −6 9 .
 
2 6 1

7
Solução: Apartir da matriz aumentada, usando as operações por linhas temos:
 
0 1 5 | 1 0 0 L1 ←→ L2
 
 
(A|I) = 3 −6 9 | 0 1 0
 
2 6 1 | 0 0 1 L3 ←→ L3
 
3 −6 9 | 0 1 0 L1 ←→ L1 /3
 
 
= 0 1 5 | 1 0 0 L2 ←→ L2
 
2 6 1 | 0 0 1 L3 ←→ L3
 
1 −2 3 | 0 1/3 0 L1 ←→ L1
 
 
= 0 1 5 | 1 0 0 L2 ←→ L2
 
2 6 1 | 0 0 1 L3 ←→ L3 − 2L1
 
1 −2 3 | 0 1/3 0 L1 ←→ L1
 
 
= 0 1 5 | 1 0 0 L2 ←→ L2
 
0 10 −5 | 0 −2/3 1 L3 ←→ L3 − 10L2
 
1 −2 3 | 0 1/3 0 L1 ←→ L1
 
 
= 0 1 5 | 1 0 0 L2 ←→ L2
 
0 0 −55 | −10 −2/3 1 L3 ←→ −L3 /55
 
1 −2 3 | 0 1/3 0 L ←→ L1 − 3L3
  1
 
= 0 1 5 | 1 0 0  L2 ←→ L2 − 5L3
 
0 0 1 | 10/55 2/165 −1/55 L3 ←→ L3
 
1 −2 0 | −30/55 49/165 3/55 L ←→ L1 + 2L2
  1
 
= 0 1 0 | 5/55 −10/165 5/55  L2 ←→ L2
 
0 0 1 | 10/55 2/165 −1/55 L3 ←→ L3

 
1 0 0 | −20/55 29/165 13/55
 
 
= 0 1 0 | 5/55 −10/165 5/55 
 
0 0 1 | 10/55 2/165 −1/55

Logo a matriz inversa de A é


   
−20/55 29/165 13/55 −60 29 39
  1  
−1    
A =  5/55 −10/165 5/55  =  15 −10 15  (1.5)
  165  
10/55 2/165 −1/55 30 2 −3

8
1.4 Determinante de uma Matriz

É possı́vel associar a cada matriz A de ordem n×n, um escalar (número real ou complexo),
que denotaremos por det A, cujo valor vai nos dizer se a matriz é ou não invertı́vel. Antes
de dar a definição geral vamos a considerar alguns casos particulares.

Caso 1. Se A = (a) é uma matriz 1 × 1, definimos o determinante de A por:

det A = a.

Diremos que A tem inversa multiplicativa (A é invertı́vel) se e só se det A 6= 0.


 
a11 a12
Caso 2. Se A =   é uma matriz 2 × 2, definimos o determinante de A por:
a21 a22

det A = a11 a22 − a12 a21 .

Diremos que A é invertı́vel se e somente se det A 6= 0.


 
a a a13
 11 12 
 
Caso 3. Se A =  a21 a22 a23  é uma matriz 3 × 3, definimos o determinante de A
 
a31 a32 a33
por:

det A = a11 a22 a33 − a11 a32 a23 − a12 a21 a33 + a12 a31 a23 + a13 a21 a32 − a13 a31 a22

Podemos colocar a equação anterior na forma

det A = a11 (a22 a33 − a32 a23 ) − a12 (a21 a33 − a31 a23 ) + a13 (a21 a32 − a31 a22 ) (1.6)

Para j = 1, 2, 3, vamos denotar por M1j a matriz 2 ×2 formada retirando-se a primeira


linha e a j-ésima coluna de A. O determinante de A (1.6) pode ser, então, colocado na
forma

det A = a11 det M11 − a12 det M12 + a13 det M13 (1.7)

Para ver como generalizar (1.7) para o caso n > 3, vamos a dar a seguinte definição.

Definição 1.4. (Menores e Cofatores): Seja A = (aij ) uma matriz n × n. O ij-ésimo


menor de A é o determinante da submatriz Mij , de ordem (n − 1) × (n − 1), que sobra

9
quando suprimimos a i-ésima linha e a j-ésima coluna de A. O ij-ésimo cofator Aij de
A (ou o cofator de aij ) é definido como

Aij = (−1)i+j det Mij .

Definição 1.5. (Desenvolvimento de Laplace) O determinante de uma matriz n × n


é o número real det A, definido por

det A = ai1 .Ai1 + ai2 .Ai2 + ... + a1n .Ain (1.8)

ou

det A = a1j .A1j + a2j .A2j + ... + anj .Anj , (1.9)

onde Aij é ij-ésimo cofator de A.


 
0 1 5
 
 
Exemplo: Ache o determinante da matriz A =  3 −6 9 .
 
2 6 1
Solução.: Calculando a matriz de cofatores temos:
 
−60 15 30
 
 
cof (A) =  29 −10 2 
 
39 15 −3

Logo, o determinante de A pode-se obter por exemplo das seguintes formas:

1. Em relação a primera linha, det A = 0(−60) + 1(15) + 5(30) = 165.

2. Em relação a tercera linha, det A = 2(39) + 6(15) + 1(−3) = 165.

3. Em relação a segunda coluna, det A = 1(15) − 6(−10) + 6(15) = 165.

1.4.1 Propriedades do Determinante

Seja A uma matriz de ordem n × n.

1. Se A tem uma linha o uma coluna de zeros, então det A = 0.

10
2. Se duas linhas ou colunas de A são iguais, então det A = 0.

3. det A = det AT .

4. Se A é uma matriz, triangular superior ou triangular inferior ou diagonal, então o


det A é igual ao produto de seus elementos da diagonal.

5. Se B é uma matriz de ordem n×n, então: det(A+B) 6= det A+det B e det(AB) =


det A det B

6. Seja B a matriz obtida ao multiplicar uma única linha ou coluna de A por k, então:
1
det B = k det A (det A = det B).
k
7. Seja B a matriz obtida ao permutar duas linhas (ou duas colunas) de A, então
det B = − det A.

8. Seja B a matriz obtida ao somar um múltiplo de uma linha (ou colunas) de A a


uma outra linha (ou coluna), então det B = det A.

1.4.2 Cálculo do Determinante usando redução por Linhas ou


Colunas (Triangulação)

A seguir apresentamos um método para calcular determinantes que envolve substancial-


mente menos contas que aplicando a definição diretamente.

Assim, tendo em mente as propriedades 6, 7 e 8, a idéia será reduzir a matriz A ao


formato triangular.
 
0 1 5
 
 
Exemplo: Ache o determinante da matriz A =  3 −6 9 .
 
2 6 1

11
Solução: Usando as propriedades 6, 7 e 8, obtemos que


0 1 5 3 −6 9


det A = 3 −6 9 = − 0 1 5 (linhas 2 e 3 foram permutadas)


2 6 1 2 6 1


1 −2 3


= −3 0 1 5 (o fator comun 3 da linha 1 foi retirado)


2 6 1



1 −2 3


= −3 0 1 5 (linha 3 + (-2) (linha 1))


0 10 −5


1 −2 3


= −3 0 1 5 (linha 3 + (-10) (linha 2))


0 0 −55

= −3(1)(1)(−55) = 165

 
1 0 0 3
 
 
 2 7 0 6 
Exemplo: Ache o determinante da matriz A = 

.

 0 6 3 0 
 
7 3 1 −5
Solução: Reduzindo a matriz a uma triangular inferior usando operações por coluna,
obtemos que


1 0 0 3 1 0 0 0


2 7 0 6 2 7 0 0
det A = =


(coluna 4 + (-3)(coluna 1))
0 6 3 0 0 6 3 0


7 3 1 −5 7 3 1 −26

= (1)(7)(3)(−26) = −546

12
1.5 Matriz Adjunta

Suponhamos que An×n tenha inversa, isto é, existe A−1 tal que A · A−1 = I. Usando o
determinante obtém-se

det (A · A−1 ) = det A · det A−1 e det I = 1

Então:
1
det A−1 =
det A
Definição 1.6. Seja a matriz A ∈ Mn×n (R). Chamaremos Adjunta de A, a matriz
Adj(A) que é a transposta da matriz de cofatores. Simbolicamente,

Adj(A) = (cof (A))T .

Teorema 1.1. Se A é uma matriz inversı́vel, então:

1
A−1 = Adj (A).
det A

Uma condição necessária para que A tenha inversa é que o det A 6= 0.

 
1 2
Ex.: Ache a inversa de A =  .
−1 3
 
3 1
Solução: Calculando temos que det A = 5, a matriz de cofatores cof (A) =  e
−2 1
 
3 −2
a adjunta Adj(A) = (cof (A))T =  , logo pelo Teorema 1.1
1 1
 
1 3 −2
A−1 = · . (1.10)
5 1 1

Teorema 1.2. Uma matriz A de ordem n × n é não inversı́vel se e somente se

det(A) = 0

13
1.6 Exercı́cios
     
3 −4 1 1 0 2 −1 0 0
     
     
1. Sejam as matrices A = 2 1 2 ; B = 3 1 −1 e C= 2 4 0.
     
1 0 −1 2 −3 4 1 −1 5
CalcularA + 2C, B 2 = B · B, −C · B, B − A.
√ 
2
2 x
2. Seja A =  . Calcule os possı́veis valores de x, para que AT = A.
4x 1

3. (i) Se A é uma matriz simétrica n × n, calcule AT − A.

(ii) Se A é uma matriz triangular inferior, AT é uma matriz triangular . . . . . . .

(iii) A é uma matriz diagonal, calcule AT .


 
2 3 −4
 
 
4. Seja a matriz A = 0 −4 2 . Usando cofatores,
 
1 −1 5
(i) Calcule det A desenvolvendo em relação à primeira linha.

(ii) Calcule det A desenvolvendo em relação à primeira coluna.

(iii) Calcule det A desenvolvendo em relação à segunda coluna.

5. Usando cofatores
 e fazendo
 o menor
 número de
 operações, calcule
 o determinante

2 0 3 0 4 0 2 1 2 0 0 1
     
     
3 0 0 1 5 0 4 2 0 1 0 0
de A =  
, B = 
 
 e C=
 
.

0 2 3 0   2 0 3 4   1 6 2 0
     
2 0 1 4 1 0 2 3 1 1 −2 3

6. Calcule o determinante de cada uma das seguintes matrizes (use as operações ele-
mentares
por linhas para reduzir as matrizes abaixo à sua forma triangular).
     
2 0 −1 t + 3 −1 1 1 4 −5
     
     
A = 3 0 2 , B =  5 t−3 1  e C =  0 0 1 .
     
4−3 7 6 −6 t + 4 −1 8 7
 
1 1 1
 
 
7. Encontre todos os valores possı́veis de c que tornem a matriz inversı́vel 1 9 c .
 
1 c 3

14
8. Sejam as matrizes
     
−1 3 −4 1 0 0 cos θ sen θ 0
     
     
A =  2 4 1  B = 1 3 0 C = − sen θ cos θ 0
     
−4 2 −9 1 3 5 0 0 1
     
2 5 5 2 0 3 2 0 0
     
     
D = −1 −1 0 E = 0 3 2 F = 8 1 0 e G =
     
2 4 3 −2 0 −4 −5 3 6
 
a b c
 
 
 c a b .
 
b c a
(i) Calcule os cofatores das matrizes A, B, C, D, E, F e G.

(ii) Determine a inversa das matrizes A, B e C usando o Teorema 1.1.

9. Encontre a inversa de cada uma das matrizes dadas usando as operações por linha
     
3 4 −1 1 0 0 1 0 −1
     
     
1 0 3 , 1 1 0, 9 −1 4 .
     
2 5 −4 1 1 1 8 9 −1

10. Sejam A e B matrizes 3 × 3 com det A = 4 e det B = 5. Encontre o valor de


det(AB), det(3A), det(2AB), det(A−1 B)

−1
11. Uma matriz A é ortogonal se 
sua inversa é igual
 a sua transposta, ou seja, A =
cos θ − sen θ
AT . Provar que a matriz A =   é ortogonal.
sen θ cos θ

15
Capı́tulo 2

Sistemas de Equações Lineares


Algébricas

Uma equação linear de n incognitas é uma equação da forma

a1 x1 + a2 x2 + · · · + an xn = b (2.1)

Um sistema linear de m equações algébricas lineares de n variáveis (incognitas) é um


conjunto de equações lineares que devem ser resolvidas simultaneamente, por exemplo:



 a11 x1 + a12 x2 + · · · + a1n xn = b1



 a x +a x +···+a x = b
21 1 22 2 2n n 2
. (2.2)

 ..




 a x +a x +···+a x = b
m1 1 m2 2 mn n m

onde os aij e bi são números reais.

Em 1858, o matemático inglês Artur Cayley introduz uma notação abreviada para
expressar o sistema linear (2.2), na forma matricial:
     
a a12 · · · a1n x b1
 11   1   
     
 a21 a22 · · · a2n   x2   b2 

 .. .. ..

..  .  
 ..  = 
 ..

 . (2.3)
 . . . .   .   . 
     
am1 am2 · · · amn xn bm
m×n n×1 m×1
Assim a forma matricial (2.3) escreve-se abreviadamente por:

Ax = b, (2.4)

16
onde A é uma matriz m × n, b um vetor m × 1 e x é um vetor n × 1.

“Se b = 0, o sistema é dito homogêneo, caso contrário ele é não-homogêneo”.

2.1 Classificação de um Sistema Linear

O sistema linear (2.2) pode ter ou não solução. Assim, classificaremos os sistemas lineares
em dois tipos:

 Determinado, uma única solução
1. Compatı́vel (ou possı́vel)
 Indeterminado mais de uma solução.

2. Incompatı́vel (ou impossı́vel) quando não possui solução.

Se o sistema linear (2.2) tem o número de equações igual ao número de incognitas


(m = n), então a matriz A associada a forma matricial equivalente (2.4) será uma matriz
quadrada n × n. Logo,

• Se a matriz A é inversı́vel, isto é, o det A 6= 0, então o sistema tem única solução,
ou seja, x = A−1 b.

• Se a matriz A não é inversı́vel, isto é det A = 0, então o sistema não tem solução,
ou existe solução mas não é única.

(Um sistema homogêneo: Ax = 0, onde det A = 0, possui infinitas soluções)

Observação 2.1. Um sistema linear homogêneo Ax = 0 admite sempre a solução nula,


chamada solução trivial. Logo, um sistema linear homogêneo é sempre compatı́vel.

Exemplo: É simples verificar que a solução nula x = (0, 0, 0)T é solução do sistema linear
homogêneo,
   
   x1 0
 3x − x + 7x = 0 3 −1 7    
1 2 3
⇐⇒   x2  = 0
  
 ⇐⇒ Ax = 0
 x − 2x + 3x = 0. 1 −2 3    
1 2 3
x3 0

17
Uma interpretação geométrica das soluções de um sistema linear, pode ser observada
para sistemas de ordem 2 × 2. Por exemplo, sejam os sistemas:
  
 x +x =2  x +x =2  x +x =2
1 2 1 2 1 2
I) II) III)
 x −x =2  x +x =1  −x − x = −2.
1 2 1 2 1 2

A solução dos respectivos sistemas podem ser visualizados nos seguintes gráficos

Figura 2.1:

2.2 Resolução de Sistemas por Escalonamento

O objetivo será migrar de um sistema linear Ax = b para outro que lhe seja equivalente,
e de resolução mais simples. A idéia então é, usar as operações elementares sobre as linhas
da matriz aumentada (A | b) de modo que esta se transforme à forma (A′ | b′ ) onde A′
é uma matriz escalonada. Assim, o sistema final equivalente A′ x = b ′ será resolvido
usando substituições regressivas.

Exemplo: Ache a solução do sistema linear


     

 x + 2x + x = 3 1 2 1 x 3
 1
 2 3
   1  
    
3x1 − x2 − 3x3 = −1 ⇐⇒ 3 −1 −3 x2  = −1 ⇐⇒ Ax = b

     

 2x + 3x + x = 4.
1 2 3 2 3 1 x3 4

18
Sol.: Apartir da matriz aumentada, usando as operações por linhas temos:
 
1 2 1 | 3
 
 
(A|b) = 3 −1 −3 | −1 L2 ←→ L2 − 3L1
 
2 3 1 | 4 L3 ←→ L3 − 2L1
 
1 2 1 | 3
 
 
= 0 −7 −6 | −10 L2 ←→ L3
 
0 −1 −1 | −2
 
1 2 1 | 3
 
 
= 0 −1 −1 | −2 
 
0 −7 −6 | −10 L3 ←→ L3 − 7L2
 
1 2 1 | 3
 
= 0 −1 −1 | −2 = (A′ |b′ )
 
 
0 0 1 | 4

O sistema equivalente resultante é



 x1 +2x2 +

 x3 = 3

−x2 − x3 = −2



 x3 = 4.

A solução deste último sistema obtem-se resolvendo a última equação e substituindo a


respectiva solução na equação anterior, até chegar na primeira. Neste caso temos que
x3 = 4, x2 = −2 e x1 = 3

Exemplo: Resolva o sistema




 x + 2y + z + t = 1

 x + 3y − z + t = 3
 
1 2 1 1 1
Sol.: A matriz aumentada é  . Fazendo L2 ←→ L2 − L1 , na forma
1 3 −1 2 3
 
1 0 5 −1 3
escalonada torna-se  . Reinterpretando, vemos que z e t são
0 1 −2 1 2
variáveis livres. Fazendo z = λ1 e t = λ2 , obtemos: x = −5λ1 +λ2 +3, y = 2λ1 −λ2 +2,
z = λ1 , t = λ2 .

19
2.3 Resolução de Sistemas pela Regra de Cramer

O método de Cramer nos permitirá escrever a solução de um sistema de equações lineares


n×n em função de determinantes. Entretanto, devemos salientar que este método envolve
o cálculo de n + 1 determinantes de ordem n o que equivale a resolver mais operações que
no método de Gauss.

Seja A uma matriz inversı́vel n×n e seja b ∈ Rn . Seja Ai a matriz obtida substituindo-
se a i-ésima coluna de A por b. Se x = (x1 , x2 , . . . , xn )T for a única solução de Ax = b,
então:
det (Ai )
xi = para i = 1, 2, . . . , n.
det A

Exemplo: Ache a solução do sistema linear


     

 x + 2x + x = 3 1 2 1 x 3
 1
 2 3
   1  
    
3x1 − x2 − 3x3 = −1 ⇐⇒ 3 −1 −3 x2  = −1 ⇐⇒ Ax = b

     

 2x + 3x + x = 4.
1 2 3 2 3 1 x3 4

Sol.: Usando o método de Cramer e sabendo que

det A = 1(−1 + 9) − 2(3 + 6) + 1(9 + 2) = 8 − 18 + 11 = 1

temos que:


3 2 1


x1 = −1 −1 −3 = (3(−1 + 9) − 2(−1 + 12) + 1(−3 + 4)) = 24 − 22 + 1 = 3


4 3 1



1 3 1


x2 = 3 −1 −3 = (1(−1 + 12) − 3(3 + 6) + 1(12 + 2)) = 11 − 27 + 14 = −2


2 4 1



1 2 3


x3 = 3 −1 −1 = (−3(8 − 9) − 1(4 − 6) + 1(3 − 4)) = 3 + 2 − 1 = 4


2 3 4

20
2.4 Exercı́cios

1. Resolva os seguintes sistemas pelo método de escalonamento de Gauss-Jordan.


 
 


 x − 2y + z = −2 

 x − 2y + z = 1

 

(i) 2x − 5y + z = 1 (ii) 2x − 5y + z = −1

 


 


 3x − 7y + 2z = 
−1  3x − 7y + 2z = 0


 x + 2y + 3z = 0

     



 3 2 4 x 1
 x + 4y + 4z + w = 7     
    
iii) iv) 1 1 2  y  = 2
     

 3x + 7y + 9z + w = 4


 4 3 −2 z 3


 −2x − 4y − 6z − w = 6

2. O sistema seguinte não tem soluções para quais valores de a?. Exatamente uma
solução?. Infinitas soluções.




 x + 2y − 3z = 4


 3x − y + 5z = 2



 4x + y + (a2 − 14)z = a + 2

3. Determine k para que o sistema admita solução






 −4x + 3y = 2


 5x − 4y = 0




 2x − y = k

4. Resolva o sistema


 x + y + z = 4

 2x + 5y − 2z = 3

5. Estabeleça a condição que deve ser satisfeita a e b para que o sistema seja compatı́vel.
x − 2y − z = a
2x + y + 3z = b
4x − 3y + z = 1

6. Encontre os coeficientes do polinômio p(x) = ax3 + bx2 + cx + d cujo gráfico passa


pelos pontos (0, −3), (2, −5), (3, 0) e (−1, −8).

21
Capı́tulo 3

Vetores

Com o intuito de esclarecer melhor o conceito de vetor, uma abordagem geométrica e


algébrica serão apresentadas.

3.1 Interpretação Geométrica

Existem dois tipos de grandezas: as escalares e as vetoriais. As escalares são aquelas


que ficam definidas por apenas um número real (acompanhado de uma unidade ade-
quada). Por exemplo, comprimento, área, volume, massa, densidade e temperatura. As
grandezas vetoriais, são o caso contrario, isto é, não basta saber seu módulo e unidade
correspondente, para serem perfeitamente caracterizadas precissamos sua direção e seu
sentido. Por exemplo, força, velocidade e aceleração.

Definição 3.1. Um vetor é uma classe de objetos matemáticos (segmentos) com a mesma
direção, mesmo sentido e mesmo módulo, sendo:

- A direção, a da reta colinear que contém o segmento ou reta paralela.

- O sentido, dado pela orientação do movimento.

- O módulo, o comprimento do segmento.

Na seguinte figura todos os segmentos orientados paralelos ou colineares, de mesmo


sentido e mesmo comprimento, representam um único vetor.

22
Figura 3.1: Uma mesma classe de vetores

Uma outra caracterı́stica de um vetor é que é formado por dois pontos de um sistema
de coordenadas: o ponto A onde ele começa (origem) e um outro ponto B onde ele termina
(extremidade).

O representante escolhido de uma classe de vetores será denotado por uma letra
minúscula encimada por uma flecha, tal como ~v, e quase sempre será o vetor cuja origem
coincide com a do sistema de coordenadas ((0, 0, . . . , 0)) e cuja extremidade será obtido
fazendo a diferença entre o ponto da extremidade e o ponto origem. Assim, o vetor
representante −

v será
~v = B − A.

Observação 3.1. Cada ponto de um sistema de coordenadas pode ser considerado como
único origem de um segmento orientado cujo representante é o vetor ~v .

Exemplo: Se um vetor tem origem em (1, 2) e extremidade em (7, 12), ele é representado
por −

v = (6, 10), pois:


v = (7, 12) − (1, 2) = (6, 10)

3.1.1 Adição de Vetores

Consideremos dois vetores ~u e ~v, cuja soma ~u + ~v pretendemos encontrar. Tomemos um


−→
ponto A qualquer e, com origem nele, tracemos um segmento orientado AB representante
−−→
do vetor ~u e um segmento orientado BC representante do vetor ~v . O vetor representado
−→
pelo segmento orientado AC será o representante do vetor soma ~u + ~v , isto é,

−→
~u + ~v = AC

23
ou

−→ −−→ −→
AB + BC = AC

Sendo ~u, ~v e w
~ vetores quaisquer, a adição admite as seguintes propriedades

1. Conmutativa: ~u + ~v = ~v + ~u.

2. Associativa: (~u + ~v) + w


~ = ~u + (~v + w).
~

3. Elemento Neutro: ~u + ~0 = ~u

4. Elemento Oposto: ~u + (−~u) = ~0

u + (−~v ) escreve-se ~u − ~v,é chamado diferença entre ~u e ~v .


Observação 3.2. O vetor ~

24
3.1.2 Multiplicação de um Número Real por um Vetor

Dado um vetor ~u 6= 0 e um número real α 6= 0, chama-se produto do número real α pelo


vetor ~u, o vetor α~u tal que:

1. Módulo ou comprimento: |α~v| = |α||~v|

2. Direção: α~v é paralelo a ~v

3. Sentido: α~v e ~v tem o mesmo sentido se α > 0, e contrário se α < 0.

3.1.3 Ângulo entre dois vetores

O ângulo entre os vetores não nulos u e v é o ângulo θ formado por duas semi-retas OA
−→ −−→
e OB de mesma origem O, onde ~u = OA, ~v = OB e 0 ≤ θ ≤ π.

• Se ~u//~v e ~u e ~v têm o mesmo sentido, então θ = 0. Na figura acima, o âgulo entre


~u e 2~u é zero.

• Se ~u//~v e ~u e ~v têm sentidos contrários, então θ = π. Na figura acima, o âgulo


entre ~u e −3~u é π.

25
3.2 Interpretação Algébrica no Plano

Consideremos dois vetores v~1 e v~2 não paralelos, representados com a origem no mesmo
ponto O, e sejam r1 e r2 retas contendo estes representantes, respectivamente.

Os vetores ~u, ~v , w,
~ ~x e ~y , representados na figura podem ser escritos em função de v~1
e v~2 por

~u = 3~v1 + 4~v2 ~v = −2~v1 + 3~v2 ~ = −3~v1 − ~v2


w

~x = 2~v1 + 0~v2 ~y = 0~v1 + 3~v2

De modo geral dados dois vetores quaisquer v~1 e v~2 , existe uma só dupla de números
reais a1 e a2 , tal que
v = a1 v~1 + a2 v~2 .

O vetor ~v é chamado combinação linear de v1 e v2 . O conjunto B = {v~1 , v~2 } é chamado


de base no plano.

“Qualquer conjunto de dois vetores não paralelos forma uma base no plano”

Observação 3.3. Dentre as infinitas bases que existem no plano a mais importante é
aquela que determina o conhecido sistema cartesiano ortogonal xOy. Esta base é chamada
de base canônica e esta determinada pelos vetores ortogonais e unitários ~i = (1, 0) e
~j = (0, 1).

26
Assim, qualquer vetor ~v = (x, y) do plano pode-se escrever da forma

v = x ~i + y ~j.

Igualdade de Vetores. Dois vetores ~u = (x1 , y1) e ~v = (x2 , y2 ) são iguais se,

x1 = x2 e y1 = y2 .

Neste caso, escrevemos ~u = ~v .

Definição 3.2. Sejam dois vetores ~u = (x1 , y1) e ~v = (x2 , y2 ) e α ∈ R. Define-se

1. ~u + ~v = (x1 + x2 , y1 + y2 )

2. α~u = (α x1 , α y1 )

3. −~u = (−1)~u = (−x1 , −y1 )

4. ~u − ~v = ~u + (−~v ) = (x1 − x2 , y1 − y2 ).

As definições anteriores e as operações algébricas dos números reais permitem demon-


strar as propriedades seguintes:

1. ~u + ~v = ~v + ~u

2. ~u + ~0 = ~u

3. (~u + ~v) + w
~ = ~u + (~v + w)
~

4. ~u + (−~u) = ~0

5. α(β~v) = (αβ)~v

6. α(~u + ~v ) = α~u + α~v

7. (α + β)~u = α~u + β~u

8. 1~u = ~u.

27
Observação 3.4. É importante lembrar que um vetor tem infinitos representantes que são
os segmentos orientados de mesmo comprimento, mesma direção e mesmo sentido. E,
−→
dentre os infinitos representantes de AB (A = (x1 , y1 ), B = (x2 , y2 )), o que “melhor
o caracteriza” é aquele que tem origem em O = (0, 0) e extremidade no ponto P =
−→
(x2 − x1 , y2 − y1 ). O vetor ~v = OP é também chamado vetor posição ou representante
−→
natural de AB.

Módulo de um vetor Seja o vetor ~u = (x, y). Pelo Teorema de Pitagoras, vem
p
|u| = x2 + y 2. (3.1)

3.3 Interpretação Algébrica no Espaço

No plano vimos que dado qualquer vetor ~u, este pode ser escrito como uma combinação
da base canônica {~i, ~j}, isto é, ~u = (x, y) = x~i + y ~j. Analogamente, no espaço, conside-
raremos a base canônica {~i, ~j, ~k}, como aquela que irá determinar o sistema cartesiano
ortogonal Oxyz, neste caso

~i = (1, 0, 0), ~j = (0, 1, 0), ~k = (0, 0, 1).

Assim, dado um vetor qualquer ~u ∈ R3 este pode-se expressar da forma

~u = (x, y, z) = x~i + y ~j + z ~k. (3.2)

As definições e conclusões no espaço são análogas às do plano.

Definição 3.3. Sejam os vetores ~u = (x1 , y1 , z1 ) e ~v = (x2 , y2, z2 ) e α ∈ R. Define-se

1. ~u = ~v se e somente se x1 = x2 , y1 = y2 e z1 = z2 .

2. ~u + ~v = (x1 + x2 , y1 + y2 , z1 + z2 )

3. α~u = (α x1 , α y1 , α z1 )

4. −~u = (−1)~u = (−x1 , −y1 , −z1 )

5. ~u − ~v = ~u + (−~v ) = (x1 − x2 , y1 − y2 , z1 − z2 ).

28
Além disso,

1. ~u + ~v = ~v + ~u

2. ~u + ~0 = ~u

3. (~u + ~v) + w
~ = ~u + (~v + w)
~

4. ~u + (−~u) = ~0

5. α(β~v) = (αβ)~v

6. α(~u + ~v ) = α~u + α~v

7. (α + β)~u = α~u + β~u

8. 1~u = ~u.

Módulo de um vetor Seja o vetor ~u = (x, y, z),


p
|u| = x2 + y 2 + z 2 . (3.3)

3.4 Produto Escalar

Chama-se produto escalar de dois vetores ~u e ~v ao número real ~u · ~v,

Quando ~u = (x1 , y1 ) e ~v = (x2 , y2) =⇒ ~u · ~v = x1 x2 + y1 y2 . (3.4)

Quando u = (x1 , y1 , z1 ) e v = (x2 , y2 , z2 ) =⇒ ~u · ~v = x1 x2 + y1 y2 + z1 z2 . (3.5)

Propriedades do Produto Escalar Dados os vetores u, v e w e o número real α, é


fácil verificar que: Além disso,

1. ~u · ~v = ~v · ~u

2. ~u · (~v + w)
~ = ~u · ~v + ~u · w
~

3. (~u + ~v) · w
~ = ~u · w
~ + ~v · w
~

4. α · (~u · ~v ) = (α~u) · ~v = ~u · (α~v )

29
5. ~u · ~u > 0 se ~u 6= ~0 e ~u · ~u = 0 se ~u = ~0.

6. ~u · ~u = |~u|2 .

3.4.1 Interpretação Geométrica do Produto Escalar

Se ~u e ~v são dois vetores não nulos e θ é o ângulo entre eles, então:

~u · ~v = |~u| |~v| cos θ. (3.6)

De fato, aplicando a lei dos co-senos ao triângulo ABC, temos:

|~u − ~v|2 = |~u|2 + |~v|2 − 2|~u||~v| cos θ.

Por outro lado, como |~u − ~v |2 = (~u − ~v ) · (~u − ~v ) = |~u|2 − 2~u · ~v + |~v |2 , então a igualdade
segue-se.

u| = 2, |~v| = 3 e 120o o ângulo entre ~u e ~v. Calcular


Exemplo 3.1. Sejam |~

i) ~u · ~v ii) |~u + ~v | iii) |~u − ~v |.

Sol.

−1
i) ~u · ~v = |~u||~v| cos 120o = (2)(3) = −3 (3.7)
2
p p √
ii) |~u + ~v | = |~u|2 + |~v |2 + 2~u · ~v = 22 + 32 + 2(−3) = 7 (3.8)
p p √
ii) |~u − ~v | = |~u|2 + |~v|2 − 2~u · ~v = 22 + 32 − 2(−3) = 19. (3.9)

30
3.4.2 Ângulo entre dois Vetores

Seja θ o ângulo entre ~u e ~v , então:


~u · ~v
cos θ = .
|~u||~v|

u = (4, −2), ~v = (3, 1)


Exemplo 3.2. Sejam ~

(4, −2) · (3, 1) 4.3 + (−2).1 10 2
cos θ = =p √ =√ √ =
|(4, −2)||(3, 1)| 42 + (−2)2 32 + 1 20 10 2

2
Logo, θ = arccos ⇒ θ = 45o .
2

v do espaço forma com os vetores ~i e ~j ângulos de 60o e 120o ,


Exemplo 3.3. Um vetor ~
respectivamente. Determinar o vetor ~v , sabendo que |~v| = 2.

Solução Das hipôteses temos para v = (x, y, z) que:

~v · ~i ~v · ~i
cos 60o = = ⇒ x = ~v · ~i = 2 cos 60o = 1
~
|~v ||i| (2)(1)
e
~v · ~j ~v · ~j
cos 120o = = ⇒ y = ~v · ~j = 2 cos 120o = −1
~
|~v||j| (2)(1)
p √
Por outro lado, desde que |~v | = x2 + y 2 + z 2 = 2, tem-se z = ± 2. Portanto,
√ √
~v = (1, −1, 2) ou ~v = (1, −1, − 2).

u e ~v diferentes de zero, são ortogonais (~u⊥~v ),


Observação 3.5. Note que dois vetores ~
se e somente se ~u · ~v = 0.

√ √
Exemplo. Os vetores ~u = (10, 2) e ~v = (− 15 , 2) formam um ângulo de 90o , pois
√ √
~u · ~v = 10(− 15 ) + 2( 2) = 0

Observação 3.6. Sejam dois vetores ~


u e ~v quaisquer,

1. |~u · ~v | ≤ |~u||~v| (Desigualdade de Schwartz)

2. |~u + ~v | ≤ |~u| + |~v| (Desigualdade Triangular).

31
3.4.3 Projeção de um Vetor sobre Outro

Sejam os vetores ~u e ~v não nulos e θ o ângulo entre eles. O objetivo será decompor um
dos vetores, digamos ~u, da forma

~u = ~u1 + ~u2

sendo ~u1 k~v e ~u2 ⊥ ~v.

O vetor ~u1 é chamado projeção ortogonal de ~u sobre ~v , e denotado por:

~u1 = P roj ~v ~u.

Com efeito, já que: ~u1 k~v ⇒ ~u1 = α~v e dado que ~u2 = ~u − ~u1 = ~u − α~v então

~u · ~v
~u2 ⊥ ~v ⇒ (~u − α~v) ⊥ ~v ⇒ (~u − α~v) · ~v = 0 ⇒ α=
|~v |2

Portanto,  
~u · ~v
P roj ~v ~u = ~u1 = ~v .
|~v |2

Chamamos de componente de u sobre v ao vetor

Comp ~v ~u = ~u2 = ~u − α~v = ~u − P roj ~v ~u.

32
3.5 Produto Vetorial

Chama-se produto vetorial de dois vetores ~u = (x1 , y1 , z1 ) e ~v = (x2 , y2, z2 ) de R3 ,


tomados nessa ordem, e reprentados por ~u × ~v , ao vetor:


y1 z1 x1 z1 x1 y1
~u × ~v = ~i − ~j + ~k.

y2 z2 x2 z2 x2 y2

Pela facilidade para memorizar denotaremos a definição anterior da forma:



~ ~ ~
i j k


~u × ~v = x1 y1 z1 .


x2 y2 z2

u × ~v para ~u = (5, 4, 3) e ~v = (1, 0, 1).


Exemplo 3.4. Calcular ~

Solução

~ ~ ~
i j k
4 3
5 3

5 4

~u × ~v = 5 4 3 = ~i − ~j + ~k = 4~i − 2~j − 4~k.
0 1
1 1



1 0



1 0 1

u × ~v é dispondo os dois vetores


Observação 3.7. Uma forma prática para o cálculo de ~
em linha, e repetindo pela ordem, as duas primeras colunas, As três componentes de ~u ×~v
são dadas pelos três determinantes, conforme a seguir.

O sentido do vetor ~u × ~v poderá ser determinado pela regra da mão direita, isto é,
se os dedos da mão direita forem dobrados na mesma direção de rotação, então o polegar
estendido indicará o sentido de ~u × ~v.

33
3.5.1 Propriedades

As demonstrações das seguintes propriedades são uma consequência direta da definição


de produto vetorial e das propriedades de determinante.

1. ~v × ~u = −~u × ~v .

2. ~u × ~v = ~0, se e somente se, ~u k ~v .

3. O vetor ~u × ~v é simultaneamente perpendicular a ~u e ~v, isto é

(~u × ~v ) · ~u = ~0 e (~u × ~v ) · ~v = ~0.

4. ~u × (~v + w)
~ = ~u × ~v + ~u × w
~ e (~u + ~v ) × w
~ = ~u × w
~ + ~v × w.
~

5. α (~u × ~v) = (α ~u) × ~v = ~u × (α ~v ).

6. ~u · (~v × w)
~ = (~u × ~v) · w.
~

34
7. |~u × ~v|2 = |~u|2 |~v|2 − (~u · ~v )2 , (chamada identidade de Lagrange).

Observação 3.8. Como uma consequência da identidade de Lagrange e tendo em conta


que ~u · ~v = |~u| |~v| cos θ, temos que:

|~u × ~v | = |~u| |~v| sen θ

3.5.2 Interpretação Geométrica

A área de um paralelogramo determinado pelos vetores ~u e ~v , onde a medida da base é


~u e a altura é |~v | sen θ, é

A = (base)x(altura) = |~u| |~v| sen θ

u · (~v × w)
Observação 3.9. O produto misto ~ ~ é igual, em módulo, ao volume do pa-
ralelepı́pedo de arestas determinadas pelos vetores não coplanares ~u, ~v e w
~ (os três não
se encontram num mesmo plano).

3.6 Exercı́cios

1. Sejam A = (1, 2), B = (0, 1), C = (−1, −1) e D = (2, 3) pontos de R2 . Calcule e
grafique os seguintes vetores (com ponto inicial na origem).
−→ −−→ −−→ −→ −→ −−→ −−→ −→ −−→
a) AB + BC b) CD + 2AB c) AB − CD d) CD − AB e) − 12 DC

35
2. Sejam A = (3, 1, 4), B = (0, 1, 1), C = (1, −1, 2) e D = (2, 1, 0) pontos de R3 .
Calcule e grafique os seguintes vetores (com ponto inicial na origem).
−→ −−→ −→ −→ −−→ −−→ −→
a) AB b) CD + AB c) AB − CD d) CD + AB

3. Encontre as componentes do vetor com ponto inicial P1 e ponto final P2 .

a) P1 = (4, 3), P2 = (3, 2) b) P1 = (−a, b), P2 = (a, b)


c) P1 = (−1, 0, 2), P2 = (2, 1, −2)

4. Encontre um vetor não-nulo ~u com ponto inicial P = (−1, 3, −1) tal que

a) ~u tenha a mesma direção e sentido que ~v = (2, 1, −1).

b) ~u tenha a mesma direção mas sentido oposto que ~v = (1, −1, 1).

~ = (1, 1) vetores de R2 .
5. Sejam ~u = (1, 3), ~v = (0, 1) e w

(i) Calcular a) |2~u| b) 1/|w|


~ c) |~u + ~v | d) (~u − ~v) · ~v .

(ii) Calcular a) P r~v ~u b) P rw~ ~v c) P r~v w


~ d) ∡(~u, ~v) e) ∡(~v, w).
~

(iii) Calcule a área do paralelogramo determinado por: a) ~u e ~v b) ~v e w.


~

~ = (−1, 1, 3) vetores de R3 .
6. Sejam ~u = (2, 1, −1), ~v = (0, 1, 2) e w

(i) Calcular a) ~u × ~v b) w/|


~ w|~ c) |~u.(~v × w)|
~ d) −2~v × w
~ e) |~u × ~v × w|.
~

(ii) Calcular a) P r~v ~u b) P ru~ ~v c) P ru~ w


~ d) ∡(~u, ~v ) e) ∡(~v , w).
~

7. Calcule o valor de m para que a área do paralelogramo determinado pelos vetores



~u = (m, −3, 1) e ~v = (1, −2, 2) seja igual a 26.

8. Calcule a área do triângulo ABC e a altura relativa ao lado BC, sendo dados
A = (−4, 1, 1), B = (1, 0, 1), C = (0, −1, 3).

9. Encontre o vetor ortogonal ao plano determinado pelos pontos A = (3, 0, 0), B =


(0, 3, 0), C = (0, 0, 2). Calcule a área do triângulo ABC.

10. Um paralelepı́pedo é determinado pelos vetores ~u = (3, −1, 4), ~v = (2, 0, 1) e w


~ =
(−2, 1, 5). Calcule seu volume, e a altura relativa à base definida pelos vetores ~u e
~v .

36
Capı́tulo 4

Espaço Vetorial

Um espaço vetorial é um conjunto V de elementos chamados vetores, onde estão


definidas duas operações:

1. Adição: Para todo u, v ∈ V , a soma u ⊕ v ∈ V .

2. Produto por um escalar α: Seja α ∈ R (ou α ∈ C) e v ∈ V , então α ⊙ v ∈ V .

Além disso, para todo u, v, w ∈ V e α, β ∈ R (ou C), os seguintes axiomas são satisfeitos:

Em relação à adição:

3. (u ⊕ v) ⊕ w = u ⊕ (v ⊕ w)

4. u ⊕ v = v ⊕ u

5. ∃ 0 ∈ V, u ⊕ 0 = u

6. ∃ (−u) ∈ V, u ⊕ (−u) = 0

Em relação ao produto por um escalar:

7. (αβ) ⊙ u = α ⊙ (β ⊙ u)

8. (α + β) ⊙ u = (α ⊙ u) ⊕ (β ⊙ u)

9. α ⊙ (u ⊕ v) = (α ⊙ u) ⊕ (α ⊙ v)

10. 1 ⊙ u = u

37
Quando os escalares considerados são números reais, diremos que V é um espaço
vetorial real. No caso dos escalares serem complexos, V será chamado espaço vetorial
complexo. Em diante, nos trabalharemos só com espaços vetoriais reais.

Exemplo 4.1. V = Rn = {(x1 , x2 , . . . , xn )/xi ∈ R} é um espaço vetorial real com as


operações

(x1 , x2 , . . . , xn ) ⊕ (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ) (4.1)

α ⊙ (x1 , x2 , . . . , xn ) = (αx1 , αx2 , . . . , αxn ) (4.2)

Solução A prova deste exemplo não é mais do que a generalização das propriedades,
vistas no Capı́tulo 3, para vetores no plano e no espaço associados a pontos (x1 , x2 ) ∈ R2
e (x1 , x2 , x3 ) ∈ R3 respectivamente. Assim, com as operações de adição de vetores (4.1) e
multiplicação de um vetor por um escalar real (4.2), é simples verificar todos os axiomas
de espaço vetorial.

Exemplo 4.2. O conjunto V = Mm×n (R) de todas as matrizes reais de ordem m × n é


um espaço vetorial real com as operações de adição de matrizes e multiplicação por um
escalar. Assim, para A = [aij ]m×n , B = [bij ]m×n e α ∈ R, definimos:

A ⊕ B = [cij ]m×n onde cij = aij + bij (4.3)

α ⊙ A = [dij ]m×n onde dij = α aij (4.4)

Exemplo 4.3. Seja V = Pn (R) o conjunto de todos os polinômios a0 + a1 t + · · · + an tn


com coeficientes ai ∈ R. Então V é um espaço vetorial real com as operações de adição
de polinômios e multiplicação por um escalar. Seja p(t) = a0 + a1 t + · · · + an tn e q(t) =
b0 + b1 t + · · · + bn tn ,

(p ⊕ q)(t) = p(t) + q(t) = (a0 + b0 ) + (a1 + b1 )t + · · · + (an + bn )tn

(α ⊙ p)(t) = α p(t) = α a0 + (α a1 )t + · · · + (α an )tn

Exemplo 4.4. O conjunto V de todas as funções reais definidas sobre o intervalo [a, b], é
um espaço vetorial. Se f = f (x) e g = g(x) ∈ V , definimos

(f ⊕ g)(x) = f (x) + g(x)

(α ⊙ f )(x) = α f (x)

38
Exemplo 4.5. Nenhum dos conjuntos N, Z, Q é espaço vetorial real, pois em todos eles
o produto de um de seus elementos por um escalar, é um número real, o que contraria o
Axioma 2 de espaço vetorial.

4.1 Subespaços Vetoriais

Seja W , (W 6= ∅) um subconjunto do espaço vetorial V . Dizemos que W é um


subespaço vetorial em relação às operações de V , se:

i) u, v ∈ W ⇒ u ⊕ v ∈ W

ii) α ∈ R e u ∈ W ⇒ α ⊙ u ∈ W.

Exemplo 4.6. Seja V = M2×2 (R) e

W = {A ∈ M2×2 (R)/todos os elementos da diagonal de A são zeros}.

Prove que W é um subespaço vetorial de V , com as operações usuais de matrizes.


   
0 a12 0 b12
Solução: Sejam A =   e B=  matrizes quaisquer de W , então
a21 0 b21 0
 
0 a12 + b12
A+B =  ∈ W.
a21 + b21 0

Se α ∈ R e A ∈ W , então
   
α.0 α.a12 0 α.a12
αA =  = ∈W
α.a21 α.0 α.a21 0

Exemplo 4.7. Considere o subconjunto W = {(x, 1) ∈ R2 /x ∈ R} com as operações


usuais de R2 . Prove que W não é um subespaço vetorial.

Solução:Basta notar que a soma de dois elementos de W não pertence a W . Os elementos


(3, 1) ∈ W e (5, 1) ∈ W , mas a soma

(3, 1) + (5, 1) = (8, 2) ∈


/W

39
4.1.1 Propriedades dos Subespaços

Soma.

Sejam W1 e W2 subspaços de um espaço vetorial V . Então, o conjunto

W1 + W2 = {v ∈ V / v = w1 + w2 , w1 ∈ W1 e w2 ∈ W2 } (4.5)

é um subespaço de V .

Exemplo 4.8. Sejam W1 e W2 duas retas de R3 que passam pela origem, então W1 + W2
é o plano em R3 que contém as duas retas.

Interseção.

Sejam W1 e W2 subspaços de um espaço vetorial V . A interseção W1 ∩W2 é um subespaço


de V .

Exemplo 4.9. Sejam W1 e W2 dois planos de R3 que passam pela origem, de modo que
W1 ∩ W2 é uma reta em R3 que contém o (0, 0, 0). A interseção W1 ∩ W2 é um subespaço
de R3 .

Quando W1 ∩ W2 = {0}, então W1 + W2 é chamada soma direta de W1 com W2 , e


será denotada por W1 ⊕ W2 .

40
4.2 Combinação Linear

Dizemos que um vetor w é uma combinação linear dos vetores v1 , v2 , . . . , vn do espaço


vetorial real V , (V, +, .), se existem α1 , α2 , . . . , αn ∈ R tal que

w = α1 · v1 + α2 · v2 + . . . + αn · vn .

u = (1, 2, −1), ~v = (6, 4, 2) ∈ R3 . Mostre que


Exemplo 4.10. Considere os vetores ~
w
~ = (9, 2, 7) é uma combinação linear de ~u e ~v

Solução: Suponhamos que existem α, β ∈ R de modo que

(9, 2, 7) = α(1, 2, −1) + β(6, 4, 2).






α + 6β = 9


Então, 2α + 4β = 2 implica que α = −3, β=2





−α + 2β = 7

Portanto, (9, 2, 7) = −3(1, 2, −1) + 2(6, 4, 2), consequentemente w


~ é uma combinação
linear de ~u e ~v .

Exemplo 4.11. Considere os polinômios p(x) = 1, q(x) = 1 + x e r(x) = 1 + x + x2 .


Mostre que qualquer polinômio de ordem 2 pode-se escrever como uma combinação linear
de p(x), q(x) e r(x).

Solução: Suponhamos que existem α, β, γ ∈ R de modo que

a0 + b0 x + c0 x2 = α(1) + β(1 + x) + γ(1 + x + x2 ).






α + β + γ = a0


Então, β + γ = b0 , logo γ = c0 , β = b0 − c0 , α = a0 − b0 − c0 .





γ = c0

Portanto, a0 + b0 x + c0 x2 = (a0 − b0 − c0 ) p(x) + (b0 − c0 ) q(x) + c0 r(x).

41
4.3 Espaço Gerado

O subconjunto S de todos os vetores do espaço vetorial real V (V, +, .), que são
combinações lineares dos vetores v1 , v2 , . . . , vn , é chamado de subespaço vetorial gerado
por v1 , v2 , . . . , vn e será denotado por

S = ger{v1 , v2 , . . . , vn } = [v1 , v2 , . . . , vn ]

Para verificar que S é subespaço vetorial de V , basta notar que para qualquer u, v ∈ S
e α ∈ R verifica-se que

u + v = (α1 · v1 + α2 · v2 + · · · + αn · vn ) + (β1 · v1 + β2 · v2 + · · · + βn · vn )

= (α1 + β1 ) · v1 + (α2 + β2 ) · v2 + · · · + (αn + βn ) · vn ∈ S

α · u = α · (α1 · v1 + α2 · v2 + · · · + αn · vn )

= (αα1 ) · v1 + (αα2 ) · v2 + · · · + (ααn ) · vn ∈ S.

Exemplo 4.12. Calcule o conjunto de geradores do subespaço vetorial S de M2×2 (R),


quando
( 
 )
a b
S=   ∈ M2×2 (R) a = −d e c = 2b . (4.6)
c d

Solução Usando a definição de S temos


( 
 )
−d b
S=   bed∈R . (4.7)
2b d

Logo,
(    
 ) (   )
−1 0 0 1 −1 0 0 1
S= d  + b  bed∈R = ger  ,  .
0 1 2 0 0 1 2 0

Exemplo 4.13. Mostre que o conjunto de polinômios {t2 + t, t, 1} gera o espaço vetorial,
P2 (R), dos polinômios de grau ≤ 2.

42
Solução Consideremos p(t) = a2 t2 + a1 t + a0 ∈ P2 (R). Suponhamos α, β, γ ∈ R tais
que:

p(t) = α(t2 + t) + βt + γ1 ⇒ a2 t2 + a1 t + a0 = αt2 + (α + β)t + γ.

Comparando o primeiro e último polinômio obtemos α = a2 , α + β = a1 e γ = a0 , logo

α = a2 , β = a1 − a2 , γ = a0 .

4.4 Independência e Dependência Linear

Seja V um espaço vetorial real, (V, +, ·), e v1 , v2 , . . . , vn ∈ V . Dizemos que o conjunto


{v1 , v2 , . . . , vn } é linearmente independente (L.I.), se:

α1 · v1 + α2 · v2 + . . . + αn · vn = 0 =⇒ α1 = α2 = . . . = αn = 0. (4.8)

No caso em que exista algum αi 6= 0, diremos que o conjunto {v1 , v2 , . . . , vn } é linearmente


dependentes (L.D.).

Teorema 4.1. {v1 , . . . , vn } é linearmente dependente, se e somente se, um destes vetores


for combinação linear dos outros.

Prova:

{v1 , . . . , vn } é L.D ⇐⇒ ∃ αi 6= 0 / α1 v1 + α2 v2 + . . . + αi vi + . . . + αn vn = 0

⇐⇒ αi vi = −α1 v1 − . . . − αi−1 vi−1 − αi+1 vi+1 − . . . − αn vn


α1 αi−1 αi+1 αn
⇐⇒ vi = − v1 − . . . − vi−1 − vi+1 − . . . − vn
αi αi αi αi
⇐⇒ vi ∈ ger{v1, v2 , . . . , vi−1 , vi+1 . . . , vn } (4.9)

Exemplo 4.14. Os vetores canônicos (1, 0, 0), (0, 1, 0), (0, 0, 1) são L.I.?

Solução Suponhamos que

α1 (1, 0, 0) + α2 (0, 1, 0) + α3 (0, 0, 1) = (0, 0, 0).

Somando temos que (α1 , α2 , α3 ) = (0, 0, 0). Logo, α1 = α2 = α3 = 0, consequentemente


os vetores canônicos são linearmente independentes.

43

  
1 −2 4 2 −4 8
Exemplo 4.15. As matrizes A =  eB=  são L.D.
3 0 −1 6 0 −2

Solução De fato,
 
0 0 0
α1 A + α2 B =   ⇔ α1 = −2α2 .
0 0 0

Corolário 4.1. Qualquer conjunto de vetores contendo o vetor nulo é L.D.

u = (1, −2, 3), ~v = (2, −4, 6) e w


Exemplo 4.16. Os vetores ~ ~ = (1, 1, 1) são L.D. pois

~ = ~0.
2~u − ~v + 0w

Corolário 4.2. Todo subconjunto de um conjunto de vetores L.I. é L.I.

Exemplo 4.17. É sabido que o conjunto S = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} é L.I, logo
qualquer subconjunto de S também é L.I.

Observação 4.1. Se ~
u1 = (x11 , . . . , x1n ), ~u2 = (x21 , . . . , x2n ), . . . , ~un = (xn1 , . . . , xnn ) são
n-vetores L.I. em Rn ,

α1~u1 + α2~u2 + · · · + αn~un = ~0 =⇒ α1 = α2 = · · · = αn = 0.

Da afirmação anterior deduzimos que


    
x11 x21 . . . xn1 α 0
   1  
 .. .   .  .
 . . . . . . . ..   ..  =  ..  =⇒ α1 = α2 = · · · = αn = 0.
    
x1n x2n . . . xnn αn 0

sempre que
 
x11 x21 . . . xn1
 
 . .. 
det  .. ... ... .  = 6 0
 
x1n x2n . . . xnn

Exemplo 4.18. Os vetores ~u1 = (1, −2, 7, 2), ~u2 = (0, 4, −6, 1), ~u3 = (0, 0, 1, π),
~u4 = (0, 0, 0, sen 1) são L.I. em R4

44
Solução Segundo a observação anterior eles são L.I. pois o determinante da matriz
(u1 , u2 , u3, u4 ) é diferente de zero. De fato,
 
1 0 0 0
 
 
−2 4 0 0 
det 
  = 4 sen 1

 7 −6 1 0 
√ 
2 1 π sen 1

Exemplo 4.19. Seja r > n. Qualquer conjunto com r vetores no espaço vetorial Rn
é linearmente dependente pois todo sistema homogêneo de equações lineares com mais
incógnitas do que equações admite uma solução não trivial (diferente de zero).

Observação 4.2. Geometricamente, a dependência de dois vetores no plano R2 acontece


se e somente se eles se encontram sobre a mesma reta passando pela origem. No espaço
R3 , três vetores são L. D. se eles estão contidos no mesmo plano passando pela origem.

Às vezes é possı́vel deduzir a dependência linear de funções apartir de identidades


conhecidas, por exemplo ao provar que: {sen2 x, cos2 x, 5} é um conjunto L.D no espaço
vetorial das funções reais de variável real, F (R, R), basta notar que

α sen2 x + β cos2 x + γ 5 = 0 ⇐⇒ α = β = 5, γ = −1.

De modo geral, não existe um método para provar a dependência ou independência lin-
ear de conjuntos em F (R, R), pois existem casos onde estas idêntidades não podem ser
aplicadas. Um teorema útil para determinar se um conjunto particular de funções é L.I é
enunciado a seguir.

Teorema 4.2. Sejam as funcões reais f1 , f2 , . . . , fn ∈ C n−1 ([a, b]) (contı́nuas e com
derivadas contı́nuas até a ordem n − 1 em todo [a, b]). Se existe um ponto x0 ∈ [a, b] tal
que o wronskiano W [f1 , f2 , . . . , fn ](x0 ),
 
f (x ) f2 (x0 ) ... fn (x0 )
 1 0 
 ′ 
 f1 (x0 ) f2′ (x0 ) ... fn′ (x0 ) 
W [f1 , f2 , . . . , fn ](x0 ) = det   6= 0, (4.10)
 .. .. .. 
 . . ··· . 
 
f1n−1 (x0 ) f2n−1(x0 ) ... fnn−1 (x0 )

então f1 , f2 , . . . , fn são L.I. em C n−1 ([a, b]). Mais ainda, são L.I em C([a, b]).

45
Exemplo 4.20. As funções ex , e−x são L.I. em C(R)?.

Solução Segundo o teorema anterior eles são L.I. em C 2 (R), pois o Wronskiano
 
x0 −x0
e e
W [ex , e−x ](x0 ) = det   = −2 6= 0, ∀x0 ∈ R. (4.11)
x0 −x0
e −e

Por outro lado, desde que C 2 (R) ⊆ C(R) o resultado segue-se.

Exemplo 4.21. As funções 1, x, x2 , x3 são L.I. em C(R)?.

Solução Segundo o teorema anterior eles são L.I. em C 3 (R), pois o Wronskiano
 
2 3
1 x0 x0 x0
 
 2 
2 3
0 1 2x0 3x0 
W [1, x, x , x ](x0 ) = det   = 12 6= 0, ∀x0 ∈ R. (4.12)
 
0 0 2 6x0 
 
0 0 0 6

Por outro lado, desde que C 3 (R) ⊆ C(R) o resultado segue-se.

Exemplo 4.22. As funções x2 e x|x| são L.I. em C([−1, 1])?.

Solução Já que x2 , x|x| ∈ C 1 ([−1, 1]), calculando o Wronskiano temos


 
2
x 0 x |x
0 0 |
W [x2 , x|x|](x0 ) = det   ≡ 0, (4.13)
2x0 2|x0 |

o que não nos dá a informação sobre se as funções são L.I ou não. Logo, para responder
a pergunta, suponha que:

αx2 + βx|x| = 0, x ∈ [−1, 1].

Em particular, para x = 1 e para x = −1, temos o sistema

α+β =0

α − β = 0,

para o qual a única solução é α = β = 0. Portanto, as funções x2 , x|x| são L.I em


C([−1, 1]).

46
4.5 Base e Dimensão

Os vetores v1 , v2 , . . . , vn formam uma base do espaço vetorial V se, e somente se,

1. v1 , v2 , . . . , vn é um conjunto linearmente independente.

2. V = ger{v1, v2 , . . . , vn }.
(i.e: ∀ v ∈ V, ∃ α1 , α2 , . . . , αn ∈ R / v = α1 v1 + . . . + αn vn ).

Exemplo 4.23. O conjunto B = {(1, 1), (0, 1)} é uma base de R2 .

Solução: De fato, B é L.I pois

α(1, 1) + β(0, 1) = (0, 0) ⇒ (α, α + β) = (0, 0) ⇒ α = 0 e β = 0.

Por outro lado, para (x, y) ∈ R2 suponhamos que ∃ α1 , α2 ∈ R tal que

(x, y) = α1 (1, 1) + α2 (0, 1) = (α1 , α1 + α2 ) ⇒ α1 = x ∈ R e α2 = y − x ∈ R

Logo,
(x, y) = x(1, 1) + (y − x)(0, 1), isto é, (x, y) ∈ ger{(1, 1), (0, 1)}.

Portanto, R2 ⊆ ger{(1, 1), (0, 1)} e desde que R2 é um espaço vetorial a igualdade entre
estes dois conjuntos segue-se.
(       )
1 0 0 1 0 0 0 0
Exemplo 4.24. O conjunto B =  , , ,  é uma base
0 0 0 0 1 0 0 1
de M2×2 (R)

Exemplo 4.25. Os conjuntos {(1, 0, 0), (0, 1, 0), (0, 0, 1)} e {(1, 2, 1), (1, 0, −1), (1, −2, 1)}
constituem bases distintas para R3 . Podemos encontrar mais de uma base para um espaço
vetorial; dado, entretanto, o número de vetores de cada base não varia.

Definição 4.1. Se uma base de um espaço vetorial real V tem n-vetores, dizemos que V
tem dimensão finita n. Denotaremos

dim V = n.

Conveniremos que o espaço vetorial V = {0} tem dimensão zero.

47
Exemplo 4.26. Pelo visto nos exemplos anteriores, temos que:

1. dim R 2 = 2.

2. dim R n = n.

3. dim Pn (R) = n + 1.

4. dim Mm×n (R) = mn.

Teorema 4.3. Se U e W são subespaços de um espaço vetorial V que tem dimensão


finita, então:

dim (U + W ) = dim U + dim W − dim (U ∩ W ), (4.14)

sendo que dim U ≤ dim V e dim W ≤ dim V .

Exemplo 4.27. Considere U um plano que passa pela origem em V = R3 , e W uma reta
contida em U que passa pela origem, então:

dim (U + W ) = 2 + 1 − 1 = 2.

Teorema 4.4. Seja V um espaço vetorial real de dimensão finita n. Qualquer conjunto
de vetores L.I. em V é parte de uma base, isto é, pode ser completado até formar uma
base de V .

Exemplo 4.28. Sejam os vetores v1 = (1, −1, 1, 2) e v2 = (−1, 1, −1, 0) completar o


conjunto {v1 , v2 } de modo a formar uma base de R4 .

Solução: Como dim R4 = 4 uma base terá 4 vetores L.I. Portanto, faltam dois. Escolhe-
mos um vetor v3 que não é combinação linear de v1 = (1, −1, 1, 2) e v2 = (−1, 1, −1, 0),
isto é, v3 6= a1 v1 + a2 v2 para todo a1 , a2 ∈ R. Dentre os infinitos vetores existentes, um
deles é o vetor v3 = (1, 1, 0, 0), e o conjunto {v1 , v2 , v3 } é L.I.

Para completar, escolhemos um vetor v4 que não seja uma combinação linear de v1 , v2
e v3 . Um deles é o vetor v4 = (1, 0, 0, 0), e o conjunto {v1 , v2 , v3 , v4 } é L.I. Logo,

v1 = (1, −1, 1, 2) v2 = (−1, 1, −1, 0), v3 = (1, 1, 0, 0), v4 = (1, 0, 0, 0).

48
Observação 4.3. Muitas vezes será necessário saber calcular a dimensão de um subespaço
vetorial de forma rápida, pois uma vez que esta é conhecida, obtém-se facilmente uma base
desse subespaço. Uma forma prática para determinar a dimensão de um subespaço vetorial
é verificar o número de variáveis livres de seu vetor genérico. Este número é a dimensão
do subespaço.

Exemplo 4.29. Determinar a dimensão e a base do subespaço vetorial

S = {(x, y, z) ∈ R3 /2x + y + z = 0}

Solução: Isolando z temos que: z = −2x − y, onde x, y são variáveis livres. Isto é,

S = {(x, y, z) ∈ R3 /2x + y + z = 0}

= {(x, y, z) ∈ R3 /z = −2x − y}

= {(x, y, −2x − y)/x ∈ R, y ∈ R}

= {(x, 0, −2x) + (0, y, −y)/x ∈ R, y ∈ R}

= {x (1, 0, −2) + y (0, 1, −1)/x ∈ R, y ∈ R},

isto é, todo vetor de S é combinação linear dos vetores {(1, 0, −2), (0, 1, −1)}. Como esses
dois vetores geradores de S são L.I, o conjunto é uma base de S e, consequentemente,
dim S = 2.

Exemplo 4.30. Obtenha uma base do subespaço vetorial

U = ger{(1, 1, 0, −2), (2, 0, −1, −1), (0, 1, −2, 1), (1, 1, 1, −3)} ⊆ R4 .

Determine a dimensão de U.

Solução: Bastará provar que os vetores (1, 1, 0, −2), (2, 0, −1, −1), (0, 1, −2, 1), (1, 1, 1, −3)
são L.I.

Suponhamos que,

α(1, 1, 0, −2) + β(2, 0, −1, −1) + γ(0, 1, −2, 1) + δ(1, 1, 1, −3) = (0, 0, 0, 0)

49
ou
    
1 2 0 1 α 0
    
    
1 0 1 1  β  0
   =  .
    
 0 −1 −2 1   γ  0
    
−2 −1 1 −3 δ 0

Para achar a solução deste sistema homogêneo Ax = 0 será suficiente reduzir a matriz A
a uma de tipo escalonado (método de operações por linha).
   
1 2 0 1 L1 ←→ L1 1 2 0 1 L ←→ L1
    1
   
1 0 1 1  L2 ←→ L2 − L1 0 −2 1 0  L2 ←→ L3
A=  





 0 −1 −2 1  L3 ←→ −L3 0 1 2 −1
   
−2 −1 1 −3 L4 ←→ L4 + 2L1 0 3 1 −1 L4 ←→ L4
   
1 2 0 1 L1 ←→ L1 1 2 0 1 L1 ←→ L1
   
   
0 1 2 −1 L2 ←→ L2 0 1 2 −1 L2 ←→ L2
≈ 






0 −2 1 0  L3 ←→ L3 + 2L2 0 0 5 −2 L3 ←→ L3
   
0 3 1 −1 L4 ←→ L4 − 3L2 0 0 −5 2 L4 ←→ L4 + L3
 
1 2 0 1
 
 
0 1 2 −1
≈  = A′ .
 
0 0 5 −2
 
0 0 0 0

Logo, o sistema equivalente, A′ x = 0 tem infinitas soluções, pois detA′ = 0. Mais ainda,

α + 2β + δ = 0

β + 2γ − δ = 0

5γ − 2δ = 0,

o que implica que, para cada γ ∈ R,


5γ γ −7γ
δ= , β= , α= .
2 2 2

Em outras palavras, α = β = δ = 0 se e somente se γ = 0. Portanto, só os vetores B =


{(1, 1, 0, −2), (2, 0, −1, −1), (1, 1, 1, −3)} são L.I. Como esses três vetores são geradores de
U, o conjunto é uma base de U e consequentemente, dim U = 3.

50
4.5.1 Componentes de um Vetor

Seja B = {v1 , v2 , . . . , vn } uma base de V . Tomemos v ∈ V sendo

v = a1 v1 + a2 v2 + . . . + an vn ,

os números a1 , a2 , . . . , an são chamados componentes do vetor v em relação à base B


(vetor coordenada de v em relação à base B) e se representa por

vB = (a1 , a2 , . . . , an )

ou com a notação matricial (matriz-coordenada de v em relação à base B)


 
a
 1
 
 a2 
vB = 
 ..  .

.
 
an
Exemplo 4.31. Em R2 consideremos as bases

A = {(1, 0), (0, 1)}, B = {(2, 0), (1, 3)} e C = {(1, −3), (2, 4)}

Achar o vetor coordenada de v = (8, 6) em relação as base A, B e C.

Solução: Desde que:

(8, 6) = 8(1, 0) + 6(0, 1)

(8, 6) = 3(2, 0) + 2(1, 3)

(8, 6) = 2(1, −3) + 3(2, 4),

então,

[v]A = (8, 6), [v]B = (3, 2), [v]C = (2, 3).

4.6 Espaço Vetorial Euclideano

No capı́tulo 3, foi definido o produto escalar de dois vetores no R2 ou R3 e foram estabeli-


cidas por meio desse produto, algumas propriedades geométricas daqueles vetores. Nesta
seção, nosso objetivo será generalizar este conceito de produto e definir os conceitos de
comprimento, distância e ângulo em espaços vetoriais mais genéricos.

51
Definição 4.2. Chama-se produto interno no espaço vetorial V , a uma função de V × V
em R que a todo par de vetores (u, v) ∈ V × V associa um número real, indicado por u.v
ou hu, vi, tal que os seguintes axiomas sejam verificados:

1. hu, vi = hv, ui

2. hu, v + wi = hu, vi + hu, wi

3. hαu, vi = αhu, vi, para todo α

4. hu, ui ≥ 0 e hu, ui = 0 se, e somente se, u = 0.

Exemplo 4.32. Em V = R2 , para u = (x1 , y1 ) e v = (x2 , y2 )

hu, vi = 3x1 x2 + 4y1 y2 ,

é um produto interno.

Exemplo 4.33. Em V = C([a, b]), para f e g


Z b
hf, gi = f (x) g(x) dx,
a

é um produto interno.

Definição 4.3. Um espaço vetorial real V , de dimensão finita, no qual está definido um
produto interno, é um espaço vetorial euclideano.

Definição 4.4. Seja o produto interno h , i no espaço euclideano V . O comprimento


ou norma do vetor u, em relação a esse produto interno, é definido por
p
kuk = hu, ui.

Definimos a norma euclidiana (ou comprimento euclidiano) de um vetor u = (u1 , u2 , . . . , un )


em Rn por
√ q
kuk = u·u= u21 + u22 + · · · + u2n .

Definição 4.5. Chama-se distância entre dois vetores u e v o número real repre-
sentado por d(u, v) e definido por

d(u, v) = ku − vk.

52
Definição 4.6. O ângulo entre dois vetores u e v é determinado por
hu, vi
cos θ = .
kukkvk
Definição 4.7. Dois vetores u e v de um espaço com produto interno são ortogonais
se < u, v >= 0.

4.6.1 Complementos Ortogonais

Definição 4.8. Seja W um subespaço de um espaço com produto interno V . Um vetor


u ∈ V é dito ortogonal a W se é ortogonal a cada vetor de W , e o conjunto de todos os
vetores que são ortogonais a W é chamado complemento ortogonal de W , denotaremos
por W ⊥ .

Figura 4.1: Cada vetor em W é ortogonal a V , V = W ⊥ .

Teorema 4.5. Se W é um subespaço de um espaço com produto interno V de dimensão


finita, então:

a) W ⊥ é um subespaço de V

b) O único vetor comum a W e W ⊥ é 0.

c) O complemento ortogonal de W ⊥ é W , ou seja, (W ⊥ )⊥ = W

53
Teorema 4.6. (Da Projeção) Se W é um subespaço de dimensão finita de um espaço
com produto interno V , então cada vetor u ∈ V pode-se expressar de forma única por:

u = w1 + w2

onde w1 = P rojW u ∈ W e w2 = u − P rojW u ∈ W ⊥ .

4.6.2 Uma Relação Geometrica Entre Espaço Nulo e Espaço


Linha

O seguinte teorema fundamental fornece uma relação geométrica entre o espaço-nulo e o


espaço linha de uma matriz.

Teorema 4.7. Se A é uma matriz m × n, então

a) O espaço nulo de A, N (A) = {v ∈ Rn×1 /Av = 0}, e o espaço linha de A são comple-
mentos ortogonais em Rn com relação ao produto interno euclideano.

b) O espaço nulo de AT e o espaço coluna de A são complementos ortogonais em Rm


com relação ao produto interno euclideano.

Demonstração: A prova do item (a) encontra-se em [1], pagina 211.

(b) Sejam os vetores coluna r1 , r2 , . . . , rn da matriz A ∈ Mm×n . Logo, a matriz A


pode-se escrever da forma
h i
A = r1 r2 . . . rn , onde ri ∈ Rm×1

Por outro lado, uma vez que N (AT ) = {v ∈ Rm×1 /AT v = 0}, então:
 
rT
 1
 T
T
r2 
A v=  ..  v = 0
 ⇐⇒ < riT , v > = 0, ∀ i = 1, 2, . . . , n.
.
 
rnT

54
4.6.3 Conjuntos Ortogonais e Ortonormais

Seja V um espaço vetorial euclidiano. Um subconjunto S = {v1 , v2 , . . . , vn } ⊂ V é:

1. Ortogonal, se seus elementos são ortogonais dois a dois, isto é:

hvi , vj i = 0 ∀ i 6= j.

2. Ortonormal, se S é ortogonal e kvi k = 1 ∀ i, isto é:




0 para i 6= j
hvi , vj i = . (4.15)

1 para i = j

A base gerada por um conjunto de vetores ortogonais é dita uma base


ortogonal e uma base gerada por um conjunto de vetores ortonormais é dita
uma base ortonormal.

Proposição 4.1. Um conjunto ortonormal é L.I.

Demonstração: Seja S = {v1 , v2 , . . . , vn } um conjunto ortonormal e α1 , . . . , αn ∈ R,


tal que
α1 v1 + α2 v2 + . . . + αn vn = 0.

Por demonstrar: α1 = α2 = . . . = αn = 0.
Multiplicando α1 v1 + α2 v2 + . . . + αn vn = 0 por vi , temos

0 =h0, vi i = hα1 v1 + · · · + αn vn , vi i

=hα1 v1 , vi i + hα2 v2 , vi i + . . . + hαi vi , vi i + . . . + hαn vn , vi i

=α1 hv1 , vi i + α2 hv2 , vi i + . . . + αi hvi , vi i + . . . + αn hvn , vi i (4.16)

Ja que S ortogonal,

0 = αi hvi , vi i = αi ||vi ||2 ⇒ 0 = αi ∀i = 1, 2, . . . , n.

55
Definição 4.9. Seja V um espaço vetorial euclidiano, S = {v1 , v2 , . . . , vn } ⊂ V ortonor-
mal e u ∈ V . A projeção ortogonal de u sobre o subespaço gerado por S é o vetor P roj [S]u
dado por:

P roj [S]u = hu, v1iv1 + hu, v2iv2 + . . . + hu, vn ivn .

Exemplo 4.34. Projetar o vetor u = (5, 2, −3) ∈ R3 sobre o plano [S], onde

[S] = ger{(1, 0, 0), (0, −1, 0)}.

Solução:

P roj [S]u = h(5, 2, −3), (1, 0, 0)i (1, 0, 0) + h(5, 2, −3), (0, −1, 0)i (0, −1, 0)

= 5(1, 0, 0) − 2(0, −1, 0)

= (5, 2, 0).

4.6.4 Processo de Gram - Schimidt

O objetivo do processo de Gram-Schimidt é encontrar uma base ortonormal para um


espaço vetorial euclidiano V .

Teorema 4.8. Cada espaço vetorial não-nulo de dimensão finita possui uma base ortonor-
mal.

Demonstração: Seja V um espaço vetorial não-nulo de dimensão finita com produto


interno. Suponha que {u1 , u2, . . . , un } é uma base de V . É suficiente mostrar que V
tem uma base ortogonal, pois os vetores da base ortogonal podem ser normalizados para
produzir uma base ortonormal de V , para isto bastará dividir eles entre suas respectivas
normas.

A seguir, mostramos como achar uma base ortogonal {v1 , v2 , . . . , vn } de V .

1) Seja v1 = u1 .

2) Para obter um vetor v2 que é ortogonal a v1 tomamos o componente de u2 que é


ortogonal ao espaço W1 = ger{v1 }. Para isso nós usamos a fórmula:
hu2 , v1 i
v2 = u2 − P roj W1 u2 = u2 − v1
||v1 ||2

56
3) Para construir um vetor v3 que é ortogonal a ambos v1 e v2 , calculamos o componente
u3 que é ortogonal ao espaço W2 = ger{v1, v2 }, isto é,

hu3 , v1 i hu3 , v2 i
v3 = u3 − P roj W2 u3 = u3 − 2
v1 − v2
||v1 || ||v2 ||2

4) Para determinar um vetor v4 que é ortogonal a v1 , v2 e v3 , calculamos o componente


de u4 que é ortogonal ao espaço W3 = ger{v1, v2 , v3 }.

hu4 , v1 i hu4 , v2 i hu4 , v3 i


v4 = u4 − P roj W3 u4 = u4 − 2
v1 − 2
v2 − v3
||v1 || ||v2 || ||v3 ||2

Continuando desta maneira, nós iremos obter, depois de n passos, um conjunto ortogonal
de vetores {v1 , v2 , . . . , vn }. O processo acima é chamado processo de Gram-Schimidt.

Como V tem dimensão n, e conjuntos ortogonais são linearmente independentes, o


conjunto {v1 , v2 , . . . , vn } é uma base ortogonal de V .

Exemplo 4.35. Considere o espaço vetorial R3 com o produto interno euclidiano. Aplique
o processo de Gram-Schimidt para transformar os vetores de base u1 = (1, 1, 1), u2 =
(0, 1, 1) e u3 = (0, 0, 1) em uma base ortogonal {v1 , v2 , v3 }; depois normalize os vetores da
base ortogonal para obter uma base ortonormal {q1 , q2 , q3 }.

Solução: Segundo o teorema anterior,

v1 = u1 = (1, 1, 1)
 
hu2 , v1 i 2 2 1 1
v2 = u2 − proj W1 u2 = u2 − 2
v1 = (0, 0, 1) − (1, 1, 1) = − , ,
||v1 || 3 3 3 3
hu3 , v1 i hu3, v2 i
v3 = u3 − proj W2 u3 = u3 − 2
v1 − v2
||v1 || ||v2 ||2
   
1 1/3 2 1 1 1 1
= (0, 0, 1) − (1, 1, 1) − − , , = 0, − , .
3 2/3 3 3 3 2 2

Assim, v1 = (1, 1, 1), v2 = (−2/3, 1/3, 1/3), v3 = (0, −1/2, 1/2) formam uma base
ortogonal de R3 . As normas desses vetores são:
√ √
√ 6 2
kv1 k = 3, kv2 k = , kv3 k = ,
3 2

deste modo, uma base ortonormal de R3 é:


√ √ √
v1 3 3 3
q1 = =( , , ),
||v1 || 3 3 3

57
v2 −2 1 1
q2 = = ( √ , √ , √ ),
||v2 || 6 6 6
v3 −1 1
q3 = = (0, √ , √ ).
||v3 || 2 2

4.7 Exercı́cios

1. Em R2 , mantenhamos a definição do produto αv de um número real por um vetor,


mas modifiquemos, de 3 maneiras diferentes, a definição de soma u ⊕ v dos vetores
u = (x, y) e v = (x′ , y ′). Em cada tentativa, dizer quais dos axiomas de espaço
vetorial continuam sendo válidos e quais são violados.

(i) u ⊕ v = (x + y ′ , x′ + y) (ii) u ⊕ v = (xx′ , yy ′) (iii) u ⊕ v = (3x + 3x′ , 5x + 5x′ ).

2. Seja V = {(x, y) ∈ R2 /x > 0 e y > 0} com as operações usuais de R2 . Prove que V


não é um espaço vetorial.

3. Determine se cada conjunto a seguir é ou não um subespaço de R2 .

(i) {(x, y)/x + y = 0} (ii) {(x, y)/xy = 0} (i) {(x, y)/x = 3y + 1}.

4. O conjunto V = {f : R −→ R/f (1) = 0} com as operações definidas no exercicio 2,


é um espaço vetorial?.

5. Determine se cada conjunto a seguir é ou não um subespaço de R3 .

(i) {(x, y, z)/x + y = 1} (ii) {(x, y, z)/x = y = z} (i) {(x, y, z)/z = x2 + y 2 }.

6. Determine quais dos conjuntos a seguir são subespaços do espaço vetorial das funções
contı́nuas no intervalo [−1, 1], denotado por V = C([−1, 1]).

(i) W = {f ∈ C([−1, 1])/f (−1) = f (1)}

(ii) W = {f ∈ C([−1, 1])/f é não decrescente em [−1, 1]}

(iii) W = {f ∈ C([−1, 1])/f (−1) = 0 ou f (1) = 0}

7. Seja A um vetor particular de R2×2 . Diga quais dos conjuntos a seguir são subespaços
vetoriais de R2×2 .

(i) S1 = {B ∈ R2×2 /AB = BA}

58
(ii) S2 = {B ∈ R2×2 /AB 6= BA}

(iii) S3 = {B ∈ R2×2 /BA = 0}

8. Seja V = Mn×n e W o subconjunto de todas as matrizes diagonales. Mostre que


W é um subespaço de Mn×n .

9. Quais vetores são combinação linear de ~u = (0, −2, 2) e ~v = (1, 3, −1)?.

a) (2, 2, 2) b) (3, 1, 5) c) (0, 4, 5) d) (0, 0, 0).

10. Quais polinômios são combinação linear de p1 (x) = 2 + x + 4x2 , p2 (x) = 1 − x + 3x2
e p3 (x) = 3 + 2x + 5x2 ?.

a) − 9 − 7x − 15x2 b) 6 + 11x + 6x2 c) 0 d) 7 + 8x + 9x2 .

11. Quais dos seguintes vetores geram R3 .

a) (2, 2, 2), (0, 0, 3), (0, 1, 1) b) (2, −1, 3), (4, 1, 2), (8, 2, 4)

12. Mostre que os polinômios (1−x3 ), (1−x)2 , (1−x) e 1 geram os polinomios


de grau ≤ 3.

13. Sejam f = cos2 x e g = sin2 x. Quais das seguintes funções estão no espaço gerado
por f e g?.

a) cos 2x b) 3 + x2 c) 1 d) senx.

14. Determine se os vetores dados são ou não linearmente independentes

(i) u = (1, 2) e v = (−2, −4) em IR2

(ii) u = (2, 3), v = (5, −8) e w = (−6, −1) em IR2

(iii) u = (2, 1, 0), v = (3, −1, 2) e w = (0, 1, −4) em IR3

(iv) u = (3, 0, −1), v = (1, 0, 4) em IR3

(v) p1 (x) = 6 − x2 e p2 (x) = 1 + x + 4x2 em P2


   
1 3 −1 −3
(vi) A =  ; B =   em M2×2 .
2 0 −2 0

59
15. Seja V o espaço vetorial de todas as funções reais definidas sobre a reta real. Quais
dos seguintes conjuntos de vetores são linearmente dependentes?

(i) {6, 3 sin2 x, 2 cos2 x}, (ii) {x, cos x}, (iii) {(3 − x)2 , x2 − 6x, 5},

16. Use o wronskiano para mostrar que os seguintes conjuntos de vetores são linearmente
independentes.

(i) {1, x, ex }, (ii) {cos x, sin x, x sin x}, (iii) {ex , xex , x2 ex }.

17. Dadas as funções x e |x| mostre que:

(a) esses dois vetores são linearmente independentes em C([−1, 1])

(b) esses dois vetores são linearmente dependentes em C([0, 1])

18. Considere o subespaço S = ger{(1, 2, −1)T , (0, 1, 1)T , (2, −1, 3)T }

(a) o vetor (−1, 2, 1) ∈ S ?.

(b) o vetor (2, 0, 1) ∈ S ?.

19. Quais dos seguintes conjuntos são bases de R2 ?.

a) (2, 1), (3, 0) b) (4, 1), (−7, −8) c) (0, 0), (1, 3) d) (3, 9), (−4, −12).

20. Quais dos seguintes conjuntos de vetores são bases de R3 ?.

a) (2, −3, 1), (4, 1, 1), (0, −7, 1) b) (3, 1, −4), (2, 5, 6), (1, 4, 8)
c) (1, 0, 0), (2, 2, 0), (3, 3, 3).

21. Quais dos seguintes conjuntos de vetores são bases de P2 ?.

a) 1 − 3x + 2x2 , 1 + x + 4x2 , 1 − 7x.

b) 1 + x + x2 , x + x2 , x2 .

c) −4 + x + 3x2 , 6 + 5x + 2x2 , 8 + 4x + x2 .

22. Os quatro primeiros polinômios de Hermite são 1, 2t, −2 + 4t2 e −12t + 8t3 .
Mostre que estes polinômios formam uma base de P3 (R).

23. Encontre as coordenadas do polinômio p(t) = 7 − 12t − 8t2 + 12t3 , na base P3 (R)
formada pelos polinômios de Hermite.

60
24. Prove que o seguinte conjunto é uma base de M2x2 .
       
3 6 0 −1 0 −8 1 0
 ;  ;  ;  
3 −6 −1 0 −12 −4 −1 2

25. Exiba uma base para os seguintes subespaços de R4 listados a seguir. Qual é a
dimensão destes?.

a) F = {(x, y, z, w)/ x = y = z = w}.

b) G = {(x, y, z, w)/ x = y, z = w}.

c) H = {(x, y, z, w)/ x = y = z}.

d) K = {(x, y, z, w)/ x + y + z + w = 0}.

26. Seja V = ger{S} onde (S = {cos2 x, sin2 x, cos 2x}). Prove que o conjunto S não
é uma base de V . Encontre uma base para V .

27. Ache uma base para o espaço solução de cada um dos sistemas homogêneos:

  x1 + x2 − x3 = 0


 x + 4x + 2x = 0 
1 2 3
a) b) 3x1 + 2x2 + x3 = 0 c) x1 − 2x2 + x3 = 0.
 2x + x + 5x = 0 

1 2 3 
 2x − x + 3x = 0
1 2 3

28. Considere os vetores ~u = (3, −2, 4), ~v = (−3, 2, −4), ~ = (−6, 4, −8). Qual é a
w
dimensão de ger{u, v, w}?.

29. Considere os vetores ~u = (2, 1, 3), ~v = (3, −1, 4), w


~ = (2, 6, 4).

a) Mostre que u, v, w são linearmente dependentes.

b) Mostre que u, v são linearmente independentes.

c) Qual é a dimensão de ger{u, v, w}?. Descreva geometricamente ger{u, v, w}.


   
u1 u2 v1 v2
30. Em M2x2 (R) para A =   e B= , a relação
u3 u4 v3 v4

hA, Bi = u1 v1 + u2 v2 + u3 v3 + u4 v4

é um produto interno usual. Verifique.

31. No espaço euclideano M2x2 (R)

61
 
2 1
(a) Quais das matrizes abaixo são ortogonais a M =  ;
−1 3
       
1 2 1 1 0 0 3 2
A= , B =  , C =  , D =  .
4 0 1 1 0 0 −1 3

(b) Calcule a norma da Matriz M.


   
2 4 −3 1
(c) Determine o ângulo entre as matrizes M1 =   , M2 =  .
−1 3 4 2
(d) Calcule a distância entre as matrizes M1 e M2 .

32. Sejam p = a0 + a1 t + a2 t2 + a3 t3 e q = b0 + b1 t + b2 t2 + b3 t3 ∈ P3 (R) a relação

hp, qi = a0 b0 + a1 b1 + a2 b2 + a3 b3

define um produto interno em P3 (R).

(a) Dados p = 2 + 3t − t2 e q = 2t + t2 − 5t3 . Calcule hp, qi.

(b) Calcule a norma do polinômio p = 3 + 2t2 + t3 .

33. Determine a projeção ortogonal de u = (2, −1, 3) sobre S = ger{(1, 0, 1), (2, 1, −2)}.

34. Use o método de ortonormalização de Gram-Schmidt para obter uma base ortonor-
mal de R3 apartir de B = {(1, 0, 0), (0, 1, 1), (0, 1, 2)}.

35. Use o método de ortonormalização de Gram-Schmidt para obter uma base ortonor-
mal de R2 apartir de B = {(1, 2), (−1, 3)}.

36. Obtenha uma base ortonormal do subespaço vetorial

U = {(x, y, z, t) ∈ R4 /x − y = 0 e z = 2t} ⊂ R4 .

A seguir projete o vetor u = (1, 3, 4, 2) ortogonalmente sobre U.

62
Capı́tulo 5

Transformações Lineares

Neste capı́tulo será estudado um tipo especial de função (ou aplicação) onde o domı́nio e
o contradomı́nio são espaços vetoriais reais. Assim, tanto a variável independente como
a variável dependente são vetores, razão pela qual essas funções são chamadas de trans-
formações vetoriais satisfazendo algumas condições de linearidade como na definição que
segue.

Definição 5.1. Uma transformação T : V → W do espaço vetorial V no espaço


vetorial W é chamada uma transformação linear se, para u, v ∈ V e α ∈ R

i) T (u + v) = T (u) + T (v),

ii) T (αu) = α T (u),

Figura 5.1:

63
Observação 5.1. Na definição anterior é importante notar que u + v ∈ V , enquanto
T (u) + T (v) ∈ W . Do mesmo modo, αu ∈ V e α T (u) ∈ W (ver Figura 5).

Uma transformação linear de V em V (é o caso de V = W ) é chamada de operador


linear sobre V

Exemplo 5.1. T : IR2 → IR3 , T (x, y) = (2x, −4y, x − y) é linear.

Solução De fato,

i) Se u = (x1 , y1 ) e v = (x2 , y2) são vetores genéricos do IR2 , tem-se:

T (u + v) = T ((x1 , y1 ) + (x2 , y2 )) = T (x1 + y1 , x2 + y2 )

= (2(x1 + x2 ), −4(x2 + y2 ), (x1 + x2 ) − (y1 + y2 )))

= (2x1 + 2x2 , −4x2 − 4y2 , x1 + x2 − y1 − y2 )

= (2x1 , −4x2 , x1 − y1 ) + (2x2 , −4y2 , x2 − y2 )

= T ((x1 , y1 )) + T ((x2 , y2 ))

= T (u) + T (v)

ii) Para todo α ∈ IR, tem-se

T (αu) = T (α(x1 , y1)) = T (αx1 , αy1)

= (2αx1 , −4αy1 , αx1 − αy1)

= α(2x1 , −4y1 , x1 − y1 )

= αT (u)

Exemplo 5.2. T : IR → IR , T (x) = 3x é linear.

Solução De fato, se u = x1 e v = x2 são vetores quaisquer de IR (os vetores, neste caso,


são numeros reais), tem-se:

i) T (u + v) = T (x1 + x2 ) = 3(x1 + x2 ) = 3x1 + 3x2 = T (u) + T (v)

ii) T (αu) = T (αx1 ) = 3αx1 = α(3x1 ) = αT (u)

Exemplo 5.3. A transformação Identidade I : V → V , I(v) = v, é linear.

64
Solução De fato:

i) I(u + v) = u + v = I(u) + I(v)

ii) I(αu) = αu = αI(u)

Exemplo 5.4. A transformação nula (ou zero) T : V → W , T (v) = 0 é linear.

Solução De fato:

i) T (u + v) = 0 = 0 + 0 = T (u) + T (v)

ii) T (αu) = 0 = α(0) = αT (u)

Exemplo 5.5. Seja A uma matriz de ordem 3 × 2 que determina a transformação

TA : IR2 → IR3 , TA (v) = A v .

Prove que TA é linear (v é considerado um vetor-coluna de IR2 ).

Solução De fato:

i) TA (u + v) = A(u + v) = Au + A v = TA (u) + TA (v)

ii) TA (αu) = A(αu) = α(Au) = αTA (u).

Exemplo 5.6. A transformação T : IR → IR , T (x) = sen(x) não é linear.

Solução De fato, em geral sen(x + y) 6= sen(x) + sen(y).

Exemplo 5.7. A transformação T : IR2 → IR2 , T (x, y) = (2x, y 2 ) não é linear.

Solução De fato, se u = (x1 , y1) e v = (x2 , y2 ) são vetores quaisquer do IR2 , Tem-se

T (u + v) = T (x1 + x2 , y1 + y2 ) = (2(x1 + x2 ), (y1 + y2 )2 )

= (2x1 + 2x2 , y1 2 + 2y1y2 + y2 2 )

enquanto,

T (u) + T (v) = (2x1 , y1 2 ) + (2x2 , y2 2 ) = (2x1 + 2x2 , y12 + y2 2 ),

isto é, T (u + v) 6= T (u) + T (v)

65
5.1 Propriedades das Transformações Lineares

1. Se T : V → W , é uma transformação linear, a imagem do vetor 0 ∈ V é o vetor


0 ∈ W . Esta propriedade decorre da condição ii) da definição 5.1, de transformação
linear, para α = 0:
T (0) = T (0 v) = 0T (v) = 0

• Nos exemplos 1 e 2 desta seção, verifica-se que


T (0, 0) = (0, 0, 0) e T (0) = 0
e, em ambos casos as transformações são lineares. Entretanto, no exemplo 6, embora
T (0) = 0, a transformação não é linear. Esses exemplos mostram que se T :
V −→ W é linear, então T (0) = 0, mas a recı́proca não é verdadeira, isto é, pode
existir transformação com T (0) = 0 e T não ser linear. Em conclusão, pois, se
impõe: se T (0) 6= 0, a transformação não é linear. É o caso, por exemplo, da
transformação:
T : IR3 → IR2 , T (x, y, z) = (4x + 5, x − z), que não é linear porque:
T (0, 0, 0) = (5, 0) 6= 0

2. Se T : V → W é uma transformação linear, tem-se:


T (αu + β v) = αT (u) + βT (v)
∀ u, v ∈ V e ∀ α, β ∈ IR, isto é, a imagem de uma conbinação linear dos vetores u
e v é uma conbinação linear das imagens T (u) e T (v) com os mesmos coeficientes
α e β. Este fato vale de modo geral:
T (α1 v1 +α2 v2 + . . . + αn vn ) = α1 T (v1 ) + α2 T (v2 ) + . . . + αn T (vn )

• Se B = {v1 , v2 , . . . , vn }, é uma base de V , então para todo v ∈ V , existem


α1 , α2 , . . . , αn ∈ IR tal que

v = α1 v1 +α2 v2 + . . . + αn vn

e, portanto

T (v) = T (α1 v1 ) + T (α2 v2 ) + . . . + T (αn vn ), isto é,

T (v) = α1 T (v1 ) + α2 T (v2 ) + . . . + αn T (vn )

isto é, dado v ∈ V , o vetor T (v) estará bem determinado se forem conheci-
das as imagens dos vetores de B. Em outras palavras, sempre que forem dados

66
T (v1 ), . . . , T (vn ) onde {v1 , . . . vn } é base do domı́nio V , a transformação linear T
está perfeitamente definida.

Exemplo 5.8. Seja o operador linear T : IR2 −→ IR2 tal que T (1, 0) = (2, −3) e
T (0, 1) = (−4, 1). Determinar T (x, y) completamente.

Sol. De fato, observando que {(1, 0), (0, 1)} é a base canônica do IR2 e que

(x, y) = x(1, 0) + y(0, 1), então: T (x, y) = xT (1, 0) + y(T (0, 1)

= x(2, −3) + y(−4, 1)

= (2x, −3x) + (−4y, y)

= (2x − 4y, −3x + y)

5.1.1 Exercı́cios
 
1 2 2
1. Seja T : R2 → R3 a transformação definida por T v = A v, onde A =  .
−1 2 1
   
2 −1
   
   
Encontre a imagem de u =  −3  e v =  1 .
   
0 1

2. Verifique quais das seguintes transformações são lineares.

a) T : R2 → R2 , T (x, y) = (sen y, x)

b) T : R2 → R2 , T (x, y) = (x2 , y 2)

c) T : R2 → R2 , T (x, y) = (x + 1, y)

d) T : R2 → R, T (x, y) = xy

e) T : R2 → R3 , T (x, y) = (3y, −2x, 0)

f) T : R3 → R3 , T (x, y, z) = (x + y, x − y, −x)
 
a b
g) T : M2×2 (IR) → IR2 , T   = (a − c, b + c)
c d
   
a b a b
h) T : M2×2 (IR) → IR, T   = det  
c d c d

67
3. Dada a transformação linear T : R3 → R2 , tal que

T (1, 0, 0) = (2, 1), T (0, 1, 0) = (−1, 0), T (0, 0, 1) = (1, −2)

Calcular: a) T (3, −4, 5) b) T (x, y, z).

4. Determinar a transformação linear T : P2 (IR) → P2 (IR), tal que

T (1) = x, T (x) = 1 − x2 , T (x2 ) = x + 2x2

5.2 Núcleo de uma Transformação Linear

Chama-se núcleo de uma transformação linear T : V −→ W ao conjunto de todos os


vetores v ∈ V que são transformados em 0 ∈ W . Denota-se ese conjunto por N(T ) ou
Ker(T ):

N(T ) = {v ∈ V / T (v) = 0}

A Figura 5.2 mostra que N(T ) ∈ V e todos seu vetores tem uma única imagem que é o
vetor zero de W .

Figura 5.2:

Observe que N(T ) 6= ∅, pois 0 ∈ N(T ) uma vez que T (0) = 0.

Exemplos:

68
1. O núcleo da transformação linear T : IR2 −→ IR2 , T (x, y) = (x + y, 2x + y) é o
conjunto

N(T ) = {(x, y) ∈ IR2 / T (x, y) = (0, 0)}

= {(x, y) ∈ IR2 / (x + y, 2x + y) = (0, 0)}

= {(0, 0)}

2. Seja a transformação linear T : IR3 −→ IR2 , T (x, y, z) = (x − y + 4z, 3x + y + 8z).


Por definição,

N(T ) = {(x, y, z) ∈ IR3 / T (x, y, z) = (0, 0)}

= {(x, y, z) ∈ IR2 / (x − y + 4z, 3x + y + 8z) = (0, 0)}

Como 
 x − y + 4z = 0
⇐⇒ x = −3z e y=z
 3x + y + 8z = 0

Logo,

N(T ) = (−3z, z, z, ) ∈ IR3 / z ∈ IR = {z(−3, 1, 1) / z ∈ IR} = [(−3, 1, 1)].

5.3 Imagem de uma Transformação Linear

Chama-se imagem de uma transformação linear T : V −→ W ao conjunto dos vetores


w ∈ W que são imagens de vetores v ∈ V . Denota-se ese conjunto por Im(T ) ou T (V ):

Im(T ) = {w ∈ W / T (v) = w para algum v ∈ V }

Observe-se que Im(T ) 6= ∅, pois 0 = T (0) ∈ Im(T ).

• Se Im(T ) = W T diz-se sobrejetora, isto é, para todo w ∈ W , existe pelo menos
um v ∈ V tal que T (v) = w.

69
Figura 5.3: Im(T ) ⊂ W e nucleo de T

Exemplos:

1. Seja T : IR3 −→ IR3 , T (x, y, z) = (x, y, 0) a projeção ortogonal do IR3 sobre o


plano xy. A imagem de T é o proprio plano xy (Figura 1):

Im(T ) = {(x, y, 0) ∈ IR3 / x, y ∈ IR}

Observe-se que o núcleo de T é o eixo dos z.

N(T ) = {(0, 0, z) ∈ IR3 / z ∈ IR}

pois T (0, 0, z) = (0, 0, 0) para todo z ∈ IR.

Figura 5.4:

2. A imagem da transformação identidade I : V −→ V definida por I(v) = v,


∀ v ∈ V , é todo o espaço V . O núcleo nesse caso é N(I) = {0}.

70
3. A imagen da transformação nula T : V −→ W , com T (v) = 0, ∀ v ∈ V , é o
conjunto Im(T ) = {0}. O núcleo nesse caso, é todo o espaço V .

5.4 Propriedades do Núcleo e da Imagem

1. O núcleo de uma transformação linear T : V −→ W , é um subespaço vetorial


de V . De fato, sejam v1 e v2 vetores de N(T ) e α um número real qualquer. Então,
T (v1 ) = 0 e T (v2 ) = 0 e

i) T (v1 + v2 ) = T (v1 ) + T (v2 ) = 0 + 0 = 0, isto é v1 + v2 ∈ N(T )

ii) T (α v) = αT (v) = α0 = 0, isto é, α v ∈ N(T )

2. A imgem de uma transformação linear é um subespaço vetorial de W . De fato:

Sejam w1 , w2 ∈ Im(T ) e α ∈ IR. A propriedade fica demonstrada se se provar que:

i) w1 + w2 ∈ Im(T )

ii) α w1 ∈ Im(T ),

isto é, deve-se mostrar que existem vetores u e v em V , tais que


T (u) = w1 + w2 e T (v) = α w1 .

Como w1 , w2 ∈ Im(T ), existem vetores v1 , v2 ∈ V tais que T (v1 ) = w1 e T (v2 ) =


w2 . Fazendo u = v1 + v2 e v = α v1 , tem-se:

T (u) = T (v1 + v2 ) = T (v1 ) + T (v2 ) = w1 + w2 e

T (v) = T (α v1 ) = αT (v1 ) = α w1

Portanto, Im(T ) é um subespaço vetorial de W .

3. Se V é uma espaço vetorial de dimensão finita e T : V −→ W uma transformação


linear, dim Nu(T ) + dim Im(T ) = dim V .

5.4.1 Exercı́cios

1. Dado o operador linear


T : IR3 −→ IR3 , T (x, y, z) = (x + 2y − z, y + 2z, x + 3y + z),

71
a) Determinar o núcleo de T , a dimensão do núcleo e uma de suas bases.

b) Determinar a imagem de T , a dimensão da imagem e uma de suas bases.

c) Verificar a propriedade da dimensão (propriedade 3).

2. Dado o operador linear


T : IR2 −→ IR2 , T (x, y) = (x − 2y, 2x + 3y),

a) Determinar o núcleo de T , a dimensão do núcleo e uma de suas bases.

b) Determinar a imagem de T , a dimensão da imagem e uma de suas bases.

c) Verificar a propriedade da dimensão (propriedade 3).

3. Nos problemas seguintes são apresentadas transformações lineares. Para cada uma
de elas
(i) Determinar o nucleo, uma base para esse subespaço, e sua dimensão. T é inje-
tora? Justificar.
(ii) Determinar a imagem, uma base para esse subespaço, e sua dimensão. T é
sobrejetora? Justificar

a) T : R2 → R2 , T (x, y) = (3x − y, −3x + y)

b) T : R2 → R3 , T (x, y) = (x + y, x, 2y)

c) T : R3 → R2 , T (x, y, z) = (x + 2y − z, 2x − y + z)

d) T : R3 → R3 , T (x, y, z) = (x − 2y − 2z, −x + 2y + z, x − 3z)

e) T : R2 → R3 , T (x, y) = (3y, −2x, 0)

f) T : R3 → R3 , T (x, y, z) = (x + y, x − y, −x)
 
a b
g) T : M2×2 (IR) → IR2 , T   = (a − c, b + c)
c d

4. Encontrar um operador linear T : R3 → R3 , cujo núcleo é gerado por (1, 2, −1) e


(1, −1, 0).

5. Encontrar uma transformação linear T : R3 → R4 , cuja imagem é gerada por


(1, 3, −1, 2) e (2, 0, 1, −1).

72
5.5 Matriz de uma Transformação Linear

Sejam T : V −→ W uma transformação linear, A uma base de V e B uma base de W .


Sem perda de generalidade, consideramos o caso em que dim V = 2 e dim W = 3. Sejam
A = {v1 , v2 } e B = {w1 , w2 , w3 } bases de V e W , respectivamente. Um vetor v ∈ V
pode ser expresso por:

v = x1 v1 + x2 v2 ou vA = (x1 , x2 ) (5.1)

e a imagem T (v) por

T (v) = y1 w1 + y2 w2 + y3 w3 ou T (v)B = (y1 , y2 , y3 ) (5.2)

Por outro lado,

T (v) = T (x1 v1 + x2 v2 ) = x1 T (v1 ) + x2 T (v2 ) (5.3)

Sendo T (v1 ) e T (v2 ) vetores de W , eles serão combinações lineares dos vetores de B

T (v1 ) = a11 w1 + a21 w2 + a31 w3 (5.4)

T (v2 ) = a12 w1 + a22 w2 + a32 w3 (5.5)

Substituindo (5.4) e (5.5) em (5.3), temos

T (v) = x1 (a11 w1 + a21 w2 + a31 w3 ) + x2 (a12 w1 + a22 w2 + a32 w3 )

ou

T (v) = (a11 x1 + a12 x2 )w1 + (a21 x1 + a22 x2 )w2 + (a31 x1 + a32 x2 )w3 (5.6)

Comparando (5.6) com (5.2), conclui-se que

y1 = a11 x1 + a12 x2

y2 = a21 x1 + a22 x2

y3 = a31 x1 + a32 x2

ou na forma matricial
   
y a a  
 1   11 12  x
    1
y2  = a21 a22   
    x2
y3 a31 a32

73
ou, ainda simbolicamente

T (v)B = AvA

sendo a matriz
 
a11 a12
 
A  
A = [T ]B = a21 a22 
 
a31 a32
denominada matriz de T em relação às bases A e B. Essa matriz A é, na verdade,
um operador que transaforma vA (componentes de um vetor v na base A) em T (v)B
(Componentes da imagem de v na base B). A matriz A é de ordem 3 × 2 pois dim V = 2
e dim W = 3.

Observação 5.2. Se a transformação linear T : V −→ W tivesse dim V = n e


dim W = m, A seria uma matriz de ordem m × n.

As colunas da matriz A são as componentes das imagens dos vetores v1 e v2 da base


A de V em relação a base B de W , conforme se verifica em (5.4) e (5.5):
 
a a12
 11 
 
a21 a22 
 
a31 a32

↑ ↑
T (v1 )B T (v2 )B

A matriz A depende das bases A e B consideradas, isto é, a cada dupla de bases
corresponde uma particular matriz. Assim, uma transformação linear poderá ter uma
infinidade de matrizes a representá-la. No entanto, fixadas as bases, a matriz é única.

A matriz de T em relação às bases A e B será denotada por A = [T ]A


B

Exemplo 5.9. Dada a transformação linear T : IR3 −→ IR2 ,

T (x, y, z) = (2x + y − z, x + 2y)

e as bases de R3 e R2 respectivamente,

A = {v1 = (1, 0, 0), v2 = (2, −1, 0), v3 = (0, 1, 1)}

B = {w1 = (−1, 1), w2 = (0, 1)}

74
a) determinar A, matriz de T nas bases A e B;

b) se v = (2, −1, 4) (vetor com componentes em relação à base canônica do IR3 ), calcular
T (v)B utilizando a matriz A.

Solução

a) A matriz A é de ordem 2 × 3.
 
a11 a12 a13
A= 
a21 a22 a23

↑ ↑ ↑
T (v1 )B T (v2 )B T (v3 )B

T (v1 ) = T (1, 0, 0) = (2, 2) = a11 (−1, 1) + a21 (0, 1)


 
 −a = 2  a = −2
11 11

 a +a =2  a = 4
11 21 21

T (v2 ) = T (2, −1, 0) = (3, 0) = a12 (−1, 1) + a22 (0, 1)


 
 −a = 3  a = −3
12 12

 a +a =0  a = 3
12 22 22

T (v3 ) = T (0, 1, 1) = (0, 2) = a13 (−1, 1) + a23 (0, 1)


 
 −a =0  a = 0
13 13

 a +a =2  a = 2,
13 23 23

logo,
 
−2 −3 0
A= 
4 3 2

75
b) Sabe-se que

T (v)B = AvA (5.7)

Tendo em vista que v = (2, −1, 4) está expresso na base canônica, deve-se, primeira-
mente, expressá-lo na base A. Seja vA = (a, b, c), isto é,

(2, −1, 4) = a(1, 0, 0) + b(2, −1, 0) + c(0, 1, 1)

ou



 a +2b =2

−b +c = −1



 c =4

sistema cuja solução é a = −8, b = 5 e c = 4, ou seja, vA = (−8, 5, 4).

Substituindo A e vA em (5.7), temos


 
  −8
−2 −3 0  
T (v)B =  5

4 3 2  
4
 
1
T (v)B =  
−9

Observe-se que

T (v) = T (2, −1, 4) = (−1, 0),

isto é, os números -1 e 0 são as componentes de T (v) em relação à base canônica


do IR2 .

Exemplo 5.10. Dada a transformação linear

T : IR3 −→ IR2 , T (x, y, z) = (2x + y − z, x + 2y) (5.8)

e as bases canônicas

A = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} do IR3 e

B = {(1, 0), (0, 1) do IR2 ,

76
a) determinar A, matriz de T nas bases A, e B;

b) se v = (2, −1, 4), calcular T (v)B utilizando a matriz A.

Solução

a)

T (1, 0, 0) =(2, 1) = 2(1, 0) + 1(0, 1)

T (0, 1, 0) =(1, 2) = 1(1, 0) + 2(0, 1)

T (0, 0, 1) =(−1, 0) = −1(1, 0) + 0(0, 1),

logo:
 
2 1 −1
A=  (5.9)
1 2 0

Obs1: No caso de serem A e B bases canônicas do domı́nio e do contradomı̀nio,


respectivamente, como é o caso deste problema, a matriz A é chamada matriz
canônica de T e escreve-se, simplesmente

T (v) = A v (5.10)

ficando subentendido que v = vA e T (v) = T (v)B

Obs2: Examinando, em (5.8), a lei que define a transformação T , verifica-se, em


(5.9), que sua matriz canônica A fica determinada formando a primeira coluna com
os coeficientes de x e a segunda coluna com os coeficientes de y e a terceira com os
coeficientes de z

b) Tendo em vista que v = (2, −1, 4) = vA e que T (v)B = T (v) e que


T (v) = A v conforme esta expresso em (5.10), tem-se
 
  2
2 1 −1   

T (v)B =T (v) =   −1
1 2 0  
4
 
−1
T (v)B =T (v) =  
0

77
 
−1
Obs3: Observe o leitor que calcular T (v) =   pela matriz A é o mesmo que
0
fazê-lo pela lei definidora de T , conforme se pode ver na parte final do problema
anterior.

5.6 Operações com Transformações Lineares

5.6.1 Adição ou Soma

Sejam T1 : V −→ W e T2 : V −→ W transformações lineares. Chama-se soma das


transformações T1 e T2 à transformação linear

T1 + T2 : V −→ W

v 7−→ (T1 + T2 )(v) = T1 (v) + T2 (v), ∀ v∈V

Se A1 e A2 são as matrizes de T1 e T2 em bases quaisquer de V e W , a matriz S que


representa T1 + T2 é

S = A1 + A2

5.6.2 Multiplicação por Escalar

Sejam T : V −→ W uma transformação linear e α ∈ IR. Chama-se produto de T pelo


escalar α à transformação linear

αT : V −→ W

v 7−→ (αT )(v) = αT (v), ∀ v∈V

Se A é a matriz de T em bases quaisquer de V e W , a matriz E que representa o produto


αT é

E = αA

78
5.6.3 Composição

Sejam T1 : V −→ W e T2 : W −→ U transformações lineares. Chama-se


transformãção composta de T1 com T2 , e se representa por T2 ◦ T1 à transformação
linear

T2 ◦ T1 : V −→ W

v 7−→ (T2 ◦ T1 )(v) = T2 (T1 (v)), ∀ v∈V

Figura 5.5:

Se A1 e A2 são as matrizes de T1 e T2 em bases quaisquer de V , W e U, a matriz P


que representa a composição T2 ◦ T1 é

P = A2 A1

Exemplos:

Sejam as transformações lineares: T1 : IR2 −→ IR2 , T1 (x, y) = (x − 2y, 2x + y),


T2 : IR2 −→ IR2 , T2 (x, y) = (x, x − y), e T3 : IR2 −→ IR3 , T3 (x, y) = (2x + 3y, y, −x),
determinar:

1. (T1 + T2 )(x, y)

79
Solução:

(T1 + T2 )(x, y) = T1 (x, y) + T2 (x, y)

= (x − 2y, 2x + y) + (x, x − y)

= (2x − 2y, 3x)

2. (3T1 − 2T2 )(x, y)


Solução:

(3T1 − 2T2 )(x, y) = (3T1 )(x, y) − (2T2 )(x, y)

= 3(x − 2y, 2x + y) − 2(x, x − y)

= (x − 6y, 4x + 5y)

3. (T3 ◦ T2 )(x, y)
Solução:

(T3 ◦ T2 )(x, y) = T3 (T2 (x, y))

= T3 (x, x − y)

= (2x − 3(x − y), x − y, −x)

= (−x + 3y, x − y, −x)

5.6.4 Exercı́cios

1. Consideremos a transformação linear T : R3 → R2 , definida por


T (x, y, z) = (2x − y, x + 3y, −2y) e as bases A = {(1, 0, 0), (2, −1, 0), (0, 1, 1)}
e B = {(−1, 1), (0, 1)}. Determinar a matriz [T ]A
B

2. Seja a transformação linear T : R2 → R3 , T (x, y) = (2x − y, x + 3y, −2y) e as


bases A = {(−1, 1), (2, 1)} e B = {(0, 0, 1), (0, 1, −1), (1, 1, 0)}. Determinar a
3
matriz [T ]A A
B . Qual a matriz [T ]C , onde C é a base canônica do IR ?

3. Sabendo que a matriz de uma transformação linear T : R2 → R3 , nas bases

80
A = {(−1, 1), (1, 0)} do IR2 e B = {(1, 1, −1), (2, 1, 0), (3, 0, 1)} do IR3 é:
 
3 1
 
[T ]A
 
B = 2 5 
 
1 −1

encontrar a expressão de T (x, y) e a matriz [T ] (Matriz asssociada às bases canônicas)

4. Seja a transformação linear T : P3 (IR) → P2 (IR), T (p(x)) = p′ (x) + p(0).


Encontre a matriz de T em relação as bases {x2 , x, 1} e {2, 1 − x}. Para cada um
dos vetores p(x) em P3 (IR) a seguir, encontre as coordenadas de T (p(x)) em relação
à base {2, 1 − x}.
a) x2 + 2x − 3 b) x2 + 1 c) 3x d) 4x2 + 2x

5. Seja S = ger{ex , xex , x2 ex } o subespaço de C[a, b](Espaço vetorial das funções reais
definidas no intervalo [a, b]). Seja D o operador derivada em S. Encontre a matriz
de D em relação à base {ex , xex , x2 ex }

6. Consideremos as transformações lineares S e T de IR3 em IR2 definidas por S(x, y, z) =


(2x − y, 3x − 2y + z) e T (x, y, z) = (x + y − z, y − 2z).

a) Determinar o núcleo da transformação linear S + T .

b) Encontrar a matriz canônica de 3S − 4T .

7. Seja a transformação linear S : R3 → R4 , S(x, y, z) = (x + y, z, −x − y, y + z)

a) Calcular (S ◦ T )(x, y) se
T : R2 → R3 , T (x, y) = (2x + y, x − y, x − 3y)

b) Encontrar a matriz canônica de S ◦ T e mostrar que ela é o produto da matriz


canônica de S pela matriz canônica de T .

5.7 Mudança de Base

Descrever o movimento de uma partı́cula em um plano resulta muitas vezes mas conve-
niente se usarmos uma base em R2 formada por um vetor tangente unitário ~t e um vetor
normal ~n, em vez da base canônica {e1 , e2 }.

81
Em geral, se A e B são bases de um espaço vetorial V , e I : V −→ V é a transformação
linear identidade, então por (5.7) temos que:

[v]B = [I(v)]B = A [v]A (5.11)

sendo A a matriz associada à transformação identidade I nas bases A e B, e que deno-


taremos por

A = [I]A
B.

Esta matriz é também chamada matriz mudança de base de A para B.

Deste modo consegue-se relacionar as coordenadas de um vetor v em relação à base


A com as coordenadas do mesmo vetor v em relação à base B.

Exemplo 5.11. Sejam as bases A = {v1 , v2 } e B = {w1 , w2 } do IR2 , onde

v1 = (2, −1), v2 = (−1, 1) e w1 = (1, 0), w2 = (2, 1)

Ache a matriz mudança de base de A para B.

Sol: Para isso temos que expressar os vetores da base A em relação à base B.

v1 = (2, −1) = a11 (1, 0) + a21 (2, 1)

ou
  
 a
11 +2a21 = 2 4
=⇒ a11 = 4, a21 = −1 =⇒ [v1 ]B =   .
 a21 = −1 −1

Analogamente,
v2 = (−1, 1) = a12 (1, 0) + a22 (2, 1),

logo
  
12 +2a22 = −1 −3
 a
=⇒ a12 = −3, a22 = 1 =⇒ [v2 ]B =   .
 a22 = 1 1

Portanto,
 
4 −3
[I]A
B =
 
−1 1

82
 
4
Sabendo que [v]A =   podemos calcular [v]B usando a matriz anterior. De fato:
3
    
4 −3 4 7
[v]B = [I]A
B [v]A =
   =  .
−1 1 3 −1

5.8 Exercı́cios

1. Encontre a matriz mudança de base [I]A


B sendo:

a) A = {(1, 0), (0, 2)} e B = {(2, 1), (−3, 4)}.

b) A = {(−3, 0, −3), (−3, 2, −1), (1, 6, −1)} e B = {(−6, −6, 0), (−2, −3, 7), (−2, −6, 4)}.

c) A = {6 + 3x, 10 + 2x} e B = {2, 3 + 2x}.

2. Calcule as matrizes coordenadas [w]A a [w]B , onde w = (−5, 8, −5) e A e B são as


bases dadas no exercicio 1, item b).

83
Capı́tulo 6

Autovalores e Autovetores

Seja A ∈ Mn×n (R). A equação


Ax = y

pode ser vista como uma transformação linear que leva (ou transforma) um vetor dado
x ∈ V em um novo vetor y ∈ V . Vetores que são transformados em múltiplos de si mesmos
são importantes em muitas aplicações. Para encontrar tais vetores, faz-se y = λx, onde λ é
um fator escalar de proporcionalidade. Assim,o objetivo será achar soluções das equações

Ax = λx, (6.1)

ou

(A − λI)x = 0. (6.2)

Definição 6.1. Se A ∈ Mn×n (R). O polinômio de n-ésimo grau

p(λ) = det(A − λI), (6.3)

se chama polinômio caracterı́stico da matriz A.

A equação det(A − λI) = 0 chama-se equação caracterı́stica de A e suas raı́zes


λ que satisfazem a equação (6.3) são os autovalores da matriz A. O vetor x tal que
Ax = λ x é chamado autovetor correspondente, ou associado, àquele autovalor λ. O
conjunto de todos os autovetores x ∈ V correspondentes ao autovalor λ, indicado por Vλ ,
é chamado autoespaço de λ.

84
Proposição 6.1. As seguintes afirmações são equivalentes:

a) A equação (6.1) tem soluções não-nulas

b) A matriz (A − λI) é não-inversı́vel.

c) det(A − λI) = 0.

Em particular, se A é uma matriz 2 × 2, então a equação (6.2) fica


     
a11 − λ a12 x1 0
 .  =  .
a21 a22 − λ x2 0

Esta última equação tem soluções não-nulas se,

p(λ) = (a11 − λ).(a22 − λ) − a12 a21 = 0.

Ex.: Encontrar os autovalores e autovetores da matriz


 
3 −1
A= 
4 −2

Solução: Os autovalores λ e os autovetores v1 e v2 satisfazem a equação (A − λI)x = 0.


Assim,
     
3−λ −1 x1 0
 . = . (6.4)
4 −2 − λ x2 0

Os autovalores são as raı́zes da equação




3−λ −1
det(A − λI) = = λ2 − λ − 2 = 0

4 −2 − λ

Logo, os autovalores são λ1 = 2 e λ2 = −1.

Para encontrar os autovetores, volta-se à equação (6.4) e substitui-se λ por cada um


dos autovalores encontrados.

Para λ = 2 :
     
1 −1 x1 0
 .  =  . (6.5)
4 −4 x2 0

85
Logo, cada linha dessa equação vetorial leva à condição x1 − x2 = 0, logo x1 = x2 , mas
seus valores não estão determinados. Se x1 e x2 forem iguais a c, o autovetor v1 será
 
1
v1 = c.   , c 6= 0. (6.6)
1

Em geral, não se usa a constante arbitrária c para encontrar os autovetores; com isso
elimina-se c da equação (6.6),
 
1
v1 =   , (6.7)
1

e deve ser lembrado que qualquer múltiplo não-nulo desse vetor também é um autovetor.
Diz-se que v1 é o autovetor correspondente ao autovalor λ1 = 2.

Agora para λ = −1 na equação (6.4).


     
4 −1 x 0
 . 1  =  . (6.8)
4 −1 x2 0

Foi obtido mais uma vez uma única condição sobre x1 e x2 , para saber, 4x1 − x2 = 0.
Logo, o autovetor correspondente ao autovalor λ2 = −1 é
 
1
v2 =   , (6.9)
4

ou qualquer múltiplo não-nulo desse vetor.

Observação 6.1. Se um determinado autovalor aparece m vezes como raiz da equação


(6.3), ele é dito de multiplicidade m. Cada autovalor de multiplicidade m pode ter q
autovetores linearmentes independentes, onde

1 ≤ q ≤ m.

Ex.: Encontrar os autovalores e autovetores da matriz


 
0 1 1
 
 
A= 1 0 1  (6.10)
 
1 1 0

86
Solução: Os autovalores e autovetores satisfazem a equação (A − λI)x = 0, ou
     
−λ 1 1 x 0
   1   
     
 1 −λ 1  .  x2  =  0  (6.11)
     
1 1 −λ x3 0

Os autovalores são as raı́zes da equação




−λ 1 1

det(A − λI) = 1 −λ 1 = −λ3 + 3λ + 2 = 0

(6.12)


1 1 −λ

As raı́zes da equação (6.12) são λ1 = 2, λ2 = −1 e λ3 = −1. Sendo assim, 2 é um


autovalor simples e −1 um autovalor de multiplicidade 2.

Agora para encontrar o autovetor v1 associado ao autovalor λ1 , deve-se substituir


λ = 2 na equação (6.11); isso nos leva ao sistema
     
−2 1 1 x 0
   1   
     
 1 −2 1  .  x2  =  0  (6.13)
     
1 1 −2 x3 0

Usando as operações elementares sobre as linhas do sistema, encontramos um outro sis-


tema equivalente,
     
2 −1 −1 x1 0
     
     
 0 1 −1 .
  x2  =  0  (6.14)
     
0 0 0 x3 0

Resolvendo esse sistema, obtemos o autovetor


 
1
 
 
v1 =  1  . (6.15)
 
1

Para λ = −1, o sistema (6.11) se reduz imediatamente a uma única equação

x1 + x2 + x3 = 0. (6.16)

87
Assim, valores para duas das quantidades x1 , x2 e x3 podem ser escolhidos arbitra-
riamente e o terceiro valor fica determinado pela equação (6.16). Por exemplo, se x1 = 1
e x2 = 0, então x3 = −1 e
 
1
 
 
v2 =  0  (6.17)
 
−1
é um autovetor. Qualquer múltiplo não-nulo de v2 também é um autovetor, mas um
segundo autovetor independente pode ser encontrado para uma outra escolha de x1 e x2 ;
por exemplo, x1 = 0 e x2 = 1. Novamente x3 = −1 e
 
0
 
 
v3 =  1  (6.18)
 
−1
é um autovetor linearmente independente de v2 .

Portanto, neste exemplo, existem dois autovetores linearmente independentes associ-


ados a um autovalor duplo.

6.1 Exercı́cios

1. Encontrar os autovalores e autovetores das matrizes


 
  3 0 0
1 4 



a) A =   b) A =  0 2 −5 
2 3  
0 1 2

2. Seja T : R3 −→ R3 um operador linear definido por

T (x, y, z) = (2x + y, y − z, 2y + 4z).

Ache os autovalores e uma base para cada autoespaço do operador T .

3. Calcule os valores propios e vetores propios das transformações lineares seguintes:

a) T : R2 → R2 , T (x, y) = (x + 2y, −x + 4y)


b) T : R2 → R2 , T (x, y) = (y, −x)
c) T : R3 → R3 , T (x, y, z) = (x, −2x − y, 2x + y + 2z)

88
Capı́tulo 7

Diagonalização de Matrizes

Uma matriz A ∈ Mn×n (R) é dita diagonalizável se existe uma matriz inversı́vel
 
p11 p12 . . . p1n
 
 
 p21 p22 . . . p2n 
P = .

.. .. ..  ,
 (7.1)
 .. . . . 
 
pn1 pn2 . . . pnn

tal que: P −1 AP é uma matriz diagonal. Dizemos então que a matriz P diagonaliza A.

Teorema 7.1. Se A ∈ Mn×n (R), então são equivalentes se:

i) A é diagonalizável

ii) A tem n autovetores L.I.

A seguir veremos os passos do método de diagonalização de matrizes:

1. Encontrar os n autovetores L.I. de A, digamos v1 , v2 , . . . , vn .

2. Forme a matriz P com os vetores coluna v1 , v2 , . . . , vn .

3. A matriz P −1 AP será então diagonal com entradas λ1 , λ2 , . . . , λn na diagonal prin-


cipal, onde λi é o autovalor associado a vi .

89
Ex.: Encontre a matriz que diagonaliza
 
0 0 −2
 
 
A= 1 2 1 . (7.2)
 
1 0 3

Solução: Será feita por partes:

i) Cálculo dos autovetores:




−λ 0 −2

= −(λ − 2)2 (λ − 1)

p(λ) = det(A − λI) = det 1 2 − λ 1 (7.3)


1 0 3−λ

Logo, p(λ) = 0, se λ = 1, λ = 2.
 
x
 
 
• Para λ = 1, achar v =  y  /(A − λI)v = 0
 
z
     
−1 0 −2 x 0
     
     
Assim  1 1 1  .  y  =  0 
     
1 0 2 z 0

 
 x+y+z =0  x = −2z
=⇒ (7.4)
 x + 2z = 0  y=z

Consequentemente V1 = {(−2z, z, z)/z ∈ R} = ger{(−2, 1, 1)}

• Para λ = 2 temos:
     
−2 0 −2 x 0
     
     
 1 0 1 . y  =  0  =⇒ x = −z
     
1 0 1 z 0

V2 = {(x, y, −x)/ x, y ∈ R}

= {x(1, 0, −1) + y(0, 1, 0)/x, y ∈ R}

= ger{(1, 0, −1), (0, 1, 0)} (7.5)

90
 
−2 1 0
 
 
ii) A matriz P =  1 0 1  diagonaliza A pois P −1AP é diagonal.
 
1 −1 0
Observe que A possui 3 autovetores L.I. que formam uma base.

iii) Provaremos que P −1 AP é diagonal


 
−1 0 −1
 
 
De fato, calculando obtemos que P −1 =  −1 0 −2 , logo
 
1 1 1
     
−1 0 −1 0 0 −2 −2 1 0 1 0 0
     
     
P −1 AP =  −1 0 −2   1 2 1   1 0 1  =  0 2 0 
     
1 1 1 1 0 3 1 −1 0 0 0 2

7.1 Exercı́cios

1. Ache a forma diagonal e a matriz diagonalizante P , para cada uma das matrizes.
 
    1 −3 3
3 4 1 4 



a)   b)   c) A =  3 −5 3 
−4 3 2 3  
6 −6 4

2. Verifique se as as seguintes matrizes são diagonalizáveis. Se for, calcule uma matriz


P que diagonaliza A.
   
    2 11 1 0 0
2 4 5 −1    
i) A =   ii) A =   iii) A =  
−1 3 1 iii) A =
 
−2 3 −1.
3 1 1 3    
0 2 2 0 −4 3

7.2 Matrizes Simétricas e autovetores ortogonais

Pelo Teorema 7.1 sabemos que dois autovetores associados a autovalores distintos de uma
matriz A são linearmente independente. Se temos que A é simétrica tem-se o teorema
abaixo:

91
Teorema 7.2. Os autovetores associados a autovalores distintos de uma matriz simétrica
são ortogonais.

Demonstração: Vamos supor v1 e v2 autovetores associados aos autovalores distintos


λ1 e λ2 da matriz simétrica A. Vamos mostrar que hv1 , v2 i = v1T v2 = 0. De fato, como a
matriz A é simétrica, logo

hv1 , Av2 i = v1T Av2 = v1T AT v2 = (Av1 )T v2 = (v2T Av1 )T = (v2T λ1 v1 )T = λ1 v1T .v2 (7.6)

hv1 , Av2 i = v1T Av2 = v1T λ2 v2 = λ2 v1T .v2 (7.7)

são iguais. Então,

(λ1 − λ2 )v1T v2 = 0. (7.8)

Como λ1 6= λ2 segue-se hv1 , v2 i = 0, portanto os autovetores v1 e v2 são ortogonais.

No Teorema 7.1 vimos que uma matriz A é diagonalizada pela matriz P dos autove-
tores. No caso de A ser simétrica, os vetores que compõem P são base ortogonal.
Com o intuito de facilitar futuras aplicações, é conveniente que P seja ortonormal, o que
se obtém normalizando cada vetor.

Assim os autovetores ortonormais de P formarão uma matriz ortonormal (isto é


P P T = I). Como P é inversı́vel e P −1 = P T a relação fica:

D = P T AP, (7.9)

e nesse caso diz- se que P diagonaliza A ortogonalmente.

Observação 7.1. Qualquer matriz B ∈ Mn×m multiplicada pela sua matriz transposta
B T ∈ Mm×n , é uma matriz quadrada simétrica de ordem n × n. De fato,

(BB T )T = (B T )T B T = BB T .

Consequentemente os autovetores associados a autovalores distintos da matriz BB T


são ortogonais.

92
Capı́tulo 8

Aplicações

8.1 Mı́nimos Quadrados na Solução de Sistemas Lin-


eares Inconsistentes

O método de Mı́nimos Quadrados tem como ferramento o uso das projeções ortogonais
na solução de problemas de aproximação.

Teorema 8.1. Seja W ⊆ V , onde W é um subespaço de dimensão finita de um espaço


vetorial com produto interno V . Se u ∈ V , então

ku − P roj W uk < ku − wk ∀ w ∈ W, w 6= P roj W u.

Exemplo 8.1. Geometricamente, para V = R3 e W = {(x, y, 0) ∈ R3 / x, y ∈ R}


podemos visualizar o resultado do teorema anterior, no gráfico a seguir:

93
Sistemas inconsistentes da forma AX = y são muito importantes nas aplicações fı́sicas.
É uma situação comum que algum problema fı́sico leve a um sistema AX = y que deveria
ser consistente em teoria, mas não o é porque ”erros de medida” nas entradas de A e y
perturbam o sistema suficientemente a ponto de criar inconsistência.

Assim, a solução será achar um X que chegue “tão perto quanto possı́vel”de ser uma
solução, no sentido que minimize o valor de kAX − yk em relação ao produto interno eu-
clideano. Assim, do teorema anterior segue-se que X é uma solução de mı́nimos quadrados
do sistema se

AX = P roj W y, onde W é o espaço coluna de A (8.1)

Observação 8.1. Uma forma de resolver (8.1) é primeiro calculando o vetor P roj W y e
depois resolvendo a equação; no entanto, existe uma abordagem melhor, que decorre do
Teorema 4.6, que diz que:

y − AX = y − P roj W y ∈ W ⊥ .

Como W é o espaço coluna de A segue do Teorema 4.7 que

y − AX ∈ N(AT ).

Desse modo uma solução de mı́nimos quadrados de AX = y deve satisfazer

AT (y − AX) = 0 ou AT AX = AT y.

Este último sistema é chamado de sistema normal associado a AX = y.

Proposição 8.1. Para qualquer sistema linear AX = y, o sistema normal associado

AT A X = AT y é consistente.

Mais ainda, se A ∈ Mm×n tem vetores L.I., então para cada matriz y ∈ Mn×1 o sistema
linear AX = y, tem uma única solução de mı́nimos quadrados. Esta solução é dada
por:
X = (AT A)−1 AT y

94
8.1.1 Ajuste de Mı́nimos Quadrados a Dados

Uma aplicação da proposição anterior pode ser vista sobre projeções ortogonais em espaços
com produto interno para obter uma técnica de ajustar uma reta o uma outra curva
polinomial a um conjunto de pontos no plano que foram determinados experimentalmente.

Ajuste Linear de Mı́nimos Quadrados

Teorema 8.2. Seja (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ) um conjunto de dois o mais pontos de
dados, não todos em uma reta vertical. Então, existe um único ajuste linear de mı́nimos
quadrados

y = a∗ + b∗ x

aos pontos de dados. Além disto,


   
1 x1 y
     1
   
a∗ 1 x2  y2 
  = (AT A)−1 AT y, onde A= e y=
 .
 
 
b∗ 1 x3  y3 
   
1 x4 y4

Exemplo 8.2. Encontre o ajuste linear por mı́nimos quadrados dos pontos (0, 1), (1, 3),
(2, 4) e (3, 4).

Solução O problema será achar uma reta da forma

y = a∗ + b∗ x

que contém os pontos dados, isto é:


    
∗ ∗


 1 = a + b 0 1 1 0

     

 3 = a∗ + b∗ 1    
3 1 1 a∗
⇐⇒  =
    

∗ ∗ 4 1 2 b∗


 4=a +b 2

     | {z }

 4 = a∗ + b∗ 3 4 1 3
|{z} | {z }
y = A X

95
Como A tem vetores L.I. pelo Proposição anterior tem-se que
   
1 0 1
    !   
  −1  
a∗ T −1 T
1 1 1 1 1 1 1 1 1 1  3
  = (A A) A y =      
   
b∗ 1 2 3 4 1 2 1 2 3 4  4
   
1 3 4
    
1  7 −3 12 1, 5
= = . (8.2)
10 −3 2 23 1

Portanto, a reta desejada é y = 1, 5 + x.

Ajuste Polinomial de Mı́nimos Quadrados

A técnica usada para o ajuste linear de Mı́nimos Quadrados generaliza-se facilmente para
ajustar um polinômio de qualquer grau fixo m, para n dados.

Assim, ajustando o polinômio

y = a0 + a1 x + · · · + am xm

aos n pontos (x1 , y1), (x2 , y2), . . . , (xn , yn ), obtemos as n equações:

96
y1 = a0 + a1 x1 + · · · + am xm
1

y2 = a0 + a1 x2 + · · · + am xm
2
..
.

yn = a0 + a1 xn + · · · + am xm
n.

Em formato matricial, o anterior escreve-se da forma:


     
2 m
1 x1 x1 . . . x1 a y
   0  1
     
1 x2 x22 . . . xm 2   a1   y2 
AX = y, onde A=  .. .. ..
,
 X= 
 ..  e  ..  .
y= 
. . .  . .
     
2 m
1 xn xn . . . xn an yn

Logo, pela Proposição 8.1 tem-se que as soluções das equações normais

AT AX = AT y

determinam os coeficientes dos polinômios que minimizam

ky − AXk.

Exemplo 8.3. O dono de um negócio em rápida expansão descobre que nos 5 primeiros
meses do ano as vendas (em milhares de reais) foram $4, 0; $4, 4; $5, 2; $6, 4 e $8, 0.
O dono coloca estos dados num gráfico e conjectura que, pelo resto do ano, a curva de
vendas pode ser aproximada por um polinômio quadrático de melhor ajuste de mı́nimos
quadrados para a curva de vendas e use-o para projetar as vendas no décimo segundo mês
do ano.

Solução O problema matemático é ajustar a curva quadrática

y = a0 + a1 x + a2 x2

aos cinco pontos dados

(1; 4), (2; 4, 4), (3; 5, 2), (4; 6, 4), (5; 8).

97
    


 4, 0 = a0 + a1 + a2 4, 0 1 1 1

     
    


 4, 4 = a0 + 2a1 + 4a2  4, 4  1 2 4  a0
     
    
5, 2 = a0 + 3a1 + 9a2 ⇐⇒  5, 2  = 1 3 9  a1 

     
    


 6, 4 = a0 + 4a1 + 16a2  6, 4  1 4 16 a2

     | {z }

 8, 0 = a + 5a + 25a
0 1 2 8, 0. 1 5 25
| {z } | {z }
y = A X

Como A tem vetores L.I. pelo Proposição anterior tem-se que


   
1 1 1 4, 0
     
   
1 1 1 1 1 1 2 4  !−1 1 1 1 1 1  4, 4 
     
     
X = 1 2 3 4 5  1 3 9  1 2 3 4 5   5, 2 
     
   
1 4 9 16 25 1 4 16 1 4 9 16 25  6, 4 
   
1 5 25 8, 0.
   
5 15 55 !−1 28
   
   
= 15 55 225  94 
   
55 225 979 370, 8
  
23/5 −33/10 1/2 28
  
  
= −33/10 187/70 −3/7  94  (8.3)
  
1/2 −3/7 1/14 370, 8
 
4
 
 
= −0, 2 (8.4)
 
0, 2

Portanto, o polinômio desejado é y = 4 − 0, 2x + 0, 2x2 . Consequentemente no décimo


segundo mês, x = 12, temos que o valor das vendas é:

y = 4 − 2, 4 + 28, 8 = 30, 4 mil reais.

98
8.2 Rotação de Cônicas

Teorema 8.3. (Dos eixos Principais em R2 ) Seja ax2 + 2bxy + cy 2 + dx + ey + f = 0 a


equação de uma cônica C e seja

X T AX = ax2 + 2bxy + cy 2 (8.5)


   
x a b
a forma quadrática associada, onde X =   e A =  .
y b c
Então, os eixos coordenados podem ser girados de modo que a equação C no novo
sistema x′ , y ′ tenha a forma

λ1 (x′ )2 + λ2 (y ′)2 + d′ x′ + e′ y ′ + f ′ = 0, (8.6)

onde λ1 , λ2 são autovalores de A.

A rotação é definida pela substituição


 

x′
X = PX ,   (8.7)

y

onde P diagonaliza A ortogonalmente, isto é P T AP = D e det P = 1 (note-se que


P −1 = P T ).

99
Observação 8.2. Do teorema anterior temos que a equação da cônica pode-se escrever
em forma matricial da forma
 
2 2 T
ax + 2bxy + cy +dx + ey + f = X AX + d e X + f = 0 (8.8)
| {z }

Logo, substituindo X = P X ′ tem-se



′ T
0 = (P X ) A(P X ) + d e P X ′ + f

 
= (X ′ )T P T
AP
| {z } X ′
+ ′
d e PX + f
 
= (X ′ )T DX ′ + d e P X ′ + f (8.9)

Exemplo 8.4. Identifique a cônica cuja equação é:

5x2 − 4xy + 8y 2 − y − 1 = 0

Solução A forma quadrática associada é


  
  5 −2 x
5x2 − 4xy + 8y 2 = x y     = X T AX (8.10)
−2 8 y

é simples calcular que os autovalores e autovetores (normalizados) são:


 
√2
5
λ1 = 4, v1 =  (8.11)
√1
5
 
−1

λ2 = 9, v2 =  5 . (8.12)
√2
5

Portanto, a matriz P que diagonaliza A ortogonalmente é


 
√2 −1

5 5
P = com det P = 1. (8.13)
√1 2

5 5

Consequentemente da observação anterior, fazendo X = P X ′ temos que


     
′ 2 −1
  4 0 x   √ √ x′
0 = x′ y ′     + 0 −1  5 5  
−1 (8.14)
0 9 y′ √1 √2 y ′
5 5
1 2
= 4(x′ )2 + 9(y ′)2 − √ x′ − √ y ′ − 1. (8.15)
5 5

100
Portanto, agrupando temos
 2  2
′ 1 ′ 1 1 1 745 149
2x − √ + 3y − √ =1+ + = = (8.16)
4 5 3 5 80 45 720 145

Mais ainda,
 2  2
′ 1 ′ 1 149
4 x − √ +9 y − √ = (8.17)
8 5 9 5 145

ou
 2  2
1 1
x′ − √ y′ − √ r 2
8 5 9 5 149
+ = . (8.18)
1 1 145
22 32
Esta última equação representa uma elipse com rotação e translação.

r 2
(x′′ )2 (y ′′ )2 149
Figura 8.1: + =
1 1 145
22 32

101
Apêndice A

Números Complexos

Como x2 ≥ 0 para todo x ∈ R, a equação x2 = −1 não tem solução real. Para contornar
este problema os matemáticos do século 18 introduziram o número imaginário

i= −1

ao qual deram a propriedade

i2 = −1.

Assim, foi definido os ”números complexos” como o conjunto



C = {a + bi /a, b ∈ R}, onde i= −1.

Diremos que z ∈ C se pode-se escrever da forma

z = a + bi onde a = Re(z), b = Im(z) são a parte real e imaginária de z.

No inicio do século 19, reconhece-se que um número complexo pode representar-se


como um par ordenado (a, b) ∈ R2 , de modo que ao definir operações aritméticas análogas
a R2 , as propriedades fundamentais continuem sendo válidas, com a propriedade adicional
que i2 = −1.

Geometricamente um número complexo z pode ser visto tanto como um ponto quanto
como um vetor no plano xy.

102
Figura A.1: C ⇐⇒ R2

Operações Aritméticas Sejam a + bi, c + di ∈ C, então

(a + bi) + (c + di) = (a + c) + (b + d)i (A.1)

(a + bi) − (c + di) = (a − c) + (b − d)i (A.2)

k(a + bi) = ka + kbi, ∀k∈R (A.3)

(a + bi) · (c + di) = (ac − bd) + (ad + bc)i (A.4)

Seja z = a + bi, definimos z̄ = a − bi o chamado conjugado de z, e o representamos


geometricamente por

Observe-se que

|z| = a2 + b2 = z · z̄ = |z̄|.

Por outro lado, se θ é o ângulo entre o eixo real positivo e o vetor z (figura A), usando
propriedades trigonométricas obtemos a forma polar de z

z = a + bi = |z| cos θ + i |z| sen θ. (A.5)

103
Note-se que se

z1 = |z1 | cos θ1 + i |z1 | sen θ1 e z2 = |z2 | cos θ2 + i |z2 | sen θ2 ,

então

z1 z2 = |z1 ||z2 |(cos θ1 cos θ2 − sen θ1 sen θ2 ) + i |z1 ||z2 |(sen θ1 cos θ2 + cos θ1 sen θ2 )

= |z1 ||z2 | cos(θ1 + θ2 ) + i |z1 ||z2 | sen(θ1 + θ2 ) (A.6)

Generalizando a propriedade (A.6) temos

z n = |z|n (cos θ + i sen θ)n = |z|n (cos nθ + i sen nθ). (A.7)

No caso especial em que |z| = 1 nós temos a chamada fórmula de Moivre

(cos θ + i sen θ)n = cos nθ + i sen nθ, ∀ n ∈ Z. (A.8)

Raiz n-ésima de un número complexo

Seja n ∈ N e z ∈ C, definimos a raiz n-ésima de z como um número complexo w que


satisfaz a equação

w n = z. (A.9)

Denotaremos w = z 1/n .

Sejam,
z = |z|(cos θ + i sen θ) e w = |w|(cos α + i sen α),

tais que satisfazem (A.9), isto é

w n = |w|n(cos nα + i sen nα) = |z| (cos θ + i sen θ). (A.10)

Comparando temos que

|w|n = |z|, cos nα = cos θ e sen nα = sen θ. (A.11)

Logo,
θ + 2kπ
|w| = |z|1/n , e α= , ∀ k ∈ Z. (A.12)
n
Consequentemente, a solução de (A.9)
    
1/n θ + 2kπ θ + 2kπ
w = |z| cos + i sen , ∀ k ∈ Z. (A.13)
n n

104
Referências Bibliográficas

[1] ANTON, Howard e RORRES, Chris - Álgebra Linear com Aplicações. Bookman,
8a edição - São Paulo, 2000.

[2] BOLDRINI,José Luiz; COSTA, Sueli I. Rodrigues; FIGUEIREDO, Vera Lúcia e


WETZLER, Henry G. - Álgebra Linear . Harbra ltda, 3a edição - São Paulo, 1986.

[3] STEINBRUCH, Alfredo e WINTERLE, Paulo - Álgebra Linear . Makron Books, 2a


edição - São Paulo, 1987.

[4] EDWARDS, C. H. Jr. e PENNEY, David E. Penney - Elementary Linear Algebra


(in Portuguese). Editorial LTC, Brazil, 2000.

105

You might also like