Professional Documents
Culture Documents
Mescua
Rigoberto G. S. Castro
Setembro de 2009
Sumário
1 Matrizes 1
1.2.1 Adição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2 Subtração . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
ii
2.3 Resolução de Sistemas pela Regra de Cramer . . . . . . . . . . . . . . . . . 20
2.4 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3 Vetores 22
3.5.1 Propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4 Espaço Vetorial 37
iii
4.5.1 Componentes de um Vetor . . . . . . . . . . . . . . . . . . . . . . . 51
4.7 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5 Transformações Lineares 63
5.1.1 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.4.1 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.6.3 Composição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
5.6.4 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
5.8 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6 Autovalores e Autovetores 84
6.1 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
iv
7 Diagonalização de Matrizes 89
7.1 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
8 Aplicações 93
v
Capı́tulo 1
Matrizes
Exemplo:
2 2 0 1 4
A= B= (1.2)
1 −3 5 0 7
2×3 2×2
Observação 1.1. De acordo com o número de linhas e colunas da matriz, podemos destacar
os seguintes casos particulares
1
Definição 1.2. (Igualdade de Matrizes:) Duas matrizes A = (aij )m×n e B = (bij )m×n
são ditas iguais, se todos seus elementos correspondentes são iguais, isto é, se aij = bij .
a 2 11
Exercı́cio: Determine a, b, c, d de modo que: 1 b+1 = 1 1.
c−2 d 6 3
Matriz Nula: É uma matriz cujos elementos são todos nulos, isto é aij = 0, ∀ i, j.
0 0
Exemplo: O =
0 0
Matriz Diagonal Uma matriz quadrada D = (dij )n×n é dita diagonal quando dij = 0,
∀ i 6= j.
2 0
Exemplo: D=
0 4
Matriz Identidade: É uma matriz diagonal onde aii = 1 para todo i, e aij = 0 para
todo i 6= j.
1 0 ... 0
0 1 . . . 0
Exemplo: I =
.. ..
..
. . .
0 0 ... 1
Matriz Triangular Uma matriz quadrada A = (aij )nxn é dita triangular superior, se
aij = 0 para i > j. Uma matriz B = (bij )nxn é dita triangular inferior quando bij = 0,
para i < j.
5 4 4 5 5 0 0 0
0 1 9 6 2 1 0 0
Exemplo: A=
e B=
0 0 3 8 9 7 3 0
0 0 0 0 8 6 5 1
2
a b c d
4 3 1
b e f g
Exemplo: 3 2 0 e
c f h i
1 0 5
d g i k
Observe que, no caso de uma matriz simétrica, a parte superior é uma “reflexão”da
parte inferior, em relação à diagonal.
Matriz Transposta A transposta de uma matriz A = (aij )m×n , é uma outra matriz
AT = (bij )n×m , cujas linhas são as colunas de A, isto é, bij = aji .
3 −1
3 4 5
Exemplo: A transposta de A = 4 −2 é AT =
−1 −2 −3
5 −3 2×3
3×2
2. Uma matriz é simétrica se somente se ela for igual à sua transposta, isto é, A = AT .
1.2.1 Adição
A soma de duas matrizes da mesma ordem, A = (aij )m×n e B = (bij )m×n , é uma matriz
m × n, definida por A + B = (aij + bij )m×n .
1 4 −1 1 1−1 4+1 0 5
Exemplo: 2 5 + −3 0 = 2 − 3 5 + 0 = −1 5 .
3 6 4 2 3+4 6+2 7 8
3
Propriedades da Adição
1. A + B = B + A (comutativa).
2. A + (B + C) = (A + B) + C (associativa).
1.2.2 Subtração
A diferença de duas matrizes da mesma ordem, A = (aij )m×n e B = (bij )m×n , é uma
matriz m × n, que denota-se por A − B, que é a soma de A com a oposta de B; isto é:
Exercı́cio:
4
2. Encontre as matrizes 2 × 2, A e B, sabendo que:
1 1 4 0 0 2
A+B+ = +
1 1 1/2 −1 3/2 4
6 −3 2 −2
A−B = − .
4 0 2 1
Sejam as matrizes A = (aij )m×p e B = (bij )p×n . Definimos C = A · B = (cuv )m×n , tal
que
p
X
cuv = auk bkv (1.4)
k=1
Observação 1.2. Só se pode efetuar o produto de duas matrizes Am×p e Bp×n , se o número
de colunas da primeira matriz for igual ao número de linhas da segunda matriz, sendo
assim o resultado da multiplicação de A por B será uma matriz de ordem m×n. Note que
o elemento cij é obtido multiplicando os elementos da i-ésima linha da primeira matriz
pelos elementos correspondentes da j-ésima coluna da segunda matriz, e somando este
produtos.
Exemplo:
−1 −1.(−3) −1.4 3 −4
a) −3 4 = =
2 1×2 2.(−3) 2.4 −6 8
2×1 2×2
1 0 −1 1 1.(−1) + 0.(5) 1.(1) + 0.(3) −1 1
b) = =
3 −2 5 3 3.(−1) + −2.(5) 3.(1) + −2.(3) −13 −3
2×2 2×2 2×2
5
Observação 1.3. A propriedade conmutativa em matrizes nem sempre é válida, isto é AB
e BA não necessariamente são iguais. No exemplo anterior verifique se AB = BA.
AI = IA = A.
Propriedades da Multiplicação
Supondo que a ordem das matrizes A, B e C estejam definidas de modo que cada uma das
operações abaixo indicadas possam ser efetuadas, então as propriedades seguintes serão
válidas.
4. k(B ± C) = kB ± kC, k, s ∈ R
5. (k ± s)A = kA ± sA, k, s ∈ R
6. k(sA) = (ks)A, k, s ∈ R
Uma matriz quadrada A é dita inversı́vel ou não singular, se existir uma outra matriz
B (inversa multiplicativa), da mesma ordem, tal que A.B = I e B.A = I. Denotaremos
B = A−1 , sendo que
A.A−1 = A−1 .A = I.
6
Definição 1.3. Uma matriz A é dita não inversı́vel ou singular se ela não tem uma
inversa multiplicativa.
Propriedades
Um outra forma para achar a inversa de uma matriz A qualquer, e que envolve substan-
cialmente menos contas do que aplicando a definição diretamente, é usando as operações
elementares sobre as linhas da matriz aumentada associada (A|I) de modo que esta se
transforme numa matriz aumentada da forma (I|B). Diremos que B = A−1 .
1. Permutar linhas Li ←→ Lj
7
Solução: Apartir da matriz aumentada, usando as operações por linhas temos:
0 1 5 | 1 0 0 L1 ←→ L2
(A|I) = 3 −6 9 | 0 1 0
2 6 1 | 0 0 1 L3 ←→ L3
3 −6 9 | 0 1 0 L1 ←→ L1 /3
= 0 1 5 | 1 0 0 L2 ←→ L2
2 6 1 | 0 0 1 L3 ←→ L3
1 −2 3 | 0 1/3 0 L1 ←→ L1
= 0 1 5 | 1 0 0 L2 ←→ L2
2 6 1 | 0 0 1 L3 ←→ L3 − 2L1
1 −2 3 | 0 1/3 0 L1 ←→ L1
= 0 1 5 | 1 0 0 L2 ←→ L2
0 10 −5 | 0 −2/3 1 L3 ←→ L3 − 10L2
1 −2 3 | 0 1/3 0 L1 ←→ L1
= 0 1 5 | 1 0 0 L2 ←→ L2
0 0 −55 | −10 −2/3 1 L3 ←→ −L3 /55
1 −2 3 | 0 1/3 0 L ←→ L1 − 3L3
1
= 0 1 5 | 1 0 0 L2 ←→ L2 − 5L3
0 0 1 | 10/55 2/165 −1/55 L3 ←→ L3
1 −2 0 | −30/55 49/165 3/55 L ←→ L1 + 2L2
1
= 0 1 0 | 5/55 −10/165 5/55 L2 ←→ L2
0 0 1 | 10/55 2/165 −1/55 L3 ←→ L3
1 0 0 | −20/55 29/165 13/55
= 0 1 0 | 5/55 −10/165 5/55
0 0 1 | 10/55 2/165 −1/55
8
1.4 Determinante de uma Matriz
É possı́vel associar a cada matriz A de ordem n×n, um escalar (número real ou complexo),
que denotaremos por det A, cujo valor vai nos dizer se a matriz é ou não invertı́vel. Antes
de dar a definição geral vamos a considerar alguns casos particulares.
det A = a.
det A = a11 a22 a33 − a11 a32 a23 − a12 a21 a33 + a12 a31 a23 + a13 a21 a32 − a13 a31 a22
det A = a11 (a22 a33 − a32 a23 ) − a12 (a21 a33 − a31 a23 ) + a13 (a21 a32 − a31 a22 ) (1.6)
det A = a11 det M11 − a12 det M12 + a13 det M13 (1.7)
Para ver como generalizar (1.7) para o caso n > 3, vamos a dar a seguinte definição.
9
quando suprimimos a i-ésima linha e a j-ésima coluna de A. O ij-ésimo cofator Aij de
A (ou o cofator de aij ) é definido como
ou
10
2. Se duas linhas ou colunas de A são iguais, então det A = 0.
3. det A = det AT .
6. Seja B a matriz obtida ao multiplicar uma única linha ou coluna de A por k, então:
1
det B = k det A (det A = det B).
k
7. Seja B a matriz obtida ao permutar duas linhas (ou duas colunas) de A, então
det B = − det A.
11
Solução: Usando as propriedades 6, 7 e 8, obtemos que
0 1 5 3 −6 9
det A = 3 −6 9 = − 0 1 5 (linhas 2 e 3 foram permutadas)
2 6 1 2 6 1
1 −2 3
= −3 0 1 5 (o fator comun 3 da linha 1 foi retirado)
2 6 1
1 −2 3
= −3 0 1 5 (linha 3 + (-2) (linha 1))
0 10 −5
1 −2 3
= −3 0 1 5 (linha 3 + (-10) (linha 2))
0 0 −55
= −3(1)(1)(−55) = 165
1 0 0 3
2 7 0 6
Exemplo: Ache o determinante da matriz A =
.
0 6 3 0
7 3 1 −5
Solução: Reduzindo a matriz a uma triangular inferior usando operações por coluna,
obtemos que
1 0 0 3 1 0 0 0
2 7 0 6 2 7 0 0
det A = =
(coluna 4 + (-3)(coluna 1))
0 6 3 0 0 6 3 0
7 3 1 −5 7 3 1 −26
= (1)(7)(3)(−26) = −546
12
1.5 Matriz Adjunta
Suponhamos que An×n tenha inversa, isto é, existe A−1 tal que A · A−1 = I. Usando o
determinante obtém-se
Então:
1
det A−1 =
det A
Definição 1.6. Seja a matriz A ∈ Mn×n (R). Chamaremos Adjunta de A, a matriz
Adj(A) que é a transposta da matriz de cofatores. Simbolicamente,
1
A−1 = Adj (A).
det A
1 2
Ex.: Ache a inversa de A = .
−1 3
3 1
Solução: Calculando temos que det A = 5, a matriz de cofatores cof (A) = e
−2 1
3 −2
a adjunta Adj(A) = (cof (A))T = , logo pelo Teorema 1.1
1 1
1 3 −2
A−1 = · . (1.10)
5 1 1
det(A) = 0
13
1.6 Exercı́cios
3 −4 1 1 0 2 −1 0 0
1. Sejam as matrices A = 2 1 2 ; B = 3 1 −1 e C= 2 4 0.
1 0 −1 2 −3 4 1 −1 5
CalcularA + 2C, B 2 = B · B, −C · B, B − A.
√
2
2 x
2. Seja A = . Calcule os possı́veis valores de x, para que AT = A.
4x 1
5. Usando cofatores
e fazendo
o menor
número de
operações, calcule
o determinante
2 0 3 0 4 0 2 1 2 0 0 1
3 0 0 1 5 0 4 2 0 1 0 0
de A =
, B =
e C=
.
0 2 3 0 2 0 3 4 1 6 2 0
2 0 1 4 1 0 2 3 1 1 −2 3
6. Calcule o determinante de cada uma das seguintes matrizes (use as operações ele-
mentares
por linhas para reduzir as matrizes abaixo à sua forma triangular).
2 0 −1 t + 3 −1 1 1 4 −5
A = 3 0 2 , B = 5 t−3 1 e C = 0 0 1 .
4−3 7 6 −6 t + 4 −1 8 7
1 1 1
7. Encontre todos os valores possı́veis de c que tornem a matriz inversı́vel 1 9 c .
1 c 3
14
8. Sejam as matrizes
−1 3 −4 1 0 0 cos θ sen θ 0
A = 2 4 1 B = 1 3 0 C = − sen θ cos θ 0
−4 2 −9 1 3 5 0 0 1
2 5 5 2 0 3 2 0 0
D = −1 −1 0 E = 0 3 2 F = 8 1 0 e G =
2 4 3 −2 0 −4 −5 3 6
a b c
c a b .
b c a
(i) Calcule os cofatores das matrizes A, B, C, D, E, F e G.
9. Encontre a inversa de cada uma das matrizes dadas usando as operações por linha
3 4 −1 1 0 0 1 0 −1
1 0 3 , 1 1 0, 9 −1 4 .
2 5 −4 1 1 1 8 9 −1
−1
11. Uma matriz A é ortogonal se
sua inversa é igual
a sua transposta, ou seja, A =
cos θ − sen θ
AT . Provar que a matriz A = é ortogonal.
sen θ cos θ
15
Capı́tulo 2
a1 x1 + a2 x2 + · · · + an xn = b (2.1)
Em 1858, o matemático inglês Artur Cayley introduz uma notação abreviada para
expressar o sistema linear (2.2), na forma matricial:
a a12 · · · a1n x b1
11 1
a21 a22 · · · a2n x2 b2
.. .. ..
.. .
.. =
..
. (2.3)
. . . . . .
am1 am2 · · · amn xn bm
m×n n×1 m×1
Assim a forma matricial (2.3) escreve-se abreviadamente por:
Ax = b, (2.4)
16
onde A é uma matriz m × n, b um vetor m × 1 e x é um vetor n × 1.
O sistema linear (2.2) pode ter ou não solução. Assim, classificaremos os sistemas lineares
em dois tipos:
Determinado, uma única solução
1. Compatı́vel (ou possı́vel)
Indeterminado mais de uma solução.
• Se a matriz A é inversı́vel, isto é, o det A 6= 0, então o sistema tem única solução,
ou seja, x = A−1 b.
• Se a matriz A não é inversı́vel, isto é det A = 0, então o sistema não tem solução,
ou existe solução mas não é única.
Exemplo: É simples verificar que a solução nula x = (0, 0, 0)T é solução do sistema linear
homogêneo,
x1 0
3x − x + 7x = 0 3 −1 7
1 2 3
⇐⇒ x2 = 0
⇐⇒ Ax = 0
x − 2x + 3x = 0. 1 −2 3
1 2 3
x3 0
17
Uma interpretação geométrica das soluções de um sistema linear, pode ser observada
para sistemas de ordem 2 × 2. Por exemplo, sejam os sistemas:
x +x =2 x +x =2 x +x =2
1 2 1 2 1 2
I) II) III)
x −x =2 x +x =1 −x − x = −2.
1 2 1 2 1 2
A solução dos respectivos sistemas podem ser visualizados nos seguintes gráficos
Figura 2.1:
O objetivo será migrar de um sistema linear Ax = b para outro que lhe seja equivalente,
e de resolução mais simples. A idéia então é, usar as operações elementares sobre as linhas
da matriz aumentada (A | b) de modo que esta se transforme à forma (A′ | b′ ) onde A′
é uma matriz escalonada. Assim, o sistema final equivalente A′ x = b ′ será resolvido
usando substituições regressivas.
18
Sol.: Apartir da matriz aumentada, usando as operações por linhas temos:
1 2 1 | 3
(A|b) = 3 −1 −3 | −1 L2 ←→ L2 − 3L1
2 3 1 | 4 L3 ←→ L3 − 2L1
1 2 1 | 3
= 0 −7 −6 | −10 L2 ←→ L3
0 −1 −1 | −2
1 2 1 | 3
= 0 −1 −1 | −2
0 −7 −6 | −10 L3 ←→ L3 − 7L2
1 2 1 | 3
= 0 −1 −1 | −2 = (A′ |b′ )
0 0 1 | 4
19
2.3 Resolução de Sistemas pela Regra de Cramer
Seja A uma matriz inversı́vel n×n e seja b ∈ Rn . Seja Ai a matriz obtida substituindo-
se a i-ésima coluna de A por b. Se x = (x1 , x2 , . . . , xn )T for a única solução de Ax = b,
então:
det (Ai )
xi = para i = 1, 2, . . . , n.
det A
temos que:
3 2 1
x1 = −1 −1 −3 = (3(−1 + 9) − 2(−1 + 12) + 1(−3 + 4)) = 24 − 22 + 1 = 3
4 3 1
1 3 1
x2 = 3 −1 −3 = (1(−1 + 12) − 3(3 + 6) + 1(12 + 2)) = 11 − 27 + 14 = −2
2 4 1
1 2 3
x3 = 3 −1 −1 = (−3(8 − 9) − 1(4 − 6) + 1(3 − 4)) = 3 + 2 − 1 = 4
2 3 4
20
2.4 Exercı́cios
2. O sistema seguinte não tem soluções para quais valores de a?. Exatamente uma
solução?. Infinitas soluções.
x + 2y − 3z = 4
3x − y + 5z = 2
4x + y + (a2 − 14)z = a + 2
4. Resolva o sistema
x + y + z = 4
2x + 5y − 2z = 3
5. Estabeleça a condição que deve ser satisfeita a e b para que o sistema seja compatı́vel.
x − 2y − z = a
2x + y + 3z = b
4x − 3y + z = 1
21
Capı́tulo 3
Vetores
Definição 3.1. Um vetor é uma classe de objetos matemáticos (segmentos) com a mesma
direção, mesmo sentido e mesmo módulo, sendo:
22
Figura 3.1: Uma mesma classe de vetores
Uma outra caracterı́stica de um vetor é que é formado por dois pontos de um sistema
de coordenadas: o ponto A onde ele começa (origem) e um outro ponto B onde ele termina
(extremidade).
O representante escolhido de uma classe de vetores será denotado por uma letra
minúscula encimada por uma flecha, tal como ~v, e quase sempre será o vetor cuja origem
coincide com a do sistema de coordenadas ((0, 0, . . . , 0)) e cuja extremidade será obtido
fazendo a diferença entre o ponto da extremidade e o ponto origem. Assim, o vetor
representante −
→
v será
~v = B − A.
Observação 3.1. Cada ponto de um sistema de coordenadas pode ser considerado como
único origem de um segmento orientado cujo representante é o vetor ~v .
Exemplo: Se um vetor tem origem em (1, 2) e extremidade em (7, 12), ele é representado
por −
→
v = (6, 10), pois:
−
→
v = (7, 12) − (1, 2) = (6, 10)
−→
~u + ~v = AC
23
ou
−→ −−→ −→
AB + BC = AC
Sendo ~u, ~v e w
~ vetores quaisquer, a adição admite as seguintes propriedades
1. Conmutativa: ~u + ~v = ~v + ~u.
3. Elemento Neutro: ~u + ~0 = ~u
24
3.1.2 Multiplicação de um Número Real por um Vetor
O ângulo entre os vetores não nulos u e v é o ângulo θ formado por duas semi-retas OA
−→ −−→
e OB de mesma origem O, onde ~u = OA, ~v = OB e 0 ≤ θ ≤ π.
25
3.2 Interpretação Algébrica no Plano
Consideremos dois vetores v~1 e v~2 não paralelos, representados com a origem no mesmo
ponto O, e sejam r1 e r2 retas contendo estes representantes, respectivamente.
Os vetores ~u, ~v , w,
~ ~x e ~y , representados na figura podem ser escritos em função de v~1
e v~2 por
De modo geral dados dois vetores quaisquer v~1 e v~2 , existe uma só dupla de números
reais a1 e a2 , tal que
v = a1 v~1 + a2 v~2 .
“Qualquer conjunto de dois vetores não paralelos forma uma base no plano”
Observação 3.3. Dentre as infinitas bases que existem no plano a mais importante é
aquela que determina o conhecido sistema cartesiano ortogonal xOy. Esta base é chamada
de base canônica e esta determinada pelos vetores ortogonais e unitários ~i = (1, 0) e
~j = (0, 1).
26
Assim, qualquer vetor ~v = (x, y) do plano pode-se escrever da forma
v = x ~i + y ~j.
Igualdade de Vetores. Dois vetores ~u = (x1 , y1) e ~v = (x2 , y2 ) são iguais se,
x1 = x2 e y1 = y2 .
1. ~u + ~v = (x1 + x2 , y1 + y2 )
2. α~u = (α x1 , α y1 )
4. ~u − ~v = ~u + (−~v ) = (x1 − x2 , y1 − y2 ).
1. ~u + ~v = ~v + ~u
2. ~u + ~0 = ~u
3. (~u + ~v) + w
~ = ~u + (~v + w)
~
4. ~u + (−~u) = ~0
5. α(β~v) = (αβ)~v
8. 1~u = ~u.
27
Observação 3.4. É importante lembrar que um vetor tem infinitos representantes que são
os segmentos orientados de mesmo comprimento, mesma direção e mesmo sentido. E,
−→
dentre os infinitos representantes de AB (A = (x1 , y1 ), B = (x2 , y2 )), o que “melhor
o caracteriza” é aquele que tem origem em O = (0, 0) e extremidade no ponto P =
−→
(x2 − x1 , y2 − y1 ). O vetor ~v = OP é também chamado vetor posição ou representante
−→
natural de AB.
Módulo de um vetor Seja o vetor ~u = (x, y). Pelo Teorema de Pitagoras, vem
p
|u| = x2 + y 2. (3.1)
No plano vimos que dado qualquer vetor ~u, este pode ser escrito como uma combinação
da base canônica {~i, ~j}, isto é, ~u = (x, y) = x~i + y ~j. Analogamente, no espaço, conside-
raremos a base canônica {~i, ~j, ~k}, como aquela que irá determinar o sistema cartesiano
ortogonal Oxyz, neste caso
1. ~u = ~v se e somente se x1 = x2 , y1 = y2 e z1 = z2 .
2. ~u + ~v = (x1 + x2 , y1 + y2 , z1 + z2 )
3. α~u = (α x1 , α y1 , α z1 )
5. ~u − ~v = ~u + (−~v ) = (x1 − x2 , y1 − y2 , z1 − z2 ).
28
Além disso,
1. ~u + ~v = ~v + ~u
2. ~u + ~0 = ~u
3. (~u + ~v) + w
~ = ~u + (~v + w)
~
4. ~u + (−~u) = ~0
5. α(β~v) = (αβ)~v
8. 1~u = ~u.
1. ~u · ~v = ~v · ~u
2. ~u · (~v + w)
~ = ~u · ~v + ~u · w
~
3. (~u + ~v) · w
~ = ~u · w
~ + ~v · w
~
29
5. ~u · ~u > 0 se ~u 6= ~0 e ~u · ~u = 0 se ~u = ~0.
6. ~u · ~u = |~u|2 .
Por outro lado, como |~u − ~v |2 = (~u − ~v ) · (~u − ~v ) = |~u|2 − 2~u · ~v + |~v |2 , então a igualdade
segue-se.
Sol.
−1
i) ~u · ~v = |~u||~v| cos 120o = (2)(3) = −3 (3.7)
2
p p √
ii) |~u + ~v | = |~u|2 + |~v |2 + 2~u · ~v = 22 + 32 + 2(−3) = 7 (3.8)
p p √
ii) |~u − ~v | = |~u|2 + |~v|2 − 2~u · ~v = 22 + 32 − 2(−3) = 19. (3.9)
30
3.4.2 Ângulo entre dois Vetores
~v · ~i ~v · ~i
cos 60o = = ⇒ x = ~v · ~i = 2 cos 60o = 1
~
|~v ||i| (2)(1)
e
~v · ~j ~v · ~j
cos 120o = = ⇒ y = ~v · ~j = 2 cos 120o = −1
~
|~v||j| (2)(1)
p √
Por outro lado, desde que |~v | = x2 + y 2 + z 2 = 2, tem-se z = ± 2. Portanto,
√ √
~v = (1, −1, 2) ou ~v = (1, −1, − 2).
√ √
Exemplo. Os vetores ~u = (10, 2) e ~v = (− 15 , 2) formam um ângulo de 90o , pois
√ √
~u · ~v = 10(− 15 ) + 2( 2) = 0
31
3.4.3 Projeção de um Vetor sobre Outro
Sejam os vetores ~u e ~v não nulos e θ o ângulo entre eles. O objetivo será decompor um
dos vetores, digamos ~u, da forma
~u = ~u1 + ~u2
Com efeito, já que: ~u1 k~v ⇒ ~u1 = α~v e dado que ~u2 = ~u − ~u1 = ~u − α~v então
~u · ~v
~u2 ⊥ ~v ⇒ (~u − α~v) ⊥ ~v ⇒ (~u − α~v) · ~v = 0 ⇒ α=
|~v |2
Portanto,
~u · ~v
P roj ~v ~u = ~u1 = ~v .
|~v |2
32
3.5 Produto Vetorial
Solução
~ ~ ~
i j k
4 3
5 3
5 4
~u × ~v = 5 4 3 = ~i − ~j + ~k = 4~i − 2~j − 4~k.
0 1
1 1
1 0
1 0 1
O sentido do vetor ~u × ~v poderá ser determinado pela regra da mão direita, isto é,
se os dedos da mão direita forem dobrados na mesma direção de rotação, então o polegar
estendido indicará o sentido de ~u × ~v.
33
3.5.1 Propriedades
1. ~v × ~u = −~u × ~v .
4. ~u × (~v + w)
~ = ~u × ~v + ~u × w
~ e (~u + ~v ) × w
~ = ~u × w
~ + ~v × w.
~
6. ~u · (~v × w)
~ = (~u × ~v) · w.
~
34
7. |~u × ~v|2 = |~u|2 |~v|2 − (~u · ~v )2 , (chamada identidade de Lagrange).
u · (~v × w)
Observação 3.9. O produto misto ~ ~ é igual, em módulo, ao volume do pa-
ralelepı́pedo de arestas determinadas pelos vetores não coplanares ~u, ~v e w
~ (os três não
se encontram num mesmo plano).
3.6 Exercı́cios
1. Sejam A = (1, 2), B = (0, 1), C = (−1, −1) e D = (2, 3) pontos de R2 . Calcule e
grafique os seguintes vetores (com ponto inicial na origem).
−→ −−→ −−→ −→ −→ −−→ −−→ −→ −−→
a) AB + BC b) CD + 2AB c) AB − CD d) CD − AB e) − 12 DC
35
2. Sejam A = (3, 1, 4), B = (0, 1, 1), C = (1, −1, 2) e D = (2, 1, 0) pontos de R3 .
Calcule e grafique os seguintes vetores (com ponto inicial na origem).
−→ −−→ −→ −→ −−→ −−→ −→
a) AB b) CD + AB c) AB − CD d) CD + AB
4. Encontre um vetor não-nulo ~u com ponto inicial P = (−1, 3, −1) tal que
b) ~u tenha a mesma direção mas sentido oposto que ~v = (1, −1, 1).
√
~ = (1, 1) vetores de R2 .
5. Sejam ~u = (1, 3), ~v = (0, 1) e w
~ = (−1, 1, 3) vetores de R3 .
6. Sejam ~u = (2, 1, −1), ~v = (0, 1, 2) e w
8. Calcule a área do triângulo ABC e a altura relativa ao lado BC, sendo dados
A = (−4, 1, 1), B = (1, 0, 1), C = (0, −1, 3).
36
Capı́tulo 4
Espaço Vetorial
Além disso, para todo u, v, w ∈ V e α, β ∈ R (ou C), os seguintes axiomas são satisfeitos:
Em relação à adição:
3. (u ⊕ v) ⊕ w = u ⊕ (v ⊕ w)
4. u ⊕ v = v ⊕ u
5. ∃ 0 ∈ V, u ⊕ 0 = u
6. ∃ (−u) ∈ V, u ⊕ (−u) = 0
7. (αβ) ⊙ u = α ⊙ (β ⊙ u)
8. (α + β) ⊙ u = (α ⊙ u) ⊕ (β ⊙ u)
9. α ⊙ (u ⊕ v) = (α ⊙ u) ⊕ (α ⊙ v)
10. 1 ⊙ u = u
37
Quando os escalares considerados são números reais, diremos que V é um espaço
vetorial real. No caso dos escalares serem complexos, V será chamado espaço vetorial
complexo. Em diante, nos trabalharemos só com espaços vetoriais reais.
Solução A prova deste exemplo não é mais do que a generalização das propriedades,
vistas no Capı́tulo 3, para vetores no plano e no espaço associados a pontos (x1 , x2 ) ∈ R2
e (x1 , x2 , x3 ) ∈ R3 respectivamente. Assim, com as operações de adição de vetores (4.1) e
multiplicação de um vetor por um escalar real (4.2), é simples verificar todos os axiomas
de espaço vetorial.
Exemplo 4.4. O conjunto V de todas as funções reais definidas sobre o intervalo [a, b], é
um espaço vetorial. Se f = f (x) e g = g(x) ∈ V , definimos
(α ⊙ f )(x) = α f (x)
38
Exemplo 4.5. Nenhum dos conjuntos N, Z, Q é espaço vetorial real, pois em todos eles
o produto de um de seus elementos por um escalar, é um número real, o que contraria o
Axioma 2 de espaço vetorial.
i) u, v ∈ W ⇒ u ⊕ v ∈ W
ii) α ∈ R e u ∈ W ⇒ α ⊙ u ∈ W.
Se α ∈ R e A ∈ W , então
α.0 α.a12 0 α.a12
αA = = ∈W
α.a21 α.0 α.a21 0
39
4.1.1 Propriedades dos Subespaços
Soma.
W1 + W2 = {v ∈ V / v = w1 + w2 , w1 ∈ W1 e w2 ∈ W2 } (4.5)
é um subespaço de V .
Exemplo 4.8. Sejam W1 e W2 duas retas de R3 que passam pela origem, então W1 + W2
é o plano em R3 que contém as duas retas.
Interseção.
Exemplo 4.9. Sejam W1 e W2 dois planos de R3 que passam pela origem, de modo que
W1 ∩ W2 é uma reta em R3 que contém o (0, 0, 0). A interseção W1 ∩ W2 é um subespaço
de R3 .
40
4.2 Combinação Linear
w = α1 · v1 + α2 · v2 + . . . + αn · vn .
41
4.3 Espaço Gerado
O subconjunto S de todos os vetores do espaço vetorial real V (V, +, .), que são
combinações lineares dos vetores v1 , v2 , . . . , vn , é chamado de subespaço vetorial gerado
por v1 , v2 , . . . , vn e será denotado por
S = ger{v1 , v2 , . . . , vn } = [v1 , v2 , . . . , vn ]
Para verificar que S é subespaço vetorial de V , basta notar que para qualquer u, v ∈ S
e α ∈ R verifica-se que
u + v = (α1 · v1 + α2 · v2 + · · · + αn · vn ) + (β1 · v1 + β2 · v2 + · · · + βn · vn )
α · u = α · (α1 · v1 + α2 · v2 + · · · + αn · vn )
Logo,
(
) ( )
−1 0 0 1 −1 0 0 1
S= d + b bed∈R = ger , .
0 1 2 0 0 1 2 0
Exemplo 4.13. Mostre que o conjunto de polinômios {t2 + t, t, 1} gera o espaço vetorial,
P2 (R), dos polinômios de grau ≤ 2.
42
Solução Consideremos p(t) = a2 t2 + a1 t + a0 ∈ P2 (R). Suponhamos α, β, γ ∈ R tais
que:
α = a2 , β = a1 − a2 , γ = a0 .
α1 · v1 + α2 · v2 + . . . + αn · vn = 0 =⇒ α1 = α2 = . . . = αn = 0. (4.8)
Prova:
{v1 , . . . , vn } é L.D ⇐⇒ ∃ αi 6= 0 / α1 v1 + α2 v2 + . . . + αi vi + . . . + αn vn = 0
Exemplo 4.14. Os vetores canônicos (1, 0, 0), (0, 1, 0), (0, 0, 1) são L.I.?
43
1 −2 4 2 −4 8
Exemplo 4.15. As matrizes A = eB= são L.D.
3 0 −1 6 0 −2
Solução De fato,
0 0 0
α1 A + α2 B = ⇔ α1 = −2α2 .
0 0 0
~ = ~0.
2~u − ~v + 0w
Exemplo 4.17. É sabido que o conjunto S = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} é L.I, logo
qualquer subconjunto de S também é L.I.
Observação 4.1. Se ~
u1 = (x11 , . . . , x1n ), ~u2 = (x21 , . . . , x2n ), . . . , ~un = (xn1 , . . . , xnn ) são
n-vetores L.I. em Rn ,
sempre que
x11 x21 . . . xn1
. ..
det .. ... ... . = 6 0
x1n x2n . . . xnn
√
Exemplo 4.18. Os vetores ~u1 = (1, −2, 7, 2), ~u2 = (0, 4, −6, 1), ~u3 = (0, 0, 1, π),
~u4 = (0, 0, 0, sen 1) são L.I. em R4
44
Solução Segundo a observação anterior eles são L.I. pois o determinante da matriz
(u1 , u2 , u3, u4 ) é diferente de zero. De fato,
1 0 0 0
−2 4 0 0
det
= 4 sen 1
7 −6 1 0
√
2 1 π sen 1
Exemplo 4.19. Seja r > n. Qualquer conjunto com r vetores no espaço vetorial Rn
é linearmente dependente pois todo sistema homogêneo de equações lineares com mais
incógnitas do que equações admite uma solução não trivial (diferente de zero).
De modo geral, não existe um método para provar a dependência ou independência lin-
ear de conjuntos em F (R, R), pois existem casos onde estas idêntidades não podem ser
aplicadas. Um teorema útil para determinar se um conjunto particular de funções é L.I é
enunciado a seguir.
Teorema 4.2. Sejam as funcões reais f1 , f2 , . . . , fn ∈ C n−1 ([a, b]) (contı́nuas e com
derivadas contı́nuas até a ordem n − 1 em todo [a, b]). Se existe um ponto x0 ∈ [a, b] tal
que o wronskiano W [f1 , f2 , . . . , fn ](x0 ),
f (x ) f2 (x0 ) ... fn (x0 )
1 0
′
f1 (x0 ) f2′ (x0 ) ... fn′ (x0 )
W [f1 , f2 , . . . , fn ](x0 ) = det 6= 0, (4.10)
.. .. ..
. . ··· .
f1n−1 (x0 ) f2n−1(x0 ) ... fnn−1 (x0 )
então f1 , f2 , . . . , fn são L.I. em C n−1 ([a, b]). Mais ainda, são L.I em C([a, b]).
45
Exemplo 4.20. As funções ex , e−x são L.I. em C(R)?.
Solução Segundo o teorema anterior eles são L.I. em C 2 (R), pois o Wronskiano
x0 −x0
e e
W [ex , e−x ](x0 ) = det = −2 6= 0, ∀x0 ∈ R. (4.11)
x0 −x0
e −e
Solução Segundo o teorema anterior eles são L.I. em C 3 (R), pois o Wronskiano
2 3
1 x0 x0 x0
2
2 3
0 1 2x0 3x0
W [1, x, x , x ](x0 ) = det = 12 6= 0, ∀x0 ∈ R. (4.12)
0 0 2 6x0
0 0 0 6
o que não nos dá a informação sobre se as funções são L.I ou não. Logo, para responder
a pergunta, suponha que:
α+β =0
α − β = 0,
46
4.5 Base e Dimensão
2. V = ger{v1, v2 , . . . , vn }.
(i.e: ∀ v ∈ V, ∃ α1 , α2 , . . . , αn ∈ R / v = α1 v1 + . . . + αn vn ).
Logo,
(x, y) = x(1, 1) + (y − x)(0, 1), isto é, (x, y) ∈ ger{(1, 1), (0, 1)}.
Portanto, R2 ⊆ ger{(1, 1), (0, 1)} e desde que R2 é um espaço vetorial a igualdade entre
estes dois conjuntos segue-se.
( )
1 0 0 1 0 0 0 0
Exemplo 4.24. O conjunto B = , , , é uma base
0 0 0 0 1 0 0 1
de M2×2 (R)
Exemplo 4.25. Os conjuntos {(1, 0, 0), (0, 1, 0), (0, 0, 1)} e {(1, 2, 1), (1, 0, −1), (1, −2, 1)}
constituem bases distintas para R3 . Podemos encontrar mais de uma base para um espaço
vetorial; dado, entretanto, o número de vetores de cada base não varia.
Definição 4.1. Se uma base de um espaço vetorial real V tem n-vetores, dizemos que V
tem dimensão finita n. Denotaremos
dim V = n.
47
Exemplo 4.26. Pelo visto nos exemplos anteriores, temos que:
1. dim R 2 = 2.
2. dim R n = n.
3. dim Pn (R) = n + 1.
Exemplo 4.27. Considere U um plano que passa pela origem em V = R3 , e W uma reta
contida em U que passa pela origem, então:
dim (U + W ) = 2 + 1 − 1 = 2.
Teorema 4.4. Seja V um espaço vetorial real de dimensão finita n. Qualquer conjunto
de vetores L.I. em V é parte de uma base, isto é, pode ser completado até formar uma
base de V .
Solução: Como dim R4 = 4 uma base terá 4 vetores L.I. Portanto, faltam dois. Escolhe-
mos um vetor v3 que não é combinação linear de v1 = (1, −1, 1, 2) e v2 = (−1, 1, −1, 0),
isto é, v3 6= a1 v1 + a2 v2 para todo a1 , a2 ∈ R. Dentre os infinitos vetores existentes, um
deles é o vetor v3 = (1, 1, 0, 0), e o conjunto {v1 , v2 , v3 } é L.I.
Para completar, escolhemos um vetor v4 que não seja uma combinação linear de v1 , v2
e v3 . Um deles é o vetor v4 = (1, 0, 0, 0), e o conjunto {v1 , v2 , v3 , v4 } é L.I. Logo,
48
Observação 4.3. Muitas vezes será necessário saber calcular a dimensão de um subespaço
vetorial de forma rápida, pois uma vez que esta é conhecida, obtém-se facilmente uma base
desse subespaço. Uma forma prática para determinar a dimensão de um subespaço vetorial
é verificar o número de variáveis livres de seu vetor genérico. Este número é a dimensão
do subespaço.
S = {(x, y, z) ∈ R3 /2x + y + z = 0}
Solução: Isolando z temos que: z = −2x − y, onde x, y são variáveis livres. Isto é,
S = {(x, y, z) ∈ R3 /2x + y + z = 0}
= {(x, y, z) ∈ R3 /z = −2x − y}
isto é, todo vetor de S é combinação linear dos vetores {(1, 0, −2), (0, 1, −1)}. Como esses
dois vetores geradores de S são L.I, o conjunto é uma base de S e, consequentemente,
dim S = 2.
U = ger{(1, 1, 0, −2), (2, 0, −1, −1), (0, 1, −2, 1), (1, 1, 1, −3)} ⊆ R4 .
Determine a dimensão de U.
Solução: Bastará provar que os vetores (1, 1, 0, −2), (2, 0, −1, −1), (0, 1, −2, 1), (1, 1, 1, −3)
são L.I.
Suponhamos que,
α(1, 1, 0, −2) + β(2, 0, −1, −1) + γ(0, 1, −2, 1) + δ(1, 1, 1, −3) = (0, 0, 0, 0)
49
ou
1 2 0 1 α 0
1 0 1 1 β 0
= .
0 −1 −2 1 γ 0
−2 −1 1 −3 δ 0
Para achar a solução deste sistema homogêneo Ax = 0 será suficiente reduzir a matriz A
a uma de tipo escalonado (método de operações por linha).
1 2 0 1 L1 ←→ L1 1 2 0 1 L ←→ L1
1
1 0 1 1 L2 ←→ L2 − L1 0 −2 1 0 L2 ←→ L3
A=
0 −1 −2 1 L3 ←→ −L3 0 1 2 −1
−2 −1 1 −3 L4 ←→ L4 + 2L1 0 3 1 −1 L4 ←→ L4
1 2 0 1 L1 ←→ L1 1 2 0 1 L1 ←→ L1
0 1 2 −1 L2 ←→ L2 0 1 2 −1 L2 ←→ L2
≈
0 −2 1 0 L3 ←→ L3 + 2L2 0 0 5 −2 L3 ←→ L3
0 3 1 −1 L4 ←→ L4 − 3L2 0 0 −5 2 L4 ←→ L4 + L3
1 2 0 1
0 1 2 −1
≈ = A′ .
0 0 5 −2
0 0 0 0
Logo, o sistema equivalente, A′ x = 0 tem infinitas soluções, pois detA′ = 0. Mais ainda,
α + 2β + δ = 0
β + 2γ − δ = 0
5γ − 2δ = 0,
50
4.5.1 Componentes de um Vetor
v = a1 v1 + a2 v2 + . . . + an vn ,
vB = (a1 , a2 , . . . , an )
A = {(1, 0), (0, 1)}, B = {(2, 0), (1, 3)} e C = {(1, −3), (2, 4)}
então,
51
Definição 4.2. Chama-se produto interno no espaço vetorial V , a uma função de V × V
em R que a todo par de vetores (u, v) ∈ V × V associa um número real, indicado por u.v
ou hu, vi, tal que os seguintes axiomas sejam verificados:
1. hu, vi = hv, ui
é um produto interno.
é um produto interno.
Definição 4.3. Um espaço vetorial real V , de dimensão finita, no qual está definido um
produto interno, é um espaço vetorial euclideano.
Definição 4.5. Chama-se distância entre dois vetores u e v o número real repre-
sentado por d(u, v) e definido por
d(u, v) = ku − vk.
52
Definição 4.6. O ângulo entre dois vetores u e v é determinado por
hu, vi
cos θ = .
kukkvk
Definição 4.7. Dois vetores u e v de um espaço com produto interno são ortogonais
se < u, v >= 0.
a) W ⊥ é um subespaço de V
53
Teorema 4.6. (Da Projeção) Se W é um subespaço de dimensão finita de um espaço
com produto interno V , então cada vetor u ∈ V pode-se expressar de forma única por:
u = w1 + w2
a) O espaço nulo de A, N (A) = {v ∈ Rn×1 /Av = 0}, e o espaço linha de A são comple-
mentos ortogonais em Rn com relação ao produto interno euclideano.
Por outro lado, uma vez que N (AT ) = {v ∈ Rm×1 /AT v = 0}, então:
rT
1
T
T
r2
A v= .. v = 0
⇐⇒ < riT , v > = 0, ∀ i = 1, 2, . . . , n.
.
rnT
54
4.6.3 Conjuntos Ortogonais e Ortonormais
hvi , vj i = 0 ∀ i 6= j.
Por demonstrar: α1 = α2 = . . . = αn = 0.
Multiplicando α1 v1 + α2 v2 + . . . + αn vn = 0 por vi , temos
0 =h0, vi i = hα1 v1 + · · · + αn vn , vi i
Ja que S ortogonal,
55
Definição 4.9. Seja V um espaço vetorial euclidiano, S = {v1 , v2 , . . . , vn } ⊂ V ortonor-
mal e u ∈ V . A projeção ortogonal de u sobre o subespaço gerado por S é o vetor P roj [S]u
dado por:
Exemplo 4.34. Projetar o vetor u = (5, 2, −3) ∈ R3 sobre o plano [S], onde
Solução:
P roj [S]u = h(5, 2, −3), (1, 0, 0)i (1, 0, 0) + h(5, 2, −3), (0, −1, 0)i (0, −1, 0)
= (5, 2, 0).
Teorema 4.8. Cada espaço vetorial não-nulo de dimensão finita possui uma base ortonor-
mal.
1) Seja v1 = u1 .
56
3) Para construir um vetor v3 que é ortogonal a ambos v1 e v2 , calculamos o componente
u3 que é ortogonal ao espaço W2 = ger{v1, v2 }, isto é,
hu3 , v1 i hu3 , v2 i
v3 = u3 − P roj W2 u3 = u3 − 2
v1 − v2
||v1 || ||v2 ||2
Continuando desta maneira, nós iremos obter, depois de n passos, um conjunto ortogonal
de vetores {v1 , v2 , . . . , vn }. O processo acima é chamado processo de Gram-Schimidt.
Exemplo 4.35. Considere o espaço vetorial R3 com o produto interno euclidiano. Aplique
o processo de Gram-Schimidt para transformar os vetores de base u1 = (1, 1, 1), u2 =
(0, 1, 1) e u3 = (0, 0, 1) em uma base ortogonal {v1 , v2 , v3 }; depois normalize os vetores da
base ortogonal para obter uma base ortonormal {q1 , q2 , q3 }.
v1 = u1 = (1, 1, 1)
hu2 , v1 i 2 2 1 1
v2 = u2 − proj W1 u2 = u2 − 2
v1 = (0, 0, 1) − (1, 1, 1) = − , ,
||v1 || 3 3 3 3
hu3 , v1 i hu3, v2 i
v3 = u3 − proj W2 u3 = u3 − 2
v1 − v2
||v1 || ||v2 ||2
1 1/3 2 1 1 1 1
= (0, 0, 1) − (1, 1, 1) − − , , = 0, − , .
3 2/3 3 3 3 2 2
Assim, v1 = (1, 1, 1), v2 = (−2/3, 1/3, 1/3), v3 = (0, −1/2, 1/2) formam uma base
ortogonal de R3 . As normas desses vetores são:
√ √
√ 6 2
kv1 k = 3, kv2 k = , kv3 k = ,
3 2
57
v2 −2 1 1
q2 = = ( √ , √ , √ ),
||v2 || 6 6 6
v3 −1 1
q3 = = (0, √ , √ ).
||v3 || 2 2
4.7 Exercı́cios
(i) {(x, y)/x + y = 0} (ii) {(x, y)/xy = 0} (i) {(x, y)/x = 3y + 1}.
6. Determine quais dos conjuntos a seguir são subespaços do espaço vetorial das funções
contı́nuas no intervalo [−1, 1], denotado por V = C([−1, 1]).
7. Seja A um vetor particular de R2×2 . Diga quais dos conjuntos a seguir são subespaços
vetoriais de R2×2 .
58
(ii) S2 = {B ∈ R2×2 /AB 6= BA}
10. Quais polinômios são combinação linear de p1 (x) = 2 + x + 4x2 , p2 (x) = 1 − x + 3x2
e p3 (x) = 3 + 2x + 5x2 ?.
a) (2, 2, 2), (0, 0, 3), (0, 1, 1) b) (2, −1, 3), (4, 1, 2), (8, 2, 4)
13. Sejam f = cos2 x e g = sin2 x. Quais das seguintes funções estão no espaço gerado
por f e g?.
a) cos 2x b) 3 + x2 c) 1 d) senx.
59
15. Seja V o espaço vetorial de todas as funções reais definidas sobre a reta real. Quais
dos seguintes conjuntos de vetores são linearmente dependentes?
(i) {6, 3 sin2 x, 2 cos2 x}, (ii) {x, cos x}, (iii) {(3 − x)2 , x2 − 6x, 5},
16. Use o wronskiano para mostrar que os seguintes conjuntos de vetores são linearmente
independentes.
(i) {1, x, ex }, (ii) {cos x, sin x, x sin x}, (iii) {ex , xex , x2 ex }.
18. Considere o subespaço S = ger{(1, 2, −1)T , (0, 1, 1)T , (2, −1, 3)T }
a) (2, 1), (3, 0) b) (4, 1), (−7, −8) c) (0, 0), (1, 3) d) (3, 9), (−4, −12).
a) (2, −3, 1), (4, 1, 1), (0, −7, 1) b) (3, 1, −4), (2, 5, 6), (1, 4, 8)
c) (1, 0, 0), (2, 2, 0), (3, 3, 3).
b) 1 + x + x2 , x + x2 , x2 .
c) −4 + x + 3x2 , 6 + 5x + 2x2 , 8 + 4x + x2 .
22. Os quatro primeiros polinômios de Hermite são 1, 2t, −2 + 4t2 e −12t + 8t3 .
Mostre que estes polinômios formam uma base de P3 (R).
23. Encontre as coordenadas do polinômio p(t) = 7 − 12t − 8t2 + 12t3 , na base P3 (R)
formada pelos polinômios de Hermite.
60
24. Prove que o seguinte conjunto é uma base de M2x2 .
3 6 0 −1 0 −8 1 0
; ; ;
3 −6 −1 0 −12 −4 −1 2
25. Exiba uma base para os seguintes subespaços de R4 listados a seguir. Qual é a
dimensão destes?.
26. Seja V = ger{S} onde (S = {cos2 x, sin2 x, cos 2x}). Prove que o conjunto S não
é uma base de V . Encontre uma base para V .
27. Ache uma base para o espaço solução de cada um dos sistemas homogêneos:
x1 + x2 − x3 = 0
x + 4x + 2x = 0
1 2 3
a) b) 3x1 + 2x2 + x3 = 0 c) x1 − 2x2 + x3 = 0.
2x + x + 5x = 0
1 2 3
2x − x + 3x = 0
1 2 3
28. Considere os vetores ~u = (3, −2, 4), ~v = (−3, 2, −4), ~ = (−6, 4, −8). Qual é a
w
dimensão de ger{u, v, w}?.
hA, Bi = u1 v1 + u2 v2 + u3 v3 + u4 v4
61
2 1
(a) Quais das matrizes abaixo são ortogonais a M = ;
−1 3
1 2 1 1 0 0 3 2
A= , B = , C = , D = .
4 0 1 1 0 0 −1 3
hp, qi = a0 b0 + a1 b1 + a2 b2 + a3 b3
33. Determine a projeção ortogonal de u = (2, −1, 3) sobre S = ger{(1, 0, 1), (2, 1, −2)}.
34. Use o método de ortonormalização de Gram-Schmidt para obter uma base ortonor-
mal de R3 apartir de B = {(1, 0, 0), (0, 1, 1), (0, 1, 2)}.
35. Use o método de ortonormalização de Gram-Schmidt para obter uma base ortonor-
mal de R2 apartir de B = {(1, 2), (−1, 3)}.
U = {(x, y, z, t) ∈ R4 /x − y = 0 e z = 2t} ⊂ R4 .
62
Capı́tulo 5
Transformações Lineares
Neste capı́tulo será estudado um tipo especial de função (ou aplicação) onde o domı́nio e
o contradomı́nio são espaços vetoriais reais. Assim, tanto a variável independente como
a variável dependente são vetores, razão pela qual essas funções são chamadas de trans-
formações vetoriais satisfazendo algumas condições de linearidade como na definição que
segue.
i) T (u + v) = T (u) + T (v),
Figura 5.1:
63
Observação 5.1. Na definição anterior é importante notar que u + v ∈ V , enquanto
T (u) + T (v) ∈ W . Do mesmo modo, αu ∈ V e α T (u) ∈ W (ver Figura 5).
Solução De fato,
= T ((x1 , y1 )) + T ((x2 , y2 ))
= T (u) + T (v)
= α(2x1 , −4y1 , x1 − y1 )
= αT (u)
64
Solução De fato:
Solução De fato:
i) T (u + v) = 0 = 0 + 0 = T (u) + T (v)
Solução De fato:
Solução De fato, se u = (x1 , y1) e v = (x2 , y2 ) são vetores quaisquer do IR2 , Tem-se
enquanto,
65
5.1 Propriedades das Transformações Lineares
v = α1 v1 +α2 v2 + . . . + αn vn
e, portanto
isto é, dado v ∈ V , o vetor T (v) estará bem determinado se forem conheci-
das as imagens dos vetores de B. Em outras palavras, sempre que forem dados
66
T (v1 ), . . . , T (vn ) onde {v1 , . . . vn } é base do domı́nio V , a transformação linear T
está perfeitamente definida.
Exemplo 5.8. Seja o operador linear T : IR2 −→ IR2 tal que T (1, 0) = (2, −3) e
T (0, 1) = (−4, 1). Determinar T (x, y) completamente.
Sol. De fato, observando que {(1, 0), (0, 1)} é a base canônica do IR2 e que
5.1.1 Exercı́cios
1 2 2
1. Seja T : R2 → R3 a transformação definida por T v = A v, onde A = .
−1 2 1
2 −1
Encontre a imagem de u = −3 e v = 1 .
0 1
a) T : R2 → R2 , T (x, y) = (sen y, x)
b) T : R2 → R2 , T (x, y) = (x2 , y 2)
c) T : R2 → R2 , T (x, y) = (x + 1, y)
d) T : R2 → R, T (x, y) = xy
f) T : R3 → R3 , T (x, y, z) = (x + y, x − y, −x)
a b
g) T : M2×2 (IR) → IR2 , T = (a − c, b + c)
c d
a b a b
h) T : M2×2 (IR) → IR, T = det
c d c d
67
3. Dada a transformação linear T : R3 → R2 , tal que
N(T ) = {v ∈ V / T (v) = 0}
A Figura 5.2 mostra que N(T ) ∈ V e todos seu vetores tem uma única imagem que é o
vetor zero de W .
Figura 5.2:
Exemplos:
68
1. O núcleo da transformação linear T : IR2 −→ IR2 , T (x, y) = (x + y, 2x + y) é o
conjunto
= {(0, 0)}
Como
x − y + 4z = 0
⇐⇒ x = −3z e y=z
3x + y + 8z = 0
Logo,
N(T ) = (−3z, z, z, ) ∈ IR3 / z ∈ IR = {z(−3, 1, 1) / z ∈ IR} = [(−3, 1, 1)].
• Se Im(T ) = W T diz-se sobrejetora, isto é, para todo w ∈ W , existe pelo menos
um v ∈ V tal que T (v) = w.
69
Figura 5.3: Im(T ) ⊂ W e nucleo de T
Exemplos:
Figura 5.4:
70
3. A imagen da transformação nula T : V −→ W , com T (v) = 0, ∀ v ∈ V , é o
conjunto Im(T ) = {0}. O núcleo nesse caso, é todo o espaço V .
i) w1 + w2 ∈ Im(T )
ii) α w1 ∈ Im(T ),
T (v) = T (α v1 ) = αT (v1 ) = α w1
5.4.1 Exercı́cios
71
a) Determinar o núcleo de T , a dimensão do núcleo e uma de suas bases.
3. Nos problemas seguintes são apresentadas transformações lineares. Para cada uma
de elas
(i) Determinar o nucleo, uma base para esse subespaço, e sua dimensão. T é inje-
tora? Justificar.
(ii) Determinar a imagem, uma base para esse subespaço, e sua dimensão. T é
sobrejetora? Justificar
b) T : R2 → R3 , T (x, y) = (x + y, x, 2y)
c) T : R3 → R2 , T (x, y, z) = (x + 2y − z, 2x − y + z)
f) T : R3 → R3 , T (x, y, z) = (x + y, x − y, −x)
a b
g) T : M2×2 (IR) → IR2 , T = (a − c, b + c)
c d
72
5.5 Matriz de uma Transformação Linear
v = x1 v1 + x2 v2 ou vA = (x1 , x2 ) (5.1)
Sendo T (v1 ) e T (v2 ) vetores de W , eles serão combinações lineares dos vetores de B
ou
T (v) = (a11 x1 + a12 x2 )w1 + (a21 x1 + a22 x2 )w2 + (a31 x1 + a32 x2 )w3 (5.6)
y1 = a11 x1 + a12 x2
y2 = a21 x1 + a22 x2
y3 = a31 x1 + a32 x2
ou na forma matricial
y a a
1 11 12 x
1
y2 = a21 a22
x2
y3 a31 a32
73
ou, ainda simbolicamente
T (v)B = AvA
sendo a matriz
a11 a12
A
A = [T ]B = a21 a22
a31 a32
denominada matriz de T em relação às bases A e B. Essa matriz A é, na verdade,
um operador que transaforma vA (componentes de um vetor v na base A) em T (v)B
(Componentes da imagem de v na base B). A matriz A é de ordem 3 × 2 pois dim V = 2
e dim W = 3.
↑ ↑
T (v1 )B T (v2 )B
A matriz A depende das bases A e B consideradas, isto é, a cada dupla de bases
corresponde uma particular matriz. Assim, uma transformação linear poderá ter uma
infinidade de matrizes a representá-la. No entanto, fixadas as bases, a matriz é única.
e as bases de R3 e R2 respectivamente,
74
a) determinar A, matriz de T nas bases A e B;
b) se v = (2, −1, 4) (vetor com componentes em relação à base canônica do IR3 ), calcular
T (v)B utilizando a matriz A.
Solução
a) A matriz A é de ordem 2 × 3.
a11 a12 a13
A=
a21 a22 a23
↑ ↑ ↑
T (v1 )B T (v2 )B T (v3 )B
logo,
−2 −3 0
A=
4 3 2
75
b) Sabe-se que
Tendo em vista que v = (2, −1, 4) está expresso na base canônica, deve-se, primeira-
mente, expressá-lo na base A. Seja vA = (a, b, c), isto é,
ou
a +2b =2
−b +c = −1
c =4
Observe-se que
e as bases canônicas
76
a) determinar A, matriz de T nas bases A, e B;
Solução
a)
logo:
2 1 −1
A= (5.9)
1 2 0
T (v) = A v (5.10)
77
−1
Obs3: Observe o leitor que calcular T (v) = pela matriz A é o mesmo que
0
fazê-lo pela lei definidora de T , conforme se pode ver na parte final do problema
anterior.
T1 + T2 : V −→ W
S = A1 + A2
αT : V −→ W
E = αA
78
5.6.3 Composição
T2 ◦ T1 : V −→ W
Figura 5.5:
P = A2 A1
Exemplos:
1. (T1 + T2 )(x, y)
79
Solução:
= (x − 2y, 2x + y) + (x, x − y)
= (x − 6y, 4x + 5y)
3. (T3 ◦ T2 )(x, y)
Solução:
= T3 (x, x − y)
5.6.4 Exercı́cios
80
A = {(−1, 1), (1, 0)} do IR2 e B = {(1, 1, −1), (2, 1, 0), (3, 0, 1)} do IR3 é:
3 1
[T ]A
B = 2 5
1 −1
5. Seja S = ger{ex , xex , x2 ex } o subespaço de C[a, b](Espaço vetorial das funções reais
definidas no intervalo [a, b]). Seja D o operador derivada em S. Encontre a matriz
de D em relação à base {ex , xex , x2 ex }
a) Calcular (S ◦ T )(x, y) se
T : R2 → R3 , T (x, y) = (2x + y, x − y, x − 3y)
Descrever o movimento de uma partı́cula em um plano resulta muitas vezes mas conve-
niente se usarmos uma base em R2 formada por um vetor tangente unitário ~t e um vetor
normal ~n, em vez da base canônica {e1 , e2 }.
81
Em geral, se A e B são bases de um espaço vetorial V , e I : V −→ V é a transformação
linear identidade, então por (5.7) temos que:
A = [I]A
B.
Sol: Para isso temos que expressar os vetores da base A em relação à base B.
ou
a
11 +2a21 = 2 4
=⇒ a11 = 4, a21 = −1 =⇒ [v1 ]B = .
a21 = −1 −1
Analogamente,
v2 = (−1, 1) = a12 (1, 0) + a22 (2, 1),
logo
12 +2a22 = −1 −3
a
=⇒ a12 = −3, a22 = 1 =⇒ [v2 ]B = .
a22 = 1 1
Portanto,
4 −3
[I]A
B =
−1 1
82
4
Sabendo que [v]A = podemos calcular [v]B usando a matriz anterior. De fato:
3
4 −3 4 7
[v]B = [I]A
B [v]A =
= .
−1 1 3 −1
5.8 Exercı́cios
b) A = {(−3, 0, −3), (−3, 2, −1), (1, 6, −1)} e B = {(−6, −6, 0), (−2, −3, 7), (−2, −6, 4)}.
83
Capı́tulo 6
Autovalores e Autovetores
pode ser vista como uma transformação linear que leva (ou transforma) um vetor dado
x ∈ V em um novo vetor y ∈ V . Vetores que são transformados em múltiplos de si mesmos
são importantes em muitas aplicações. Para encontrar tais vetores, faz-se y = λx, onde λ é
um fator escalar de proporcionalidade. Assim,o objetivo será achar soluções das equações
Ax = λx, (6.1)
ou
(A − λI)x = 0. (6.2)
84
Proposição 6.1. As seguintes afirmações são equivalentes:
c) det(A − λI) = 0.
Para λ = 2 :
1 −1 x1 0
. = . (6.5)
4 −4 x2 0
85
Logo, cada linha dessa equação vetorial leva à condição x1 − x2 = 0, logo x1 = x2 , mas
seus valores não estão determinados. Se x1 e x2 forem iguais a c, o autovetor v1 será
1
v1 = c. , c 6= 0. (6.6)
1
Em geral, não se usa a constante arbitrária c para encontrar os autovetores; com isso
elimina-se c da equação (6.6),
1
v1 = , (6.7)
1
e deve ser lembrado que qualquer múltiplo não-nulo desse vetor também é um autovetor.
Diz-se que v1 é o autovetor correspondente ao autovalor λ1 = 2.
Foi obtido mais uma vez uma única condição sobre x1 e x2 , para saber, 4x1 − x2 = 0.
Logo, o autovetor correspondente ao autovalor λ2 = −1 é
1
v2 = , (6.9)
4
1 ≤ q ≤ m.
86
Solução: Os autovalores e autovetores satisfazem a equação (A − λI)x = 0, ou
−λ 1 1 x 0
1
1 −λ 1 . x2 = 0 (6.11)
1 1 −λ x3 0
x1 + x2 + x3 = 0. (6.16)
87
Assim, valores para duas das quantidades x1 , x2 e x3 podem ser escolhidos arbitra-
riamente e o terceiro valor fica determinado pela equação (6.16). Por exemplo, se x1 = 1
e x2 = 0, então x3 = −1 e
1
v2 = 0 (6.17)
−1
é um autovetor. Qualquer múltiplo não-nulo de v2 também é um autovetor, mas um
segundo autovetor independente pode ser encontrado para uma outra escolha de x1 e x2 ;
por exemplo, x1 = 0 e x2 = 1. Novamente x3 = −1 e
0
v3 = 1 (6.18)
−1
é um autovetor linearmente independente de v2 .
6.1 Exercı́cios
88
Capı́tulo 7
Diagonalização de Matrizes
Uma matriz A ∈ Mn×n (R) é dita diagonalizável se existe uma matriz inversı́vel
p11 p12 . . . p1n
p21 p22 . . . p2n
P = .
.. .. .. ,
(7.1)
.. . . .
pn1 pn2 . . . pnn
tal que: P −1 AP é uma matriz diagonal. Dizemos então que a matriz P diagonaliza A.
i) A é diagonalizável
89
Ex.: Encontre a matriz que diagonaliza
0 0 −2
A= 1 2 1 . (7.2)
1 0 3
Logo, p(λ) = 0, se λ = 1, λ = 2.
x
• Para λ = 1, achar v = y /(A − λI)v = 0
z
−1 0 −2 x 0
Assim 1 1 1 . y = 0
1 0 2 z 0
x+y+z =0 x = −2z
=⇒ (7.4)
x + 2z = 0 y=z
• Para λ = 2 temos:
−2 0 −2 x 0
1 0 1 . y = 0 =⇒ x = −z
1 0 1 z 0
V2 = {(x, y, −x)/ x, y ∈ R}
90
−2 1 0
ii) A matriz P = 1 0 1 diagonaliza A pois P −1AP é diagonal.
1 −1 0
Observe que A possui 3 autovetores L.I. que formam uma base.
7.1 Exercı́cios
1. Ache a forma diagonal e a matriz diagonalizante P , para cada uma das matrizes.
1 −3 3
3 4 1 4
a) b) c) A = 3 −5 3
−4 3 2 3
6 −6 4
Pelo Teorema 7.1 sabemos que dois autovetores associados a autovalores distintos de uma
matriz A são linearmente independente. Se temos que A é simétrica tem-se o teorema
abaixo:
91
Teorema 7.2. Os autovetores associados a autovalores distintos de uma matriz simétrica
são ortogonais.
hv1 , Av2 i = v1T Av2 = v1T AT v2 = (Av1 )T v2 = (v2T Av1 )T = (v2T λ1 v1 )T = λ1 v1T .v2 (7.6)
No Teorema 7.1 vimos que uma matriz A é diagonalizada pela matriz P dos autove-
tores. No caso de A ser simétrica, os vetores que compõem P são base ortogonal.
Com o intuito de facilitar futuras aplicações, é conveniente que P seja ortonormal, o que
se obtém normalizando cada vetor.
D = P T AP, (7.9)
Observação 7.1. Qualquer matriz B ∈ Mn×m multiplicada pela sua matriz transposta
B T ∈ Mm×n , é uma matriz quadrada simétrica de ordem n × n. De fato,
(BB T )T = (B T )T B T = BB T .
92
Capı́tulo 8
Aplicações
O método de Mı́nimos Quadrados tem como ferramento o uso das projeções ortogonais
na solução de problemas de aproximação.
93
Sistemas inconsistentes da forma AX = y são muito importantes nas aplicações fı́sicas.
É uma situação comum que algum problema fı́sico leve a um sistema AX = y que deveria
ser consistente em teoria, mas não o é porque ”erros de medida” nas entradas de A e y
perturbam o sistema suficientemente a ponto de criar inconsistência.
Assim, a solução será achar um X que chegue “tão perto quanto possı́vel”de ser uma
solução, no sentido que minimize o valor de kAX − yk em relação ao produto interno eu-
clideano. Assim, do teorema anterior segue-se que X é uma solução de mı́nimos quadrados
do sistema se
Observação 8.1. Uma forma de resolver (8.1) é primeiro calculando o vetor P roj W y e
depois resolvendo a equação; no entanto, existe uma abordagem melhor, que decorre do
Teorema 4.6, que diz que:
y − AX = y − P roj W y ∈ W ⊥ .
y − AX ∈ N(AT ).
AT (y − AX) = 0 ou AT AX = AT y.
AT A X = AT y é consistente.
Mais ainda, se A ∈ Mm×n tem vetores L.I., então para cada matriz y ∈ Mn×1 o sistema
linear AX = y, tem uma única solução de mı́nimos quadrados. Esta solução é dada
por:
X = (AT A)−1 AT y
94
8.1.1 Ajuste de Mı́nimos Quadrados a Dados
Uma aplicação da proposição anterior pode ser vista sobre projeções ortogonais em espaços
com produto interno para obter uma técnica de ajustar uma reta o uma outra curva
polinomial a um conjunto de pontos no plano que foram determinados experimentalmente.
Teorema 8.2. Seja (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ) um conjunto de dois o mais pontos de
dados, não todos em uma reta vertical. Então, existe um único ajuste linear de mı́nimos
quadrados
y = a∗ + b∗ x
Exemplo 8.2. Encontre o ajuste linear por mı́nimos quadrados dos pontos (0, 1), (1, 3),
(2, 4) e (3, 4).
y = a∗ + b∗ x
95
Como A tem vetores L.I. pelo Proposição anterior tem-se que
1 0 1
!
−1
a∗ T −1 T
1 1 1 1 1 1 1 1 1 1 3
= (A A) A y =
b∗ 1 2 3 4 1 2 1 2 3 4 4
1 3 4
1 7 −3 12 1, 5
= = . (8.2)
10 −3 2 23 1
A técnica usada para o ajuste linear de Mı́nimos Quadrados generaliza-se facilmente para
ajustar um polinômio de qualquer grau fixo m, para n dados.
y = a0 + a1 x + · · · + am xm
96
y1 = a0 + a1 x1 + · · · + am xm
1
y2 = a0 + a1 x2 + · · · + am xm
2
..
.
yn = a0 + a1 xn + · · · + am xm
n.
Logo, pela Proposição 8.1 tem-se que as soluções das equações normais
AT AX = AT y
ky − AXk.
Exemplo 8.3. O dono de um negócio em rápida expansão descobre que nos 5 primeiros
meses do ano as vendas (em milhares de reais) foram $4, 0; $4, 4; $5, 2; $6, 4 e $8, 0.
O dono coloca estos dados num gráfico e conjectura que, pelo resto do ano, a curva de
vendas pode ser aproximada por um polinômio quadrático de melhor ajuste de mı́nimos
quadrados para a curva de vendas e use-o para projetar as vendas no décimo segundo mês
do ano.
y = a0 + a1 x + a2 x2
(1; 4), (2; 4, 4), (3; 5, 2), (4; 6, 4), (5; 8).
97
4, 0 = a0 + a1 + a2 4, 0 1 1 1
4, 4 = a0 + 2a1 + 4a2 4, 4 1 2 4 a0
5, 2 = a0 + 3a1 + 9a2 ⇐⇒ 5, 2 = 1 3 9 a1
6, 4 = a0 + 4a1 + 16a2 6, 4 1 4 16 a2
| {z }
8, 0 = a + 5a + 25a
0 1 2 8, 0. 1 5 25
| {z } | {z }
y = A X
98
8.2 Rotação de Cônicas
99
Observação 8.2. Do teorema anterior temos que a equação da cônica pode-se escrever
em forma matricial da forma
2 2 T
ax + 2bxy + cy +dx + ey + f = X AX + d e X + f = 0 (8.8)
| {z }
= (X ′ )T P T
AP
| {z } X ′
+ ′
d e PX + f
= (X ′ )T DX ′ + d e P X ′ + f (8.9)
5x2 − 4xy + 8y 2 − y − 1 = 0
100
Portanto, agrupando temos
2 2
′ 1 ′ 1 1 1 745 149
2x − √ + 3y − √ =1+ + = = (8.16)
4 5 3 5 80 45 720 145
Mais ainda,
2 2
′ 1 ′ 1 149
4 x − √ +9 y − √ = (8.17)
8 5 9 5 145
ou
2 2
1 1
x′ − √ y′ − √ r 2
8 5 9 5 149
+ = . (8.18)
1 1 145
22 32
Esta última equação representa uma elipse com rotação e translação.
r 2
(x′′ )2 (y ′′ )2 149
Figura 8.1: + =
1 1 145
22 32
101
Apêndice A
Números Complexos
Como x2 ≥ 0 para todo x ∈ R, a equação x2 = −1 não tem solução real. Para contornar
este problema os matemáticos do século 18 introduziram o número imaginário
√
i= −1
i2 = −1.
Geometricamente um número complexo z pode ser visto tanto como um ponto quanto
como um vetor no plano xy.
102
Figura A.1: C ⇐⇒ R2
Observe-se que
√
|z| = a2 + b2 = z · z̄ = |z̄|.
Por outro lado, se θ é o ângulo entre o eixo real positivo e o vetor z (figura A), usando
propriedades trigonométricas obtemos a forma polar de z
103
Note-se que se
então
z1 z2 = |z1 ||z2 |(cos θ1 cos θ2 − sen θ1 sen θ2 ) + i |z1 ||z2 |(sen θ1 cos θ2 + cos θ1 sen θ2 )
w n = z. (A.9)
Denotaremos w = z 1/n .
Sejam,
z = |z|(cos θ + i sen θ) e w = |w|(cos α + i sen α),
Logo,
θ + 2kπ
|w| = |z|1/n , e α= , ∀ k ∈ Z. (A.12)
n
Consequentemente, a solução de (A.9)
1/n θ + 2kπ θ + 2kπ
w = |z| cos + i sen , ∀ k ∈ Z. (A.13)
n n
104
Referências Bibliográficas
[1] ANTON, Howard e RORRES, Chris - Álgebra Linear com Aplicações. Bookman,
8a edição - São Paulo, 2000.
105