Professional Documents
Culture Documents
Departamento de Matemática
Secção de Álgebra e Análise
Paulo Pinto
Conteúdo
Sistemas de Equações Lineares e Cálculo Matricial 2
Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
Sistemas de Equações Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Matrizes Elementares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
A matriz inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
Transformações Lineares 35
Representação matricial de uma transformação linear . . . . . . . . . . . . . . . . 37
Transformações injectivas, sobrejectiva e bijectivas – equações lineares . . . . . . . 41
Determinante 45
Produtos Internos 58
Formas Quadráticas 68
Agradecimento 70
1
Sistemas de Equações Lineares e Cálculo Matricial
Matrizes
Definição 1. Uma matriz A, do tipo m × n (m por n), é uma tabela de mn números
dispostos em m linhas e n colunas:
a11 a12 ··· a1n
a21 a22 ··· a2n
A = .. .. .. .
. . ··· .
am1 am2 · · · amn
A linha i de A é:
ai1 ai2 · · · ain ,
para cada i = 1, ..., m. A coluna j de A é:
a1j
a2j
..
.
amj
para cada j = 1, ..., n. Usa-se também a notação A = (aij )m×n na qual aij é a entrada (i, j)
da matriz A.
Se m = n, diz-se que A é uma matriz quadrada do tipo n × n e as entradas a11 , a22 , ...,
ann formam a chamada diagonal principal de A.
Exemplo 1. As matrizes
4
1 −1 1 2 3 4 3
A= , B= , C= 0 0 7 eD=
−2 2 2 0 −2 0 2
1
Definição 2. Duas matrizes são iguais se forem do mesmo tipo e se as entradas corres-
pondentes forem iguais, isto é, A = (aij )m×n e B = (bij )p×q são iguais se m = p, n = q e
aij = bij , para i = 1, ..., m e j = 1, ..., n.
2
Definição 3. A soma de duas matrizes do mesmo tipo A = (aij )m×n e B = (bij )m×n é
a matriz
A + B = (aij + bij )m×n .
Exemplo 2. Sejam
−1 √
1 4 −1 0 −3 2
A= ,B= , C = −1/2 e D = −2 3 .
−3 2 6 4 −1 −5
2
1 1 1
Tem-se A + B = e não é possı́vel somar C com D.
1 1 1
isto é,
p p
a11 a12 ··· a1p P
a1k bk1 ···
P
a1k bkn
.. .. b11 · · · b1j · · · b1n
k=1 k=1
. ··· . b · · · b2j · · · b2n
p
21 · · ·
P
aik bkj ···
ai1 ai2 ··· aip .. .. .. =
.
.. .. . ··· . ··· . p k=1
··· . b P p
P
p1 · · · bpj · · · bpn amk bk1 ··· amk bkn
am1 am2 ··· amp k=1 k=1
3
Observação 2. O produto de matrizes não é comutativo. Por exemplo, para
0 1 0 −1 1 0 −1 0
A= eB= tem-se AB = e BA = .
1 0 1 0 0 −1 0 1
Logo AB 6= BA.
AT = (aji )n×m
(c) (Elemento neutro da soma) Existe uma única matriz 0 do tipo m×n tal que A+0 = A,
para toda a matriz A do tipo m × n. À matriz 0, cujas entradas são todas iguais a zero,
chama-se matriz nula.
(d) (Simétrico) Para cada matriz A existe uma única matriz B tal que A + B = 0. Esta
matriz B denota-se por −A.
(f ) (Distributividade) (α + β) A = αA + βA.
(l) (A + B)T = AT + B T .
4
(n) (AB)T = B T AT .
(o) (A1 A2 ...An )T = ATn ...AT2 AT1 , com A1 , A2 , ..., An matrizes de tipos apropriados.
AI = A e IB = B,
Definição 7. (i) A diferença entre duas matrizes A e B do mesmo tipo é definida por
A − B = A + (−B),
cujas entradas fora da diagonal principal são nulas, chama-se matriz diagonal.
Definição 8. (i) Seja A = (aij )n×n uma matriz do tipo n × n. Diz-se que A é simétrica
se A = AT , isto é, se aij = aji , para i, j = 1, ..., n. Diz-se que A é anti-simétrica se
A = −AT , isto é, se aij = −aji , para i, j = 1, ..., n.
(ii) Para matrizes quadradas A = (aij )n×n define-se o traço de A, tr(A), como sendo a
soma de todas as entradas da diagonal principal de A, isto é,
n
X
tr(A) = aii .
i=1
5
Observação 4. Sejam A = (aij )n×n e B = (bij )n×n duas matrizes do tipo n × n e α um
escalar. Tem-se:
(i) tr(A + B) = tr(A) + tr(B),
(ii) tr(αA) = αtr(A),
(iii) tr(AT ) = tr(A)
(iv) tr(AB) = tr(BA).
a1 x1 + a2 x2 + ... + an xn = b,
AX = B,
em que
a11 a12 ··· a1n x1 b1
a21 a22 ··· a2n
x2
b2
A= .. .. .. , X= .. e B= .. .
. .
··· . . .
am1 am2 · · · amn xn bm
x1 = s1 , x2 = s2 , ..., xn = sn .
6
Ao conjunto de todas as soluções do sistema chama-se conjunto solução ou solução geral do
sistema.
Definição 11. As operações elementares que podem ser aplicadas às linhas de uma
matriz são as seguintes:
7
Observação 7. O método que iremos usar para resolver sistemas lineares consiste na
aplicação de operações elementares às linhas da matriz aumentada do sistema de modo a
obter uma matriz em escada de linhas em relação à qual o sistema associado seja de fácil
resolução.
Definição 12. Uma matriz A = (aij )m×n diz-se em escada de linhas se:
(i) Todas as linhas nulas (formadas inteiramente por zeros) estão por baixo das linhas
não nulas;
(ii) Por baixo (e na mesma coluna) do primeiro elemento não nulo de cada linha e por
baixo dos elementos nulos anteriores da mesma linha, todas as entradas são nulas. Esse
primeiro elemento não nulo de cada linha tem o nome de pivot.
Definição 14. O método de resolver sistemas lineares que consiste em aplicar operações
elementares às linhas da matriz aumentada do respectivo sistema de modo a que essa matriz
fique em escada de linhas, chama-se método de eliminação de Gauss1 .
na forma matricial é
1 0 1 x 3
1 2 2 y = 6 .
0 3 3 z 6
1
Johann Carl Friedrich Gauss 1777-1855
8
Consideremos então a matriz aumentada e o consequente método de eliminação de Gauss:
1 0 1 | 3 1 0 1 | 3 1 0 1 | 3
1 2 2 | 6 −→ 0 2 1 | 3 3 −→ 0 2 1 | 3 .
−L1 +L2 →L2 − 2 L2 +L3 →L3
0 3 3 | 6 0 3 3 | 6 0 0 23 | 23
Logo,
x+z =3
x=2
2y + z = 3 ⇔ y=1
3 3
2
z = 2
z = 1.
é equivalente a
x
0 0 3 −9 6
5 15 −10 40 y = −45 .
z
1 3 −1 5 −7
w
Consideremos então a matriz aumentada e o consequente método de eliminação de Gauss:
0 0 3 −9 | 6 1 3 −1 5 | −7
5 15 −10 40 | −45 −→ 1 3 −2 8 | −9 −→
L1 ↔L3 −L1 +L2 →L2
1 3 −1 5 | −7 1
L →L2
0 0 3 −9 | 6
5 2
1 3 −1 5 | −7 1 3 −1 5 | −7
−→ 0 0 −1 3 | −2 −→ 0 0 −1 3 | −2 .
3L2 +L3 →L3
0 0 3 −9 | 6 0 0 0 0 | 0
Logo,
x + 3y − z + 5w = −7 x = −3y − 2w − 5
⇔
−z + 3w = −2 z = 3w + 2.
As incógnitas y e w são livres e as incógnitas x e z são não livres. A solução geral do sistema
é:
x −3y − 2w − 5
y y
X= =
z
,
3w + 2
w w
9
para quaisquer y, w ∈ R, isto é, o conjunto solução é dado por:
S = {(−3y − 2w − 5, y, 3w + 2, w) : y, w ∈ R} .
é equivalente a
1 2 1 x 3
1 1 −1 y = 2 .
1 1 a2 − 5 z a
Consideremos então a matriz aumentada e o consequente método de eliminação de Gauss:
1 2 1 3 1 2 1 3 1 2 1 3
1 1 −1 2 −→ 0 −1 −2 −1 −→ 0 −1 −2 −1 .
2 −L1 +L2 →L2 2 −L2 +L3 →L3 2
1 1 a − 5 a −L1 +L3 →L3 0 −1 a − 6 a − 3 0 0 a −4 a−2
S = {(3z + 1, −2z + 1, z) : z ∈ R} .
10
Observação 8. Seja [A | B] a matriz aumentada associada a um sistema linear com n
incógnitas.
(iii) Se car A < car [A | B] então o sistema é impossı́vel (não tem solução).
(iv) Podemos escolher como incógnitas livres (podem tomar valores arbitrários) do
sistema aquelas que correspondem às colunas, que não contenham pivots, da matriz em
escada de linhas obtida de A através de operações elementares.
(v) As incógnitas não livres do sistema são aquelas que correspondem às colunas,
que contenham pivots, da matriz em escada de linhas obtida de A através de operações
elementares.
tem o nome de sistema linear homogéneo. Este sistema poder ser escrito na forma
AX = 0. Todo o sistema linear homogéneo admite pelo menos a solução trivial:
x1 0
x2 0
X = .. = .. .
. .
xn 0
Assim, todo o sistema linear homogéneo tem solução. Além disso, ou tem apenas a solução
trivial ou tem infinitas soluções.
Teorema 4. Se A = (aij )m×n é tal que m < n, então o sistema linear homogéneo
AX = 0 tem infinitas soluções.
11
Dem. Como o sistema tem menos equações do que incógnitas (m < n), o no de linhas
não nulas r da matriz em escada de linhas obtida da matriz aumentada do sistema também
é tal que r < n. Assim, r pivots e n − r incógnitas livres as quais podem assumir qualquer
valor real. Logo, o sistema linear homogéneo AX = 0 tem infinitas soluções.
X = X0 + (X − X0 )
Matrizes Elementares
Definição 16. Uma matriz elementar do tipo n × n é uma matriz obtida da matriz
identidade I através de uma única operação elementar.
(i) A matriz Pij , chamada matriz de permutação, é a matriz elementar obtida por
troca da linha i com a linha j da matriz I. Tem-se:
1 0 ··· ··· 0
0 ... ... ..
.
. .
.. . . 1
0 1
←i
1
Pij = . .
.
.
1
1 0 ←j
. . ..
1 . .
. .. ..
.. . . 0
0 ··· ··· 0 1
12
(ii) A matriz Ei (α) é a matriz elementar obtida da matriz I através do produto do escalar
α 6= 0 pela linha i da matriz I. Tem-se:
1 0 ··· ··· 0
..
0 ... ...
. .
. .. .
. 1
Ei (α) = α ←i .
. . ..
1 . .
.. . . . .
. . . 0
0 ··· ··· 0 1
(iii) A matriz Eij (α) é a matriz elementar obtida da matriz I por soma da linha j com
um múltiplo α da linha i. Tem-se:
1 0 ··· ··· 0
0 ... ... ..
.
. .
.. . . 1 ←i
Eij (α) = . .
.
.
. . ..
α 1 . . ←j
. . .
.. .. .. 0
0 ··· ··· 0 1
0 1 α 0 1 0
P12 = P21 = , E1 (α) = , E2 (α) = ,
1 0 0 1 0 α
com α 6= 0,
1 0 1 α
E12 (α) = e E21 (α) = .
α 1 0 1
13
A operação elementar:
0 0 3 −9 | 6 1 3 −1 5 | −7
5 15 −10 40 | −45 −→ 5 15 −10 40 | −45 ,
L1 ↔L3
1 3 −1 5 | −7 0 0 3 −9 | 6
corresponde à seguinte multiplicação (à esquerda):
0 0 1 0 0 3 −9 | 6 1 3 −1 5 | −7
0 1 0 5 15 −10 40 | −45 = 5 15 −10 40 | −45 .
1 0 0 1 3 −1 5 | −7 0 0 3 −9 | 6
A operação elementar:
1 3 −1 5 | −7 1 3 −1 5 | −7
5 15 −10 40 | −45 −→ 1 3 −2 8 | −9 ,
1
L →L2
0 0 3 −9 | 6 5 2 0 0 3 −9 | 6
corresponde à seguinte multiplicação (à esquerda):
1 0 0 1 3 −1 5 | −7 1 3 −1 5 | −7
0 1/5 0 5 15 −10 40 | −45 = 1 3 −2 8 | −9 .
0 0 1 0 0 3 −9 | 6 0 0 3 −9 | 6
A operação elementar:
1 3 −1 5 | −7 1 3 −1 5 | −7
1 3 −2 8 | −9 −→ 0 0 −1 3 | −2 ,
−L1 +L2 →L2
0 0 3 −9 | 6 0 0 3 −9 | 6
corresponde à seguinte multiplicação (à esquerda):
1 0 0 1 3 −1 5 | −7 1 3 −1 5 | −7
−1 1 0 1 3 −2 8 | −9 = 0 0 −1 3 | −2 .
0 0 1 0 0 3 −9 | 6 0 0 3 −9 | 6
Finalmente, a operação elementar:
1 3 −1 5 | −7 1 3 −1 5 | −7
0 0 −1 3 | −2 −→ 0 0 −1 3 | −2 ,
3L2 +L3 →L3
0 0 3 −9 | 6 0 0 0 0 | 0
corresponde à seguinte multiplicação (à esquerda):
1 0 0 1 3 −1 5 | −7 1 3 −1 5 | −7
0 1 0 0 0 −1 3 | −2 = 0 0 −1 3 | −2 .
0 3 1 0 0 3 −9 | 6 0 0 0 0 | 0
Tem-se então:
0 0 3 −9 | 6 1 3 −1 5 | −7
1
E23 (3) E12 (−1) E2 P13 5 15 −10 40 | −45 = 0 0 −1 3 | −2 .
5
1 3 −1 5 | −7 0 0 0 0 | 0
14
A matriz inversa
Definição 17. Uma matriz A (do tipo n × n) diz-se invertı́vel se existir uma matriz B (do
tipo n × n) tal que
AB = BA = I.
À matriz B chama-se matriz inversa de A e denota-se por A−1 .
Observação 10. Obviamente que resulta da definição de matriz inversa o seguinte facto:
sendo A−1 a matriz inversa de A, então A−1 é invertı́vel e a sua inversa é a própria matriz
−1
A, isto é, (A−1 ) = A.
B = BI = B (AC) = (BA) C = IC = C.
Teorema 9. (i) Se A = (aij )n×n e B = (bij )n×n são duas matrizes invertı́veis, então AB
é invertı́vel e
(AB)−1 = B −1 A−1 .
Definição 18. Uma matriz A = (aij )n×n diz-se não singular se após o método de
eliminação de Gauss esta fôr transformada numa matriz triangular superior (matriz
cujas entradas por baixo da diagonal principal são todas nulas) cujas entradas da diagonal
principal sejam todas não nulas. Uma matriz A = (aij )n×n diz-se singular se após o método
de eliminação de Gauss existir (pelo menos) uma linha nula na matriz obtida de A.
Teorema 10. Uma matriz A = (aij )n×n é invertı́vel se e só se é não singular.
Teorema 11. Toda a matriz elementar é invertı́vel e a respectiva inversa é também uma
matriz elementar. Tem-se:
15
Teorema 12. (Factorização triangular). Seja A uma matriz não singular do tipo
n×n. Então ou A admite a factorização única A = LDU ou existe uma matriz de permutação
P tal que P A admite a factorização única P A = LDU , onde L e U são respectivamente uma
matriz triangular inferior e uma matriz triangular superior com as entradas das diagonais
principais todas iguais a 1, e D é uma matriz diagonal com as entradas da diagonal principal
todas não nulas.
Logo,
1 0 0 1 1 1
A = (E12 (−2))−1 (E13 (−2))−1 (E23 (1))−1 0 −1 0 0 1 −2 .
0 0 5 0 0 1
Isto é,
1 0 0 1 1 1
A = E12 (2)E13 (2)E23 (−1) 0 −1 0 0 1 −2 ,
0 0 5 0 0 1
ou ainda,
A = LDU ,
com
1 0 0
L = E12 (2)E13 (2)E23 (−1) = 2
1 0 ,
2 −1 1
1 0 0 1 1 1
D = 0 −1 0 e U= 0 1 −2 .
0 0 5 0 0 1
1 2 3 4
0 0 5 6
Exemplo 15. Seja A =
0
. Tem-se:
0 10 6
0 1 7 8
1 2 3 4 1 2 3 4
0 1 7 8 0 1 7 8
P24 A =
0 0 10
e E34 (−1/2) P24 A = .
6 0 0 10 6
0 0 5 6 0 0 0 3
16
Logo,
1 2 3 4
0 1 7 8
P24 A = (E34 (−1/2))−1
0
.
0 10 6
0 0 0 3
Isto é,
1 0 0 0 1 2 3 4
0 1 0 0 0 1 7 8
P24 A = E34 (1/2)
0
,
0 10 0 0 0 1 3/5
0 0 0 3 0 0 0 1
ou ainda,
P A = LDU ,
com
1 0 0 0
0 1 0 0
P = P24 , L = E34 (1/2) =
0
,
0 1 0
0 0 1/2 1
1 0 0 0 1 2 3 4
0 1 0 0 0 1 7 8
D=
0 0
e U = .
10 0 0 0 1 3/5
0 0 0 3 0 0 0 1
Observação 12. Uma matriz A é invertı́vel se e só se fôr igual ao produto de matrizes
elementares.
(i) O sistema associado a AX = B tem solução única se e só se A fôr invertı́vel. Neste
caso a solução é X = A−1 B.
(ii) O sistema homogéneo AX = 0 tem solução não trivial se e só se A fôr singular (não
invertı́vel).
Dem. Considere o sistema (AB) X = 0. Se B não fosse invertı́vel, então pelo teorema
13 existiria X 6= 0 tal que BX = 0. Logo, X 6= 0 seria solução não trivial de ABX = 0, o
que contraria o teorema 13 uma vez que por hipótese AB é invertı́vel. Assim, B é invertı́vel.
Finalmente, A é invertı́vel por ser o produto de duas matrizes invertı́veis: A = (AB) B −1 .
Observação 13. (Como inverter matrizes do tipo n × n). Seja A uma matriz do
tipo n × n e consideremos a equação AX = B. Se A fôr invertı́vel temos
AX = B ⇔ X = A−1 B,
17
isto é,
AX = IB ⇔ IX = A−1 B.
Assim, para determinar a inversa de A, iremos transformar a matriz aumentada [A | I] na
matriz [I | A−1 ], por meio de operações elementares aplicadas às linhas de [A | I]. Este
método tem o nome de método de eliminação de Gauss-Jordan2 e consistirá na conti-
nuação do método de eliminação de Gauss agora aplicado a [matriz triangular superior | ∗],
efectuando-se as eliminações de baixo para cima de modo a obter-se [I | A−1 ].
1 1 1
Exemplo 16. (i) Seja A = 2 1 4 . Tem-se
2 3 5
1 1 1 | 1 0 0 1 1 1 | 1 0 0
[A | I] = 2 1 4 | 0 1 0 −→ 0 −1 2 | −2 1 0 −→
−2L1 +L2 −→L2 L2 +L3 −→L3
2 3 5 | 0 0 1 −2L1 +L3 −→L3 0 1 3 | −2 0 1
1 1 1 | 1 0 0 1 1 1 | 1 0 0
−→ 0 −1 2 | −2 1 0 1 −→ 0 −1 2 | −2 1 0 −→
L −→L −2L3 +L2 −→L2
0 0 5 | −4 1 1 5 3 3
0 0 1 | −4/5 1/5 1/5 −L3 +L1 −→L1
1 1 0 | 9/5 −1/5 −1/5
−→ 0 −1 0 | −2/5 3/5 −2/5
−→
L2 +L1 −→L1
0 0 1 | −4/5 1/5 1/5
1 0 0 | 7/5 2/5 −3/5
−→ 0 −1 0 | −2/5 3/5 −2/5 −→
−L2 −→L2
0 0 1 | −4/5 1/5 1/5
1 0 0 | 7/5 2/5 −3/5
−→ 0 1 0 | 2/5 −3/5 2/5 .
0 0 1 | −4/5 1/5 1/5
1 2 3
(ii) Seja A = 1 1 2
. Tem-se
0 1 1
1 2 3 | 1 0 0 1 2 3 | 1 0 0
[A | I] = 1 1 2 | 0
1 0 −→ 0 −1 −1 | −1 1 0 −→
−L1 +L2 −→L2 L2 +L3 −→L3
0 1 1 | 0 0 1 0 1 1 | 0 0 1
1 2 3 | 1 0 0
−→ 0 −1 −1 | −1 1
0 .
0 0 0 | −1 1 1
Logo, A é singular e como tal não é invertı́vel.
2
Wilhelm Jordan 1842 – 1899
18
Espaços Lineares (Vectoriais)
Definição 19. Um conjunto não vazio V é um espaço linear (real) se existirem duas
operações associadas a V , uma soma de elementos de V e um produto de escalares (números
reais) por elementos de V , com as seguintes propriedades:
(e) (Elemento neutro da soma). Existe um elemento de V designado por 0 tal que, para
qualquer u ∈ V , u + 0 = u.
19
(i) Rn , com as operações usuais:
(ii) Matm×n (R) (conjunto de todas as matrizes reais do tipo m × n), com as operações
(usuais): A + B e αA.
(iii) O conjunto de todas as funções reais de variável real definidas num conjunto não
vazio S ⊆ R, com as operações usuais:
Observação 15. Um mesmo conjunto pode servir para formar espaços lineares dife-
rentes:
u v = u + v + 1,
α · u = αu + α − 1,
(ii) O conjunto dos números reais maiores do que zero, com a soma definida por
u v = uv,
α · u = uα ,
20
(ii) O conjunto V = {a0 + a1 t + ... + an tn : a0 , a1 , ..., an ∈ R e an 6= 0}, com as operações
usuais, não é um espaço linear. Por exemplo:
(iii) O conjunto U = {f : R −→ R tais que f (1) = 2}, com as operações usuais, não é
um espaço linear. Por exemplo, se f1 , f2 ∈ U ,
Logo, f1 + f2 ∈
/ U.
(i) Os únicos subespaços do espaço linear R, com as operações usuais, são {0} e R.
(ii) Os subespaços do espaço linear R3 , com as operações usuais, são: {(0, 0, 0)}, R3 ,
todas as rectas que passam pela origem e todos os planos que passam pela origem.
21
é um subespaço do espaço linear Rm , com as operações usuais, ao qual se dá o nome de
espaço das colunas de A.
Nuc(A) = {u ∈ Rn : Au = 0}
Definição 21. Seja S um subconjunto não vazio de um espaço linear V . Diz-se que um
vector u é combinação linear finita dos elementos de S, se existir um no finito de elementos
de S, u1 , ..., uk , e de escalares λ1 , ..., λk tais que
k
X
u = λ1 u1 + ... + λk uk = λ i ui .
i=1
Observação 19. Seja S e T dois subconjuntos não vazios de um espaço linear V , com
S ⊂ T . Se L(S) = V então L(T ) = V .
Exemplo 19. (i) O espaço linear R2 é gerado por qualquer dos seguintes conjuntos de
vectores:
{(1, 0), (0, 1)}, {(1, 2), (−1, 11)} e {(23, 8), (6, 14)}.
(ii) O subespaço {(x, y) ∈ R2 : y = 2x} do espaço linear R2 é gerado por qualquer dos
seguintes conjuntos de vectores:
t t2 tn
{1, t, t2 , ..., tn }, {1, 1 + t, (1 + t)2 , ..., (1 + t)n } e {1, , , ..., }.
1! 2! n!
22
(iv) O espaço linear P de todos os polinómios, é gerado pelo conjunto infinito de vectores:
{1, t, t2 , ...}.
(v) O espaço linear V de todas as funções f : R → R diferenciáveis tais que f 0 (x) = af (x)
é gerado pela função f1 (x) = eax , i.e. V = L({f1 }).
(vi) Seja A uma matriz (real) do tipo m × n. O espaço das colunas de A,
é o subespaço (do espaço linear Rm ) gerado pelas colunas de A, uma vez que:
b1 a11 a12 · · · a1n u1 a11 a12 a1n
b2 a21 a22 · · · a2n u2 a21 a22 a2n
.. = .. .. .. .. = u1 .. + u2 .. + ... + un .. .
. . . ··· . . . . .
bm am1 am2 · · · amn un am1 am2 amn
(vii) Seja A uma matriz (real) do tipo m × n. Ao subespaço linear de Rn gerado pelas
linhas de A dá-se o nome de espaço das linhas de A e designa-se por L(A).
(viii) Sejam
1 −3 1 −1 2
0 0 0 2 0
A= , B = 0 0 7 , C = 2 −4 e D= .
0 0 0 0 −1
0 0 0 −2 4
Tem-se
C(A) = {(0, 0)}, Nuc(A) = R3 e L(A) = {(0, 0, 0)}.
C(B) = L ({(1, 0, 0) , (1, 7, 0)}) , Nuc(B) = L ({(3, 1, 0)}) e L(B) = L ({(1, −3, 1) , (0, 0, 7)}) .
C(C) = L ({(−1, 2, −2)}) , Nuc(C) = L ({(2, 1)}) e L(C) = L ({(−1, 2)}) .
C(D) = L ({(2, 0) , (0, −1)}) , Nuc(D) = {(0, 0)} e L(D) = L ({(2, 0) , (0, −1)}) .
(ix) Seja U = {A ∈ Mat3×2 (R) : a12 = a21 = a32 = 0 e a11 + 2a31 = 0}. Tem-se, para
A ∈ U,
a11 a12 −2a31 0 −2 0 0 0
A = a21 a22 =
0 a22 = a31 0 0 + a22 0 1 ,
a31 a32 a31 0 1 0 0 0
23
Logo,
p(t) = a0 − a2 t + a2 t2 = a0 1 + a2 −t + t2 ,
com a0 , a2 ∈ R. Assim,
U =L 1, −t + t2 .
Teorema 17. Se U e V são subespaços do espaço linear W , então:
Seja v ∈ V , então
(α + β) + (α + 2β) − 2 (−α + β) = 0.
Seja v ∈ U , então
24
Considerando a matriz aumentada tem-se
1 1 | 2λ − µ 1 1 | 2λ − µ 1 1 | 2λ − µ
−1 2 | λ + µ −→ 0 3 | 3λ −→ 0 3 | 3λ
L1 +L2 →L2 − 31 L2 +L3 →L3
1 2 | λ + 3µ −L1 +L3 →L3 0 1 | −λ + 4µ 0 0 | −2λ + 4µ
Logo,
α + β = 2λ − µ
α=µ
β=λ ⇐⇒ β = 2µ
0 = −2λ + 4µ. λ = 2µ.
Assim,
α(1, −1, 1) + β(1, 2, 2) = µ(1, −1, 1) + 2µ(1, 2, 2) = (3µ, 3µ, 5µ) = µ(3, 3, 5).
Logo,
U ∩ V = {(3µ, 3µ, 5µ) : µ ∈ R} ={µ(3, 3, 5) : µ ∈ R} = L ({(3, 3, 5)}) .
Observação 20. Neste exemplo (ii), os subespaços U e V poderiam ter sido apresentados
inicialmente na forma:
U = {(x, y, z) ∈ R3 : 4x + y − 3z = 0} = L ({(1, −4, 0), (0, 3, 1)}) = L ({(1, −1, 1), (1, 2, 2)})
V = {(x, y, z) ∈ R3 : 2x−7y+3z = 0} = L ({(7, 2, 0), (−3, 0, 2)}) = L ({(2, 1, 1), (−1, 1, 3)}) .
(iii) Sejam W = Matn×n (R), U o subespaço (de W ) das matrizes triangulares superiores,
V o subespaço (de W ) das matrizes triangulares inferiores. Então
U ∪ V = {(x, y) ∈ R2 : x = 0 ∨ y = 0}
W1 ∩ W2 = {0}.
25
Se V = W1 + W2 então todo o vector v ∈ V pode ser escrito de modo único na forma
v = w 1 + w2
Teorema 20. O espaço das linhas L(A) e o núcleo Nuc(A) de uma matriz A ∈
Matm×n (R) mantêm-se invariantes por aplicação do método de eliminação de Gauss. Isto é,
sendo A0 a matriz em escada que se obtem de A por aplicação desse método, tem-se
Observação 21. Seja A ∈ Matm×n (R). Se A0 fôr a matriz em escada que se obtem de A
por aplicação do método de eliminação de Gauss, tem-se
C(A) 6= C(A0 ).
Independencia linear
Definição 22. Seja V um espaço linear. Seja S = {v1 , v2 , ..., vk } ⊂ V . Diz-se que o
conjunto S é linearmente dependente se e só se algum dos vectores de S se escrever como
combinação linear dos restantes, isto é, se e só se existir algum i ∈ {1, 2, ..., k} e escalares
λ1 , λ2 , ..., λi−1 , λi+1 , ..., λk ∈ R tais que
Definição 23. Seja V um espaço linear. Seja S = {v1 , v2 , ..., vk } ⊂ V . Diz-se que o
conjunto S é linearmente independente se e só se nenhum dos vectores de S se puder
escrever como combinação linear dos restantes, isto é, se e só a única solução do sistema
homogéneo
λ1 v1 + λ2 v2 + ... + λk vk = 0
fôr a solução trivial, ou seja, λ1 = λ2 = ... = λk = 0. Isto é, sendo A a matriz cujas colunas
são os vectores de S, diz-se que S é linearmente independente se e só se Nuc(A) = {0}.
26
à matriz A cujas colunas são os vectores de S, de modo a colocá-la em escada de linhas.
Sendo A0 essa matriz em escada, tem-se pelo teorema 20
Nuc(A) = Nuc(A0 ) (*).
Uma vez que as colunas de A0 que contêm pivots são linearmente independentes então, devido
a (*), as colunas de A nas posições correspondentes também serão linearmente independentes.
(ii) Em R, quaisquer dois vectores são linearmente dependentes.
(iii) Em R2 , dois vectores são linearmente independentes se não forem colineares.
(iv) Em R3 , três vectores são linearmente independentes se não forem coplanares.
(v) Qualquer conjunto que contenha o vector nulo (elemento neutro) é linearmente de-
pendente. Em particular, o conjunto {0}, formado apenas pelo vector nulo, é linearmente
dependente.
(vi) O conjunto vazio ∅ é linearmente independente.
Teorema 23. Sejam S1 e S2 dois subconjuntos finitos de um espaço linear, tais que
S1 ⊂ S 2 .
(i) Se S1 é linearmente dependente então S2 também é linearmente dependente.
(ii) Se S2 é linearmente independente então S1 também é linearmente independente.
Observação 23. Sejam S1 e S2 dois subconjuntos finitos de um espaço linear, tais que
S1 ⊂ S 2 .
(i) Se S2 fôr linearmente dependente então S1 tanto pode ser linearmente dependente
como linearmente independente.
(ii) Se S1 fôr linearmente independente então S2 tanto pode ser linearmente dependente
como linearmente independente.
Exemplo 21. Seja S = {(1, 0, 2), (2, 0, 4), (0, 1, 2)}. Tem-se
1 2 0 1 2 0 1 2 0
A= 0 0 1 −→ 0 0 1 −→ 0 0 1 = A0 .
−2L1 +L3 →L3 −2L2 +L3 →L3
2 4 2 0 0 2 0 0 0
Logo, como apenas existem dois pivots e portanto uma variável livre, as três colunas de A
são linearmente dependentes, isto é, o conjunto S é linearmente dependente. O subconjunto
de S:
{(1, 0, 2), (2, 0, 4)}
também é linearmente dependente. No entanto, uma vez que a 1a e 3a colunas de A são
independentes pois correspondem às colunas da matriz em escada A0 que contêm os pivots,
o subconjunto de S:
{(1, 0, 2), (0, 1, 2)}
é linearmente independente.
27
Bases e dimensão de Espaços Lineares
Definição 24. Chama-se base de um espaço linear V a qualquer subconjunto S de V que
verifique as duas condições:
Teorema 24. Qualquer espaço linear V 6= {0} tem pelo menos uma base.
Dem.: Demonstração não trivial!!
Observação 24. Qualquer espaço linear V 6= {0} tem um no infinito de bases. Por exem-
plo, se S = {u1 , ..., uk } fôr uma base de V então para cada α 6= 0 o conjunto {αu1 , ..., αuk }
é também uma base de V .
Teorema 25. Todas as bases de um espaço linear V 6= {0} têm o mesmo no de vectores.
Exemplo 22. (i) O conjunto {1} é uma base de R, chamada base canónica ou natural
de R. Logo,
dim R = 1.
(ii) O conjunto {(1, 0), (0, 1)} é uma base de R2 , chamada base canónica ou natural de
R2 . Logo,
dim R2 = 2.
(iii) O conjunto {(1, 0, 0), (0, 1, 0), (0, 0, 1)} é uma base de R3 , chamada base canónica
ou natural de R3 . Logo,
dim R3 = 3.
(iv) O conjunto
1 0 0 0 1 0 0 0 1 0 0 0 0 0 0 0 0 0
, , , , ,
0 0 0 0 0 0 0 0 0 1 0 0 0 1 0 0 0 1
é uma base de Mat2×3 (R), chamada base canónica ou natural de Mat2×3 (R). Logo,
(v) Tem-se
dim Rn = n e dim Matm×n (R) = mn.
(vi) O conjunto {1, t, t2 , ..., tn } é uma base de Pn (espaço linear de todos os polinómios
reais de grau menor ou igual a n), chamada base canónica ou natural de Pn . Logo,
dim Pn = n + 1.
28
(vii) O conjunto {1, t, t2 , ...} é uma base de P (espaço linear de todos os polinómios
reais), chamada base canónica ou natural de P . Logo,
dim P = ∞.
Definição 26. Chama-se nulidade à dimensão do núcleo ou espaço nulo de uma matriz
A e escreve-se nul A.
(i) Tem-se
dim C(A) = dim L(A) = car A.
(ii) Tem-se
car A + nul A = n.
(iii) Se dim V = n, então nenhum conjunto com m vectores de V , em que m < n, pode
gerar V .
Exemplo 23. Seja A ∈ Matm×n (R). Como L(A) e Nuc(A) são subespaços de Rn então
29
é também um subepaço de Rn . Por outro lado, atendendo a que
dim (L(A) + Nuc(A)) = dim L(A) + dim Nuc(A) − dim (L(A) ∩ Nuc(A)) =
= car A + nul A − 0 =
= n.
Rn = L(A) ⊕ Nuc(A).
{0} e R.
{(0, 0, 0)} , todas as rectas que contêm a origem, todos os planos que contêm a origem e R 3 .
(i) Uma base para L(A) será formada pelas linhas não nulas de A0 .
(ii) Uma base para C(A) será formada pelas colunas de A que correspondem às posições
das colunas de A0 que contêm os pivots.
30
Logo, {(2, 1, 1, 1), (0, 0, 1, 1)} é uma base de L(A) e {(2, 4, −6), (1, 3, 1)} é uma base de C(A).
Assim,
dim L(A) = 2 = dim C(A)
e
L(A) = L ({(2, 1, 1, 1), (0, 0, 1, 1)}) , C(A) = L ({(2, 4, −6), (1, 3, 1)}) .
Por outro lado,
x 0
y
0
Nuc(A0 ) = (x, y, z, w) ∈ R4 : A0
z =
=
0
w 0
= {(x, −2x, −w, w) : x, w ∈ R} =
= L{(1, −2, 0, 0), (0, 0, −1, 1)}.
Como o conjunto {(1, −2, 0, 0), (0, 0, −1, 1)} é linearmente independente e gera Nuc(A 0 ) então
é uma base de Nuc(A0 ). Finalmente, uma vez que Nuc(A) = Nuc(A0 ), o conjunto
Exemplo 26. Seja S = {1, 2, −1), (2, 1, 1), (−1, −2, 1), (0, 1, 0)} ⊂ R3 . Determinemos
uma base para L(S).
Tem-se
1 2 −1 0 1 2 −1 0 1 2 −1 0
2 1 −2 1 −→ 0 −3 0 1 −→ 0 −3 0 1 .
−2L1 +L2 →L2 L2 +L3 →L3
−1 1 1 0 L1 +L3 →L3 0 3 0 0 0 0 0 1
Logo, S 0 = {1, 2, −1), (2, 1, 1), (0, 1, 0)} é uma base de L(S). Como dim R3 = 3, então tem-se
mesmo: L(S) = R3 e S 0 é uma base de R3 .
0 1 0
31
Tem-se
1 2 −1 1 2 −1 1 2 −1 1 2 −1
2 1 1 0 −3 3
−→ 0 −3 3
0 −3 3
−1 −2 1 −2L1−→ −→
.
+L2 →L2 0 0 0 L3 ↔L4 0 1 0 1
L +L3 →L3
0 0 1
3 2
L1 +L3 →L3
0 1 0 0 1 0 0 0 0 0 0 0
Logo, S 0 = {1, 2, −1), (0, −3, 3), (0, 0, 1)} é uma base de L(S). Como dim R3 = 3, então
tem-se mesmo: L(S) = R3 e S 0 é uma base de R3 .
Exemplo 27. Seja Sa,b = {1, 0, 1), (0, 1, a), (1, 1, b), (1, 1, 1)} ⊂ R3 . Determinemos os
valores dos parâmetros a e b para os quais Sa,b não gere R3 .
Considere a seguinte matriz cujas colunas são os vectores de S:
1 0 1 1
0 1 1 1 .
1 a b 1
Tem-se
1 0 1 1 1 0 1 1 1 0 1 1
0 1 1 1 −→ 0 1 1 1 −→ 0 1 1 1 .
−L1 +L3 →L3 −aL2 +L3 →L3
1 a b 1 0 a b−1 0 0 0 b − a − 1 −a
Teorema 29. (i) Seja A ∈ Matm×n (R). As colunas de A geram Rm se e só se car A = m.
C(A) = L(A) = Rn .
32
(i) Existência de solução: Se m ≤ n então o sistema Au = b tem pelo menos uma
solução u para cada b ∈ Rm se e só se car A = m.
(ii) A é invertı́vel.
(iv) nul A = 0.
Definição 27. Seja S = {v1 , v2 , ..., vk } uma base ordenada de um espaço linear V e seja u
um vector de V . Chamam-se coordenadas do vector u na base ordenada S aos escalares
λ1 , λ2 , ..., λk da combinação linear:
u = λ1 v1 + λ2 v2 + ... + λk vk .
(i) Um conjunto S de vectores não nulos de V é uma base de V se e só se todo o vector
de V puder ser escrito de modo único como combinação linear dos vectores de S.
33
(ii) Se dim V = n, então dados u, w ∈ V e S = {v1 , v2 , . . . , vn } uma base ordenada de
V , tem-se u = w se e só se as coordenadas de u e de w na base S forem iguais.
A matriz SS1 →S2 é não singular e chama-se matriz de mudança de base (da base S1 para
S2 ). Assim, se tivermos
Xn
u= λi v i ,
i=1
isto é, se (λ1 , ..., λn ) forem as coordenadas do vector u na base S1 então as coordenadas
(µ1 , ..., µn ) de u na base S2 são dadas por
µ1 λ1
.. .
. = SS1 →S2 .. .
µn λn
Dem. Tem-se
n n n n n n
!
X X X X X X
u= µi wi = λj v j = λj sij wi = sij λj wi .
i=1 j=1 j=1 i=1 i=1 j=1
Atendendo ao teorema 31 (i), as coordenadas de um vector u numa base são únicas. Logo,
n
!
X
µi = sij λj ,
j=1
34
uma vez que
1 2 2 1
(1, 0) = − (1, 2) + (2, 1) e (0, 1) = (1, 2) − (2, 1).
3 3 3 3
Logo, as coordenadas de u na base B são dadas por
2 −1/3 2/3 2 4/3
SBc →B = = .
3 2/3 −1/3 3 1/3
Transformações Lineares
T :U →V
para todos os λ, µ ∈ R e u, v ∈ U .
u = λ1 v1 + λ2 v2 + ... + λn vn .
Tem-se então
T (u) = λ1 T (v1 ) + λ2 T (v2 ) + ... + λn T (vn ).
Exemplo 29. Consideremos a base canónica {(1, 0) , (0, 1)} de R2 . Seja T : R2 → R
uma transformação linear tal que T (1, 0) = 1 e T (0, 1) = 1.
35
Para qualquer (x, y) ∈ R2 tem-se
(x, y) = x(1, 0) + y(0, 1).
Então,
T (x, y) = T (x(1, 0) + y(0, 1)) = xT (1, 0) + yT (0, 1) = x + y.
Logo, T : R2 → R é a transformação linear definida explicitamente por
T (x, y) = x + y.
Teorema 33. Sejam U e V espaços lineares e seja {v1 , v2 , . . . , vn } uma base de U . Sejam
T1 , T2 : U → V duas transformações lineares.
Se T1 (vi ) = T2 (vi ) para todo o i = 1, . . . , n, então T1 (u) = T2 (u),
para todo o u ∈ U , isto é, T1 = T2 .
(iii) Seja
tr : Matn×n (R) → R
definida por
n
X
tr(A) = a11 + a22 + ... + ann = aii ,
i=1
para todo o A = (aij )n×n ∈ Matn×n (R). tr (traço) é uma transformação linear.
36
Representação matricial de uma transformação linear
Teorema 34. Sejam U e V espaços lineares de dimensões finitas tais que dim U = n e
dim V = m. Sejam S1 = {u1 , u2 , . . . , un } e S2 = {v1 , v2 , . . . , vm } duas bases ordenadas
de U e V respectivamente. Seja T : U → V uma transformação linear. Considere-se a
matriz A = (aij )m×n ∈ Matm×n (R) cuja coluna j, para cada j = 1, ..., n, é formada pelas
coordenadas de T (uj ) na base S2 . Isto é,
m
X
T (uj ) = aij vi .
i=1
Observação 31. (a) Seja V um espaço linear de dimensão finita, com dim V = n. Sejam
S1 = {u1 , u2 , . . . , un } e S2 = {v1 , v2 , . . . , vn } duas bases ordenadas de V . A representação
matricial da transformação identidade I : V → V em relação às bases S1 e S2 é igual à
matriz de mudança da base S1 para S2 . Isto é,
37
Uma vez que, para todo o j = 1, ..., n,
m
X
T (ej ) = aij e0i ,
i=1
tem-se
n
! n n m m n
!
X X X X X X
T (u) = T λj e j = λj T (ej ) = λj aij e0i = aij λj e0i =
T é linear
j=1 j=1 j=1 i=1 i=1 j=1
n
X n
X
! a11 · · · a1n λ1
= a1j λj , ..., amj λj = ··· .. = Au.
.
j=1 j=1 am1 · · · amn λn
Exemplo 31. (i) Seja T : R4 → R3 definida por T (x, y, z, w) = (3x + y − 2z, 0, x + 4z).
T é uma transformação linear e a matriz M (T ; Bc4 ; Bc3 ) que representa T em relação às bases
canónicas (ordenadas) Bc4 e Bc3 de R4 e R3 respectivamente, é dada por
3 1 −2 0
M (T ; Bc4 ; Bc3 ) = 0 0 0 0 ,
1 0 4 0
uma vez que T (1, 0, 0, 0) = (3, 0, 1), T (0, 1, 0, 0) = (1, 0, 0), T (0, 0, 1, 0) = (−2, 0, 4) e
T (0, 0, 0, 1) = (0, 0, 0). Tem-se então:
x
y
T (x, y, z, w) = M (T ; Bc4 ; Bc3 )
z .
0 0 0
(iii) T : R2 → R2 definida por T (x, y) = (1 − y, 2x) não é uma transformação linear.
38
onde SS1 →S2 é a matriz de mudança da base S1 para S2 .
Além disso,
SS1 →S2 M (T ; S1 ; S1 ) = M (T ; S1 ; S2 )
e
M (T ; S2 ; S2 )SS1 →S2 = M (T ; S1 ; S2 ).
Isto é, o diagrama seguinte é comutativo.
M (T ;S1 ;S1 )
(V, S1 ) −→ (V, S1 )
T
SS1 →S2 ↓ I I ↓ SS1 →S2
T
(V, S2 ) −→ (V, S2 )
M (T ;S2 ;S2 )
Teorema 37. Caso geral. Sejam U e V dois espaços lineares de dimensões finitas. Seja
T : U → V uma transformação linear. Sejam S1 e S10 duas bases ordenadas de U . Sejam S2
e S20 duas bases ordenadas de V . Seja M (T ; S1 ; S2 ) a matriz que representa T em relação às
bases S1 e S2 .
Então, a matriz M (T ; S10 ; S20 ) que representa T em relação às bases S10 e S20 , é dada por
−1
M (T ; S10 ; S20 ) = SS2 →S20 M (T ; S1 ; S2 ) SS1 →S10 ,
onde SS2 →S20 e SS1 →S10 são as matrizes de mudança das bases S2 para S20 e de S1 para S10
respectivamente.
Além disso,
SS2 →S20 M (T ; S1 ; S2 ) = M (T ; S1 ; S20 )
e
M (T ; S10 ; S20 )SS1 →S10 = M (T ; S1 ; S20 ).
Isto é, o diagrama seguinte é comutativo.
M (T ;S1 ;S2 )
(U, S1 ) −→ (V, S2 )
T
SS1 →S10 ↓ I I ↓ SS2 →S20
T
(U, S10 ) −→ (V, S20 )
M (T ;S10 ;S20 )
Exemplo 32. Seja T : R2 → R2 definida por T (x, y) = (y, x). T é uma transformação
linear. A matriz M (T ; Bc2 ; Bc2 ) que representa T em relação à base canónica (ordenada) Bc2
de R2 , é dada por
2 2 0 1
M (T ; Bc ; Bc ) = .
1 0
Seja S = {(1, 1), (−1, 1)} uma base ordenada de R2 .
A matriz M (T ; S; S) que representa T em relação à base ordenada S de R2 , é dada por
1 0
M (T ; S; S) = ,
0 −1
uma vez que T (1, 1) = (1, 1) = 1(1, 1)+0(−1, 1) e T (−1, 1) = (1, −1) = 0(1, 1)+(−1)(−1, 1).
39
Vamos agora verificar que se tem
−1
M (T ; S; S) = SBc2 →S M (T ; Bc2 ; Bc2 ) SBc2 →S .
Uma vez que (0, 1) = 21 (1, 1) + 21 (−1, 1) e (1, 0) = 21 (1, 1) − 21 (−1, 1), tem-se então
1/2 1/2
SBc2 →S = .
1/2 −1/2
Logo,
−1
−1 1/2 1/2 0 1 1/2 1/2
SBc2 →S M (T ; Bc2 ; Bc2 ) SBc2 →S = =
1/2 −1/2 1 0 1/2 −1/2
1/2 1/2 1 1
= =
−1/2 1/2 1 −1
1 0
= =
0 −1
= M (T ; S; S).
T1 (x, y) = (x, 0), T2 (x, y) = (y, 0), T3 (x, y) = (0, x) e T4 (x, y) = (0, y),
para todo o (x, y) ∈ R2 . O conjunto S é uma base de L(R2 , R2 ). Logo, dim L(R2 , R2 ) = 4.
40
Transformações injectivas, sobrejectiva e bijectivas – equações line-
ares
Definição 31. Sejam U, V e W espaços lineares e, T : U → V e S : V → W transformações
lineares. Seja S ◦ T (ou ST ): U → W definida por
(S ◦ T ) (u) = S (T (u)) ,
M (S ◦ T ; S1 ; S3 ) = M (S; S2 ; S3 )M (T ; S1 ; S2 ).
R ◦ (S ◦ T ) = (R ◦ S) ◦ T .
T ◦ (R + S) = T ◦ R + T ◦ S e T ◦ (λR) = λ (T ◦ R) .
(R + S) ◦ Q = R ◦ Q + S ◦ Q e (λR) ◦ Q = λ (R ◦ Q) .
T (u) = T (w) ⇒ u = w,
u 6= w ⇒ T (u) 6= T (w),
para todos os u, w ∈ U .
T (U ) = V .
41
Definição 34. Sejam U e V espaços lineares. Diz-se que U e V são isomorfos se e só
se existir um isomorfismo entre U e V , isto é, se e só se existir uma transformação linear
bijectiva T : U → V .
Teorema 41. Sejam U e V espaços lineares de dimensões finitas tais que dim U = n e
dim V = m. Então, os espaços lineares L(U, V ) e Matm×n (R) são isomorfos e escreve-se
L(U, V ) ∼
= Matm×n (R).
Teorema 43. Sejam U e V espaços lineares de dimensões finitas tais que dim U = dim V .
Seja T : U → V uma transformação linear. Então, T é injectiva se e só se T é sobrejectiva.
T (U ) = {T (u) : u ∈ U } ,
Nuc(T ) = {u ∈ U : T (u) = 0} .
O(u) = 00 ,
42
(ii) Considere a transformação identidade I : U → U definida por
I(u) = u,
T : Rn → R m
definida por
T (u) = Au,
para todo o u ∈ Rn . Tem-se
Teorema 46. Sejam T : Rn → Rm uma transformação linear. Sejam Bcn e Bcm as bases
canónicas (ordenadas) de Rn e Rm respectivamente. Seja A = M (T ; Bcn ; Bcm ) ∈ Matm×n (R)
a matriz que representa T em relação às bases Bcn e Bcm . Tem-se então:
S ◦ T = IU e T ◦ S = IT (U ) ,
43
Teorema 47. Sejam U e V espaços lineares de dimensões finitas. Seja T : U → V uma
transformação linear. Seja 0 o vector nulo de U . As seguintes afirmações são equivalentes.
(i) T é injectiva.
(i) Existência de solução: o sistema T (u) = b tem pelo menos uma solução u se e só
se b ∈ T (U );
(ii) Unicidade de solução: o sistema T (u) = b tem no máximo uma solução u se e só
se T fôr injectiva;
44
Determinante
Definição 39. Seja (i1 i2 ...in ) uma permutação dos números naturais 1, 2, ..., n. Diz-
-se que um par (ij ik ) é uma inversão quando (j − k) (ij − ik ) < 0 (isto é, quando ij e ik
aparecerem na permutação por ordem decrescente).
Definição 40. Uma permutação (i1 i2 ...in ) diz-se par (ı́mpar) quando o no máximo de
inversões incluı́das fôr par (ı́mpar).
Exemplo 36. A permutação (21453) é ı́mpar pois contem as inversões (21), (43) e (53).
Em resumo:
1 X
|A| = (−1)σ ai1 j1 ai2 j2 ...ain jn ,
n!
(i1 i2 ...in ) e (j1 j2 ...jn )
permutações de 1,2,...,n
em que
0 se (i1 i2 ...in ) e (j1 j2 ...jn ) têm a mesma paridade
σ=
1 se (i1 i2 ...in ) e (j1 j2 ...jn ) têm paridade diferente.
(i) X
|A| = (−1)σ a1j1 a2j2 ...anjn ,
(j1 j2 ...jn )
permutação de 1,2,...,n
em que
0 se (j1 j2 ...jn ) é par
σ=
1 se (j1 j2 ...jn ) é ı́mpar.
7
O Determinante de uma matriz foi pela primeira vez considerado por Talakazu Seki 1642–1708
45
(ii) X
|A| = (−1)σ ai1 1 ai2 2 ...ain n ,
(i1 i2 ...in )
permutação de 1,2,...,n
em que
0 se (i1 i2 ...in ) é par
σ=
1 se (i1 i2 ...in ) é ı́mpar.
a11 a12 a13
|A| = a21 a22 a23 = a11 a22 a33 + a12 a23 a31 + a21 a32 a13 − a13 a22 a31 − a12 a21 a33 − a11 a23 a32 .
a31 a32 a33
(ii) Se A fôr uma matriz triangular superior ou triangular inferior então det A = produto
dos elementos da diagonal principal de A.
(iv) Se B fôr obtida de A multiplicando uma linha de A por um número real λ então
det B = λ det A.
(v) Se B fôr obtida de A somando a uma linha de A um múltiplo real λ de uma outra
linha de A então det B = det A.
46
(vi) Se duas linhas de A forem iguais então det A = 0.
Definição 42. Seja A = (aij ) ∈ Matn×n (R), com n > 1. Seja Aij a matriz do tipo
(n − 1) × (n − 1) que se obtem de A suprimindo a linha i e a coluna j de A. Chama-se a Aij
o menor-ij da matriz A.
Teorema 53. (Fórmula de Laplace8 .) Seja A ∈ Matn×n (R), com n > 1. Tem-se
n
X
det A = aij (−1)i+j det Aij .
j=1
Exemplo 38.
1 0 −2 3
1 −2 3 1 0 −2
2 1 −1 4
3+2
3+4
0 −1 = (−1)(−1) 2 −1 4 + (−2)(−1) 2 1 −1 =
0 −2
1 −2 −3
1 0 −2
1 0 −2 −3
= (−1)(−3) + (−2)4 + 2(−2)3 − (−1)3 − (−2)2(−3) − 4(−2) + 2 [(−2) − (−2)] = −18
Definição 43. Seja A = (aij ) ∈ Matn×n (R), com n > 1. Seja a0ij = (−1)i+j det Aij
onde Aij é o menor-ij da matriz A. Chama-se a a0ij o cofactor-ij da matriz A e à matriz
cof A = (a0ij ) ∈ Matn×n (R), com n > 1, a matriz dos cofactores de A.
Teorema 54. Para qualquer matriz A ∈ Matn×n (R), com n > 1, tem-se
47
a b
Exemplo 39. (i) Seja A = ∈ Mat2×2 (R) tal que det A 6= 0. Então A é
c d
invertı́vel e
−1 1 d −b
A = .
ad − bc −c a
(Veja por exemplo o exo 10 da ficha 2.) Note que ad − bc = det A.
(ii) Podemos usar o teorema 54 para calcular não só a inversa de uma matriz (não
singular) mas também entradas concretas dessa inversa. Seja
1 0 0
A = 4 5 6 .
7 8 9
A entrada (2, 3) da matriz A−1 é dada por
−1 1 T
1 3+2
1 1 0
(A )23 = (cof A) = (−1) det A32 = − det = 2.
det A 23 det A −3 4 6
Teorema 55. (Regra de Cramer9 .) Seja A ∈ Matn×n (R) tal que A é não singular.
Então a única solução do sistema de equações lineares AX = B é dada por
1
X = A−1 B = (cof A)T B.
det A
T T
Isto é, sendo X = x1 . . . xn e B = b1 . . . bn tem-se
n
1 X 0 det Bj
xj = akj bk = ,
det A k=1 det A
onde Bj é a matriz obtida de A substituindo a coluna j de A pela matriz coluna B dos
termos independentes.
Exemplo 40. O sistema de equações lineares
2x + y = 8
−x + 2y + 4z = 7
−x + z = 1
pode ser resolvido usando a regra de Cramer:
8 1 0 2 8 0 2 1 8
7 2 4 −1 7 4 −1 2 7
1 0 1 −1 1 1 −1 0 1
x= = 13, y= = −18 e z= = 14.
2 1 0 2 1 0 2 1 0
−1 2 4 −1 2 4 −1 2 4
−1 0 1 −1 0 1 −1 0 1
9
Gabriel Cramer 1704–1752
48
Valores Próprios e Vectores Próprios
Definição 44. Seja U espaço lineare e T : U → V uma transformação linear. Diz-se que
um escalar λ é um valor próprio de T se existir um vector não nulo u ∈ U tal que
T (u) = λu.
Aos vectores não nulos u que satisfazem a equação anterior chamam-se vectores próprios
associados ao valor próprio λ. Dado um valor próprio λ de T , o conjunto
Eλ = {u ∈ U : T (u) = λu}
Eλ = Nuc(T − λI).
(ii) Se o espaço linear V tiver dimensaõ finita e se A fôr a matriz que representa T em
relação a uma base de V , então um escalar λ é um valor próprio de T se e só se esse escalar
λ fôr solução da equação
det(A − λI) = 0.
det(A − λI),
Definição 46. Seja A ∈ Matn×n (R). Chama-se valor próprio de A a qualquer escalar
λ tal que A − λI seja singular, isto é, tal que det(A − λI) = 0. Chama-se vector próprio
de A, associado ao valor próprio λ de A, a qualquer vector não nulo v que verifique
(A − λI)v = 0.
Observação 39. Seja A ∈ Matn×n (R). O escalar 0 é valor próprio de A se e só se A fôr
singular. Isto é, a matriz A é invertı́vel se e só se 0 não fôr valor próprio de A.
B = SAS −1
49
Teorema 57. Sejam A, B ∈ Matn×n (R). Se A e B forem semelhantes então A e B têm
o mesmo polinómio caracterı́stico. Em particular, se A e B forem semelhantes então A e B
têm os mesmos valores próprios.
Dem. Tem-se
det(B − λI) = det(SAS −1 − λI) =
= det(SAS −1 − λSS −1 ) =
= det(S(A − λI)S −1 ) =
= det S det(A − λI) det S −1 =
1
= det S det(A − λI) =
det S
= det(A − λI).
50
Mas isso é equivalente a dizer que λk é um valor próprio de T e que uk é o respectivo vector
próprio.
Observação 40. Seja V um espaço linear tal que dim V = n e T : V → V uma
transformação linear. Seja A a matriz que representa T numa base.
(1) Seja p(λ) o polinómio caracterı́stico de A. Para cada raiz λ1 de p(λ), a sua multipli-
cidade enquanto raiz do polinómio chama-se mutliplicidade algébrica de λ1 e denota-se por
ma (λ1 ). Mais precisamente, λ0 tem tem multiplicidade algébrica m quando
p(λ) = (λ − λ1 )m q(λ)
e q(λ1 ) 6= 0.
(2) À dimensão de Nuc(A − λ1 I) chama-se multiplicidade geométrica e designa-se por
mg (λ1 ).
(3) A matriz A ∈ Matn×n é diagonalizável se e só se
X
dimNuc(A − λI) = dim(V ).
λ valores proprios
Ou seja, existe uma base de V na qual a representação matricial de T é uma matriz diagonal
sse
dim Eλ1 + · · · + dim Eλk = n,
onde λ1 , · · · , λk (k ≤ n) são os valores próprios de T .
Teorema 60. Seja A ∈ Matn×n (R) tal que A é simétrica, isto é, tal que A = AT . Então
A é diagonalizável.
Exemplo 41. Nos exemplos que se seguem as matrizes A consideradas poderão ser vistas
como matrizes que representam transformações lineares T relativamente à base canónica (ou
outras) de R3 , tendo-se nesse casos, para todo o u ∈ R3 ,
T (u) = Au.
Deste modo, os valores próprios e vectores próprios de T serão respectivamente os valores
próprios e vectores próprios de A.
(i) Uma matriz com valores próprios distintos.
1 5 −1
A = 0 −2 1
−4 0 3
O polinómio caracterı́stico é dado por
1−λ 5 −1
det(A − λI) = 0 −2 − λ 1 =
−4 0 3−λ
= (1 − λ) (−2 − λ) (3 − λ) − 20 + 4 (2 + λ) =
= (1 − λ) (−2 − λ) (3 − λ) + 4λ − 12 =
= (3 − λ) [(λ − 1) (λ + 2) − 4] =
= (3 − λ) λ2 + λ − 6 =
= (3 − λ) (λ − 2) (λ + 3) .
51
Os valores próprios de A são os valores de λ para os quais det(A − λI) = 0. Logo, os valores
próprios de A são
λ1 = 3, λ2 = 2 e λ3 = −3.
Os vectores próprios de A associados ao valor próprio λ são os vectores não nulos u ∈ R 3
para os quais
(A − λI) u = 0,
isto é, são os vectores não nulos de Nuc (A − λI).
Determinemos os vectores próprios de A associados ao valor próprio λ1 = 3. Tem-se
−2 5 −1
Nuc (A − λ1 I) = Nuc 0 −5 1 = L ({(0, 1, 5)}) .
−4 0 0
52
Atendendo a que os valores próprios de A são distintos, pelo teorema 58, os vectores
próprios de A associados a esses valores próprios são linearmente independentes. Como
dim R3 = 3, então 3 vectores em R3 linearmente independentes formarão desde logo uma
base de R3 . Logo, o conjunto
é uma base de R3 . Deste modo, temos uma base de R3 formada só por vectores próprios de
A. Logo, a matriz A é diagonalizável, isto é, existe uma matriz invertı́vel S diagonalizante
tal que a matriz SAS −1 é diagonal, tendo-se
λ1 0 0 3 0 0
D = SAS −1 = 0 λ2 0 = 0 2 0 ,
0 0 λ3 0 0 −3
com
0 1 3
S −1 = 1 1 −2 .
5 4 2
Note que cada coluna de S −1 é formada pelo vector próprio associado ao valor próprio
respectivo e na posição respectiva. Além disso, tem-se
M (T ;Bc3 ;Bc3 )
(R3 , Bc3 ) −→ (R3 , Bc3 )
T
SBc3 →S ↓ I I ↓ SBc3 →S
T
(R3 , S) −→ (R3 , S)
M (T ;S;S)
com
SBc3 →S = S, M (T ; S; S) = D e M (T ; Bc3 ; Bc3 ) = A.
(ii) Uma matriz com valores próprios repetidos mas diagonalizável.
2 1 1
A= 2 3 2
3 3 4
Os valores próprios de A são os valores de λ para os quais det(A − λI) = 0. Logo, os valores
próprios de A são
λ1 = 1 e λ2 = 7.
53
Os vectores próprios de A associados ao valor próprio λ são os vectores não nulos u ∈ R 3
para os quais
(A − λI) u = 0,
isto é, são os vectores não nulos de Nuc (A − λI).
Determinemos os vectores próprios de A associados ao valor próprio λ1 = 1. Tem-se
1 1 1
Nuc (A − λ1 I) = Nuc 2 2 2 = L ({(−1, 1, 0) , (−1, 0, 1)}) .
3 3 3
Atendendo a que
dim Eλ1 + dim Eλ2 = 3,
podemos ter a seguinte base de R3 formada só por vectores próprios de A
Logo, a matriz A é diagonalizável, isto é, existe uma matriz invertı́vel S diagonalizante tal
que a matriz SAS −1 é diagonal, tendo-se
λ1 0 0 1 0 0
−1
D = SAS = 0 λ1 0 = 0
1 0 ,
0 0 λ2 0 0 7
com
−1 −1 1
S −1 = 1 0 2 .
0 1 3
54
Note que cada coluna de S −1 é formada pelo vector próprio associado ao valor próprio
respectivo e na posição respectiva. Além disso, tem-se
M (T ;Bc3 ;Bc3 )
(R3 , Bc3 ) −→ (R3 , Bc3 )
T
SBc3 →S ↓ I I ↓ SBc3 →S
T
(R3 , S) −→ (R3 , S)
M (T ;S;S)
com
SBc3 →S = S, M (T ; S; S) = D e M (T ; Bc3 ; Bc3 ) = A.
(iii) Uma matriz com valores próprios repetidos e não diagonalizável.
7 5 −1
A = 0 −2 1
20 0 3
Os valores próprios de A são os valores de λ para os quais det(A − λI) = 0. Logo, os valores
próprios de A são
λ1 = 3 e λ2 = 2.
Os vectores próprios de A associados ao valor próprio λ são os vectores não nulos u ∈ R 3
para os quais
(A − λI) u = 0,
isto é, são os vectores não nulos de Nuc (A − λI).
Determinemos os vectores próprios de A associados ao valor próprio λ1 = 3. Tem-se
4 5 −1
Nuc (A − λ1 I) = Nuc 0 −5 1 = L ({(0, 1, 5)}) .
20 0 0
55
Determinemos os vectores próprios de A associados ao valor próprio λ2 = 2. Tem-se
5 5 −1
Nuc (A − λ2 I) = Nuc 0 −4 1 = L ({(1, −5, −20)}) .
20 0 1
Atendendo a que
dim Eλ1 + dim Eλ2 = 2 < 3,
não é possı́vel ter uma base de R3 formada só por vectores próprios de A. Logo, a matriz
A não é diagonalizável, isto é, não existe uma matriz invertı́vel S diagonalizante tal que a
matriz SAS −1 seja diagonal.
(iv) Uma matriz com apenas um valor próprio real.
1 0 0
A = 0 0 −1
0 1 0
Os valores próprios de A são os valores de λ para os quais det(A − λI) = 0. Logo, os valores
próprios de A são
λ1 = 1, λ2 = i e λ3 = −i.
Logo, a matriz A não é diagonalizável numa matriz de entradas reais, isto é, não existe
uma matriz invertı́vel S diagonalizante tal que a matriz SAS −1 seja diagonal com entradas
reais. No entanto e atendendo a que os três valores próprios são distintos, a matriz A é
diagonalizável numa matriz de entradas complexas:
1 0 0
0 i 0
0 0 −i
56
Sistemas de equações diferenciais
Como aplicação imediata dos resultados obtidos acima, vamos resolver uma certa classe de
sistemas de equações diferencias. Considere funções x1 (t), x( t), · · · , xn (t) diferenciáveis na
variável real t. O sistema da forma
a11 x1 (t) + a12 x2 (t) + ... + a1n xn (t) = x01 (t)
a21 x1 (t) + a22 x2 (t) + ... + a2n xn (t) = x02 (t)
(∗)
...
am1 x1 (t) + am2 x2 (t) + ... + amn xn (t) = x0m (t)
chama-se sistema linear de equações diferenciais de primeira ordem, em que aij e bk são
constantes, para i, k = 1, ..., m e j = 1, ..., n e x0i (t) denota a derivada de xi (t) (para cada
i = 1, · · · , n).
O sistema de equações diferenciais (*) pode escrever-se na forma matricial:
x0 (t) = Ax(t)
x1 (t) x01 (t)
x2 (t) x0 (t)
0 2
onde A = [aij ] ∈ Matn×n , x(t) = .. e x (t) = .. .
. .
0
xn (t) xn (t)
Se n = 1, então temos que, para cada constante c, a função x1 (t) = ceλt é solução da equação
diferencial x01 (t) = λx1 (t).
57
Produtos Internos
Definição 49. Sejam V um espaço linear real e 0 o vector nulo de V . Chama-se produto
interno em V à aplicação
h, i : V × V → R
(u, v) → hu, vi
que verifique as três condições seguintes.
hu, vi = hv, ui .
V →R
u → hu, vi
é linear.
(iii) Positividade: para todo o u ∈ V tal que u 6= 0,
hu, ui > 0.
Observação 42. Seja V um espaço euclidiano real. Seja S = {w1 , w2 , ..., wn } uma base
de V . Sejam u, v ∈ V . Sejam
α1 , α2 , ..., αn e β 1 , β 2 , ..., β n
Logo,
* n n
+ n X
n
X X X
hu, vi = α i wi , β i wi = αi β j hwi , wj i =
i=1 i=1 i=1 j=1
hw1 , w1 i hw1 , w2 i . . . hw1 , wn i β1
hw2 , w1 i hw2 , w2 i . . . hw2 , wn i
β2
= α1 α 2 . . . αn .. .. .. .. .
. . . .
hwn , w1 i hwn , w2 i . . . hwn , wn i βn
58
Isto é, existe uma matriz simétrica e definida positiva (todos os seus valores próprios são
positivos):
hw1 , w1 i hw1 , w2 i . . . hw1 , wn i β1
hw2 , w1 i hw2 , w2 i . . . hw2 , wn i β2
A= .. .. .. tal que hu, vi = α 1 α 2 . . . αn A .. .
. . . .
hwn , w1 i hwn , w2 i . . . hwn , wn i βn
Teorema 61. Seja V um espaço linear real com dim V = n. Seja {w1 , w2 , ..., wn } uma
base de V . Então, uma aplicação
h, i : V × V → R
h(α1 , α2 ) , (β 1 , β 2 )i = α1 β 1 + α2 β 2 ,
59
com (α1 , α2 ) , (β 1 , β 2 ) ∈ R2 . Esta aplicação não é um produto interno em R2 , uma vez que
β1
h(α1 , α2 ) , (β 1 , β 2 )i = −2α1 β 1 + 3α2 β 2 = α1 α2 A
β2
com
−2 0
A= .
0 3
A matriz A é simétrica, no entanto, os valores próprios de A: −2 e 3 não são ambos positivos.
h(α1 , α2 ) , (β 1 , β 2 )i = 2α1 β 1 + α1 β 2 + α2 β 1 + α2 β 2 ,
com (α1 , α2 ) , (β 1 , β 2 ) ∈ R2 .
É fácil ver que esta aplicação é simétrica e linear em relação a (α 1 , α2 ) (fixando (β 1 , β 2 )).
Vejamos por exemplo que a condição
é satisfeita.
Atendendo a que
tem-se
hv, ui
proju v = u.
kuk2
60
(iii) Diz-se que u e v são ortogonais se hu, vi = 0.
hu, vi
θ = arccos .
kuk kvk
π
Observação 43. O ângulo θ entre dois vectores não nulos u e v é 2
se e só se u e v são
ortogonais.
Dem.
se e só se
hu, vi = 0,
isto é, se e só se u e v forem ortogonais.
61
(i) Positividade: kuk > 0 se u 6= 0.
Observação 45. Pode definir-se norma num espaço linear V , sem estar associada a
qualquer produto interno, como sendo uma aplicação de V em R que satisfaz as propriedades
do teorema anterior. A um espaço linear com uma norma chama-se espaço normado.
se e só se
ku − vk2 + ku + vk2 = 2 kuk2 + 2 kvk2 .
Esta última equação é conhecida por lei do paralelogramo.
Exemplo 44. Uma norma que não é obtida a partir de um produto interno.
Seja kk : R2 → R a aplicação definida por
com (α1 , α2 ) ∈ R2 . É fácil verificar que esta aplicação satisfaz as três condições do teorema
63. Logo, é uma norma. No entanto, é também fácil verificar que esta norma não satisfaz
a lei do paralelogramo. Logo, esta norma não poderá ser obtida a partir de um produto
interno.
kuk = 1.
Teorema 65. Seja V um espaço euclidiano com dim V = n. Seja S = {u1 , ..., un } uma
base ortogonal de V . Então, as coordenadas de um vector v ∈ V em relação à base S são
dadas por:
62
hv, uj i
αj = ,
huj , uj i
com j = 1, ..., n. Se S fôr ortonormada então as coordenadas de um vector v ∈ V em relação
à base S são dadas por:
αj = hv, uj i ,
com j = 1, ..., n.
Teorema 66. Seja V um espaço euclidiano real com dim V = n. Seja S = {w1 , ..., wn }
uma base ortonormada de V . Então, para todos os u, v ∈ V ,
v
n u n
X uX
hu, vi = hu, wi i hv, wi i (fórmula de Parseval) e tem-se kuk = t hu, wi i2 .
i=1 i=1
Observação 48. Seja V um espaço euclidiano real com dim V = n. Seja S = {w1 , ..., wn }
uma base ortonormada de V . Sejam u, v ∈ V , com
u = α1 w1 + α2 w2 + ... + αn wn , v = β 1 w1 + β 2 w2 + ... + β n wn .
Então, atendendo ao teorema 65, a fórmula de Parseval é dada por:
v
n u n
X uX
hu, vi = αi β i = α1 β 1 + α2 β 2 + ... + αn β n e tem-se kuk = t α2 .i
i=1 i=1
{v1 , v2 , ..., vk } ⊂ V .
Sejam
u1 = v 1 ,
u2 = v2 − proju1 v2 ,
...
uk = vk − proju1 vk − ... − projuk−1 vk .
Então:
63
(ii) O conjunto {u1 , u2 , ..., uk } é uma base ortogonal de L({v1 , v2 , ..., vk }).
u1 u2 uk
(iii) O conjunto , , ..., é uma base ortonormada de L({v1 , v2 , ..., vk }).
ku1 k ku2 k kuk k
U = L({(1, 1, −1, −1), (1, 2, 3, 4), (2, 1, −6, −7), (1, 3, 7, 9)}).
Teorema 68. Qualquer espaço euclidiano de dimensão finita tem uma base ortonormada.
Teorema 69. Seja {v1 , v2 , ..., vn } uma base de Rn . Então, existe um único produto
interno em Rn para o qual esta base é ortonormada.
64
é um produto interno e é o único para o qual a base S é ortonormada. Tem-se então
h(α1 , α2 ) , (β 1 , β 2 )i = α1 β 1 − α1 β 2 − α2 β 1 + 2α2 β 2 .
Teorema 70. Seja A ∈ Matn×n (R) tal que A é simétrica, isto é, tal que A = AT .
Então A é diagonalizável relativamente a uma base ortonormada vp formada só por vectores
próprios de A. Seja S a matriz cujas colunas são os vectores da base vp e D a matriz diagonal
onde se coloca na entrada i da diagonal o valor próprio λi que corresponde à coluna i de S.
Então temos
D = S T AS,
e portanto S é ortogonal S −1 = S T
Exemplo 47. (i) Se S ⊂ R3 é um plano que passa pela origem, então S ⊥ é uma recta
que passa pela origem e é perpendicular ao plano.
(ii) Se S ⊂ R3 é uma recta que passa pela origem, então S ⊥ é um plano que passa pela
origem e é perpendicular à recta.
Nuc(A) = (L(A))⊥ .
v = vS + vS ⊥ , com vS ∈ S e vS ⊥ ∈ S ⊥ .
I = P S + PS ⊥ .
65
Se {v1 , v2 , ..., vn } é uma base ortonormada de S, então
n
X
PS (v) = hv, vi i vi ,
i=1
para todo o v ∈ V .
Se {u1 , u2 , ..., uk } é uma base ortonormada de S ⊥ , então
k
X
PS ⊥ (v) = hv, uj i uj ,
j=1
para todo o v ∈ V .
As aplicações PS e PS ⊥ são transformações lineares de V em V que satisfazem as propri-
edades:
(i) PS (V ) = S, PS ⊥ (V ) = S ⊥ ;
(iii) hPS (u) , vi = hu, PS (v)i, hPS ⊥ (u) , vi = hu, PS ⊥ (v)i, para todos os u, v ∈ V ;
(iv) kuk2 = kPS (u)k2 + kPS ⊥ (u)k2 , para todo o u ∈ V (Teorema de Pitágoras);
66
Observação 50. A distância entre dois k-planos paralelos P1 = {a} + S e P2 = {b} + S
é dada por:
d (P1 , P2 ) = kPS ⊥ (a − b)k .
(i) Seja P o plano (em R3 ) que passa pelos pontos: (1, 2, 1), (1, 0, −1) e (1, 1, 1). Tem-se
Equação vectorial de P:
com α, β ∈ R.
Equações paramétricas de P:
x=1+α+β
y =2+β
z =1−α+β
com α, β ∈ R.
Equação cartesiana de P:
x − 2y + z = −2.
e assim, a equação cartesiana do plano P que passa pelo ponto (1, 2, 1) é dada por:
⇔ (1 (x − 1) − 2 (y − 2) + 1 (z − 1) = 0) ,
ou seja por
x − 2y + z = −2.
67
(ii) Determinemos a equação cartesiana da recta que passa pelos pontos (1, 1, 0) e
(1, 2, 1). Tem-se
r = {(1, 1, 0)} + L ({(0, 1, 1)}) ,
uma vez que (0, 1, 1) = (1, 2, 1) − (1, 1, 0). Seja
S = L ({(0, 1, 1)}) .
Logo,
S ⊥ = (x, y, z) ∈ R3 : h(x, y, z), (0, 1, 1)i = 0 = Nuc 0 1 1 = L ({(1, 0, 0), (0, 1, −1)})
⇔ (1 (x − 1) = 0 e 1 (y − 1) − 1z = 0) ,
ou seja por
x=1
y − z = 1.
Formas Quadráticas
Definição 55. Sejam V um espaço euclidiano real e S = {u1 , ..., un } uma base ortonormada
de V . Seja A ∈ Matn×n (R). Chama-se forma quadrática associada a A à aplicação
Q : V → R definida por
Xn X n
Q(v) = aij αi αj ,
i=1 j=1
isto é,
α1
... αn A ...
Q(v) = α1
αn
onde α1 , ..., αn são as coordenadas de v na base S. Se A fôr uma matriz diagonal então
tem-se n
X
Q(v) = aii α2i
i=1
Observação 51. No exemplo que se segue pode ver-se que duas matrizes diferentes
podem estar associadas à mesma forma quadrática.
68
1 1 1 3
Exemplo 49. Sejam A = eA= . As formas quadráticas associadas
1 2 −1 2
a A e a B são dadas por
x x
QA (x, y) = x y A = x + y x + 2y = x2 + 2xy + 2y 2
y y
e
x x
QB (x, y) = x y B = x − y 3x + 2y = x2 + 2xy + 2y 2 .
y y
Logo, tem-se QA = QB .
Teorema 74. Seja A ∈ Matn×n (R). Seja QA a forma quadrática associada à matriz A.
Então, existe uma matriz simétrica B = 21 A + AT ∈ Matn×n (R) tal que QA = QB .
Tem-se
x
Q(x, y) = x y A ,
y
3 2
com A = . Os valores próprios de A são λ1 = 1 e λ2 = 5. A forma quadrática
2 3
diagonal correspondente é
0 0
0 0 x 0 0 1 0 x
x y D 0 = x y
y 0 5 y0
com
T x0 x
D = SAS e =S
y0 y
em que S T é a matriz diagonalizante obtida colocando na 1a coluna um vector próprio de
norma 1 associado ao valor próprio λ1 e na 2a coluna um vector próprio de norma 1 associado
ao valor próprio λ2 . Observe-se que a matriz S é ortogonal, isto é, tem-se S T = S −1 .
Tem-se então
T
x T x x x
Q(x, y) = x y A = x y S DS = S DS =
y y y y
0
0 0 x
= x y D .
y0
Definição 56. Diz-se que uma forma quadrática Q ou uma matriz simétrica que lhe
esteja associada, é:
69
(i) definida positiva se Q(v) > 0, para todo o v 6= 0;
(v) indefinida se existirem pontos onde Q seja positiva e pontos onde Q seja negativa.
(v) A é indefinida se e só se A tiver pelo menos um valor próprio positivo e outro
negativo.
Agradecimento.
Agradecimentos ao Prof. Nuno Martins por ter cedido os seus apontamentos teóricos em tex
70