Álgebra Linear

Índice
Lógica e Demonstração 3
1 Demonstração Directa 3
2 Recíproco e Contrapositivo 3
3 Demonstração Indirecta ou por Redução ao Absurdo 4
4 Demonstração por Indução Matemática 5
Matrizes e Determinantes 7
5 Nota Histórica 7
6 Teoria das Matrizes 15
6.1 Definições e Generalidades . . . . . . . . . . . . . . . . . . . . . . 15
6.2 Álgebra Matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
6.2.1 Soma de matrizes. . . . . . . . . . . . . . . . . . . . . . . 18
6.2.2 Multiplicação de uma matriz por um escalar. . . . . . . . 20
6.2.3 Multiplicação de matrizes. . . . . . . . . . . . . . . . . . . 22
6.2.4 Multiplicação por blocos. . . . . . . . . . . . . . . . . . . 27
6.3 Transposição de matrizes. Matrizes Simétricas. . . . . . . . . . . 30
6.4 Traço de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . . 33
6.5 Dependência e independência lineares de filas paralelas de uma
matriz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
6.6 Característica de uma matriz. Operações elementares. . . . . . . 41
6.6.1 Operações Elementares . . . . . . . . . . . . . . . . . . . 42
6.6.2 Determinação da Característica de Linha de uma Matriz . 51
6.7 Inversão de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . 56
6.7.1 Definições e Resultados . . . . . . . . . . . . . . . . . . . 56
6.7.2 Determinação da Inversa de uma Matriz Regular . . . . . 66
6.8 A Característica Revisitada . . . . . . . . . . . . . . . . . . . . . 70
6.9 Resolução de Sistemas de Equações Lineares . . . . . . . . . . . . 74
6.9.1 Enquadramento Teórico . . . . . . . . . . . . . . . . . . . 74
6.9.2 Sistemas de Equações Lineares Indeterminados . . . . . . 87
6.9.3 Algoritmo de Gauss-Jordan . . . . . . . . . . . . . . . . . 97
6.10 Matrizes com propriedades especiais . . . . . . . . . . . . . . . . 98
2
2 Recíproco e Contrapositivo
Lógica e Demonstração
Resumem-se, neste capítulo, os três métodos de demonstração matemática ex-
istentes, e cuja aplicação será assídua ao longo de todo o texto.
1 Demonstração Directa
O modo directo de demonstrar a proposição A ⇒ B consiste em determnar
uma sequência de teoremas e/ou axiomas aceites na forma A
i
⇒ A
i+1
, para
i = 1, · · · , n de modo a que A
1
⇒A e A
n
⇒B. A dificuladade está, obviamente,
em encontrar a sequência de axiomas e/ou teoremas que preenchem o vazio entre
A e B. A afirmação A designa-se por hipótese, ou seja, aquilo que é dado e a
afirmação B designa-se por tese, isto é, a conclusão. O método assim descrito
denomina-se raciocínio dedutivo.
Consideremos o seguinte Teorema ilustrativo:
Teorema 1 Seja m um inteiro par e p um inteiro qualquer. Então m×p é um
inteiro par.
Demonstração.
1. m é um inteiro par (Dado, por hipótese).
2. existe um inteiro q tal que m = 2 × q (Definição de um número inteiro
par).
3. m×p = (2q) p (Utilizando o axioma a = b ⇒ac = bc).
4. m×p = 2 (qp) (Pela propriedade associativa da multiplicação).
5. m×p é um inteiro (Pela definição de um número inteiro par).
2 Recíproco e Contrapositivo
Definição 1 Considere-se a proposição Π da forma A ⇒ B : se a hipótese A
se verifica então a tese, B, também se verifica. O recíproco da proposição Π é
a proposição B ⇒A.
3
3 Demonstração Indirecta ou por Redução ao Absurdo
O recíproco de uma proposição Π consiste em inverter os papéis da hipótese
e da tese de Π. Há muitas situações em que o recíproco e uma proposição ver-
dadeira não é verdadeiro. Por exemplo, a proposição a = b ⇒ac = bc, ∀
a,b,c∈R
é
sempre verdadeira, mas ac = bc ⇒ a = b não é verdadeira para quaisquer
a, b, c ∈ R; basta, evidentemente, que c = 0. Outras situações há, no entanto,
em que uma proposição e o seu recíproco são ambas verdadeiras.
Definição 2 Se a proposição A ⇒ B e o seu recíproco, B ⇒ A, são ambos
verdadeiros diz-se que A se verifica se e só se B se verifica. Alternativamente,
diz-se que A e B são equivalentes e escreve-se A ⇐⇒B.
Existe uma proposição, formada a partir de qualquer proposição Π, que é
verdadeira sempre que Π é verdadeira: o contrapositivo de Π.
Definição 3 Considere-se uma proposição Π : A =⇒B. A proposição ∼ B =⇒∼
A designa-se por contrapositivo de Π.
Exemplo 1 Considere-se a seguinte proposição:
(A) n é um número primo diferente de 2.=⇒(B) n é um inteiro ímpar.
O contrapositivo desta proposição será dado por:
(∼ B) n é um inteiro par.=⇒(A) n não é um número primo ou n = 2.
3 Demonstração Indirecta ou por Redução ao
Absurdo
Consideremos o seguinte resultado:
Proposição 1 A proposição A =⇒B é verdadeira se e só se o seu contraposi-
tivo é verdadeiro.
Demonstração. Com recurso a uma tabela de verdade é extremamente
simples provar que (A =⇒B) ⇐⇒(∼ B =⇒∼ A):
A B A =⇒B ∼ B ∼ A ∼ B =⇒∼ A
V V V V V V
F V V F V V
V F F V F F
F F V F F V
Note-se as colunas relativas a (A =⇒B) e (∼ B =⇒∼ A) o que completa a
demonstração.
4
4 Demonstração por Indução Matemática
Assim, uma forma de mostrar a validade de uma proposição A =⇒ B é
mostrar a validade do seu contrapositivo ∼ B =⇒∼ A. Esta linha de raciocínio
designa-se por demonstração indirecta ou demonstração por redução ao absurdo.
Com efeito, se, partindo de ∼ B, provarmos directamente que ∼ A é verdadeira,
o absurdo reside no facto de, originalmente, assumirmos que a afirmação A é
verdadeira.
Conideremos o seguinte Teorema ilustrativo.
Teorema 2 Se p é um número natural e p
2
é par, então p é par.
Demonstração. Pretende-se mostrar
¡
p
2
é par
¢
⇒ (p é par), para qual-
quer p ∈ N.
Suponhamos então que existe um natural p tal que p é ímpar. Então ∃
q∈N
:
p = 2q +1. Assim, p
2
= (2q + 1)
2
. Desenvolvendo, virá (2q + 1)
2
= 4q
2
+4q +1,
isto é, p
2
= 4
¡
q
2
+q
¢
+ 1. Mas então p
2
é um número ímpar, o que é absurdo,
pois a hipótese original era a de que p
2
era par. O absurdo vem de se assumir
que p é par, logo p terá de ser ímpar.
4 Demonstração por Indução Matemática
Existe um terceiro método de demonstração que difere significativamente do
método por demonstração directa e do método de transformação por indução:
a demonstração por indução matemática.
As demonstrações por indução têm a limitação de só poderem ser aplicadas a
afirmações envolvendo os números inteiros ou, indexadas aos números inteiros.
Consideremos então uma sequência de afirmações indexadas aos números in-
teiros, de modo que Π(1) é a primeira afirmação, Π(2) é a segunda afirmação
e Π(n) é a n − ´ esima afirmação. Suponhamos que é possível demonstrar dois
factos àcerca desta sequência:
(i) A afirmação Π(1) é verdadeira.
(ii) Se, para algum k ∈ N, a afirmação Π(k) é verdadeira então a afirmação
Π(k + 1) também é verdadeira.
Nestas circunstâncias a afirmação Π(n) é verdadeira para qualquer n ∈ N.
Conideremos o seguinte Teorema ilustrativo.
Teorema 3 A soma dos primeiros n números naturais, 1 +2 +· · · +n, é igual
a
1
2
n(n + 1).
5
4 Demonstração por Indução Matemática
Demonstração. Procedamos à demonstração por Indução Matemática,
sabendo que a afirmação a demonstrar é dada por:
Π(n) = 1 + 2 + · · · +n =
1
2
n(n + 1)
(i) Consideremos n = 1. Neste caso, a soma dos primeiros naturais será 1,
que é precisamente igual a
1
2
× 1 × (1 + 1).
(ii) Suponhamos que a afirmação é válida para qualquer k ∈ N. Mostemos
que então deverá ser válida para k+1. Assumindo que Π(k) é verdadeira,
sabemos que:
Π(k) = 1 + 2 + · · · +k =
1
2
k (k + 1)
Queremos mostrar que:
Π(k + 1) = 1 + 2 + · · · + (k + 1) =
1
2
(k + 1) (k + 2)
Mas,
Π(k + 1) = (1 + 2 + · · · +k)
| {z }
Π(k)
+ (k + 1) =
=
1
2
k (k + 1) + (k + 1) =
=
µ
1
2
k + 1

(k + 1) =
=
µ
k + 2
2

(k + 1) =
=
1
2
(k + 2) (k + 1)
Logo, Π(n) é válida para qualquer n ∈ N.
6
5 Nota Histórica
Matrizes e Determinantes
5 Nota Histórica
Historicamente, os primeiros esboços de matrizes e determinantes remontam ao
segundo século a. C. embora existam traços da sua existência em épocas tão
distantes quanto o séc. IV a. C. No entanto, não foi senão nos finais do séc.
XVII da nossa era que as ideias reapareceram e o seu desenvolvimento floresceu.
Não é surpreendente que os primórdios das matrizes e determinantes ten-
ham surgido através do estudo de sistemas de equações lineares. Os Babilónios
estudaram problemas que levaram à resolução simultânea de equações lineares.
Alguns destes problemas sobreviveram até hoje preservados em placas de argila.
Por exemplo, uma placa datada de cerca de 300 a. C. contém o seguinte prob-
lema:
Existem dois campos com uma área total de 1800 m
2
. Um produz
grão à taxa de
2
3
de alqueire por m
2
enquanto o outro produz grão à
taxa de
1
2
de alqueire por m
2
. Se a colheita total é de 1100 alqueires
qual é a área de cada campo.
Este problema conduz, modernamente, à resolução do sistema de equações
(1) ilustrado em seguida:
½
x +y = 1800
2
3
x +
1
2
y = 1100
(1)
Os Chineses, no período entre 200 a. C. e 100 a. C., chegaram mais próximo
da noção de matriz que os Babilónios. Efectivamente, é justo referir que o
texto chinês ”Nove Capítulos da Arte Matemática” escrito durante o período da
dinastia Han (206 a. C.-220 d. C.) ilustra os primeiros exemplos conhecidos de
métodos matriciais, descrevendo principalmente um conjunto de problemas com
regras gerais para a sua solução. Estes problemas têm um carácter aritmético e
conduzem a equações algébricas com coeficientes numéricos. A título ilustrativo
considere-se um desses problemas:
Existem três tipos de milho. Três molhos do primeiro tipo, dois do
segundo e um do terceiro completam 39 medidas. Dois molhos do
primeiro tipo, três do segundo e um do terceiro prefazem 34 medi-
das. Finalmente, um molho do primeiro tipo, dois do segundo e três
do terceiro prefazem 26 medidas. Quantas medidas de milho estão
contidas num molho de cada tipo?
Modernamente, o sistema de equações lineares (2) permite resolver o prob-
lema em aberto.
7
5 Nota Histórica
_
_
_
3x + 2y +z = 39
2x + 3y +z = 34
x + 2y + 3z = 26
(2)
O autor do texto propôs um método de resolução notável: os coeficientes
das três equações a três incógnitas que compõem o sistema são dispostos como
uma tabela num ”quadro de contagem”:
1 2 3
2 3 2
3 1 1
26 34 39
Os métodos modernos dos finais do séc. XX levariam a dispor os coefi-
cientes das equações lineares em linhas, em vez de colunas, mas intrinsecamente
o método é idêntico.
Seguidamente, o autor, escrevendo em 200 a. C. instrui o leitor a multiplicar
a coluna central por 3 e subtrair a coluna da direita, tantas vezes quanto possível;
de modo semelhante, subtrai-se a coluna da direita, tantas vezes quanto possível,
da primeira coluna multiplicada por 3. Destas operações ,resulta o quadro:
0 0 3
4 5 2
8 1 1
39 24 39
Seguidamente, a coluna da esquerda é multiplicada 5 vezes e a coluna central
subtraída tantas vezes quanto possível, resultando no quadro:
0 0 3
0 5 2
36 1 1
99 24 39
Desta tabela é possível determinar, em primeiro lugar, a solução relativa-
mente ao terceiro tipo de milho, seguida do segundo e finalmente do primeiro
tipo. Este método é hoje em dia conhecido como o Método de Eliminação de
Gauss, discutido no âmbito da resolução de sistemas de equações lineares, tema
abordado na secção 6.9, que só virá a ser bem compreendido no início do séc.
XIX.
O matemático italiano Cardan, na sua obra ”Ars Magna”(1545), fornece
uma regra para resolver sistemas de 2 equações lineares, a que dá o nome de
regula de modo. Esta regra é, substantivamente, o que modernamente se designa
por Regra de Cramer para a resolução de sistemas de 2 equações lineares a 2
incógnitas, embora Cardan não tenha dado o passo decisivo e final na definição
8
5 Nota Histórica
da regra. Assim, Cardan não chega até á definição de determinante, mas, numa
perpectiva actual é possível concluir que o seu método leva efectivamente à
definição de determinante.
Muitos dos resultados associados à Teoria Elementar das Matrizes aparece-
ram antes das Matrizes serem objecto de investigação matemática. Por exemplo,
de Witt, na sua obra ”Elementos das Curvas”, publicado como parte dos co-
mentários à edição latina de 1660 da ”Geometria” de Descartes, mostra como
uma transformação dos eixos ordenados reduz a equação de uma cónica à forma
canónica. O processo consiste, modernamente, na diagonalização de uma matriz
simétrica, mas de Witt nunca raciocinou nestes termos.
A ideia de um conceito de determinante surge mais ou menos simultanea-
mente na Europa e no Japão no último quartel do séc. XVII, embora Seki, no
Japão, tenha publicado em primeiro lugar. Em 1683, Seki escreve o ”Método
para Resolver Problemas Dissimulados”, que contém métodos matriciais de-
scritos em tabelas, de forma em tudo idêntica à descrita nos métodos chineses,
acima abordados. Embora sem conter nenhuma palavra que corresponda ao
conceito ”determinante”, Seki mesmo assim introduz a noção e fornece méto-
dos gerais que permitem o seu cálculo, basados em exemplos. Utilizando os seus
”determinantes”, Seki conseguiu calcular determinantes de ordem 2, 3, 4 e 5
e aplicou-os à resolução, não de sistemas de equações lineares, mas de equaçõe
lineares.
De modo extraordinário, o primeiro aparecimento de um determinante na
Europa, ocorreu no exacto ano de 1683. Nesse ano, Leibniz escreveu a de
l’Hôpital explicando-lhe que o sistema de equações dado por:
_
_
_
10 + 11x + 12y = 0
20 + 21x + 22y = 0
30 + 31x + 32y = 0
... tinha solução porque
10×21×32+11×22×30+12×20×31=10×22×31+11×20×32+12×21×30
Esta igualdade é precisamente a condição que determina que a solvabilidade
de um sistema de equações requer que o determinante da matriz dos coeficientes
seja nulo. note-se que Leibniz não utiliza coeficientes numéricos mas dois sím-
bolos, em que o primeiro indica a equação em que ocorre e o segundo a que letra
pertence. Assim, ”21” denota o que modernamente escreveríamos como a
21
.
Leibniz estava convencido que a notação matemática era a chave para o pro-
gresso, tendo experimentado com várias notações para o sistema de coefcientes.
Os seus manuscritos não publicados contêm mais de cinquenta formas de repre-
sentar sistemas de coeficientes, sobre as quais trabalhou por um período de 50
9
5 Nota Histórica
anos, com início em 1678. Apenas duas publicações, em 1700 e 1710, contêm
resultados sobre sistemas de coeficientes, cuja notação é a mesma da utilizada
na carta a de l’Hôpital acima mencionada.
Leibniz utilizou o termo ”resultante” para certas somas combinatórias de
termos de um determinante. Demonstrou vários resultados sobre ”resultantes”,
incluindo o que é actualmente conhecido como a Regra de Cramer. Leibniz tam-
bém sabia que um determinante podia ser desenvolvido utilizando uma qualquer
coluna do sistema de coeficientes, no que é conhecido actualmente como o De-
senvolvimento de Laplace. Assim como o estudo de sistemas de coeficientes
de equações lineares levaram Leibniz na rota dos determinantes, o estudo de
sistemas de coeficientes de formas quadráticas resultou naturalmente num de-
senvolvimento no sentido de uma Teoria das Matrizes.
Na década de 1730 McLaurin escreveu o seu ”Tratado de Álgebra”, embora
não tenha sido publicado até 1748, dois anos após a sua morte. A obre contém
os primeiros resultados sobre determinantes, demonstrando a Regra de Cramer
para matrizes de ordem 2 e 3 e indicando como se deveria proceder para matrizes
de ordem 4.
Cramer forneceu a regra geral, que hoje aporta o seu nome, para a resolução
de sistemas de n equações a n incógnitas no artigo ”Introdução à Análise de
Curvas Algébricas”, publicado em 1750. O artigo foi motivado pelo desejo de
determinar a equação de uma curva plana que passasse por um certo número de
pontos. A regra propriamente dita surge como apêndice ao artigo, mas não é
fornecida qualquer demonstração. O seu enunciado, segundo o próprio Cramer,
é como se segue:
O valor de cada incógnita é determinado por um conjunto de n quo-
cientes, cujo denominador comum é composto de tantas parcelas
quantas as permutações de n ”coisas”.
Cramer prossegue, explicando precisamente como estas parcelas são calcu-
ladas, assim como os respectivos sinais (”+” ou ”-”). São efectivamente produ-
tos de certos coeficientes das equações. Refere ainda que os n numradores das
fracções podem ser determinados substituindo certos coeficientes neste cálculo
por termos constantes do sistema de equações.
O trabalho sobre determinantes começava agora a emergir com certa reg-
ularidade. Em 1764, Bézout forneceu métodos para calcular determinantes,
assim como Vandermonde em 1771. Em 1772, Laplace afirmou que os méto-
dos introduzidos por Cramer e Bézout eram impraticáveis. Num artigo onde
estuda as órbitas dos planetas interiores, Laplace discute a solução de sistemas
de equações lineares sem efectivamente os calcular, utilizando determinantes.
Surpreendentemente, Laplace utilizou o termo ”resultante” para referir o que
modernamente se designa por determinante; surpreendente, uma vez que é o
mesmo termo utilizado por Leibniz embora não consta que Laplace tivesse es-
tado a par do trabalho de Leibniz. Laplace propôs ainda o desenvolvimento de
um determinante, método que aporta hoje em dia o seu nome.
10
5 Nota Histórica
Num artigo de 1773, Lagrange estudou identidades para determinantes fun-
cionais de ordem 3. No entanto, este comentário é feito a posteriori, uma vez
que Lagrange não via nenhuma relação entre o seu trabalho e o de Vandermonde
e Laplace. Este artigo de 1773, sobre Mecânica, contém pela primeira vez o que
hoje é a interpretação volumétrica de um determinante. Efectivamente, La-
grange demonstrou que o tetraedro formado pelos pontos O(0, 0, 0), M (x, y, z),
M
0
(x
0
, y
0
, z
0
) e M
00
(x
00
, y
00
, z
00
) tem volume dado por
1
6
[z (x
0
y
00
−y
0
x
00
) +z
0
(yx
00
−xy
00
) +z
00
(xy
0
−yx
0
)]
que é precisamente igual a
1
6
do determinante da matriz
_
_
x x
0
x
00
y y
0
y
00
z z
0
z
00
_
_
O termo ”determinante” foi inicialmente introduzido por Gauss em ”Disqui-
sitiones Arithmeticae” de 1801, no decurso da discussão sobre formas quadráti-
cas. Gauss utilizou este termo porque o determinante determina as propiedades
de uma forma quadrática. No entanto, o conceito não é o mesmo que o con-
ceito moderno de determinante. Na mesma obra, Gauss dispõe os coeficientes
das suas formas quadráticas em tabelas rectangulares. Gauss descreve a mul-
tiplicação de matrizes, mas em termos de uma composição, pelo que ainda não
vislumbrava o conceito de uma Ágebra Matricial. Descreve ainda a inversão de
matrizes no contexto particular de matrizes de coeficientes relativas a formas
quadráticas.
O Método de Eliminação de Gauss, cuja aparição remonta ao texto ”Nove
Capítulos da Arte Matemática” em 200 a. C., foi utilizado por Gauss no seu
trabalho envolvendo o estudo da órbita do asteróide Pallas. Utilizando obser-
vações de Pallas feitas entre 1803 e 1809, Gauss obteve um sistema de 6 equações
lineares a 6 incógnitas. Gauss propôs um método sistemático para a resolução
de tais equações, precisamente o Método de Eliminação de Gauss sobre a matriz
dos coeficientes.
Foi Cauchy, em 1812, que usou o termo ”determinante” no seu sentido ac-
tual. O trabalho de Cauchy é o mais completo de entre os primeiros trabalhos
sobre determinantes. Reprovou os primeiros resultados e forneceu novos resul-
tados por si descobertos sobre menores complementares e matrizes adjuntas.
No seu artigo de 1812, apresentado numa conferência no Institut de France,
o teorema da multiplicação de determinantes é demonstrado pela primeira vez
embora na mesma conferência, Binet tenha apresentado um artigo contendo
uma demonstração do mesmo teorema mas menos satisfatória que a prova de
Cauchy.
Em 1826 e no contexto das formas quadráticas em n variáveis, Cauchy uti-
lizou o termo ”tableau” para a matriz de coeficientes. Descobriu os seus valores
11
5 Nota Histórica
próprios e forneceu resultados sobre a diagonalização de uma matriz, no pro-
cesso que envolvia a transformação de uma forma quadrática numa soma de
quadrados. Cauchy introduz ainda a ideia de matrizes semelhantes, mas não
o termo, e mostrou que se duas matrizes são semelhantes então têm a mesma
equação característica. Ainda no contexto das formas quadráticas, mostrou que
qualquer matriz real simétrica é diagonalizável.
Jacques Sturm forneceu uma generalização do problema dos valores próprios
no ocontexto da resolução de sistemas de equações diferenciais ordinárias. Com
efeito, o conceito de valor próprio surgiu 80 anos antes, de novo em trabalhos
sobre sistemas de equações diferenciais realizados por d’Alembert. Na altura,
d’Alembert estudava o movimento de uma corda com massas associadas em
vários pontos do seu comprimento.
Deve ser notado que nem Cauchy nem Jacques Sturm se aperceberam do
alcance e generalidade das ideias que introduziram, considerando-as apenas no
contexto específico das suas áreas de investigação. Jacobi, na década de 1830
e posteriormente Kronecker e Weierstarss nas décadas de 1850 e 1860, respec-
tivamente, também desenvolveram resultados sobre matrizes mas, de novo, no
contexto específico das transformações lineares. Jacobi publicou três tratados
sobre determinantes em 1841. Estes foram importantes na medida em que a
definição de determinante é introduzida de forma algorítmica. Para além disso,
Jacobi não especifica quais os termos dos determinantes, pelo que os resultados
se aplicam tão bem a casos onde os termos são números ou funções. Estes três
artigo de Jacobi tornaram a idieia de determinante largamente conhecida
Cayley, também escrevendo em 1841, publicou a primeira contribuição in-
glesa para a Teoria dos Determinantes. No seu artigo, utilizou duas linhas
verticais limitando uma matriz, para denotar o seu determinante, notação esta
que permaneceu até aos nossos dias.
Eisenstein, em 1844, denotou substituições lineares por uma letra única e
mostrou como adiconá-las e multiplicá-las como vulgares números, excepto no
que respeita à sua comutatividade. É justo referir que Eisenstein foi o primeiro
a pensar que as substituições lineares poderiam formar uma álgebra, como se
pode induzir de um seu artigo publicado em 1844:
Um algoritmo para o seu cálculo pode ser baseado na aplicação das
regras normais para as operações soma, multiplicação, divisão e ex-
ponenciação a equações simbólicas entre sistemas lineares. Obtêm-se
deste modo equações simbólicas correctas, apenas ressalvando que a
ordem dos factores não pode ser alterada.
O primeiro a uilizar o termo ”matriz” foi Sylvester em 1850. Sylvester
definiu uma matriz como sendo um arranjo rectangular de termos no qual se
podiam definir vários determinantes sobre arranjos de termos contidos no ar-
ranjo global. Após ter deixado a América de regresso a Inglaterra em 1851,
Sylvester tornou-se advogado e conheceu Cayley, também advogada e que par-
tilhava com o primeiro o mesmo interesse pela Matemática. Cayley reconheceu
12
5 Nota Histórica
imediatamente o significado do conceito e matriz e, em 1853 publicaria uma
nota, mencionando, pela primeira vez, o conceito de inversa de uma matriz.
Em 1858, Cayley publicou o seu ”Memorando sobre a Teoria das Matrizes”,
o qual constitu um texto notável por conter a primeira definição abstracta de
matriz. Cayley mostra que os arranjos de coeficientes anteriormente estudados
relativos a formas quadráticase transformações lineares são casos especiais de
um conceito mais geral, o conceito de matriz. Cayley propõe uma Álegbra
Matricial onde define a adição, multiplicação, multiplicação por um escalar e
inversão. Adicionalmente, propõe uma construção explícita para a forma da
inversa de uma matriz em termos do seu determinante. Mais ainda, Cayley
mostra que, no caso das matrizes de ordem 2, qualquer matriz satisfaz a sua
equação característica. Refere que verificou o resultado para matrizes de ordem
3, propondo uma demonstração mas:
[...] não me parece necessário empreender numa demonstração for-
mal para o caso geral de matrizes de qualquer ordem [...]
O importante resultado de que uma matriz satisfaz a sua equação caracterís-
tica tem a designação especial de Teorema de Cayley-Hamilton. Qual então o
pael de Hamilton? Efectivamente, Hamilton demonstrou o caso especial para
matrizes de ordem 4, no decurso das suas investigações sobre quaterniões.
Em 1870 surgiu a Forma Canónica de Jordan no ”Tratado sobre Substituições
e Equações Algébricas”, escrito por Jordan. O conceito surge no contexto de
uma forma canónica para substituições lineares sobre o corpo finito de ordem
primo.
Frobenius, em 1878 escreveu um importante texto sobre matrizes, ”Sobre
Substituições Lineares e Formas Bilineares”, embora não pareça ao corrente do
trabalho de Cayley. Neste artigo, Frobenius trata dos coeficientes de formas e
não utiliza o termo ”matriz”. No entanto, demonstra resultados importantes
sobre matrizes canónicas como representantes de classes de equivalência de ma-
trizes. Cita Kronecker e Weierstrass como tendo considerado casos especiais
dos seus resultados em 1874 e 1868, respectivamente. Frobenius também demon-
strou o resultado geral de que uma matriz satisfaz a sua equação característica.
Este artigo de Frobenius de 1878 também encerra a definição de característica
de uma matriz, a qual foi utilizada nas suas investigações em formas canónicas
e na definição de matrizes ortogonais.
A nulidade de uma matriz quadrada foi definida por Sylvester em 1884.
Sylvester definiu a nulidade da matriz A, denotada por n(A), como sendo o
maior i tal que todo o menor complementar de A de ordem n − i + 1 é nulo.
Sylvester estava interessado em invariantes de matrizes, isto é, propriedades que
não são alteradas por certas transformações. Sylvester demonstrou que:
m´ ax{n(A), n(B)} ≤ n(AB) ≤ n(A) +n(B)
Em 1896, Frobenius tomou conhecimento do texto ”Memorando sobre a Teo-
ria das Matrizes” escrito em 1858 por Cayley, adoptando desde então o termo
13
5 Nota Histórica
”matriz”. Embora Cayley tenha apenas demonstrado o Teorema de Cayley-
Hamilton para matrizes de ordem 2 e 3, Frobenius atribui generosamente o re-
sultado a Cayley, mau grado ter sido aquele o primeiro a demonstrar o teorema
no caso geral.
Uma definição axiomática de determinante foi utilizada por Weierstrass nas
suas lições e, após a sua morte, foi publicada em 1903 na nota ”Sobre a Teo-
ria dos Determinantes”. No mesmo ano, as lições de Kronecker sobre deter-
minantes também foram publicadas, de novo, postumamente. Com estas duas
publicações, a moderna Teoria dos Determinantes tomou vida própria mas levou
um pouco mais de tempo a que a Teoria das Matrizes no seu todo se estabele-
cesse como uma teoria totalmente aceite. Um importante texto, que deu às
matrizes o devido espaço dentro da Matemática foi a ”Introdução à Álgebra
Superior” de Bôcher, publicado em 1907. Turnbull e Aitken escreveram textos
influentes nos anos 30 do séc. XX. O texto ”Uma Introdução à Álgebra Linear”
de 1955 escrito por Mirsky deu à Teoria das Matrizes o impulso necessário para
se manter até hoje como um dos mais importantes temas das licenciaturas em
Matemática.
14
6 Teoria das Matrizes
6 Teoria das Matrizes
6.1 Definições e Generalidades
Definição 4 (Matriz) Sejam K um corpo e m e n números inteiros positivos;
designa-se por matriz sobre K (cujos elementos se designam por escalares) a
todo o quadro de elementos de K dispostos em m linhas e n colunas.
Nota 1 K, em particular, pode ser o conjunto dos números reais, R. Neste
caso, as matrizes dizem-se reais.
Para designar genericamente uma matriz utilizam-se as seguintes notações:
A =
_
¸
¸
¸
_
a
11
a
12
· · · a
1,n−1
a
1n
a
21
a
22
· · · a
2,n−1
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
· · · a
m,n−1
a
mn
_
¸
¸
¸
_
= [a
ij
] ,
_
_
_
a
ij
∈ K
i = 1, ..., m
j = 1, ..., n
(3)
Nestas notações, o primeiro índice (i) do elemento genérico a
ij
indica a
linha e o segundo (j) a coluna em que se encontra o elemento de K. Por
exemplo, a
23
é o elemento da matriz que se encontra na linha 2 e na coluna
3. A matriz denotada acima mostra que, em geral, é costume designar-se uma
matriz por uma letra maiúscula (quando não houver necessidade de especificar
os seus elementos) e os elementos pela correspondente letra minúscula afectada
pelos índices convenientes. Em algumas circunstâncias é por vezes conveniente
representar o elemento (i, j) por (A)
ij
.
Definição 5 Designa-se por M
m×n
(K) o conjunto de todas as matrizes do tipo
m×n (e lê-se ”éme-por-éne”) sobre o corpo K.
As matrizes do conjunto M
m×n
(K) podem ser classificadas quanto à forma
em matrizes rectangulares ou matrizes quadradas. Relativamente às matrizes
rectangulares destacam-se alguns tipos como ilustrado na Tab. 1.
Relativamente às matrizes quadradas, estas constituem um importante caso
particular que se caracteriza pelo número de linhas (m) ser igual ao número de
colunas (n). No caso das matrizes quadradas do tipo n ×n , a sua dimensão é
definida como ordem, designando-se a matriz como matriz de ordem n. Dentro
desta sub-classe de matrizes destacam-se alguns tipos como ilustrado na Tab.
2.
Definição 6 (Matriz quadrada) Designa-se por matriz quadrada de ordem
n a uma matriz A do tipo n ×n. O conjunto das matrizes quadradas de ordem
n sobre um corpo K designa-se por M
n
(K).
15
6 Teoria das Matrizes
Matrizes Rectangulares (m 6= n)
Designação Forma Geral
Matriz Linha
ou
Vector Linha
(m = 1)
£
a
11
a
12
· · · a
1n
¤
Matriz Coluna
ou
Vector Coluna
(n = 1)
_
¸
¸
¸
_
a
11
a
21
.
.
.
a
m1
_
¸
¸
¸
_
ou
{a
11
, a
21
, · · · , a
m1
}
Tabela 1: Principais tipos de Matrizes Rectangulares
Matrizes Quadradas (m = n)
Designação Forma Geral
Matriz Triangular Superior
(i > j =⇒a
ij
= 0)
_
¸
¸
¸
_
a
11
a
12
· · · a
1n
0 a
22
· · · a
2n
.
.
.
.
.
.
.
.
.
0 0 · · · a
nn
_
¸
¸
¸
_
Matriz Triangular Inferior
(i < j =⇒a
ij
= 0)
_
¸
¸
¸
_
a
11
0 · · · 0
a
21
a
22
· · · 0
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn
_
¸
¸
¸
_
Matriz Diagonal
(a
ij
= 0; i 6= j)
_
¸
¸
¸
_
a
11
0 · · · 0
0 a
22
· · · 0
.
.
.
.
.
.
.
.
.
0 0 · · · a
nn
_
¸
¸
¸
_
ou
diag {a
11
, a
22
, · · · , a
nn
}
Matriz Escalar
É uma matriz diagonal em que
a
ij
= 0, i 6= j; a
ij
= a ∈ K, i = j
diag {a, a, · · · , a}
Matriz Identidade
É a matriz escalar em que
a
ij
= 0, i 6= j; a
ij
= 1 ∈ K, i = j
diag {1, 1, · · · , 1}
Representa-se por I
n
(ou apenas I)
m = n = 1
Neste caso identifica-se a matriz
[a] com o próprio escalar a ∈ R
Tabela 2: Principais tipos de Matrizes Quadradas
16
6 Teoria das Matrizes
Uma matriz diagonal pode tanbém ser entendida como uma matriz simul-
taneamente triangular superior e triangular inferior.
Definição 7 (Elementos homólogos) Dadas as matrizes A=[a
ij
] e B = [b
ij
]
do mesmo tipo m×n sobre um corpo K, designam-se por elementos homólogos
aos elementos com os mesmos índices, isto é, àqueles elementos que estão nas
mesmas linha e coluna. Por exemplo, a
36
e b
36
são elementos homólogos.
Definição 8 (Matrizes iguais) Dadas duas matrizes A = [a
ij
] e B = [b
ij
]
do mesmo tipo m×n sobre um corpo K, estas dizem-se iguais se os elementos
homólogos forem iguais. Denota-se simbolicamente essa igualdade por A = B.
Definição 9 (Diagonal) Seja a matriz A = [a
ij
] ∈ M
m×n
(K). Designa-se
por diagonal principal da matriz A aos elementos
©
a
11
, a
22
, · · · , a
min(m,n),min(m,n)
ª
(que se designam por elementos principais da matriz).
Se A = [a
ij
] ∈ M
n
(K) a diagonal principal da matriz A será dada por
{a
11
, a
22
, · · · , a
nn
} e é possível definir a diagonal secundária dada pelos ele-
mentos {a
1n
, a
2,n−1
, · · · , a
n1
}.
Nota 2 As diagonais de uma matriz tomam uma relevância especial quando se
consideram matrizes quadradas.
Exemplo 2 Considerem-se as seguintes matrizes e identifiquemos as respecti-
vas diagonais:

_
¸
_
3 0 1 3 1
-1 2 0 -1 1
0 -2 -3 1 1
_
¸
_. Diagonal Principal: {3, 2, −3}. Diagonal Se-
cundária: não tem.

_
_
3 0
-1 2
0 -2
_
_
. Diagonal Principal: {3, 2}. Diagonal Secundária: não tem.

_
¸
_
3 0 1
-1 2 0
0 -2 -3
_
¸
_. Diagonal Principal: {3, 2, −3}. Diagonal Secundária:
{1, 2, 0}.
17
6 Teoria das Matrizes
Definição 10 (Matriz nula) Designa-se por matriz nula do tipo M
m×n
(K)
à matriz A = [a
ij
] tal que a
ij
= 0, ∀
(i,j)∈{1,...,m}×{1,...,n}
. Neste caso, denota-se
A por 0
m×n
ou simplesmente por 0 se a ordem estiver subentendida e não hou-
ver risco de confusão com o escalar 0 (o elemento neutro para a adição do corpo
K).
Definição 11 (Matriz identidade) Designa-se por matriz identidade de or-
dem n à matriz escalar A = [a
ij
] ∈ M
n
(K), tal que a
ii
= 1 (onde ”1” é
o elemento neutro para a multiplicação no corpo K). Neste caso, denota-se A
por I
n
ou simplesmente por I se a ordem estiver subentendida e não hou- ver
ambiguidade.
6.2 Álgebra Matricial
Discutem-se nesta secção as principais operações com matrizes: adição de ma-
trizes, multiplicação de uma matriz por um escalar e multiplicação de matrizes.
6.2.1 Soma de matrizes.
Definição 12 Sejam A = [a
ij
] , B = [b
ij
] ∈ M
m×n
(K). Define-se soma A+B
à matriz C = [c
ij
], tal que c
ij
= a
ij
+b
ij
, ∀
(i,j)∈{1,...,m}×{1,...,n}
.
Nota 3 Se as matrizes A e B não forem do mesmo tipo, isto é, se não tiverem
as mesmas dimensões e/ou o corpo subjacente não for igual, não é possível
determinar A+B, pelo que a soma de A com B diz-se indefinida.
Proposição 2 O conjunto M
m×n
(K) munido da adição definida na Definição
12 constitui um grupo abeliano (ou comutativo):
1. ∀
A,B∈Mm×n(K)
, ∃
C∈Mm×n(K)
: C = A + B. Esta é a propriedade mais
simples das estruturas algébricas. Ao verificar esta propriedade diz-se
que o conjunto M
m×n
(K) é um grupóide. Alternativamente, diz-se que
M
m×n
(K) é fechado para a adição.
2. ∀
A,B,C∈M
m×n
(K)
, A + (B +C) = (A+B) + C. Propriedade associativa
para a adição de matrizes.
3. ∀
A,B∈Mm×n(K)
, A+B = B +A. Propriedade comutativa para a adição de
matrizes.
4. ∀
A∈M
m×n
(K)
, ∃
B∈M
m×n
(K)
: A + B = A. A matriz Bdesigna-se por ele-
mento neutro para a adição de matrizes e representa-se, como já veri-
ficámos, por 0, ou por 0
m×n
.
18
6 Teoria das Matrizes
5. ∀
A∈Mm×n(K)
, ∃
B∈Mm×n(K)
: A+B = 0. A matriz Bdesigna-se por simé-
trico da matriz A para a adição de matrizes e representa-se por −A.
Diz-se ainda que todos os elementos A ∈ M
m×n
(K) são regulares.
Demonstração.
1. Como A, B ∈ M
m×n
(K), A+B ∈ M
m×n
(K). Adicionalmente
(A+B)
ij
= [a
ij
] + [b
ij
]
= [a
ij
+b
ij
]
Como a
ij
, b
ij
∈ K então K é fechado para a adição, isto é a
ij
+b
ij
∈ K e
portanto [a
ij
+b
ij
] ∈ M
m×n
(K).
2. Como A, B, C ∈ M
m×n
(K) então A + (B +C) e (A+B) + C estão
definidas. Adicionalmente
{A+ (B +C)}
ij
= [a
ij
] + [b
ij
+c
ij
]
= [a
ij
+ (b
ij
+c
ij
)]
(porque a adição é associativa em K)
= [(a
ij
+b
ij
) +c
ij
]
= [a
ij
+b
ij
] + [c
ij
]
= {(A+B) +C}
ij
3. Como A, B ∈ M
m×n
(K) então A+B e B+A estão definidas. Adicional-
mente
(A+B)
ij
= [a
ij
] + [b
ij
]
= [a
ij
+b
ij
]
(porque a adição é comutativa em K)
= [b
ij
+a
ij
]
= [b
ij
] + [a
ij
]
= (B +A)
ij
4. Seja A ∈ M
m×n
(K) e B = 0
m×n
∈ M
m×n
(K). Então:
(A+B)
ij
= [a
ij
] + [b
ij
]
= [a
ij
+ 0]
(porque 0 é o elemento neutro da adição em K)
= [a
ij
]
= (A)
ij
19
6 Teoria das Matrizes
5. Seja A = [a
ij
] ∈ M
m×n
(K) e B = [b
ij
] ∈ M
m×n
(K) tal que b
ij
=
−a
ij
, i = 1, ..., m; j = 1, ..., n. Então:
(A+B)
ij
= [a
ij
] + [b
ij
]
= [a
ij
+b
ij
]
= [a
ij
+ (−a
ij
)]
(porque ∀
a∈K
, ∃
b∈K
: a +b = 0 e b = −a)
= [0]
= (0)
ij
Exemplo 3 Considerem-se os seguintes casos:

·
1 2
3 4
¸
+
·
5 6
7 8
¸
=
·
1+5 2+6
3+7 4+8
¸
=
·
6 8
10 12
¸

·
1
2
¸
+
·
3
4
¸
=
·
1+3
2+4
¸
=
·
4
6
¸

£
3 4
¤
+
£
1 2
¤
=
£
3+1 4+2
¤
=
£
4 6
¤
6.2.2 Multiplicação de uma matriz por um escalar.
Definição 13 Seja A = [a
ij
] ∈ M
m×n
(K) e λ ∈ K um escalar. Define-se o
produto de λ por A e denota-se por λ·A (ou λA) à matriz B = [b
ij
] ∈ M
m×n
(K)
tal que b
ij
= λa
ij
, ∀
(i,j)∈{1,...,m}×{1,...,n}
.
Proposição 3 Sejam A, B ∈ M
m×n
(K) e λ, µ ∈ K. As seguintes propriedades
são verificadas:
1. λ(A+B) = λA+λB
2. (λ +µ) A = λA+µA
3. λ(µA) = (λµ) A
4. 1 · A = A. O escalar 1 designa-se por unidade ou elemento neutro do
corpo K.
Demonstração.
20
6 Teoria das Matrizes
1.
(λ(A+B))
ij
= λ[(a
ij
+b
ij
)]
= [λ(a
ij
+b
ij
)]
= [λa
ij
+λb
ij
]
= [λa
ij
] + [λb
ij
]
= λ[a
ij
] +λ[b
ij
]
= (λA)
ij
+ (λB)
ij
2.
(λ +µ) (A)
ij
= (λ +µ) [a
ij
]
= [(λ +µ) a
ij
]
= [λa
ij
+µa
ij
]
= [λa
ij
] + [µa
ij
]
= λ[a
ij
] +µ[a
ij
]
= (λA)
ij
+ (µA)
ij
3.
(λ(µA))
ij
= λ(µ[a
ij
])
= λ[µa
ij
]
= [(λµ) a
ij
]
= (λµ) [a
ij
]
= ((λµ) A)
ij
4.
(1(A))
ij
= 1· [a
ij
]
= [1·a
ij
]
= [a
ij
]
= (A)
ij
Exemplo 4 Considerem-se os seguintes casos:
• 3 ×
·
1 2
3 4
¸
=
·
3 × 1 3 × 2
3 × 3 3 × 4
¸
=
·
3 6
9 12
¸
21
6 Teoria das Matrizes


2 ×
·
1
2
¸
=
· √
2 × 1

2 × 2
¸
=
· √
2
2

2
¸

1
2
×
£
3 4
¤
=
£
1
2
× 3
1
2
× 4
¤
=
£
3
2
2
¤
Proposição 4 O conjunto M
m×n
(K) munido da adição definida na Definição
12 e da multiplicação por um escalar definida na Definição 13 é um espaço
vectorial sobre o corpo K de dimensão m· n.
Adiante se estudarão mais aprofundadamente os espaços vectoriais.
6.2.3 Multiplicação de matrizes.
Definição 14 Sejam A ∈ M
m×p
(K) e B ∈ M
p×n
(K). A matriz produto de A
por B, que se denota AB (ou A· B), é dada pela matriz C = [c
rs
] ∈ M
m×n
(K)
tal que c
rs
=
P
p
i=1
a
ri
· b
is
, ∀
(i,j)∈{1,...,m}×{1,...,n}
.
Note-se que a matriz A, que multiplica à esquerda, tem tantas colunas quan-
tas as linhas de B. O elemento c
rs
obtém-se multiplicando os elementos da linha
r de A pelos elementos da coluna s de B, pela mesma ordem, e somando os pro-
dutos obtidos. Em nenhuma outra circunstância é possível multiplicar duas
matrizes. De um modo geral, dadas duas matrizes A e B de dimensões, respec-
tivamente m × n e p × q, os produtos C = AB e D = BA são possíveis nas
seguintes circunstâncias:
Produto Possível se ... Resultado
A
(m×n)
× B
(p×q)
n = p C
(m×q)
B
(p×q)
× A
(m×n)
q = m D
(p×n)
Exemplo 5 Considerem-se as seguinte matrizes reais:
A =
_
_
−2 3 −3
3 5 3
3 5 −5
_
_
B =
_
_
2 0
−2 1
−1 −3
_
_
C =
·
3 −5 5
−5 −4 −1
¸
D =
£
−3 5 −3
¤
Os produtos possíveis são AB, BC, CA, CB, DA e DB. A título exempli-
ficativo, ter-se-á:
22
6 Teoria das Matrizes
AB =
_
_
−2 3 −3
3 5 3
3 5 −5
_
_
_
_
2 0
−2 1
−1 −3
_
_
=
_
_
(−2) · 2 + 3 · (−2) + (−3) · (−1) (−2) · 0 + 3 · 1 + (−3) · (−3)
3 · 2 + 5 · (−2) + 3 · (−1) 3 · 0 + 5 · 1 + 3 · (−3)
3 · 2 + 5 · (−2) + (−1) · (−1) 3 · 0 + 5 · 1 + (−5) · (−3)
_
_
=
_
_
−7 12
−7 −4
1 20
_
_
Exemplo 6 Considerem-se os seguintes casos:

·
1 2
3 4
¸ ·
5 6
7 8
¸
=
·
1 × 5 + 2 × 7 1 × 6 + 2 × 8
3 × 5 + 4 × 7 3 × 6 + 4 × 8
¸
=
·
19 22
43 50
¸

·
5 6
7 8
¸ ·
1 2
3 4
¸
=
·
5 × 1 + 6 × 3 5 × 2 + 6 × 4
7 × 1 + 8 × 4 7 × 2 + 8 × 4
¸
=
·
23 34
41 46
¸

·
1
2
¸
£
3 4
¤
=
·
1 × 3 1 × 4
2 × 3 2 × 4
¸
=
·
3 4
6 8
¸

£
3 4
¤
·
1
2
¸
= [3 × 1 + 4 × 2]
= [11] = 11

·
1 −1
1 −1
¸ ·
1 −1
1 −1
¸
=
·
1 · 1 + (−1) · 1 1 · (−1) + (−1) · (−1)
1 · 1 + (−1) · 1 1 · (−1) + (−1) · (−1)
¸
=
·
0 0
0 0
¸
23
6 Teoria das Matrizes
Nota 4 Em geral AB 6= BA. Veja-se o exemplo 6.
Definição 15 (Matrizes comutáveis) Sejam A, B ∈ M
n
(K). Se AB =BA,
diz-se que A e B são matrizes comutáveis.
É evidente que só é possível que duas matrizes sejam comutáveis se forem
quadradas. Se não o forem, ou bem que pelo menos um dos produtos não é
possível, ou, se o forem, as matrizes produto têm dimensões diferentes.
Proposição 5 Considerem-se as matrizes A = [a
ij
] , B = [b
ij
] ∈ M
m×p
(K),
C = [c
jk
] , D = [d
jk
] ∈ M
p×q
(K), F = [f
kl
] ∈ M
q×n
(K) e o escalar λ ∈ K.
Verificam-se as seguintes propriedades:
1. (A+B) D = AD+AB e A(C +D) = AC+AD. Propriedade distributiva
da multiplicação de matrizes em relação à adição de matrizes.
2. λ(AD) = (λA) D = A(λD).
3. (AD) F = A(DF). Propriedade associativa da multiplicação de matrizes.
4. A0 = 0 e 0A = 0. A matriz nula é o elemento absorvente para a multi-
plicação de matrizes. As 4 matrizes nulas representadas nestas expressões
são diferentes uma vez que têm dimensões diferentes. Terão de ter as di-
mensões adequadas para o produto faça sentido. As suas dimensões são,
respectivamente, p ×q, m×q, q ×m e q ×p.
24
6 Teoria das Matrizes
Demonstração.
1. Observemos primeiro que A e B têm dimensão m×p e que D tem dimensão
p ×q pelo que (A+B) D e AD +AB têm dimensão m×q.
((A+B) D)
ik
=
p
X
j=1
(A+B)
ij
d
jk
=
p
X
j=1
(a
ij
+b
ij
) d
jk
=
p
X
j=1
a
ij
d
jk
+
p
X
j=1
b
ij
d
jk
= (AD)
ik
+ (BD)
ik
2. De modo semelhante se mostra que A(C +D) = AC +AD.
(λ(AD))
ik
= λ
p
X
j=1
a
ij
d
jk
=
p
X
j=1
(λa
ij
) d
jk
=
p
X
j=1
(λA)
ij
d
jk
= ((λA) D)
ik
.
Mas também,
λ
p
X
j=1
a
ij
d
jk
=
p
X
j=1
λa
ij
(λd
jk
)
=
p
X
j=1
a
ij
(λD)
jk
= (A(λD))
ik
.
3. Note-se em primeiro lugar que as matrizes (AD) F e A(DF) têm ambas
dimensão m×n.
25
6 Teoria das Matrizes
((AD) F)
il
=
q
X
k=1
(AD)
ik
f
kl
=
q
X
k=1
_
_
p
X
j=1
a
ij
d
jk
_
_
f
kl
=
q
X
k=1
p
X
j=1
a
ij
d
jk
f
kl
=
p
X
j=1
a
ij
Ã
q
X
k=1
d
jk
f
kl
!
=
p
X
j=1
a
ij
(DF)
jl
= (A(DF))
il
.
Proposição 6 O conjunto M
n
(K) munido da adição definida na Definição 12
e da multiplicação definida na Definição 14 constitui um anel:
1. ∀
A,B∈Mn(K)
, ∃
C∈Mn(K)
: C = A +B. O conjunto M
n
(K) é fechado para
a adição.
2. ∀
A,B,C∈M
n
(K)
, A + (B +C) = (A+B) + C. Propriedade associativa da
adição de matrizes.
3. ∀
A,B∈M
n
(K)
, A + B = B + A. Propriedade comutativa para a adição de
matrizes.
4. ∀
A∈Mn(K)
, ∃
B∈Mn(K)
: A + B = A. A matriz Bdesigna-se por elemento
neutro para a adição de matrizes.
5. ∀
A∈M
n
(K)
, ∃
B∈M
n
(K)
: A+B = 0. Todos os elementos são regulares para
a adição de matrizes.
6. ∀
A,B∈M
n
(K)
, ∃
C∈M
n
(K)
: C = A· B. O conjunto M
n
(K) é fechado para a
multiplicaçao.
7. ∀
A,B,C∈Mn(K)
, A(BC) = (AB) C. Propriedade associativa da multipli-
cação de matrizes.
26
6 Teoria das Matrizes
8. ∀
A∈Mn(K)
, ∃
B∈Mn(K)
: AB = BA = A. A matriz B é o elemento neutro
para a multiplicação de matrizes, e denomina-se por identidade de ordem
n, denotando-se por I
n
ou simplesmente I se não houver dúvida quanto à
ordem.
9. ∀
A,B,C∈Mn(K)
, A(B +C) = AB +BC. Propriedade distributiva da mul-
tiplicação em relação à adição de matrizes.
Nota 5 Note-se que, se A ∈ M
m×n
(K) tem-se I
m
A = A e AI
n
= A. Isto é,
desde que a matriz identidade tenha a ordem correcta para que o produto possa
ser efectuado, o produto (à esquerda ou à direita) de qualquer matriz A pela
identidade é sempre a matriz, como a seguir se demonstra
³
1
´
:
(I
m
A)
ik
=
m
X
j=1
δ
ij
a
jk
= a
ik
= (A)
ik
(AI
n
)
ik
=
n
X
j=1
a
ij
δ
jk
= a
ik
= (A)
ik
6.2.4 Multiplicação por blocos.
Definição 16 (Submatriz) Seja A ∈ M
m×n
(K). Designa-se submatriz de A
a uma matriz formada pelos elementos de A que pertencem a algumas linhas e
algumas colunas previamente fixadas de A.
Definição 17 (Partição em blocos) Seja A ∈ M
m×n
(K). Diz-se que A está
particionada em blocos se cada bloco ocupar as mesmas linhas de A que os blocos
situados à sua esquerda ou direita e ocupar as mesmas colunas de A que os blocos
situados acima ou abaixo.
Por outras palavras, para que uma matriz esteja particionada em blocos é
necessário que as submatrizes que constituem cada bloco sejam formadas por
linhas e colunas consecutivas da matriz A.
A multiplicação por blocos realiza-se da seguinte forma:
(a) Sejam A ∈ M
m×p
(K) e B ∈ M
p×n
(K) e C = AB.
(b) Considerem-se números inteiros p
1
, p
2
, · · · , p
h
tais que sejam verifi-
cadas as relações 1 ≤ p
1
< p
2
< · · · < p
h
< p.
27
6 Teoria das Matrizes
(c) Escreva-se c
ij
=
p
1
X
r=1
a
ir
b
rj
| {z }
c
(1)
ij
+
p
2
X
r=p1+1
a
ir
b
rj
| {z }
c
(2)
ij
+ · · · +
p
X
r=p
h
+1
a
ir
b
rj
| {z }
c
(h+1)
ij
. O
elemento c
(1)
ij
resulta de somar os produtos dos primeiros p
1
elementos
da linha i de A pelos primeiros p
1
elementos da coluna j de B; c
(2)
ij
é a soma dos produtos dos p
2
−p
1
elementos seguintes da linha i de
A pelos p
2
− p
1
elementos seguintes da coluna j de B e assim por
diante.
Em resumo, dadas duas matrizes A e B, é possível calcular o seu produto
AB por blocos se forem verificadas as seguintes condições:
(a) A ∈ M
m×p
(K) e B ∈ M
p×n
(K). Esta é a condição que requer que
o número de colunas da matriz que multiplica à esquerda seja igual
ao número de linhas da matriz que multiplica à direita.
(b) O número de colunas de blocos de A tem de ser igual ao número de
linhas de blocos de B.
(c) O número de colunas de cada bloco A
ij
tem de ser igual ao número
de linhas de cada bloco B
jt
, a fim de se poder efectuar o produto
A
ij
B
jt
.
Se, por exemplo, as colunas da matriz A, em número de 6, forem divididas
nos seguintes blocos (1, 2), (3, 4, 5), (6), então as linhas da matriz B terão de
ser divididas da mesma forma. A divisão das linhas da matriz A e colunas da
matriz B é independente uma da outra.
A multiplicação por blocos é por vezes cómoda em particular se alguns dos
blocos forem matrizes nulas ou matrizes identidades.
Exemplo 7 Considerem-se as matrizes
A=
_
¸
¸
_
1 0 0 0 −1 −4
0 1 0 0 −3 −3
0 0 1 0 1 5
−2 3 −5 −5 1 5
_
¸
¸
_
e B=
_
¸
¸
¸
¸
¸
¸
_
−2 3 −3 3 5
3 3 5 −5 2
0 1 1 1 −3
3 −5 5 −5 −4
−1 −3 0 0 0
3 5 0 0 0
_
¸
¸
¸
¸
¸
¸
_
Os blocos considerados na partição acima transformam a matriz A nu- ma
matriz, que em termos da partição escolhida, pode ser classificada do tipo 2×3.
De igual modo, a matriz B, em termos da sua partição é do tipo 3×2. O produto
C = AB considerando os blocos assinalados resulta numa matriz do tipo 2 × 2.
28
6 Teoria das Matrizes
Simbolicamente, as partições consideradas para as matrizes A e B podem ser
representadas como:
A =
·
A
11
A
12
A
13
A
21
A
22
A
23
¸
e B =
_
_
B
11
B
12
B
21
B
22
B
31
B
32
_
_
Consequentemente, a matriz C será particionada, em termos de blocos, como
se simboliza de seguida:
C =
·
C
11
C
12
C
21
C
22
¸
Teremos assim:

C
11
= A
11
B
11
+A
12
B
21
+A
13
B
31
=
= I
3
_
_
−2 3
3 3
0 1
_
_
+
_
_
0
0
0
_
_
£
3 −5
¤
+
_
_
−1 −4
−3 −3
1 5
_
_
·
−1 −3
3 5
¸
=
_
_
−2 3
3 3
0 1
_
_
+
_
_
0 0
0 0
0 0
_
_
+
_
_
−6 −17
−6 −6
14 22
_
_
=
_
_
−8 −14
−3 −3
14 23
_
_

C
12
= A
11
B
12
+A
12
B
22
+A
13
B
32
=
= I
3
_
_
−3 3 5
5 −5 2
1 1 −3
_
_
+
_
_
0
0
0
_
_
£
5 −5 −4
¤
+
_
_
−1 −4
−3 −3
1 5
_
_
·
0 0 0
0 0 0
¸
=
_
_
−3 3 5
5 −5 2
1 1 −3
_
_
+
_
_
0 0 0
0 0 0
0 0 0
_
_
+
_
_
0 0 0
0 0 0
0 0 0
_
_
=
_
_
−3 3 5
5 −5 2
1 1 −3
_
_

C
21
= A
21
B
11
+A
22
B
21
+A
23
B
31
=
=
£
−2 3 −5
¤
_
_
−2 3
3 3
0 1
_
_
−5 ·
£
3 −5
¤
+
£
1 5
¤
·
−1 −3
3 5
¸
=
£
13 −2
¤
+
£
15 −25
¤
+
£
14 22
¤
=
£
42 −5
¤
29
6 Teoria das Matrizes

C
22
= A
21
B
12
+A
22
B
22
+A
23
B
32
=
=
£
−2 3 −5
¤
_
_
−3 3 5
5 −5 2
1 1 −3
_
_
−5 ·
£
5 −5 −4
¤
+
£
1 5
¤
·
0 0 0
0 0 0
¸
=
£
16 −16 11
¤
+
£
−25 25 20
¤
+
£
0 0 0
¤
=
£
−9 9 31
¤
A matriz C será portanto:
C =
_
¸
¸
_
−8 −14 −3 3 5
−3 −3 5 −5 2
14 23 1 1 −3
42 −5 −9 9 31
_
¸
¸
_
Definição 18 (Potência de uma matriz) Seja A ∈ M
n
(K). Designa-se
por potência de ordem k ∈ N de A, e escreve-se A
k
, à matriz C tal que
C = A
k
= A× · · · ×A
| {z }
k vezes
.
6.3 Transposição de matrizes. Matrizes Simétricas.
Definição 19 (Matriz transposta) Dada uma matriz A ∈ M
m×n
(K), deno-
mina-se matriz transposta de A, e denota-se por A
T
, a matriz B ∈ M
n×m
(K)
tal que b
ij
= a
ji
, ∀
(i,j)∈{1,...,m}×{1,...,n}
.
Por outras palavras, se uma matriz A é do tipo m × n, a transposta de A,
A
T
, é do tipo n ×m; as linhas de A são as colunas de A
T
, pela mesma ordem,
e, consequntemente, as colunas de A serão as linhas de A
T
, pela mesma ordem.
Exemplo 8 Considerem-se os seguintes casos:

·
1 2
3 4
¸
T
=
·
1 3
2 4
¸

·
1
2
¸
T
=
£
1 2
¤

£
3 4
¤
T
=
·
3
4
¸
30
6 Teoria das Matrizes

·
3 −5 5
−5 −4 −1
¸
T
=
_
_
3 −5
−5 −4
5 −1
_
_
Definição 20 (Matriz simétrica/anti-simétrica) Seja A ∈ M
n
(K), ma-
triz quadrada de ordem n. Diz-se que A é simétrica se A = A
T
e anti-simétrica
se A = −A
T
³
2
´
.
Exemplo 9 A matriz
A =
·
a b
b c
¸
é a forma geral de uma matriz simétrica de ordem 2.
A matriz
A =
·
0 b
−b 0
¸
é a forma geral de uma matriz anti-simétrica de ordem 2. Com efeito, por
definição, dever-se-á ter a
ii
= −a
ii
o que implica 2a
ii
= 0 e portanto a
ii
= 0.
Por outras palavras, numa matriz anti-simétrica, os elementos principais são
sempre nulos.
Proposição 7 Sejam A = [a
ij
] , B = [b
ij
] ∈ M
m×p
(K) , C = [c
jk
] ∈ M
p×n
(K)
e D
k
= [d
kl
] ∈ M
n
(K) , k = 1, ..., M. Verificam-se as seguintes propriedades:
1.
¡
A
T
¢
T
= A.
2. (A±B)
T
= A
T
±B
T
.
3. (AC)
T
= C
T
A
T
.
4.
³
Q
M
k=1
D
k
´
T
=
Q
M
k=1
D
T
k
.
Demonstração.
1.
³
¡
A
T
¢
T
´
ij
=
¡
A
T
¢
ji
= (A)
ij
.
31
6 Teoria das Matrizes
2.
³
(A±B)
T
´
ij
= (A±B)
ji
= a
ji
±b
ji
=
¡
A
T
¢
ij
±
¡
B
T
¢
ij
.
3.
³
(AC)
T
´
ki
= (AC)
ik
=
p
X
j=1
a
ij
c
jk
=
p
X
j=1
¡
A
T
¢
ji
¡
C
T
¢
kj
=
p
X
j=1
¡
C
T
¢
kj
¡
A
T
¢
ji
=
¡
C
T
A
T
¢
ki
.
4. Por indução em M. O caso M = 2 verifica-se na Propriedade 3. Supon-
hamos que, por hipótese,
³
Q
M−1
k=1
D
k
´
T
=
Q
M−1
k=1
D
T
k
. Mostremos que
³
Q
M
k=1
D
k
´
T
=
Q
M
k=1
D
T
k
também se verifica.
Ã
M
Y
k=1
D
k
!
T
=
ÃÃ
M−1
Y
k=1
D
k
!
D
M
!
T
= (D
M
)
T
Ã
M−1
Y
k=1
D
k
!
T
(pela Propriedade 3)
= (D
M
)
T
M−1
Y
k=1
D
T
k
(por hipótese)
=
M
Y
k=1
D
T
k
Proposição 8 O produto de duas matrizes A, B ∈ M
n
(K) simétricas é uma
matriz simétrica sse os seus factores comutam.
32
6 Teoria das Matrizes
Demonstração.
(=⇒)
AB = (AB)
T
(porque ABé simétrica)
= B
T
A
T
(pela Propriedade 3 da transposição de matrizes)
= BA (porque A e B são comutáveis)
(⇐=)
(AB)
T
= (BA)
T
(porque A e B comutam)
= A
T
B
T
(pela Propriedade 3 da transposição de matrizes.
= AB (porque A e B são simétricas)
6.4 Traço de uma matriz
Definição 21 (Traço de uma Matriz) Seja A = [a
ij
] ∈ M
m×n
(K). O traço
da matriz A é definido como a soma os seus elementos principais, ou, por outras
palavras, dos elementos ao longo da diagonal principal. Denota-se por:
tr (A) = a
11
+a
22
+ · · · +a
pp
, onde p = min(m, n) .
Exemplo 10 Considerem-se as seguintes matrizes e determinemos os respec-
tivos traços:

_
¸
_
3 0 1 3 1
−1 2 0 −1 1
0 −2 -3 1 1
_
¸
_. tr (A) = 3 + 2 + (−3) = 2.

_
_
3 0
−1 2
0 −2
_
_
. tr (A) = 3 + 2 = 5.

_
¸
_
1 3 1
0 -1 1
−3 1 1
_
¸
_. tr (A) = 1 + (−1) + 1 = 1.
O operador tr (·) satisfaz as seguintes propriedades:
33
6 Teoria das Matrizes
Proposição 9 Sejam A=[a
ij
] , B=[b
ij
] ∈ M
m×n
(K) e C=[c
pq
] ∈ M
n×m
(K).
Verificam-se as seguintes igualdades:
1. tr (A+B) = tr (A) +tr (B).
2. tr (A+B) = tr (B +A).
3. tr (AC) = tr (CA).
Demonstração.
1. Dado que A e B têm as mesmas dimensões a soma A + B encontra-se
definida. Prosseguindo com a argumentação, segue que:
tr (A+B) = tr
³
(A+B)
ij
´
=
min(m,n)
X
l=1
(a
ll
+b
ll
)
=
min(m,n)
X
l=1
a
ll
+
min(m,n)
X
l=1
b
ll
= tr (A) +tr (B)
2. Dado que A e B têm as mesmas dimensões as somas A + B e B + A
encontram-se definidas. Prosseguindo com a argumentação, segue que:
tr (A+B) = tr
³
(A+B)
ij
´
=
min(m,n)
X
l=1
(a
ll
+b
ll
)
=
min(m,n)
X
l=1
(b
ll
+a
ll
)
= tr
³
(B +A)
ij
´
= tr (B +A)
3. Se A ∈ M
m×n
(K) e C ∈ M
n×m
(K) , tem-se naturalmente AC ∈ M
m
(K).
O traco de AC será:
34
6 Teoria das Matrizes
tr (AC) = tr
³
(AC)
iq
´
= tr
_
_
n
X
j=1
a
ij
c
jq
_
_
=
m
X
i=1
_
_
n
X
j=1
a
ij
c
ji
_
_
=
m
X
i=1
n
X
j=1
a
ij
c
ji
Por outro lado tem-se CA ∈ M
n
(K). O traco de CA será:
tr (CA) = tr
³
(CA)
pj
´
= tr
Ã
m
X
i=1
c
pi
a
ij
!
=
n
X
j=1
Ã
m
X
i=1
c
ji
a
ij
!
=
n
X
j=1
m
X
i=1
c
ji
a
ij
=
m
X
i=1
n
X
j=1
a
ij
c
ji
= tr (AC)
6.5 Dependência e independência lineares de filas parale-
las de uma matriz.
Definição 22 (Combinação linear das filas de uma matriz) Seja a ma-
triz A ∈ M
m×n
(K) e sejam L
i
=
£
a
i1
a
i2
· · · a
in
¤
, i = 1, · · · , m as
linhas da matriz A e C
j
= {a
1j
, a
2j
, · · · , a
mj
} , j = 1, · · · , n as colunas da ma-
triz A.
1. À expressão
m
P
i=1
λ
i
L
i
designa-se combinação linear das linhas de A, onde

i
}
i=1,··· ,m
são quaisquer escalares do corpo K.
35
6 Teoria das Matrizes
2. À expressão
n
P
j=1
µ
j
C
j
designa-se combinação linear das colunas de A, onde
©
µ
j
ª
j=1,··· ,n
são quaisquer escalares do corpo K.
Definição 23 (Combinação linear nula das filas de uma matriz) Sejam
A ∈ M
m×n
(K), {L
i
}
i=1,··· ,m
as linhas da matriz A e {C
j
}
j=1,··· ,n
as colunas
da matriz A.
1. À expressão
m
P
i=1
λ
i
L
i
= 0 designa-se combinação linear nula das linhas de
A, onde {λ
i
}
i=1,··· ,m
são quaisquer escalares do corpo K.
2. À expressão
n
P
j=1
µ
j
C
j
= 0 designa-se combinação linear nula das colunas
de A, onde
©
µ
j
ª
j=1,··· ,n
são quaisquer escalares do corpo K.
Definição 24 (Independência linear) Sejam A ∈ M
m×n
(K), {L
i
}
i=1,··· ,m
as linhas da matriz A e {C
j
}
j=1,··· ,n
as colunas da matriz A. Diz-se que as
linhas (colunas) de A são linearmente independentes se
m
P
i=1
0L
i
(ou
n
P
j=1
0C
j
para
as colunas) é a única combinação linear nula dessas linhas (colunas).
Por outras palavras, as linhas (ou colunas) de uma matriz dizem-se linear-
mente independentes se a única combinação linear nula daquelas é a que se
obtém com todos os escalares nulos.
A seguinte constatação é consequência imediata da definição acima:
Nota 6 As linhas (colunas) de uma matriz são linearmente dependentes se é
possível obter uma combinação linear nula daquelas com pelo menos um escalar
diferente de 0.
As definições acima aplicam-se indiferentemente às linhas e colunas de uma
qualquer matriz. Por esse motivo, faremos referência às filas de uma matriz
sempre que não for necessário referir explicitamente as linhas ou colunas da
matriz. Denotaremos por {F
k
}
k=1,··· ,p
as filas da matriz. Note-se, no entanto,
que a referência às filas de uma matriz deverá ser entendida como referência às
linhas ou às colunas e não aos dois conjuntos simultaneamente.
Matematicamente, a condição de independência linear das filas de uma ma-
triz pode ser descrita pelas equações (4).
m
P
i=1
λ
i
L
i
= 0 =⇒λ
i
= 0, i = 1, · · · , m (linhas)
n
P
j=1
µ
j
C
j
= 0 =⇒µ
j
= 0, j = 1, · · · , n (colunas)
(4)
Em geral, os resultados válidos para as linhas também o são para as colunas.
36
6 Teoria das Matrizes
Proposição 10 Sejam A ∈ M
m×n
(K) e {F
k
}
k=1,··· ,p
as filas da matriz A.
Verificam-se os seguintes resultados:
1. Se uma das filas de A é constituída integralmente por zeros, as filas são
linearmente dependentes.
2. Algumas das filas de A são linearmente dependentes se e só se todas o
são.
3. As filas de A são linearmente dependentes se e só as filas em que a fila F
k
é
substituída pela fila F
0
k
= α· F
k
, α ∈ K\ {0} são linearmente dependentes.
4. As filas de A são linearmente dependentes se e só as filas em que a fila F
k
é substituída pela fila F
0
k
= F
k
+F
l
, k 6= l são linearmente dependentes.
5. As filas de A são linearmente dependentes se e só se o mesmo sucede
às filas que se obtêm somando a uma delas uma combinação linear das
restantes.
6. As filas de A são linearmente dependentes se e só se algumas delas se
podem escrever como combinação linear das restantes.
Demonstração. Para efeito da demonstração utilizar-se-ão as linhas da
matriz. A prova para as colunas é equivalente.
1. Suponhamos que a linha L
k
é inteiramente nula. A combinação linear
nula das linhas da matriz é dada por
P
i6=k
λ
i
L
i
+ λ
k
L
k
= 0. Sabendo
que L
k
= 0 teremos λ
k
L
k
= 0 para qualquer λ
k
∈ K. Em particular, se
escolhermos λ
k
6= 0, teremos uma combinação linear nula das linhas com
pelo menos um escalar não nulo, precisamente o escalar λ
k
, logo, as linhas
da matriz A são linearmente dependentes
2.(=⇒) Suponhamos, sem perda de generalidade, que as p primeiras linhas
da matriz A são linearmente dependentes. Existirá assim pelo menos
um escalar não nulo, digamos λ
k
, com algum k : 1 ≤ k ≤ p tal
que
P
p
i=1
λ
i
L
i
= 0. Se escolhermos escalares nulos para as restantes
linhas da matriz teremos
P
m
i=p+1
λ
i
L
i
=
P
m
i=p+1
0L
i
= 0. Assim,
teremos
P
p
i=1
λ
i
L
i
+
P
m
i=p+1
λ
i
L
i
= 0 com o escalar λ
k
não-nulo,
isto é, as linhas da matriz A são linearmente dependentes.
(⇐=) Se as linhas da matriz A são linearmente dependentes, então

k∈{1,··· ,m}
: λ
k
6= 0 ∧
X
i6=k
λ
i
L
i

k
L
k
= 0
Se os restantes escalares forem nulos, teremos
37
6 Teoria das Matrizes
X
i6=k
λ
i
L
i

k
L
k
+
X
i6=k
0L
i

k
L
k
= λ
k
L
k
= 0
Deste modo, qualquer conjunto de linhas que inclua a linha L
k
, que
nestas circunstâncias é integralmente nula, é linearmente dependente.
3.(=⇒) Suponhamos que as linhas de A são linearmente dependentes.
Substituamos a linha L
k
pela linha L
0
k
= α· L
k
, α 6= 0. A combinação
linear nula das linhas de A onde a linha L
k
é substituída por L
0
k
é
dada por
P
i6=k
λ
i
L
i
+ λ
k
L
0
k
= 0 ⇐⇒
P
i6=k
λ
i
L
i
+ (λ
k
· α) · L
k
= 0.
Mas as linhas de A são linearmente dependentes pelo que a respectiva
combinação linear nula se obtém com pelo menos um escalar não nulo.
Ou bem que esse escalar é λ
i
, i 6= k, ou bem que será λ
k
· α. Neste
caso, como α 6= 0 teremos λ
k
6= 0. Em qualquer caso, é possível
obter uma combinação linear nula das linhas {L
i
}
i=1,···n
i6=k
∪ L
0
k
com
pelo menos um escalar não nulo.
(⇐=) Suponhamos que as linhas {L
i
}
i6=k
∪L
0
k
são linearmente dependentes.
A combinação linear nula das linhas de A é dada por
X
i6=k
λ
i
L
i

k
L
k
= 0,
a qual é passível de ser reescrita como
X
i6=k
λ
i
L
i
+
λ
k
α
(α · L
k
) =
X
i6=k
λ
i
L
i
+
λ
k
α
L
0
k
= 0.
Dada a dependência linear de {L
i
}
i6=k
∪ L
0
k
ou bem que teremos
λ
i
6= 0, i 6= k ou teremos
λ
k
α
6= 0. Neste caso, como α 6= 0 teremos
λ
k
6= 0. Em qualquer caso, é possível obter uma combinação linear
nula das linhas {L
i
}
i=1,··· ,m
com pelo menos um escalar não nulo.
4.(=⇒) Suponhamos que as linhas de A são linearmente dependentes.
Substituamos a linha L
k
pela linha L
0
k
= L
k
+ L
l
, k 6= l. A combi-
nação linear nula das linhas de A onde a linha L
k
é substituída por L
0
k
é dada por
P
i6=k
λ
i
L
i

k
L
0
k
=
P
i6=k
λ
i
L
i

k
(L
k
+L
l
)=0. Esta ex-
pressão pode ser reescrita como
P
i6=k,l
λ
i
L
i

k
L
k
+(λ
k

l
) L
l
=0.
Mas as linhas de A são linearmente dependentes pelo que a respec-
tiva combinação linear nula se obtém com pelo menos um escalar
não nulo. Ou bem que esse escalar é λ
i
, i 6= k, l, ou bem que será
λ
k
, ou então será (λ
k

l
). Neste caso, ter-se-á obrigatoriamente
38
6 Teoria das Matrizes
λ
k
6= 0∨λ
l
6= 0. Em qualquer caso, é possível obter uma combinação
linear nula das linhas {L
i
}
i6=k
∪ L
0
k
com pelo menos um escalar não
nulo.
(⇐=) Suponhamos que as linhas {L
i
}
i6=k
∪L
0
k
são linearmente dependentes.
A combinação linear nula das linhas de A é dada por
X
i6=k
λ
i
L
i

k
L
k
= 0,
a qual é passível de ser reescrita como
X
i6=k
λ
i
L
i
+ (λ
k
L
k

k
L
l
)
| {z }
λ
k
L
0
k
−λ
k
L
l
=
X
i6=k,l
λ
i
L
i
+ (λ
l
−λ
k
) L
l

k
L
0
k
=0
Dada a dependência linear de {L
i
}
i6=k
∪ L
0
k
ou bem que teremos
λ
i
6= 0, i 6= k, l ou teremos λ
k
6= 0 ou ainda (λ
l
−λ
k
) 6= 0. Neste
caso, ter-se-á obrigatoriamente λ
k
6= 0 ∨ λ
l
6= 0. Em qualquer caso,
é possível obter uma combinação linear nula das linhas {L
i
}
i=1,··· ,m
com pelo menos um escalar não nulo.
5.(=⇒) Suponhamos que as linhas de A são linearmente dependentes.
Substituamos a linha L
k
pela linha L
0
k
= L
k
+
P
i6=k
α
i
L
i
. A combi-
nação linear nula das linhas de A onde a linha L
k
é substituída por L
0
k
é dada por
P
i6=k
λ
i
L
i

k
L
0
k
=
P
i6=k
λ
i
L
i

k
³
L
k
+
P
i6=k
α
i
L
i
´
=0.
Esta expressão pode ser reescrita como
P
i6=k

i

k
α
i
)L
i

k
L
k
=0.
Mas as linhas de A são linearmente dependentes pelo que a re-
spectiva combinação linear nula se obtém com pelo menos um es-
calar não nulo. Ou bem que esse escalar é λ
k
ou bem que será

i

k
α
i
) , i 6= k. Neste caso, ter-se-á obrigatoriamente λ
k
α
i
6= 0
(o que implica λ
k
6= 0)∨λ
i
6= 0, i 6= k. Em qualquer caso, é possível
obter uma combinação linear nula das linhas {L
i
}
i6=k
∪ L
0
k
com pelo
menos um escalar não nulo.
(⇐=) Suponhamos que as linhas {L
i
}
i6=k
∪L
0
k
são linearmente dependentes.
A combinação linear nula das linhas de A é dada por
X
i6=k
λ
i
L
i

k
L
k
= 0,
a qual é passível de ser reescrita como
39
6 Teoria das Matrizes
X
i6=k
λ
i
L
i

k
L
k

k
X
i6=k
α
i
L
i
−λ
k
X
i6=k
α
i
L
i
=
X
i6=k

i
−λ
k
) L
i

k
L
0
k
=0
Dada a dependência linear de {L
i
}
i6=k
∪ L
0
k
ou bem que teremos
λ
k
6= 0 ou bem que teremos (λ
i
−λ
k
) 6= 0, i 6= k. Neste caso, ter-se-á
obrigatoriamente (λ
k
6= 0 ∨ λ
i
6= 0)
i6=k
. Em qualquer caso, é possível
obter uma combinação linear nula das linhas {L
i
}
i=1,··· ,m
com pelo
menos um escalar não nulo.
6.(=⇒) Suponhamos que as linhas de A são linearmente dependentes. Seja λ
k
um dos escalares não nulos para os quais se obtém uma combinação
linear nula das linhas de A. A combinação linear nula
P
i
λ
i
L
i
= 0
pode ser reescrita como L
k
= −
1
λ
k
P
i6=k
λ
i
L
i
, uma vez que λ
k
6= 0.
A expressão mostra que a linha L
k
pode ser escrita como combinação
linear das restantes linhas da matriz.
(⇐=) Suponhamos que é possível escrever a linha L
k
como combinação
linear das restantes linhas, isto é, L
k
=
P
i6=k
λ
i
L
i
. Resulta que
L
k

P
i6=k
λ
i
L
i
= 0, isto é, obteve-se uma combinação linear nula
das linhas da matriz A, em que pelo menos um escalar é não nulo (o
escalar 1 associado à linha L
k
). Tal mostra que as linhas de A são
linearmente dependentes.
Proposição 11 Sejam A ∈ M
m×n
(K), B ∈ M
n×p
(K) e C = AB. Então cada
linha (respectivamente coluna) de C é combinação linear das linhas (respectiva-
mente colunas) de B (respectivamente A). Mais precisamente:
1. A linha i
0
de C é combinação linear das linhas de B que se obtém uti-
lizando os escalares da linha i
0
de A.
2. A coluna j
0
de C é combinação linear das colunas de A que se obtém
utilizando os escalares da coluna j
0
de B.
Demonstração.
1. c
i0k
= (AB)
i0k
=
P
n
j=1
a
i0j
b
jk
. Logo,
L
C
i
0
=
£
c
i01
c
i02
· · · c
i0p
¤
=
£ P
n
j=1
a
i
0
j
b
j1
P
n
j=1
a
i
0
j
b
j2
· · ·
P
n
j=1
a
i
0
j
b
jp
¤
=
n
X
j=1
a
i
0
j
£
b
j1
b
j2
· · · b
jp
¤
=
n
X
j=1
a
i
0
j
L
B
j
40
6 Teoria das Matrizes
2. A prova é em tudo semelhante à anterior mutatis mutantis.
6.6 Característica de uma matriz. Operações elementares.
Definição 25 (Característica) Seja A∈M
m×n
(K). Designa-se caracterís-
tica de linha da matriz A ao número máximo de linhas linearmente indepen-
dentes; denota—se este valor por r
l
(A). Analogamente a característica de col-
una da matriz A, r
c
(A), é o número máximo de colunas linearmente indepen-
dentes. A característica da matriz, denotada por r
A
(ou simplesmente r quando
estiver claro a matriz a que se refere) define-se como o número máximo de linhas
ou colunas linearmente independentes, isto é, r
A
= m´ın{r
l
(A) , r
c
(A)}.
Tem-se claramente r
l
(A) ≤ m e r
c
(A) ≤ n e portanto r
A
≤ m´ın{m, n},
onde m e n são respectivamente o número de linhas e colunas da matriz em
causa.
Resta desenvolver um processo que permita determinar a característica de
linha (ou coluna) de uma matriz, e portanto da sua característica.
Proposição 12 Sejam A ∈ M
m×n
(K), B ∈ M
n×p
(K) e C = AB. Então
r
l
(C) ≤ r
l
(B) e r
c
(C) ≤ r
c
(A).
Demonstração. Recordando a proposição 11 verificámos que,
L
C
i
=
n
X
j=1
a
ij
L
B
j
, ∀
i=1,··· ,m
,
isto é, cada linha de C é combinação linear das linhas de B. Ora, se o número
máximo de linhas linearmente independentes de B é r
l
(B) então, cada linha de
C pode ser escrita apenas à custa das r
l
(B) linhas de B que são efectivamente
linearmente independentes; as restantes linhas de B ou bem que são nulas ou
bem que se podem escrever como combinação das que são linearmente indepen-
dentes como vimos na Proposição (10). Suponhamos, sem perda de generalidade
que são precisamente as primeiras r
l
(B) linhas de B que são linearmente inde-
pendentes. Tal significa que as linhas de C podem ser escritas como combinação
destas linhas de B (agora com outros escalares que não aqueles dados pelas li-
nhas de A). Isto é, L
C
i
=
P
r
l
(B)
k=1
λ
i
k
L
B
k
, ∀
i=1,··· ,m
. Suponhamos, por redução ao
absurdo que C tem r
l
(B) +1 linhas lineamente independentes, precisamente as
primeiras. Sabemos então que a combinação linear nula destas r
l
(B) +1 linhas
só é passível de ser obtida com todos os escalares nulos.
41
6 Teoria das Matrizes
0 =
r
l
(B)+1
X
i=1
µ
i
L
C
i
=
r
l
(B)+1
X
i=1
µ
i
r
l
(B)
X
k=1
λ
i
k
L
B
k
=
_
_
r
l
(B)+1
X
i=1
µ
i
λ
i
1
_
_
L
B
1
+
_
_
r
l
(B)+1
X
i=1
µ
i
λ
i
2
_
_
L
B
2
+ · · · +
_
_
r
l
(B)+1
X
i=1
µ
i
λ
i
r
l
(B)
_
_
L
B
r
l
(B)
Ora, as r
l
(B) primeiras linhas de B são linearmente independentes pelo que
a combinação nula anterior só se poderá obter com todos os escalares nulos, o
que corresponde a resolver o sistema em ordem a {µ
i
}
i=1,··· ,r
l
(B)+1
:
_
¸
¸
¸
_
¸
¸
¸
_
P
r
l
(B)+1
i=1
µ
i
λ
i
1
= 0
P
r
l
(B)+1
i=1
µ
i
λ
i
2
= 0
· · ·
P
r
l
(B)+1
i=1
µ
i
λ
i
r
l
(B)
= 0
O sistema acima temr
l
(B) e r
l
(B)+1 incógnitas. Trata-se de um sistema in-
determinado possuindo outras soluções que não a solução {µ
i
= 0}
i=1,··· ,r
l
(B)+1
.
Mas isto é um absurdo pois por hipótese as primeiras r
l
(B)+1 linhas de C eram
linearmente independentes. O absurdo reside evidentemente no facto de se ter
assumido que o número máximo de linhas linearmente idependentes de C era
superior a r
l
(B), logo dever-se-á ter r
l
(C) ≤ r
l
(B).
A prova relativamente à afirmação r
c
(C) ≤ r
c
(A) é em tudo semelhante à
anterior.
6.6.1 Operações Elementares
Os resultados da Proposição (10) permitem concluir que a dependência ou in-
dependência lineares das linhas (ou colunas) de uma matriz não é alterada por
um conjunto de operações que no seu conjunto se designam por Operações Ele-
mentares Sobre Filas de uma Matriz.
Definição 26 (Operações Elementares) Seja A ∈ M
m×n
(K). Define-se
como operação elementar sobre as filas da matriz A, a cada uma das seguintes
operações:
i. Troca entre si de duas linhas (ou colunas) da matriz.
ii. Multiplicação de uma linha (ou coluna) da matriz por um escalar diferente
de 0.
42
6 Teoria das Matrizes
iii. Substituição de uma linha (ou coluna) pela que se obtém somando-lhe
outra, multiplicada por um qualquer escalar (Operação de Jacobi).
As operações elementares acima definidas correspondem à multiplicação (à
esquerda ou à direita) da matriz A por matrizes que resultam da matriz iden-
tidade, que deverá ter dimensão apropriada, por aplicação das operações ele-
mentares.
Definição 27 (Matriz Elementar) Seja I ∈ M
n
(K) a matriz identidade de
ordem n. Designa-se por matriz elementar de ordem n a qualquer matriz E que
resulte de I por aplicação de uma das três operações elementares.
Consideremos genericamente uma matriz A ∈ M
m×n
(K). Vejamos, caso
a caso, que matriz, resultante da aplicação de operações elementares sobre a
matriz identidade, deve multiplicar, ou pela qual se deve multiplicar, a matriz
A de forma a que as mesmas operações elementares tenham o mesmo efeito
sobre A. Naturalmente que, a multiplicação à esquerda ou à direita da matriz
A implica uma escolha acertada para a ordem das matrizes elementares a mul-
tiplicar. Assim, a multiplicação à esquerda da matriz A implica a utilização
de matrizes elementares de ordem m, enquanto que a multiplicação à direita
implica a utilização de matrizes elementares de ordem n.
• Regra geral
Operações elementares sobre as linhas da matriz A fazem-se por multi-
plicações à esquerda desta enquanto que operações elementares sobre as
colunas se fazem por multiplicações à direita.
• Troca de Linhas
Dadas duas linhas, L
i
e L
k
, i 6= k da matriz A, a troca destas linhas
processa-se multiplicando a matriz A, à esquerda, pela matriz E que re-
sulta da troca das linhas i e k da matriz identidade I. Representa-se por
(L
i
←→L
k
). Matriz elementar associada: E
ik
.
• Troca de Colunas
Dadas duas colunas, C
j
e C
l
, j 6= l da matriz A, a troca destas colunas
processa-se multiplicando a matriz A, à direita, pela matriz F que resulta
da troca das colunas j e l da matriz identidade I. Representa-se por
(C
j
←→C
l
). Matriz elementar associada: F
jl
.
• Multiplicação de Linha por um Escalar
Dado um escalar α ∈ K, a multiplicação da linha L
i
da matriz A corre-
sponde a multiplicar A, à esquerda, pela matriz E que resulta da matriz
identidade por substituição do i-ésimo elemento da diagonal, que é 1, por
α, ou, por outras palavras, consiste na multiplicação da i-ésima linha da
matriz diagonal pelo escalar α. Representa-se por (L
i
←αL
i
). Matriz
elementar associada: E
i
(α).
43
6 Teoria das Matrizes
• Multiplicação de Coluna por um Escalar
Dado um escalar β ∈ K, a multiplicação da coluna C
j
da matriz A cor-
responde a multiplicar A, à direita, pela matriz F que resulta da matriz
identidade por substituição do i-ésimo elemento da diagonal, que é 1, por
β, ou, por outras palavras, consiste na multiplicação da i-ésima coluna da
matriz diagonal pelo escalar β. Representa-se por (C
j
←αC
j
). Matriz
elementar associada: F
j
(β).
• Operação de Jacobi sobre Linhas
Dadas duas linhas, L
i
e L
k
, i 6= k da matriz A e um escalar α ∈ K, a
substituição da linha L
i
pela linha L
i
+ α · L
k
processa-se multiplicando
a matriz A, à esquerda, pela matriz E que resulta da matriz identidade
por substituição da linha i pela que se obtém somando-lhe a linha k mul-
tiplicada pelo escalar α. Representa-se por (L
i
←L
i
+α · L
k
). Matriz
elementar associada: E
ik
(α).
• Operação de Jacobi sobre Colunas
Dadas duas colunas, C
j
e C
l
, j 6= l da matriz A e um escalar β ∈ K, a
substituição da linha C
j
pela linha C
j
+ β · C
l
processa-se multiplicando
a matriz A, à direita, pela matriz F que resulta da matriz identidade
por substituição da coluna j pela que se obtém somando-lhe a coluna l
multiplicada pelo escalar β. Representa-se por (C
j
←C
j
+β · C
l
). Matriz
elementar associada: F
jl
(β).
Exemplo 11 Considere-se a matriz
A =
_
_
−34 −68 −85 −38
90 52 43 91
30 90 −24 −52
_
_
Vejamos como cada uma das seguintes operações elementares sobre a ma-
triz A resulta da multiplicação desta matriz pela que resulta da identidade por
aplicação das mesmas operações elementares:
1. Troca das linhas 1 e 3.
Deveremos considerar uma multiplicação à esquerda. Tomamos a matriz
identidade I
3
e trocamos as linhas 1 e 3 para obter a matriz E:
_
_
1 0 0
0 1 0
0 0 1
_
_
L
1
←→L
3
−−−−−−−→
_
_
0 0 1
0 1 0
1 0 0
_
_
Procedendo à multiplicação obtém-se:
44
6 Teoria das Matrizes
A
0
= E
13
· A
=
_
_
0 0 1
0 1 0
1 0 0
_
_
_
_
−34 −68 −85 −38
90 52 43 91
30 90 −24 −52
_
_
=
_
_
30 90 −24 −52
90 52 43 91
−34 −68 −85 −38
_
_
A matriz A
0
resultou da matriz A por troca das linhas 1 e 3 como se
pretendia.
2. Troca das colunas 2 e 3.
Deveremos considerar uma multiplicação à direita. Tomamos a matriz
identidade I
4
e trocamos as colunas 2 e 3 para obter a matriz F:
_
¸
¸
_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
_
¸
¸
_
C
2
←→C
3
−−−−−−−→
_
¸
¸
_
1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
_
¸
¸
_
Procedendo à multiplicação obtém-se:
A
0
= A· E
23
=
_
_
−34 −68 −85 −38
90 52 43 91
30 90 −24 −52
_
_
_
¸
¸
_
1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
_
¸
¸
_
=
_
_
−34 −85 −68 −38
90 43 52 91
30 −24 90 −52
_
_
A matriz A
0
resultou da matriz A por troca das colunas 2 e 3 como se
pretendia.
3. Multiplicação de uma linha por um escalar.
Suponhamos que se pretende multiplicar a linha 2 da matriz A pelo escalar

2. Para tal, tomamos a matriz identidade I
3
e multiplicamos a segunda
linha pelo escalar pretendido para obter a matriz E. Seguidamente faz-se
o produto EA para obter a matriz pretendida.
45
6 Teoria das Matrizes
_
_
1 0 0
0 1 0
0 0 1
_
_
L
0
2
←−

2L
2
−−−−−−−−−→
_
_
1 0 0
0

2 0
0 0 1
_
_
Procedendo à multiplicação obtém-se:
A
0
= E
2
³

2
´
· A
=
_
_
1 0 0
0

2 0
0 0 1
_
_
_
_
−34 −68 −85 −38
90 52 43 91
30 90 −24 −52
_
_
=
_
_
−34 −68 −85 −38
90

2 52

2 43

2 91

2
30 90 −24 −52
_
_
A matriz A
0
resultou da matriz A por multiplicação da 2
a
linha por

2.
4. Multiplicação de uma coluna por um escalar.
Suponhamos que se pretende multiplicar a coluna 3 da matriz A pelo es-
calar
2
5
. Para tal, tomamos a matriz identidade I
4
e multiplicamos a ter-
ceira coluna pelo escalar pretendido para obter a matriz F. Seguidamente
faz-se o produto AF para obter a matriz pretendida.
_
¸
¸
_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
_
¸
¸
_
C
0
3
←−
2
5
C
3
−−−−−−−−→
_
¸
¸
_
1 0 0 0
0 1 0 0
0 0
2
5
0
0 0 0 1
_
¸
¸
_
Procedendo à multiplicação obtém-se:
A
0
= A· F
3
µ
2
5

=
_
_
−34 −68 −85 −38
90 52 43 91
30 90 −24 −52
_
_
_
¸
¸
_
1 0 0 0
0 1 0 0
0 0
2
5
0
0 0 0 1
_
¸
¸
_
=
_
_
−34 −68 −34 −38
90 52
86
5
91
30 90 −
48
5
−52
_
_
A matriz A
0
resultou da matriz A por multiplicação da linha 3
a
coluna por
2
5
.
46
6 Teoria das Matrizes
5. Operação de Jacobi sobre as linhas da matriz A.
Consideremos as linhas 1 e 3 da matriz A. Suponhamos que se pretende
substituir a linha L
3
pela que se obtém somando-lhe a linha L
1
multiplicada
pelo escalar

2. Tomamos a matriz identidade I
3
e substituímos a linha
L
3
pela que se obtém somando-lhe

2L
1
. A matriz F assim obtida é
multiplicada por A, à esquerda.
_
_
1 0 0
0 1 0
0 0 1
_
_
L
3
←− L
3
+

2L
1
−−−−−−−−−−−−−→
_
_
1 0 0
0 1 0

2 0 1
_
_
Procedendo à multiplicação obtém-se:
A
0
= E
31
³

2
´
· A
=
_
_
1 0 0
0 1 0

2 0 1
_
_
_
_
−34 −68 −85 −38
90 52 43 91
30 90 −24 −52
_
_
=
_
_
−34 −68 −85 −38
90 52 43 91
−34

2 + 30 −68

2 + 90 −85

2 −24 −38

2 −52
_
_
A matriz A
0
resultou da matriz A por substituição da linha 3 pela que se
obteve somando-lhe a linha 1 multiplicada por

2.
6. Operação de Jacobi sobre as colunas da matriz A.
Consideremos as colunas 2 e 3 da matriz A. Suponhamos que se pretende
substituir a coluna C
3
pela que se obtém somando-lhe a coluna C
2
multi-
plicada pelo escalar
2
5
. Tomamos a matriz identidade I
4
e substituímos a
coluna C
3
pela que se obtém somando-lhe
2
5
C
2
. A matriz F assim obtida
é multiplicada por A, à direita.
_
¸
¸
_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
_
¸
¸
_
C
3
←− C
3
+
2
5
C
2
−−−−−−−−−−−−→
_
¸
¸
_
1 0 0 0
0 1
2
5
0
0 0 1 0
0 0 0 1
_
¸
¸
_
Procedendo à multiplicação obtém-se:
47
6 Teoria das Matrizes
A
0
= A· F
32
µ
2
5

=
_
_
−34 −68 −85 −38
90 52 43 91
30 90 −24 −52
_
_
_
¸
¸
_
1 0 0 0
0 1
2
5
0
0 0 1 0
0 0 0 1
_
¸
¸
_
=
_
_
−34 −68 −
561
5
−38
90 52
319
5
91
30 90 12 −52
_
_
A matriz A
0
resultou da matriz A por substituição da coluna 3 pela que se
obteve somando-lhe a coluna 2 multiplicada por
2
5
.
O exemplo acima ilustra o facto de operações elementares sobre uma matriz
A qualquer poderem ser definidas como o produto de matrizes elementares pela
matriz A.
Exemplo 12 Considere-se a matriz
A =
_
_
−34 −68 −85 −38
90 52 43 91
30 90 −24 −52
_
_
Consideremos um conjunto de operações elementares a aplicar sobre a matriz
A:
• Troca das linhas 1 e 3 (L
1
←→L
3
).
• Troca das colunas 2 e 3 (C
2
←→C
3
).
• Multiplicação da linha 2 pelo escalar

2
¡
L
2
←−

2L
2
¢
.
• Substituição da linha 3 pela que se obtém somando-lhe a linha 1 multipli-
cada pelo escalar 2 (L
3
←− L
3
+ 2L
1
).
• Multiplicação da coluna 3 pelo escalar
2
5
¡
C
3
←−
2
5
C
3
¢
.
• Substituição da coluna 3 pela que se obtém somando-lhe a coluna 4 multi-
plicada pelo escalar −1 (C
3
←− C
3
−C
4
).
A questão que se coloca é a de saber qual a matriz A
0
que se obtém de
A por aplicação das 6 operações elementares acima descritas. Vejamos
então o resultado, por aplicação directa das operações sobre a matriz A:
48
6 Teoria das Matrizes
_
_
−34 −68 −85 −38
90 52 43 91
30 90 −24 −52
_
_
L
1
←→L
3
−−−−−−−→
_
_
30 90 −24 −52
90 52 43 91
−34 −68 −85 −38
_
_
C
2
←→C
3
−−−−−−−→
_
_
30 −24 90 −52
90 43 52 91
−34 −85 −68 −38
_
_
L
2
←−

2L
2
−−−−−−−−−→
_
_
30 −24 90 −52
90

2 43

2 52

2 91

2
−34 −85 −68 −38
_
_
L
3
←− L
3
+ 2L
1
−−−−−−−−−−−−→
_
_
30 −24 90 −52
90

2 43

2 52

2 91

2
26 −133 112 −142
_
_
C
3
←−
2
5
C
3
−−−−−−−−→
_
_
30 −24 36 −52
90

2 43

2
104
5

2 91

2
26 −133
224
5
−142
_
_
C
3
←− C
3
−C
4
−−−−−−−−−−−→
_
_
30 −24 88 −52
90

2 43

2 −
351
5

2 91

2
26 −133
934
5
−142
_
_
Vejamos agora que se obterá a mesma matriz A
0
se a matriz A for devi-
damente multiplicada pelas matrizes elementares associadas às operações
elementares descritas.
O produto desejado é, simbolicamente, o seguinte:
³
E
31
(2) ×E
2
³

2
´
×E
13
´
×A×
µ
F
23
×F
3
µ
2
5

×F
34
(−1)

O resultado será:
49
6 Teoria das Matrizes
(L
3
←−L
3
+2L
1
)
z }| {
_
_
1 0 0
0 1 0
2 0 1
_
_
(L2←−

2L2)
z }| {
_
_
1 0 0
0

2 0
0 0 1
_
_
(L
1
←→L
3
)
z }| {
_
_
0 0 1
0 1 0
1 0 0
_
_
×
×
_
_
−34 −68 −85 −38
90 52 43 91
30 90 −24 −52
_
_
×
×
_
¸
¸
_
1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
_
¸
¸
_
| {z }
(C
2
←→C
3
)
_
¸
¸
_
1 0 0 0
0 1 0 0
0 0
2
5
0
0 0 0 1
_
¸
¸
_
| {z }
(C
3
←−
2
5
C
3)
_
¸
¸
_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 −1 1
_
¸
¸
_
| {z }
(C
3
←−C
3
−C
4
)
=
_
_
30 −24 88 −52
90

2 43

2 −
351
5

2 91

2
26 −133
934
5
−142
_
_
Como era de esperar o resultado dos dois métodos utilizado é o mesmo.
Nota 7 É importante notar a ordem pela qual os produtos, à esquerda e à
direita, são efectuados. Com efeito, se O
1
, O
2
, · · · , O
p
for um conjunto de oper-
ações elementares sobre linhas a executar, por esta ordem, sobre uma matriz A
qualquer, e se E
1
, E
2
, · · · , E
p
forem as matrizes elementares associadas a cada
uma daquelas operações, a matriz A
0
que se obtém por aplicação das operações
elementares é dada por E
p
× · · · × E
2
× E
1
× A. Note-se que a matriz que
primeiro multiplica A está associada à primeira operação elementar, a segunda
matriz à segunda operação elementar e assim sucessivamente. O mesmo ar-
gumento é válido para operações sobre colunas, isto é, se O
1
, O
2
, · · · , O
q
for
um conjunto de operações elementares sobre as colunas de uma matriz A, por
esta ordem, e F
1
, F
2
, · · · , F
p
forem as matrizes elementares associadas àquelas
operações, a matriz A
0
que resulta da aplicação destas operações é dada por
A×F
1
×F
2
× · · · ×F
p
.
Do acima exposto resulta o seguinte resultado:
Proposição 13 Se multiplicarmos A ∈ M
m×n
(K), à esquerda por uma matriz
elementar E (de ordem m), a matriz produto, EA, também se pode obter de
A efectuando sobre as linhas de A a mesma operação sobre linhas que permitiu
passar de I
m
a E.
Se multiplicarmos A ∈ M
m×n
(K), à direita por uma matriz elementar F
(de ordem n), a matriz produto, AF, também se pode obter de A efectuando
sobre as colunas de A a mesma operação sobre colunas que permitiu passar de
I
n
a F.
50
6 Teoria das Matrizes
Demonstração. A demonstração é simples e está ilustrada pelos exemplos
anteriores.
6.6.2 Determinação da Característica de Linha de uma Matriz
Nesta secção estudar-se-ão um conjunto de resultados que permitem determinar
a característica de linha de qualquer matriz A ∈ M
m×n
(K). Na determinação
da característca de linha, r
l
(A), utilizaremos operações elementares sobre as
linhas de uma matriz, estudadas na secção anterior. Como já vimos, operações
elementares sobre linhas (colunas) não afectam a dependência (ou independên-
cia) linear das linhas (colunas) de uma matriz. Como tal, a característica de
linha de uma matriz não é modificada por operações elementares sobre as linhas
dessa matriz.
É importante verificar que, por enquannto, não há nenhum resultado que
garanta que operações elementares sobre as linhas de uma matriz não afectam
a sua característica de coluna ou, que operações elementares sobre as colunas
não afectam a sua caractrística de linha.
Proposição 14 Seja A ∈ M
m×n
(K). Se A for transformada na matriz A
0
através de operações elementares sobre linhas então r
l
(A) = r
l
³
A
0
´
.
Demonstração. A demonstração sai imediatamente da aplicação directa
da Definição 25 e da Proposição 10.
Definição 28 (Matriz em Escada) Seja A ∈ M
m×n
(K). Diz-se que a ma-
triz A está na forma de escada se a linha i apresenta mais zeros consecutivos
no início que a linha j, com i < j ≤ m.
Exemplo 13 As seguintes matrizes encontram-se em forma de escada:

_
_
0 1 1 −1 0
0 0 0 4 9
0 0 0 0 0
_
_
:
1
a
linha: 1 zero inicial
2
a
linha: 3 zeros iniciais
3
a
linha: 5 zeros iniciais

_
_
1 0 0 0 0
0 1 2 −1 0
0 0 0 0 1
_
_
:
1
a
linha: nenhum zero inicial
2
a
linha: 1 zero inicial
3
a
linha: 4 zeros iniciais
Proposição 15 A característica de linha de uma matriz A ∈ M
m×n
(K) em
forma de escada é igual ao número de linhas diferentes de zero.
51
6 Teoria das Matrizes
Demonstração. Suponhamos que a matriz A tem as primeiras p linhas
não nulas e as últimas m − p nulas. Vamos mostrar que as p primeiras lin-
has são linearmente independentes. Para tal, é necessário resolver a equação
P
p
i=1
λ
i
L
i
= 0, para os escalares {λ
i
}. A linha L
i
terá a configuração
£
0 · · · a
ij
i
· · · a
in
¤
onde a
ij
i
é o primeiro elemento não nulo da linha i. A combinação linear
nula das primeiras p linhas de A toma então a forma
p
X
i=1
λ
i
£
0 · · · a
ij
i
· · · a
in
¤
= 0
a que corresponde a resolução de um sistema de equações, a saber:
_
¸
¸
¸
¸
_
¸
¸
¸
¸
_
a
1j
1
λ
1
+
P
p
i=2
λ
i
· 0 = 0
a
1j2
λ
1
+a
2j2
λ
2
+
P
p
i=3
λ
i
· 0 = 0
a
1j
3
λ
1
+a
2j
3
λ
2
+a
3j
3
λ
3
+
P
p
i=4
λ
i
· 0 = 0
· · ·
P
p
i=1
a
ij
p
λ
i
· 0 = 0
Note-se que da primeira equação resulta λ
1
= 0. Substituindo λ
1
= 0 na
segunda equação e resolvendo resulta λ
2
= 0. Substituindo na terceira equação
λ
1
= λ
2
= 0 resulta λ
3
= 0. Prosseguindo esta substituição recursivamente
até à p−ésima equação permite concluir que {λ
i
= 0}
i=1,··· ,p
e que portanto
as primeiras p linhas de A são linearmente independentes. Se a este conjunto
de linhas adicionarmos uma qualquer linha k, com p < k ≤ m, resultará um
conjunto de p +1 linhas linearmente dependente, uma vez que a linha k é nula.
Esta conclusão resulta da Proposição 10.1. Assim, p é o número máximo de
linhas linearmente independente da matriz A, isto é a característica de linha de
A é igual a p: r
l
(A) = p.
Nota 8 É evidente que a característica da matriz identidade de ordem n é
exactamente n, uma vez que a matriz identidade está naturalmente em forma
de escada.
Exemplo 14 Determinação da característica de linha das seguintes matrizes
em escada.
52
6 Teoria das Matrizes
• A =
_
_
0 1 1 −1 0
0 0 0 4 9
0 0 0 0 0
_
_
. O número de linhas não nulas é 2 pelo que
a característica de linha da matriz é r
l
(A) = 2. Alternativamente, pode-
mos verificar que as duas primeiras linhas são linearmente independentes
e, sendo a terceira linha nula, o número máximo de linhas linearmente
independentes é precisamente 2 (sejam λ
1
e λ
2
os escalares associados,
respectivamente, à primeira e segunda linhas da matriz A):
1.
_
¸
¸
¸
¸
_
¸
¸
¸
¸
_
0 · λ
1
+ 0 · λ
2
= 0
1 · λ
1
+ 0 · λ
2
= 0
1 · λ
1
+ 0 · λ
2
= 0
(−1) · λ
1
+ 4 · λ
2
= 0
0 · λ
1
+ 9 · λ
2
= 0
⇐⇒
_
¸
¸
¸
¸
_
¸
¸
¸
¸
_
0 = 0
λ
1
= 0
0 = 0
λ
2
= 0
0 = 0
⇐⇒
½
λ
1
= 0
λ
2
= 0
• A =
_
_
1 0 0 0 0
0 1 2 −1 0
0 0 0 0 1
_
_
. O número de linhas não nulas é 3 pelo que a
característica de linha da matriz é r
l
(A) = 3. Alternativamente, podemos
verificar que as linhas são linearmente independentes, sendo portanto o
número máximo de linhas linearmente independentes que é precisamente
3 (sejam λ
1
, λ
2
e λ
3
os escalares associados, respectivamente, à primeira,
segunda e terceira linhas da matriz A):
1.
_
¸
¸
¸
¸
_
¸
¸
¸
¸
_
1 · λ
1
+ 0 · λ
2
+ 0 · λ
3
= 0
0 · λ
1
+ 1 · λ
2
+ 0 · λ
3
= 0
0 · λ
1
+ 2 · λ
2
+ 0 · λ
3
= 0
0 · λ
1
+ (−1) · λ
2
+ 0 · λ
3
= 0
0 · λ
1
+ 0 · λ
2
+ 1 · λ
3
= 0
⇐⇒
_
¸
¸
¸
¸
_
¸
¸
¸
¸
_
λ
1
= 0
λ
2
= 0
0 = 0
0 = 0
λ
3
= 0
⇐⇒
_
_
_
λ
1
= 0
λ
2
= 0
λ
3
= 0
O resultado acima sugere que, se for possivel transformar uma qualquer
matriz A ∈ M
m×n
(K) numa matriz B em forma de escada preservando a sua
característica de linha, então é possível determinar a característica de linha de
qualquer matriz. O resultado seguinte mostra que tal processo existe.
Proposição 16 Toda a matriz A ∈ M
m×n
(K) pode ser reduzida a uma matriz
B em forma de escada por meio de operações elementares sobre as suas linhas,
tendo-se consequentemente r
l
(A) = r
l
(B).
53
6 Teoria das Matrizes
Demonstração. Suponhamos que j
1
, com 1 ≤ j
1
≤ n é a primeira coluna
de A que não é nula. Por troca de linhas, colocamos um elemento a 6= 0 na
posição (1, j
1
) da matriz. Multiplica-se agora a linha L
(1)
1
por a
−1
; deste modo
fica o elemento 1 ∈ K na posição (1, j
1
); se uma das outras linhas de A, L
s
por
exemplo, com 1 < s ≤ m, tem um elemento b na coluna j
1
soma-se-lhe a linha
L
(1)
1
multiplicada pelo escalar −b, isto é, faz-se L
s
←L
s
+ (−b) L
(1)
1
(Operação
de Jacobi). Assim, a nova linha L
(1)
s
passa a ter o escalar 0 ∈ K na posição
(s, j
1
). Procedendo de igual modo com todas as linhas, que não a primeira, que
tenham um elemento não nulo na coluna j
1
obtem-se uma matriz com a forma:
A
1
=
_
¸
¸
¸
¸
_
0 · · · 0 1 a
(1)
1,j1+1
a
(1)
1,j1+2
· · · a
(1)
1n
0 · · · 0 0 a
(1)
2,j
1
+1
a
(1)
2,j
1
+2
· · · a
(1)
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 · · · 0 0 a
(1)
m,j
1
+1
a
(1)
2,j
1
+2
· · · a
(1)
mn
_
¸
¸
¸
¸
_
Suponhamos agora que j
2
, com j
1
< j
2
≤ n é a primeira coluna de A
1
que
tem elementos não nulos para além de, eventualmente, o primeiro. Por troca de
linhas, colocamos um elemento d 6= 0 na posição (2, j
2
) da matriz. Multiplica-se
agora a linha L
(2)
2
por d
−1
; deste modo fica o elemento 1 ∈ K na posição (2, j
2
);
se uma das outras linhas de A
1
, L
(1)
r
por exemplo, com 2 < r ≤ m, tem um
elemento f na coluna j
2
soma-se-lhe a linha L
(2)
2
multiplicada pelo escalar −f,
isto é, faz-se L
(1)
r
←L
(1)
r
+(−f) L
(2)
2
(Operação de Jacobi). Assim, a nova linha
L
(2)
r
passa a ter o escalar 0 ∈ K na posição (r, j
2
). Procedendo de igual modo
com todas as linhas, que não a primeira e a segunda, que tenham um elemento
não nulo na coluna j
2
obtem-se uma matriz com a forma:
A
2
=
_
¸
¸
¸
¸
_
0 · · · 0 1 a
(1)
1,j
1
+1
· · · a
(1)
1,j
2
a
(1)
1,j
2
+1
· · · a
(1)
1n
0 · · · 0 0 0 · · · 1 a
(2)
2,j2+1
· · · a
(2)
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 · · · 0 0 0 · · · 0 a
(2)
m,j
2
+1
· · · a
(2)
mn
_
¸
¸
¸
¸
_
Repetindo este processo um número, p, suficiente de vezes, sempre inferior
a n, obtém-se uma matriz B = A
p
na forma desejada. Adicionalmente, tem-
se r
l
(A) = r
l
(B) uma vez que operações elementares sobre as linhas de uma
matriz não alteram a sua característica de linha.
Definição 29 (Condensação Vertical) Ao processo implícito na Proposição
16, que permite transformar uma qualquer matriz A ∈ M
m×n
(K) numa matriz
B em forma de escada através de operações elementares sobre linhas designa-se
Condensação Vertical da matriz A.
54
6 Teoria das Matrizes
Exemplo 15 Considere-se a matriz A =
_
_
0 2 4 1 9
0 3 5 2 1
0 −1 2 0 0
_
_
. Determi-
nemos a sua característica de linha através de condensação vertical.
_
_
0 2 4 1 9
0 3 5 2 1
0 −1 2 0 0
_
_
L
1
←−
2
5
L
1
−−−−−−−−→
_
_
0 1 2
1
2
9
2
0 3 5 2 1
0 −1 2 0 0
_
_
L
2
←− L
2
−3L
1
−−−−−−−−−−−−→
_
_
0 1 2
1
2
9
2
0 0 −1
1
2

25
2
0 −1 2 0 0
_
_
L
3
←− L
3
+L
1
−−−−−−−−−−−→
_
_
0 1 2
1
2
9
2
0 0 −1
1
2

25
2
0 0 4
1
2
9
2
_
_
L
3
←− L
3
+ 4L
2
−−−−−−−−−−−−→
_
_
0 1 2
1
2
9
2
0 0 −1
1
2

25
2
0 0 0
5
2

91
2
_
_
Logo, a característica de linha da matriz A é r
l
(A) = 3. Repare-se que a 2
a
e 3
a
operações poderiam ter sido ambas efectuadas na 2
a
matriz, poupando-nos
assim, a escrita de uma das matrizes anteriores (a terceira).
Definição 30 (Elemento Redutor) Durante o processo de CondensaçãoVer-
tical, ao elemento, a
ij
, utilizado para, mediante a aplicação de Operações de
Jacobi, anular os elementos {a
kj
}
k>i
da respectiva coluna mas em linhas de
ordem superior, dá-se a designação de Elemento Redutor (o termo ”pivot” é
também frequentemente utilizado). O Elemento Redutor de uma linha não nula
é o elemento com índice de coluna mais baixo que ainda é não -nulo.
As colunas de uma matriz em forma de escada que contêm um elemento
redutor designam-se por Colunas Redutoras (ou Colunas Pivot).
Nota 9 O elemento redutor não tem necessariamente de ser o escalar 1 ∈ K.
No exemplo anterior utilizàmos, por exemplo −1. Não nos afastemos do ob-
jectivo principal do processo de condensação que consiste em transformar uma
matriz numa outra em forma de escada. A utilização da operação elementar que
consiste em multiplicar uma linha da matriz por um escalar tem como objectivo
facilitar os cálculos mediante a transformação do elemento redutor no escalar
1 ∈ K, com o qual é muito mais simples realizar as Operações de Jacobi que se
seguem.
Se, numa matriz em forma de escada, todos os elementos redutores forem o
escalar 1 ∈ K e os restantes elementos da respectiva coluna redutora forem 0,
diz-se que a matriz se encontra na forma de escada reduzida.
Exemplo 16 As seguintes matrizes em forma de escada têm os seus elementos
redutores devidamente assinalados.
55
6 Teoria das Matrizes

_
¸
_
0 1 1 −1 0
0 0 0 4 9
0 0 0 0 0
_
¸
_. Trata-se de uma matriz em forma de escada.

_
¸
_
1 0 0 0 0
0 1 2 −1 0
0 0 0 0 1
_
¸
_. Trata-se de uma matriz em forma de escada
reduzida.
Nota 10 Naturalmente que, numa matriz em forma de escada, o número de
linhas não nulas, o número de elementos redutores e o número de colunas redu-
toras são sempre iguais entre si.
6.7 Inversão de Matrizes
Nesta secção vamos estudar a Inversão de Matrizes, questão central na Teoria
das Matrizes com ramificações extremamente importantes na Álgebra Linear
em geral.
6.7.1 Definições e Resultados
Definição 31 (Matriz Regular/Inversa) Uma matriz quadrada A∈M
n
(K)
diz-se regular se existir B ∈ M
n
(K) tal que AB = I
n
= BA. A matriz B diz-
se inversa de A e escreve-se B = A
−1
. Do mesmo modo, A diz-se inversa de
B e escreve-se A = B
−1
. Se não existir uma matriz B nestas condições, diz-se
que a matriz A é singular.
3
Esta definição deixa em aberto uma afirmação que carece de demonstração.
O estabelecimento formal desta afirmação é como se segue:
Proposição 17 Considerem-se as matrizes A, B ∈ M
n
(K). Então AB = I se
e só se BA = I.
Demonstração.
(⇒) Suponhamos que AB = I. Pretende-se mostrar que BA = I.
3
Assumindo que o produto A· B
−1
se encontra bem definido, é incorrecto representá-lo por
A
B
. Com efeito, esta notação poderá denotar ambiguamente o produto A· B
−1
ou o produto
B
−1
· A, que não são necessariamente iguais.
56
6 Teoria das Matrizes
BA = BAI
(porque a identidade é elemento neu-
tro para a multiplicação de matrizes)
= B(AI)
(pela propriedade associativa pa-
ra a multiplicação de matrizes)
= B(IA) (porque a matriz identidade é comutável)
= B(AB) A(por hipótese)
= (BA) (BA)
(pela propriedade associativa pa-
ra a multiplicação de matrizes)
Resulta que BA = (BA) (BA) ⇐⇒ BA(BA−I) = 0. Se BA = 0 então
ABA = A0 ⇐⇒ (AB) A = 0 ⇐⇒ IA = 0 ⇐⇒ A = 0. Mas também
BAB = 0B ⇐⇒ B(AB) = 0 ⇐⇒ BI = 0 ⇐⇒ B = 0. Logo deveremos
ter (BA−I) = 0 ⇐⇒BA = I.
(⇐=) Suponhamos que BA = I. Pretende-se mostrar que AB = I. De-
mostração em tudo idêntica à anterior mutatis mutantis.
Naturalmente que o conceito de regularidade de uma matriz só é passível de
ser aplicado a matrizes quadradas. Qualquer matriz, que não seja quadrada não
pode, por definição, ser regular, uma vez que não existe uma outra matriz que
possa simultaneamente ser multiplicada à esquerda e à direita daquela (um dos
produtos nunca será possível).
Proposição 18 Segue-se uma miscelânea de resultados àcerca de matrizes re-
gulares.
1. Toda a matriz elementar é regular.
2. Se A ∈ M
n
(K) é regular então r
l
(A) = n = r
c
(A).
3. Se A ∈ M
n
(K) é regular então
¡
A
T
¢
−1
=
¡
A
−1
¢
T
.
4. Seja A ∈ M
m×n
(K). Se B ∈ M
n
(K) e D ∈ M
m
(K) forem regulares
então r
l
(DA) = r
l
(A) e r
c
(AB) = r
c
(A).
5. Se A, B ∈ M
n
(K) são matrizes regulares, AB também é regular e tem-se
(AB)
−1
= B
−1
A
−1
.
6. Se A
k
∈ M
n
(K) , k = 1, · · · , p são matrizes regulares então
Q
p
k=1
A
k
também o é e (
Q
p
k=1
A
k
)
−1
= A
−1
p
× · · · ×A
−1
1
.
7. O conjunto das matrizes regulares de ordem n sobre um corpo K constitui
um grupo a respeito da multiplicação; tal grupo designa-se por GL
n
(K),
Grupo Linear Geral de ordem n.sobre K.
57
6 Teoria das Matrizes
8. Seja A ∈ M
n
(K) uma matriz regular de ordem n sobre K. Se B ∈ M
n
(K)
é tal que BA = I
n
, então B = A
−1
; de igual modo, se B ∈ M
n
(K) é tal
que AD = I
n
então D = A
−1
.
Demonstração.
1. Seja E uma matriz elementar de ordem n sobre K. Se E resultou de I
n
por troca de linhas (ou colunas) é fácil verificar que EE = I
n
, logo E é
regular e inversa de si mesma. Com feito, se E resulta da troca das linhas
s e t; teremos (no caso da troca de linhas):
(EE)
ik
=
n
X
j=1
e
ij
e
jk
=
_
_
_
P
n
j=1
e
sj
e
jk
= e
tk
, se i = s
P
n
j=1
e
tj
e
jk
= e
sk
, se i = t
e
ik
, se i 6= s, t
=
_
¸
¸
¸
¸
_
¸
¸
¸
¸
_
½
1, se k = s
0, se k 6= s
, se i = s
½
1, se k = t
0, se k 6= t
, se i = t
e
ik
, se i 6= s, t
= δ
ik
Se E resultou da multiplicação da linha (ou coluna) s por um escalar
α ∈ K\ {0}, então, sendo F a matriz elementar resultante de multiplicar
a linha (ou coluna) s de I
n
por a
−1
, tem-se EF = I
n
= FE, logo E é
regular. Efectivamente, no caso das linhas,
(EF)
ik
=
n
X
j=1
e
ij
f
jk
=
½
e
ss
f
sk
= αf
sk
, se i = s
e
ik
, se i 6= s
=
_
_
_
½
1, se k = s
0, se k 6= s
, se i = s
e
ik
, se i 6= s
= δ
ik
Se E se obteve somando à linha (ou coluna) s de I
n
a linha (ou coluna)
t multiplicada por b ∈ K, a matriz H obtida de I
n
somando à linha (ou
coluna) s a linha (ou coluna) t multiplicada por −b é tal que HE=I
n
=
EH, logo E é regular. Com efeito, para as linhas,
(EH)
ik
=
n
X
j=1
e
ij
h
jk
=
½ P
n
j=1
e
sj
h
jk
= e
ss
h
sk
+e
st
h
tk
, se i = s
e
ik
, se i 6= s
=
_
_
_
½
1 · 1 + 0 · 0 = 1, se k = s
1 · (−b) +b · 1 = 0, se k = t
, se i = s
e
ik
, se i 6= s
= δ
ik
58
6 Teoria das Matrizes
2. Se A é regular teremos AA
−1
= I
n
, e pela Proposição (12) n = r
c
(I
n
) ≤
r
c
(A). Como A tem apenas n colunas, virá r
c
(A) = n. De igual modo,
como A
−1
A = I
n
, ter-se-á n = r
l
(I
n
) ≤ r
l
(A) e como A tem apenas n
linhas, virá r
c
(A) = n.
3. Basta verificar que A
T
¡
A
−1
¢
T
=
¡
A
−1
A
¢
T
= I
n
.
4. Como DA = DA, tem-se, pela Proposição (12) r
l
(DA) ≤ r
l
(A). Mas
tem-se A = D
−1
DA pelo que r
l
(DA) ≥ r
l
(A). Logo, r
l
(DA) = r
l
(A).
O raciocínio que demostra o resultado para as colunas é, em todo, semel-
hante.
5. Basta verificar que (AB) B
−1
A
−1
= A
¡
BB
−1
¢
A
−1
= AA
−1
= I
n
.
6. O resultado constitui uma generalização do resultado anterior e pode ser
demonstrado por indução sobre o número de factores do produto. Para
p = 2 o resultado está demonstrado. Suponhamos que o resultado é válido
para p − 1 factores. Pretende-se mostrar que também é válido para p
factores:
Ã
p
Y
k=1
A
k
!
¡
A
−1
p
× · · · ×A
−1
1
¢
=
= (A
1
× · · · ×A
p
)
¡
A
−1
p
× · · · ×A
−1
1
¢
= A
1
× · · · ×
¡
A
p
A
−1
p
¢
× · · · ×A
−1
1
(porque A
p
é regular) = (A
1
× · · · ×A
p−1
)
¡
A
−1
p−1
× · · · ×A
−1
1
¢
= I
n
(por hipótese)
7. Vimos no ponto 5. desta proposição que o referido conjunto é fechado
para a multiplicação; na Proposição (5) verificámos que a multiplicação
de matrizes é associativa; o elemento neutro I
n
pertence ao conjunto;
finalmente, se A é regular A
−1
também o é, o que significa que A
−1

GL
n
(K). Conclui-se assim que GL
n
(K) é um grupo.
8. Se BA = I
n
então BAA
−1
= I
n
A
−1
, logo B = A
−1
. De igual modo, se
AD = I
n
então A
−1
AD = A
−1
I
n
, logo D = A
−1
.
Nota 11 Simbolicamente, a inversa de uma matriz regular é dada pelas seguin-
tes matrizes:
• E
−1
ik
= E
ik
• E
−1
i
(α) = E
i
¡
1
α
¢
, α 6= 0
59
6 Teoria das Matrizes
• E
−1
ik
(α) = E
ik
(−α)
A seguinte proposição é uma generalização do resultado estabelecido no
ponto 4 da Proposição (18):
Proposição 19 Seja A ∈ M
m×n
(K). Se F ∈ M
n
(K) e E ∈ M
m
(K) forem
matrizes elementares então r
l
(AF) = r
l
(A) e r
c
(EA) = r
c
(A).
Demonstração. Façamos a prova para as linhas. Considere-se A
0
= AF,
e recordemos que a multiplicação à direita por uma matriz elementar cor- re-
sponde a operar sobre as colunas (Proposição 13). Designem-se as linhas de
A por {L
s
}
s=1,··· ,n
e as de A
0
por
n
L
0
s
o
s=1,··· ,n
. Suponhamos, sem perda de
generalidade, que {L
s
}
s=1,··· ,h
são linearmente idependentes. Vejamos qual o
resultado da aplicação das três operações elementares sobre as linhas de A.
• Suponhamos então que A
0
resulta de A por troca das colunas i e j, com i<
j. Mostremos que as linhas
n
L
0
s
o
s=1,··· ,h
são linearmente independentes:
h
X
s=1
λ
s
L
0
s
= 0 ⇐⇒
h
X
s=1
λ
s
£
a
s1
· · · a
sj
· · · a
si
· · · a
sn
¤
= 0 ⇐⇒
h
X
s=1
λ
s
£
a
s1
· · · a
si
· · · a
sj
· · · a
sn
¤
= 0 ⇐⇒
h
X
s=1
λ
s
L
s
= 0 =⇒
λ
s
= 0, ∀
s=1,··· ,h
Assim, as linhas
n
L
0
s
o
s=1,··· ,n
são linearmente independentes.
Suponhamos agora que A
0
resulta de A por multiplicação da coluna j desta
última por um escalar β ∈ K\ {0}. Mostremos que as linhas
n
L
0
s
o
s=1,··· ,h
são linearmente independentes:
h
X
s=1
λ
s
L
0
s
= 0 ⇐⇒
60
6 Teoria das Matrizes
h
X
s=1
λ
s
£
a
s1
· · · β ×a
sj
· · · a
sn
¤
= 0 ⇐⇒
h
X
s=1
λ
s
£
a
s1
· · · a
si
· · · a
sj
· · · a
sn
¤
= 0 ⇐⇒
h
X
s=1
λ
s
L
s
= 0 =⇒
λ
s
= 0, ∀
s=1,··· ,h
Em particular, relativamente às coordenadas de índice j, temos
P
h
s=1
λ
s
×
β ×a
sj
= β
P
h
s=1
λ
s
a
sj
= 0. Mas porque β 6= 0 virá
P
h
s=1
λ
s
a
sj
= 0, isto
é
h
X
s=1
λ
s
£
a
s1
· · · a
si
· · · a
sj
· · · a
sn
¤
= 0 ⇐⇒
h
X
s=1
λ
s
L
s
= 0 =⇒
λ
s
= 0, ∀
s=1,··· ,h
Assim, as linhas
n
L
0
s
o
s=1,··· ,n
são linearmente independentes.
• Admitamos agora que A
0
resulta de somar à coluna i de A a coluna j, com
i < j, multiplicada por um escalar β ∈ K\ {0}. Mostremos que as linhas
n
L
0
s
o
s=1,··· ,h
são linearmente independentes:
h
X
s=1
λ
s
L
0
s
= 0 ⇐⇒
h
X
s=1
λ
s
£
a
s1
· · · a
si
+βa
sj
· · · a
sj
· · · a
sn
¤
= 0 ⇐⇒
61
6 Teoria das Matrizes
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
P
h
s=1
λ
s
a
s1
= 0
.
.
.
P
h
s=1
λ
s
a
si

P
h
s=1
λ
s
a
sj
= 0
.
.
.
P
h
s=1
λ
s
a
sj
= 0
.
.
.
P
h
s=1
λ
s
a
sn
= 0
⇐⇒
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
P
h
s=1
λ
s
a
s1
= 0
.
.
.
P
h
s=1
λ
s
a
si

P
h
s=1
λ
s
a
sj
= 0
.
.
.
P
h
s=1
λ
s
a
sj
= 0
.
.
.
P
h
s=1
λ
s
a
sn
= 0
⇐⇒
h
X
s=1
λ
s
£
a
s1
· · · a
si
· · · a
sj
· · · a
sn
¤
= 0 ⇐⇒
h
X
s=1
λ
s
L
s
= 0 =⇒
λ
s
= 0, ∀
s=1,··· ,h
Assim, as linhas
n
L
0
s
o
s=1,··· ,n
são linearmente independentes.
Concluímos assim, que r
l
(A) ≤ r
l
(AF). Como F é uma matriz elemen-
tar, logo é regular e podemos escrever A = A
0
F
−1
, sendo também F
−1
uma matriz elementar (como verificámos na demonstração do ponto 1. da
Proposição 18). Do mesmo modo, teremos r
l
³
A
0
´
≤ r
l
³
A
0
F
−1
´
pela
Proposição 12, ou seja r
l
(AF) ≤ r
l
(A), donde a igualdade.
Analogamente se prova a afirmação relativamente à característica de col-
una.
Nota 12 Em termos práticos, o que o resultado anterior nos indica é que oper-
ações elementares sobre as linhas de uma matriz não afectam a sua característica
de coluna e que as operaçõs elementares sobre as colunas de uma matriz não
afectam a sua característica de linha.
62
6 Teoria das Matrizes
Podemos portanto concluir que operações elementares sobre as linhas ou col-
unas de uma matriz não afectam a sua característica.
Proposição 20 Seja A ∈ M
n
(K) uma matriz quadrada tal que r
l
(A) = n. A
redução da matriz A a uma matriz B em forma de escada por meio de operações
elementares sobre as linhas (ver Proposição 16) implica que B seja triangular
superior com todos os elementos principais não nulos.
Demonstração. Já verificámos na Proposição (16) que qualquer matriz é
redutível à forma de escada por meio de operações elementares, em particular
qualquer matriz A ∈ M
m×n
(K).
Suponhamos que a matriz A está reduzida à forma de escada mas que, por
exemplo, b
jj
= 0, com 1 ≤ j ≤ n. Tal significa que o primeiro elemento
significativo da linha
j
será pelo menos b
j,j+1
. Mas isso significa que o primeiro
elemento significativo da linha n será pelo menos b
n,n+1
. Mas a matriz B é
quadrada, logo, a n-ésima linha de B é nula. Pela Proposição (10) as linhas
de B, e portanto de A, serão linearmente dependentes, implicando que r
l
(A) =
r
l
(B) < n, o que é absurdo. O absurdo resulta de assumirmos que um dos
elementos da diagonal de B é não nulo, logo b
jj
6= 0, ∀
1≤j≤n
.
Assim, dada uma matriz A ∈ M
m×n
(K) a matriz B, em forma de escada,
que daquela resulta por aplicação de operações elementares terá a forma:
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
1 b
12
b
13
· · · b
1,n−2
b
1,n−1
b
1,n
0 1 b
23
· · · b
2,n−2
b
2,n−1
b
2,n
0 0 1 · · · b
3,n−2
b
3,n−1
b
3,n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 · · · 1 b
n−2,n−1
b
n−2,n
0 0 0 · · · 0 1 b
n−1,n
0 0 0 · · · 0 0 1
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
(5)
Continuando a proceder a operações elementares sobre linhas, poderemos
transformar B em I
n
.
O seguinte conjunto de operações transformará a matriz B numa matriz B
(1)
onde a última coluna tem a forma {0, 0, 0, · · · 0, 0, 1}:
L
n−1
←L
n−1
−b
n−1,n
×L
n
L
n−2
←L
n−2
−b
n−2,n
×L
n
· · ·
L
1
←L
1
−b
1,n
×L
n
(6)
De igual modo, o seguinte conjunto de operações transformará a matriz B
(1)
numa matriz B
(2)
onde a penúltima coluna tem a forma {0, 0, 0, · · · 0, 1, 0}:
63
6 Teoria das Matrizes
L
n−2
←L
n−2
−b
n−2,n−1
×L
n−1
L
n−3
←L
n−3
−b
n−3,n−1
×L
n−1
· · ·
L
1
←L
1
−b
1,n−1
×L
n−1
(7)
Prossegue-se deste modo até se obter I
n
.
A seguinte proposição enuncia o acima explicitado.
Proposição 21 Seja A ∈ M
n
(K) uma matriz quadrada tal que r
l
(A) = n.
Através de um número finito de de operações elementares sobre as linhas é
possível transformar a matriz A na matriz I
n
.
Proposição 22 Seja A ∈ M
n
(K) uma matriz quadrada tal que r
l
(A) = n
(r
c
(A) = n). Então A é um produto de matrizes elementares, logo regular.
Demonstração. Verificámos, na Proposição 21, que é possível através
de operações elementares sobre linhas, transformar a matriz A na matriz I
n
.
Suponhamos que precisámos de t destas operações, digamos O
p
1
,O
p
2
,O
p
3
,· · ·,O
p
t
,
para obter I
n
. Vamos refazer o processo com o seguinte esquema:
A
O
p
1
−−−−−→ A
1
I
n
O
p
1
−−−−−→ E
1
,
onde E
1
é uma matriz elementar. Pelo estabelecido na Proposição 13 tem-se
ainda A
1
= E
1
· A. Efectuando uma sgunda operação tem-se:
A
1
O
p2
−−−−−→ A
2
E
1
O
p2
−−−−−→ E
12
I
n
O
p2
−−−−−→ E
2
,
onde A
2
= E
2
· A
1
e E
12
= E
2
· E
1
. Efectuando uma terceira operação,
tem-se:
A
2
O
p
3
−−−−−→ A
3
E
12
O
p
3
−−−−−→ E
123
I
n
O
p
3
−−−−−→ E
3
,
onde A
3
= E
3
· A
2
e E
123
= E
3
· E
12
, e assim sucessivamente até à operação
O
p
t
:
A
t−1
O
pt
−−−−−→ A
t
E
12···t−1
O
pt
−−−−−→ E
12···t
I
n
O
pt
−−−−−→ E
t
,
onde A
t
= E
t
· A
t−1
e E
12···t
= E
t
· E
12···t−1
.
64
6 Teoria das Matrizes
Como se referiu no início da demonstração, depois da aplicação destas t
operações obteve-se a matriz I
n
, isto é, A
t
= I
n
. Então,
E
12···t
= E
t
E
12···t−1
= E
t
E
t−1
· E
12···t−2
= (· · · )
= E
t
E
t−1
· · · · · E
3
E
2
E
1
e ainda
I
n
= A
t
= E
t
A
t−1
= E
t
E
t−1
· A
t−2
= (· · · )
= E
t
E
t−1
· · · · · E
3
E
2
E
1
A
= E
12···t
A
Nos pontos 1 e 5 da Proposição 18, respectivamente, estabelecemos que toda
maatriz elementar é regular e que o produto de matrizes regulares é ainda uma
matriz regular. Conclui-se portanto que a matriz E
12···t
é regular. Pelo ponto
8 da Proposição 18 vem A = (E
12···t
)
−1
, ou seja A = E
−1
1
E
−1
2
E
−1
3
· · · · · E
−1
t
.
Resta assinalar que cada E
−1
i
, 1 ≤ i ≤ t é uma matriz elementar.
A seguinte proposição generaliza o resultado da Proposição 19.
Proposição 23 Seja A ∈ M
m×n
(K). Se B ∈ M
n
(K) e D ∈ M
m
(K) forem
matrizes regulares então r
l
(AB) = r
l
(A) e r
c
(DA) = r
c
(A).
Demonstração. Façamos a prova para a característica de linha. Conforme
a Proposição 22, a matriz B é produto de matrizes elementares, digamos, B =
F
1
F
2
· · · F
i−1
F
i
. Tendo em conta o resultado da Proposição 19
r
l
(AB) = r
l
(AF
1
F
2
· · · F
i−1
F
i
)
= r
l
(AF
1
F
2
· · · F
i−1
)
= r
l
(AF
1
F
2
· · · F
i−2
)
= (· · · )
= r
l
(A)
Analogamente para a característica de coluna.
65
6 Teoria das Matrizes
Proposição 24 Seja A ∈ M
n
(K).
1. A matriz A é regular se e só se r
l
(A) = n (ou r
c
(A) = n).
2. A matriz A é regular se e só se tiver uma inversa direita (respectivamente
esquerda), isto é, se existir uma matriz B ∈ M
n
(K) tal que AB = I
n
(respectivamente BA = I
n
).
Demonstração.
1. Pelo ponto 2. da Proposição (18) se A é regular então r
l
(A) = n. Pela
Proposição (22), se r
l
(A) = n então A é regular. Analogamente para
r
c
(A) = n.
2. Se A é regular, por definição existe uma matriz B ∈ M
n
(K) tal que AB =
I
n
= BA. Se AB = I
n
, pela Proposição (12) tem-se n = r
c
(I
n
) ≤ r
c
(B),
logo r
c
(A) = n, e portanto A é regular pelo ponto anterior.
6.7.2 Determinação da Inversa de uma Matriz Regular
Nesta secção apresenta-se um método prático para a determinação da matriz
inversa de uma matriz A ∈ M
n
(K) regular. Pela Proposição (21) sabemos que
existem matrizes elementares E
1
, E
2
, · · · E
t
tais que E
t
E
t−1
· · · E
2
E
1
A = I
n
,
logo A
−1
= E
t
E
t−1
· · · E
2
E
1
A Isto significa que, se conhecermos sucessivamente
as matrizes elementares que permitem passar de A a I
n
. conhecermos a matriz
B tal que BA = I
n
, isto é, conheceremos a inversa de A. Consideremos então a
matriz ampliada
£
A|I
n
¤
do tipo n×2n e apliquemos toda a operação elementar
sobre as as linhas de A às linhas de I
n
. Suponhamos que O
p1
, O
p2
, · · · O
pt
são
as operações elementares a aplicar sobre a matriz A.
£
A|I
n
¤
O
p
1
−−−−−→
£
A
1
|E
1
I
n
¤
O
p
2
−−−−−→
£
A
2
|E
2
E
1
¤
O
p3
−−−−−→
£
A
3
|E
3
E
2
E
1
¤
· · ·
−−−−→
£
A
1
|E
1
¤
O
p
t
−−−−−→
£
I
n
|E
t
E
t−1
· · · E
2
E
1
¤
O que fizemos foi passar de uma matriz
£
A|I
n
¤
para uma matriz
£
I
n
|B
¤
através de operações elementares sobre linhas, em que B = A
−1
.
Exemplo 17 Consideremos a seguinte matriz real,
A =
_
_
1 1 1
1 −1 1
1 1 0
_
_
66
6 Teoria das Matrizes
Vamos veriicar se a matriz A é regular e, em caso afirmativo, determinar a
sua inversa. Em vez de condensar primeiro a matriz A, de modo a determinar
a característica, e no caso em que r
l
(A) = n, partindo de
£
A|I
n
¤
chegar a
£
I
n
|B
¤
vamos começar imediatamente com a redução de
£
A|I
n
¤
. Assim, se
A for regular, não é necessário repetir as operações elementares já efectuadas:
_
_
1 1 1
1 −1 1
1 1 0
¯
¯
¯
¯
¯
¯
1 0 0
0 1 0
0 0 1
_
_
L
2
←− L
2
−L
1
L
3
←− L
3
−L
1
−−−−−−−−−−−−→
_
_
1 1 1
0 −2 0
0 0 −1
¯
¯
¯
¯
¯
¯
1 0 0
−1 1 0
−1 0 1
_
_
L
2
←− −
1
2
L
2
L
3
←− −L
3
−−−−−−−−−−−→
_
_
1 1 1
0 1 0
0 0 1
¯
¯
¯
¯
¯
¯
1 0 0
1
2

1
2
0
1 0 −1
_
_
L
1
←− L
1
−L
3
−−−−−−−−−−−→
_
_
1 1 0
0 1 0
0 0 1
¯
¯
¯
¯
¯
¯
0 0 1
1
2

1
2
0
1 0 −1
_
_
L
1
←− L
1
−L
2
−−−−−−−−−−−→
_
_
1 0 0
0 1 0
0 0 1
¯
¯
¯
¯
¯
¯

1
2
1
2
1
1
2

1
2
0
1 0 −1
_
_
Tem-se claramente que,
A
−1
=
_
_

1
2
1
2
1
1
2

1
2
0
1 0 −1
_
_
Conclui-se assim que a matriz é regular, conclusão esta atingida ao fim das
duas primeiras operações sobre as linhas de A, quando se obteve uma matriz
em escada de elementos principais significativos. Se a matriz A não fosse reg-
ular o processo teria terminado aqui. Sendo regular, prosseguiu-se na aplicação
de operações elementares sobre as linhas de A até se obter I
3
enquanto que
simultaneamente determinávamos A
−1
por aplicação das mesmas operações el-
ementares sobre I
3
.
Note-se que às operações elementares utilizadas correspondem, utilizando a
notação habitual, as seguintes matrizes elementares
L
2
←− L
2
−L
1
: E
21
(−1)
L
3
←− L
3
−L
1
: E
31
(−1)
L
2
←− −
1
2
L
2
: E
2
¡

1
2
¢
L
3
←− −L
3
: E
3
(−1)
L
1
←− L
1
−L
3
: E
13
(−1)
L
1
←− L
1
−L
2
: E
12
(−1)
67
6 Teoria das Matrizes
Tal significa, segundo o que verificámos na proposição 22, que a matriz A
−1
pode ser produzida pelo produto, pela ordem correcta!, das matrizes elementares
acima descritas. Verifiquemos então esse resultado:
A
−1
= E
12
(−1) · E
13
(−1) · E
3
(−1) · E
2
µ

1
2

· E
31
(−1) · E
21
(−1) =
=
_
_
_
_
1 −1 0
0 1 0
0 0 1
_
_
·
_
_
1 0 −1
0 1 0
0 0 1
_
_
_
_
·
_
_
_
_
1 0 0
0 1 0
0 0 −1
_
_
·
_
_
1 0 0
0 −
1
2
0
0 0 1
_
_
_
_
·
_
_
_
_
1 0 0
0 1 0
−1 0 1
_
_
·
_
_
1 0 0
−1 1 0
0 0 1
_
_
_
_
=
=
_
_
1 −1 −1
0 1 0
0 0 1
_
_
_
_
1 0 0
0 −
1
2
0
0 0 −1
_
_
_
_
1 0 0
−1 1 0
−1 0 1
_
_
=
_
_

1
2
1
2
1
1
2

1
2
0
1 0 −1
_
_
Como seria inevitável, a matriz obtida pelo produto das matrizes elementares
é precisamente A
−1
.
Por um processo semelhante, também será possível recuperar a matriz A.
Com efeito, esta matriz será a inversa do produto de matrizes elementares de-
scrito anteriormente. Sabendo que a inversa de uma matriz elementar tem uma
forma extremamente simples, é relativamente simples determinar A, como se
verifica em seguida:
A =
·
E
12
(−1) · E
13
(−1) · E
3
(−1) · E
2
µ

1
2

· E
31
(−1) · E
21
(−1)
¸
−1
=
E
−1
21
(−1) · E
−1
31
(−1) · E
−1
2
µ

1
2

· E
−1
3
(−1) · E
−1
13
(−1) · E
−1
12
(−1) =
E
21
(1) · E
31
(1) · E
2
(−2) · E
3
(−1) · E
13
(1) · E
12
(1) =
=
_
_
_
_
1 0 0
1 1 0
0 0 1
_
_
·
_
_
1 0 0
0 1 0
1 0 1
_
_
_
_
·
_
_
_
_
1 0 0
0 −2 0
0 0 1
_
_
·
_
_
1 0 0
0 1 0
0 0 −1
_
_
_
_
·
_
_
_
_
1 0 1
0 1 0
0 0 1
_
_
·
_
_
1 1 0
0 1 0
0 0 1
_
_
_
_
=
=
_
_
1 0 0
1 1 0
1 0 1
_
_
_
_
1 0 0
0 −2 0
0 0 −1
_
_
_
_
1 1 1
0 1 1
0 0 1
_
_
=
_
_
1 1 1
1 −1 −1
1 1 0
_
_
Definição 32 (Inversão por Condensação) Ao método atrás descrito para
a inversão de uma qualquer matriz A ∈ M
n
(K) dá-se o nome de Inversão por
Condensação.
Nota 13 É extremamente importante lembrar que a determinação da inversa
de uma matriz através do método descrito só pode ser realizada exclusivamente
68
6 Teoria das Matrizes
por aplicação de operações elementares sobre linhas. Com efeito, só assim é pos-
sível afirmar que E
t
E
t−1
· · · E
2
E
1
A = I
n
e que portanto A
−1
= E
t
E
t−1
· · · E
2
E
1
.
Se forem aplicadas operações sobre colunas, definidas pelas matrizes elementares
F
1
, F
2
, · · · F
s
, chegar-se-á à conclusão que E
t
E
t−1
· · · E
2
E
1
AF
1
F
2
· · · F
s
= I
n
.
Esta expressão não está, obviamente, na forma BA = I
n
não permitindo inferir
imediatamente a forma de A
−1
.
Nota 14 Quando uma matriz A ∈ M
n
(K) não é regular esta circunstância é
facilmente identificável durante o processo de inversão da matriz. Sucederá que
em determinado ponto, após a aplicação de s operações elementares sobre linhas,
se obterá uma matriz do tipo
£
A
s
|E
s
¤
em que o próximo elemento redutor
não poderá ter outro valor que não 0. Tal significa que não é possível reduzir
a matriz A original a uma matriz triangular superior com elementos proncipais
não nulos. Consequentemente, segundo a Proposição 20 a característica da
matriz será inferior a n e portanto não será regular.
Exemplo 18 Ilustremos a Nota anterior com a seguinte matriz real,
A =
_
_
1 1 1
1 −1 1
−1 −3 −1
_
_
_
_
1 1 1
1 −1 1
−1 −3 −1
¯
¯
¯
¯
¯
¯
1 0 0
0 1 0
0 0 1
_
_
L
2
←− L
2
−L
1
L
3
←− L
3
+L
1
−−−−−−−−−−−−→
_
_
1 1 1
0 −2 0
0 −2 0
¯
¯
¯
¯
¯
¯
1 0 0
−1 1 0
1 0 1
_
_
L
3
←− L
3
−L
2
−−−−−−−−−−−−→
_
_
1 1 1
0 −2 0
0 0 0
¯
¯
¯
¯
¯
¯
1 0 0
−1 1 0
2 −1 1
_
_
Obteve-se uma matriz na forma
£
A
3
|E
3
¤
. Note-se que, neste ponto não há
forma de colocar na posição (3, 3) um elemento não nulo sem com essa operação
anular a configuração em forma de escada da matriz A
3
. Conclui-se assim que
a matriz A não é regular. Mais se conclui que, como a matriz A
3
está na forma
de escada, que a caratcterística da matriz A é 2.
69
6 Teoria das Matrizes
6.8 A Característica Revisitada
Na secção 6.6 estudámos um método, designado por Condensação Vertical,
para a determinação da característca de linha de uma qualquer matriz A ∈
M
m×n
(K). Nesta secção vamos estudar a relação entre três valores: a carac-
terísitca de linha, a característica de coluna e a característica de uma matriz.
Esse estudo resume-se ao seguinte resultado:
Proposição 25 Seja A ∈ M
m×n
(K). A características de linha e de coluna
da matriz A são iguais, isto é, r
l
(A) = r
c
(A).
Demonstração. Verificámos na Proposição 16 que a matriz A pode ser
reduzida a uma matriz A
(1)
, em forma de escada, por meio de operações ele-
mentares sobre as linhas da matriz A. Tal significa, por aplicação da Proposição
13 que existe uma matriz E, regular, tal que EA = A
(1)
. A matriz A
(1)
terá a
seguinte forma genérica:
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
0 · · · 0 1 b
1,j
1
+1
b
1,j
1
+2
· · · b
1,j
2
b
1,j
2
+1
· · · b
1,j
3
b
1,j
3
+1
· · · b
1,j
t
· · · b
1n
0 · · · 0 0 0 0 · · · 1 b
2,j
2
+1
· · · b
2,j
3
b
2,j
3
+1
· · · b
2,j
t
· · · b
2n
0 · · · 0 0 0 0 · · · 0 0 · · · 1 b
3,j3+1
· · · b
3,jt
· · · b
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 · · · 0 0 0 0 · · · 0 0 · · · 0 0 · · · 1 · · · b
tn
0 · · · 0 0 0 0 · · · 0 0 · · · 0 0 · · · 0 · · · 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 · · · 0 0 0 0 · · · 0 0 · · · 0 0 · · · 0 · · · 0
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
Poderemos agora efectuar t trocas de colunas de modo a obter uma matriz
A
(2)
cuja forma é a seguinte:
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
1 b
1,j2
b
1,j3
· · · b
1,jt
b
1,j1+1
b
1,j1+2
· · · b
1,j2+1
· · · b
1,j3+1
· · · b
1n
0 · · · 0
0 1 b
2,j
3
· · · b
2,j
t
0 0 · · · b
2,j
2
+1
· · · b
2,j
3
+1
· · · b
2n
0 · · · 0
0 0 1 · · · b
3,j
t
0 0 · · · 0 · · · b
3,j
3
+1
· · · b
3n
0 · · · 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 · · · 1 0 0 · · · 0 · · · 0 · · · b
tn
0 · · · 0
0 0 0 · · · 0 0 0 · · · 0 · · · 0 · · · 0 0 · · · 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 · · · 0 0 0 · · · 0 · · · 0 · · · 0 0 · · · 0
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
Seguidamente, através de operações de Jacobi sobre colunas poderemos uti-
lizar o elemento redutor a
(2)
11
para anular os elementos não nulos da primeira
linha de A
(2)
; de igual modo, utilizaremos o elemento redutor a
(2)
22
para anular
70
6 Teoria das Matrizes
os elementos não nulos da segunda linha de A
(2)
. Prosseguindo deste modo
até ao elemento redutor a
(2)
tt
poderemos constatar que a matriz A
(2)
pode ser
transformada, através de operações elementares sobre colunas, na matriz A
(3)
.
Tal significa, por aplicação da Proposição 13 que existe uma matriz F, regular,
tal que A
(1)
F = A
(3)
. A matriz A
(3)
terá a seguinte forma genérica, numa
representação por blocos:
A
(3)
=
·
I
t
0
t,n−t
0
m−t,t
0
m−t,n−t
¸
Em resumo, existem matrizes regulares E e F tais que EAF = A
(3)
.
Reconhecendo que, nestas circunstâncias, r
c
¡
A
(3)
¢
= t e, por aplicação do
ponto 3 da Proposição 18 e da Proposição 23 concluímos que:
t = r
l
³
A
(3)
´
= r
l
(EAF) = r
l
(AF) = r
l
(A)
t = r
c
³
A
(3)
´
= r
c
(EAF) = r
c
(AF) = r
c
(A)
Resulta imediatamente que r
l
(A) = r
c
(A).
A este valor r
l
(A) = r
c
(A) dá-se o nome de característica da matriz A e
designa-se simplesmente por r (A).
Definição 33 (Forma Canónica de uma Matriz) Seja A ∈ M
m×n
(K). A
matriz B =
·
I
t
0
t,n−t
0
m−t,t
0
m−t,n−t
¸
que resulta de A por aplicação de operações
elementares às suas linhas e colunas designa-se por forma canónica equiva-
lente a A.
Definição 34 (Condensação de uma Matriz) Seja A ∈ M
m×n
(K). O pro-
cesso que permite determinar a forma canónica equivalente a A designa-se por
condensação da matriz A.
Nota 15 O processo de condensação não consiste necessariamente na aplicação
de um conjunto de operações elementares sobre linhas seguido da aplicação de
um conjunto de operações elementares sobre colunas. A aplicação inicial de
um conjunto de operações elementares sobre linhas, processo que se designa
por condensação vertical como definido na Definição 29 permite determinar a
característica da matriz, digamos r (A). A partir daqui, o problema consiste,
através de operações elementares, indiferentemente sobre linhas ou colunas, em
criar uma matriz, cuja submatriz ocupando as primeiras r (A) linhas e colunas
é a identidade de ordem r (A) e os restantes elementos da matriz são nulos.
71
6 Teoria das Matrizes
Exemplo 19 Pelo processo de condensação determine-se a forma canónica de
cada uma das seguinte matrizes
1.
_
_
1 1 −1 −1 0
13 0 13 4 9
27 1 25 7 18
_
_
_
_
1 1 −1 −1 0
13 0 13 4 9
27 1 25 7 18
_
_
L
2
←− L
2
−13 ×L
1
L
3
←− L
3
−27 ×L
1
−−−−−−−−−−−−−−−−→
_
_
1 1 −1 −1 0
0 −13 26 17 9
0 −26 52 34 18
_
_
L
3
←− L
3
−2 ×L
2
−−−−−−−−−−−−−−→
_
_
1 1 −1 −1 0
0 −13 26 17 9
0 0 0 0 0
_
_
C
2
←− C
2
−C
1
C
3
←− C
3
+C
1
C
4
←− C
4
+C
1
−−−−−−−−−−−−−→
_
_
1 0 0 0 0
0 −13 26 17 9
0 0 0 0 0
_
_
C
3
←− C
3
+ 2 ×C
2
C
4
←− C
4
+
17
13
×C
2
C
5
←− C
5
+
9
13
×C
2
−−−−−−−−−−−−−−−−−→
_
_
1 0 0 0 0
0 −13 0 0 0
0 0 0 0 0
_
_
C
2
←− −
1
13
C
2
−−−−−−−−−−−−→
_
_
1 0 0 0 0
0 1 0 0 0
0 0 0 0 0
_
_
2.
_
¸
¸
¸
¸
_
1 2 1
1 −5 1
2 2 3
1 −1 1
0 0 1
_
¸
¸
¸
¸
_
_
¸
¸
¸
¸
_
1 2 1
1 −5 1
2 2 3
1 −1 −2
0 0 1
_
¸
¸
¸
¸
_
L
2
←−L
2
−L
1
L
3
←−L
3
−2×L
1
L
4
←−L
4
−L
1
−−−−−−−−−−−−−→
_
¸
¸
¸
¸
_
1 2 1
0 −7 0
0 −2 1
0 −3 −3
0 0 1
_
¸
¸
¸
¸
_
L
2
←− −
1
7
L
2
−−−−−−−−−→
72
6 Teoria das Matrizes
_
¸
¸
¸
¸
_
1 2 1
0 1 0
0 −2 1
0 −3 −3
0 0 1
_
¸
¸
¸
¸
_
L
3
←−L
3
+2×L
2
L
4
←−L
4
+3×L
2
−−−−−−−−−−−−−→
_
¸
¸
¸
¸
_
1 2 1
0 1 0
0 0 1
0 0 −3
0 0 1
_
¸
¸
¸
¸
_
L
4
←−L
4
+3×L
3
L
4
←−L
4
−L
3
−−−−−−−−−−−−−→
_
¸
¸
¸
¸
_
1 2 1
0 1 0
0 0 1
0 0 0
0 0 0
_
¸
¸
¸
¸
_
A partir deste ponto temos duas alternativas possíveis. Ou prosseguimos
com operações elementares sobre linhas, ou com operações elementares
sobre colunas. Atente-se que o objectivo é criar uma matriz onde a iden-
tidade de ordem igual à característica da matriz, neste caso, obviamente,
3, constitui uma submatriz ocupando as primeiras 3 linhas e colunas da
matriz, sendo os restantes elementos da matriz nulos.
Utilizando operações elementares sobre linhas obtém-se:
_
¸
¸
¸
¸
_
1 2 1
0 1 0
0 0 1
0 0 0
0 0 0
_
¸
¸
¸
¸
_
L
1
←− L
1
−L
3
−−−−−−−−−−−−→
_
¸
¸
¸
¸
_
1 2 0
0 1 0
0 0 1
0 0 0
0 0 0
_
¸
¸
¸
¸
_
L
1
←− L
1
−2 ×L
2
−−−−−−−−−−−−−−−−→
_
¸
¸
¸
¸
_
1 0 0
0 1 0
0 0 1
0 0 0
0 0 0
_
¸
¸
¸
¸
_
Utilizando operações elementares sobre colunas obtém-se:
_
¸
¸
¸
¸
_
1 2 1
0 1 0
0 0 1
0 0 0
0 0 0
_
¸
¸
¸
¸
_
C
2
←− C
2
−2 ×C
1
C
3
←− C
3
−C
1
−−−−−−−−−−−−−−−−→
_
¸
¸
¸
¸
_
1 0 0
0 1 0
0 0 1
0 0 0
0 0 0
_
¸
¸
¸
¸
_
73
6 Teoria das Matrizes
6.9 Resolução de Sistemas de Equações Lineares
Nesta secção focaremos o problema que consiste na resolução de sistemas de
equações lineares. A aplicação da Teoria das Matrizes estudada ao longo das úl-
timas secções revelar-se-á de fundamental importância para este estudo. Inicia-
se esta exposição com algumas definições.
6.9.1 Enquadramento Teórico
Definição 35 (Equação Linear) Seja K um corpo. A igualdade
a
1
x
1
+a
2
x
2
+ · · · +a
n−1
x
n−1
+a
n
x
n
= b
designa-se por equação linear. Os escalares {a
i
}
j=1,...,n
∈ K designam-se
por coeficientes da equação, o escalar b ∈ K designa-se por termo inde-
pendente e os elementos {x
i
}
j=1,...,n
∈ K designam-se por incógnitas (ou
variáveis) da equação. Uma equação linear em que as parcelas associadas às
incógnitas surgem no termo esquerdo da equação e o termo independente con-
stitui o termo direito, diz-se escrita na forma canónica.
Nota 16 O termo ”linear” significa que se trata de uma equação do primeiro
grau em cada uma das incógnitas.
Exemplo 20 Classifiquemos as seguintes equações relativamente à sua natureza
linear (ou não-linear):
• x +y −y
2
= 10 é uma equação não-linear uma vez que tem a parcela não
linear −y
2
.
• xy −x +y −12 = 0 é uma equação não-linear uma vez que tem a parcela
não linear xy.
• x
2
+ y
3
= 0 é uma equação não-linear uma vez que tem as parcelas não
lineares x
2
e y
3
.
• x + 2y + 6z = 7 é uma equação linear nas variáveis x, y e z.
• x + y − 2 = 0 é uma equação linear nas variáveis x e y. Basta verificar
que a equação pode ser reescrita na forma canónica como x +y = 2.
Definição 36 (Sistema de Equações Lineares) Seja K um corpo. Consi-
dere-se um conjunto de m equações lineares da forma
a
i1
x
1
+a
i2
x
2
+ · · · +a
i,n−1
x
n−1
+a
in
x
n
= b
i
74
6 Teoria das Matrizes
Quando se pretende resolver simultaneamente todas as equações, diz-se que
se tem um sistema de m equações lineares nas n incógnitas {x
j
}
j=1,...,n
, so qual
se representa do seguinte modo:
_
¸
¸
_
¸
¸
_
a
11
x
1
+a
12
x
2
+ · · · +a
1,n−1
x
n−1
+a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ · · · +a
2,n−1
x
n−1
+a
2n
x
n
= b
1
· · ·
a
m1
x
1
+a
m2
x
2
+ · · · +a
m,n−1
x
n−1
+a
mn
x
n
= b
1
(8)
Os escalares {a
ij
}
i=1,...,m; j=1,...,n
∈ K designam-se por coeficientes do
sistema, os escalares {b
i
}
i=1,...,m
∈ K designam-se por termos indepen-
dentes do sistema.
Qualquer sistema de m equações a n incógnitas pode ser escrito na forma
matricial se atendermos ao seguinte:
• Os coeficientes do sistema, {a
ij
}
i=1,...,m; j=1,...,n
∈ K, podem ser descritos
como uma matriz A ∈ M
m×n
(K), cujo elemento a
ij
é precisamente o
coeficiente da incógnita x
j
na i-ésima equação.
• Os termos independentes do sistema, {b
i
}
i=1,...,m
∈ K, podem ser de-
scritos como uma matriz coluna B ∈ M
m×1
(K), cujo elemento b
i
é pre-
cisamente o termo independete da i-ésima equação.
• As incógnitas do sistema, {x
j
}
j=1,...,n
∈ K, podem ser descritas como uma
matriz coluna X ∈ M
n×1
(K), cujo elemento x
j
é precisamente a j-ésima
incógnita.
Nestas circunstâncias, o sistema de equações definido pelas matrizes A, B e
X pode ser escrito como sendo a equação matricial :
AX = B (9)
Note-se que o produto de matrizes AX é uma matriz do tipo M
m×1
(K),
precisamente o tipo da matriz B. A cada coluna da matriz de coeficientes, A,
corresponde uma incógnita; assim, a j − ´ esima coluna da matriz A é composta
pelos coeficientes da variável x
j
nas m equações do sistema.
Exemplo 21 Consideremos os seguintes sistemas de equações lineares e a sua
representação na forma de equações matriciais:

½
x +y = 1800
2
3
x +
1
2
y = 1100
O sistema pode ser escrito na forma matricial do seguinte modo:
75
6 Teoria das Matrizes
·
1 1
2
3
1
2
¸ ·
x
y
¸
=
·
1800
1100
¸

½
3x + 2y +z = 39
2x + 3y +z = 34
Este sistema pode ser escrito matricialmente na forma:
·
3 2 1
2 3 1
¸
_
_
x
y
z
_
_
=
·
39
34
¸

_
_
_
10 + 11x + 12y = 0
20 + 21x + 22y = 0
30 + 31x + 32y = 0
O sistema acima, reescrito na forma canónica, apresenta-se do seguinte
modo:
_
_
_
11x + 12y = −10
21x + 22y = −20
31x + 32y = −30
A respectiva equação matricial será portanto da forma:
_
_
11 12
21 22
31 32
_
_
·
x
y
¸
=
−10
−20
−30
Definição 37 Considere-se um sistema de equações lineares dado pela equação
matricial AX = B, onde A ∈ M
m×n
(K), B ∈ M
m×1
(K) e X ∈ M
n×1
(K).
• Designa-se por solução do sistema a toda a matriz D ∈ M
n×1
(K) tal
que AD = B.
• A matriz A designa-se por matriz simples do sistema e a matriz [ A| B]
designa-se por matriz ampliada.
• O sistema dir-se-á homogéneo se B=0; caso contrário dir-se-á não ho-
mogéneo.
76
6 Teoria das Matrizes
Do acima exposto conclui-se que o estudo da resolubilidade do sistema de
equações (8) é, pois, o da resolubilidade da equação matricial (9).
Definição 38 (Solubilidade de um Sistema de Equações) Um sistema de
equações lineares é dado pela equação matricial AX = B, onde A ∈ M
m×n
(K),
B ∈ M
m×1
(K) e X ∈ M
n×1
(K).
• Diz-se que o sistema de equações AX = B é possível quando tem pelo
menos uma solução, isto é, quando existe pelo menos uma matriz D ∈
M
n×1
(K) tal que AD = B. Se existe uma e uma só solução o sistema diz-
se determinado; se existir mais que uma solução diz-se indeterminado.
• Diz-se que o sistema é impossível se não existe nenhum D ∈ M
n×1
(K)
tal que AD = B.
Definição 39 (Equivalência de Sistemas de Equações) Dois sistemas de
equações lineares são dados pelas equações matriciais AX = B e A
0
X = B
0
onde A, A
0
∈ M
m×n
(K), B
0
, B ∈ M
m×1
(K) e X ∈ M
n×1
(K). Os sistemas
dizem-se equivalentes se toda a solução de uma equação for solução da outra.
Proposição 26 Considere-se um sistema de equações lineares dado pela equa-
ção matricial AX = B, onde A ∈ M
m×n
(K), B ∈ M
m×1
(K) e X ∈ M
n×1
(K).
1. Dada uma matriz regular P∈M
m
(K), os sistemas AX=B e (PA) X=PB
são equivalentes.
2. Se Q ∈ M
n
(K) for uma matriz regular, existirá uma bijecção entre o
conjunto de solução da equação AX = B e o conjunto de soluções da
equação (AQ) Y = B. Tal bijecção é definida por:
f : {sol. de AX = B} →{sol. de (AQ) Y = B}
X
0
7−→Q
−1
X
0
Demonstração.
1. Basta verificar que, dada a regularidade da matriz P, então P
−1
existe e
portanto
(PA) X = PB ⇐⇒
P
−1
(PA) X = P
−1
PB ⇐⇒
IAX = IB ⇐⇒
AX = B
77
6 Teoria das Matrizes
2. Injectividade. Temos de mostrar que

X0,X1:AX0=AX1=B
, f (X
0
) = f (X
1
) ⇒X0 = X1
Obviamente que
f (X
0
) = f (X
1
) ⇒
Q
−1
X
0
= Q
−1
X
1

¡
QQ
−1
¢
X
0
=
¡
QQ
−1
¢
X
1

IX
0
= IX
1

X
0
= X
1
Sobrejectividade. Temos de verificar que

D:(AQ)D=B
, ∃
X
0
:AX
0
=B
: f (X
0
) = D
Basta portanto exibirmos X
0
. Escolhamos X
0
= QD. É claro que X
0
resolve AX = B, uma vez que
AX
0
= A(QD)
= (AQ) D
= B
O ponto 1. da proposição anterior mostra que, ao aplicarem-se as mesmas
operações elementares sobre linhas à matriz A e à matriz B se obtém sistemas
de equações equivalentes. A aplicação das operações elementares reside na mul-
tiplicação da matriz A e B, à esquerda, pela matriz P, regular. Lembremos
que, pela proposição 22, se P é uma matriz regular então é produto de matrizes
elementares.
Esta prática, que consiste em operar sobre as equações que compõem um
sistema de equações lineares, foi introduzida no ensino pré-universitário com
o objectivo de ”simplificar” algumas equações, nomeadamente no que diz re-
speito ao número de variáveis que contêm. Consideremos o seguinte exemplo de
enquadramento:
Exemplo 22 Consideremos o seguinte sistema de equações lineares:
78
6 Teoria das Matrizes
_
_
_
x
1
+ 2x
2
−x
3
= 1
−2x
1
+ 4x
2
+x
3
= 0
−x
1
+ 6x
2
= −1
A ”simplificação” deste sistema de equações consistia, por exemplo, em
”eliminar” a variável x
1
da primeira equação; para tal, somava-se a primeira
com a terceira equação, para se obter 8x
2
−x
3
= 0; esta equação, com duas var-
iáveis, vinha agora substituir a primeira equação do sistema, com três variáveis,
para se obter um sistema equivalente:
_
_
_
8x
2
−x
3
= 0
−2x
1
+ 4x
2
+x
3
= 0
−x
1
+ 6x
2
= −1
Prosseguia-se agora com a resolução resolvendo explicitamente para algu-
mas variáveis e substituindo o resultado nas equações com maior número de
variáveis. A equivalência dos dois sistemas nunca foi justificada rigorosamente,
embora fosse intuitivamente evidente. No entanto, agora, à luz da teoria das
matrizes, é simples verificar que a transformação efectuada consistiu em tomar
a matriz elementar,
E =
_
_
1 0 1
0 1 0
0 0 1
_
_
e multiplicá-la à esquerda das matrizes dos coeficientes e dos termos inde-
pendentes do sistema original, respectivamente,
A =
_
_
1 2 −1
−2 4 1
−1 6 0
_
_
e B =
_
_
1
0
−1
_
_
O resultado obtido, é, como não podia deixar de ser,
A
0
=
_
_
1 0 1
0 1 0
0 0 1
_
_
_
_
1 2 −1
−2 4 1
−1 6 0
_
_
=
_
_
0 8 −1
−2 4 1
−1 6 0
_
_
e
B
0
=
_
_
1 0 1
0 1 0
0 0 1
_
_
_
_
1
0
−1
_
_
=
_
_
0
0
−1
_
_
Note-se que as matrizes A
0
e B
0
são precisamente as matrizes de coeficientes
e de termos independentes do sistema após a transformação. Portanto, os sis-
temas AX = B e A
0
X = B
0
são equivalentes porque A
0
= EA e B
0
= EB e E
é uma matriz elementar, logo regular.
79
6 Teoria das Matrizes
Note-se ainda que a matriz elementar E está associada à operação de Jacobi
L
1
←− L
1
+L
3
aplicada sobre a matriz ampliada do sistema AX = B, isto é:
[ A| B] =
_
_
1 2 −1
−2 4 1
−1 6 0
¯
¯
¯
¯
¯
¯
1
0
−1
_
_
L
1
←− L
1
+L
3
−−−−−−−−−−−→
_
_
0 8 −1
−2 4 1
−1 6 0
¯
¯
¯
¯
¯
¯
0
0
−1
_
_
= [ A
0
| B
0
]
Do exposto anteriormente, poder-se-á concluir que o estudo da matriz ampli-
ada de um sistema, [ A| B], permite determinar a natureza e solução (se existir)
de qualquer sistema de equações lineares.
Proposição 27 (Teorema de Rouché) Considere-se um sistema de equações
lineares dado pela equação matricial AX=B, onde A∈M
m×n
(K), B∈M
m×1
(K)
e X∈M
n×1
(K). O sistema AX = B é possível se e só se r (A) = r ([ A| B]).
Demonstração. Para benefício do leitor apresentam-se duas demonstrações
para este importante Teorema. A primeira versão, baseada na aplicação de
Operações Elementares e a segunda baseada na independência linear das colunas
de uma matriz.
Versão 1:
Comecemos por transformar o sistema AX = B no sistema equivalente
A
0
X = B
0
, em que a matriz ampliada do sistema original, [ A| B], é reduzida
a uma matriz [ A
0
| B
0
] em forma de escada reduzida por meio de operações ele-
mentares sobre linhas, e que constitui a matriz ampliada do sistema A
0
X = B
0
.
Foi verificado na Proposição 16 que esta redução é sempre possível. A matriz
[ A
0
| B
0
] terá a seguinte forma:
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
0 · · · 0 1 a
0
1,j
1
+1
a
0
1,j
1
+2
· · · a
0
1,j
2
a
0
1,j
2
+1
· · · a
0
1,j
3
a
0
1,j
3
+1
· · · a
0
1,j
t
· · · a
0
1n
0 · · · 0 0 0 0 · · · 1 a
0
2,j2+1
· · · a
0
2,j3
a
0
2,j3+1
· · · a
0
2,jt
· · · a
0
2n
0 · · · 0 0 0 0 · · · 0 0 · · · 1 a
0
3,j
3
+1
· · · a
0
3,j
t
· · · a
0
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 · · · 0 0 0 0 · · · 0 0 · · · 0 0 · · · 1 · · · a
0
tn
0 · · · 0 0 0 0 · · · 0 0 · · · 0 0 · · · 0 · · · 0
0 · · · 0 0 0 0 · · · 0 0 · · · 0 0 · · · 0 · · · 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 · · · 0 0 0 0 · · · 0 0 · · · 0 0 · · · 0 · · · 0
| {z }
A
0
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
b
0
1
b
0
2
b
0
3
.
.
.
b
0
t
b
0
t+1
0
.
.
.
0
|{z}
B
0
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
80
6 Teoria das Matrizes
(=⇒) Suponhamos que o sistema AX = B é solúvel, então A
0
X = B
0
também
o será. Mas sendo este sistema solúvel, então b
0
t+1,n
= 0. Com efeito, se
b
0
t+1,n
6= 0, a equação t + 1 terá a forma 0 = b
0
t+1,n
, condição impossível.
Esta situação constitui um absurdo, pelo que, se o sistema é solúvel, se
deverá ter b
0
t+1,n
= 0. Ora, neste caso a (t + 1) − ´ esima linha da matriz
ampliada [ A
0
| B
0
] é nula. A matriz ampliada [ A
0
| B
0
] terá portanto t linhas
não nulas onde pelo menos um elemento da linha t da matriz A
0
é não
nulo. Imediatamente resulta que r (A
0
) = r ([ A
0
| B
0
]), ou, sabendo que
as operações elementares sobre as linha de uma matriz não alteram a sua
característica, pela Proposição 14, r (A) = r ([ A| B]).
(⇐=) Suponhamos que r (A) = r ([ A| B]). Então r (A
0
) = r ([ A
0
| B
0
]). Esta cir-
cunstância implica que b
0
t+1,n
= 0. Se assim não fosse, teríamos r (A
0
) <
r ([ A
0
| B
0
]), o que contraria a hipótese. Posto isto, basta exibir uma
solução para o sistema A
0
X = B
0
para mostrarmos que AX = B é solúvel.
Seja {j
1
, · · · j
t
} o conjunto dos índices de coluna associados às colunas de
A
0
que contêm um elemento redutor. Através de operações elementares
sobre as linhas de [ A
0
| B
0
], utilizemos o elemento redutor da i − ´ esima
linha, com i = 2, · · · , t, e que está na posição (i, j
i
), para anular todos
os elementos não nulos da coluna j
i
. Para o efeito, vamos aplicar um
conjunto de operações de Jacobi sobre as linhas de [ A
0
| B
0
]. Obteremos
com este processo, um sistema A
00
X = B
00
equivalente a A
0
X = B
0
, e
portanto a AX = B, cuja matriz ampliada [ A
00
| B
00
] está em forma de
escada reduzida, com a seguinte forma:
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
0 · · · 0 1 a
00
1,j
1
+1
a
00
1,j
1
+2
· · · 0 a
00
1,j
2
+1
· · · 0 a
00
1,j
3
+1
· · · 0 · · · a
00
1n
0 · · · 0 0 0 0 · · · 1 a
00
2,j2+1
· · · 0 a
00
2,j3+1
· · · 0 · · · a
00
2n
0 · · · 0 0 0 0 · · · 0 0 · · · 1 a
00
3,j
3
+1
· · · 0 · · · a
00
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 · · · 0 0 0 0 · · · 0 0 · · · 0 0 · · · 1 · · · a
00
tn
0 · · · 0 0 0 0 · · · 0 0 · · · 0 0 · · · 0 · · · 0
0 · · · 0 0 0 0 · · · 0 0 · · · 0 0 · · · 0 · · · 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 · · · 0 0 0 0 · · · 0 0 · · · 0 0 · · · 0 · · · 0
| {z }
A
00
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
b
00
1
b
00
2
b
00
3
.
.
.
b
00
t
b
00
t+1
0
.
.
.
0
|{z}
B
00
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
Concretizemos as incógnitas do problema com os seguintes valores:
81
6 Teoria das Matrizes
x
j1
= b
00
1n
x
j2
= b
00
2n
· · · · · · · · ·
x
j2
= b
00
tn
x
j
= 0, j ∈ {1, · · · , n} \ {j
1
, · · · j
t
}
É simples verificar que a solução acima exposta constitui uma solução para
o sistema A
00
X = B
00
, logo, para o sistema AX = B. A título ilustrativo,
consideremos a primeira equação do sistema A
00
X = B
00
:
0 · x
1
+ · · · + 0 · x
j
1
−1
+x
j
1
+a
00
1,j
1
+1
· x
j
1
+1
+
+a
00
1,j1+2
· x
j1+2
+ · · · +a
00
1,j2
· x
j2
+a
00
1,j2+1
· x
j2+1
+
+· · · + 0 · x
j
t
+ · · · +a
00
1n
· x
n
= b
0
1
Ao substituirmos a solução encontrada nesta equação, obter-se-á, como
seria de prever b
0
1
= b
0
1
. Não é difícil intuir que as restantes equações do
sistema também serão satisfeitas, o que mostra que foi encontrada uma
solução para o sistema AX = B, como pretendido.
Versão 2:
(⇒) Admitamos então que AX = B admite uma solução, a coluna D =
{d
1
, · · · , d
n
}. Designando por A
1
, · · · , A
n
as colunas da matriz A, poder-
emos escrever B = d
1
A
1
+· · · d
n
A
n
. Ora, se o número máximo de colunas
da matriz A linearmente independentes é t, o número máximo de colunas
linearmente independentes da matriz [ A| B] terá também de ser t. Sem
perda de generalidade, suponhamos que as t primeiras colunas de A são
linearmente independentes podendo as restantes escrever-se de como com-
binação linear daquelas, de acordo com o ponto 6. da Proposição 10. Tal
significa que existem escalares {α
j
}
j=1,···t
tais que B = α
1
A
1
+ · · · α
t
A
t
.
Suponhamos, por redução ao absurdo que, por incluir a coluna B, o
número máximo de colunas linearmente independentes de [ A| B] é t + 1.
Uma das colunas deste conjunto terá de ser efectivamente B uma vez
que a matriz A só possui t colunas linearmente independentes. Mas B
escreve-se como combinação linear das colunas de A e, em particular das t
colunas de A que são linearmente independentes, uma vez que as restantes
n − t colunas de A se podem escrever à custa das t colunas que são lin-
earmente independentes. Logo, B não pode pertencer a um conjunto de
colunas linearmente independentes o que é absurdo. Conclui-se portanto
que o número máximo de colunas linearmente independentes de [ A| B] é
também t, isto é r (A) = r ([ A| B]).
82
6 Teoria das Matrizes
(⇐) Admitamos agora que r (A) = r ([ A| B]). Se r (A) = t suponhamos, sem
perda de generalidade, que as t primeiras colunas de A são linearmente
independentes. Como r ([ A| B]) = t também e se as t primeiras colunas
de A são linearmente independentes, então, de acordo com o ponto 6. da
Proposição 10, B pode ser escrita como combinação das primeiras t colunas
de A (as que são linearmente independentes), isto é, B = α
1
A
1
+· · · α
t
A
t
.
Utilizando escalares nulos para as restantes n−t colunas de A, verifica-se
que B pode ser escrita como combinação linear das colunas de A, isto é,
existe uma coluna de escalares D = {d
1
, · · · , d
n
} tais que AD = B, logo
D resolve AX = B.
O próximo resultado enquadra o modo como se identifica a indeterminação
(ou determinação) de um sistema de equações
Proposição 28 Considere-se um sistema de equações lineares dado pela equação
matricial AX = B, onde A ∈ M
m×n
(K), B∈ M
m×1
(K) e X ∈ M
n×1
(K). O
sistema AX = B ...
1 ... é possível e determinado se e só se r (A) = r ([ A| B]) = n.
2 ... é possível e indeterminado se e só se r (A) = r ([ A| B]) < n.
Demonstração.
1.
2.(=⇒) Suponhamos que o sistema é possível e determinado. Então, existirá
apena uma coluna D ∈ M
n×1
(K) tal que AD = B. Se designarmos
por A
1
, · · · , A
n
as colunas da matriz A e se {d
1
, · · · , d
n
} forem os
elementos da matriz D, teremos d
1
A
1
+ · · · +d
n
A
n
= B.
A natureza da independência linear das colunas da matriz A pode ser
estudada compondo a combinação nula destas colunas e resolvendo
para os escalares. A combinação linear nula das colunas de A é dada
por λ
1
A
1
+ · · · + λ
n
A
n
= 0. Adicionando as duas equações termo a
termo, obtém-se
(d
1
A
1
+ · · · +d
n
A
n
) + (λ
1
A
1
+ · · · +λ
n
A
n
) =
= (d
1

1
) A
1
+ · · · + (d
n

n
) A
n
= B + 0 = B
A igualdade mostra que a coluna de elementos {d
1

1
, · · · d
n

n
}
é solução da equação AX = B. Como, por hipótese, a solução é única,
conclui-se que as colunas {d
1
, · · · , d
n
} e {d
1

1
, · · · , d
n

n
} de-
verão ser iguais, isto é, d
1
= d
1
+ λ
1
, · · · , d
n
= d
n
+ λ
n
, donde
λ
1
= · · · = λ
n
= 0, o que mostra que as colunas da matriz A
são linearmente independentes e, sendo em número de n, ter-se-á
r (A) = r ([ A| B]) = n.
83
6 Teoria das Matrizes
(⇐=) Dado que r (A) = n e a matriz A tem n colunas então as colu-
nas de A são linearmente independentes. Por outro lado, dado que
r ([ A| B]) = n e [ A| B] tem n +1 colunas, então as colunas de [ A| B]
são linearmente independentes. Mostremos que B se pode escrever
como combinação linear das colunas de A. Seja então λ
1
A
1
+ · · · +
λ
n
A
n

n+1
B = 0 uma combinação linear nula, não trivial, das col-
unas da matriz [ A| B]. Se λ
n+1
= 0, resta λ
1
A
1
+ · · · + λ
n
A
n
= 0,
mas dada a independência linear das colunas da matriz A decorre
imediatamente que λ
1
= · · · = λ
n
= 0, o que é absurdo pois por
hipótese, partimos de uma combinação linear nula não trivial das
colunas de [ A| B]. Assim, deveremos ter λ
n+1
6= 0, e portanto
B = −
λ1
λ
n+1
A
1
−· · · −
λn
λ
n+1
A
n
.
Resta mostrar que esta combinação linear é única. Suponhamos então
que também se pode ter B = µ
1
A
1
+ · · · + µ
n
A
n
. Subtraindo esta
equação à determinada anteriormente obtém-se

1
A
1
+ · · · +µ
n
A
n
) −
µ

λ
1
λ
n+1
A
1
−· · · −
λ
n
λ
n+1
A
n

=
=
µ
µ
1
+
λ
1
λ
n+1

A
1
+ · · · +
µ
µ
n
+
λ
n
λ
n+1

A
n
= B −B = 0
Dada a independência linear das colunas de A decorre imediatamente
que µ
1
= −
λ
1
λn+1
, · · · , µ
n
= −
λ
n
λn+1
, que mostra a unicidade da com-
binação linear das colunas de A que resulta na coluna B.
Então, sabendo que o conjunto de escalares {d
1
, · · · , d
n
} tais que
B = d
1
A
1
+· · ·+d
n
A
n
é único, se designarmos por D uma coluna com
elementos {d
1
, · · · , d
n
}, resulta que D é a única coluna que satisfaz
AD = B e portanto constitui solução única do sistema de equações
AX = D.
3. A demonstração deste ponto é imediata. Com efeito, a afirmação ”o sis-
tema é determinado se e só se r (A) = n” demonstrada no ponto anterior é
equivalente à afirmação ”o sistema é indeterminado se e só se r (A) 6= n”.
Como o número de colunas da matriz A é n, não poderemos ter r (A) > n
pelo que a afirmação ”o sistema é indeterminado se e só se r (A) < n” tem
de ser verdadeira.
Na prática, a matriz em escada reduzida, terá formas distintas, no caso
de sistemas possíveis e determinados e indeterminados. Com efeito, a única
forma de satisfazer a condição r (A) = r ([ A| B]) = n é que, após a condensação
da matriz ampliada [ A| B], que denotaremos por [ A
0
| B
0
], a submatriz de A
0
que ocupa as primeiras n linhas e n colunas desta seja uma matriz triangular
superior. A matriz ampliada [ A
0
| B
0
] tem a seguinte configuração:
84
6 Teoria das Matrizes
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
1 a
0
12
a
0
13
· · · a
0
1,n
0 1 a
0
23
· · · a
0
2,n
0 0 1 · · · a
0
3,n
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 · · · 1
0 0 0 · · · 0
0 0 0 · · · 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 · · · 0
| {z }
A
0
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
b
0
1
b
0
2
b
0
3
.
.
.
b
0
n
0
0
.
.
.
0
|{z}
B
0
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
Nota 17 Os resultados das Proposições 27 e 28 permitem investigar aquilo a
que se designa por natureza de um sistema de equações lineares. Neste sen-
tido, o sistema de equações lineares dado pela equação matricial AX = B, onde
A ∈ M
m×n
(K),B ∈ M
m×1
(K) e X ∈ M
n×1
(K) pode ser classificado, proviso-
riamente, quanto à sua natureza, segundo o seguinte esquema:
Equaç˜ ao AX = B
_
¸
¸
¸
¸
¸
¸
¸
_
¸
¸
¸
¸
¸
¸
¸
_
Sol´ uvel
(r(A)=r([ A|B]))
_
¸
¸
_
¸
¸
_
Indeterminado
(r(A)=r([ A|B])<n)
Determinado
(r(A)=r([ A|B])=n)
Insol´ uvel
(r(A)6=r([ A|B]))
Exemplo 23 Estude-se a natureza do seguinte sistema de equações lineares:
_
_
_
x +y = 0
x −y = 1
4x + 2y = 1
A matriz ampliada do sistema é dada por:
[ A| B] =
_
_
1 1
1 −1
4 2
¯
¯
¯
¯
¯
¯
0
1
1
_
_
Procedendo à sua condensação, obtém-se o seguinte resultado:
85
6 Teoria das Matrizes
_
_
1 1
1 −1
4 2
¯
¯
¯
¯
¯
¯
0
1
1
_
_
L
2
←− L
2
−L
1
L
3
←− L
3
−4L
1
−−−−−−−−−−−−−→
_
_
1 1
0 −2
0 −2
¯
¯
¯
¯
¯
¯
0
1
1
_
_
L
3
←− L
3
−L
2
−−−−−−−−−−−→
_
_
1 1
0 −2
0 0
¯
¯
¯
¯
¯
¯
0
1
0
_
_
= [ A
0
| B
0
]
Dado que r (A) = r ([ A| B]) = 2, o sistema é possível e determinado.
Exemplo 24 Estude-se a natureza do seguinte sistema de equações lineares:
_
_
_
2x
1
+ 2x
2
−2x
3
= 5
7x
1
+ 7x
2
+x
3
= 10
5x
1
+ 5x
2
−x
3
= 5
A matriz ampliada do sistema é dada por:
[ A| B] =
_
_
2 2 −2
7 7 1
5 5 −1
¯
¯
¯
¯
¯
¯
5
10
5
_
_
Procedendo à sua condensação, obtém-se o seguinte resultado:
_
_
2 2 −2
7 7 1
5 5 −1
¯
¯
¯
¯
¯
¯
5
10
5
_
_
L
2
←− L
2

7
2
L
1
L
3
←− L
3

5
2
L
1
−−−−−−−−−−−−−−→
_
_
2 2 2
0 0 8
0 0 −6
¯
¯
¯
¯
¯
¯
5

15
2

15
2
_
_
L
3
←− L
3
+
3
4
L
2
−−−−−−−−−−−−→
_
_
2 2 2
0 0 8
0 0 0
¯
¯
¯
¯
¯
¯
5

15
2
105
8
_
_
= [ A
0
| B
0
]
Dado que r (A) 6= r ([ A| B]), o sistema é impossível. Com efeito, a última
linha da matriz ampliada, [ A
0
| B
0
], corresponde à equação 0 =
105
8
, o que é
manifestamente impossível.
Exemplo 25 Estude-se a natureza do seguinte sistema de equações lineares:
½
x
1
−x
2
+x
3
= 1
x
1
+x
2
−x
3
= 2
86
6 Teoria das Matrizes
A matriz ampliada do sistema é dada por:
[ A| B] =
·
1 −1 1
1 1 −1
¯
¯
¯
¯
1
2
¸
Procedendo à sua condensação, obtém-se o seguinte resultado:
·
1 −1 1
1 1 −1
¯
¯
¯
¯
1
2
¸
L
2
←− L
2
−L
1
−−−−−−−−−−−→
·
1 −1 1
0 2 −2
¯
¯
¯
¯
1
1
¸
= [ A
0
| B
0
]
Dado que r (A) = r ([ A| B]) = 2 < n = 3, o sistema é possível e indetermi-
nado.
Os sistemas indeterminados, por terem múltiplas soluções requerem um es-
tudo mais aprofundado, que destacaremos em seguida:
6.9.2 Sistemas de Equações Lineares Indeterminados
Consideremos, de um modo geral, o sistema de equações lineares dado pela
equação matricial AX = B, onde A ∈ M
m×n
(K),B ∈ M
m×1
(K) e X ∈
M
n×1
(K). Suponhamos ainda que r (A) = r ([ A| B]) < n, isto é, o sistema
é indeterminado. Sabemos ainda que existe uma matriz regular P que permite
transformar a matriz ampliada do sistema, [ A| B], numa matriz [ A
00
| B
00
], rep-
resentando o mesmo sistema de equações, mas em forma de escada reduzida que
a seguir se apresenta:
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
0 · · · 0 1 a
00
1,j1+1
· · · 0 a
00
1,j2+1
· · · 0 a
00
1,j3+1
· · · 0 · · · a
00
1n
0 · · · 0 0 0 · · · 1 a
00
2,j
2
+1
· · · 0 a
00
2,j
3
+1
· · · 0 · · · a
00
2n
0 · · · 0 0 0 · · · 0 0 · · · 1 a
00
3,j
3
+1
· · · 0 · · · a
00
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 · · · 0 0 0 · · · 0 0 · · · 0 0 · · · 1 · · · a
00
tn
0 · · · 0 0 0 · · · 0 0 · · · 0 0 · · · 0 · · · 0
0 · · · 0 0 0 · · · 0 0 · · · 0 0 · · · 0 · · · 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 · · · 0 0 0 · · · 0 0 · · · 0 0 · · · 0 · · · 0
| {z }
A
00
=PA
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
b
00
1
b
00
2
b
00
3
.
.
.
b
00
t
0
0
.
.
.
0
|{z}
B
00
=PB
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
Temos portanto um conjunto de t colunas redutoras ocupando as colunas de
índices {j
1
, · · · , j
t
} É claro que, por troca das colunas da matriz A
00
= PA é
possível obter uma matriz, de quatro blocos, com a forma
87
6 Teoria das Matrizes
·
I
t
C
t,n−t
0
m−t,t
0
m−t,n−t
¸
Por outras palavras, existe uma matriz regular Q ∈ M
n
(K) tal que PAQ =
·
I
t
C
0 0
¸
. Como foi referido no ponto 2 da Proposição 26, se D for uma
solução de (PA) X = PB então Q
−1
D é uma solução de (PAQ) Y = PB. Ora,
facilmente se verifica que a equação
·
I
t
C
0 0
¸
Y = {b
00
1
, · · · , b
00
t
, 0, · · · , 0}
tem a solução D
0
= {b
00
1
, · · · , b
00
t
, 0, · · · , 0}, logo, (PAQ) D
0
= PB mostra
que QD
0
é solução de (PA) X = PB, e consequentemente de AX = B. Mas
existem muitas mais soluções para o sistema (PAQ) Y = PB, com X = QY .
Na realidade, existem infinitas soluções, assumindo que o corpo K tem infinitos
elementos.
A questão que se coloca de imediato é a de descrever na totalidade o con-
junto das soluções do sistema (PAQ) Y = PB e consequentemente do sistema
AX = B. Começemos por dividir em dois blocos o vector coluna das incógni-
tas, Y , fazendo Y =
h
Y
(1)
t,1
¯
¯
¯ Y
(2)
n−t,1
i
T
. Temos naturalmente Y
00(1)
t,1
= {y
1
, · · · , y
t
}
e Y
00(2)
n−t,1
= {y
t+1
, · · · , y
n
}. Dividamos tanbém em dois blocos o vector col-
una das varáveis independentes, B
00
, fazendo B
00
=
h
B
00(1)
t,1
¯
¯
¯ 0
m−t,1
i
T
, onde
B
00(1)
t,1
= {b
00
1
, · · · , b
00
t
}. Matricialmente, o sistema A
00
Y = B
00
representa-se do
seguinte modo:
·
I
t
C
t,n−t
0
m−t,t
0
m−t,n−t
¸
"
Y
(1)
t,1
Y
(2)
n−t,1
#
=
"
B
00(1)
t,1
0
m−t,1
#
(10)
Esta equação matricial pode ser reescrita como um sistema de duas equações
matriciais atendendo à partição em blocos escolhida. Obtém-se então:
(
I
t
· Y
(1)
t,1
+C
t,n−t
· Y
(2)
n−t,1
= B
00(1)
t,1
0
m−t,t
· Y
(1)
t,1
+ 0
m−t,n−t
· Y
(2)
n−t,1
= 0
m−t,1
A segunda equação pode ser omitida uma vez que constitui a condição uni-
versal 0
m−t,1
≡ 0
m−t,1
. Resta portanto a equação:
Y
(1)
t,1
+C
t,n−t
· Y
(2)
n−t,1
= B
00(1)
t,1
88
6 Teoria das Matrizes
Rearranjando os termos da equação acima, obtém-se:
Y
(1)
t,1
= B
00(1)
t,1
−C
t,n−t
· Y
(2)
n−t,1
A expressão acima mostra que t incógnitas, precisamente as incógnitas Y
(1)
t,1
,
podem ser expressas em função de n−t incógnitas, precisamente Y
(2)
n−t,1
. Assim,
a solução geral da equação A
00
Y = B
00
será dada pelo vector coluna:
"
B
00(1)
t,1
−C
t,n−t
· D
n−t,1
D
n−t,1
#
(11)
onde D
(2)
n−t,1
∈ K
n−t
é uma concretização arbitrária qualquer das incógnitas
representadas em Y
(2)
n−t,1
, a saber {y
t+1
, · · · , y
n
}. Em particular, se Y
(2)
n−t,1
= 0,
recupera-se a solução particular D
0
= {b
00
1
, · · · , b
00
t
, 0, · · · , 0} já mencionada.
Nota 18 A solução geral do sistema, dada pela expressão (11), foi obtida atrvés
de uma sucessão de equivalências que se iniciou na equação A
00
Y = B
00
, o que
significa que não só a expressão (11) é uma solução do sistema como também
qualquer solução do sistema A
00
Y = B
00
poderá ser escrita na forma dada pela
expressão (11), isto é, se G
n1
for uma solução de A
00
Y = B
00
então existe
D
(2)
n−t,1
∈ K
n−t
tal que:
G
n1
=
"
B
00(1)
t,1
−C
t,n−t
· D
n−t,1
D
n−t,1
#
É esta ”arbitrariedade” na escolha dos valores das incógnitas que está na
base da classificação do sistema como indeterminado. Dependendo do número
de incógnitas arbitrárias, assim será o grau de indeterminação do sistema.
Definição 40 (Incógnitas Dependentes/Independentes) Seja AX = B a
equação matricial relativa a um sistema de equações lineares, solúvel, onde A ∈
M
m×n
(K), B ∈ M
m×1
(K) e X ∈ M
n×1
(K). Sabemos que existem matrizes
regulares P ∈ M
m
(K) e Q ∈ M
n
(K) tais que o sistema (PAQ) Y = PB, com
X = QY é equivalente ao sistema original e assume a forma da expressão (10).
A solução é dada por Y =
h
Y
(1)
t,1
¯
¯
¯ Y
(2)
n−t,1
i
T
onde Y
(1)
t,1
= B
00(1)
t,1
−C
t,n−t
· Y
(2)
n−t,1
.
As variáveis originais X
(1)
t,1
= QY
(1)
t,1
, que se podem exprimir em função das var-
iáveis X
(2)
n−t,1
= QY
(2)
n−t,1
designam-se por variáveis dependentes do sistema
AX = B enquanto que as últimas se designam por variáveis independentes.
O número de variáveis dependentes é igual à característica da matriz de coefi-
cientes do sistema, r (A).
89
6 Teoria das Matrizes
Definição 41 (Grau de Indeterminação) O grau de indeterminação de um
sistema de equações lineares, possível, dado pela equação matricial AX = B,
onde A ∈ M
m×n
(K),B ∈ M
m×1
(K) e X ∈ M
n×1
(K) é igual ao número de
variáveis independentes do sistema, isto é
Grau de Indeterminaç˜ ao = n −r (A)
Note-se que, se o sistema é possível e determinado, o grau de indeterminação
será nulo, uma vez que, pela Proposição 28, se tem n = r (A).
Poder-se-á ainda manipular a expressão (11) para concluir que se pode es-
crever como:
"
B
00(1)
t,1
0
n−t,1
#

·
C
t,n−t
−I
n−t
¸
D
n−t,1
(12)
Nota 19 A expressão (12) revela que a solução geral do sistema A
00
Y = B
00
é
dado pela solução particular B
00
à qual se adiciona uma combinação linear das
colunas da matriz cujas primeiras t linhas são compostas pela matriz C e as
últimas n −t linhas pela matriz identidade multiplicada pelo escalar −1.
Nota 20 A solução geral do sistema original AX = B pode ser recuperada
aplicando a matriz Q à expressão (12) para se obter:
Q
("
B
00(1)
t,1
0
n−t,1
#

·
C
t,n−t
−I
n−t
¸
D
n−t,1
)
As seguintes observações auxiliarão no entendimento desta questão:
1. Pondo (PA) X = (PAQ)
¡
Q
−1
X
¢
, observa-se que a incógnita Y da equa-
ção (PAQ) Y = PB resulta de efectuar sobre as linhas da coluna incóg-
nita, Y , as mesmas trocas que foram feitas nas colunas de PA por efeito
de Q. Com efeito, ponhamos Q = E
1
E
2
· · · E
h
onde cada E
k
resultou de
I
t
por trocas das colunas i e j ou das linhas i e j; vimos na Proposição
18 que uma matriz deste tipo é inversa de sim mesmo, isto é, E
2
k
= I
t
;
assim, quando se escreve
(PAQ)
¡
Q
−1
X
¢
= (PA) E
1
E
2
· · · E
h
E
−1
h
· · · E
−1
2
E
−1
1
X
= (PA) E
1
E
2
· · · E
h
E
h
· · · E
2
E
1
X
90
6 Teoria das Matrizes
é possível verificar que, ao mesmo tempo que se trocam as colunas i e j
da matriz PA por efeito de E
1
(à direita) e se obtém PAE
1
, trocam-se as
linhas i e j de X por efeito da mesma matriz E
1
(à esquerda) obtendo-se
E
1
X, e analogamente com E
2
, · · · , E
h
.
2. Uma vez obtida uma solução D
0
de (PAQ) Y = PB, o produto QD
0
corre-
sponde a ”desfazer” em D
0
todas as trocas que levaram de X a Y , obtendo-
se assim uma solução de (PA) X = PB.
3. Na prática, o que se descreve em 1. é que é permitido, na resolução da
equação (PA) X = PB, trocar colunas na matriz PA desde que se efectue
a respectiva troca de linhas na coluna incógnita X.
4. A operação descrita em 1. é muito útil na exposição teórica da res-
olução de uma equação matricial mas na resolução de problemas poderá
dispensar-se como adiante veremos.
Exemplo 26 Considere-se o sistema de equações dado pela seguinte equação
matricial:
_
_
1 2 −1 0 2
−2 4 1 1 0
−1 6 0 0 −1
_
_
| {z }
A
_
¸
¸
¸
¸
_
x
1
x
2
x
3
x
4
x
5
_
¸
¸
¸
¸
_
| {z }
X
=
_
_
1
0
−1
_
_
| {z }
B
Assume-se que A e B são matrizes de elementos reais. Começa por se con-
densar a matriz ampliada [ A| B]. Assim, ao mesmo tempo que averiguamos
àcerca da solubilidade da equação, vamo-nos encaminhando, em caso afirmativo,
para a sua resolução (os elementos redutores utilizados encontram-se assinalados
em cada passo):
_
_
1 2 −1 0 2 1
−2 4 1 1 0 0
−1 6 0 0 −1 −1
_
_
L
2
←− L
2
+ 2L
1
L
3
←− L
3
+L
1
−−−−−−−−−−−−−→
_
_
1 2 −1 0 2 1
0 8 −1 1 4 2
0 8 −1 0 1 0
_
_
L
3
←− L
3
−L
2
−−−−−−−−−−−→
_
_
1 2 −1 0 2 1
0 8 −1 1 4 2
0 0 0 −1 −3 −2
_
_
= [ A
0
| B
0
]
A matriz ampliada encontra-se em forma de escada e, dado que r ([ A
0
| B
0
]) =
r ([ A| B]) = r (A) = 3 conclui-se que o sistema é possível. Como r (A) < n
91
6 Teoria das Matrizes
conclui-se adicionalmente que o sistema é indeterminado com grau de indeter-
minação n−r (A) = 5−3 = 2. Em suma, o sistema é Possível e Indeterminado
com grau de indeterminação 2.
Prossegue-se o processo de condensação até a matriz ampliada estar na
forma de escada reduzida (os elementos redutores encontram-se devidamente
assinalados):
_
¸
_
1 2 −1 0 2 1
0 8 −1 1 4 2
0 0 0 -1 −3 −2
_
¸
_
L
2
←−
1
8
L
2
L
3
←− −L
3
−−−−−−−−−−→
_
_
1 2 −1 0 2 1
0 1 −
1
8
1
8
1
2
1
4
0 0 0 1 3 2
_
_
L
1
←− L
1
−2L
2
−−−−−−−−−−−−→
_
_
1 0 −
3
4

1
4
1
1
2
0 1 −
1
8
1
8
1
2
1
4
0 0 0 1 3 2
_
_
L
2
←− L
2

1
8
L
3
L
1
←− L
1
+
1
4
L
3
−−−−−−−−−−−−−−→
_
_
1 0 −
3
4
0
7
4
1
0 1 −
1
8
0
1
8
0
0 0 0 1 3 2
_
_
Neste ponto, sabemos que existe uma matriz regular, P, tal que:
PA =
_
_
1 0 −
3
4
0
7
4
0 1 −
1
8
0
1
8
0 0 0 1 3
_
_
e PB =
_
_
1
0
2
_
_
Consideremos agora 3 alternativas para a determinação da solução geral do
sistema:
Alternativa 1
Esta alternativa é baseada na descrição teórica acima realizada. A partir da
equação (PA) X = PB poderemos escrever, trocando as colunas 3 e 4 da matriz
PA o sistema:
_
_
1 0 0 −
3
4
7
4
0 1 0 −
1
8
1
8
0 0 1 0 3
_
_
| {z }
PAQ
¡
Q
−1
X
¢
=
_
_
1
0
2
_
_
| {z }
PB
Naturalmente que a matriz Q será dada pela matriz identidade de ordem 5,
onde as colunas 2 e 3 foram trocadas:
92
6 Teoria das Matrizes
Q =
_
¸
¸
¸
¸
_
1 0 0 0 0
0 1 0 0 0
0 0 0 1 0
0 0 1 0 0
0 0 0 0 1
_
¸
¸
¸
¸
_
É fácil verificar que a coluna D
0
= {1, 0, 2, 0, 0} é uma solução particular
do sistema (PAQ) Y = PB pelo que D = QD
0
= {1, 0, 2, 0, 0} (basta trocar as
linhas 3 e 4 de D
0
) é solução de (PA) X = PB, logo de AX = B.
Dado que o sistema é indeterminado de ordem 2, onde {y
1
, y
2
, y
3
} são as
variáveis dependentes e {y
4
, y
5
} as variáveis independentes, e a característica
da matriz dos coeficientes é 5, a solução geral do sistema (PAQ) Y = PB é
dada por:
"
B
00(1)
3,1
0
2,1
#

·
C
3,2
−I
2
¸
D
2,1
onde B
00(1)
3,1
=
_
_
1
0
2
_
_
, C
3,2
=
_
_

3
4
7
4

1
8
1
8
0 3
_
_
, 0
2,1
=
·
0
0
¸
, I
2
=
·
1 0
0 1
¸
e D
2,1
=
·
α
1
α
2
¸
é um vector de escalares pertencentes ao corpo K (neste caso
K = R). Tem-se assim a solução geral, Y , de (PAQ) Y = PB dada por
_
¸
¸
¸
¸
_
y
1
y
2
y
3
y
4
y
5
_
¸
¸
¸
¸
_
=
_
¸
¸
¸
¸
_
1
0
2
0
0
_
¸
¸
¸
¸
_

_
¸
¸
¸
¸
_

3
4
7
4

1
8
1
8
0 3
−1 0
0 −1
_
¸
¸
¸
¸
_
·
α
1
α
2
¸
; α
1
, α
2
∈ R
A solução geral do sistema (PA) X = B e portanto AX = B será dada por:
Q
_
¸
¸
¸
¸
_
y
1
y
2
y
3
y
4
y
5
_
¸
¸
¸
¸
_
= Q
_
¸
¸
¸
¸
_
¸
¸
¸
¸
_
_
¸
¸
¸
¸
_
1
0
2
0
0
_
¸
¸
¸
¸
_

_
¸
¸
¸
¸
_

3
4
7
4

1
8
1
8
0 3
−1 0
0 −1
_
¸
¸
¸
¸
_
·
α
1
α
2
¸
_
¸
¸
¸
¸
_
¸
¸
¸
¸
_
=
93
6 Teoria das Matrizes
= Q
_
¸
¸
¸
¸
_
1
0
2
0
0
_
¸
¸
¸
¸
_
+Q
_
¸
¸
¸
¸
_
3
4

7
4
1
8

1
8
0 −3
1 0
0 1
_
¸
¸
¸
¸
_
·
α
1
α
2
¸
=
=
_
¸
¸
¸
¸
_
1
0
0
2
0
_
¸
¸
¸
¸
_
+
_
¸
¸
¸
¸
_
3
4

7
4
1
8

1
8
1 0
0 −3
0 1
_
¸
¸
¸
¸
_
·
α
1
α
2
¸
Conclui-se, dizendo que a solução geral da equação AX = B é dada por:
_
¸
¸
¸
¸
_
x
1
x
2
x
3
x
4
x
5
_
¸
¸
¸
¸
_
=
_
¸
¸
¸
¸
_
1
0
0
2
0
_
¸
¸
¸
¸
_

1
_
¸
¸
¸
¸
_
3
4
1
8
1
0
0
_
¸
¸
¸
¸
_

2
_
¸
¸
¸
¸
_

7
4

1
8
0
−3
1
_
¸
¸
¸
¸
_
; α
1
, α
2
∈ R
Alternativa 2
Nesta alternativa, exibir-se-á a solução geral do sistema partindo da equação
(PA) X = PB, evitando assim potenciais erros devido às trocas das colunas de
(PA). O sistema a resolver é portanto:
_
_
1 0 −
3
4
0
7
4
0 1 −
1
8
0
1
8
0 0 0 1 3
_
_
| {z }
PA
X =
_
_
1
0
2
_
_
| {z }
PB
As colunas redutoras da matriz PA têm índices {1, 2, 4}, correspondendo
às variáveis dependentes {x
1
, x
2
, x
4
}, donde se deduz imediatamente a solução
particular x
1
= b
0
11
= 1, x
2
= b
0
21
= 0 e x
4
= b
0
31
= 2. Às restantes variáveis, as
variáveis independentes {x
3
, x
5
}, associadas a colunas não redutoras associa-se
o escalar 0: x
3
= x
5
= 0. Assim, a coluna D = {1, 0, 0, 2, 0} é uma solução
particular do sistema (PA) X = PB.
Resta determinar as duas colunas (relativas ao grau de indeterminação do
sistema, que é 2) cuja combinação linear completará a expressão da solução
geral do sistema. Cada uma dessa colunas terá dimensão 5 × 1 (uma vez que
n = 5). Como regra geral, a coluna V
i
associada à variável independente x
i
terá
o escalar 1 na posição i e os escalares 0 nas posições associadas às restantes
variáveis independentes que não x
i
; as restantes posições serão preenchidas com
94
6 Teoria das Matrizes
os escalares constantes da i − ´ esima coluna da matriz PA multiplicados por
−1, e por aquela ordem. Vejamos então a forma deste vectores coluna no caso
presente:
• Variável independente x
3
:
V
3
=
_
¸
¸
¸
¸
_
?
?
1
?
0
_
¸
¸
¸
¸
_
→V
3
=
_
¸
¸
¸
¸
¸
¸
_
3
4
1
8
1
0
0
_
¸
¸
¸
¸
¸
¸
_
• Variável independente x
5
:
V
5
=
_
¸
¸
¸
¸
_
?
?
0
?
1
_
¸
¸
¸
¸
_
→V
5
=
_
¸
¸
¸
¸
¸
¸
_

7
4

1
8
0
−3
1
_
¸
¸
¸
¸
¸
¸
_
Como se confirma, a solução geral de (PA) X = PB e portanto de AX =
B será:
_
¸
¸
¸
¸
_
x
1
x
2
x
3
x
4
x
5
_
¸
¸
¸
¸
_
=
_
¸
¸
¸
¸
_
1
0
0
2
0
_
¸
¸
¸
¸
_

1
V
3

2
V
5
=
=
_
¸
¸
¸
¸
_
1
0
0
2
0
_
¸
¸
¸
¸
_

1
_
¸
¸
¸
¸
_
3
4
1
8
1
0
0
_
¸
¸
¸
¸
_

2
_
¸
¸
¸
¸
_

7
4

1
8
0
−3
1
_
¸
¸
¸
¸
_
; α
1
, α
2
∈ R
Alternativa 3
Nesta alternativa, exibir-se-á a solução geral do sistema partindo da equação
(PA) X = PB, evitando assim potenciais erros devido às trocas das colunas de
(PA). Reescrevendo o sistema na forma algébrica, é possível deduzir a solução
geral de forma intuitiva. O sistema a resolver é, como na alternativa 2:
_
_
1 0 −
3
4
0
7
4
0 1 −
1
8
0
1
8
0 0 0 1 3
_
_
| {z }
PA
X =
_
_
1
0
2
_
_
| {z }
PB
95
6 Teoria das Matrizes
Na forma algébrica o sistema tomará a forma:
_
_
_
x
1

3
4
x
3
+
7
4
x
5
= 1
x
2

1
8
x
3
+
1
8
x
5
= 0
x
4
+3x
5
= 2
Resolvendo este sistema em ordem às variáveis dependentes, obtém-se:
_
_
_
x
1
= 1 +
3
4
x
3

7
4
x
5
x
2
= 0 +
1
8
x
3

1
8
x
5
x
4
= 2 −3x
5
; x
3
, x
5
∈ R
Assim, a solução geral dada por:
_
¸
¸
¸
¸
_
x
1
x
2
x
3
x
4
x
5
_
¸
¸
¸
¸
_
poderá ser reescrita em função das variáveis independentes {x
3
, x
5
} substi-
tuindo, no vector acima, as variáveis dependentes {x
1
, x
2
, x
4
} pelas respectivas
expressões em função de {x
3
, x
5
}:
_
¸
¸
¸
¸
_
x
1
x
2
x
3
x
4
x
5
_
¸
¸
¸
¸
_

_
¸
¸
¸
¸
_
1 +
3
4
x
3

7
4
x
5
0 +
1
8
x
3

1
8
x
5
x
3
2 −3x
5
x
5
_
¸
¸
¸
¸
_
; x
3
, x
5
∈ R
Este vector pode ser reescrito com a soma de três vectores: um vector de
termos independentes, outro de termos em x
3
e outro de termos em x
5
obtendo-
se:
_
¸
¸
¸
¸
_
1 +
3
4
x
3

7
4
x
5
0 +
1
8
x
3

1
8
x
5
x
3
2 −3x
5
x
5
_
¸
¸
¸
¸
_

_
¸
¸
¸
¸
_
1
0
0
2
0
_
¸
¸
¸
¸
_
+
_
¸
¸
¸
¸
_
3
4
x
3
1
8
x
3
x
3
0
0
_
¸
¸
¸
¸
_
+
_
¸
¸
¸
¸
_

7
4
x
5

1
8
x
5
0
−3x
5
x
5
_
¸
¸
¸
¸
_
Colocando em evidência os escalares x
3
e x
5
:
_
¸
¸
¸
¸
_
1
0
0
2
0
_
¸
¸
¸
¸
_
+
_
¸
¸
¸
¸
_
3
4
x
3
1
8
x
3
x
3
0
0
_
¸
¸
¸
¸
_
+
_
¸
¸
¸
¸
_

7
4
x
5

1
8
x
5
0
−3x
5
x
5
_
¸
¸
¸
¸
_
=
_
¸
¸
¸
¸
_
1
0
0
2
0
_
¸
¸
¸
¸
_
+x
3
_
¸
¸
¸
¸
_
3
4
1
8
1
0
0
_
¸
¸
¸
¸
_
+x
5
_
¸
¸
¸
¸
_

7
4

1
8
0
−3
1
_
¸
¸
¸
¸
_
96
6 Teoria das Matrizes
Como x
3
e x
5
: são quaisquer escalares reais, poderemos sombolizá-los por,
por exemplo, α
1
e α
2
, para se obter a já conhecida expressão geral das soluções
de AX = B:
_
¸
¸
¸
¸
_
x
1
x
2
x
3
x
4
x
5
_
¸
¸
¸
¸
_
=
_
¸
¸
¸
¸
_
1
0
0
2
0
_
¸
¸
¸
¸
_

1
_
¸
¸
¸
¸
_
3
4
1
8
1
0
0
_
¸
¸
¸
¸
_

2
_
¸
¸
¸
¸
_

7
4

1
8
0
−3
1
_
¸
¸
¸
¸
_
; α
1
, α
2
∈ R
Nota 21 A apresentação da solução geral do sistema em forma matricial ou
algébrica é indiferente a menos que uma das formas seja especificamente solic-
itada.
O estudo da Natureza de um sistema de equações lineares, resume-se no
seguinte quadro:
Natureza de um Sistema de Equac, o~es Lineares
Equaç˜ ao AX = B
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
Sol´ uvel
(r(A)=r([ A|B]))
_
¸
¸
¸
¸
¸
_
¸
¸
¸
¸
¸
_
Indeterminado
(r(A)=r([ A|B])<n)
Grau de Indeterminação
(n−r(A))
Determinado
(r(A)=r([ A|B])=n)
Insol´ uvel
(r(A)6=r([ A|B]))
Note-se que, a natureza de um sistema, requer que se identifique, no caso
indeterminado, o grau de indeterminação.
6.9.3 Algoritmo de Gauss-Jordan
O algoritmo de Gauss-Jordan é um método que permite resolver de forma sis-
temática um sistema de equações lineares dado pela equação matricial AX = B,
onde A ∈ M
m×n
(K),B ∈ M
m×1
(K) e X ∈ M
n×1
(K).
• Condensar a matriz ampliada do sistema, [ A| B], numa matriz em forma
de escada reduzida [ A
0
| B
0
]. Note-se que [ A| B] ∈ M
m×(n+1)
(K).
• Suponha-se que [ A
0
| B
0
] tem r linhas não-nulas e que o elemento redutor
na i − ´ esima linha ocorre na coluna c
i
para 1 ≤ i ≤ r. Ter-se-á então:
1 ≤ c
1
< c
2
< · · · < c
r
≤ n + 1
97
6 Teoria das Matrizes
Suponha-se ainda que as restantes colunas de A
0
terão índices c
r+1
, · · · , c
n
,
onde:
1 ≤ c
r+1
< c
2
< · · · < c
n
≤ n
Caso 1 c
r
= n+1. O sistema é impossível. Efectivamente, a última linha não-nula
de [ A
0
| B
0
] tem a forma
£
0 0 · · · 1
¤
, correspondente à equação:
0x
1
+ 0x
2
+ · · · + 0x
n
= 1
obviamente insolúvel
Caso 2 c
r
≤ n. O sistema é possível. Note-se que r ≤ n.
=⇒ Se r = n, então c
1
= 1, c
2
= 2, · · · , c
n
= n e o sistema é determinado
e terá a solução única:
£
b
0
1
b
0
2
· · · b
0
n
¤
T
=⇒ Se r < n, existirão soluções múltiplas. O sistema é indeterminado
com grau de indeterminação n −r. A solução geral obtem-se expri-
mindo as variáveis dependentes x
c
1
, · · · , x
c
r
nas variáveis indepen-
dentes x
c
r+1
, · · · , x
c
n
:
_
_
_
x
c
1
= b
0
1
−a
0
1c
r+1
x
c
r+1
−· · · −a
0
1c
n
x
c
n
· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · ·
x
c
r
= b
0
r
−a
0
rc
r+1
x
c
r+1
−· · · −a
0
rc
n
x
c
n
Soluções particulares do sistema podem ser obtidas concretizando as
variáveis independentes com valores particulares de K.
6.10 Matrizes com propriedades especiais
Nesta secção distinguem-se algumas matrizes que, pelas suas propriedades, se
enquadram numa definição particular. Daremos uma breve definição de cada
um destes tipos de matrizes assim como um exemplo ilustrando a respectiva
popriedade.
Definição 42 (Matriz idempotente) Seja A ∈ M
n
(K). Diz-se que a matriz
A é idempotente se A
2
= A.
98
6 Teoria das Matrizes
Exemplo 27 A matriz A =
·
8 −28
2 −7
¸
é idempotente uma vez que:
·
8 −28
2 −7
¸ ·
8 −28
2 −7
¸
=
·
8 × 8 + (−28) × 2 8 × (−28) + (−28) × (−7)
2 × 8 + (−7) × 2 2 × (−28) + (−28) × (−7)
¸
=
·
8 −28
2 −7
¸
Definição 43 (Matriz nilpotente) Seja A ∈ M
n
(K). A matriz A diz-se
nilpotente se A
p
= 0 para algum inteiro p. Se p é o menor inteiro para o qual
A
p
= 0, A diz-se nilpotente de ordem p.
Exemplo 28 A matriz A =
_
_
0 0 0
1 2 −1
1 4 −2
_
_
é nilpotente de ordem 3 uma vez
que:
_
_
0 0 0
1 2 −1
1 4 −2
_
_
6= 0
_
_
0 0 0
1 2 −1
1 4 −2
_
_
2
6=
_
_
0 0 0
1 0 0
2 0 0
_
_
6= 0
_
_
0 0 0
1 2 −1
1 4 −2
_
_
3
= 0
Definição 44 Seja A ∈ M
n
(K). A matriz A diz-se involuntória se A
2
= I.
Exemplo 29 É simples confirmar que a matriz A =
_
_

11
2

39
4

39
4
1
5
2
3
2
2 3 4
_
_
é
involuntória.
Definição 45 (Matrizes Equivalentes) Duas matrizes A, B ∈ M
n×m
(K)
dizem-se equivalentes se existem matrizes regulares P ∈M
n
(K) e Q∈M
m
(K)
tais que A = PBQ.
Uma propriedade importante das matrizes equivalentes traduz-se no seguinte
resultado:
99
6 Teoria das Matrizes
Proposição 29 Duas matrizes, A, B ∈ M
n×m
(K), equivalentes têm a mesma
característica.
Demonstração. Por definição, existem matrizes regulares P ∈ M
n
(K)
e Q ∈ M
m
(K) tais que A = PBQ. Pelo ponto 4 da Proposição 18 tem-
se r (PBQ) = r (BQ). Pela Proposição 23 tem-se r (BQ) = r (B). Como
A = PBQ resulta imediatamente r (A) = r (B).
Um caso particular de equivalência de matrizes é o de semelhança de ma-
trizes, que se definem em seguida.
Definição 46 (Matrizes Semelhantes) Duas matrizes A, B∈M
n
(K) dizem-
se semelhantes se existe uma matriz regular P ∈M
n
(K) tal que A = PBP
−1
.
100

Índice
Lógica e Demonstração
1 Demonstração Directa 2 Recíproco e Contrapositivo 3 Demonstração Indirecta ou por Redução ao Absurdo 4 Demonstração por Indução Matemática

3
3 3 4 5

Matrizes e Determinantes
5 Nota Histórica

7
7

6 Teoria das Matrizes 15 6.1 Definições e Generalidades . . . . . . . . . . . . . . . . . . . . . . 15 6.2 Álgebra Matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 6.2.1 Soma de matrizes. . . . . . . . . . . . . . . . . . . . . . . 18 6.2.2 Multiplicação de uma matriz por um escalar. . . . . . . . 20 6.2.3 Multiplicação de matrizes. . . . . . . . . . . . . . . . . . . 22 6.2.4 Multiplicação por blocos. . . . . . . . . . . . . . . . . . . 27 6.3 Transposição de matrizes. Matrizes Simétricas. . . . . . . . . . . 30 6.4 Traço de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . . 33 6.5 Dependência e independência lineares de filas paralelas de uma matriz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 6.6 Característica de uma matriz. Operações elementares. . . . . . . 41 6.6.1 Operações Elementares . . . . . . . . . . . . . . . . . . . 42 6.6.2 Determinação da Característica de Linha de uma Matriz . 51 6.7 Inversão de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . 56 6.7.1 Definições e Resultados . . . . . . . . . . . . . . . . . . . 56 6.7.2 Determinação da Inversa de uma Matriz Regular . . . . . 66 6.8 A Característica Revisitada . . . . . . . . . . . . . . . . . . . . . 70 6.9 Resolução de Sistemas de Equações Lineares . . . . . . . . . . . . 74 6.9.1 Enquadramento Teórico . . . . . . . . . . . . . . . . . . . 74 6.9.2 Sistemas de Equações Lineares Indeterminados . . . . . . 87 6.9.3 Algoritmo de Gauss-Jordan . . . . . . . . . . . . . . . . . 97 6.10 Matrizes com propriedades especiais . . . . . . . . . . . . . . . . 98

2

2 Recíproco e Contrapositivo

Lógica e Demonstração
Resumem-se, neste capítulo, os três métodos de demonstração matemática existentes, e cuja aplicação será assídua ao longo de todo o texto.

1

Demonstração Directa

O modo directo de demonstrar a proposição A ⇒ B consiste em determnar uma sequência de teoremas e/ou axiomas aceites na forma Ai ⇒ Ai+1 , para i = 1, · · · , n de modo a que A1 ⇒ A e An ⇒ B. A dificuladade está, obviamente, em encontrar a sequência de axiomas e/ou teoremas que preenchem o vazio entre A e B. A afirmação A designa-se por hipótese, ou seja, aquilo que é dado e a afirmação B designa-se por tese, isto é, a conclusão. O método assim descrito denomina-se raciocínio dedutivo. Consideremos o seguinte Teorema ilustrativo: Teorema 1 Seja m um inteiro par e p um inteiro qualquer. Então m × p é um inteiro par. Demonstração. 1. m é um inteiro par (Dado, por hipótese). 2. existe um inteiro q tal que m = 2 × q (Definição de um número inteiro par). 3. m × p = (2q) p (Utilizando o axioma a = b ⇒ ac = bc). 4. m × p = 2 (qp) (Pela propriedade associativa da multiplicação). 5. m × p é um inteiro (Pela definição de um número inteiro par).

2

Recíproco e Contrapositivo

Definição 1 Considere-se a proposição Π da forma A ⇒ B : se a hipótese A se verifica então a tese, B, também se verifica. O recíproco da proposição Π é a proposição B ⇒ A.

3

evidentemente. Por exemplo. Existe uma proposição. Definição 2 Se a proposição A ⇒ B e o seu recíproco.b. Exemplo 1 Considere-se a seguinte proposição: (A) n é um número primo diferente de 2. Demonstração. são ambos verdadeiros diz-se que A se verifica se e só se B se verifica. Há muitas situações em que o recíproco e uma proposição verdadeira não é verdadeiro.c∈R é sempre verdadeira. B ⇒ A. Alternativamente. Outras situações há. em que uma proposição e o seu recíproco são ambas verdadeiras. formada a partir de qualquer proposição Π. no entanto. O contrapositivo desta proposição será dado por: (∼ B) n é um inteiro par. b. que é verdadeira sempre que Π é verdadeira: o contrapositivo de Π.3 Demonstração Indirecta ou por Redução ao Absurdo O recíproco de uma proposição Π consiste em inverter os papéis da hipótese e da tese de Π. mas ac = bc ⇒ a = b não é verdadeira para quaisquer a. Com recurso a uma tabela de verdade é extremamente simples provar que (A =⇒ B) ⇐⇒ (∼ B =⇒∼ A): A V F V F B V V F F A =⇒ B V V F V ∼B V F V F ∼A V V F F ∼ B =⇒∼ A V V F V Note-se as colunas relativas a (A =⇒ B) e (∼ B =⇒∼ A) o que completa a demonstração.=⇒ (A) n não é um número primo ou n = 2.=⇒ (B) n é um inteiro ímpar. que c = 0. basta. a proposição a = b ⇒ ac = bc. 3 Demonstração Indirecta ou por Redução ao Absurdo Consideremos o seguinte resultado: Proposição 1 A proposição A =⇒ B é verdadeira se e só se o seu contrapositivo é verdadeiro. ∀a. Definição 3 Considere-se uma proposição Π : A =⇒ B. A proposição ∼ B =⇒∼ A designa-se por contrapositivo de Π. c ∈ R. diz-se que A e B são equivalentes e escreve-se A ⇐⇒ B. 4 .

Π (2) é a segunda afirmação e Π (n) é a n − esima afirmação. o absurdo reside no facto de. (ii) Se. Suponhamos então que existe um natural p tal que p é ímpar. indexadas aos números inteiros. Conideremos o seguinte Teorema ilustrativo. para algum k ∈ N. assumirmos que a afirmação A é verdadeira. então p é par. provarmos directamente que ∼ A é verdadeira. Esta linha de raciocínio designa-se por demonstração indirecta ou demonstração por redução ao absurdo. a afirmação Π (k) é verdadeira então a afirmação Π (k + 1) também é verdadeira. pois a hipótese original era a de que p2 era par. ¡ isto é. virá (2q + 1)2 = 4q 2 +4q +1. de modo que Π (1) é a primeira afirmação. o que é absurdo. Conideremos o seguinte Teorema ilustrativo. O absurdo vem de se assumir que p é par. para qualquer p ∈ N. ¢ ¡ Demonstração. p2 = 4 q 2 + q + 1. Nestas circunstâncias a afirmação Π (n) é verdadeira para qualquer n ∈ N. Desenvolvendo. Teorema 2 Se p é um número natural e p2 é par. Consideremos então uma sequência de afirmações indexadas aos números inteiros. p2¢= (2q + 1)2 . Pretende-se mostrar p2 é par ⇒ (p é par). 4 Demonstração por Indução Matemática Existe um terceiro método de demonstração que difere significativamente do método por demonstração directa e do método de transformação por indução: a demonstração por indução matemática. As demonstrações por indução têm a limitação de só poderem ser aplicadas a afirmações envolvendo os números inteiros ou. originalmente. Assim. logo p terá de ser ímpar. uma forma de mostrar a validade de uma proposição A =⇒ B é mostrar a validade do seu contrapositivo ∼ B =⇒∼ A. Com efeito. se. é igual a 1 n (n + 1). partindo de ∼ B. Mas então p2 é um número ímpar. 2 5 . Então ∃q∈N : p = 2q +1. Teorema 3 A soma dos primeiros n números naturais. Suponhamos que é possível demonstrar dois ´ factos àcerca desta sequência: (i) A afirmação Π (1) é verdadeira.4 Demonstração por Indução Matemática Assim. 1 + 2 + · · · + n.

Neste caso. Procedamos à demonstração por Indução Matemática. 1 (k + 1) (k + 2) 2 Π (k + 1) = (1 + 2 + · · · + k) + (k + 1) = {z } | Π(k) = = = = 1 k (k + 1) + (k + 1) = 2 ¶ µ 1 k + 1 (k + 1) = 2 µ ¶ k+2 (k + 1) = 2 1 (k + 2) (k + 1) 2 Logo. 6 . Assumindo que Π (k) é verdadeira. sabendo que a afirmação a demonstrar é dada por: 1 n (n + 1) 2 Π (n) = 1 + 2 + · · · + n = (i) Consideremos n = 1.4 Demonstração por Indução Matemática Demonstração. Π (n) é válida para qualquer n ∈ N. 2 (ii) Suponhamos que a afirmação é válida para qualquer k ∈ N. que é precisamente igual a 1 × 1 × (1 + 1). Mostemos que então deverá ser válida para k + 1. sabemos que: 1 k (k + 1) 2 Π (k) = 1 + 2 + · · · + k = Queremos mostrar que: Π (k + 1) = 1 + 2 + · · · + (k + 1) = Mas. a soma dos primeiros naturais será 1.

) ilustra os primeiros exemplos conhecidos de métodos matriciais. no período entre 200 a. Este problema conduz. A título ilustrativo considere-se um desses problemas: Existem três tipos de milho. Por exemplo. Se a colheita total é de 1100 alqueires 2 qual é a área de cada campo. C. Três molhos do primeiro tipo. Não é surpreendente que os primórdios das matrizes e determinantes tenham surgido através do estudo de sistemas de equações lineares.-220 d. chegaram mais próximo da noção de matriz que os Babilónios. Quantas medidas de milho estão contidas num molho de cada tipo? Modernamente.. C. No entanto. XVII da nossa era que as ideias reapareceram e o seu desenvolvimento floresceu. Alguns destes problemas sobreviveram até hoje preservados em placas de argila. descrevendo principalmente um conjunto de problemas com regras gerais para a sua solução. modernamente. o sistema de equações lineares (2) permite resolver o problema em aberto. e 100 a. à resolução do sistema de equações (1) ilustrado em seguida: ½ x + y = 1800 + 1 y = 1100 2 2 3x (1) Os Chineses. é justo referir que o texto chinês ”Nove Capítulos da Arte Matemática” escrito durante o período da dinastia Han (206 a. C. contém o seguinte problema: Existem dois campos com uma área total de 1800 m2 . não foi senão nos finais do séc. Finalmente. dois do segundo e um do terceiro completam 39 medidas. C. uma placa datada de cerca de 300 a.5 Nota Histórica Matrizes e Determinantes 5 Nota Histórica Historicamente. IV a. Estes problemas têm um carácter aritmético e conduzem a equações algébricas com coeficientes numéricos. dois do segundo e três do terceiro prefazem 26 medidas. C. um molho do primeiro tipo. embora existam traços da sua existência em épocas tão distantes quanto o séc. 7 . os primeiros esboços de matrizes e determinantes remontam ao segundo século a. C. Os Babilónios estudaram problemas que levaram à resolução simultânea de equações lineares. Dois molhos do primeiro tipo. Efectivamente. Um produz grão à taxa de 2 de alqueire por m2 enquanto o outro produz grão à 3 taxa de 1 de alqueire por m2 . três do segundo e um do terceiro prefazem 34 medidas. C.

fornece uma regra para resolver sistemas de 2 equações lineares. O matemático italiano Cardan. na sua obra ”Ars Magna”(1545). o que modernamente se designa por Regra de Cramer para a resolução de sistemas de 2 equações lineares a 2 incógnitas. resultando no quadro: 0 0 3 0 5 2 36 1 1 99 24 39 Desta tabela é possível determinar. Destas operações . da primeira coluna multiplicada por 3.resulta o quadro: 0 0 3 4 5 2 8 1 1 39 24 39 Seguidamente.9.5 Nota Histórica O autor do texto propôs um método de resolução notável: os coeficientes das três equações a três incógnitas que compõem o sistema são dispostos como uma tabela num ”quadro de contagem”: 1 2 3 2 3 2 3 1 1 26 34 39 Os métodos modernos dos finais do séc. embora Cardan não tenha dado o passo decisivo e final na definição 8   3x + 2y + z = 39 2x + 3y + z = 34  x + 2y + 3z = 26 (2) . que só virá a ser bem compreendido no início do séc. a solução relativamente ao terceiro tipo de milho. C. substantivamente. tantas vezes quanto possível. seguida do segundo e finalmente do primeiro tipo. Seguidamente. em primeiro lugar. tema abordado na secção 6. escrevendo em 200 a. de modo semelhante. subtrai-se a coluna da direita. discutido no âmbito da resolução de sistemas de equações lineares. a que dá o nome de regula de modo. tantas vezes quanto possível. XIX. Esta regra é. Este método é hoje em dia conhecido como o Método de Eliminação de Gauss. a coluna da esquerda é multiplicada 5 vezes e a coluna central subtraída tantas vezes quanto possível. instrui o leitor a multiplicar a coluna central por 3 e subtrair a coluna da direita. mas intrinsecamente o método é idêntico. o autor. XX levariam a dispor os coeficientes das equações lineares em linhas. em vez de colunas.

. 3. mas. não de sistemas de equações lineares. numa perpectiva actual é possível concluir que o seu método leva efectivamente à definição de determinante. O processo consiste. Em 1683. Seki escreve o ”Método para Resolver Problemas Dissimulados”. De modo extraordinário. Leibniz escreveu a de l’Hôpital explicando-lhe que o sistema de equações dado por:   10 + 11x + 12y = 0 20 + 21x + 22y = 0  30 + 31x + 32y = 0 . de Witt.5 Nota Histórica da regra. modernamente. note-se que Leibniz não utiliza coeficientes numéricos mas dois símbolos. na sua obra ”Elementos das Curvas”. tenha publicado em primeiro lugar. na diagonalização de uma matriz simétrica. no Japão. Seki conseguiu calcular determinantes de ordem 2. basados em exemplos. Por exemplo. XVII. tendo experimentado com várias notações para o sistema de coefcientes. Assim. em que o primeiro indica a equação em que ocorre e o segundo a que letra pertence. Leibniz estava convencido que a notação matemática era a chave para o progresso. Utilizando os seus ”determinantes”. de forma em tudo idêntica à descrita nos métodos chineses. Seki mesmo assim introduz a noção e fornece métodos gerais que permitem o seu cálculo. ocorreu no exacto ano de 1683. Embora sem conter nenhuma palavra que corresponda ao conceito ”determinante”. embora Seki. mas de equaçõe lineares. Assim. A ideia de um conceito de determinante surge mais ou menos simultaneamente na Europa e no Japão no último quartel do séc. o primeiro aparecimento de um determinante na Europa. mostra como uma transformação dos eixos ordenados reduz a equação de uma cónica à forma canónica. ”21” denota o que modernamente escreveríamos como a21 . Cardan não chega até á definição de determinante. acima abordados. publicado como parte dos comentários à edição latina de 1660 da ”Geometria” de Descartes. 4 e 5 e aplicou-os à resolução. Muitos dos resultados associados à Teoria Elementar das Matrizes apareceram antes das Matrizes serem objecto de investigação matemática. Nesse ano. tinha solução porque 10×21×32+11×22×30+12×20×31=10×22×31+11×20×32+12×21×30 Esta igualdade é precisamente a condição que determina que a solvabilidade de um sistema de equações requer que o determinante da matriz dos coeficientes seja nulo. Os seus manuscritos não publicados contêm mais de cinquenta formas de representar sistemas de coeficientes.. que contém métodos matriciais descritos em tabelas. sobre as quais trabalhou por um período de 50 9 . mas de Witt nunca raciocinou nestes termos.

Assim como o estudo de sistemas de coeficientes de equações lineares levaram Leibniz na rota dos determinantes. publicado em 1750. Cramer prossegue. dois anos após a sua morte. assim como Vandermonde em 1771. para a resolução de sistemas de n equações a n incógnitas no artigo ”Introdução à Análise de Curvas Algébricas”. cuja notação é a mesma da utilizada na carta a de l’Hôpital acima mencionada. Laplace discute a solução de sistemas de equações lineares sem efectivamente os calcular. no que é conhecido actualmente como o Desenvolvimento de Laplace. Apenas duas publicações. Num artigo onde estuda as órbitas dos planetas interiores. embora não tenha sido publicado até 1748. Leibniz utilizou o termo ”resultante” para certas somas combinatórias de termos de um determinante. 10 . O artigo foi motivado pelo desejo de determinar a equação de uma curva plana que passasse por um certo número de pontos. Bézout forneceu métodos para calcular determinantes. contêm resultados sobre sistemas de coeficientes. Laplace afirmou que os métodos introduzidos por Cramer e Bézout eram impraticáveis. cujo denominador comum é composto de tantas parcelas quantas as permutações de n ”coisas”. Cramer forneceu a regra geral.5 Nota Histórica anos. segundo o próprio Cramer. método que aporta hoje em dia o seu nome. em 1700 e 1710. surpreendente. que hoje aporta o seu nome. Surpreendentemente. O trabalho sobre determinantes começava agora a emergir com certa regularidade. A obre contém os primeiros resultados sobre determinantes. O seu enunciado. São efectivamente produtos de certos coeficientes das equações. A regra propriamente dita surge como apêndice ao artigo. explicando precisamente como estas parcelas são calculadas. é como se segue: O valor de cada incógnita é determinado por um conjunto de n quocientes. Em 1764. com início em 1678. Refere ainda que os n numradores das fracções podem ser determinados substituindo certos coeficientes neste cálculo por termos constantes do sistema de equações. uma vez que é o mesmo termo utilizado por Leibniz embora não consta que Laplace tivesse estado a par do trabalho de Leibniz. utilizando determinantes. incluindo o que é actualmente conhecido como a Regra de Cramer. demonstrando a Regra de Cramer para matrizes de ordem 2 e 3 e indicando como se deveria proceder para matrizes de ordem 4. Leibniz também sabia que um determinante podia ser desenvolvido utilizando uma qualquer coluna do sistema de coeficientes. Laplace propôs ainda o desenvolvimento de um determinante. assim como os respectivos sinais (”+” ou ”-”). Na década de 1730 McLaurin escreveu o seu ”Tratado de Álgebra”. mas não é fornecida qualquer demonstração. Laplace utilizou o termo ”resultante” para referir o que modernamente se designa por determinante. Em 1772. Demonstrou vários resultados sobre ”resultantes”. o estudo de sistemas de coeficientes de formas quadráticas resultou naturalmente num desenvolvimento no sentido de uma Teoria das Matrizes.

C. mas em termos de uma composição. o teorema da multiplicação de determinantes é demonstrado pela primeira vez embora na mesma conferência. O Método de Eliminação de Gauss. No entanto.. precisamente o Método de Eliminação de Gauss sobre a matriz dos coeficientes. uma vez que Lagrange não via nenhuma relação entre o seu trabalho e o de Vandermonde e Laplace. No entanto. no decurso da discussão sobre formas quadráticas. Binet tenha apresentado um artigo contendo uma demonstração do mesmo teorema mas menos satisfatória que a prova de Cauchy. y 0 . foi utilizado por Gauss no seu trabalho envolvendo o estudo da órbita do asteróide Pallas. Gauss utilizou este termo porque o determinante determina as propiedades de uma forma quadrática. Descobriu os seus valores 11 x x0  y y0 z z0 . contém pela primeira vez o que hoje é a interpretação volumétrica de um determinante. Gauss obteve um sistema de 6 equações lineares a 6 incógnitas. Gauss dispõe os coeficientes das suas formas quadráticas em tabelas rectangulares.5 Nota Histórica Num artigo de 1773. z). Na mesma obra. sobre Mecânica. 0. Descreve ainda a inversão de matrizes no contexto particular de matrizes de coeficientes relativas a formas quadráticas. No seu artigo de 1812. o conceito não é o mesmo que o conceito moderno de determinante. cuja aparição remonta ao texto ”Nove Capítulos da Arte Matemática” em 200 a. Gauss descreve a multiplicação de matrizes. Lagrange demonstrou que o tetraedro formado pelos pontos O (0. em 1812. apresentado numa conferência no Institut de France. Utilizando observações de Pallas feitas entre 1803 e 1809. Em 1826 e no contexto das formas quadráticas em n variáveis. Efectivamente. que usou o termo ”determinante” no seu sentido actual. Este artigo de 1773. M (x. M 0 (x0 . Cauchy utilizou o termo ”tableau” para a matriz de coeficientes. este comentário é feito a posteriori. y. z 00 ) tem volume dado por 1 [z (x0 y 00 − y 0 x00 ) + z 0 (yx00 − xy 00 ) + z 00 (xy 0 − yx0 )] 6 que é precisamente igual a 1 6 do determinante da matriz  x00 y 00  z 00  O termo ”determinante” foi inicialmente introduzido por Gauss em ”Disquisitiones Arithmeticae” de 1801. Lagrange estudou identidades para determinantes funcionais de ordem 3. y 00 . O trabalho de Cauchy é o mais completo de entre os primeiros trabalhos sobre determinantes. Reprovou os primeiros resultados e forneceu novos resultados por si descobertos sobre menores complementares e matrizes adjuntas. pelo que ainda não vislumbrava o conceito de uma Ágebra Matricial. 0). z 0 ) e M 00 (x00 . Foi Cauchy. Gauss propôs um método sistemático para a resolução de tais equações.

5 Nota Histórica

próprios e forneceu resultados sobre a diagonalização de uma matriz, no processo que envolvia a transformação de uma forma quadrática numa soma de quadrados. Cauchy introduz ainda a ideia de matrizes semelhantes, mas não o termo, e mostrou que se duas matrizes são semelhantes então têm a mesma equação característica. Ainda no contexto das formas quadráticas, mostrou que qualquer matriz real simétrica é diagonalizável. Jacques Sturm forneceu uma generalização do problema dos valores próprios no ocontexto da resolução de sistemas de equações diferenciais ordinárias. Com efeito, o conceito de valor próprio surgiu 80 anos antes, de novo em trabalhos sobre sistemas de equações diferenciais realizados por d’Alembert. Na altura, d’Alembert estudava o movimento de uma corda com massas associadas em vários pontos do seu comprimento. Deve ser notado que nem Cauchy nem Jacques Sturm se aperceberam do alcance e generalidade das ideias que introduziram, considerando-as apenas no contexto específico das suas áreas de investigação. Jacobi, na década de 1830 e posteriormente Kronecker e Weierstarss nas décadas de 1850 e 1860, respectivamente, também desenvolveram resultados sobre matrizes mas, de novo, no contexto específico das transformações lineares. Jacobi publicou três tratados sobre determinantes em 1841. Estes foram importantes na medida em que a definição de determinante é introduzida de forma algorítmica. Para além disso, Jacobi não especifica quais os termos dos determinantes, pelo que os resultados se aplicam tão bem a casos onde os termos são números ou funções. Estes três artigo de Jacobi tornaram a idieia de determinante largamente conhecida Cayley, também escrevendo em 1841, publicou a primeira contribuição inglesa para a Teoria dos Determinantes. No seu artigo, utilizou duas linhas verticais limitando uma matriz, para denotar o seu determinante, notação esta que permaneceu até aos nossos dias. Eisenstein, em 1844, denotou substituições lineares por uma letra única e mostrou como adiconá-las e multiplicá-las como vulgares números, excepto no que respeita à sua comutatividade. É justo referir que Eisenstein foi o primeiro a pensar que as substituições lineares poderiam formar uma álgebra, como se pode induzir de um seu artigo publicado em 1844: Um algoritmo para o seu cálculo pode ser baseado na aplicação das regras normais para as operações soma, multiplicação, divisão e exponenciação a equações simbólicas entre sistemas lineares. Obtêm-se deste modo equações simbólicas correctas, apenas ressalvando que a ordem dos factores não pode ser alterada. O primeiro a uilizar o termo ”matriz ” foi Sylvester em 1850. Sylvester definiu uma matriz como sendo um arranjo rectangular de termos no qual se podiam definir vários determinantes sobre arranjos de termos contidos no arranjo global. Após ter deixado a América de regresso a Inglaterra em 1851, Sylvester tornou-se advogado e conheceu Cayley, também advogada e que partilhava com o primeiro o mesmo interesse pela Matemática. Cayley reconheceu 12

5 Nota Histórica

imediatamente o significado do conceito e matriz e, em 1853 publicaria uma nota, mencionando, pela primeira vez, o conceito de inversa de uma matriz. Em 1858, Cayley publicou o seu ”Memorando sobre a Teoria das Matrizes”, o qual constitu um texto notável por conter a primeira definição abstracta de matriz. Cayley mostra que os arranjos de coeficientes anteriormente estudados relativos a formas quadráticase transformações lineares são casos especiais de um conceito mais geral, o conceito de matriz. Cayley propõe uma Álegbra Matricial onde define a adição, multiplicação, multiplicação por um escalar e inversão. Adicionalmente, propõe uma construção explícita para a forma da inversa de uma matriz em termos do seu determinante. Mais ainda, Cayley mostra que, no caso das matrizes de ordem 2, qualquer matriz satisfaz a sua equação característica. Refere que verificou o resultado para matrizes de ordem 3, propondo uma demonstração mas: [...] não me parece necessário empreender numa demonstração formal para o caso geral de matrizes de qualquer ordem [...] O importante resultado de que uma matriz satisfaz a sua equação característica tem a designação especial de Teorema de Cayley-Hamilton. Qual então o pael de Hamilton? Efectivamente, Hamilton demonstrou o caso especial para matrizes de ordem 4, no decurso das suas investigações sobre quaterniões. Em 1870 surgiu a Forma Canónica de Jordan no ”Tratado sobre Substituições e Equações Algébricas”, escrito por Jordan. O conceito surge no contexto de uma forma canónica para substituições lineares sobre o corpo finito de ordem primo. Frobenius, em 1878 escreveu um importante texto sobre matrizes, ”Sobre Substituições Lineares e Formas Bilineares”, embora não pareça ao corrente do trabalho de Cayley. Neste artigo, Frobenius trata dos coeficientes de formas e não utiliza o termo ”matriz ”. No entanto, demonstra resultados importantes sobre matrizes canónicas como representantes de classes de equivalência de matrizes. Cita Kronecker e Weierstrass como tendo considerado casos especiais dos seus resultados em 1874 e 1868, respectivamente. Frobenius também demonstrou o resultado geral de que uma matriz satisfaz a sua equação característica. Este artigo de Frobenius de 1878 também encerra a definição de característica de uma matriz, a qual foi utilizada nas suas investigações em formas canónicas e na definição de matrizes ortogonais. A nulidade de uma matriz quadrada foi definida por Sylvester em 1884. Sylvester definiu a nulidade da matriz A, denotada por n (A), como sendo o maior i tal que todo o menor complementar de A de ordem n − i + 1 é nulo. Sylvester estava interessado em invariantes de matrizes, isto é, propriedades que não são alteradas por certas transformações. Sylvester demonstrou que: m´x {n(A), n(B)} ≤ n(AB) ≤ n(A) + n(B) a Em 1896, Frobenius tomou conhecimento do texto ”Memorando sobre a Teoria das Matrizes” escrito em 1858 por Cayley, adoptando desde então o termo 13

5 Nota Histórica

”matriz ”. Embora Cayley tenha apenas demonstrado o Teorema de CayleyHamilton para matrizes de ordem 2 e 3, Frobenius atribui generosamente o resultado a Cayley, mau grado ter sido aquele o primeiro a demonstrar o teorema no caso geral. Uma definição axiomática de determinante foi utilizada por Weierstrass nas suas lições e, após a sua morte, foi publicada em 1903 na nota ”Sobre a Teoria dos Determinantes”. No mesmo ano, as lições de Kronecker sobre determinantes também foram publicadas, de novo, postumamente. Com estas duas publicações, a moderna Teoria dos Determinantes tomou vida própria mas levou um pouco mais de tempo a que a Teoria das Matrizes no seu todo se estabelecesse como uma teoria totalmente aceite. Um importante texto, que deu às matrizes o devido espaço dentro da Matemática foi a ”Introdução à Álgebra Superior ” de Bôcher, publicado em 1907. Turnbull e Aitken escreveram textos influentes nos anos 30 do séc. XX. O texto ”Uma Introdução à Álgebra Linear ” de 1955 escrito por Mirsky deu à Teoria das Matrizes o impulso necessário para se manter até hoje como um dos mais importantes temas das licenciaturas em Matemática.

14

No caso das matrizes quadradas do tipo n × n . . Relativamente às matrizes quadradas. m  = [aij ] . . pode ser o conjunto dos números reais.6 Teoria das Matrizes 6 6. j) por (A)ij .1 Teoria das Matrizes Definições e Generalidades Definição 4 (Matriz) Sejam K um corpo e m e n números inteiros positivos. .. Definição 5 Designa-se por Mm×n (K) o conjunto de todas as matrizes do tipo m × n (e lê-se ”éme-por-éne”) sobre o corpo K. estas constituem um importante caso particular que se caracteriza pelo número de linhas (m) ser igual ao número de colunas (n). . A matriz denotada acima mostra que. . As matrizes do conjunto Mm×n (K) podem ser classificadas quanto à forma em matrizes rectangulares ou matrizes quadradas. Definição 6 (Matriz quadrada) Designa-se por matriz quadrada de ordem n a uma matriz A do tipo n × n..   j = 1. am2 ··· ··· ··· a1. Neste caso. o primeiro índice (i) do elemento genérico aij indica a linha e o segundo (j) a coluna em que se encontra o elemento de K.. am. Dentro desta sub-classe de matrizes destacam-se alguns tipos como ilustrado na Tab. designa-se por matriz sobre K (cujos elementos se designam por escalares) a todo o quadro de elementos de K dispostos em m linhas e n colunas. .. é costume designar-se uma matriz por uma letra maiúscula (quando não houver necessidade de especificar os seus elementos) e os elementos pela correspondente letra minúscula afectada pelos índices convenientes. . a sua dimensão é definida como ordem. em particular. Nota 1 K. . . .. R. Por exemplo..n−1 a1n a2n . Em algumas circunstâncias é por vezes conveniente representar o elemento (i. designando-se a matriz como matriz de ordem n. as matrizes dizem-se reais. O conjunto das matrizes quadradas de ordem n sobre um corpo K designa-se por Mn (K). n Nestas notações. 2. am1 a12 a22 . Relativamente às matrizes rectangulares destacam-se alguns tipos como ilustrado na Tab.   A=  (3) 15 .n−1 a2.n−1 . 1. Para designar genericamente uma matriz utilizam-se as seguintes notações:  a11 a21 . a23 é o elemento da matriz que se encontra na linha 2 e na coluna 3. amn    aij ∈ K   i = 1. em geral.

.  . . ann } Matriz Escalar aij = 0.           ann 0 0 . i 6= j. · · · . . . . a22 . . 1. i = j diag {1. a} É a matriz escalar em que Matriz Identidade aij = 0. .  Vector Coluna am1 (n = 1) ou {a11 . · · · . . am1 } Tabela 1: Principais tipos de Matrizes Rectangulares Matrizes Quadradas (m = n) Designação Forma Geral  a11 a12 · · · a1n  0 a22 · · · a2n Matriz Triangular Superior   .6 Teoria das Matrizes Matrizes Rectangulares (m 6= n) Designação Forma Geral Matriz Linha £ ¤ ou a11 a12 · · · a1n Vector Linha (m = 1)   a11  a21  Matriz Coluna    . 0 ··· 0 ··· a22 · · · . · · · . · · · . . a. . . . i 6= j. ou  . ann 0 0 .  . . i = j diag {a. 0 an2 · · · 0 ··· a22 · · · . Matriz Triangular Inferior (i < j =⇒ aij = 0)      0 a11 a21 . i 6= j)  an1 a11  0   . (i > j =⇒ aij = 0)  . . 1} Representa-se por In (ou apenas I) Neste caso identifica-se a matriz [a] com o próprio escalar a ∈ R m=n=1 Tabela 2: Principais tipos de Matrizes Quadradas 16 . 0      É uma matriz diagonal em que · · · ann ou diag {a11 . Matriz Diagonal (aij = 0. aij = 1 ∈ K. . a21 . aij = a ∈ K. . . .

a22 .min(m. −3}. Diagonal Secundária: •  -1 2 0 -2 -3 {1. 2. Diagonal Secundária: não tem. Diagonal Principal: {3. Se A = [aij ] ∈ Mn (K) a diagonal principal da matriz A será dada por {a11 . 2. Por exemplo. Denota-se simbolicamente essa igualdade por A = B. Designa-se por diagonal principal da matriz A aos elementos ª © a11 . a2.   3 0 •  -1 2 . isto é. Diagonal Principal: {3. an1 }. 0 -2   3 0 1   0 . Nota 2 As diagonais de uma matriz tomam uma relevância especial quando se consideram matrizes quadradas. Exemplo 2 Considerem-se as seguintes matrizes e identifiquemos as respectivas diagonais:   3 0 1 3 1   •  -1 2 0 -1 1 . àqueles elementos que estão nas mesmas linha e coluna.6 Teoria das Matrizes Uma matriz diagonal pode tanbém ser entendida como uma matriz simultaneamente triangular superior e triangular inferior. amin(m. 2. Diagonal Se0 -2 -3 1 1 cundária: não tem. designam-se por elementos homólogos aos elementos com os mesmos índices. · · · . · · · . Definição 9 (Diagonal) Seja a matriz A = [aij ] ∈ Mm×n (K).n) (que se designam por elementos principais da matriz). 0}.n). −3}. Definição 8 (Matrizes iguais) Dadas duas matrizes A = [aij ] e B = [bij ] do mesmo tipo m × n sobre um corpo K. a22 . estas dizem-se iguais se os elementos homólogos forem iguais. ann } e é possível definir a diagonal secundária dada pelos elementos {a1n . · · · . a36 e b36 são elementos homólogos. Diagonal Principal: {3. 17 .n−1 . 2}. Definição 7 (Elementos homólogos) Dadas as matrizes A = [aij ] e B = [bij ] do mesmo tipo m × n sobre um corpo K.

Ao verificar esta propriedade diz-se que o conjunto Mm×n (K) é um grupóide. Definição 12 Sejam A = [aij ] ..1 Soma de matrizes. ∀(i..n} .m}×{1.m}×{1. A + (B + C) = (A + B) + C..n} . não é possível determinar A + B. 18 . tal que cij = aij + bij . tal que aii = 1 (onde ”1” é o elemento neutro para a multiplicação no corpo K).. Proposição 2 O conjunto Mm×n (K) munido da adição definida na Definição 12 constitui um grupo abeliano (ou comutativo): 1. se não tiverem as mesmas dimensões e/ou o corpo subjacente não for igual..B.B∈Mm×n (K) .. B = [bij ] ∈ Mm×n (K).ver ambiguidade. ∃B∈Mm×n (K) : A + B = A.. ∃C∈Mm×n (K) : C = A + B.j)∈{1.B∈Mm×n (K) .6 Teoria das Matrizes Definição 10 (Matriz nula) Designa-se por matriz nula do tipo Mm×n (K) à matriz A = [aij ] tal que aij = 0. Esta é a propriedade mais simples das estruturas algébricas. multiplicação de uma matriz por um escalar e multiplicação de matrizes.2..C∈Mm×n (K) .. Define-se soma A + B à matriz C = [cij ]. ou por 0m×n . diz-se que Mm×n (K) é fechado para a adição. 2. pelo que a soma de A com B diz-se indefinida.. 4. Nota 3 Se as matrizes A e B não forem do mesmo tipo. denota-se A por 0m×n ou simplesmente por 0 se a ordem estiver subentendida e não houver risco de confusão com o escalar 0 (o elemento neutro para a adição do corpo K).. 3.. denota-se A por In ou simplesmente por I se a ordem estiver subentendida e não hou.. A matriz B designa-se por elemento neutro para a adição de matrizes e representa-se. ∀A. Propriedade comutativa para a adição de matrizes. Neste caso. Neste caso. 6. isto é. ∀A.. por 0. ∀(i. Propriedade associativa para a adição de matrizes. como já verificámos.2 Álgebra Matricial Discutem-se nesta secção as principais operações com matrizes: adição de matrizes..j)∈{1. 6. ∀A. Alternativamente.. Definição 11 (Matriz identidade) Designa-se por matriz identidade de ordem n à matriz escalar A = [aij ] ∈ Mn (K). A + B = B + A. ∀A∈Mm×n (K) .

1. C ∈ Mm×n (K) então A + (B + C) e (A + B) + C estão definidas. B. B ∈ Mm×n (K). Demonstração. Diz-se ainda que todos os elementos A ∈ Mm×n (K) são regulares. Como A. isto é aij + bij ∈ K e portanto [aij + bij ] ∈ Mm×n (K). Adicionalmente (A + B)ij = [aij ] + [bij ] = [aij + bij ] Como aij . B ∈ Mm×n (K) então A + B e B + A estão definidas. Seja A ∈ Mm×n (K) e B = 0m×n ∈ Mm×n (K). ∃B∈Mm×n (K) : A + B = 0. Então: (A + B)ij = [aij ] + [bij ] = [aij + 0] (porque 0 é o elemento neutro da adição em K) = [aij ] = (A)ij 19 . Adicionalmente (A + B)ij = [aij ] + [bij ] = [aij + bij ] (porque a adição é comutativa em K) = [bij + aij ] = [bij ] + [aij ] = (B + A)ij 4. ∀A∈Mm×n (K) . Como A. Como A. Adicionalmente {A + (B + C)}ij = [aij ] + [bij + cij ] = [aij + (bij + cij )] (porque a adição é associativa em K) = [(aij + bij ) + cij ] = [aij + bij ] + [cij ] = {(A + B) + C}ij 3. A + B ∈ Mm×n (K). bij ∈ K então K é fechado para a adição. 2. A matriz B designa-se por simétrico da matriz A para a adição de matrizes e representa-se por −A.6 Teoria das Matrizes 5.

.2 3 Considerem-se os seguintes casos: ¸ · ¸ · ¸ · ¸ 2 5 6 1+5 2+6 6 8 + = = 4 7 8 3+7 4+8 10 12 ¸ · ¸ · ¸ · ¸ 3 1+3 4 + = = 4 2+4 6 ¤ £ ¤ £ ¤ £ ¤ 4 + 1 2 = 3+1 4+2 = 4 6 Multiplicação de uma matriz por um escalar. Demonstração.n} .. O escalar 1 designa-se por unidade ou elemento neutro do corpo K. As seguintes propriedades são verificadas: 1. .. µ ∈ K.2... B ∈ Mm×n (K) e λ. j = 1.6 Teoria das Matrizes 5. (λ + µ) A = λA + µA 3. λ (µA) = (λµ) A 4... n. Define-se o produto de λ por A e denota-se por λ·A (ou λA) à matriz B = [bij ] ∈ Mm×n (K) tal que bij = λaij . Então: (A + B)ij = = = : = = [aij ] + [bij ] [aij + bij ] [aij + (−aij )] a + b = 0 e b = −a) [0] (0)ij (porque ∀a∈K .j)∈{1. .. i = 1... ∀(i. m. 20 ..m}×{1. Definição 13 Seja A = [aij ] ∈ Mm×n (K) e λ ∈ K um escalar. λ (A + B) = λA + λB 2.. ∃b∈K Exemplo · 1 • 3 · 1 • 2 £ 3 • 6. 1 · A = A.. Seja A = [aij ] ∈ Mm×n (K) e B = [bij ] ∈ Mm×n (K) tal que bij = −aij . Proposição 3 Sejam A..

(λ (µA))ij = = = = = λ (µ [aij ]) λ [µaij ] [(λµ) aij ] (λµ) [aij ] ((λµ) A)ij 4. (λ (A + B))ij = = = = = = λ [(aij + bij )] [λ (aij + bij )] [λaij + λbij ] [λaij ] + [λbij ] λ [aij ] + λ [bij ] (λA)ij + (λB)ij 2. (λ + µ) (A)ij = = = = = = (λ + µ) [aij ] [(λ + µ) aij ] [λaij + µaij ] [λaij ] + [µaij ] λ [aij ] + µ [aij ] (λA)ij + (µA)ij 3. (1 (A))ij = = = = 1· [aij ] [1·aij ] [aij ] (A)ij Exemplo 4 Considerem-se os seguintes casos: · ¸ · ¸ · ¸ 1 2 3×1 3×2 3 6 = = • 3× 3 4 3×3 3×4 9 12 21 .6 Teoria das Matrizes 1.

m}×{1. (m×n) (p×q) (p×q) B × (m×n) D Exemplo 5 Considerem-se as seguinte matrizes reais: −2 A= 3 · 3 3 C= −5  3 5 5 −5 −4  −3 3  −5 ¸ 5 −1  2 0 B =  −2 1  −1 −3 £ ¤ D = −3 5 −3  Os produtos possíveis são AB.2... é dada pela matriz C = [crs ] ∈ Mm×n (K) p tal que crs = i=1 ari · bis ..6 Teoria das Matrizes · √ ¸ · √ ¸ 2 √2 × 1 = √ 2×2 2 2 £ ¤ £ ¤ £ × 3 4 = 1 ×3 1 ×4 = 3 2 2 2 1 2 = · ¸ • • √ 2× 1 2 2 ¤ Proposição 4 O conjunto Mm×n (K) munido da adição definida na Definição 12 e da multiplicação por um escalar definida na Definição 13 é um espaço vectorial sobre o corpo K de dimensão m · n.3 Multiplicação de matrizes. e somando os produtos obtidos. DA e DB. Adiante se estudarão mais aprofundadamente os espaços vectoriais. Note-se que a matriz A. respectivamente m × n e p × q.. CA.. O elemento crs obtém-se multiplicando os elementos da linha r de A pelos elementos da coluna s de B. De um modo geral.n} . ter-se-á: 22 . dadas duas matrizes A e B de dimensões. que seP denota AB (ou A · B).. 6. BC. os produtos C = AB e D = BA são possíveis nas seguintes circunstâncias: Produto A × B A Possível se ... Em nenhuma outra circunstância é possível multiplicar duas matrizes.. tem tantas colunas quantas as linhas de B. A título exemplificativo. ∀(i.j)∈{1. CB. n=p q=m Resultado C (m×q) (p×n) Definição 14 Sejam A ∈ Mm×p (K) e B ∈ Mp×n (K). pela mesma ordem.. que multiplica à esquerda. A matriz produto de A por B.

6 Teoria das Matrizes   2 0 −2 3 −3 AB =  3 5 3   −2 1  3 5 −5 −1 −3   (−2) · 2 + 3 · (−2) + (−3) · (−1) (−2) · 0 + 3 · 1 + (−3) · (−3)  3 · 2 + 5 · (−2) + 3 · (−1) 3 · 0 + 5 · 1 + 3 · (−3) = 3 · 2 + 5 · (−2) + (−1) · (−1) 3 · 0 + 5 · 1 + (−5) · (−3)   −7 12 =  −7 −4  1 20 Exemplo 6 Considerem-se os seguintes casos: • · 1 2 3 4 ¸· 5 6 7 8 ¸ 1×5+2×7 1×6+2×8 3×5+4×7 3×6+4×8 · ¸ 19 22 = 43 50 = 5×1+6×3 5×2+6×4 = 7×1+8×4 7×2+8×4 · ¸ 23 34 = 41 46 ¤ = 1×3 1×4 2×3 2×4 · ¸ 3 4 = 6 8 = [3 × 1 + 4 × 2] = [11] = 11 ¸ · ¸ · · ¸  • · 5 6 7 8 ¸· 1 2 3 4 ¸ ¸ • · 1 2 ¸ £ 3 4 • £ · ¸· 3 4 ¤ · 1 2 ¸ • 1 −1 1 −1 1 −1 1 −1 ¸ 1 · 1 + (−1) · 1 1 · (−1) + (−1) · (−1) = 1 · 1 + (−1) · 1 1 · (−1) + (−1) · (−1) · ¸ 0 0 = 0 0 · 23 .

3. B ∈ Mn (K). Se não o forem. q × m e q × p. respectivamente. λ (AD) = (λA) D = A (λD). diz-se que A e B são matrizes comutáveis. as matrizes produto têm dimensões diferentes. Veja-se o exemplo 6. A0 = 0 e 0A = 0. D = [djk ] ∈ Mp×q (K). (A + B) D = AD +AB e A (C + D) = AC +AD. As suas dimensões são. 4. 2. (AD) F = A (DF ). Propriedade associativa da multiplicação de matrizes.6 Teoria das Matrizes Nota 4 Em geral AB 6= BA. C = [cjk ] . 24 . Definição 15 (Matrizes comutáveis) Sejam A. Proposição 5 Considerem-se as matrizes A = [aij ] . Se AB = BA. m × q. F = [fkl ] ∈ Mq×n (K) e o escalar λ ∈ K. A matriz nula é o elemento absorvente para a multiplicação de matrizes. ou. B = [bij ] ∈ Mm×p (K). Verificam-se as seguintes propriedades: 1. se o forem. É evidente que só é possível que duas matrizes sejam comutáveis se forem quadradas. p × q. As 4 matrizes nulas representadas nestas expressões são diferentes uma vez que têm dimensões diferentes. Terão de ter as dimensões adequadas para o produto faça sentido. ou bem que pelo menos um dos produtos não é possível. Propriedade distributiva da multiplicação de matrizes em relação à adição de matrizes.

Observemos primeiro que A e B têm dimensão m×p e que D tem dimensão p × q pelo que (A + B) D e AD + AB têm dimensão m × q. Mas também. 3.6 Teoria das Matrizes Demonstração. p X (λ (AD))ik = λ aij djk = j=1 p X j=1 p X j=1 (λaij ) djk (λA)ij djk = = ((λA) D)ik . p X j=1 p X j=1 p X j=1 ((A + B) D)ik = = (A + B)ij djk (aij + bij ) djk p X bij djk j=1 = aij djk + = (AD)ik + (BD)ik 2. 25 . Note-se em primeiro lugar que as matrizes (AD) F e A (DF ) têm ambas dimensão m × n. p p X X λ aij djk = λaij (λdjk ) j=1 j=1 p X = aij (λD)jk j=1 = (A (λD))ik . De modo semelhante se mostra que A (C + D) = AC + AD. 1.

∀A. Propriedade associativa da adição de matrizes. A matriz B designa-se por elemento neutro para a adição de matrizes. j=1 p X j=1 Ã q ! X djk fkl k=1 aij (DF )jl Proposição 6 O conjunto Mn (K) munido da adição definida na Definição 12 e da multiplicação definida na Definição 14 constitui um anel: 1. A (BC) = (AB) C. ∀A∈Mn (K) . Propriedade associativa da multiplicação de matrizes. A + B = B + A. ∀A. 7. 3. ∃C∈Mn (K) : C = A + B. ∃B∈Mn (K) : A + B = 0. ∀A. A + (B + C) = (A + B) + C.C∈Mn (K) . ∃C∈Mn (K) : C = A · B.B∈Mn (K) .B.C∈Mn (K) . 5. ∀A. 26 .B∈Mn (K) .6 Teoria das Matrizes ((AD) F )il = k=1 q X q X (AD)ik fkl   p X  aij djk  fkl j=1 = k=1 = k=1 j=1 p X = aij q p XX aij djk fkl = = (A (DF ))il . Propriedade comutativa para a adição de matrizes. ∀A∈Mn (K) . O conjunto Mn (K) é fechado para a adição. 2.B∈Mn (K) . ∀A. O conjunto Mn (K) é fechado para a multiplicaçao. ∃B∈Mn (K) : A + B = A.B. Todos os elementos são regulares para a adição de matrizes. 6. 4.

para que uma matriz esteja particionada em blocos é necessário que as submatrizes que constituem cada bloco sejam formadas por linhas e colunas consecutivas da matriz A. ∃B∈Mn (K) : AB = BA = A. como a seguir se demonstra m X δ ij ajk = aik = (A)ik j=1 n X j=1 : (Im A)ik = (AIn )ik = aij δ jk = aik = (A)ik 6. se A ∈ Mm×n (K) tem-se Im A = A e AIn = A. ph tais que sejam verificadas as relações 1 ≤ p1 < p2 < · · · < ph < p. (b) Considerem-se números inteiros p1 . Por outras palavras. Propriedade distributiva da multiplicação em relação à adição de matrizes. A matriz B é o elemento neutro para a multiplicação de matrizes.B. A (B + C) = AB + BC.6 Teoria das Matrizes 8. e denomina-se por identidade de ordem n. desde que a matriz identidade tenha a ordem correcta para que o produto possa ser efectuado. 9.4 Multiplicação por blocos. ∀A∈Mn (K) .2. denotando-se por In ou simplesmente I se não houver dúvida quanto à ordem. p2 . A multiplicação por blocos realiza-se da seguinte forma: (a) Sejam A ∈ Mm×p (K) e B ∈ Mp×n (K) e C = AB. Isto é. ∀A. Designa-se submatriz de A a uma matriz formada pelos elementos de A que pertencem a algumas linhas e algumas colunas previamente fixadas de A. Diz-se que A está particionada em blocos se cada bloco ocupar as mesmas linhas de A que os blocos situados à sua esquerda ou direita e ocupar as mesmas colunas de A que os blocos situados acima ou abaixo. · · · . Definição 16 (Submatriz) Seja A ∈ Mm×n (K).C∈Mn (K) . 27 . Definição 17 (Partição em blocos) Seja A ∈ Mm×n (K). Nota 5 Note-se que. o produto (à esquerda ou à direita) de qualquer matriz A pela ³ ´ 1 identidade é sempre a matriz.

6 Teoria das Matrizes

(c) Escreva-se cij =

p1 X

air brj + {z
(1)

elemento cij resulta de somar os produtos dos primeiros p1 elementos da linha i de A pelos primeiros p1 elementos da coluna j de B; cij é a soma dos produtos dos p2 − p1 elementos seguintes da linha i de A pelos p2 − p1 elementos seguintes da coluna j de B e assim por diante. Em resumo, dadas duas matrizes A e B, é possível calcular o seu produto AB por blocos se forem verificadas as seguintes condições: (a) A ∈ Mm×p (K) e B ∈ Mp×n (K). Esta é a condição que requer que o número de colunas da matriz que multiplica à esquerda seja igual ao número de linhas da matriz que multiplica à direita. (b) O número de colunas de blocos de A tem de ser igual ao número de linhas de blocos de B. (c) O número de colunas de cada bloco Aij tem de ser igual ao número de linhas de cada bloco Bjt , a fim de se poder efectuar o produto Aij Bjt . Se, por exemplo, as colunas da matriz A, em número de 6, forem divididas nos seguintes blocos (1, 2), (3, 4, 5), (6), então as linhas da matriz B terão de ser divididas da mesma forma. A divisão das linhas da matriz A e colunas da matriz B é independente uma da outra. A multiplicação por blocos é por vezes cómoda em particular se alguns dos blocos forem matrizes nulas ou matrizes identidades. Exemplo 7 Considerem-se as matrizes  −2 3 0 3 −1 3 3 3 1 −5 −3 5 −3 5 1 5 0 0 3 −5 1 −5 0 0 5 2 −3 −4 0 0        
(2)

(1)

|

r=1

cij

}

r=p1 +1

|

p2 X

air brj + · · · + }

cij

{z

r=ph +1

(2)

|

p X

air brj . O {z }

cij

(h+1)

1  0 A=   0 −2

0 1 0 3

0 0 1 −5

0 0 0 −5

−1 −3 1 1

 −4    −3  e B =   5   5

Os blocos considerados na partição acima transformam a matriz A nu- ma matriz, que em termos da partição escolhida, pode ser classificada do tipo 2 × 3. De igual modo, a matriz B, em termos da sua partição é do tipo 3×2. O produto C = AB considerando os blocos assinalados resulta numa matriz do tipo 2 × 2. 28

6 Teoria das Matrizes

Simbolicamente, as partições consideradas para as matrizes A e B podem ser representadas como:   · ¸ B11 B12 A11 A12 A13 e B =  B21 B22  A= A21 A22 A23 B31 B32 Consequentemente, a matriz C será particionada, em termos de blocos, como se simboliza de seguida: ¸ · C11 C12 C= C21 C22 Teremos assim: • C11 = A11 B11 + A12 B21 + A13 B31 =       −1 −4 · 0 £ −2 3 ¤ −1 3  +  0  3 −5 +  −3 −3  = I3  3 3 0 1 5 0 1       −6 −17 0 0 −2 3 3  +  0 0  +  −6 −6  =  3 0 0 14 22 0 1   −8 −14 =  −3 −3  14 23  −3 5 ¸

• C12

= A11 B12 + A12 B22 + A13 B32 =     0 £ −3 3 5 = I3  5 −5 2  +  0  5 −5 0 1 1 −3    0 0 −3 3 5 −5 2 + 0 0 =  5 0 0 1 1 −3   −3 3 5 −5 2  =  5 1 1 −3

−1 −4 +  −3 1   0 0 0 + 0 0 0 ¤

 ¸ −4 ·  0 0 0 −3 0 0 0 5  0 0 0 0  0 0

C21

= A21 B11 + A22 B21 + A23 B31 =   · ¸ £ ¤ −2 3 £ ¤ £ ¤  3 3  − 5 · 3 −5 + 1 5 −1 −3 −2 3 −5 = 3 5 0 1 £ ¤ £ ¤ £ ¤ 13 −2 + 15 −25 + 14 22 = £ ¤ 42 −5 = 29

6 Teoria das Matrizes

• C22 = A21 B12 + A22 B22 + A23 B32 =   · ¸ £ ¤ −3 3 5 £ ¤£ ¤  5 −5 2  5 · 5 −5 −4 + 1 5 0 0 0 = −2 3 −5 − 0 0 0 1 1 −3 £ ¤ £ ¤ £ ¤ 16 −16 11 + −25 25 20 + 0 0 0 = £ ¤ −9 9 31 =  −8 −14 −3 3 5  −3 −3 5 −5 2   C=  14 23 1 1 −3  42 −5 −9 9 31 

A matriz C será portanto:

Definição 18 (Potência de uma matriz) Seja A ∈ Mn (K). Designa-se por potência de ordem k ∈ N de A, e escreve-se Ak , à matriz C tal que C = Ak = A × · · · × A. | {z }
k vezes

6.3

Transposição de matrizes. Matrizes Simétricas.

Definição 19 (Matriz transposta) Dada uma matriz A ∈ Mm×n (K), denomina-se matriz transposta de A, e denota-se por AT , a matriz B ∈ Mn×m (K) tal que bij = aji , ∀(i,j)∈{1,...,m}×{1,...,n} . Por outras palavras, se uma matriz A é do tipo m × n, a transposta de A, AT , é do tipo n × m; as linhas de A são as colunas de AT , pela mesma ordem, e, consequntemente, as colunas de A serão as linhas de AT , pela mesma ordem. Exemplo 8 Considerem-se os seguintes casos: • • • · 1 2 3 4 1 2 ¸T ¸T = ¤T £ = · 1 3 2 4 ¤ ¸

·

1 2 · 3 4

£

3 4

=

¸

30

C = [cjk ] ∈ Mp×n (K) e Dk = [dkl ] ∈ Mn (K) . 31 . Exemplo 9 A matriz · a b b c ¸ A= é a forma geral de uma matriz simétrica de ordem 2. (AC)T = C T AT . 4. Proposição 7 Sejam A = [aij ] . Por outras palavras. os elementos principais são sempre nulos. ³¡ ¢T ´ ¡ ¢ AT = AT ji ij = (A)ij . k=1 Dk Demonstração. Com efeito. AT 2. por definição. 3. B = [bij ] ∈ Mm×p (K) . dever-se-á ter aii = −aii o que implica 2aii = 0 e portanto aii = 0. (A ± B)T = AT ± B T . Verificam-se as seguintes propriedades: ¡ ¢T = A.. Diz-se que A é simétrica se A = AT e anti-simétrica ³ ´ T 2 .. 1. numa matriz anti-simétrica. 1.. A matriz · 0 b −b 0 ¸ A= é a forma geral de uma matriz anti-simétrica de ordem 2. ´T Q ³Q M M T = k=1 Dk .6 Teoria das Matrizes · ¸T  3 −5 =  −5 −4  5 −1  • 3 −5 5 −5 −4 −1 se A = −A Definição 20 (Matriz simétrica/anti-simétrica) Seja A ∈ Mn (K). M . matriz quadrada de ordem n. k = 1. .

= aji ± bji ¡ ¢ ¡ ¢ = AT ij ± B T ij . por hipótese. ³ ´ T (AC) ki = (AC)ik = p X aij cjk j=1 p X¡ j=1 p X j=1 = AT CT = 4. Por indução em M . B ∈ Mn (K) simétricas é uma matriz simétrica sse os seus factores comutam. k=1 Dk k=1 Ã M Y ¢ ¡ = C T AT ki . 32 . Supon´T ³Q QM−1 T M−1 hamos que. ´ ³ T (A ± B) = (A ± B)ji ij 3. Mostremos que k=1 Dk ³Q ´T Q M T = M Dk também se verifica.6 Teoria das Matrizes 2. ¡ ¢ ¡ ji CT ¢ kj ¡ T¢ A ji ¢ kj Dk k=1 !T = ÃÃM−1 Y k=1 T Dk ! DM !T = (DM ) = (DM )T M Y T Dk M−1 Y k=1 ÃM−1 Y k=1 Dk !T (pela Propriedade 3) T Dk (por hipótese) = k=1 Proposição 8 O produto de duas matrizes A. = k=1 Dk . O caso M = 2 verifica-se na Propriedade 3.

tr (A) = 3 + 2 + (−3) = 2. Exemplo 10 Considerem-se as seguintes matrizes e determinemos os respectivos traços:   3 0 1 3 1   •  −1 2 0 −1 1 . 0 −2   1 3 1   •  0 -1 1 . por outras palavras. (=⇒) AB = (AB) (porque ABé simétrica) = B T AT (pela Propriedade 3 da transposição de matrizes) = BA (porque A e B são comutáveis) (⇐=) (AB) = (BA) (porque A e B comutam) = AT B T (pela Propriedade 3 da transposição de matrizes. = AB (porque A e B são simétricas) T T T 6. ou. Denota-se por: tr (A) = a11 + a22 + · · · + app . O traço da matriz A é definido como a soma os seus elementos principais.4 Traço de uma matriz Definição 21 (Traço de uma Matriz) Seja A = [aij ] ∈ Mm×n (K). 1 −3 1  O operador tr (·) satisfaz as seguintes propriedades: 33 . 0 −2 -3 1 1  3 0 •  −1 2 . tr (A) = 3 + 2 = 5. n) . tr (A) = 1 + (−1) + 1 = 1.6 Teoria das Matrizes Demonstração. onde p = min (m. dos elementos ao longo da diagonal principal.

n) X l=1 (all + bll ) = = tr (B + A) ´ ³ = tr (B + A)ij X l=1 (bll + all ) 3. tem-se naturalmente AC ∈ Mm (K). Verificam-se as seguintes igualdades: 1. tr (AC) = tr (CA).n) = min(m. 2. Se A ∈ Mm×n (K) e C ∈ Mn×m (K) . segue que: ´ ³ tr (A + B) = tr (A + B)ij min(m. Dado que A e B têm as mesmas dimensões a soma A + B encontra-se definida.n) = = tr (A) + tr (B) X l=1 all + X l=1 bll 2. tr (A + B) = tr (A) + tr (B). O traco de AC será: 34 . 3.n) = min(m.6 Teoria das Matrizes Proposição 9 Sejam A=[aij ] . B =[bij ] ∈ Mm×n (K) e C =[cpq ] ∈ Mn×m (K). Dado que A e B têm as mesmas dimensões as somas A + B e B + A encontram-se definidas.n) X l=1 (all + bll ) min(m. Prosseguindo com a argumentação. segue que: ³ ´ tr (A + B) = tr (A + B)ij min(m. 1. Prosseguindo com a argumentação. Demonstração. tr (A + B) = tr (B + A).

35 . m as linhas da matriz A e Cj = {a1j . À expressão i=1 {λi }i=1. O traco de CA será: ´ ³ tr (CA) = tr (CA)pj Ãm ! X cpi aij = tr i=1 j=1 i=1 n m XX j=1 i=1 m n XX i=1 j=1 Ãm ! n X X = cji aij cji aij aij cji = = = tr (AC) 6. onde 1. amj } . Definição 22 (Combinação linear £das filas de uma matriz) Seja a ma¤ triz A ∈ Mm×n (K) e sejam Li = ai1 ai2 · · · ain . m P λi Li designa-se combinação linear das linhas de A. i = 1.m são quaisquer escalares do corpo K. · · · .6 Teoria das Matrizes ´ ³ tr (AC) = tr (AC)iq   n X = tr  aij cjq  j=1 = m n XX aij cji = i=1 j=1 m X i=1   n X  aij cji  j=1 Por outro lado tem-se CA ∈ Mn (K).··· . · · · . j = 1. · · · . a2j .5 Dependência e independência lineares de filas paralelas de uma matriz. n as colunas da matriz A.

os resultados válidos para as linhas também o são para as colunas.··· .p as filas da matriz.n as colunas da matriz A. m P Definição 24 (Independência linear) Sejam A ∈ Mm×n (K). {Li }i=1. n (colunas) (4) j=1 .··· . j = 1. onde j=1 © ª µj j=1. As definições acima aplicam-se indiferentemente às linhas e colunas de uma qualquer matriz. A seguinte constatação é consequência imediata da definição acima: Nota 6 As linhas (colunas) de uma matriz são linearmente dependentes se é possível obter uma combinação linear nula daquelas com pelo menos um escalar diferente de 0.n as colunas da matriz A. Note-se. a condição de independência linear das filas de uma matriz pode ser descrita pelas equações (4).··· .n são quaisquer escalares do corpo K. Matematicamente. onde {λi }i=1. as colunas) é a única combinação linear nula dessas linhas (colunas). 36 i=1 n P λi Li = 0 =⇒λi = 0. À expressão ª ©j=1 de A. {Li }i=1.··· .m as linhas da matriz A e {Cj }j=1. À expressão λi Li = 0 designa-se combinação linear nula das linhas de i=1 A. Por esse motivo. onde µj j=1.··· . no entanto.··· . Por outras palavras. · · · .n são quaisquer escalares do corpo K. faremos referência às filas de uma matriz sempre que não for necessário referir explicitamente as linhas ou colunas da matriz. i = 1. m (linhas) µj Cj = 0 =⇒µj = 0.··· . n P µj Cj = 0 designa-se combinação linear nula das colunas 2. Diz-se que as m n P P 0Li (ou 0Cj para linhas (colunas) de A são linearmente independentes se i=1 j=1 Em geral. que a referência às filas de uma matriz deverá ser entendida como referência às linhas ou às colunas e não aos dois conjuntos simultaneamente.m as linhas da matriz A e {Cj }j=1. · · · .m são quaisquer escalares do corpo K. Denotaremos por {Fk }k=1. À expressão µj Cj designa-se combinação linear das colunas de A.··· .6 Teoria das Matrizes n P 2. as linhas (ou colunas) de uma matriz dizem-se linearmente independentes se a única combinação linear nula daquelas é a que se obtém com todos os escalares nulos. Definição 23 (Combinação linear nula das filas de uma matriz) Sejam A ∈ Mm×n (K). m P 1.

p as filas da matriz A.··· . Em particular. as linhas da matriz A são linearmente dependentes. se escolhermos λk 6= 0. isto é. 5. α ∈ K\ {0} são linearmente dependentes. teremos 37 . As filas de A são linearmente dependentes se e só as filas em que a fila Fk 0 é substituída pela fila Fk = Fk + Fl . Demonstração. as filas são linearmente dependentes. Para efeito da demonstração utilizar-se-ão as linhas da matriz. Suponhamos que a linha Lk é inteiramente nula. As filas de A são linearmente dependentes se e só as filas em que a fila Fk é 0 substituída pela fila Fk = α · Fk . as linhas da matriz A são linearmente dependentes 2. precisamente o escalar λk . Existirá assim pelo menos um P escalar não nulo. 2. 3. Algumas das filas de A são linearmente dependentes se e só se todas o são.··· . então X i6=k ∃k∈{1. Se escolhermos escalares nulos para as restantes P Pm linhas da matriz teremos m i=p+1 λi Li = i=p+1 0Li = 0. com algum k : 1 ≤ k ≤ p tal p que i=1 λi Li = 0.(=⇒) Suponhamos. teremos uma combinação linear nula das linhas com pelo menos um escalar não nulo. Se uma das filas de A é constituída integralmente por zeros.m} : λk 6= 0 ∧ λi Li + λk Lk = 0 Se os restantes escalares forem nulos. As filas de A são linearmente dependentes se e só se algumas delas se podem escrever como combinação linear das restantes. sem perda de generalidade. As filas de A são linearmente dependentes se e só se o mesmo sucede às filas que se obtêm somando a uma delas uma combinação linear das restantes. A prova para as colunas é equivalente. k 6= l são linearmente dependentes. 1. logo. 4. Verificam-se os seguintes resultados: 1. Sabendo que Lk = 0 teremos λk Lk = 0 para qualquer λk ∈ K. digamos λk . Assim. Pp Pm teremos i=1 λi Li + i=p+1 λi Li = 0 com o escalar λk não-nulo. que as p primeiras linhas da matriz A são linearmente dependentes. 6. A combinação linear P nula das linhas da matriz é dada por i6=k λi Li + λk Lk = 0.6 Teoria das Matrizes Proposição 10 Sejam A ∈ Mm×n (K) e {Fk }k=1. (⇐=) Se as linhas da matriz A são linearmente dependentes.

é possível 0 obter uma combinação linear nula das linhas {Li }i=1. Ou bem que esse escalar é λi . como α 6= 0 teremos λk 6= 0. (⇐=) Suponhamos que as linhas {Li }i6=k ∪Lk são linearmente dependentes.6 Teoria das Matrizes X i6=k λi Li + λk Lk + X i6=k 0Li + λk Lk = λk Lk = 0 Deste modo. Ou bem que esse escalar é λi . como α 6= 0 teremos α λk 6= 0. é possível obter uma combinação linear nula das linhas {Li }i=1. 4. 0 Substituamos a linha Lk pela linha Lk = α·Lk . Em qualquer caso. ter-se-á obrigatoriamente 38 . α α k i6=k 0 Dada a dependência linear de {Li }i6=k ∪ Lk ou bem que teremos λi 6= 0. Em qualquer caso. Mas as linhas de A são linearmente dependentes pelo que a respectiva combinação linear nula se obtém com pelo menos um escalar não nulo. 0 Substituamos a linha Lk pela linha Lk = Lk + Ll . i 6= k. i 6= k. que nestas circunstâncias é integralmente nula.··· . a qual é passível de ser reescrita como X i6=k λi Li + X λk λk 0 λi Li + (α · Lk ) = L = 0. k 6= l. Esta exi6 pressão pode ser reescrita como i6=k. é linearmente dependente. A combinação linear nula das linhas de A é dada por X i6=k 0 λi Li + λk Lk = 0. l.l λi Li +λk Lk +(λk + λl ) Ll =0. α 6= 0. ou então será (λk + λl ). A combinação 0 linear nula das linhas de A onde a linha Lk é substituída por Lk é P P 0 dada por i6=k λi Li + λk Lk = 0 ⇐⇒ i6=k λi Li + (λk · α) · Lk = 0. A combi0 nação linear nula das linhas de A onde a linha Lk é substituída por Lk P P 0 é dada por i6=k λi Li +λk Lk = P=k λi Li +λk (Lk + Ll )=0.m com pelo menos um escalar não nulo.···n ∪ Lk com i6=k pelo menos um escalar não nulo. Neste caso. ou bem que será λk · α. qualquer conjunto de linhas que inclua a linha Lk . 3. Neste caso. ou bem que será λk . i 6= k ou teremos λk 6= 0.(=⇒) Suponhamos que as linhas de A são linearmente dependentes. Mas as linhas de A são linearmente dependentes pelo que a respectiva combinação linear nula se obtém com pelo menos um escalar não nulo.(=⇒) Suponhamos que as linhas de A são linearmente dependentes. Neste caso.

Ou bem que esse escalar é λk ou bem que será (λi + λk αi ) . P 0 Substituamos a linha Lk pela linha Lk = Lk + i6=k αi Li . A combinação linear nula das linhas de A é dada por X i6=k 0 0 λi Li + λk Lk = 0. i 6= k.m com pelo menos um escalar não nulo.6 Teoria das Matrizes λk 6= 0 ∨ λl 6= 0. Em qualquer caso. a qual é passível de ser reescrita como 39 .··· . P Esta expressão pode ser reescrita como i6=k(λi +λk αi )Li+λk Lk =0.l X λi Li + (λl −λk ) Ll + λk Lk =0 0 Dada a dependência linear de {Li }i6=k ∪ Lk ou bem que teremos λi 6= 0. a qual é passível de ser reescrita como X i6=k λi Li + (λk Lk + λk Ll ) − λk Ll = | {z } λk Lk 0 i6=k. l ou teremos λk 6= 0 ou ainda (λl − λk ) 6= 0. Neste caso. Neste caso. i 6= k. Em qualquer caso. é possível obter uma combinação linear nula das linhas {Li }i=1. ter-se-á obrigatoriamente λk 6= 0 ∨ λl 6= 0. A combinação linear nula das linhas de A é dada por X i6=k 0 λi Li + λk Lk = 0. 5. (⇐=) Suponhamos que as linhas {Li }i6=k ∪Lk são linearmente dependentes. Mas as linhas de A são linearmente dependentes pelo que a respectiva combinação linear nula se obtém com pelo menos um escalar não nulo. A combi0 nação linear nula das linhas de A onde a linha L³ é substituída por Lk k ´ P P P 0 é dada por i6=k λi Li +λk Lk = i6=k λi Li +λk Lk + i6=k αi Li =0. (⇐=) Suponhamos que as linhas {Li }i6=k ∪Lk são linearmente dependentes.(=⇒) Suponhamos que as linhas de A são linearmente dependentes. Em qualquer caso. ter-se-á obrigatoriamente λk αi 6= 0 (o que implica λk 6= 0)∨λi 6= 0. i 6= k. é possível 0 obter uma combinação linear nula das linhas {Li }i6=k ∪ Lk com pelo menos um escalar não nulo. é possível obter uma combinação 0 linear nula das linhas {Li }i6=k ∪ Lk com pelo menos um escalar não nulo.

A expressão mostra que a linha Lk pode ser escrita como combinação linear das restantes linhas da matriz. A coluna j0 de C é combinação linear das colunas de A que se obtém utilizando os escalares da coluna j0 de B. 6. em que pelo menos um escalar é não nulo (o escalar 1 associado à linha Lk ). i 6= k. ci0 k = (AB)i0 k = LC i0 = £ Pn 0 j=1 ai0 j bjk . 2.6 Teoria das Matrizes X X X X 0 λi Li +λk Lk +λk αi Li −λk αi Li = (λi − λk ) Li +λk Lk =0 i6=k i6=k i6=k i6=k Dada a dependência linear de {Li }i6=k ∪ Lk ou bem que teremos λk 6= 0 ou bem que teremos (λi − λk ) 6= 0. A combinação linear nula i λi Li = 0 P 1 pode ser reescrita como Lk = − λk i6=k λi Li . ¤ ci0 1 ci0 2 · · · ci0 p £ Pn Pn = j=1 ai0 j bj1 j=1 ai0 j bj2 · · · n X £ ¤ ai0 j bj1 bj2 · · · bjp = j=1 n X j=1 Pn j=1 ai0 j bjp ¤ = ai0 j LB j 40 .··· . Demonstração. uma vez que λk 6= 0. Proposição 11 Sejam A ∈ Mm×n (K). é possível obter uma combinação linear nula das linhas {Li }i=1. isto é. isto é. Neste caso. ter-se-á obrigatoriamente (λk 6= 0 ∨ λi 6= 0)i6=k . Em qualquer caso. Então cada linha (respectivamente coluna) de C é combinação linear das linhas (respectivamente colunas) de B (respectivamente A). A linha i0 de C é combinação linear das linhas de B que se obtém utilizando os escalares da linha i0 de A. (⇐=) Suponhamos que é possível escrever a linha Lk como combinação P linear P restantes linhas. Tal mostra que as linhas de A são linearmente dependentes. Lk = das i6=k λi Li . Mais precisamente: 1. Seja λk um dos escalares não nulos para os quais se obtém umaP combinação linear nula das linhas de A. Logo.m com pelo menos um escalar não nulo. 1.(=⇒) Suponhamos que as linhas de A são linearmente dependentes. obteve-se uma combinação linear nula das linhas da matriz A. Resulta que Lk − i6=k λi Li = 0. B ∈ Mn×p (K) e C = AB.

n X j=1 LC = i aij LB . j isto é. Analogamente a característica de coluna da matriz A. Ora. cada linha de C é combinação linear das linhas de B. n}. B ∈ Mn×p (K) e C = AB. A prova é em tudo semelhante à anterior mutatis mutantis. denota—se este valor por rl (A). denotada por rA (ou simplesmente r quando estiver claro a matriz a que se refere) define-se como o número máximo de linhas ou colunas linearmente independentes. rc (A)}.m . Designa-se característica de linha da matriz A ao número máximo de linhas linearmente independentes. Então rl (C) ≤ rl (B) e rc (C) ≤ rc (A). e portanto da sua característica.m . Suponhamos. Proposição 12 Sejam A ∈ Mm×n (K). Definição 25 (Característica) Seja A∈Mm×n (K).··· . precisamente as primeiras. Suponhamos. onde m e n são respectivamente o número de linhas e colunas da matriz em causa. rA = m´n{rl (A) . 41 . ı ı Tem-se claramente rl (A) ≤ m e rc (A) ≤ n e portanto rA ≤ m´n {m. Resta desenvolver um processo que permita determinar a característica de linha (ou coluna) de uma matriz. se o número máximo de linhas linearmente independentes de B é rl (B) então. Demonstração. ∀i=1. Recordando a proposição 11 verificámos que. Sabemos então que a combinação linear nula destas rl (B) + 1 linhas só é passível de ser obtida com todos os escalares nulos. A característica da matriz. 6. cada linha de C pode ser escrita apenas à custa das rl (B) linhas de B que são efectivamente linearmente independentes. sem perda de generalidade que são precisamente as primeiras rl (B) linhas de B que são linearmente independentes. é o número máximo de colunas linearmente independentes. ∀i=1.··· . por redução ao k k i absurdo que C tem rl (B) + 1 linhas lineamente independentes. isto é. as restantes linhas de B ou bem que são nulas ou bem que se podem escrever como combinação das que são linearmente independentes como vimos na Proposição (10).6 Característica de uma matriz. LC = k=1 λi LB .6 Teoria das Matrizes 2. rc (A). Tal significa que as linhas de C podem ser escritas como combinação destas linhas de B (agora com outros escalares que não aqueles dados pelas liPrl (B) nhas de A). Isto é. Operações elementares.

a cada uma das seguintes operações: i. ii.6 Teoria das Matrizes rl (B)+1 0 = rl (B)+1 X i=1 µi LC i rl (B) =  rl (B)+1 X i=1 µi k=1 Ora.··· .1 Operações Elementares Os resultados da Proposição (10) permitem concluir que a dependência ou independência lineares das linhas (ou colunas) de uma matriz não é alterada por um conjunto de operações que no seu conjunto se designam por Operações Elementares Sobre Filas de uma Matriz. Define-se como operação elementar sobre as filas da matriz A. o que corresponde a resolver o sistema em ordem a {µi }i=1. 42 . Mas isto é um absurdo pois por hipótese as primeiras rl (B)+1 linhas de C eram linearmente independentes. Definição 26 (Operações Elementares) Seja A ∈ Mm×n (K). A prova relativamente à afirmação rc (C) ≤ rc (A) é em tudo semelhante à anterior. Trata-se de um sistema indeterminado possuindo outras soluções que não a solução {µi = 0}i=1. logo dever-se-á ter rl (C) ≤ rl (B).rl (B)+1 :      Prl (B)+1 µ λi = 0 i=1 Prl (B)+1 i 1 µi λi = 0 2 i=1  ···  P  rl (B)+1  µi λi l (B) = 0 r i=1 =  X i=1 X λi LB k k  rl (B)+1 µi λi  LB +  1 1  X i=1 µi λi  LB + · · · +  2 2   rl (B)+1 X i=1 µi λi l (B)  LB (B) r rl  O sistema acima tem rl (B) e rl (B)+1 incógnitas. Troca entre si de duas linhas (ou colunas) da matriz. as rl (B) primeiras linhas de B são linearmente independentes pelo que a combinação nula anterior só se poderá obter com todos os escalares nulos.··· .6. 6. O absurdo reside evidentemente no facto de se ter assumido que o número máximo de linhas linearmente idependentes de C era superior a rl (B). Multiplicação de uma linha (ou coluna) da matriz por um escalar diferente de 0.rl (B)+1 .

6 Teoria das Matrizes iii. Representa-se por (Li ←→ Lk ). que deverá ter dimensão apropriada. Matriz elementar associada: Fjl . Consideremos genericamente uma matriz A ∈ Mm×n (K). • Troca de Linhas Dadas duas linhas. Representa-se por (Li ← αLi ). a matriz A de forma a que as mesmas operações elementares tenham o mesmo efeito sobre A. a troca destas linhas processa-se multiplicando a matriz A. caso a caso. consiste na multiplicação da i-ésima linha da matriz diagonal pelo escalar α. Matriz elementar associada: Eik . Matriz elementar associada: Ei (α). à esquerda. por outras palavras. por α. a multiplicação da linha Li da matriz A corresponde a multiplicar A. a troca destas colunas processa-se multiplicando a matriz A. resultante da aplicação de operações elementares sobre a matriz identidade. à esquerda. ou. Cj e Cl . deve multiplicar. i 6= k da matriz A. • Regra geral Operações elementares sobre as linhas da matriz A fazem-se por multiplicações à esquerda desta enquanto que operações elementares sobre as colunas se fazem por multiplicações à direita. As operações elementares acima definidas correspondem à multiplicação (à esquerda ou à direita) da matriz A por matrizes que resultam da matriz identidade. enquanto que a multiplicação à direita implica a utilização de matrizes elementares de ordem n. pela matriz F que resulta da troca das colunas j e l da matriz identidade I. à direita. Assim. Substituição de uma linha (ou coluna) pela que se obtém somando-lhe outra. que é 1. • Troca de Colunas Dadas duas colunas. Naturalmente que. pela matriz E que resulta da troca das linhas i e k da matriz identidade I. Definição 27 (Matriz Elementar) Seja I ∈ Mn (K) a matriz identidade de ordem n. multiplicada por um qualquer escalar (Operação de Jacobi). j 6= l da matriz A. Designa-se por matriz elementar de ordem n a qualquer matriz E que resulte de I por aplicação de uma das três operações elementares. Li e Lk . 43 • Multiplicação de Linha por um Escalar . que matriz. por aplicação das operações elementares. Dado um escalar α ∈ K. a multiplicação à esquerda ou à direita da matriz A implica uma escolha acertada para a ordem das matrizes elementares a multiplicar. Vejamos. pela matriz E que resulta da matriz identidade por substituição do i-ésimo elemento da diagonal. ou pela qual se deve multiplicar. Representa-se por (Cj ←→ Cl ). a multiplicação à esquerda da matriz A implica a utilização de matrizes elementares de ordem m.

a substituição da linha Li pela linha Li + α · Lk processa-se multiplicando a matriz A. Matriz elementar associada: Eik (α). pela matriz E que resulta da matriz identidade por substituição da linha i pela que se obtém somando-lhe a linha k multiplicada pelo escalar α. Representa-se por (Cj ← αCj ). por β. Matriz elementar associada: Fjl (β). a multiplicação da coluna Cj da matriz A corresponde a multiplicar A. à direita. Tomamos a matriz identidade I3 e trocamos as linhas 1 e 3 para obter a matriz E:    0 0 1 1 0 0  0 1 0  L1 ←→ L3  0 1 0  −− − − − − −→ 1 0 0 0 0 1  Procedendo à multiplicação obtém-se: 44 . pela matriz F que resulta da matriz identidade por substituição da coluna j pela que se obtém somando-lhe a coluna l multiplicada pelo escalar β. Li e Lk . Representa-se por (Cj ← Cj + β · Cl ). Exemplo 11 Considere-se a matriz  −34 −68 −85 −38 52 43 91  A =  90 30 90 −24 −52  Vejamos como cada uma das seguintes operações elementares sobre a matriz A resulta da multiplicação desta matriz pela que resulta da identidade por aplicação das mesmas operações elementares: 1. consiste na multiplicação da i-ésima coluna da matriz diagonal pelo escalar β. j 6= l da matriz A e um escalar β ∈ K. ou. a substituição da linha Cj pela linha Cj + β · Cl processa-se multiplicando a matriz A. Deveremos considerar uma multiplicação à esquerda. Representa-se por (Li ← Li + α · Lk ). à direita. Matriz elementar associada: Fj (β). • Operação de Jacobi sobre Linhas Dadas duas linhas. Troca das linhas 1 e 3. que é 1. Cj e Cl . por outras palavras. pela matriz F que resulta da matriz identidade por substituição do i-ésimo elemento da diagonal. • Operação de Jacobi sobre Colunas Dadas duas colunas. i 6= k da matriz A e um escalar α ∈ K.6 Teoria das Matrizes • Multiplicação de Coluna por um Escalar Dado um escalar β ∈ K. à esquerda.

Troca das colunas 2 e 3. Multiplicação de uma linha por um escalar. Para tal. Suponhamos que se pretende multiplicar a linha 2 da matriz A pelo escalar √ 2. Tomamos a matriz identidade I4 e trocamos as colunas 2 e 3 para obter a matriz F :    0  0   C2 ←→ C3  − − − −  − − −→ 0 1  0 0   0  1 0 1  0   0 0 0 1 0 0 0 0 1 0 1 0 0 0 0 0 1 0 0 1 0 0 Procedendo à multiplicação obtém-se: 0 A = A · E23    −34 −68 −85 −38  52 43 91   =  90  30 90 −24 −52   −34 −85 −68 −38 43 52 91  =  90 30 −24 90 −52 0 1 0 0 0 0 0 1 0 0 1 0 0  0 0   0  1 A matriz A resultou da matriz A por troca das colunas 2 e 3 como se pretendia. 45 . 3. 2.6 Teoria das Matrizes A 0 = E13 · A  0 0 =  0 1 1 0  30 =  90 −34   1 −34 −68 −85 −38 0   90 52 43 91  0 30 90 −24 −52  90 −24 −52 52 43 91  −68 −85 −38 A matriz A resultou da matriz A por troca das linhas 1 e 3 como se pretendia. Seguidamente faz-se o produto EA para obter a matriz pretendida. tomamos a matriz identidade I3 e multiplicamos a segunda linha pelo escalar pretendido para obter a matriz E. Deveremos considerar uma multiplicação à direita.

1  0   0 0  0 1 0 0 0 0 1 0   0  0  0  C3 ←− 2 C3   0 − − − − → − − −5− 1 1 0 0 0 0 1 0 0 0 0 0 2 5 Procedendo à multiplicação obtém-se:  0 0   0  1 A 0 A matriz A resultou da matriz A por multiplicação da linha 3a coluna por 2 5.6 Teoria das Matrizes Procedendo à multiplicação obtém-se: 0    1 √ 0 0 1 0 0 √ 0  0 1 0  L2 ←− 2L2  0 2 0  −− − − − − − − −→ 0 0 1 0 0 1  ³√ ´ 2 ·A A = E2  A matriz A resultou da matriz A por multiplicação da 2a linha por 4. Seguidamente faz-se o produto AF para obter a matriz pretendida. Multiplicação de uma coluna por um escalar. tomamos a matriz identidade I4 e multiplicamos a ter5 ceira coluna pelo escalar pretendido para obter a matriz F . Para tal. 0 1 √ 0 =  0 2 0 0  −34 √ =  90 2 30   0 −34 −68 −85 −38 52 43 91  0   90 30 90 −24 −52 1  −68 −85 −38 √ √ √ 52 2 43 2 91 2  90 −24 −52 √ 2. Suponhamos que se pretende multiplicar a coluna 3 da matriz A pelo escalar 2 . 46 0 µ ¶ 2 = A · F3 5    −34 −68 −85 −38  52 43 91   =  90  30 90 −24 −52   −34 −68 −34 −38 86 52 91  =  90 5 30 90 − 48 −52 5 1 0 0 0 0 1 0 0 0 0 0 2 5  0 0   0  1 .

6 Teoria das Matrizes 5.    1 0 0 1 0 0 √  0 1 0  L3 ←− L3 + 2L1  0 1 0  −−−−−−− −−−−−−→ √ 0 0 1 2 0 1  Procedendo à multiplicação obtém-se: ³√ ´ 2 ·A A 0   1 0 0 −34 −68 −85 −38 0 52 43 91  =  √ 1 0   90 30 90 −24 −52 2 0 1   −34 −68 −85 −38  90 52 43 91 =  √ √ √ √ −34 2 + 30 −68 2 + 90 −85 2 − 24 −38 2 − 52 A matriz A resultou da matriz A por substituição da linha 3 pela que se √ obteve somando-lhe a linha 1 multiplicada por 2. A matriz F assim obtida 5 é multiplicada por A. Suponhamos que se pretende substituir a coluna C3 pela que se obtém somando-lhe a coluna C2 multiplicada pelo escalar 2 . A matriz F assim obtida é multiplicada por A. Consideremos as colunas 2 e 3 da matriz A. Consideremos as linhas 1 e 3 da matriz A. Tomamos a matriz√ identidade I3 e substituímos a linha L3 pela que se obtém somando-lhe 2L1 . 6. Suponhamos que se pretende substituir a linha L3 pela que se obtém somando-lhe a linha L1 multiplicada √ pelo escalar 2. à direita. à esquerda.    0  0   C ←− C + 2 C2  0  −3− − −3− − →  − − − − −5 − 1  0 0   0  1 0 = E31  1  0   0 0 0 1 0 0 0 0 1 0 1 0 0 0 0 1 0 0 0 1 0 2 5 Procedendo à multiplicação obtém-se: 47 . Operação de Jacobi sobre as colunas da matriz A. Operação de Jacobi sobre as linhas da matriz A. Tomamos a matriz identidade I4 e substituímos a 5 coluna C3 pela que se obtém somando-lhe 2 C2 .

Vejamos então o resultado. 0 A questão que se coloca é a de saber qual a matriz A que se obtém de A por aplicação das 6 operações elementares acima descritas. 5 5 • Substituição da coluna 3 pela que se obtém somando-lhe a coluna 4 multiplicada pelo escalar −1 (C3 ←− C3 − C4 ). 5 O exemplo acima ilustra o facto de operações elementares sobre uma matriz A qualquer poderem ser definidas como o produto de matrizes elementares pela matriz A.6 Teoria das Matrizes A 0 = A · F32    1 0 −34 −68 −85 −38  0 1 52 43 91   =  90  0 0 30 90 −24 −52 0 0   561 −34 −68 − 5 −38 319 91  52 =  90 5 30 90 12 −52 µ ¶ 2 5 0 1 0 2 5  0 0   0  1 A matriz A resultou da matriz A por substituição da coluna 3 pela que se obteve somando-lhe a coluna 2 multiplicada por 2 . • Substituição da linha 3 pela que se obtém somando-lhe a linha 1 multiplicada pelo escalar 2 (L3 ←− L3 + 2L1 ). • Troca das colunas 2 e 3 (C2 ←→ C3 ). por aplicação directa das operações sobre a matriz A: 48 . ¡ ¢ • Multiplicação da coluna 3 pelo escalar 2 C3 ←− 2 C3 . √ √ ¡ ¢ • Multiplicação da linha 2 pelo escalar 2 L2 ←− 2L2 . Exemplo 12 Considere-se a matriz  −34 −68 −85 −38 52 43 91  A =  90 30 90 −24 −52  0 Consideremos um conjunto de operações elementares a aplicar sobre a matriz A: • Troca das linhas 1 e 3 (L1 ←→ L3 ).

O produto desejado é. o seguinte: ³ µ ¶ µ ¶ ³√ ´ ´ 2 E31 (2) × E2 2 × E13 × A × F23 × F3 × F34 (−1) 5 0  O resultado será: 49 . simbolicamente.6 Teoria das Matrizes  −34 −68 −85 −38  90 52 43 91  L1− − − 3 − ←→ L − − −→ 30 90 −24 −52   30 90 −24 −52  90 52 43 91  C2− − − 3 − ←→ C − − −→ −34 −68 −85 −38   30 −24 90 −52 √  90 43 52 91  −2− − − 2L2 L ←− − → −−− − −34 −85 −68 −38   30 −24 90 −52 √ √ √ √  90 2 43 2 52 2 91 2  L3 ←− L3 + 2L1 −− − − − −→ −−−−−− −34 −85 −68 −38  30 −24 90 −52 √ √ √ √  90 2 43 2 52 2 91 2  C3 ←− 2 C3 − − −5− 26 −133 112 −142 − − − − →   30 −24 36 −52 √ √ √ √  90 2 43 2 104 2 91 2  C3 ←− C3 − C4 5 −− − − − − − − − − −→ 224 26 −133 −142 5   30 −24 88√ −52 √ √ √  90 2 43 2 − 351 2 91 2  5 934 26 −133 −142 5  Vejamos agora que se obterá a mesma matriz A se a matriz A for devidamente multiplicada pelas matrizes elementares associadas às operações elementares descritas.

Nota 7 É importante notar a ordem pela qual os produtos. Fp forem as matrizes elementares associadas àquelas 0 operações. e se E1 . também se pode obter de A efectuando sobre as linhas de A a mesma operação sobre linhas que permitiu passar de Im a E. Do acima exposto resulta o seguinte resultado: Proposição 13 Se multiplicarmos A ∈ Mm×n (K). Op for um conjunto de operações elementares sobre linhas a executar. · · · . O2 . E2 . por esta ordem. à esquerda por uma matriz elementar E (de ordem m). Oq for um conjunto de operações elementares sobre as colunas de uma matriz A. a matriz A que resulta da aplicação destas operações é dada por A × F1 × F2 × · · · × Fp . se O1 . sobre uma matriz A qualquer. Ep forem as matrizes elementares associadas a cada 0 uma daquelas operações. EA. a matriz produto. por esta ordem. · · · . à direita por uma matriz elementar F (de ordem n). Se multiplicarmos A ∈ Mm×n (K). e F1 . Com efeito. F2 . a segunda matriz à segunda operação elementar e assim sucessivamente. também se pode obter de A efectuando sobre as colunas de A a mesma operação sobre colunas que permitiu passar de In a F .6 Teoria das Matrizes  ×  |  Como era de esperar o resultado dos dois métodos utilizado é o mesmo. (L2 ←− 2L2 ) (L1 ← →L3 ) }| {z z }| { }| { z    1 √ 0 0 1 0 0 0 0 1  0 1 0  0 2 0  0 1 0  × 2 0 1 1 0 0 0 0 1   −34 −68 −85 −38 52 43 91  × ×  90 30 90 −24 −52   1 0 0 0 1 0 0 0 1 0 0 0 0 0 1 0  0 1 0 0  0 1 0 0   0 1 0 0  0 0 2 0  0 0 1 0 5 0 0 0 1 0 0 −1 1 0 0 0 1 {z }| {z {z }| (C2 ←→C3 ) (C3 ← 3 −C4 ) −C (C3 ←− 2 C3 ) 5   30 −24 88√ −52 √ √ √  90 2 43 2 − 351 2 91 2  5 934 26 −133 −142 5 (L3 ←−L3 +2L1 ) √  }  =  50 . AF . se O1 . · · · . O mesmo argumento é válido para operações sobre colunas. Note-se que a matriz que primeiro multiplica A está associada à primeira operação elementar. a matriz produto. a matriz A que se obtém por aplicação das operações elementares é dada por Ep × · · · × E2 × E1 × A. O2 . isto é. à esquerda e à direita. · · · . são efectuados.

com i < j ≤ m. Diz-se que a matriz A está na forma de escada se a linha i apresenta mais zeros consecutivos no início que a linha j. Definição 28 (Matriz em Escada) Seja A ∈ Mm×n (K). operações elementares sobre linhas (colunas) não afectam a dependência (ou independência) linear das linhas (colunas) de uma matriz.6. que operações elementares sobre as colunas não afectam a sua caractrística de linha. A demonstração sai imediatamente da aplicação directa da Definição 25 e da Proposição 10. não há nenhum resultado que garanta que operações elementares sobre as linhas de uma matriz não afectam a sua característica de coluna ou. Como tal.2 Determinação da Característica de Linha de uma Matriz Nesta secção estudar-se-ão um conjunto de resultados que permitem determinar a característica de linha de qualquer matriz A ∈ Mm×n (K). Na determinação da característca de linha. a característica de linha de uma matriz não é modificada por operações elementares sobre as linhas dessa matriz. estudadas na secção anterior. É importante verificar que. rl (A). Como já vimos. 6. Exemplo  0 •  0 0  1 •  0 0 13 As seguintes matrizes encontram-se em forma de escada:  1a linha: 1 zero inicial 1 1 −1 0 0 0 4 9 : 2a linha: 3 zeros iniciais 0 0 0 0 3a linha: 5 zeros iniciais  1a linha: nenhum zero inicial 0 0 0 0 : 2a linha: 1 zero inicial 1 2 −1 0 0 0 0 1 3a linha: 4 zeros iniciais Proposição 15 A característica de linha de uma matriz A ∈ Mm×n (K) em forma de escada é igual ao número de linhas diferentes de zero. 51 . utilizaremos operações elementares sobre as linhas de uma matriz. 0 Demonstração.6 Teoria das Matrizes Demonstração. Se A for transformada na matriz A ³ 0´ através de operações elementares sobre linhas então rl (A) = rl A . A demonstração é simples e está ilustrada pelos exemplos anteriores. por enquannto. Proposição 14 Seja A ∈ Mm×n (K).

resultará um conjunto de p + 1 linhas linearmente dependente. uma vez que a matriz identidade está naturalmente em forma de escada. A combinação linear nula das primeiras p linhas de A toma então a forma p X i=1 λi £ 0 ··· aiji ··· ain ¤ =0 a que corresponde a resolução de um sistema de equações. Suponhamos que a matriz A tem as primeiras p linhas não nulas e as últimas m − p nulas.1. 52 . Para tal.p e que portanto as primeiras p linhas de A são linearmente independentes. Se a este conjunto de linhas adicionarmos uma qualquer linha k. isto é a característica de linha de A é igual a p: rl (A) = p. p é o número máximo de linhas linearmente independente da matriz A. Esta conclusão resulta da Proposição 10. com p < k ≤ m.··· . Substituindo na terceira equação λ1 = λ2 = 0 resulta λ3 = 0. Vamos mostrar que as p primeiras linhas são linearmente independentes. para os escalares {λi }.6 Teoria das Matrizes Demonstração. Assim. Prosseguindo esta substituição recursivamente até à p−ésima equação permite concluir que {λi = 0}i=1. Substituindo λ1 = 0 na segunda equação e resolvendo resulta λ2 = 0. a saber:            Pp a1j1 λ1 + Pi=2 λi · 0 = 0 p a1j2 λ1 + a2j2 λ2 + Pi=3 λi · 0 = 0 a1j3 λ1 + a2j3 λ2 + a3j3 λ3 + p λi · 0 = 0 i=4 ··· P p i=1 aijp λi · 0 = 0 Note-se que da primeira equação resulta λ1 = 0. A linha Li terá a configuração £ 0 ··· aiji ··· ain ¤ onde aiji é o primeiro elemento não nulo da linha i. Nota 8 É evidente que a característica da matriz identidade de ordem n é exactamente n. Exemplo 14 Determinação da característica de linha das seguintes matrizes em escada. é necessário resolver a equação Pp i=1 λi Li = 0. uma vez que a linha k é nula.

segunda e terceira linhas da matriz A): 1. O número de linhas não nulas é 2 pelo que 0 0 0 0 0 a característica de linha da matriz é rl (A) = 2. respectivamente. podemos verificar que as linhas são linearmente independentes. O número de linhas não nulas é 3 pelo que a 0 0 0 0 1 característica de linha da matriz é rl (A) = 3. sendo portanto o número máximo de linhas linearmente independentes que é precisamente 3 (sejam λ1 . à primeira. Proposição 16 Toda a matriz A ∈ Mm×n (K) pode ser reduzida a uma matriz B em forma de escada por meio de operações elementares sobre as suas linhas. podemos verificar que as duas primeiras linhas são linearmente independentes e. Alternativamente. então é possível determinar a característica de linha de qualquer matriz. tendo-se consequentemente rl (A) = rl (B). λ2 e λ3 os escalares associados. sendo a terceira linha nula. respectivamente. o número máximo de linhas linearmente independentes é precisamente 2 (sejam λ1 e λ2 os escalares associados.6 Teoria das Matrizes  0 1 1 −1 0 • A =  0 0 0 4 9 . se for possivel transformar uma qualquer matriz A ∈ Mm×n (K) numa matriz B em forma de escada preservando a sua característica de linha. 53 .            1 · λ1 + 0 · λ2 + 0 · λ3 0 · λ1 + 1 · λ2 + 0 · λ3 0 · λ1 + 2 · λ2 + 0 · λ3 0 · λ1 + (−1) · λ2 + 0 · λ3 0 · λ1 + 0 · λ2 + 1 · λ3  =0  λ1 = 0     λ2 = 0 =0   λ1 = 0 0 = 0 ⇐⇒ λ2 = 0 = 0 ⇐⇒    0=0 λ3 = 0 =0    λ3 = 0 =0 O resultado acima sugere que.             0 · λ1 + 0 · λ2 1 · λ1 + 0 · λ2 1 · λ1 + 0 · λ2 (−1) · λ1 + 4 · λ2 0 · λ1 + 9 · λ2  =0  0=0    λ1 = 0 ½ =0  λ1 = 0 0 = 0 ⇐⇒ = 0 ⇐⇒ λ2 = 0   λ2 = 0 =0    0=0 =0  1 0 0 0 0 • A =  0 1 2 −1 0 . à primeira e segunda linhas da matriz A):  1. Alternativamente. O resultado seguinte mostra que tal processo existe.

. tem um elemento b na coluna j1 soma-se-lhe a linha (1) (1) L1 multiplicada pelo escalar −b. j1 ). . . tem um (2) elemento f na coluna j2 soma-se-lhe a linha L2 multiplicada pelo escalar −f . Adicionalmente.j1 +1 (1) Suponhamos agora que j2 . Ls por exemplo. . sempre inferior a n. . se uma das outras linhas de A. . colocamos um elemento d 6= 0 na posição (2. com 1 ≤ j1 ≤ n é a primeira coluna de A que não é nula. Assim. j1 ).j1 +2 (1) (1) ··· ··· ··· a1n (1) a2n . . Definição 29 (Condensação Vertical) Ao processo implícito na Proposição 16. deste modo fica o elemento 1 ∈ K na posição (2.j1 +1 . temse rl (A) = rl (B) uma vez que operações elementares sobre as linhas de uma matriz não alteram a sua característica de linha. 0 (1) a1. . que permite transformar uma qualquer matriz A ∈ Mm×n (K) numa matriz B em forma de escada através de operações elementares sobre linhas designa-se Condensação Vertical da matriz A.j1 +2 . Por troca de linhas. . o primeiro. que tenham um elemento não nulo na coluna j1 obtem-se uma matriz com a forma:  0 ··· 0 ··· . 0 ··· 0 1 a1. Assim. isto é. j1 ) da matriz. colocamos um elemento a 6= 0 na (1) posição (1. 0 0 0 (1)   A1 =    a1. . eventualmente. (1) se uma das outras linhas de A1 . amn (2) (1)       54 . Procedendo de igual modo com todas as linhas.j2 1 . . com 1 < s ≤ m. .j1 +2 (1) a2. a nova linha Ls passa a ter o escalar 0 ∈ K na posição (s.j2 +1 (2) (1) ··· ··· ··· a1n (2) a2n . am. . deste modo fica o elemento 1 ∈ K na posição (1. j2 ).j1 +1 0 0 0 . suficiente de vezes. . que não a primeira. . que não a primeira e a segunda. 0 ··· 0 1 a1.6 Teoria das Matrizes Demonstração. . Multiplica-se (2) agora a linha L2 por d−1 . amn (1) (1)       Repetindo este processo um número.j2 +1 .j1 +1 (1) 0 0 a2. com j1 < j2 ≤ n é a primeira coluna de A1 que tem elementos não nulos para além de. p. Multiplica-se agora a linha L1 por a−1 . . a nova linha (2) Lr passa a ter o escalar 0 ∈ K na posição (r. faz-se Ls ← Ls + (−b) L1 (Operação (1) de Jacobi). . Lr por exemplo. . . j2 ). (1) (1) (2) isto é. Por troca de linhas. . . faz-se Lr ← Lr + (−f ) L2 (Operação de Jacobi). que tenham um elemento não nulo na coluna j2 obtem-se uma matriz com a forma:  0 ··· 0 ··· . . com 2 < r ≤ m. . Suponhamos que j1 . . (1) 0 0 am. . .j2 +1 (2) a2.   A2 =    ··· ··· ··· a1. j2 ) da matriz. Procedendo de igual modo com todas as linhas. a2. . obtém-se uma matriz B = Ap na forma desejada. . .

aij . dá-se a designação de Elemento Redutor (o termo ”pivot” é também frequentemente utilizado). A utilização da operação elementar que consiste em multiplicar uma linha da matriz por um escalar tem como objectivo facilitar os cálculos mediante a transformação do elemento redutor no escalar 1 ∈ K. utilizado para. As colunas de uma matriz em forma de escada que contêm um elemento redutor designam-se por Colunas Redutoras (ou Colunas Pivot).6 Teoria das Matrizes  0 2 4 1 9 Exemplo 15 Considere-se a matriz A =  0 3 5 2 1 . com o qual é muito mais simples realizar as Operações de Jacobi que se seguem. numa matriz em forma de escada. anular os elementos {akj }k>i da respectiva coluna mas em linhas de ordem superior. Se. a característica de linha da matriz A é rl (A) = 3. Determi0 −1 2 0 0 nemos a sua característica de linha através de condensação vertical. todos os elementos redutores forem o escalar 1 ∈ K e os restantes elementos da respectiva coluna redutora forem 0. por exemplo −1. Nota 9 O elemento redutor não tem necessariamente de ser o escalar 1 ∈ K. poupando-nos assim. Não nos afastemos do objectivo principal do processo de condensação que consiste em transformar uma matriz numa outra em forma de escada. a escrita de uma das matrizes anteriores (a terceira). No exemplo anterior utilizàmos. mediante a aplicação de Operações de Jacobi. Definição 30 (Elemento Redutor) Durante o processo de CondensaçãoVertical. ao elemento.     9 0 2 4 1 9 0 1 2 1 2 2  0 3 5 2 1  L1 ←− 2 L1  0 3 5 2 1  L2 ←− L2 − 3L1 −− − − − −→ −−−−−− − − −5− 0 −1 2 0 0 − − − − → 0 −1 2 0 0   9 0 1 2 1 2 2  0 0 −1 1 − 25  L3 ←− L3 + L1 2 2 −− − − − − − − − − −→ 0 −1 2 0 0     9 9 1 0 1 2 0 1 2 1 2 2 2 2  0 0 −1 1 − 25  L3 ←− L3 + 4L2  0 0 −1 1 − 25  2 2 2 2 −− − − − −→ −−−−−− 9 5 0 0 4 1 0 0 0 − 91 2 2 2 2  a Logo. diz-se que a matriz se encontra na forma de escada reduzida. 55 . Repare-se que a 2a e 3 operações poderiam ter sido ambas efectuadas na 2a matriz. O Elemento Redutor de uma linha não nula é o elemento com índice de coluna mais baixo que ainda é não -nulo. Exemplo 16 As seguintes matrizes em forma de escada têm os seus elementos redutores devidamente assinalados.

Nota 10 Naturalmente que.6 Teoria das Matrizes  0 1 1 −1 0   •  0 0 0 4 9 . 6. B ∈ Mn (K).7 Inversão de Matrizes Nesta secção vamos estudar a Inversão de Matrizes. questão central na Teoria das Matrizes com ramificações extremamente importantes na Álgebra Linear em geral. numa matriz em forma de escada.1 Definições e Resultados Definição 31 (Matriz Regular/Inversa) Uma matriz quadrada A ∈ Mn (K) diz-se regular se existir B ∈ Mn (K) tal que AB = In = BA. 56 . Se não existir uma matriz B nestas condições. que não são necessariamente iguais.7. é incorrecto representá-lo por A . 0 0 0 0 0   1 0 0 0 0   •  0 1 2 −1 0 . o número de elementos redutores e o número de colunas redutoras são sempre iguais entre si. Pretende-se mostrar que BA = I. (⇒) Suponhamos que AB = I.3 Esta definição deixa em aberto uma afirmação que carece de demonstração. o número de linhas não nulas. A diz-se inversa de B e escreve-se A = B −1 . Trata-se de uma matriz em forma de escada 0 0 0 0 1 reduzida. O estabelecimento formal desta afirmação é como se segue: Proposição 17 Considerem-se as matrizes A. 3 Assumindo que o produto A· B −1 se encontra bem definido. Demonstração. esta notação poderá denotar ambiguamente o produto A · B −1 ou o produto B B −1 · A. diz-se que a matriz A é singular. A matriz B dizse inversa de A e escreve-se B = A−1 . Do mesmo modo. Então AB = I se e só se BA = I.  6. Com efeito. Trata-se de uma matriz em forma de escada.

mostração em tudo idêntica à anterior mutatis mutantis. Toda a matriz elementar é regular. p são matrizes regulares então p Ak k=1 Q −1 também o é e ( p Ak ) = A−1 × · · · × A−1 . Mas também BAB = 0B ⇐⇒ B (AB) = 0 ⇐⇒ BI = 0 ⇐⇒ B = 0. Se A ∈ Mn (K) é regular então AT . 5. Logo deveremos ter (BA − I) = 0 ⇐⇒ BA = I. p 1 k=1 7. 1. Se BA = 0 então ABA = A0 ⇐⇒ (AB) A = 0 ⇐⇒ IA = 0 ⇐⇒ A = 0. ser regular. Se B ∈ Mn (K) e D ∈ Mm (K) forem regulares então rl (DA) = rl (A) e rc (AB) = rc (A). B ∈ Mn (K) são matrizes regulares. uma vez que não existe uma outra matriz que possa simultaneamente ser multiplicada à esquerda e à direita daquela (um dos produtos nunca será possível). que não seja quadrada não pode. k = 1. Se A.6 Teoria das Matrizes BA = BAI (porque a identidade é elemento neutro para a multiplicação de matrizes) (pela propriedade associativa para a multiplicação de matrizes) = B (AI) = B (IA) (porque a matriz identidade é comutável) = B (AB) A (por hipótese) = (BA) (BA) (pela propriedade associativa para a multiplicação de matrizes) Resulta que BA = (BA) (BA) ⇐⇒ BA (BA − I) = 0. Se Ak ∈ Mn (K) . por definição. Grupo Linear Geral de ordem n. = A 4. Se A ∈ Mn (K) é regular então rl (A) = n = rc (A). De- Naturalmente que o conceito de regularidade de uma matriz só é passível de ser aplicado a matrizes quadradas. Proposição 18 Segue-se uma miscelânea de resultados àcerca de matrizes regulares. · · · . 2. AB também é regular e tem-se −1 (AB) = B −1 A−1 . Qualquer matriz. tal grupo designa-se por GLn (K). Pretende-se mostrar que AB = I. 57 .sobre K. (⇐=) Suponhamos que BA = I. Seja A ∈ Mm×n (K). O conjunto das matrizes regulares de ordem n sobre um corpo K constitui um grupo a respeito da multiplicação. ¡ ¢−1 ¡ −1 ¢T 3. Q 6.

se k 6= t    eik . de igual modo. se i 6= s j=1  ½ 1 · 1 + 0 · 0 = 1. tem-se EF = In = F E. sendo F a matriz elementar resultante de multiplicar a linha (ou coluna) s de In por a−1 . se i 6= s. Com efeito. se i = s 1 · (−b) + b · 1 = 0. se i 6= s ½ ess fsk = αfsk . se i 6= s 58 eij hjk = ½ Pn j=1 esj hjk = ess hsk + est htk . se i 6= s (EH)ik = eik . n X  ½ 1. se k 6= s 1. se i = t   0. logo E é regular e inversa de si mesma. se k = t = δ ik =  eik . então. se k = s   . se i = s eik . se i = t  eik . logo E é regular. no caso das linhas. Demonstração. se k = s  .6 Teoria das Matrizes 8. então B = A−1 . logo E é regular. t n X j=1 eij ejk (EF )ik = eij fjk = Se E se obteve somando à linha (ou coluna) s de In a linha (ou coluna) t multiplicada por b ∈ K. teremos (no caso da troca de linhas):  Pn  Pj=1 esj ejk = etk . se i = s 0. se i = s    ½ 0. se k = t = = δ ik . se E resulta da troca das linhas s e t. Seja A ∈ Mn (K) uma matriz regular de ordem n sobre K. se i = s . t (EE)ik = Se E resultou da multiplicação da linha (ou coluna) s por um escalar α ∈ K\ {0}. para as linhas. se i = s n = j=1 etj ejk = esk . a matriz H obtida de In somando à linha (ou coluna) s a linha (ou coluna) t multiplicada por −b é tal que HE = In = EH. se k = s  . Efectivamente. Se E resultou de In por troca de linhas (ou colunas) é fácil verificar que EE = In . se k 6= s = = δ ik  eik . 1. Com feito. Se B ∈ Mn (K) é tal que BA = In . se i 6= s. se B ∈ Mn (K) é tal que AD = In então D = A−1 . n X j=1  ½ 1. Seja E uma matriz elementar de ordem n sobre K.

tem-se. Se BA = In então BAA−1 = In A−1 . e pela Proposição (12) n = rc (In ) ≤ rc (A). Basta verificar que AT A−1 = A−1 A = In . ¢T ¡ ¢T ¡ 3. α 6= 0 59 . 8. Mas tem-se A = D−1 DA pelo que rl (DA) ≥ rl (A). 6. Como DA = DA. Nota 11 Simbolicamente. Pretende-se mostrar que também é válido para p factores: Ã p Y 4. em todo. Ak k=1 ¢ ¡ = (A1 × · · · × Ap ) A−1 × · · · × A−1 p 1 ¡ ¢ = A1 × · · · × Ap A−1 × · · · × A−1 p 1 ¢ ¡ (porque Ap é regular) = (A1 × · · · × Ap−1 ) A−1 × · · · × A−1 p−1 1 = In (por hipótese) ! ¡ −1 ¢ Ap × · · · × A−1 = 1 7. O resultado constitui uma generalização do resultado anterior e pode ser demonstrado por indução sobre o número de factores do produto. Logo. se AD = In então A−1 AD = A−1 In .6 Teoria das Matrizes 2. desta proposição que o referido conjunto é fechado para a multiplicação. como A−1 A = In . o elemento neutro In pertence ao conjunto. logo B = A−1 . Suponhamos que o resultado é válido para p − 1 factores. virá rc (A) = n. semelhante. o que significa que A−1 ∈ GLn (K). Se A é regular teremos AA−1 = In . O raciocínio que demostra o resultado para as colunas é. na Proposição (5) verificámos que a multiplicação de matrizes é associativa. De igual modo. De igual modo. a inversa de uma matriz regular é dada pelas seguintes matrizes: −1 • Eik = Eik −1 • Ei (α) = Ei ¡1¢ α . Para p = 2 o resultado está demonstrado. finalmente. Basta verificar que (AB) B −1 A−1 = A BB −1 A−1 = AA−1 = In . pela Proposição (12) rl (DA) ≤ rl (A). virá rc (A) = n. ¢ ¡ 5. ter-se-á n = rl (In ) ≤ rl (A) e como A tem apenas n linhas. se A é regular A−1 também o é. Como A tem apenas n colunas. rl (DA) = rl (A). Conclui-se assim que GLn (K) é um grupo. Vimos no ponto 5. logo D = A−1 .

que {Ls }s=1. Considere-se A = AF . ∀s=1.··· . Se F ∈ Mn (K) e E ∈ Mm (K) forem matrizes elementares então rl (AF ) = rl (A) e rc (EA) = rc (A).··· .h são linearmente idependentes. Façamos a prova para as linhas. com i< n 0o j.h h X s=1 h X s=1 λs λs £ £ as1 as1 ··· ··· asj asi ··· ··· asi asj ··· ··· asn asn h X s=1 λs Ls λs Suponhamos agora que A resulta de A por multiplicação da coluna j desta n 0o última por um escalar β ∈ K\ {0}. Suponhamos.··· . Vejamos qual o resultado da aplicação das três operações elementares sobre as linhas de A.n e as de A por Ls . Mostremos que as linhas Ls são linearmente independentes: s=1.··· .n 0 são linearmente independentes. Designem-se as linhas de n 0o 0 A por {Ls }s=1.6 Teoria das Matrizes −1 • Eik (α) = Eik (−α) A seguinte proposição é uma generalização do resultado estabelecido no ponto 4 da Proposição (18): Proposição 19 Seja A ∈ Mm×n (K). Demonstração. e recordemos que a multiplicação à direita por uma matriz elementar cor.h n 0o Assim. Mostremos que as linhas Ls s=1.··· .··· . sem perda de s=1. • Suponhamos então que A resulta de A por troca das colunas i e j.n 0 generalidade.responde a operar sobre as colunas (Proposição 13).··· . são linearmente independentes: h X s=1 λs Ls = 0 ⇐⇒ 0 60 . as linhas Ls s=1.h h X s=1 0 λs Ls ¤ ¤ 0 = 0 ⇐⇒ = 0 ⇐⇒ = 0 ⇐⇒ = 0 =⇒ = 0.

··· .h λs Ls λs n 0o Assim.··· . as linhas Ls s=1.n 0 são linearmente independentes.6 Teoria das Matrizes h X s=1 h X s=1 λs λs £ £ as1 ··· ··· asi β × asj ··· asj ··· ··· asn asn ¤ ¤ = 0 ⇐⇒ = 0 ⇐⇒ = 0 =⇒ = 0. relativamente às coordenadas de índice j. Mostremos que as linhas n 0o Ls são linearmente independentes: s=1.··· . Mas porque β 6= 0 virá s=1 λs asj = 0. com i < j. ∀s=1. ∀s=1.··· .h as1 h X s=1 λs Ls λs P Em particular. isto é h X s=1 λs £ as1 ··· asi ··· asj ··· asn h X s=1 ¤ = 0 ⇐⇒ = 0 =⇒ = 0. • Admitamos agora que A resulta de somar à coluna i de A a coluna j. temos h λs × s=1 Ph Ph β × asj = β s=1 λs asj = 0.h h X s=1 λs Ls ¤ 0 = 0 ⇐⇒ = 0 ⇐⇒ h X s=1 λs £ as1 ··· asi + βasj ··· asj ··· asn 61 . multiplicada por um escalar β ∈ K\ {0}.

s=1  .   P  Ph h    s=1 λs asi + β s=1 λs asj = 0  . Do mesmo modo. 62 .h λs Ls λs = = Concluímos assim. ou seja rl (AF ) ≤ rl (A).  . logo é regular e podemos escrever A = A F −1 . Analogamente se prova a afirmação relativamente à característica de coluna. Nota 12 Em termos práticos. n 0o Assim. da ³ 0´ ³ 0 ´ Proposição 18).   P   h s=1 λs asn = 0 s=1 . teremos rl A ≤ rl A F −1 pela Proposição 12. . .··· .  .  .  .n são linearmente independentes. o que o resultado anterior nos indica é que operações elementares sobre as linhas de uma matriz não afectam a sua característica de coluna e que as operaçõs elementares sobre as colunas de uma matriz não afectam a sua característica de linha. . Como F é uma matriz elemen0 tar. donde a igualdade.  Ph   λs asj = 0    . Ph Ph s=1 λs as1 = 0 λs asi + β Ph ⇐⇒ ⇐⇒ ··· asi ··· asj ··· asn h X s=1 ¤ = 0 ⇐⇒ 0 =⇒ 0.   P   h s=1 λs asn = 0  Ph λ a =0    . sendo também F −1 uma matriz elementar (como verificámos na demonstração do ponto 1.··· . s=1  .6 Teoria das Matrizes               h X s=1 λs £ as1 s=1 λs asj = 0 . ∀s=1.  .  Ph   λs asj = 0    . s=1 s s1   . . as linhas Ls s=1. que rl (A) ≤ rl (AF ).

Suponhamos que a matriz A está reduzida à forma de escada mas que. (1) O seguinte conjunto de operações transformará a matriz B numa matriz B onde a última coluna tem a forma {0. . bn−2.n bn−1. dada uma matriz A ∈ Mm×n (K) a matriz B. A redução da matriz A a uma matriz B em forma de escada por meio de operações elementares sobre as linhas (ver Proposição 16) implica que B seja triangular superior com todos os elementos principais não nulos. que daquela resulta por aplicação de operações elementares terá a forma:            1 b12 0 1 0 0 . Mas a matriz B é quadrada. 1 0 0 b1. 0. 0. 0. Demonstração.n . .n b3. Tal significa que o primeiro elemento significativo da linha j será pelo menos bj. . 1. em forma de escada. .n × Ln (6) De igual modo.n−1 . em particular qualquer matriz A ∈ Mm×n (K). . . logo.n b2.n−2 . com 1 ≤ j ≤ n. Já verificámos na Proposição (16) que qualquer matriz é redutível à forma de escada por meio de operações elementares.n−1 b2. 0. bjj = 0. por exemplo. o seguinte conjunto de operações transformará a matriz B (1) numa matriz B (2) onde a penúltima coluna tem a forma {0. Pela Proposição (10) as linhas de B.n−1 1 0 b1. . . . poderemos transformar B em In . · · · 0.n−1 b3. o que é absurdo. 0 0 0 0 0 0 b13 b23 1 . .n−2 b2. . a n-ésima linha de B é nula. O absurdo resulta de assumirmos que um dos elementos da diagonal de B é não nulo.j+1 . logo bjj 6= 0.6 Teoria das Matrizes Podemos portanto concluir que operações elementares sobre as linhas ou colunas de uma matriz não afectam a sua característica. . e portanto de A. .n 1            (5) Continuando a proceder a operações elementares sobre linhas. serão linearmente dependentes. 0. ∀1≤j≤n . 0 0 0 ··· ··· ··· ··· ··· ··· b1. bn−2. Proposição 20 Seja A ∈ Mn (K) uma matriz quadrada tal que rl (A) = n.n+1 . 0}: 63 . Mas isso significa que o primeiro elemento significativo da linha n será pelo menos bn. implicando que rl (A) = rl (B) < n.n × Ln ··· L1 ← L1 − b1. 1}: Ln−1 ← Ln−1 − bn−1.n × Ln Ln−2 ← Ln−2 − bn−2. · · · 0.n−2 b3. Assim.

Op3 .Opt. Suponhamos que precisámos de t destas operações. Demonstração. Efectuando uma terceira operação. Vamos refazer o processo com o seguinte esquema: O A − −p− A1 − −1 → O In − −p− E1 − −1 → . tem-se: O A2 − −p− A3 − −3 → O E12 − −p− E123 − −3 → O In − −p− E3 − −3 → . Então A é um produto de matrizes elementares. (7) Proposição 21 Seja A ∈ Mn (K) uma matriz quadrada tal que rl (A) = n. e assim sucessivamente até à operação Opt : O At−1 − −p− At − −t → O E12···t−1 − −p− E12···t − −t → O In − −p− Et − −t → . digamos Op1 .Op2 . onde At = Et · At−1 e E12···t = Et · E12···t−1 . transformar a matriz A na matriz In . A seguinte proposição enuncia o acima explicitado. onde A3 = E3 · A2 e E123 = E3 · E12 .6 Teoria das Matrizes Ln−2 ← Ln−2 − bn−2. Efectuando uma sgunda operação tem-se: O A1 − −p− A2 − −2 → O E1 − −p− E12 − −2 → O In − −p− E2 − −2 → . Através de um número finito de de operações elementares sobre as linhas é possível transformar a matriz A na matriz In . que é possível através de operações elementares sobre linhas. 64 .n−1 × Ln−1 Prossegue-se deste modo até se obter In . na Proposição 21. Verificámos. Proposição 22 Seja A ∈ Mn (K) uma matriz quadrada tal que rl (A) = n (rc (A) = n). onde A2 = E2 · A1 e E12 = E2 · E1 .n−1 × Ln−1 ··· L1 ← L1 − b1.· · ·. Pelo estabelecido na Proposição 13 tem-se ainda A1 = E1 · A. para obter In .n−1 × Ln−1 Ln−3 ← Ln−3 − bn−3. logo regular. onde E1 é uma matriz elementar.

Demonstração. Conclui-se portanto que a matriz E12···t é regular. −1 Resta assinalar que cada Ei . B = F1 F2 · · · Fi−1 Fi . depois da aplicação destas t operações obteve-se a matriz In . Façamos a prova para a característica de linha. Tendo em conta o resultado da Proposição 19 rl (AB) = = = = = rl (AF1 F2 · · · Fi−1 Fi ) rl (AF1 F2 · · · Fi−1 ) rl (AF1 F2 · · · Fi−2 ) (· · · ) rl (A) Analogamente para a característica de coluna. E12···t = = = = Et E12···t−1 Et Et−1 · E12···t−2 (· · · ) Et Et−1 · · · · · E3 E2 E1 e ainda In = = = = = = At Et At−1 Et Et−1 · At−2 (· · · ) Et Et−1 · · · · · E3 E2 E1 A E12···t A Nos pontos 1 e 5 da Proposição 18. respectivamente. At = In . Conforme a Proposição 22. 65 . A seguinte proposição generaliza o resultado da Proposição 19. estabelecemos que toda maatriz elementar é regular e que o produto de matrizes regulares é ainda uma matriz regular. ou seja A = E1 E2 E3 · · · · · Et . a matriz B é produto de matrizes elementares. Pelo ponto −1 −1 −1 −1 8 da Proposição 18 vem A = (E12···t )−1 . Proposição 23 Seja A ∈ Mm×n (K). Então. Se B ∈ Mn (K) e D ∈ Mm (K) forem matrizes regulares então rl (AB) = rl (A) e rc (DA) = rc (A). digamos. isto é. 1 ≤ i ≤ t é uma matriz elementar.6 Teoria das Matrizes Como se referiu no início da demonstração.

logo A−1 = Et Et−1 · · · E2 E1 A Isto significa que. Pela Proposição (22). 2.2 Determinação da Inversa de uma Matriz Regular Nesta secção apresenta-se um método prático para a determinação da matriz inversa de uma matriz A ∈ Mn (K) regular. E2 . Suponhamos que Op1 . A matriz A é regular se e só se rl (A) = n (ou rc (A) = n).  1 1 1 A =  1 −1 1  1 1 0  66 .6 Teoria das Matrizes Proposição 24 Seja A ∈ Mn (K). pela Proposição (12) tem-se n = rc (In ) ≤ rc (B). Analogamente para rc (A) = n. Op2 . logo rc (A) = n. 1. 2. isto é. Se A é regular. Consideremos então a I é. A matriz A é regular se e só se tiver uma inversa direita (respectivamente esquerda). isto ¤ conheceremos a inversa de A. 1. conhecermos a matriz B tal que BA = £ n . £ A|In ¤ Exemplo 17 Consideremos a seguinte matriz real. Demonstração. Se AB = In . da Proposição (18) se A é regular então rl (A) = n. em que B = A−1 . · · · Et tais que Et Et−1 · · · E2 E1 A = In .7. · · · Opt são as operações elementares a aplicar sobre a matriz A. por definição existe uma matriz B ∈ Mn (K) tal que AB = In = BA. Pelo ponto 2. se existir uma matriz B ∈ Mn (K) tal que AB = In (respectivamente BA = In ). 6. Pela Proposição (21) sabemos que existem matrizes elementares E1 . se rl (A) = n então A é regular. se conhecermos sucessivamente as matrizes elementares que permitem passar de A a In . e portanto A é regular pelo ponto anterior. matriz ampliada A|In do tipo n×2n e apliquemos toda a operação elementar sobre as as linhas de A às linhas de In . £ £ ¤ ¤ A1 |E1 In A2 |E2 E1 Op1 Op2 O −− − − −¤ → − ¤− → − − − − −p3 → −− − £ £ ¤ £ A3 |E3 E2 E1 − ·−·→ A1 |E1 In |Et Et−1 · · · E2 E1 Opt ·− − −− − − −→ £ ¤ £ ¤ O que fizemos foi passar de uma matriz A|In para uma matriz In |B através de operações elementares sobre linhas.

conclusão esta atingida ao fim das duas primeiras operações sobre as linhas de A. Assim. as seguintes matrizes elementares L2 ←− L2 − L1 L3 ←− L3 − L1 L2 ←− − 1 L2 2 L3 ←− −L3 L1 ←− L1 − L3 L1 ←− L1 − L2 67 : : : : : : E21 (−1) E31¡(−1) ¢ E2 − 1 2 E3 (−1) E13 (−1) E12 (−1)  1 0  −1 . utilizando a notação habitual. Em vez de condensar primeiro a matriz A. Sendo regular. e no caso em que rl (A) = n. não é necessário repetir as operações elementares já efectuadas: ¯  1 1 1 ¯ 1 0 0 ¯  1 −1 1 ¯ 0 1 0  L2 ←− L2 − L1 ¯ L3 ←− L3 − L1 1 1 0 ¯ 0 0 1 −− − − − − −→ −−−−− ¯   1 1 1 ¯ 1 0 0 1 ¯  0 −2 0 ¯ −1 1 0  L2 ←− − 2 L2 ¯ L3 ←− −L3 0 0 −1 ¯ −1 0 1 − − − − − − − − − − −→ ¯   0 0 1 1 1 ¯ 1 ¯  0 1 0 ¯ 1 − 1 0  L1 ←− L1 − L3 2 ¯ 2 −− − − − − − − − − −→ 0 0 1 ¯ 1 0 −1 ¯   0 1 1 1 0 ¯ 0 ¯ 1 1  L1 ←− L1 − L2  0 1 0 ¯ ¯ 2 −2 0 −− − − − − − − − − −→ ¯ 1 0 0 1 0 −1 ¯   1 1 0 0 ¯ −1 1 2 ¯ 12 1   0 1 0 ¯ ¯ 2 −2 0 ¯ 1 0 0 1 0 −1  A−1 =   −1 2 1 1 2 1 2 −1 2 Tem-se claramente que. prosseguiu-se na aplicação de operações elementares sobre as linhas de A até se obter I3 enquanto que simultaneamente determinávamos A−1 por aplicação das mesmas operações elementares sobre I3 . 0 Conclui-se assim que a matriz é regular. de modo a determinar ¤ £ a £ característica. quando se obteve uma matriz em escada de elementos principais significativos. determinar a sua inversa.6 Teoria das Matrizes Vamos veriicar se a matriz A é regular e. se A for regular. em caso afirmativo. partindo de A|In chegar a ¤ ¤ £ In |B vamos começar imediatamente com a redução de A|In . Se a matriz A não fosse regular o processo teria terminado aqui. Note-se que às operações elementares utilizadas correspondem.

é relativamente simples determinar A. Nota 13 É extremamente importante lembrar que a determinação da inversa de uma matriz através do método descrito só pode ser realizada exclusivamente 68 .6 Teoria das Matrizes Tal significa. Sabendo que a inversa de uma matriz elementar tem uma forma extremamente simples. esta matriz será a inversa do produto de matrizes elementares descrito anteriormente. das matrizes elementares acima descritas. Por um processo semelhante. como se verifica em seguida: ¶ µ · ¸−1 1 A = E12 (−1) · E13 (−1) · E3 (−1) · E2 − = · E31 (−1) · E21 (−1) 2 ¶ µ 1 −1 −1 −1 −1 −1 −1 E21 (−1) · E31 (−1) · E2 · E3 (−1) · E13 (−1) · E12 (−1) = − 2 E21 (1) · E31 (1) · E2 (−2) · E3 (−1) · E13 (1) · E12 (1) =               101 110 1 0 0 10 0 100 100      · · · · · =  1 1 0  0 1 0   0 −2 0  0 1 0   0 1 0  0 1 0  = 001 001 0 0 1 0 0 −1 001 101       1 1 1 1 1 1 1 0 0 1 0 0 =  1 1 0   0 −2 0   0 1 1  =  1 −1 −1  1 1 0 0 0 1 0 0 −1 1 0 1 Definição 32 (Inversão por Condensação) Ao método atrás descrito para a inversão de uma qualquer matriz A ∈ Mn (K) dá-se o nome de Inversão por Condensação. Com efeito. a matriz obtida pelo produto das matrizes elementares é precisamente A−1 . que a matriz A−1 pode ser produzida pelo produto. Verifiquemos então esse resultado: ¶ µ 1 A−1 = E12 (−1) · E13 (−1) · E3 (−1) · E2 − · E31 (−1) · E21 (−1) = 2                1 0 0 10 0 1 −1 0 1 0 −1 1 00 1 00        · · · =  0 1 0  0 1 0   0 1 0  0 − 1 0   0 1 0  −1 1 0  = · · 2 0 0 −1 0 0 1 0 0 1 00 1 −1 0 1 0 01       1 1 1 −1 −1 1 0 0 1 1 0 0 −2 2 0   0 − 1 0   −1 1 0  =  1 − 1 0  = 0 1 2 2 2 0 0 1 0 0 −1 −1 0 1 1 0 −1 Como seria inevitável. também será possível recuperar a matriz A. segundo o que verificámos na proposição 22. pela ordem correcta!.

Consequentemente. Tal significa que não é possível reduzir a matriz A original a uma matriz triangular superior com elementos proncipais não nulos. segundo a Proposição 20 a característica da matriz será inferior a n e portanto não será regular. como a matriz A3 está na forma de escada. ¤ £ se obterá uma matriz do tipo As |Es em que o próximo elemento redutor não poderá ter outro valor que não 0. que a caratcterística da matriz A é 2. · · · Fs . Conclui-se assim que a matriz A não é regular. Esta expressão não está. Nota 14 Quando uma matriz A ∈ Mn (K) não é regular esta circunstância é facilmente identificável durante o processo de inversão da matriz. Mais se conclui que.6 Teoria das Matrizes por aplicação de operações elementares sobre linhas. obviamente. Note-se que. F2 . 3) um elemento não nulo sem com essa operação anular a configuração em forma de escada da matriz A3 . na forma BA = In não permitindo inferir imediatamente a forma de A−1 . Exemplo 18 Ilustremos a Nota anterior com a seguinte matriz real. Com efeito. Se forem aplicadas operações sobre colunas. definidas pelas matrizes elementares F1 .  1 1 1 A =  1 −1 1  −1 −3 −1 ¯  1 1 1 ¯ 1 0 0 ¯  1 −1 1 ¯ 0 1 0  L2 ←− L2 − L1 ¯ L3 ←− L3 + L1 −1 −3 −1 ¯ 0 0 1 −− − − − − −→ −−−−− ¯   ¯ 1 0 0 1 1 1 ¯  0 −2 0 ¯ −1 1 0  L3 ←− L3 − L2 ¯ −− − − − − −→ −−−−− 0 −2 0 ¯ 1 0 1 ¯   1 1 1 ¯ 1 0 0 ¯  0 −2 0 ¯ −1 1 0  ¯ 0 0 0 ¯ 2 −1 1 ¤ £ Obteve-se uma matriz na forma A3 |E3 . neste ponto não há forma de colocar na posição (3. Sucederá que em determinado ponto. só assim é possível afirmar que Et Et−1 · · · E2 E1 A = In e que portanto A−1 = Et Et−1 · · · E2 E1 . após a aplicação de s operações elementares sobre linhas.   69 . chegar-se-á à conclusão que Et Et−1 · · · E2 E1 AF1 F2 · · · Fs = In .

j2 b1. Demonstração. . . . ··· 0  0···0 0 · · · 0  0 · · · 0  . . 0···0 Seguidamente. . . .j3 b1. .j1 +1 b1. . . . . . .  . . . . por meio de operações elementares sobre as linhas da matriz A. . 1 b1.  . . de igual modo.jt · · · b1n · · · b2. . .j3 b2. . . . .jt · · · b3. .j2 +1 ··· 0 0 .  . . .j1 +1 b1.jt · · · b2n  · · · b3. em forma de escada. . . . .j3 +1 · · · b2. regular. . 0 0 0  0 0 0  . ··· 0 ··· 0 ··· 0 ··· 0 .j3 +1 ··· 0 · · · b3.j3  0 0 1  . . . Esse estudo resume-se ao seguinte resultado: Proposição 25 Seja A ∈ Mm×n (K). . 0 0 0 · · · b1.j3 0 1 b2. . ··· 0 0 ··· 0 0 . Verificámos na Proposição 16 que a matriz A pode ser reduzida a uma matriz A(1) . . .j3 +1 . .j3 +1 · · · 1 b3. rl (A) = rc (A). .j2 +1 · · · b1. . .  · · · 1 · · · btn  ··· 0 ··· 0   .jt · · · b3n  . A matriz A(1) terá a seguinte forma genérica:  0···0 0 · · · 0  0 · · · 0  . . .jt b1. .j1 +2 0 0 · · · b2. . Tal significa. .j1 +2 0 0 0 0 0 0 .j2 +1 · · · b2. . . .jt 0 0 . . . . . . . . . A características de linha e de coluna da matriz A são iguais. .j3 +1 · · · b2. ··· 1 0 0 ··· 0 0 0 . . utilizaremos o elemento redutor a22 para anular 70 .  . . . 0 0 0 0 0 0 . . ··· 0 ··· 0 Poderemos agora efectuar t trocas de colunas de modo a obter uma matriz A(2) cuja forma é a seguinte:  1 b1. . ··· 0 ··· 0 · · · b1n · · · b2n · · · b3n . .8 A Característica Revisitada Na secção 6. . ··· 0 0 0 · · · b1. . . . ··· 0 0 ··· 0 0 . . . ··· 0 0  · · · b1.j3 +1 . . . ··· 0 0 · · · b1. . . . para a determinação da característca de linha de uma qualquer matriz A ∈ Mm×n (K). Nesta secção vamos estudar a relação entre três valores: a caracterísitca de linha. tal que EA = A(1) . . . . . .j2 b1. . a característica de coluna e a característica de uma matriz. . através de operações de Jacobi sobre colunas poderemos uti(2) lizar o elemento redutor a11 para anular os elementos não nulos da primeira (2) linha de A(2) . por aplicação da Proposição 13 que existe uma matriz E. . . . . .6 estudámos um método. designado por Condensação Vertical. 0 · · · 0  0 · · · 0  . .6 Teoria das Matrizes 6. . . . . . . . . isto é. . · · · btn ··· 0 .j2 +1 · · · 1 b2. . . . . 0···0 0 0 0 · · · b1. . . . . 0 · · · 0  0 · · · 0  . .

n−t ¸ A (3) = Em resumo. A este valor rl (A) = rc (A) dá-se o nome de característica da matriz A e designa-se simplesmente por r (A). A matriz A(3) terá a seguinte forma genérica. A partir daqui.n−t 0m−t. por aplicação da Proposição 13 que existe uma matriz F . na matriz A(3) . através de operações elementares. numa representação por blocos: · It 0m−t. digamos r (A). Tal significa. Definição 33 (Forma Canónica de uma Matriz) Seja A ∈ Mm×n (K). por aplicação do ponto 3 da Proposição 18 e da Proposição 23 concluímos que: ³ ´ t = rl A(3) = rl (EAF ) = rl (AF ) = rl (A) ³ ´ t = rc A(3) = rc (EAF ) = rc (AF ) = rc (A) Resulta imediatamente que rl (A) = rc (A). A ¸ · 0t.t 0t. ¡ Reconhecendo que. rc A(3) = t e. processo que se designa por condensação vertical como definido na Definição 29 permite determinar a característica da matriz. Definição 34 (Condensação de uma Matriz) Seja A ∈ Mm×n (K). cuja submatriz ocupando as primeiras r (A) linhas e colunas é a identidade de ordem r (A) e os restantes elementos da matriz são nulos. 71 .n−t elementares às suas linhas e colunas designa-se por forma canónica equivalente a A. indiferentemente sobre linhas ou colunas. tal que A(1) F = A(3) . A aplicação inicial de um conjunto de operações elementares sobre linhas.n−t It que resulta de A por aplicação de operações matriz B = 0m−t. O processo que permite determinar a forma canónica equivalente a A designa-se por condensação da matriz A. nestas circunstâncias. em criar uma matriz.t 0m−t. Prosseguindo deste modo (2) até ao elemento redutor att poderemos constatar que a matriz A(2) pode ser transformada. regular. Nota 15 O processo de condensação não consiste necessariamente na aplicação de um conjunto de operações elementares sobre linhas seguido da aplicação de um conjunto de operações elementares sobre colunas. o problema consiste.6 Teoria das Matrizes os elementos não nulos da segunda linha de A(2) . existem matrizes regulares E e F tais¢que EAF = A(3) . através de operações elementares sobre colunas.

 13 0 13 27 1 25 7 18  1 1 −1 −1 0 L ←− L2 − 13 × L1  13 0 13 4 9  2 L3 ←− L3 − 27 × L1 27 1 25 7 18 −− − − − − − − −→ −−−−−−−   1 1 −1 −1 0  0 −13 26 17 9  L3 ←− L3 − 2 × L2 −− − − − − −→ −−−−−−− 0 −26 52 34 18   C2 ←− C2 − C1 1 1 −1 −1 0  0 −13 26 17 9  C3 ←− C3 + C1 0 0 0 0 0 C4 ←− C4 + C1 − − − − − −→  −− − − − − −  C3 ←− C3 + 2 × C2 1 0 0 0 0  0 −13 26 17 9  C4 ←− C4 + 17 × C2 13 9 0 0 0 0 0 C5 ←− C5 + 13 × C2 −− − − − − − − − − − − − − − − −→   1 0 0 0 0  0 −13 0 0 0  C2 ←− − 1 C2 −− − − − −→ − − − − 13 − − 0 0 0 0 0   1 0 0 0 0  0 1 0 0 0  0 0 0 0 0    2.      1 2 1 1 −5 1   2 2 3   1 −1 1  0 0 1  1 1  2  1 0 2 −5 2 −1 0   1 1 1  L2 ←−L2 −L1  0   3  L3 ←−L3 −2×L1  0   −2  L4 ←−L4 −L1  0 −−−−−−− −−−−−−→ 1 0 2 −7 −2 −3 0  1 0   1 1 L2 ←− − L2  7− −−−− −3 − − − − → 1 72 .6 Teoria das Matrizes Exemplo 19 Pelo processo de condensação determine-se a forma canónica de cada uma das seguinte matrizes   1 1 −1 −1 0 4 9  1.

3. obviamente. constitui uma submatriz ocupando as primeiras 3 linhas e colunas da matriz. Atente-se que o objectivo é criar uma matriz onde a identidade de ordem igual à característica da matriz. Utilizando operações elementares sobre linhas obtém-se:           1 0 0 0 0 1 0 0 0 0 2 1 0 0 0 0 1 0 0 0 1 0 1 0 0 0 0 1 0 0      L1 ←− L1 − L3   −− − − − − −→  −−−−−         1 0 0 0 0 2 1 0 0 0 0 0 1 0 0    L1 ←− L1 − 2 × L2 −− − − − − − −→  −−−−−−−−      Utilizando operações elementares sobre colunas obtém-se:          1 0 0 0 0 2 1 0 0 0 1 0 1 0 0    C2 ←− C2 − 2 × C1      C3 C3 C  − − −←−− −− −1−  − − − − − − −→ − − 1 0 0 0 0 0 1 0 0 0 0 0 1 0 0      73 . ou com operações elementares sobre colunas. Ou prosseguimos com operações elementares sobre linhas. neste caso.6 Teoria das Matrizes  1 0  0  0 0  1  0   0   0 0 2 1 −2 −3 0 2 1 0 0 0   1 1 0 0   L ←−L3 +2×L2   1  3  L4 ←−L4 +3×L2  0 −− − − − − −  0 −3 − − − − − −→ 0 1  1 0   1   0  0 2 1 0 0 0  1 0   L ←−L4 +3×L3 1  4  L ←−L4 −L −3 − −4− − − − 3→ −−−−−− − 1 A partir deste ponto temos duas alternativas possíveis. sendo os restantes elementos da matriz nulos.

Nota 16 O termo ”linear” significa que se trata de uma equação do primeiro grau em cada uma das incógnitas.9. Exemplo 20 Classifiquemos as seguintes equações relativamente à sua natureza linear (ou não-linear): • x + y − y 2 = 10 é uma equação não-linear uma vez que tem a parcela não linear −y 2 . Os escalares {ai }j=1.n ∈ K designam-se por coeficientes da equação. • x2 + y 3 = 0 é uma equação não-linear uma vez que tem as parcelas não lineares x2 e y 3 ..9 Resolução de Sistemas de Equações Lineares Nesta secção focaremos o problema que consiste na resolução de sistemas de equações lineares. • x + 2y + 6z = 7 é uma equação linear nas variáveis x. Uma equação linear em que as parcelas associadas às incógnitas surgem no termo esquerdo da equação e o termo independente constitui o termo direito... A aplicação da Teoria das Matrizes estudada ao longo das últimas secções revelar-se-á de fundamental importância para este estudo... • xy − x + y − 12 = 0 é uma equação não-linear uma vez que tem a parcela não linear xy...1 Enquadramento Teórico Definição 35 (Equação Linear) Seja K um corpo. Definição 36 (Sistema de Equações Lineares) Seja K um corpo.n−1 xn−1 + ain xn = bi 74 . o escalar b ∈ K designa-se por termo independente e os elementos {xi }j=1. Iniciase esta exposição com algumas definições. • x + y − 2 = 0 é uma equação linear nas variáveis x e y. Considere-se um conjunto de m equações lineares da forma ai1 x1 + ai2 x2 + · · · + ai..n ∈ K designam-se por incógnitas (ou variáveis) da equação. diz-se escrita na forma canónica.6 Teoria das Matrizes 6. A igualdade a1 x1 + a2 x2 + · · · + an−1 xn−1 + an xn = b designa-se por equação linear. Basta verificar que a equação pode ser reescrita na forma canónica como x + y = 2. 6. y e z.

{bi }i=1.n ∈ K. cujo elemento xj é precisamente a j-ésima incógnita. • As incógnitas do sistema.n−1 xn−1 + a1n xn = b1   a21 x1 + a22 x2 + · · · + a2. B e X pode ser escrito como sendo a equação matricial : AX = B (9) Note-se que o produto de matrizes AX é uma matriz do tipo Mm×1 (K).. Qualquer sistema de m equações a n incógnitas pode ser escrito na forma matricial se atendermos ao seguinte: • Os coeficientes do sistema. precisamente o tipo da matriz B.. a j − esima coluna da matriz A é composta ´ pelos coeficientes da variável xj nas m equações do sistema.m ∈ K.... so qual se representa do seguinte modo:   a11 x1 + a12 x2 + · · · + a1.6 Teoria das Matrizes Quando se pretende resolver simultaneamente todas as equações. Exemplo 21 Consideremos os seguintes sistemas de equações lineares e a sua representação na forma de equações matriciais: ½ x + y = 1800 • 2 1 3 x + 2 y = 1100 O sistema pode ser escrito na forma matricial do seguinte modo: 75 .m. os escalares {bi }i=1.. assim.... {xj }j=1.. {aij }i=1. • Os termos independentes do sistema....n−1 xn−1 + a2n xn = b1  ···   am1 x1 + am2 x2 + · · · + am.n ∈ K designam-se por coeficientes do sistema... cujo elemento aij é precisamente o coeficiente da incógnita xj na i-ésima equação. podem ser descritos como uma matriz A ∈ Mm×n (K).m..... o sistema de equações definido pelas matrizes A. A cada coluna da matriz de coeficientes...n .. podem ser descritas como uma matriz coluna X ∈ Mn×1 (K). Nestas circunstâncias.. A..m ∈ K designam-se por termos independentes do sistema. podem ser descritos como uma matriz coluna B ∈ Mm×1 (K).. cujo elemento bi é precisamente o termo independete da i-ésima equação.. corresponde uma incógnita..... j=1..n−1 xn−1 + amn xn = b1 (8) Os escalares {aij }i=1. diz-se que se tem um sistema de m equações lineares nas n incógnitas {xj }j=1.n ∈ K.. j=1.

• A matriz A designa-se por matriz simples do sistema e a matriz [ A| B] designa-se por matriz ampliada. reescrito na forma canónica. 76 . caso contrário dir-se-á não homogéneo.6 Teoria das Matrizes · • ½ 3x + 2y + z = 39 2x + 3y + z = 34 1 2 3 1 1 2 ¸· x y ¸ = · 1800 1100 ¸ Este sistema pode ser escrito matricialmente na forma: ·   10 + 11x + 12y = 0 20 + 21x + 22y = 0 •  30 + 31x + 32y = 0 ¸  · ¸ x  y  = 39 34 z  3 2 1 2 3 1 O sistema acima. B ∈ Mm×1 (K) e X ∈ Mn×1 (K). onde A ∈ Mm×n (K). • O sistema dir-se-á homogéneo se B=0. • Designa-se por solução do sistema a toda a matriz D ∈ Mn×1 (K) tal que AD = B. apresenta-se do seguinte modo:   11x + 12y = −10 21x + 22y = −20  31x + 32y = −30 A respectiva equação matricial será portanto da forma:  ¸ 11 12 · −10  21 22  x = −20 y 31 32 −30  Definição 37 Considere-se um sistema de equações lineares dado pela equação matricial AX = B.

• Diz-se que o sistema de equações AX = B é possível quando tem pelo menos uma solução. então P −1 existe e portanto P −1 (P A) X (P A) X IAX AX 77 = = = = P B ⇐⇒ P −1 P B ⇐⇒ IB ⇐⇒ B . Se existe uma e uma só solução o sistema dizse determinado. Basta verificar que. B ∈ Mm×1 (K) e X ∈ Mn×1 (K). existirá uma bijecção entre o conjunto de solução da equação AX = B e o conjunto de soluções da equação (AQ) Y = B. Dada uma matriz regular P∈Mm (K). B ∈ Mm×1 (K) e X ∈ Mn×1 (K). dada a regularidade da matriz P . Tal bijecção é definida por: f : {sol. Definição 38 (Solubilidade de um Sistema de Equações) Um sistema de equações lineares é dado pela equação matricial AX = B. B ∈ Mm×1 (K) e X ∈ Mn×1 (K). B 0 . isto é. 1. onde A ∈ Mm×n (K). 2. o da resolubilidade da equação matricial (9). Definição 39 (Equivalência de Sistemas de Equações) Dois sistemas de equações lineares são dados pelas equações matriciais AX = B e A0 X = B 0 onde A. os sistemas AX=B e (P A) X=P B são equivalentes. Se Q ∈ Mn (K) for uma matriz regular. quando existe pelo menos uma matriz D ∈ Mn×1 (K) tal que AD = B. Proposição 26 Considere-se um sistema de equações lineares dado pela equação matricial AX = B. de (AQ) Y = B} X0 7−→ Q−1 X0 Demonstração. 1.6 Teoria das Matrizes Do acima exposto conclui-se que o estudo da resolubilidade do sistema de equações (8) é. Os sistemas dizem-se equivalentes se toda a solução de uma equação for solução da outra. • Diz-se que o sistema é impossível se não existe nenhum D ∈ Mn×1 (K) tal que AD = B. de AX = B} → {sol. onde A ∈ Mm×n (K). pois. A0 ∈ Mm×n (K). se existir mais que uma solução diz-se indeterminado.

se P é uma matriz regular então é produto de matrizes elementares. Temos de verificar que ∀D:(AQ)D=B . Escolhamos X0 = QD. A aplicação das operações elementares reside na multiplicação da matriz A e B. É claro que X0 resolve AX = B. ao aplicarem-se as mesmas operações elementares sobre linhas à matriz A e à matriz B se obtém sistemas de equações equivalentes.X1 :AX0 =AX1 =B . à esquerda. f (X0 ) = f (X1 ) ⇒ X0 = X1 Obviamente que f (X0 ) Q−1 X0 ¡ ¢ QQ−1 X0 IX0 X0 = = = = = f (X1 ) ⇒ Q−1 X1 ⇒ ¢ ¡ QQ−1 X1 ⇒ IX1 ⇒ X1 Sobrejectividade. Temos de mostrar que ∀X0 . que consiste em operar sobre as equações que compõem um sistema de equações lineares. pela matriz P . da proposição anterior mostra que. Injectividade. regular. foi introduzida no ensino pré-universitário com o objectivo de ”simplificar” algumas equações. ∃X0 :AX0 =B : f (X0 ) = D Basta portanto exibirmos X0 . Esta prática.6 Teoria das Matrizes 2. uma vez que AX0 = A (QD) = (AQ) D = B O ponto 1. Consideremos o seguinte exemplo de enquadramento: Exemplo 22 Consideremos o seguinte sistema de equações lineares: 78 . pela proposição 22. nomeadamente no que diz respeito ao número de variáveis que contêm. Lembremos que.

agora. é simples verificar que a transformação efectuada consistiu em tomar a matriz elementar. esta equação. somava-se a primeira com a terceira equação. com duas variáveis. A equivalência dos dois sistemas nunca foi justificada rigorosamente.6 Teoria das Matrizes A ”simplificação” deste sistema de equações consistia. com três variáveis. Portanto. 79     1 2 −1 0 8 −1 1 0 1 =  0 1 0   −2 4 1  =  −2 4 1  e 0 0 1 −1 6 0 −1 6 0      0 1 1 0 1 =  0 1 0  0  =  0  −1 0 0 1 −1 . à luz da teoria das matrizes. vinha agora substituir a primeira equação do sistema. por exemplo.  1 0 1 E= 0 1 0  0 0 1  e multiplicá-la à esquerda das matrizes dos coeficientes e dos termos independentes do sistema original. para se obter 8x2 − x3 = 0. em ”eliminar” a variável x1 da primeira equação. respectivamente. embora fosse intuitivamente evidente. para se obter um sistema equivalente:   8x2 − x3 = 0 −2x1 + 4x2 + x3 = 0  −x1 + 6x2 = −1   x1 + 2x2 − x3 = 1 −2x1 + 4x2 + x3 = 0  −x1 + 6x2 = −1 Prosseguia-se agora com a resolução resolvendo explicitamente para algumas variáveis e substituindo o resultado nas equações com maior número de variáveis.  A0 B0 Note-se que as matrizes A0 e B 0 são precisamente as matrizes de coeficientes e de termos independentes do sistema após a transformação. logo regular. como não podia deixar de ser. os sistemas AX = B e A0 X = B 0 são equivalentes porque A0 = EA e B 0 = EB e E é uma matriz elementar. No entanto. para tal. é.    1 2 −1 1 A =  −2 4 1  e B =  0  −1 −1 6 0  O resultado obtido.

. . . . em que a matriz ampliada do sistema original. 0 0 0 ··· 0 0 ··· 0 0 ··· 1 0 0 0 ··· 0 0 ··· 0 0 ··· 0 0 0 0 ··· 0 0 ··· 0 0 ··· 0 .  . Para benefício do leitor apresentam-se duas demonstrações para este importante Teorema. 0 0 0 ··· 0 0 ··· 0 0 ··· 0 {z A0 ¯  ¯ ¯ · · · a0 ¯ b0  1n¯ 1  · · · a0 ¯ b0  2n¯ 2  · · · a0 ¯ b0  3n¯ 3  .j 1. . isto é: ¯   1 2 −1 ¯ 1 ¯ [ A| B] =  −2 4 1 ¯ 0  −1− − −1− − 3 L ←− L + L ¯ − − − − −→ −1 6 0 ¯ −1 ¯   0 8 −1 ¯ 0 ¯  −2 4 1 ¯ 0  = [ A0 | B 0 ] ¯ −1 6 0 ¯ −1 Do exposto anteriormente. . . [ A| B].  .j 3. . Demonstração. . . baseada na aplicação de Operações Elementares e a segunda baseada na independência linear das colunas de uma matriz. onde A∈Mm×n (K) B∈Mm×1 (K) . .j 1. . . .j 2.  . . ¯ . . .  0 · · · 0  0 · · · 0  0 · · · 0 . . ¯ . . . ¯ . . . .  0 · · · 0 | 1 a0 1 +1 a0 1 +2 · · · a0 2 a0 2 +1 · · · a0 3 a0 3 +1 · · · a0 t 1. . A matriz [ A0 | B 0 ] terá a seguinte forma:  0 · · · 0  0 · · · 0  0 · · · 0  . . .j 2. A primeira versão. ¯ . .  ¯  ··· 0 ¯ 0  ¯ |{z} }¯ 0 B 80 . . .j 0 0 0 · · · 1 a0 2 +1 · · · a0 3 a0 3 +1 · · · a0 t 2. . O sistema AX = B é possível se e só se r (A) = r ([ A| B]). . . . . . .j 0 0 0 ··· 0 0 · · · 1 a0 3 +1 · · · a0 t 3.j 1.j 1. e que constitui a matriz ampliada do sistema A0 X = B 0 .j . .j 1. é reduzida a uma matriz [ A0 | B 0 ] em forma de escada reduzida por meio de operações elementares sobre linhas. . . . . . . . . e X ∈Mn×1 (K). ¯ . Foi verificado na Proposição 16 que esta redução é sempre possível. .  . .6 Teoria das Matrizes Note-se ainda que a matriz elementar E está associada à operação de Jacobi L1 ←− L1 + L3 aplicada sobre a matriz ampliada do sistema AX = B. . . Proposição 27 (Teorema de Rouché) Considere-se um sistema de equações lineares dado pela equação matricial AX =B. .j 2. . . . permite determinar a natureza e solução (se existir) de qualquer sistema de equações lineares. . . [ A| B]. Versão 1: Comecemos por transformar o sistema AX = B no sistema equivalente A0 X = B 0 . .j 1.  0 ¯ b0  · · · atn¯ t  ¯  · · · 0 ¯ b0  ¯ t+1  ··· 0 ¯ 0  . poder-se-á concluir que o estudo da matriz ampliada de um sistema. ¯ .

. .n = 0. . 0 0 0 ···0 0 ···0 0 ···0 {z A00 Concretizemos as incógnitas do problema com os seguintes valores: 81 . Posto isto. Com efeito. Para o efeito. com i = 2.n t+1. então b0 t+1. . 0 0 0 ···0 0 ···0 0 ···1 0 0 0 ···0 0 ···0 0 ···0 0 0 0 ···0 0 ···0 0 ···0 . . ¯  ··· 0 ¯ 0  }¯ |{z} ¯ 00 B 0 · · · 0  0 · · · 0  0 · · · 0  .  ¯  · · · a00 ¯ b00  tn ¯ 00t  · · · 0 ¯ bt+1  ¯  ··· 0 ¯ 0  ¯ . Obteremos com este processo. . e que está na posição (i. Imediatamente resulta que r (A0 ) = r ([ A0 | B 0 ]). . (⇐=) Suponhamos que r (A) = r ([ A| B]). .  0 · · · 0  0 · · · 0  0 · · · 0 .j 0 0 0 ···0 0 · · · 1 a00 3 +1 · · · 0 3. . . . .j 1.  . . . . .j 1. .  0 · · · 0 | 1 a00 1 +1 a00 1 +2 · · · 0 a00 2 +1 · · · 0 a00 3 +1 · · · 0 1.n = 0. . . . sabendo que as operações elementares sobre as linha de uma matriz não alteram a sua característica. . .j . . Esta cir0 cunstância implica que b0 t+1. . e portanto a AX = B. A matriz ampliada [ A0 | B 0 ] terá portanto t linhas não nulas onde pelo menos um elemento da linha t da matriz A0 é não nulo. .j 1. . .n = 0. . . ¯ . para anular todos os elementos não nulos da coluna ji . cuja matriz ampliada [ A00 | B 00 ] está em forma de escada reduzida.6 Teoria das Matrizes (=⇒) Suponhamos que o sistema AX = B é solúvel.j 2. o que contraria a hipótese. . condição impossível. . . · · · . um sistema A00 X = B 00 equivalente a A0 X = B 0 . . . . .  . ¯ . . Seja {j1 . Ora. . . · · · jt } o conjunto dos índices de coluna associados às colunas de A0 que contêm um elemento redutor. . . pela Proposição 14. se b0 6= 0. ¯ . . pelo que.j 0 0 0 · · · 1 a00 2 +1 · · · 0 a00 3 +1 · · · 0 2. Se assim não fosse. . então A0 X = B 0 também o será. . a equação t + 1 terá a forma 0 = b0 t+1. ji ). com a seguinte forma:  ¯  ¯ ¯ · · · a00 ¯ b00  1n¯ 1  · · · a00 ¯ b00  2n¯ 2  · · · a00 ¯ b00  3n¯ 3  . Então r (A0 ) = r ([ A0 | B 0 ]). se deverá ter b0 ´ t+1. . r (A) = r ([ A| B]).n . basta exibir uma solução para o sistema A0 X = B 0 para mostrarmos que AX = B é solúvel. Através de operações elementares sobre as linhas de [ A0 | B 0 ]. . Esta situação constitui um absurdo. . se o sistema é solúvel. . ¯ . Mas sendo este sistema solúvel. . . vamos aplicar um conjunto de operações de Jacobi sobre as linhas de [ A0 | B 0 ]. .  . teríamos r (A ) < 0 0 r ([ A | B ]).  . . utilizemos o elemento redutor da i − esima ´ linha. . t. ¯ . . ou. neste caso a (t + 1) − esima linha da matriz ampliada [ A0 | B 0 ] é nula. . .  .

suponhamos que as t primeiras colunas de A são linearmente independentes podendo as restantes escrever-se de como combinação linear daquelas. obter-se-á. logo. poderemos escrever B = d1 A1 + · · · dn An . de acordo com o ponto 6. · · · . da Proposição 10.j 1. Sem perda de generalidade. An as colunas da matriz A. B não pode pertencer a um conjunto de colunas linearmente independentes o que é absurdo. Designando por A1 . como pretendido. o número máximo de colunas linearmente independentes de [ A| B] é t + 1. para o sistema AX = B. por incluir a coluna B. Não é difícil intuir que as restantes equações do 1 1 sistema também serão satisfeitas. o que mostra que foi encontrada uma solução para o sistema AX = B. em particular das t colunas de A que são linearmente independentes.···t tais que B = α1 A1 + · · · αt At . n} \ {j1 .j Ao substituirmos a solução encontrada nesta equação.j + · · · + 0 · xjt + · · · + a00 · xn = b0 1n 1 0 · x1 + · · · + 0 · xj1 −1 + xj1 + a00 1 +1 · xj1 +1 + 1. 82 . Versão 2: (⇒) Admitamos então que AX = B admite uma solução. Mas B escreve-se como combinação linear das colunas de A e. A título ilustrativo. como seria de prever b0 = b0 . isto é r (A) = r ([ A| B]). Uma das colunas deste conjunto terá de ser efectivamente B uma vez que a matriz A só possui t colunas linearmente independentes. o número máximo de colunas linearmente independentes da matriz [ A| B] terá também de ser t.6 Teoria das Matrizes xj1 = b00 1n xj2 = b00 2n ········· xj2 = b00 tn xj = 0. Logo. Tal significa que existem escalares {αj }j=1. j ∈ {1. · · · .j 1. Suponhamos. se o número máximo de colunas da matriz A linearmente independentes é t. a coluna D = {d1 . Ora. por redução ao absurdo que. · · · jt } É simples verificar que a solução acima exposta constitui uma solução para o sistema A00 X = B 00 . Conclui-se portanto que o número máximo de colunas linearmente independentes de [ A| B] é também t. consideremos a primeira equação do sistema A00 X = B 00 : +a00 1 +2 · xj1 +2 + · · · + a00 2 · xj2 + a00 2 +1 · xj2 +1 + 1. dn }. uma vez que as restantes n − t colunas de A se podem escrever à custa das t colunas que são linearmente independentes. · · · .

então. O próximo resultado enquadra o modo como se identifica a indeterminação (ou determinação) de um sistema de equações Proposição 28 Considere-se um sistema de equações lineares dado pela equação . 83 . · · · . verifica-se que B pode ser escrita como combinação linear das colunas de A. existirá apena uma coluna D ∈ Mn×1 (K) tal que AD = B. o que mostra que as colunas da matriz A são linearmente independentes e. · · · . Então. dn } forem os elementos da matriz D. isto é. d1 = d1 + λ1 . Demonstração. 2 . a solução é única. Se r (A) = t suponhamos. sendo em número de n. Como. 1 . por hipótese. · · · . 2. obtém-se (d1 A1 + · · · + dn An ) + (λ1 A1 + · · · + λn An ) = = (d1 + λ1 ) A1 + · · · + (dn + λn ) An = B + 0 = B A igualdade mostra que a coluna de elementos {d1 + λ1 . de acordo com o ponto 6. dn = dn + λn . teremos d1 A1 + · · · + dn An = B. Adicionando as duas equações termo a termo. é possível e indeterminado se e só se r (A) = r ([ A| B]) < n. · · · . dn } e {d1 + λ1 .. que as t primeiras colunas de A são linearmente independentes. dn + λn } deverão ser iguais. donde λ1 = · · · = λn = 0.. dn } tais que AD = B. B pode ser escrita como combinação das primeiras t colunas de A (as que são linearmente independentes).. existe uma coluna de escalares D = {d1 ..6 Teoria das Matrizes (⇐) Admitamos agora que r (A) = r ([ A| B])..(=⇒) Suponhamos que o sistema é possível e determinado. Utilizando escalares nulos para as restantes n − t colunas de A. é possível e determinado se e só se r (A) = r ([ A| B]) = n. ter-se-á r (A) = r ([ A| B]) = n. Se designarmos por A1 . A natureza da independência linear das colunas da matriz A pode ser estudada compondo a combinação nula destas colunas e resolvendo para os escalares. logo D resolve AX = B. da Proposição 10. sem perda de generalidade. Como r ([ A| B]) = t também e se as t primeiras colunas de A são linearmente independentes. isto é. O sistema AX = B . · · · . matricial AX = B. isto é.. 1. A combinação linear nula das colunas de A é dada por λ1 A1 + · · · + λn An = 0. · · · . · · · dn + λn } é solução da equação AX = B. conclui-se que as colunas {d1 . An as colunas da matriz A e se {d1 . B = α1 A1 + · · · αt At . onde A ∈ Mm×n (K) B∈ Mm×1 (K) e X ∈ Mn×1 (K).

A demonstração deste ponto é imediata. que denotaremos por [ A0 | B 0 ]. se designarmos por D uma coluna com elementos {d1 . após a condensação da matriz ampliada [ A| B]. Então. resta λ1 A1 + · · · + λn An = 0. Se λn+1 = 0. · · · . terá formas distintas. mas dada a independência linear das colunas da matriz A decorre imediatamente que λ1 = · · · = λn = 0. Por outro lado. a única forma de satisfazer a condição r (A) = r ([ A| B]) = n é que. a afirmação ”o sistema é determinado se e só se r (A) = n” demonstrada no ponto anterior é equivalente à afirmação ”o sistema é indeterminado se e só se r (A) 6= n”. das colunas da matriz [ A| B].6 Teoria das Matrizes (⇐=) Dado que r (A) = n e a matriz A tem n colunas então as colunas de A são linearmente independentes. · · · . dado que r ([ A| B]) = n e [ A| B] tem n + 1 colunas. resulta que D é a única coluna que satisfaz AD = B e portanto constitui solução única do sistema de equações AX = D. o que é absurdo pois por hipótese. A matriz ampliada [ A0 | B 0 ] tem a seguinte configuração: 84 . dn } tais que B = d1 A1 +· · ·+dn An é único. não poderemos ter r (A) > n pelo que a afirmação ”o sistema é indeterminado se e só se r (A) < n” tem de ser verdadeira. Subtraindo esta equação à determinada anteriormente obtém-se µ ¶ λ1 λn (µ1 A1 + · · · + µn An ) − − A1 − · · · − An = λn+1 λn+1 µ µ ¶ ¶ λ1 λn = µ1 + A1 + · · · + µn + An = B − B = 0 λn+1 λn+1 Dada a independência linear das colunas de A decorre imediatamente que µ1 = − λλ1 . 3. sabendo que o conjunto de escalares {d1 . n+1 Resta mostrar que esta combinação linear é única. Assim. Na prática. Com efeito. no caso de sistemas possíveis e determinados e indeterminados. Seja então λ1 A1 + · · · + λn An + λn+1 B = 0 uma combinação linear nula. a matriz em escada reduzida. Com efeito. deveremos ter λn+1 6= 0. que mostra a unicidade da comn+1 n+1 binação linear das colunas de A que resulta na coluna B. então as colunas de [ A| B] são linearmente independentes. Mostremos que B se pode escrever como combinação linear das colunas de A. µn = − λλn . Como o número de colunas da matriz A é n. · · · . a submatriz de A0 que ocupa as primeiras n linhas e n colunas desta seja uma matriz triangular superior. dn }. partimos de uma combinação linear nula não trivial das colunas de [ A| B]. e portanto λ1 B = − λn+1 A1 − · · · − λλn An . não trivial. Suponhamos então que também se pode ter B = µ1 A1 + · · · + µn An .

proviso. . o sistema de equações lineares dado pela equação matricial AX = B.6 Teoria das Matrizes                      1 0 0 . . .n ¯ 2  0 1 · · · a0 ¯ b0  3. . . .n ¯ 1  1 a0 · · · a0 ¯ b0  23 2.n ¯ 3  . . . ¯ . ¯ .  . .  ¯  0 0 · · · 1 ¯ b0  ¯ n  0 0 ··· 0 ¯ 0  ¯  0 0 ··· 0 ¯ 0  ¯ . ¯ . . ¯  0 0 ··· 0 ¯ 0  ¯ |{z} {z }¯ 0 0 A B Equaç˜o AX = B a (r(A)=r([ A|B]))   (r(A)6=r([ A|B])) Sol´vel u Determinado Insol´vel u Exemplo 23 Estude-se a natureza do seguinte sistema de equações lineares:   x+y =0 x−y =1  4x + 2y = 1  A matriz ampliada do sistema é dada por: Procedendo à sua condensação. 0 | Nota 17 Os resultados das Proposições 27 e 28 permitem investigar aquilo a que se designa por natureza de um sistema de equações lineares. .  . . ¯ . .  .B riamente. Neste sentido. . 0 0 0 . quanto à sua natureza. ¯ . obtém-se o seguinte resultado: ¯  1 1 ¯ 0 ¯ [ A| B] =  1 −1 ¯ 1  ¯ 4 2 ¯ 1 85 .  . . segundo o seguinte esquema:                    Indeterminado  (r(A)=r([ A|B])<n)   (r(A)=r([ A|B])=n) ¯  ¯ ¯ a0 a0 · · · a0 ¯ b0  12 13 1. onde A ∈ Mm×n (K) ∈ Mm×1 (K) e X ∈ Mn×1 (K) pode ser classificado.  . .

o sistema é possível e determinado. a última 6 linha da matriz ampliada. o sistema é impossível. obtém-se o seguinte resultado:  2 2 −2  7 7 1 5 5 −1  2 2 2  0 0 8 0 0 −6  2 2  0 0 0 0 ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯  5 L ←− L2 − 7 L1 2 10  2 L3 ←− L3 − 5 L1 5 − − − − − − 2− → −−−−−−−  5 3 − 15  L3 ←− L3 + L2 2 − − − − −4 − − 15 − − − − − − → ¯ 2  ¯ 5 2 ¯ 8 ¯ − 15  = [ A0 | B 0 ] 2 ¯ 0 ¯ 105 8 2 2 −2 [ A| B] =  7 7 1 5 5 −1 Dado que r (A) = r ([ A| B]). Exemplo 25 Estude-se a natureza do seguinte sistema de equações lineares: ½ x1 − x2 + x3 = 1 x1 + x2 − x3 = 2 86 . corresponde à equação 0 = 105 . Exemplo 24 Estude-se a natureza do seguinte sistema de equações lineares:   2x1 + 2x2 − 2x3 = 5 7x1 + 7x2 + x3 = 10  5x1 + 5x2 − x3 = 5  ¯  ¯ 5 ¯ ¯ 10  ¯ ¯ 5 ¯  1 1 ¯ 0 ¯  1 −1 ¯ 1  L2 ←− L2 − L1 ¯ L ←− L3 − 4L 4 2 ¯ 1 −−3 − − − − − 1 − − − − − −→ ¯ ¯     1 1 ¯ 0 1 1 ¯ 0 ¯ ¯  0 −2 ¯ 1  L3 ←− L3 − L2  0 −2 ¯ 1  = [ A0 | B 0 ] ¯ ¯ −− − − − − − − − − −→ 0 0 ¯ 0 0 −2 ¯ 1  A matriz ampliada do sistema é dada por: Procedendo à sua condensação. [ A0 | B 0 ].6 Teoria das Matrizes Dado que r (A) = r ([ A| B]) = 2. Com efeito. o que é 8 manifestamente impossível.

.  0 · · · 0  0 · · · 0  0 · · · 0 . ¯ ¯ ··· 0 ¯ 0 }¯ |{z} ¯ 00                      Temos portanto um conjunto de t colunas redutoras ocupando as colunas de índices {j1 . . ¯ . . Sabemos ainda que existe uma matriz regular P que permite transformar a matriz ampliada do sistema. . de um modo geral.2 Sistemas de Equações Lineares Indeterminados Consideremos. Os sistemas indeterminados. obtém-se o seguinte resultado: · ¯ 1 −1 1 ¯ ¯ 1 1 −1 ¯ · 1 −1 1 0 2 −2 ¸ 1 L ←− L − L − − − − −→ 2 −2− − − 2− − 1 ¯ ¸ ¯ 1 0 0 ¯ ¯ 1 = [A | B ] Dado que r (A) = r ([ A| B]) = 2 < n = 3.B Mn×1 (K).j . . que destacaremos em seguida: 6. . . .9. . . . . ¯ ¯ · · · a00 ¯ b00 t tn ¯ ··· 0 ¯ 0 ¯ ··· 0 ¯ 0 . o sistema é possível e indeterminado. . representando o mesmo sistema de equações. . ¯ . numa matriz [ A00 | B 00 ]. .j 2. . . .j 0 0 ···0 0 · · · 1 a00 3 +1 · · · 0 3. mas em forma de escada reduzida que a seguir se apresenta:  ¯ ¯ ¯ 00 ¯ · · · a1n¯ b00 1 · · · a00 ¯ b00 2n¯ 2 · · · a00 ¯ b00 3 3n¯ .  0 · · · 0 | 1 a00 1 +1 · · · 0 a00 2 +1 · · · 0 a00 3 +1 · · · 0 1. . por terem múltiplas soluções requerem um estudo mais aprofundado. . . . . . . . . . . ¯ . . . . . 0 0 ···0 0 ···0 0 ···1 0 0 ···0 0 ···0 0 ···0 0 0 ···0 0 ···0 0 ···0 . . . .j 0 0 · · · 1 a00 2 +1 · · · 0 a00 3 +1 · · · 0 2. onde A ∈ Mm×n (K) ∈ Mm×1 (K) e X ∈ . . . o sistema é indeterminado.j 1.j 1. . . de quatro blocos. [ A| B]. . o sistema de equações lineares dado pela equação matricial AX = B. . . .6 Teoria das Matrizes A matriz ampliada do sistema é dada por: · ¯ ¸ 1 −1 1 ¯ 1 ¯ 1 1 −1 ¯ 2 [ A| B] = Procedendo à sua condensação. ¯ . com a forma 87 0 · · · 0  0 · · · 0  0 · · · 0  . · · · . . jt } É claro que. . Suponhamos ainda que r (A) = r ([ A| B]) < n. por troca das colunas da matriz A00 = P A é possível obter uma matriz. 0 0 ···0 0 ···0 0 ···0 {z A00 =P A B =P B . . . isto é. . . . . . . . .

n−t 0m−t. o sistema A00 Y = B 00 representa-se do 1 t seguinte modo: · It 0m−t. existem infinitas soluções.1 (2) Yn−t. · · · .n−t ¸" Yt.t · Yt.1 ≡ 0m−t.1 00(1) # (10) Esta equação matricial pode ser reescrita como um sistema de duas equações matriciais atendendo à partição em blocos escolhida. yn }. Obtém-se então: ( It · Yt. Mas existem muitas mais soluções para o sistema (P AQ) Y = P B. fazendo Y = Yt. assumindo que o corpo K tem infinitos elementos.1 0m−t. · · · .1 88 (1) (2) 00(1) . Matricialmente.n−t ¸ ¸ · Por outras palavras. Começemos por dividir em dois blocos o vector coluna das incógni¯ h iT (1) ¯ (2) 00(1) tas.n−t 0m−t. Y .1 + Ct.t Ct. 0. · · · .1 = 0m−t. · · · .1 . Dividamos tanbém em dois blocos o vector col¯ iT h 00(1) ¯ una das varáveis independentes. yt } 00(2) e Yn−t. Ora. b00 . Temos naturalmente Yt.1 = {y1 . com X = QY . b00 }. B 00 . · · · .1 ¯ 0m−t. logo.1 . onde Bt. existe uma matriz regular Q ∈ Mn (K) tal que P AQ = It C . fazendo B 00 = Bt.1 = Bt.1 (1) (2) 00(1) A segunda equação pode ser omitida uma vez que constitui a condição universal 0m−t.1 (1) 00(1) # = " Bt. Como foi referido no ponto 2 da Proposição 26. e consequentemente de AX = B. 0} 1 t tem a solução D0 = {b00 .n−t · Yn−t.1 = Bt.t Ct. · · · . (P AQ) D0 = P B mostra 1 t que QD0 é solução de (P A) X = P B. 0}.1 + Ct.1 = {yt+1 . Na realidade. 0.6 Teoria das Matrizes · It 0m−t.n−t · Yn−t. se D for uma 0 0 solução de (P A) X = P B então Q−1 D é uma solução de (P AQ) Y = P B. Resta portanto a equação: Yt. · · · .1 = {b00 . facilmente se verifica que a equação · It 0 C 0 ¸ Y = {b00 . b00 .1 (1) (2) 0m−t. A questão que se coloca de imediato é a de descrever na totalidade o conjunto das soluções do sistema (P AQ) Y = P B e consequentemente do sistema AX = B.1 + 0m−t.1 ¯ Yn−t.1 .n−t · Yn−t.

Definição 40 (Incógnitas Dependentes/Independentes) Seja AX = B a equação matricial relativa a um sistema de equações lineares. que se podem exprimir em função das var- iáveis Xn−t.n−t · Yn−t. b00 . podem ser expressas em função de n − t incógnitas. onde A ∈ Mm×n (K). Assim. ¯ iT h (1) ¯ (2) (1) (2) 00(1) A solução é dada por Y = Yt.1 A expressão acima mostra que t incógnitas. solúvel. 1 t Nota 18 A solução geral do sistema.n−t · Yn−t. foi obtida atrvés de uma sucessão de equivalências que se iniciou na equação A00 Y = B 00 . a solução geral da equação A00 Y = B 00 será dada pelo vector coluna: " (2) (2) (1) (1) 00(1) (2) Bt. Sabemos que existem matrizes regulares P ∈ Mm (K) e Q ∈ Mn (K) tais que o sistema (P AQ) Y = P B.1 − Ct. recupera-se a solução particular D0 = {b00 . o que significa que não só a expressão (11) é uma solução do sistema como também qualquer solução do sistema A00 Y = B 00 poderá ser escrita na forma dada pela expressão (11). assim será o grau de indeterminação do sistema. yn }. dada pela expressão (11).1 ∈ K n−t tal que: Gn1 = " Bt. precisamente Yn−t.1 = QYn−t.1 onde Yt. r (A).1 Dn−t.1 00(1) # (11) representadas em Yn−t. a saber {yt+1 .1 − Ct.1 . 0} já mencionada.1 − Ct. · · · . (1) (1) (2) (2) As variáveis originais Xt. com X = QY é equivalente ao sistema original e assume a forma da expressão (10).n−t · Dn−t. se Gn1 for uma solução de A00 Y = B 00 então existe (2) Dn−t. Dependendo do número de incógnitas arbitrárias.1 = Bt. 89 . · · · .1 ¯ Yn−t. se Yn−t.1 .1 Dn−t.1 − Ct. precisamente as incógnitas Yt. 0.1 = 0.1 ∈ K n−t é uma concretização arbitrária qualquer das incógnitas (2) (2) # É esta ”arbitrariedade” na escolha dos valores das incógnitas que está na base da classificação do sistema como indeterminado. Em particular. · · · .n−t · Dn−t.1 = QYt.1 . isto é.1 = Bt. O número de variáveis dependentes é igual à característica da matriz de coeficientes do sistema.6 Teoria das Matrizes Rearranjando os termos da equação acima. B ∈ Mm×1 (K) e X ∈ Mn×1 (K). obtém-se: Yt.1 .1 00(1) onde Dn−t.1 .1 designam-se por variáveis dependentes do sistema AX = B enquanto que as últimas se designam por variáveis independentes.

ponhamos Q = E1 E2 · · · Eh onde cada Ek resultou de It por trocas das colunas i e j ou das linhas i e j.1 (12) Nota 19 A expressão (12) revela que a solução geral do sistema A00 Y = B 00 é dado pela solução particular B 00 à qual se adiciona uma combinação linear das colunas da matriz cujas primeiras t linhas são compostas pela matriz C e as últimas n − t linhas pela matriz identidade multiplicada pelo escalar −1. quando se escreve ¢ ¡ −1 −1 −1 = (P A) E1 E2 · · · Eh Eh · · · E2 E1 X (P AQ) Q−1 X = (P A) E1 E2 · · · Eh Eh · · · E2 E1 X 90 .n−t −In−t ¸ Dn−t. se tem n = r (A). se o sistema é possível e determinado. Poder-se-á ainda manipular a expressão (11) para concluir que se pode escrever como: " 00(1) Bt. as mesmas trocas que foram feitas nas colunas de P A por efeito de Q. Ek = It . dado pela equação matricial AX = B.1 # − · Ct. o grau de indeterminação será nulo. possível.6 Teoria das Matrizes Definição 41 (Grau de Indeterminação) O grau de indeterminação de um sistema de equações lineares.1 0n−t. vimos na Proposição 2 18 que uma matriz deste tipo é inversa de sim mesmo.1 ) As seguintes observações auxiliarão no entendimento desta questão: ¡ ¢ 1. Nota 20 A solução geral do sistema original AX = B pode ser recuperada aplicando a matriz Q à expressão (12) para se obter: (" 00(1) Q Bt. Y . uma vez que.1 0n−t.1 # − · Ct. observa-se que a incógnita Y da equação (P AQ) Y = P B resulta de efectuar sobre as linhas da coluna incógnita. isto é. assim.n−t −In−t ¸ Dn−t. pela Proposição 28. onde A ∈ Mm×n (K) ∈ Mm×1 (K) e X ∈ Mn×1 (K) é igual ao número de . Pondo (P A) X = (P AQ) Q−1 X . Com efeito.B variáveis independentes do sistema. isto é Grau de Indeterminaç˜o = n − r (A) a Note-se que.

o produto QD0 corresponde a ”desfazer” em D0 todas as trocas que levaram de X a Y . Eh . o que se descreve em 1. e analogamente com E2 . A operação descrita em 1. em caso afirmativo. 4. Uma vez obtida uma solução D0 de (P AQ) Y = P B. Exemplo 26 Considere-se o sistema de equações dado pela seguinte equação matricial:    1 2 −1 0 2   −2 4 1 1 0   −1 6 0 0 −1  {z } | A |  x1 x2 x3 x4 x5 {z X  Assume-se que A e B são matrizes de elementos reais. 3. obtendose assim uma solução de (P A) X = P B. Na prática. trocam-se as linhas i e j de X por efeito da mesma matriz E1 (à esquerda) obtendo-se E1 X. é que é permitido. Começa por se condensar a matriz ampliada [ A| B]. para a sua resolução (os elementos redutores utilizados encontram-se assinalados em cada passo):  1  −2 −1  2 4 6 2 8 8 2 8 0 −1 1 0  1 L2 ←− L2 + 2L1 0  L3 ←− L3 + L1 −1 −− − − − − − → −−−−−−  −1 0 2 1 −1 1 4 2  L3− − − 3− − 2 − ←− L − L − − − − −→ −1 0 1 0  −1 0 2 1 −1 1 4 2  = [ A0 | B 0 ] 0 −1 −3 −2 0 1 0 2 0 −1    =   | }  1 0  −1 {z } B A matriz ampliada encontra-se em forma de escada e. 2. Como r (A) < n 91 1  0 0  1  0 0 . ao mesmo tempo que se trocam as colunas i e j da matriz P A por efeito de E1 (à direita) e se obtém P AE1 . Assim.6 Teoria das Matrizes é possível verificar que. trocar colunas na matriz P A desde que se efectue a respectiva troca de linhas na coluna incógnita X. na resolução da equação (P A) X = P B. dado que r ([ A0 | B 0 ]) = r ([ A| B]) = r (A) = 3 conclui-se que o sistema é possível. · · · . é muito útil na exposição teórica da resolução de uma equação matricial mas na resolução de problemas poderá dispensar-se como adiante veremos. ao mesmo tempo que averiguamos àcerca da solubilidade da equação. vamo-nos encaminhando.

6 Teoria das Matrizes conclui-se adicionalmente que o sistema é indeterminado com grau de indeterminação n − r (A) = 5 − 3 = 2. A partir da equação (P A) X = P B poderemos escrever. sabemos que existe uma matriz regular. o sistema é Possível e Indeterminado com grau de indeterminação 2. Prossegue-se o processo de condensação até a matriz ampliada estar na forma de escada reduzida (os elementos redutores encontram-se devidamente assinalados):  1   0 0  1  0 0  1 0  0 1 0 0 2 8 0 2 1 0 −3 4 −1 8 0  −1 −1 0 −1 −1 8 0 −1 4 1 8 0 1 -1 0 1 1 1 2 1 8 2 4 −3 2 3 1 2 1 4 1 2 1 2 1 4  1  L2 ←− 1 L2 8 2  L3 ←− −L3 −− − − −→ −−−−− −2   1  L2 ←− L2 − 8 L3 L1 ←− L1 + 1 L3 − − − − − − 4− → −−−−−−−  7 1 4 1 0  8 3 2  L1 ←− L1 − 2L2 −− − − − −→ −−−−−− 1 0 1 0 3 −3 4 −1 8 0 2 0 0 1 Neste ponto. tal que: 1 PA =  0 0  0 1 0 −3 4 −1 8 0 0 0 1  1  e PB =  0  2 3 7 4 1 8 1  0 0   Consideremos agora 3 alternativas para a determinação da solução geral do sistema: Alternativa 1 Esta alternativa é baseada na descrição teórica acima realizada. Em suma. trocando as colunas 3 e 4 da matriz P A o sistema: 1  0 0 |  0 1 0 0 −3 4 0 −1 8 1 0 {z   1 ¡ −1 ¢  Q X = 0  2 3 | {z } } 7 4 1 8  P AQ PB Naturalmente que a matriz Q será dada pela matriz identidade de ordem 5. P . onde as colunas 2 e 3 foram trocadas: 92 .

0. y3 } são as variáveis dependentes e {y4 .1 02. I2 = 8 8 0 0 1 2 0 3 ¸ · α1 é um vector de escalares pertencentes ao corpo K (neste caso e D2.6 Teoria das Matrizes É fácil verificar que a coluna D0 = {1. 0. y2 .2 −I2 ¸ D2. 02. 0. Tem-se assim a solução geral. e a característica da matriz dos coeficientes é 5. Y . 2. Dado que o sistema é indeterminado de ordem 2.2 =  − 1 1 . C3. α1 . a solução geral do sistema (P AQ) Y = P B é dada por: "  00(1)   Q=    1 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 1 0 0 0 0 0 0 1       B3.1 = α2 K = R). 0} (basta trocar as linhas 3 e 4 de D0 ) é solução de (P A) X = P B.1 =  0 . 0. α2 ∈ R 0  −1      ¸          Q       −     ·  α1 3   α2 0  −1 = 93 .1 # − · C3. y5 } as variáveis independentes. de (P AQ) Y = P B dada por       y1 y2 y3 y4 y5   1 0 2 0 0   −3 4 −1 8 0 −1 0 7 4 1 8 A solução geral do sistema (P A) X = B e portanto AX = B será dada por:  y1 y2 y3 y4 y5         =Q          1 0 2 0 0   −3 4 −1 8 0 −1 0 7 4 1 8     =         −     · ¸  α1 3   α2 .1   3 7  · ¸ · ¸ 1 −4 4 0 1 0 00(1) onde B3. onde {y1 .1 = . 0} é uma solução particular do sistema (P AQ) Y = P B pelo que D = QD0 = {1. 2. logo de AX = B.

evitando assim potenciais erros devido às trocas das colunas de (P A). x2 = b0 = 0 e x4 = b0 = 2. as 11 21 31 variáveis independentes {x3 . a coluna D = {1. dizendo que a solução geral da equação AX = B é dada por:  x1  x2   x3   x4 x5   3   1 4  0  1       8    =  0  + α1  1  + α2         2  0   0 0   −7 4 −1 8 0 −3 1  1  0  =  0   2 0  3  1 4  1 0   8  2  + Q 0    1 0  0 0   3 −7 4 4   1 −1 8   8 + 1 0     0 −3 0 1 −7 4 −1 8 −3 0 1   · ¸  α1   α2 =  · ¸  α1   α2     . α1 . donde se deduz imediatamente a solução particular x1 = b0 = 1. 2. x5 }. Cada uma dessa colunas terá dimensão 5 × 1 (uma vez que n = 5). α2 ∈ R   Alternativa 2 Nesta alternativa. 0} é uma solução particular do sistema (P A) X = P B. Às restantes variáveis. que é 2) cuja combinação linear completará a expressão da solução geral do sistema. as restantes posições serão preenchidas com 94 . Assim. a coluna Vi associada à variável independente xi terá o escalar 1 na posição i e os escalares 0 nas posições associadas às restantes variáveis independentes que não xi . 2. Resta determinar as duas colunas (relativas ao grau de indeterminação do sistema. O sistema a resolver é portanto:  1  0 0 | 0 1 0 −3 4 −1 8 0 {z 0 0 1  1 X =  0  2 3 | {z } } 7 4 1 8   PA PB As colunas redutoras da matriz P A têm índices {1. 0. 0. correspondendo às variáveis dependentes {x1 . exibir-se-á a solução geral do sistema partindo da equação (P A) X = P B. x4 }.6 Teoria das Matrizes   = Q     Conclui-se. x2 . Como regra geral. associadas a colunas não redutoras associa-se o escalar 0: x3 = x5 = 0. 4}.

exibir-se-á a solução geral do sistema partindo da equação (P A) X = P B. como na alternativa 2:  1  0 0 | 0 1 0 −3 4 −1 8 0 {z 0 0 1  1 X =  0  2 3 | {z } } 7 4 1 8   PA PB 95 . α1 . O sistema a resolver é.6 Teoria das Matrizes os escalares constantes da i − esima coluna da matriz P A multiplicados por ´ −1. e por aquela ordem. é possível deduzir a solução geral de forma intuitiva. Vejamos então a forma deste vectores coluna no caso presente: • Variável independente x3 :    3 ?  4  ?   1     1  → V3 =  8 V3 =   1    ?   0 0 0                 • Variável independente x5 :    −7 ? 4   ?   −1    8 V5 =  0  → V5 =    0    ?   −3 1 1 Como se confirma. a solução geral de (P A) X = P B e portanto de AX = B será:  x1  x2   x3   x4 x5  1 0      =  0  + α1 V3 + α2 V5 =    2  0    3   7 1 −4 4 0  1   −1    8   8 =  0  + α1  1  + α2  0      2 0  −3 0 0 1    Alternativa 3    . α2 ∈ R   Nesta alternativa. evitando assim potenciais erros devido às trocas das colunas de (P A). Reescrevendo o sistema na forma algébrica.

x3 . x2 . no vector acima. x3 . x5 ∈ R   Este vector pode ser reescrito com a soma de três vectores: um vector de termos independentes. x5 ∈ R 8 −3x5       Assim. x5 }:  x1  x2   x3   x4 x5  1 + 3 x3 − 7 x5 4 4   0 + 1 x3 − 1 x5 8 8   → x3     2 − 3x5 x5      . obtém-se: = = = 1 0 2 + 3 x3 4 + 1 x3 8 − 7 x5 4 − 1 x5 . outro de termos em x3 e outro de termos em x5 obtendose:  1 + 3 x3 − 7 x5 4 4  0 + 1 x3 − 1 x5 8 8   x3   2 − 3x5 x5 3 4 x3 1 8 x3 Colocando em evidência os escalares x3 e x5 :   1 0      0 +    2  0  − 7 x5 4   − 1 x5   8 x3  +  0   0   −3x5 0 x5       1  0      → 0 +      2  0   3 4 x3 1 8 x3 − 7 x5 4   − 1 x5   8 x3  +  0   0   −3x5 0 x5                 3   7 1 −4 4  0  1   −1     8   8  =  0  + x3  1  + x5  0        2 0  −3 0 0 1 96 . x4 } pelas respectivas expressões em função de {x3 . x5 } substituindo. as variáveis dependentes {x1 . a solução geral dada por:  x1  x2   x3   x4 x5 poderá ser reescrita em função das variáveis independentes {x3 .6 Teoria das Matrizes Na forma algébrica o sistema tomará a forma:   x1    x1 x  2 x4 − 3 x3 4 − 1 x3 8 + 7 x5 4 + 1 x5 8 +3x5 =1 =0 =2 x2 x4 Resolvendo este sistema em ordem às variáveis dependentes.

[ A| B]. Note-se que [ A| B] ∈ Mm×(n+1) (K).~   Indeterminado     (r(A)=r([ A|B])<n)      Grau de Indeterminação       (n−r(A)) Sol´ u   (r(A)=r([vel  A|B]))   Equaç˜o AX = B a     Determinado   (r(A)=r([ A|B])=n)        Insol´vel  u (r(A)6=r([ A|B])) Note-se que. 6. o grau de indeterminação. resume-se no seguinte quadro: Natureza de um Sistema de Equaco es Lineares .3 Algoritmo de Gauss-Jordan O algoritmo de Gauss-Jordan é um método que permite resolver de forma sistemática um sistema de equações lineares dado pela equação matricial AX = B.B • Condensar a matriz ampliada do sistema. Ter-se-á então: ´ 1 ≤ c1 < c2 < · · · < cr ≤ n + 1 97 . no caso indeterminado. por exemplo. numa matriz em forma de escada reduzida [ A0 | B 0 ]. α2 ∈ R   Nota 21 A apresentação da solução geral do sistema em forma matricial ou algébrica é indiferente a menos que uma das formas seja especificamente solicitada. α1 e α2 . α1 . poderemos sombolizá-los por. .9. O estudo da Natureza de um sistema de equações lineares. onde A ∈ Mm×n (K) ∈ Mm×1 (K) e X ∈ Mn×1 (K). para se obter a já conhecida expressão geral das soluções de AX = B:  x1  x2   x3   x4 x5   3   7 1 −4 4  0  1   −1     8   8  =  0  + α1  1  + α2  0        2 0  −3 0 0 1       . requer que se identifique. a natureza de um sistema.6 Teoria das Matrizes Como x3 e x5 : são quaisquer escalares reais. • Suponha-se que [ A0 | B 0 ] tem r linhas não-nulas e que o elemento redutor na i − esima linha ocorre na coluna ci para 1 ≤ i ≤ r.

10 Matrizes com propriedades especiais Nesta secção distinguem-se algumas matrizes que. O sistema é indeterminado com grau de indeterminação n − r. · · · . O sistema é possível. c2 = 2. 6. correspondente à equação: 0x1 + 0x2 + · · · + 0xn = 1 obviamente insolúvel Caso 2 cr ≤ n. Diz-se que a matriz A é idempotente se A2 = A. cn = n e o sistema é determinado e terá a solução única: £ b0 1 b0 2 b0 n ¤T ··· =⇒ Se r < n. a última linha não-nula £ ¤ de [ A0 | B 0 ] tem a forma 0 0 · · · 1 . onde: 1 ≤ cr+1 < c2 < · · · < cn ≤ n Caso 1 cr = n+1. =⇒ Se r = n. então c1 = 1. se enquadram numa definição particular. xcr nas variáveis independentes xcr+1 . · · · . Definição 42 (Matriz idempotente) Seja A ∈ Mn (K). xcn :   xc1 = b0 − a0 r+1 xcr+1 − · · · − a0 n xcn 1 1c 1c ····································  xcr = b0 − a0 r+1 xcr+1 − · · · − a0 n xcn r rc rc Soluções particulares do sistema podem ser obtidas concretizando as variáveis independentes com valores particulares de K. Note-se que r ≤ n. Daremos uma breve definição de cada um destes tipos de matrizes assim como um exemplo ilustrando a respectiva popriedade. Efectivamente.6 Teoria das Matrizes Suponha-se ainda que as restantes colunas de A0 terão índices cr+1 . A solução geral obtem-se exprimindo as variáveis dependentes xc1 . 98 . · · · . pelas suas propriedades. · · · . cn . existirão soluções múltiplas. O sistema é impossível.

A diz-se nilpotente de ordem p. Uma propriedade importante das matrizes equivalentes traduz-se no seguinte resultado: 99 . A matriz A diz-se involuntória se A2 = I.6 Teoria das Matrizes · ¸ Exemplo 27 A matriz A = · 8 −28 2 −7 ¸· 8 −28 2 −7 ¸ = 8 × 8 + (−28) × 2 8 × (−28) + (−28) × (−7) 2 × 8 + (−7) × 2 2 × (−28) + (−28) × (−7) · ¸ 8 −28 = 2 −7 · 8 −28 2 −7 é idempotente uma vez que: ¸ Definição 43 (Matriz nilpotente) Seja A ∈ Mn (K). − 11 2  1 Exemplo 29 É simples confirmar que a matriz A = 2 involuntória. B ∈ Mn×m (K) dizem-se equivalentes se existem matrizes regulares P ∈ Mn (K) e Q ∈ Mm (K) tais que A = P BQ.  0 0 0 Exemplo 28 A matriz A =  1 2 −1  é nilpotente de ordem 3 uma vez 1 4 −2 que:   0 0 0  1 2 −1  6= 0 1 4 −2 2    0 0 0 0 0 0  1 2 −1  6=  1 0 0  6= 0 1 4 −2 2 0 0 3  0 0 0  1 2 −1  = 0 1 4 −2   Definição 44 Seja A ∈ Mn (K). − 39 4 3 5 2 − 39 4 4 3 2  é Definição 45 (Matrizes Equivalentes) Duas matrizes A. Se p é o menor inteiro para o qual Ap = 0. A matriz A diz-se nilpotente se Ap = 0 para algum inteiro p.

Definição 46 (Matrizes Semelhantes) Duas matrizes A. Como A = P BQ resulta imediatamente r (A) = r (B). B ∈Mn(K) dizemse semelhantes se existe uma matriz regular P ∈Mn (K) tal que A = P BP −1 . equivalentes têm a mesma característica. 100 . Por definição. B ∈ Mn×m (K). Demonstração. Pelo ponto 4 da Proposição 18 temse r (P BQ) = r (BQ). existem matrizes regulares P ∈ Mn (K) e Q ∈ Mm (K) tais que A = P BQ. A.6 Teoria das Matrizes Proposição 29 Duas matrizes. Pela Proposição 23 tem-se r (BQ) = r (B). que se definem em seguida. Um caso particular de equivalência de matrizes é o de semelhança de matrizes.

Sign up to vote on this title
UsefulNot useful