You are on page 1of 100

Álgebra Linear

Índice

Lógica e Demonstração 3
1 Demonstração Directa 3

2 Recíproco e Contrapositivo 3

3 Demonstração Indirecta ou por Redução ao Absurdo 4

4 Demonstração por Indução Matemática 5

Matrizes e Determinantes 7
5 Nota Histórica 7

6 Teoria das Matrizes 15


6.1 Definições e Generalidades . . . . . . . . . . . . . . . . . . . . . . 15
6.2 Álgebra Matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
6.2.1 Soma de matrizes. . . . . . . . . . . . . . . . . . . . . . . 18
6.2.2 Multiplicação de uma matriz por um escalar. . . . . . . . 20
6.2.3 Multiplicação de matrizes. . . . . . . . . . . . . . . . . . . 22
6.2.4 Multiplicação por blocos. . . . . . . . . . . . . . . . . . . 27
6.3 Transposição de matrizes. Matrizes Simétricas. . . . . . . . . . . 30
6.4 Traço de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . . 33
6.5 Dependência e independência lineares de filas paralelas de uma
matriz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
6.6 Característica de uma matriz. Operações elementares. . . . . . . 41
6.6.1 Operações Elementares . . . . . . . . . . . . . . . . . . . 42
6.6.2 Determinação da Característica de Linha de uma Matriz . 51
6.7 Inversão de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . 56
6.7.1 Definições e Resultados . . . . . . . . . . . . . . . . . . . 56
6.7.2 Determinação da Inversa de uma Matriz Regular . . . . . 66
6.8 A Característica Revisitada . . . . . . . . . . . . . . . . . . . . . 70
6.9 Resolução de Sistemas de Equações Lineares . . . . . . . . . . . . 74
6.9.1 Enquadramento Teórico . . . . . . . . . . . . . . . . . . . 74
6.9.2 Sistemas de Equações Lineares Indeterminados . . . . . . 87
6.9.3 Algoritmo de Gauss-Jordan . . . . . . . . . . . . . . . . . 97
6.10 Matrizes com propriedades especiais . . . . . . . . . . . . . . . . 98

2
2 Recíproco e Contrapositivo

Lógica e Demonstração
Resumem-se, neste capítulo, os três métodos de demonstração matemática ex-
istentes, e cuja aplicação será assídua ao longo de todo o texto.

1 Demonstração Directa
O modo directo de demonstrar a proposição A ⇒ B consiste em determnar
uma sequência de teoremas e/ou axiomas aceites na forma Ai ⇒ Ai+1 , para
i = 1, · · · , n de modo a que A1 ⇒ A e An ⇒ B. A dificuladade está, obviamente,
em encontrar a sequência de axiomas e/ou teoremas que preenchem o vazio entre
A e B. A afirmação A designa-se por hipótese, ou seja, aquilo que é dado e a
afirmação B designa-se por tese, isto é, a conclusão. O método assim descrito
denomina-se raciocínio dedutivo.
Consideremos o seguinte Teorema ilustrativo:

Teorema 1 Seja m um inteiro par e p um inteiro qualquer. Então m × p é um


inteiro par.

Demonstração.
1. m é um inteiro par (Dado, por hipótese).
2. existe um inteiro q tal que m = 2 × q (Definição de um número inteiro
par).
3. m × p = (2q) p (Utilizando o axioma a = b ⇒ ac = bc).
4. m × p = 2 (qp) (Pela propriedade associativa da multiplicação).
5. m × p é um inteiro (Pela definição de um número inteiro par).

2 Recíproco e Contrapositivo
Definição 1 Considere-se a proposição Π da forma A ⇒ B : se a hipótese A
se verifica então a tese, B, também se verifica. O recíproco da proposição Π é
a proposição B ⇒ A.

3
3 Demonstração Indirecta ou por Redução ao Absurdo

O recíproco de uma proposição Π consiste em inverter os papéis da hipótese


e da tese de Π. Há muitas situações em que o recíproco e uma proposição ver-
dadeira não é verdadeiro. Por exemplo, a proposição a = b ⇒ ac = bc, ∀a,b,c∈R é
sempre verdadeira, mas ac = bc ⇒ a = b não é verdadeira para quaisquer
a, b, c ∈ R; basta, evidentemente, que c = 0. Outras situações há, no entanto,
em que uma proposição e o seu recíproco são ambas verdadeiras.

Definição 2 Se a proposição A ⇒ B e o seu recíproco, B ⇒ A, são ambos


verdadeiros diz-se que A se verifica se e só se B se verifica. Alternativamente,
diz-se que A e B são equivalentes e escreve-se A ⇐⇒ B.

Existe uma proposição, formada a partir de qualquer proposição Π, que é


verdadeira sempre que Π é verdadeira: o contrapositivo de Π.

Definição 3 Considere-se uma proposição Π : A =⇒ B. A proposição ∼ B =⇒∼


A designa-se por contrapositivo de Π.

Exemplo 1 Considere-se a seguinte proposição:


(A) n é um número primo diferente de 2.=⇒ (B) n é um inteiro ímpar.
O contrapositivo desta proposição será dado por:
(∼ B) n é um inteiro par.=⇒ (A) n não é um número primo ou n = 2.

3 Demonstração Indirecta ou por Redução ao


Absurdo
Consideremos o seguinte resultado:

Proposição 1 A proposição A =⇒ B é verdadeira se e só se o seu contraposi-


tivo é verdadeiro.

Demonstração. Com recurso a uma tabela de verdade é extremamente


simples provar que (A =⇒ B) ⇐⇒ (∼ B =⇒∼ A):

A B A =⇒ B ∼B ∼A ∼ B =⇒∼ A
V V V V V V
F V V F V V
V F F V F F
F F V F F V

Note-se as colunas relativas a (A =⇒ B) e (∼ B =⇒∼ A) o que completa a


demonstração.

4
4 Demonstração por Indução Matemática

Assim, uma forma de mostrar a validade de uma proposição A =⇒ B é


mostrar a validade do seu contrapositivo ∼ B =⇒∼ A. Esta linha de raciocínio
designa-se por demonstração indirecta ou demonstração por redução ao absurdo.
Com efeito, se, partindo de ∼ B, provarmos directamente que ∼ A é verdadeira,
o absurdo reside no facto de, originalmente, assumirmos que a afirmação A é
verdadeira.
Conideremos o seguinte Teorema ilustrativo.

Teorema 2 Se p é um número natural e p2 é par, então p é par.

¡ ¢
Demonstração. Pretende-se mostrar p2 é par ⇒ (p é par), para qual-
quer p ∈ N.
Suponhamos então que existe um natural p tal que p é ímpar. Então ∃q∈N :
2
p = 2q +1. Assim, 2
¡ 2 p ¢= (2q + 1) . Desenvolvendo, virá (2q + 1)2 = 4q 2 +4q +1,
2 2
isto é, p = 4 q + q + 1. Mas então p é um número ímpar, o que é absurdo,
pois a hipótese original era a de que p2 era par. O absurdo vem de se assumir
que p é par, logo p terá de ser ímpar.

4 Demonstração por Indução Matemática


Existe um terceiro método de demonstração que difere significativamente do
método por demonstração directa e do método de transformação por indução:
a demonstração por indução matemática.
As demonstrações por indução têm a limitação de só poderem ser aplicadas a
afirmações envolvendo os números inteiros ou, indexadas aos números inteiros.
Consideremos então uma sequência de afirmações indexadas aos números in-
teiros, de modo que Π (1) é a primeira afirmação, Π (2) é a segunda afirmação
e Π (n) é a n − ésima afirmação. Suponhamos que é possível demonstrar dois
factos àcerca desta sequência:

(i) A afirmação Π (1) é verdadeira.


(ii) Se, para algum k ∈ N, a afirmação Π (k) é verdadeira então a afirmação
Π (k + 1) também é verdadeira.

Nestas circunstâncias a afirmação Π (n) é verdadeira para qualquer n ∈ N.


Conideremos o seguinte Teorema ilustrativo.

Teorema 3 A soma dos primeiros n números naturais, 1 + 2 + · · · + n, é igual


a 12 n (n + 1).

5
4 Demonstração por Indução Matemática

Demonstração. Procedamos à demonstração por Indução Matemática,


sabendo que a afirmação a demonstrar é dada por:

1
Π (n) = 1 + 2 + · · · + n = n (n + 1)
2
(i) Consideremos n = 1. Neste caso, a soma dos primeiros naturais será 1,
que é precisamente igual a 12 × 1 × (1 + 1).
(ii) Suponhamos que a afirmação é válida para qualquer k ∈ N. Mostemos
que então deverá ser válida para k + 1. Assumindo que Π (k) é verdadeira,
sabemos que:

1
Π (k) = 1 + 2 + · · · + k = k (k + 1)
2

Queremos mostrar que:

1
Π (k + 1) = 1 + 2 + · · · + (k + 1) = (k + 1) (k + 2)
2

Mas,

Π (k + 1) = (1 + 2 + · · · + k) + (k + 1) =
| {z }
Π(k)
1
= k (k + 1) + (k + 1) =
2
µ ¶
1
= k + 1 (k + 1) =
2
µ ¶
k+2
= (k + 1) =
2
1
= (k + 2) (k + 1)
2
Logo, Π (n) é válida para qualquer n ∈ N.

6
5 Nota Histórica

Matrizes e Determinantes
5 Nota Histórica
Historicamente, os primeiros esboços de matrizes e determinantes remontam ao
segundo século a. C. embora existam traços da sua existência em épocas tão
distantes quanto o séc. IV a. C. No entanto, não foi senão nos finais do séc.
XVII da nossa era que as ideias reapareceram e o seu desenvolvimento floresceu.
Não é surpreendente que os primórdios das matrizes e determinantes ten-
ham surgido através do estudo de sistemas de equações lineares. Os Babilónios
estudaram problemas que levaram à resolução simultânea de equações lineares.
Alguns destes problemas sobreviveram até hoje preservados em placas de argila.
Por exemplo, uma placa datada de cerca de 300 a. C. contém o seguinte prob-
lema:

Existem dois campos com uma área total de 1800 m2 . Um produz


grão à taxa de 23 de alqueire por m2 enquanto o outro produz grão à
taxa de 12 de alqueire por m2 . Se a colheita total é de 1100 alqueires
qual é a área de cada campo.

Este problema conduz, modernamente, à resolução do sistema de equações


(1) ilustrado em seguida:

½
x + y = 1800
2 (1)
3x + 12 y = 1100

Os Chineses, no período entre 200 a. C. e 100 a. C., chegaram mais próximo


da noção de matriz que os Babilónios. Efectivamente, é justo referir que o
texto chinês ”Nove Capítulos da Arte Matemática” escrito durante o período da
dinastia Han (206 a. C.-220 d. C.) ilustra os primeiros exemplos conhecidos de
métodos matriciais, descrevendo principalmente um conjunto de problemas com
regras gerais para a sua solução. Estes problemas têm um carácter aritmético e
conduzem a equações algébricas com coeficientes numéricos. A título ilustrativo
considere-se um desses problemas:

Existem três tipos de milho. Três molhos do primeiro tipo, dois do


segundo e um do terceiro completam 39 medidas. Dois molhos do
primeiro tipo, três do segundo e um do terceiro prefazem 34 medi-
das. Finalmente, um molho do primeiro tipo, dois do segundo e três
do terceiro prefazem 26 medidas. Quantas medidas de milho estão
contidas num molho de cada tipo?

Modernamente, o sistema de equações lineares (2) permite resolver o prob-


lema em aberto.

7
5 Nota Histórica


 3x + 2y + z = 39
2x + 3y + z = 34 (2)

x + 2y + 3z = 26

O autor do texto propôs um método de resolução notável: os coeficientes


das três equações a três incógnitas que compõem o sistema são dispostos como
uma tabela num ”quadro de contagem”:

1 2 3
2 3 2
3 1 1
26 34 39

Os métodos modernos dos finais do séc. XX levariam a dispor os coefi-


cientes das equações lineares em linhas, em vez de colunas, mas intrinsecamente
o método é idêntico.
Seguidamente, o autor, escrevendo em 200 a. C. instrui o leitor a multiplicar
a coluna central por 3 e subtrair a coluna da direita, tantas vezes quanto possível;
de modo semelhante, subtrai-se a coluna da direita, tantas vezes quanto possível,
da primeira coluna multiplicada por 3. Destas operações ,resulta o quadro:

0 0 3
4 5 2
8 1 1
39 24 39

Seguidamente, a coluna da esquerda é multiplicada 5 vezes e a coluna central


subtraída tantas vezes quanto possível, resultando no quadro:

0 0 3
0 5 2
36 1 1
99 24 39

Desta tabela é possível determinar, em primeiro lugar, a solução relativa-


mente ao terceiro tipo de milho, seguida do segundo e finalmente do primeiro
tipo. Este método é hoje em dia conhecido como o Método de Eliminação de
Gauss, discutido no âmbito da resolução de sistemas de equações lineares, tema
abordado na secção 6.9, que só virá a ser bem compreendido no início do séc.
XIX.
O matemático italiano Cardan, na sua obra ”Ars Magna”(1545), fornece
uma regra para resolver sistemas de 2 equações lineares, a que dá o nome de
regula de modo. Esta regra é, substantivamente, o que modernamente se designa
por Regra de Cramer para a resolução de sistemas de 2 equações lineares a 2
incógnitas, embora Cardan não tenha dado o passo decisivo e final na definição

8
5 Nota Histórica

da regra. Assim, Cardan não chega até á definição de determinante, mas, numa
perpectiva actual é possível concluir que o seu método leva efectivamente à
definição de determinante.
Muitos dos resultados associados à Teoria Elementar das Matrizes aparece-
ram antes das Matrizes serem objecto de investigação matemática. Por exemplo,
de Witt, na sua obra ”Elementos das Curvas”, publicado como parte dos co-
mentários à edição latina de 1660 da ”Geometria” de Descartes, mostra como
uma transformação dos eixos ordenados reduz a equação de uma cónica à forma
canónica. O processo consiste, modernamente, na diagonalização de uma matriz
simétrica, mas de Witt nunca raciocinou nestes termos.
A ideia de um conceito de determinante surge mais ou menos simultanea-
mente na Europa e no Japão no último quartel do séc. XVII, embora Seki, no
Japão, tenha publicado em primeiro lugar. Em 1683, Seki escreve o ”Método
para Resolver Problemas Dissimulados”, que contém métodos matriciais de-
scritos em tabelas, de forma em tudo idêntica à descrita nos métodos chineses,
acima abordados. Embora sem conter nenhuma palavra que corresponda ao
conceito ”determinante”, Seki mesmo assim introduz a noção e fornece méto-
dos gerais que permitem o seu cálculo, basados em exemplos. Utilizando os seus
”determinantes”, Seki conseguiu calcular determinantes de ordem 2, 3, 4 e 5
e aplicou-os à resolução, não de sistemas de equações lineares, mas de equaçõe
lineares.
De modo extraordinário, o primeiro aparecimento de um determinante na
Europa, ocorreu no exacto ano de 1683. Nesse ano, Leibniz escreveu a de
l’Hôpital explicando-lhe que o sistema de equações dado por:


 10 + 11x + 12y = 0
20 + 21x + 22y = 0

30 + 31x + 32y = 0

... tinha solução porque

10×21×32+11×22×30+12×20×31=10×22×31+11×20×32+12×21×30

Esta igualdade é precisamente a condição que determina que a solvabilidade


de um sistema de equações requer que o determinante da matriz dos coeficientes
seja nulo. note-se que Leibniz não utiliza coeficientes numéricos mas dois sím-
bolos, em que o primeiro indica a equação em que ocorre e o segundo a que letra
pertence. Assim, ”21” denota o que modernamente escreveríamos como a21 .
Leibniz estava convencido que a notação matemática era a chave para o pro-
gresso, tendo experimentado com várias notações para o sistema de coefcientes.
Os seus manuscritos não publicados contêm mais de cinquenta formas de repre-
sentar sistemas de coeficientes, sobre as quais trabalhou por um período de 50

9
5 Nota Histórica

anos, com início em 1678. Apenas duas publicações, em 1700 e 1710, contêm
resultados sobre sistemas de coeficientes, cuja notação é a mesma da utilizada
na carta a de l’Hôpital acima mencionada.
Leibniz utilizou o termo ”resultante” para certas somas combinatórias de
termos de um determinante. Demonstrou vários resultados sobre ”resultantes”,
incluindo o que é actualmente conhecido como a Regra de Cramer. Leibniz tam-
bém sabia que um determinante podia ser desenvolvido utilizando uma qualquer
coluna do sistema de coeficientes, no que é conhecido actualmente como o De-
senvolvimento de Laplace. Assim como o estudo de sistemas de coeficientes
de equações lineares levaram Leibniz na rota dos determinantes, o estudo de
sistemas de coeficientes de formas quadráticas resultou naturalmente num de-
senvolvimento no sentido de uma Teoria das Matrizes.
Na década de 1730 McLaurin escreveu o seu ”Tratado de Álgebra”, embora
não tenha sido publicado até 1748, dois anos após a sua morte. A obre contém
os primeiros resultados sobre determinantes, demonstrando a Regra de Cramer
para matrizes de ordem 2 e 3 e indicando como se deveria proceder para matrizes
de ordem 4.
Cramer forneceu a regra geral, que hoje aporta o seu nome, para a resolução
de sistemas de n equações a n incógnitas no artigo ”Introdução à Análise de
Curvas Algébricas”, publicado em 1750. O artigo foi motivado pelo desejo de
determinar a equação de uma curva plana que passasse por um certo número de
pontos. A regra propriamente dita surge como apêndice ao artigo, mas não é
fornecida qualquer demonstração. O seu enunciado, segundo o próprio Cramer,
é como se segue:

O valor de cada incógnita é determinado por um conjunto de n quo-


cientes, cujo denominador comum é composto de tantas parcelas
quantas as permutações de n ”coisas”.

Cramer prossegue, explicando precisamente como estas parcelas são calcu-


ladas, assim como os respectivos sinais (”+” ou ”-”). São efectivamente produ-
tos de certos coeficientes das equações. Refere ainda que os n numradores das
fracções podem ser determinados substituindo certos coeficientes neste cálculo
por termos constantes do sistema de equações.
O trabalho sobre determinantes começava agora a emergir com certa reg-
ularidade. Em 1764, Bézout forneceu métodos para calcular determinantes,
assim como Vandermonde em 1771. Em 1772, Laplace afirmou que os méto-
dos introduzidos por Cramer e Bézout eram impraticáveis. Num artigo onde
estuda as órbitas dos planetas interiores, Laplace discute a solução de sistemas
de equações lineares sem efectivamente os calcular, utilizando determinantes.
Surpreendentemente, Laplace utilizou o termo ”resultante” para referir o que
modernamente se designa por determinante; surpreendente, uma vez que é o
mesmo termo utilizado por Leibniz embora não consta que Laplace tivesse es-
tado a par do trabalho de Leibniz. Laplace propôs ainda o desenvolvimento de
um determinante, método que aporta hoje em dia o seu nome.

10
5 Nota Histórica

Num artigo de 1773, Lagrange estudou identidades para determinantes fun-


cionais de ordem 3. No entanto, este comentário é feito a posteriori, uma vez
que Lagrange não via nenhuma relação entre o seu trabalho e o de Vandermonde
e Laplace. Este artigo de 1773, sobre Mecânica, contém pela primeira vez o que
hoje é a interpretação volumétrica de um determinante. Efectivamente, La-
grange demonstrou que o tetraedro formado pelos pontos O (0, 0, 0), M (x, y, z),
M 0 (x0 , y 0 , z 0 ) e M 00 (x00 , y 00 , z 00 ) tem volume dado por

1
[z (x0 y 00 − y 0 x00 ) + z 0 (yx00 − xy 00 ) + z 00 (xy 0 − yx0 )]
6
1
que é precisamente igual a 6 do determinante da matriz

 
x x0 x00
 y y0 y 00 
z z0 z 00

O termo ”determinante” foi inicialmente introduzido por Gauss em ”Disqui-


sitiones Arithmeticae” de 1801, no decurso da discussão sobre formas quadráti-
cas. Gauss utilizou este termo porque o determinante determina as propiedades
de uma forma quadrática. No entanto, o conceito não é o mesmo que o con-
ceito moderno de determinante. Na mesma obra, Gauss dispõe os coeficientes
das suas formas quadráticas em tabelas rectangulares. Gauss descreve a mul-
tiplicação de matrizes, mas em termos de uma composição, pelo que ainda não
vislumbrava o conceito de uma Ágebra Matricial. Descreve ainda a inversão de
matrizes no contexto particular de matrizes de coeficientes relativas a formas
quadráticas.
O Método de Eliminação de Gauss, cuja aparição remonta ao texto ”Nove
Capítulos da Arte Matemática” em 200 a. C., foi utilizado por Gauss no seu
trabalho envolvendo o estudo da órbita do asteróide Pallas. Utilizando obser-
vações de Pallas feitas entre 1803 e 1809, Gauss obteve um sistema de 6 equações
lineares a 6 incógnitas. Gauss propôs um método sistemático para a resolução
de tais equações, precisamente o Método de Eliminação de Gauss sobre a matriz
dos coeficientes.
Foi Cauchy, em 1812, que usou o termo ”determinante” no seu sentido ac-
tual. O trabalho de Cauchy é o mais completo de entre os primeiros trabalhos
sobre determinantes. Reprovou os primeiros resultados e forneceu novos resul-
tados por si descobertos sobre menores complementares e matrizes adjuntas.
No seu artigo de 1812, apresentado numa conferência no Institut de France,
o teorema da multiplicação de determinantes é demonstrado pela primeira vez
embora na mesma conferência, Binet tenha apresentado um artigo contendo
uma demonstração do mesmo teorema mas menos satisfatória que a prova de
Cauchy.
Em 1826 e no contexto das formas quadráticas em n variáveis, Cauchy uti-
lizou o termo ”tableau” para a matriz de coeficientes. Descobriu os seus valores

11
5 Nota Histórica

próprios e forneceu resultados sobre a diagonalização de uma matriz, no pro-


cesso que envolvia a transformação de uma forma quadrática numa soma de
quadrados. Cauchy introduz ainda a ideia de matrizes semelhantes, mas não
o termo, e mostrou que se duas matrizes são semelhantes então têm a mesma
equação característica. Ainda no contexto das formas quadráticas, mostrou que
qualquer matriz real simétrica é diagonalizável.
Jacques Sturm forneceu uma generalização do problema dos valores próprios
no ocontexto da resolução de sistemas de equações diferenciais ordinárias. Com
efeito, o conceito de valor próprio surgiu 80 anos antes, de novo em trabalhos
sobre sistemas de equações diferenciais realizados por d’Alembert. Na altura,
d’Alembert estudava o movimento de uma corda com massas associadas em
vários pontos do seu comprimento.
Deve ser notado que nem Cauchy nem Jacques Sturm se aperceberam do
alcance e generalidade das ideias que introduziram, considerando-as apenas no
contexto específico das suas áreas de investigação. Jacobi, na década de 1830
e posteriormente Kronecker e Weierstarss nas décadas de 1850 e 1860, respec-
tivamente, também desenvolveram resultados sobre matrizes mas, de novo, no
contexto específico das transformações lineares. Jacobi publicou três tratados
sobre determinantes em 1841. Estes foram importantes na medida em que a
definição de determinante é introduzida de forma algorítmica. Para além disso,
Jacobi não especifica quais os termos dos determinantes, pelo que os resultados
se aplicam tão bem a casos onde os termos são números ou funções. Estes três
artigo de Jacobi tornaram a idieia de determinante largamente conhecida
Cayley, também escrevendo em 1841, publicou a primeira contribuição in-
glesa para a Teoria dos Determinantes. No seu artigo, utilizou duas linhas
verticais limitando uma matriz, para denotar o seu determinante, notação esta
que permaneceu até aos nossos dias.
Eisenstein, em 1844, denotou substituições lineares por uma letra única e
mostrou como adiconá-las e multiplicá-las como vulgares números, excepto no
que respeita à sua comutatividade. É justo referir que Eisenstein foi o primeiro
a pensar que as substituições lineares poderiam formar uma álgebra, como se
pode induzir de um seu artigo publicado em 1844:

Um algoritmo para o seu cálculo pode ser baseado na aplicação das


regras normais para as operações soma, multiplicação, divisão e ex-
ponenciação a equações simbólicas entre sistemas lineares. Obtêm-se
deste modo equações simbólicas correctas, apenas ressalvando que a
ordem dos factores não pode ser alterada.

O primeiro a uilizar o termo ”matriz ” foi Sylvester em 1850. Sylvester


definiu uma matriz como sendo um arranjo rectangular de termos no qual se
podiam definir vários determinantes sobre arranjos de termos contidos no ar-
ranjo global. Após ter deixado a América de regresso a Inglaterra em 1851,
Sylvester tornou-se advogado e conheceu Cayley, também advogada e que par-
tilhava com o primeiro o mesmo interesse pela Matemática. Cayley reconheceu

12
5 Nota Histórica

imediatamente o significado do conceito e matriz e, em 1853 publicaria uma


nota, mencionando, pela primeira vez, o conceito de inversa de uma matriz.
Em 1858, Cayley publicou o seu ”Memorando sobre a Teoria das Matrizes”,
o qual constitu um texto notável por conter a primeira definição abstracta de
matriz. Cayley mostra que os arranjos de coeficientes anteriormente estudados
relativos a formas quadráticase transformações lineares são casos especiais de
um conceito mais geral, o conceito de matriz. Cayley propõe uma Álegbra
Matricial onde define a adição, multiplicação, multiplicação por um escalar e
inversão. Adicionalmente, propõe uma construção explícita para a forma da
inversa de uma matriz em termos do seu determinante. Mais ainda, Cayley
mostra que, no caso das matrizes de ordem 2, qualquer matriz satisfaz a sua
equação característica. Refere que verificou o resultado para matrizes de ordem
3, propondo uma demonstração mas:
[...] não me parece necessário empreender numa demonstração for-
mal para o caso geral de matrizes de qualquer ordem [...]
O importante resultado de que uma matriz satisfaz a sua equação caracterís-
tica tem a designação especial de Teorema de Cayley-Hamilton. Qual então o
pael de Hamilton? Efectivamente, Hamilton demonstrou o caso especial para
matrizes de ordem 4, no decurso das suas investigações sobre quaterniões.
Em 1870 surgiu a Forma Canónica de Jordan no ”Tratado sobre Substituições
e Equações Algébricas”, escrito por Jordan. O conceito surge no contexto de
uma forma canónica para substituições lineares sobre o corpo finito de ordem
primo.
Frobenius, em 1878 escreveu um importante texto sobre matrizes, ”Sobre
Substituições Lineares e Formas Bilineares”, embora não pareça ao corrente do
trabalho de Cayley. Neste artigo, Frobenius trata dos coeficientes de formas e
não utiliza o termo ”matriz ”. No entanto, demonstra resultados importantes
sobre matrizes canónicas como representantes de classes de equivalência de ma-
trizes. Cita Kronecker e Weierstrass como tendo considerado casos especiais
dos seus resultados em 1874 e 1868, respectivamente. Frobenius também demon-
strou o resultado geral de que uma matriz satisfaz a sua equação característica.
Este artigo de Frobenius de 1878 também encerra a definição de característica
de uma matriz, a qual foi utilizada nas suas investigações em formas canónicas
e na definição de matrizes ortogonais.
A nulidade de uma matriz quadrada foi definida por Sylvester em 1884.
Sylvester definiu a nulidade da matriz A, denotada por n (A), como sendo o
maior i tal que todo o menor complementar de A de ordem n − i + 1 é nulo.
Sylvester estava interessado em invariantes de matrizes, isto é, propriedades que
não são alteradas por certas transformações. Sylvester demonstrou que:

máx {n(A), n(B)} ≤ n(AB) ≤ n(A) + n(B)


Em 1896, Frobenius tomou conhecimento do texto ”Memorando sobre a Teo-
ria das Matrizes” escrito em 1858 por Cayley, adoptando desde então o termo

13
5 Nota Histórica

”matriz ”. Embora Cayley tenha apenas demonstrado o Teorema de Cayley-


Hamilton para matrizes de ordem 2 e 3, Frobenius atribui generosamente o re-
sultado a Cayley, mau grado ter sido aquele o primeiro a demonstrar o teorema
no caso geral.
Uma definição axiomática de determinante foi utilizada por Weierstrass nas
suas lições e, após a sua morte, foi publicada em 1903 na nota ”Sobre a Teo-
ria dos Determinantes”. No mesmo ano, as lições de Kronecker sobre deter-
minantes também foram publicadas, de novo, postumamente. Com estas duas
publicações, a moderna Teoria dos Determinantes tomou vida própria mas levou
um pouco mais de tempo a que a Teoria das Matrizes no seu todo se estabele-
cesse como uma teoria totalmente aceite. Um importante texto, que deu às
matrizes o devido espaço dentro da Matemática foi a ”Introdução à Álgebra
Superior ” de Bôcher, publicado em 1907. Turnbull e Aitken escreveram textos
influentes nos anos 30 do séc. XX. O texto ”Uma Introdução à Álgebra Linear ”
de 1955 escrito por Mirsky deu à Teoria das Matrizes o impulso necessário para
se manter até hoje como um dos mais importantes temas das licenciaturas em
Matemática.

14
6 Teoria das Matrizes

6 Teoria das Matrizes


6.1 Definições e Generalidades
Definição 4 (Matriz) Sejam K um corpo e m e n números inteiros positivos;
designa-se por matriz sobre K (cujos elementos se designam por escalares) a
todo o quadro de elementos de K dispostos em m linhas e n colunas.

Nota 1 K, em particular, pode ser o conjunto dos números reais, R. Neste


caso, as matrizes dizem-se reais.

Para designar genericamente uma matriz utilizam-se as seguintes notações:

 
a11 a12 ··· a1,n−1 a1n 
 a21 a22 ··· a2,n−1 a2n   aij ∈ K
 
A= .. .. .. ..  = [aij ] , i = 1, ..., m (3)
 . . . .  
j = 1, ..., n
am1 am2 ··· am,n−1 amn

Nestas notações, o primeiro índice (i) do elemento genérico aij indica a


linha e o segundo (j) a coluna em que se encontra o elemento de K. Por
exemplo, a23 é o elemento da matriz que se encontra na linha 2 e na coluna
3. A matriz denotada acima mostra que, em geral, é costume designar-se uma
matriz por uma letra maiúscula (quando não houver necessidade de especificar
os seus elementos) e os elementos pela correspondente letra minúscula afectada
pelos índices convenientes. Em algumas circunstâncias é por vezes conveniente
representar o elemento (i, j) por (A)ij .

Definição 5 Designa-se por Mm×n (K) o conjunto de todas as matrizes do tipo


m × n (e lê-se ”éme-por-éne”) sobre o corpo K.

As matrizes do conjunto Mm×n (K) podem ser classificadas quanto à forma


em matrizes rectangulares ou matrizes quadradas. Relativamente às matrizes
rectangulares destacam-se alguns tipos como ilustrado na Tab. 1.
Relativamente às matrizes quadradas, estas constituem um importante caso
particular que se caracteriza pelo número de linhas (m) ser igual ao número de
colunas (n). No caso das matrizes quadradas do tipo n × n , a sua dimensão é
definida como ordem, designando-se a matriz como matriz de ordem n. Dentro
desta sub-classe de matrizes destacam-se alguns tipos como ilustrado na Tab.
2.

Definição 6 (Matriz quadrada) Designa-se por matriz quadrada de ordem


n a uma matriz A do tipo n × n. O conjunto das matrizes quadradas de ordem
n sobre um corpo K designa-se por Mn (K).

15
6 Teoria das Matrizes

Matrizes Rectangulares (m 6= n)
Designação Forma Geral
Matriz Linha
ou £ ¤
a11 a12 · · · a1n
Vector Linha
(m = 1)  
a11
 a21 
Matriz Coluna  
 .. 
ou  . 
Vector Coluna am1
(n = 1) ou
{a11 , a21 , · · · , am1 }

Tabela 1: Principais tipos de Matrizes Rectangulares

Matrizes Quadradas (m = n)
Designação  Forma Geral 
a11 a12 · · · a1n
 0 a22 · · · a2n 
Matriz Triangular Superior  
 .. .. .. 
(i > j =⇒ aij = 0)  . . . 
 0 0 ··· ann 
a11 0 ··· 0
 a21 a22 · · · 0 
Matriz Triangular Inferior  
 .. .. .. 
(i < j =⇒ aij = 0)  . . . 
 an1 an2 · · · ann 
a11 0 ··· 0
 0 a22 · · · 0 
 
 .. .. .. 
Matriz Diagonal  . . . 
(aij = 0; i 6= j) 0 0 · · · ann
ou
diag {a11 , a22 , · · · , ann }
É uma matriz diagonal em que
Matriz Escalar aij = 0, i 6= j; aij = a ∈ K, i = j
diag {a, a, · · · , a}
É a matriz escalar em que
aij = 0, i 6= j; aij = 1 ∈ K, i = j
Matriz Identidade
diag {1, 1, · · · , 1}
Representa-se por In (ou apenas I)
Neste caso identifica-se a matriz
m=n=1
[a] com o próprio escalar a ∈ R

Tabela 2: Principais tipos de Matrizes Quadradas

16
6 Teoria das Matrizes

Uma matriz diagonal pode tanbém ser entendida como uma matriz simul-
taneamente triangular superior e triangular inferior.

Definição 7 (Elementos homólogos) Dadas as matrizes A = [aij ] e B = [bij ]


do mesmo tipo m × n sobre um corpo K, designam-se por elementos homólogos
aos elementos com os mesmos índices, isto é, àqueles elementos que estão nas
mesmas linha e coluna. Por exemplo, a36 e b36 são elementos homólogos.

Definição 8 (Matrizes iguais) Dadas duas matrizes A = [aij ] e B = [bij ]


do mesmo tipo m × n sobre um corpo K, estas dizem-se iguais se os elementos
homólogos forem iguais. Denota-se simbolicamente essa igualdade por A = B.

Definição 9 (Diagonal) Seja a matriz A = [aij ] ∈ Mm×n (K). Designa-se


por diagonal principal da matriz A aos elementos

© ª
a11 , a22 , · · · , amin(m,n),min(m,n)

(que se designam por elementos principais da matriz).


Se A = [aij ] ∈ Mn (K) a diagonal principal da matriz A será dada por
{a11 , a22 , · · · , ann } e é possível definir a diagonal secundária dada pelos ele-
mentos {a1n , a2,n−1 , · · · , an1 }.

Nota 2 As diagonais de uma matriz tomam uma relevância especial quando se


consideram matrizes quadradas.

Exemplo 2 Considerem-se as seguintes matrizes e identifiquemos as respecti-


vas diagonais:
 
3 0 1 3 1
 
•  -1 2 0 -1 1 . Diagonal Principal: {3, 2, −3}. Diagonal Se-
0 -2 -3 1 1
cundária: não tem.
 
3 0
•  -1 2 . Diagonal Principal: {3, 2}. Diagonal Secundária: não tem.
0 -2
 
3 0 1
 
•  -1 2 0 . Diagonal Principal: {3, 2, −3}. Diagonal Secundária:
0 -2 -3
{1, 2, 0}.

17
6 Teoria das Matrizes

Definição 10 (Matriz nula) Designa-se por matriz nula do tipo Mm×n (K)
à matriz A = [aij ] tal que aij = 0, ∀(i,j)∈{1,...,m}×{1,...,n} . Neste caso, denota-se
A por 0m×n ou simplesmente por 0 se a ordem estiver subentendida e não hou-
ver risco de confusão com o escalar 0 (o elemento neutro para a adição do corpo
K).

Definição 11 (Matriz identidade) Designa-se por matriz identidade de or-


dem n à matriz escalar A = [aij ] ∈ Mn (K), tal que aii = 1 (onde ”1” é
o elemento neutro para a multiplicação no corpo K). Neste caso, denota-se A
por In ou simplesmente por I se a ordem estiver subentendida e não hou- ver
ambiguidade.

6.2 Álgebra Matricial


Discutem-se nesta secção as principais operações com matrizes: adição de ma-
trizes, multiplicação de uma matriz por um escalar e multiplicação de matrizes.

6.2.1 Soma de matrizes.


Definição 12 Sejam A = [aij ] , B = [bij ] ∈ Mm×n (K). Define-se soma A + B
à matriz C = [cij ], tal que cij = aij + bij , ∀(i,j)∈{1,...,m}×{1,...,n} .

Nota 3 Se as matrizes A e B não forem do mesmo tipo, isto é, se não tiverem


as mesmas dimensões e/ou o corpo subjacente não for igual, não é possível
determinar A + B, pelo que a soma de A com B diz-se indefinida.

Proposição 2 O conjunto Mm×n (K) munido da adição definida na Definição


12 constitui um grupo abeliano (ou comutativo):

1. ∀A,B∈Mm×n (K) , ∃C∈Mm×n (K) : C = A + B. Esta é a propriedade mais


simples das estruturas algébricas. Ao verificar esta propriedade diz-se
que o conjunto Mm×n (K) é um grupóide. Alternativamente, diz-se que
Mm×n (K) é fechado para a adição.
2. ∀A,B,C∈Mm×n (K) , A + (B + C) = (A + B) + C. Propriedade associativa
para a adição de matrizes.
3. ∀A,B∈Mm×n (K) , A + B = B + A. Propriedade comutativa para a adição de
matrizes.
4. ∀A∈Mm×n (K) , ∃B∈Mm×n (K) : A + B = A. A matriz B designa-se por ele-
mento neutro para a adição de matrizes e representa-se, como já veri-
ficámos, por 0, ou por 0m×n .

18
6 Teoria das Matrizes

5. ∀A∈Mm×n (K) , ∃B∈Mm×n (K) : A + B = 0. A matriz B designa-se por simé-


trico da matriz A para a adição de matrizes e representa-se por −A.
Diz-se ainda que todos os elementos A ∈ Mm×n (K) são regulares.

Demonstração.
1. Como A, B ∈ Mm×n (K), A + B ∈ Mm×n (K). Adicionalmente
(A + B)ij = [aij ] + [bij ]
= [aij + bij ]

Como aij , bij ∈ K então K é fechado para a adição, isto é aij + bij ∈ K e
portanto [aij + bij ] ∈ Mm×n (K).
2. Como A, B, C ∈ Mm×n (K) então A + (B + C) e (A + B) + C estão
definidas. Adicionalmente

{A + (B + C)}ij = [aij ] + [bij + cij ]


= [aij + (bij + cij )]
(porque a adição é associativa em K)
= [(aij + bij ) + cij ]
= [aij + bij ] + [cij ]
= {(A + B) + C}ij

3. Como A, B ∈ Mm×n (K) então A + B e B + A estão definidas. Adicional-


mente

(A + B)ij = [aij ] + [bij ]


= [aij + bij ]
(porque a adição é comutativa em K)
= [bij + aij ]
= [bij ] + [aij ]
= (B + A)ij

4. Seja A ∈ Mm×n (K) e B = 0m×n ∈ Mm×n (K). Então:

(A + B)ij = [aij ] + [bij ]


= [aij + 0]
(porque 0 é o elemento neutro da adição em K)
= [aij ]
= (A)ij

19
6 Teoria das Matrizes

5. Seja A = [aij ] ∈ Mm×n (K) e B = [bij ] ∈ Mm×n (K) tal que bij =
−aij , i = 1, ..., m; j = 1, ..., n. Então:

(A + B)ij = [aij ] + [bij ]


= [aij + bij ]
= [aij + (−aij )]
(porque ∀a∈K , ∃b∈K : a + b = 0 e b = −a)
= [0]
= (0)ij

Exemplo 3 Considerem-se os seguintes casos:


· ¸ · ¸ · ¸ · ¸
1 2 5 6 1+5 2+6 6 8
• + = =
3 4 7 8 3+7 4+8 10 12
· ¸ · ¸ · ¸ · ¸
1 3 1+3 4
• + = =
2 4 2+4 6
£ ¤ £ ¤ £ ¤ £ ¤
• 3 4 + 1 2 = 3+1 4+2 = 4 6

6.2.2 Multiplicação de uma matriz por um escalar.


Definição 13 Seja A = [aij ] ∈ Mm×n (K) e λ ∈ K um escalar. Define-se o
produto de λ por A e denota-se por λ·A (ou λA) à matriz B = [bij ] ∈ Mm×n (K)
tal que bij = λaij , ∀(i,j)∈{1,...,m}×{1,...,n} .

Proposição 3 Sejam A, B ∈ Mm×n (K) e λ, µ ∈ K. As seguintes propriedades


são verificadas:

1. λ (A + B) = λA + λB
2. (λ + µ) A = λA + µA
3. λ (µA) = (λµ) A
4. 1 · A = A. O escalar 1 designa-se por unidade ou elemento neutro do
corpo K.

Demonstração.

20
6 Teoria das Matrizes

1.

(λ (A + B))ij = λ [(aij + bij )]


= [λ (aij + bij )]
= [λaij + λbij ]
= [λaij ] + [λbij ]
= λ [aij ] + λ [bij ]
= (λA)ij + (λB)ij

2.

(λ + µ) (A)ij = (λ + µ) [aij ]
= [(λ + µ) aij ]
= [λaij + µaij ]
= [λaij ] + [µaij ]
= λ [aij ] + µ [aij ]
= (λA)ij + (µA)ij

3.

(λ (µA))ij = λ (µ [aij ])
= λ [µaij ]
= [(λµ) aij ]
= (λµ) [aij ]
= ((λµ) A)ij

4.

(1 (A))ij = 1· [aij ]
= [1·aij ]
= [aij ]
= (A)ij

Exemplo 4 Considerem-se os seguintes casos:


· ¸ · ¸ · ¸
1 2 3×1 3×2 3 6
• 3× = =
3 4 3×3 3×4 9 12

21
6 Teoria das Matrizes

· · √ ¸ ¸ · √ ¸
√ 1
• 2× √2 × 1 =
= √2
2 2×2 2 2
£ ¤ £ ¤ £ ¤
• 1
2 × 3 4 = 12 × 3 12 × 4 = 32 2

Proposição 4 O conjunto Mm×n (K) munido da adição definida na Definição


12 e da multiplicação por um escalar definida na Definição 13 é um espaço
vectorial sobre o corpo K de dimensão m · n.

Adiante se estudarão mais aprofundadamente os espaços vectoriais.

6.2.3 Multiplicação de matrizes.


Definição 14 Sejam A ∈ Mm×p (K) e B ∈ Mp×n (K). A matriz produto de A
por B, que seP
denota AB (ou A · B), é dada pela matriz C = [crs ] ∈ Mm×n (K)
p
tal que crs = i=1 ari · bis , ∀(i,j)∈{1,...,m}×{1,...,n} .

Note-se que a matriz A, que multiplica à esquerda, tem tantas colunas quan-
tas as linhas de B. O elemento crs obtém-se multiplicando os elementos da linha
r de A pelos elementos da coluna s de B, pela mesma ordem, e somando os pro-
dutos obtidos. Em nenhuma outra circunstância é possível multiplicar duas
matrizes. De um modo geral, dadas duas matrizes A e B de dimensões, respec-
tivamente m × n e p × q, os produtos C = AB e D = BA são possíveis nas
seguintes circunstâncias:

Produto Possível se ... Resultado


A × B n=p C
(m×n) (p×q) (m×q)
B × A q=m D
(p×q) (m×n) (p×n)

Exemplo 5 Considerem-se as seguinte matrizes reais:

   
−2 3 −3 2 0
A= 3 5 3  B =  −2 1 
· 3 5 −5 ¸ −1 −3
3 −5 5 £ ¤
C= D = −3 5 −3
−5 −4 −1

Os produtos possíveis são AB, BC, CA, CB, DA e DB. A título exempli-
ficativo, ter-se-á:

22
6 Teoria das Matrizes

  
−2 3 −3 2 0
AB =  3 5 3   −2 1 
3 5 −5 −1 −3
 
(−2) · 2 + 3 · (−2) + (−3) · (−1) (−2) · 0 + 3 · 1 + (−3) · (−3)
= 3 · 2 + 5 · (−2) + 3 · (−1) 3 · 0 + 5 · 1 + 3 · (−3) 
3 · 2 + 5 · (−2) + (−1) · (−1) 3 · 0 + 5 · 1 + (−5) · (−3)
 
−7 12
=  −7 −4 
1 20

Exemplo 6 Considerem-se os seguintes casos:



· ¸· ¸ · ¸
1 2 5 6 1×5+2×7 1×6+2×8
=
3 4 7 8 3×5+4×7 3×6+4×8
· ¸
19 22
=
43 50

· ¸· ¸ · ¸
5 6 1 2 5×1+6×3 5×2+6×4
=
7 8 3 4 7×1+8×4 7×2+8×4
· ¸
23 34
=
41 46

· ¸ · ¸
1 £ ¤ 1×3 1×4
3 4 =
2 2×3 2×4
· ¸
3 4
=
6 8

· ¸
£ ¤ 1
3 4 = [3 × 1 + 4 × 2]
2
= [11] = 11


· ¸· ¸ · ¸
1 −1 1 −1 1 · 1 + (−1) · 1 1 · (−1) + (−1) · (−1)
=
1 −1 1 −1 1 · 1 + (−1) · 1 1 · (−1) + (−1) · (−1)
· ¸
0 0
=
0 0

23
6 Teoria das Matrizes

Nota 4 Em geral AB 6= BA. Veja-se o exemplo 6.

Definição 15 (Matrizes comutáveis) Sejam A, B ∈ Mn (K). Se AB = BA,


diz-se que A e B são matrizes comutáveis.

É evidente que só é possível que duas matrizes sejam comutáveis se forem


quadradas. Se não o forem, ou bem que pelo menos um dos produtos não é
possível, ou, se o forem, as matrizes produto têm dimensões diferentes.

Proposição 5 Considerem-se as matrizes A = [aij ] , B = [bij ] ∈ Mm×p (K),


C = [cjk ] , D = [djk ] ∈ Mp×q (K), F = [fkl ] ∈ Mq×n (K) e o escalar λ ∈ K.
Verificam-se as seguintes propriedades:

1. (A + B) D = AD +AB e A (C + D) = AC +AD. Propriedade distributiva


da multiplicação de matrizes em relação à adição de matrizes.
2. λ (AD) = (λA) D = A (λD).
3. (AD) F = A (DF ). Propriedade associativa da multiplicação de matrizes.
4. A0 = 0 e 0A = 0. A matriz nula é o elemento absorvente para a multi-
plicação de matrizes. As 4 matrizes nulas representadas nestas expressões
são diferentes uma vez que têm dimensões diferentes. Terão de ter as di-
mensões adequadas para o produto faça sentido. As suas dimensões são,
respectivamente, p × q, m × q, q × m e q × p.

24
6 Teoria das Matrizes

Demonstração.
1. Observemos primeiro que A e B têm dimensão m×p e que D tem dimensão
p × q pelo que (A + B) D e AD + AB têm dimensão m × q.

p
X
((A + B) D)ik = (A + B)ij djk
j=1
Xp
= (aij + bij ) djk
j=1
Xp p
X
= aij djk + bij djk
j=1 j=1

= (AD)ik + (BD)ik

2. De modo semelhante se mostra que A (C + D) = AC + AD.

p
X
(λ (AD))ik = λ aij djk
j=1
p
X
= (λaij ) djk
j=1
Xp
= (λA)ij djk
j=1

= ((λA) D)ik .

Mas também,

p
X p
X
λ aij djk = λaij (λdjk )
j=1 j=1
p
X
= aij (λD)jk
j=1

= (A (λD))ik .

3. Note-se em primeiro lugar que as matrizes (AD) F e A (DF ) têm ambas


dimensão m × n.

25
6 Teoria das Matrizes

q
X
((AD) F )il = (AD)ik fkl
k=1
 
q
X Xp
=  aij djk  fkl
k=1 j=1
q X
X p
= aij djk fkl
k=1 j=1
p
à q !
X X
= aij djk fkl
j=1 k=1
Xp
= aij (DF )jl
j=1

= (A (DF ))il .

Proposição 6 O conjunto Mn (K) munido da adição definida na Definição 12


e da multiplicação definida na Definição 14 constitui um anel:

1. ∀A,B∈Mn (K) , ∃C∈Mn (K) : C = A + B. O conjunto Mn (K) é fechado para


a adição.
2. ∀A,B,C∈Mn (K) , A + (B + C) = (A + B) + C. Propriedade associativa da
adição de matrizes.
3. ∀A,B∈Mn (K) , A + B = B + A. Propriedade comutativa para a adição de
matrizes.
4. ∀A∈Mn (K) , ∃B∈Mn (K) : A + B = A. A matriz B designa-se por elemento
neutro para a adição de matrizes.
5. ∀A∈Mn (K) , ∃B∈Mn (K) : A + B = 0. Todos os elementos são regulares para
a adição de matrizes.
6. ∀A,B∈Mn (K) , ∃C∈Mn (K) : C = A · B. O conjunto Mn (K) é fechado para a
multiplicaçao.
7. ∀A,B,C∈Mn (K) , A (BC) = (AB) C. Propriedade associativa da multipli-
cação de matrizes.

26
6 Teoria das Matrizes

8. ∀A∈Mn (K) , ∃B∈Mn (K) : AB = BA = A. A matriz B é o elemento neutro


para a multiplicação de matrizes, e denomina-se por identidade de ordem
n, denotando-se por In ou simplesmente I se não houver dúvida quanto à
ordem.
9. ∀A,B,C∈Mn (K) , A (B + C) = AB + BC. Propriedade distributiva da mul-
tiplicação em relação à adição de matrizes.

Nota 5 Note-se que, se A ∈ Mm×n (K) tem-se Im A = A e AIn = A. Isto é,


desde que a matriz identidade tenha a ordem correcta para que o produto possa
ser efectuado, o produto (à esquerda ou à direita) de qualquer
³ ´
matriz A pela
1
identidade é sempre a matriz, como a seguir se demonstra :

m
X
(Im A)ik = δ ij ajk = aik = (A)ik
j=1
Xn
(AIn )ik = aij δ jk = aik = (A)ik
j=1

6.2.4 Multiplicação por blocos.


Definição 16 (Submatriz) Seja A ∈ Mm×n (K). Designa-se submatriz de A
a uma matriz formada pelos elementos de A que pertencem a algumas linhas e
algumas colunas previamente fixadas de A.

Definição 17 (Partição em blocos) Seja A ∈ Mm×n (K). Diz-se que A está


particionada em blocos se cada bloco ocupar as mesmas linhas de A que os blocos
situados à sua esquerda ou direita e ocupar as mesmas colunas de A que os blocos
situados acima ou abaixo.

Por outras palavras, para que uma matriz esteja particionada em blocos é
necessário que as submatrizes que constituem cada bloco sejam formadas por
linhas e colunas consecutivas da matriz A.
A multiplicação por blocos realiza-se da seguinte forma:

(a) Sejam A ∈ Mm×p (K) e B ∈ Mp×n (K) e C = AB.


(b) Considerem-se números inteiros p1 , p2 , · · · , ph tais que sejam verifi-
cadas as relações 1 ≤ p1 < p2 < · · · < ph < p.

27
6 Teoria das Matrizes

p1
X p2
X p
X
(c) Escreva-se cij = air brj + air brj + · · · + air brj . O
r=1 r=p1 +1 r=ph +1
| {z } | {z } | {z }
(1) (2) (h+1)
cij cij cij
(1)
elemento cij resulta de somar os produtos dos primeiros p1 elementos
(2)
da linha i de A pelos primeiros p1 elementos da coluna j de B; cij
é a soma dos produtos dos p2 − p1 elementos seguintes da linha i de
A pelos p2 − p1 elementos seguintes da coluna j de B e assim por
diante.

Em resumo, dadas duas matrizes A e B, é possível calcular o seu produto


AB por blocos se forem verificadas as seguintes condições:

(a) A ∈ Mm×p (K) e B ∈ Mp×n (K). Esta é a condição que requer que
o número de colunas da matriz que multiplica à esquerda seja igual
ao número de linhas da matriz que multiplica à direita.
(b) O número de colunas de blocos de A tem de ser igual ao número de
linhas de blocos de B.
(c) O número de colunas de cada bloco Aij tem de ser igual ao número
de linhas de cada bloco Bjt , a fim de se poder efectuar o produto
Aij Bjt .

Se, por exemplo, as colunas da matriz A, em número de 6, forem divididas


nos seguintes blocos (1, 2), (3, 4, 5), (6), então as linhas da matriz B terão de
ser divididas da mesma forma. A divisão das linhas da matriz A e colunas da
matriz B é independente uma da outra.
A multiplicação por blocos é por vezes cómoda em particular se alguns dos
blocos forem matrizes nulas ou matrizes identidades.

Exemplo 7 Considerem-se as matrizes

 
  −2 3 −3 3 5
1 0 0 0 −1 −4  3 3 5 −5 2 
 
 0 1 0 0 −3 
−3   0 1 1 1 −3 
A= 
 0  e B = 



0 1 0 1 5  3 −5 5 −5 −4 
−2 3 −5 −5 1 5  −1 −3 0 0 0 
3 5 0 0 0

Os blocos considerados na partição acima transformam a matriz A nu- ma


matriz, que em termos da partição escolhida, pode ser classificada do tipo 2 × 3.
De igual modo, a matriz B, em termos da sua partição é do tipo 3×2. O produto
C = AB considerando os blocos assinalados resulta numa matriz do tipo 2 × 2.

28
6 Teoria das Matrizes

Simbolicamente, as partições consideradas para as matrizes A e B podem ser


representadas como:
 
· ¸ B11 B12
A11 A12 A13
A= e B =  B21 B22 
A21 A22 A23
B31 B32
Consequentemente, a matriz C será particionada, em termos de blocos, como
se simboliza de seguida:
· ¸
C11 C12
C=
C21 C22
Teremos assim:

C11 = A11 B11 + A12 B21 + A13 B31 =
     
−2 3 0 £ ¤ −1 −4 · ¸
−1 −3
= I3  3 3  +  0  3 −5 +  −3 −3 
3 5
0 1 0 1 5
     
−2 3 0 0 −6 −17
=  3 3  +  0 0  +  −6 −6 
0 1 0 0 14 22
 
−8 −14
=  −3 −3 
14 23

C12 = A11 B12 + A12 B22 + A13 B32 =
     
−3 3 5 0 £ ¤ −1 −4 · ¸
0 0 0
= I3  5 −5 2  +  0  5 −5 −4 +  −3 −3 
0 0 0
1 1 −3 0 1 5
     
−3 3 5 0 0 0 0 0 0
=  5 −5 2 + 0 0 0 + 0 0 0 
1 1 −3 0 0 0 0 0 0
 
−3 3 5
=  5 −5 2 
1 1 −3

C21 = A21 B11 + A22 B21 + A23 B31 =
 
· ¸
£ ¤ −2 3 £ ¤ £ ¤ −1 −3
= −2 3 −5  
3 3 − 5 · 3 −5 + 1 5
3 5
0 1
£ ¤ £ ¤ £ ¤
= 13 −2 + 15 −25 + 14 22
£ ¤
= 42 −5

29
6 Teoria das Matrizes

C22 = A21 B12 + A22 B22 + A23 B32 =


 
· ¸
£ ¤ −3 3 5 £ ¤£ ¤ 0 0 0
 
= −2 3 −5 5 −5 2 − 5 · 5 −5 −4 + 1 5
0 0 0
1 1 −3
£ ¤ £ ¤ £ ¤
= 16 −16 11 + −25 25 20 + 0 0 0
£ ¤
= −9 9 31

A matriz C será portanto:

 
−8 −14 −3 3 5
 −3 −3 5 −5 2 
C=
 14

23 1 1 −3 
42 −5 −9 9 31

Definição 18 (Potência de uma matriz) Seja A ∈ Mn (K). Designa-se


por potência de ordem k ∈ N de A, e escreve-se Ak , à matriz C tal que
C = Ak = A × · · · × A.
| {z }
k vezes

6.3 Transposição de matrizes. Matrizes Simétricas.


Definição 19 (Matriz transposta) Dada uma matriz A ∈ Mm×n (K), deno-
mina-se matriz transposta de A, e denota-se por AT , a matriz B ∈ Mn×m (K)
tal que bij = aji , ∀(i,j)∈{1,...,m}×{1,...,n} .

Por outras palavras, se uma matriz A é do tipo m × n, a transposta de A,


AT , é do tipo n × m; as linhas de A são as colunas de AT , pela mesma ordem,
e, consequntemente, as colunas de A serão as linhas de AT , pela mesma ordem.

Exemplo 8 Considerem-se os seguintes casos:


· ¸T · ¸
1 2 1 3
• =
3 4 2 4
· ¸T
1 £ ¤
• = 1 2
2
· ¸
£ ¤T 3
• 3 4 =
4

30
6 Teoria das Matrizes

 
· ¸T 3 −5
3 −5 5
• =  −5 −4 
−5 −4 −1
5 −1

Definição 20 (Matriz simétrica/anti-simétrica) Seja A ∈ Mn (K), ma-


T
triz quadrada³ de
´ ordem n. Diz-se que A é simétrica se A = A e anti-simétrica
2
T
se A = −A .

Exemplo 9 A matriz

· ¸
a b
A=
b c

é a forma geral de uma matriz simétrica de ordem 2.


A matriz

· ¸
0 b
A=
−b 0

é a forma geral de uma matriz anti-simétrica de ordem 2. Com efeito, por


definição, dever-se-á ter aii = −aii o que implica 2aii = 0 e portanto aii = 0.
Por outras palavras, numa matriz anti-simétrica, os elementos principais são
sempre nulos.

Proposição 7 Sejam A = [aij ] , B = [bij ] ∈ Mm×p (K) , C = [cjk ] ∈ Mp×n (K)


e Dk = [dkl ] ∈ Mn (K) , k = 1, ..., M . Verificam-se as seguintes propriedades:
¡ ¢T
1. AT = A.

2. (A ± B)T = AT ± B T .

3. (AC)T = C T AT .
³Q ´T Q
M M
4. k=1 Dk = k=1 DkT .

Demonstração.
1.
³¡ ¢T ´ ¡ ¢
AT = AT ji
ij
= (A)ij .

31
6 Teoria das Matrizes

2.
³ ´
T
(A ± B) = (A ± B)ji
ij
= aji ± bji
¡ ¢ ¡ ¢
= AT ij ± B T ij .

3.
³ ´
T
(AC) = (AC)ik
ki
p
X
= aij cjk
j=1
p
X ¡ ¢ ¡ ¢
= AT ji
CT kj
j=1
Xp
¡ ¢ ¡ T¢
= CT kj
A ji
j=1
¡ ¢
= C T AT ki .

4. Por indução em M . O caso M = 2 verifica-se na Propriedade 3. Supon-


³Q ´T QM−1 T
M−1
hamos que, por hipótese, k=1 Dk = k=1 Dk . Mostremos que
³Q ´T Q
M
k=1 Dk = M T
k=1 Dk também se verifica.

à M
!T ÃÃM−1 ! !T
Y Y
Dk = Dk DM
k=1 k=1
ÃM−1 !T
T
Y
= (DM ) Dk (pela Propriedade 3)
k=1
M−1
Y
= (DM )T DkT (por hipótese)
k=1
M
Y
= DkT
k=1

Proposição 8 O produto de duas matrizes A, B ∈ Mn (K) simétricas é uma


matriz simétrica sse os seus factores comutam.

32
6 Teoria das Matrizes

Demonstração.

(=⇒)
T
AB = (AB) (porque ABé simétrica)
= B T AT (pela Propriedade 3 da transposição de matrizes)
= BA (porque A e B são comutáveis)

(⇐=)
T T
(AB) = (BA) (porque A e B comutam)
= AT B T (pela Propriedade 3 da transposição de matrizes.
= AB (porque A e B são simétricas)

6.4 Traço de uma matriz


Definição 21 (Traço de uma Matriz) Seja A = [aij ] ∈ Mm×n (K). O traço
da matriz A é definido como a soma os seus elementos principais, ou, por outras
palavras, dos elementos ao longo da diagonal principal. Denota-se por:

tr (A) = a11 + a22 + · · · + app , onde p = min (m, n) .

Exemplo 10 Considerem-se as seguintes matrizes e determinemos os respec-


tivos traços:
 
3 0 1 3 1
 
•  −1 2 0 −1 1 . tr (A) = 3 + 2 + (−3) = 2.
0 −2 -3 1 1
 
3 0
•  −1 2 . tr (A) = 3 + 2 = 5.
0 −2
 
1 3 1
 
•  0 -1 1 . tr (A) = 1 + (−1) + 1 = 1.
−3 1 1

O operador tr (·) satisfaz as seguintes propriedades:

33
6 Teoria das Matrizes

Proposição 9 Sejam A=[aij ] , B =[bij ] ∈ Mm×n (K) e C =[cpq ] ∈ Mn×m (K).


Verificam-se as seguintes igualdades:

1. tr (A + B) = tr (A) + tr (B).
2. tr (A + B) = tr (B + A).
3. tr (AC) = tr (CA).

Demonstração.
1. Dado que A e B têm as mesmas dimensões a soma A + B encontra-se
definida. Prosseguindo com a argumentação, segue que:

³ ´
tr (A + B) = tr (A + B)ij
min(m,n)
X
= (all + bll )
l=1
min(m,n) min(m,n)
X X
= all + bll
l=1 l=1
= tr (A) + tr (B)

2. Dado que A e B têm as mesmas dimensões as somas A + B e B + A


encontram-se definidas. Prosseguindo com a argumentação, segue que:

³ ´
tr (A + B) = tr (A + B)ij
min(m,n)
X
= (all + bll )
l=1
min(m,n)
X
= (bll + all )
l=1
³ ´
= tr (B + A)ij
= tr (B + A)

3. Se A ∈ Mm×n (K) e C ∈ Mn×m (K) , tem-se naturalmente AC ∈ Mm (K).


O traco de AC será:

34
6 Teoria das Matrizes

³ ´
tr (AC) = tr (AC)iq
 
n
X
= tr  aij cjq 
j=1
 
m
X Xn
=  aij cji 
i=1 j=1
m X
X n
= aij cji
i=1 j=1

Por outro lado tem-se CA ∈ Mn (K). O traco de CA será:

³ ´
tr (CA) = tr (CA)pj
Ãm !
X
= tr cpi aij
i=1
n
Ãm !
X X
= cji aij
j=1 i=1
X m
n X
= cji aij
j=1 i=1
Xm X n
= aij cji
i=1 j=1
= tr (AC)

6.5 Dependência e independência lineares de filas parale-


las de uma matriz.
Definição 22 (Combinação linear £das filas de uma matriz) ¤ Seja a ma-
triz A ∈ Mm×n (K) e sejam Li = ai1 ai2 · · · ain , i = 1, · · · , m as
linhas da matriz A e Cj = {a1j , a2j , · · · , amj } , j = 1, · · · , n as colunas da ma-
triz A.
P
m
1. À expressão λi Li designa-se combinação linear das linhas de A, onde
i=1
{λi }i=1,··· ,m são quaisquer escalares do corpo K.

35
6 Teoria das Matrizes

Pn
2. À expressão µj Cj designa-se combinação linear das colunas de A, onde
j=1
© ª
µj j=1,··· ,n são quaisquer escalares do corpo K.

Definição 23 (Combinação linear nula das filas de uma matriz) Sejam


A ∈ Mm×n (K), {Li }i=1,··· ,m as linhas da matriz A e {Cj }j=1,··· ,n as colunas
da matriz A.
P
m
1. À expressão λi Li = 0 designa-se combinação linear nula das linhas de
i=1
A, onde {λi }i=1,··· ,m são quaisquer escalares do corpo K.
Pn
2. À expressão µj Cj = 0 designa-se combinação linear nula das colunas
©j=1ª
de A, onde µj j=1,··· ,n são quaisquer escalares do corpo K.

Definição 24 (Independência linear) Sejam A ∈ Mm×n (K), {Li }i=1,··· ,m


as linhas da matriz A e {Cj }j=1,··· ,n as colunas da matriz A. Diz-se que as
Pm P
n
linhas (colunas) de A são linearmente independentes se 0Li (ou 0Cj para
i=1 j=1
as colunas) é a única combinação linear nula dessas linhas (colunas).
Por outras palavras, as linhas (ou colunas) de uma matriz dizem-se linear-
mente independentes se a única combinação linear nula daquelas é a que se
obtém com todos os escalares nulos.

A seguinte constatação é consequência imediata da definição acima:


Nota 6 As linhas (colunas) de uma matriz são linearmente dependentes se é
possível obter uma combinação linear nula daquelas com pelo menos um escalar
diferente de 0.

As definições acima aplicam-se indiferentemente às linhas e colunas de uma


qualquer matriz. Por esse motivo, faremos referência às filas de uma matriz
sempre que não for necessário referir explicitamente as linhas ou colunas da
matriz. Denotaremos por {Fk }k=1,··· ,p as filas da matriz. Note-se, no entanto,
que a referência às filas de uma matriz deverá ser entendida como referência às
linhas ou às colunas e não aos dois conjuntos simultaneamente.
Matematicamente, a condição de independência linear das filas de uma ma-
triz pode ser descrita pelas equações (4).

P
m
λi Li = 0 =⇒λi = 0, i = 1, · · · , m (linhas)
i=1
P
n (4)
µj Cj = 0 =⇒µj = 0, j = 1, · · · , n (colunas)
j=1

Em geral, os resultados válidos para as linhas também o são para as colunas.

36
6 Teoria das Matrizes

Proposição 10 Sejam A ∈ Mm×n (K) e {Fk }k=1,··· ,p as filas da matriz A.


Verificam-se os seguintes resultados:

1. Se uma das filas de A é constituída integralmente por zeros, as filas são


linearmente dependentes.
2. Algumas das filas de A são linearmente dependentes se e só se todas o
são.
3. As filas de A são linearmente dependentes se e só as filas em que a fila Fk é
0
substituída pela fila Fk = α · Fk , α ∈ K\ {0} são linearmente dependentes.
4. As filas de A são linearmente dependentes se e só as filas em que a fila Fk
0
é substituída pela fila Fk = Fk + Fl , k 6= l são linearmente dependentes.
5. As filas de A são linearmente dependentes se e só se o mesmo sucede
às filas que se obtêm somando a uma delas uma combinação linear das
restantes.
6. As filas de A são linearmente dependentes se e só se algumas delas se
podem escrever como combinação linear das restantes.

Demonstração. Para efeito da demonstração utilizar-se-ão as linhas da


matriz. A prova para as colunas é equivalente.

1. Suponhamos que a linha Lk é inteiramente


P nula. A combinação linear
nula das linhas da matriz é dada por i6=k λi Li + λk Lk = 0. Sabendo
que Lk = 0 teremos λk Lk = 0 para qualquer λk ∈ K. Em particular, se
escolhermos λk 6= 0, teremos uma combinação linear nula das linhas com
pelo menos um escalar não nulo, precisamente o escalar λk , logo, as linhas
da matriz A são linearmente dependentes
2.(=⇒) Suponhamos, sem perda de generalidade, que as p primeiras linhas
da matriz A são linearmente dependentes. Existirá assim pelo menos
um P escalar não nulo, digamos λk , com algum k : 1 ≤ k ≤ p tal
p
que i=1 λi Li = 0. Se escolhermos
P escalares
Pm nulos para as restantes
linhas da matriz teremos m λi Li = i=p+1 0Li = 0. Assim,
Pp Pm i=p+1
teremos i=1 λi Li + i=p+1 λi Li = 0 com o escalar λk não-nulo,
isto é, as linhas da matriz A são linearmente dependentes.
(⇐=) Se as linhas da matriz A são linearmente dependentes, então

X
∃k∈{1,··· ,m} : λk 6= 0 ∧ λi Li + λk Lk = 0
i6=k

Se os restantes escalares forem nulos, teremos

37
6 Teoria das Matrizes

X X
λi Li + λk Lk + 0Li + λk Lk = λk Lk = 0
i6=k i6=k

Deste modo, qualquer conjunto de linhas que inclua a linha Lk , que


nestas circunstâncias é integralmente nula, é linearmente dependente.
3.(=⇒) Suponhamos que as linhas de A são linearmente dependentes.
0
Substituamos a linha Lk pela linha Lk = α·Lk , α 6= 0. A combinação
0
linear nula das linhas de A onde a linha Lk é substituída por Lk é
P 0 P
dada por i6=k λi Li + λk Lk = 0 ⇐⇒ i6=k λi Li + (λk · α) · Lk = 0.
Mas as linhas de A são linearmente dependentes pelo que a respectiva
combinação linear nula se obtém com pelo menos um escalar não nulo.
Ou bem que esse escalar é λi , i 6= k, ou bem que será λk · α. Neste
caso, como α 6= 0 teremos λk 6= 0. Em qualquer caso, é possível
0
obter uma combinação linear nula das linhas {Li }i=1,···n ∪ Lk com
i6=k
pelo menos um escalar não nulo.
0
(⇐=) Suponhamos que as linhas {Li }i6=k ∪Lk são linearmente dependentes.
A combinação linear nula das linhas de A é dada por

X
λi Li + λk Lk = 0,
i6=k

a qual é passível de ser reescrita como

X λk X λk 0
λi Li + (α · Lk ) = λi Li + L = 0.
α α k
i6=k i6=k

0
Dada a dependência linear de {Li }i6=k ∪ Lk ou bem que teremos
λi 6= 0, i 6= k ou teremos λαk 6= 0. Neste caso, como α 6= 0 teremos
λk 6= 0. Em qualquer caso, é possível obter uma combinação linear
nula das linhas {Li }i=1,··· ,m com pelo menos um escalar não nulo.
4.(=⇒) Suponhamos que as linhas de A são linearmente dependentes.
0
Substituamos a linha Lk pela linha Lk = Lk + Ll , k 6= l. A combi-
0
nação linear nula das linhas de A onde a linha Lk é substituída por Lk
P 0 P
é dada por i6=k λi Li +λk Lk = Pi6=k λi Li +λk (Lk + Ll )=0. Esta ex-
pressão pode ser reescrita como i6=k,l λi Li +λk Lk +(λk + λl ) Ll =0.
Mas as linhas de A são linearmente dependentes pelo que a respec-
tiva combinação linear nula se obtém com pelo menos um escalar
não nulo. Ou bem que esse escalar é λi , i 6= k, l, ou bem que será
λk , ou então será (λk + λl ). Neste caso, ter-se-á obrigatoriamente

38
6 Teoria das Matrizes

λk 6= 0 ∨ λl =
6 0. Em qualquer caso, é possível obter uma combinação
0
linear nula das linhas {Li }i6=k ∪ Lk com pelo menos um escalar não
nulo.
0
(⇐=) Suponhamos que as linhas {Li }i6=k ∪Lk são linearmente dependentes.
A combinação linear nula das linhas de A é dada por

X
λi Li + λk Lk = 0,
i6=k

a qual é passível de ser reescrita como

X X 0
λi Li + (λk Lk + λk Ll ) − λk Ll = λi Li + (λl −λk ) Ll + λk Lk =0
| {z }
i6=k 0 i6=k,l
λk Lk

0
Dada a dependência linear de {Li }i6=k ∪ Lk ou bem que teremos
λi 6= 0, i 6= k, l ou teremos λk 6= 0 ou ainda (λl − λk ) 6= 0. Neste
caso, ter-se-á obrigatoriamente λk 6= 0 ∨ λl 6= 0. Em qualquer caso,
é possível obter uma combinação linear nula das linhas {Li }i=1,··· ,m
com pelo menos um escalar não nulo.
5.(=⇒) Suponhamos que as linhas de A são linearmente dependentes.
0 P
Substituamos a linha Lk pela linha Lk = Lk + i6=k αi Li . A combi-
0
nação linear nula das linhas de A onde a linha L³k é substituída por
´ Lk
P 0 P P
é dada por i6=k λi Li +λk Lk = i6=k λi Li +λk Lk + i6=k αi Li =0.
P
Esta expressão pode ser reescrita como i6=k(λi +λk αi )Li+λk Lk =0.
Mas as linhas de A são linearmente dependentes pelo que a re-
spectiva combinação linear nula se obtém com pelo menos um es-
calar não nulo. Ou bem que esse escalar é λk ou bem que será
(λi + λk αi ) , i 6= k. Neste caso, ter-se-á obrigatoriamente λk αi 6= 0
(o que implica λk 6= 0)∨λi 6= 0, i 6= k. Em qualquer caso, é possível
0
obter uma combinação linear nula das linhas {Li }i6=k ∪ Lk com pelo
menos um escalar não nulo.
0
(⇐=) Suponhamos que as linhas {Li }i6=k ∪Lk são linearmente dependentes.
A combinação linear nula das linhas de A é dada por

X
λi Li + λk Lk = 0,
i6=k

a qual é passível de ser reescrita como

39
6 Teoria das Matrizes

X X X X 0
λi Li +λk Lk +λk αi Li −λk αi Li = (λi − λk ) Li +λk Lk =0
i6=k i6=k i6=k i6=k

0
Dada a dependência linear de {Li }i6=k ∪ Lk ou bem que teremos
λk 6= 0 ou bem que teremos (λi − λk ) 6= 0, i 6= k. Neste caso, ter-se-á
obrigatoriamente (λk 6= 0 ∨ λi 6= 0)i6=k . Em qualquer caso, é possível
obter uma combinação linear nula das linhas {Li }i=1,··· ,m com pelo
menos um escalar não nulo.
6.(=⇒) Suponhamos que as linhas de A são linearmente dependentes. Seja λk
um dos escalares não nulos para os quais se obtém umaP combinação
linear nula das linhas de A. A combinação
P linear nula i λi Li = 0
pode ser reescrita como Lk = − λ1k i6=k λi Li , uma vez que λk 6= 0.
A expressão mostra que a linha Lk pode ser escrita como combinação
linear das restantes linhas da matriz.
(⇐=) Suponhamos que é possível escrever a linha P Lk como combinação
linear P
das restantes linhas, isto é, Lk = i6=k λi Li . Resulta que
Lk − i6=k λi Li = 0, isto é, obteve-se uma combinação linear nula
das linhas da matriz A, em que pelo menos um escalar é não nulo (o
escalar 1 associado à linha Lk ). Tal mostra que as linhas de A são
linearmente dependentes.

Proposição 11 Sejam A ∈ Mm×n (K), B ∈ Mn×p (K) e C = AB. Então cada


linha (respectivamente coluna) de C é combinação linear das linhas (respectiva-
mente colunas) de B (respectivamente A). Mais precisamente:
1. A linha i0 de C é combinação linear das linhas de B que se obtém uti-
lizando os escalares da linha i0 de A.
2. A coluna j0 de C é combinação linear das colunas de A que se obtém
utilizando os escalares da coluna j0 de B.

Demonstração.
Pn
1. ci0 k = (AB)i0 k = j=1 ai0 j bjk . Logo,

£ ¤
LC
i0 = ci0 1 ci0 2 · · · ci0 p
£ Pn Pn Pn ¤
= j=1 ai0 j bj1 j=1 ai0 j bj2 · · · j=1 ai0 j bjp
Xn
£ ¤
= ai0 j bj1 bj2 · · · bjp
j=1
Xn
= ai0 j LB
j
j=1

40
6 Teoria das Matrizes

2. A prova é em tudo semelhante à anterior mutatis mutantis.

6.6 Característica de uma matriz. Operações elementares.


Definição 25 (Característica) Seja A∈Mm×n (K). Designa-se caracterís-
tica de linha da matriz A ao número máximo de linhas linearmente indepen-
dentes; denota—se este valor por rl (A). Analogamente a característica de col-
una da matriz A, rc (A), é o número máximo de colunas linearmente indepen-
dentes. A característica da matriz, denotada por rA (ou simplesmente r quando
estiver claro a matriz a que se refere) define-se como o número máximo de linhas
ou colunas linearmente independentes, isto é, rA = mı́n{rl (A) , rc (A)}.

Tem-se claramente rl (A) ≤ m e rc (A) ≤ n e portanto rA ≤ mı́n {m, n},


onde m e n são respectivamente o número de linhas e colunas da matriz em
causa.
Resta desenvolver um processo que permita determinar a característica de
linha (ou coluna) de uma matriz, e portanto da sua característica.

Proposição 12 Sejam A ∈ Mm×n (K), B ∈ Mn×p (K) e C = AB. Então


rl (C) ≤ rl (B) e rc (C) ≤ rc (A).

Demonstração. Recordando a proposição 11 verificámos que,

n
X
LC
i = aij LB
j , ∀i=1,··· ,m ,
j=1

isto é, cada linha de C é combinação linear das linhas de B. Ora, se o número


máximo de linhas linearmente independentes de B é rl (B) então, cada linha de
C pode ser escrita apenas à custa das rl (B) linhas de B que são efectivamente
linearmente independentes; as restantes linhas de B ou bem que são nulas ou
bem que se podem escrever como combinação das que são linearmente indepen-
dentes como vimos na Proposição (10). Suponhamos, sem perda de generalidade
que são precisamente as primeiras rl (B) linhas de B que são linearmente inde-
pendentes. Tal significa que as linhas de C podem ser escritas como combinação
destas linhas de B (agora com outros escalares que não aqueles dados pelas li-
Prl (B) i B
nhas de A). Isto é, LC i = k=1 λk Lk , ∀i=1,··· ,m . Suponhamos, por redução ao
absurdo que C tem rl (B) + 1 linhas lineamente independentes, precisamente as
primeiras. Sabemos então que a combinação linear nula destas rl (B) + 1 linhas
só é passível de ser obtida com todos os escalares nulos.

41
6 Teoria das Matrizes

rl (B)+1
X
0 = µi LC
i
i=1
rl (B)+1 rl (B)
X X
= µi λik LB
k
i=1 k=1
     
rl (B)+1 rl (B)+1 rl (B)+1
X X X
=  µi λi1  LB
1 +
 µi λi2  LB
2 + ··· +
 µi λirl (B)  LB
rl (B)
i=1 i=1 i=1

Ora, as rl (B) primeiras linhas de B são linearmente independentes pelo que


a combinação nula anterior só se poderá obter com todos os escalares nulos, o
que corresponde a resolver o sistema em ordem a {µi }i=1,··· ,rl (B)+1 :

 Prl (B)+1


 µi λi1 = 0
 Pri=1
l (B)+1
i=1 µi λi2 = 0

 ···

 Prl (B)+1 µ λi
i=1 i rl (B) = 0

O sistema acima tem rl (B) e rl (B)+1 incógnitas. Trata-se de um sistema in-


determinado possuindo outras soluções que não a solução {µi = 0}i=1,··· ,rl (B)+1 .
Mas isto é um absurdo pois por hipótese as primeiras rl (B)+1 linhas de C eram
linearmente independentes. O absurdo reside evidentemente no facto de se ter
assumido que o número máximo de linhas linearmente idependentes de C era
superior a rl (B), logo dever-se-á ter rl (C) ≤ rl (B).
A prova relativamente à afirmação rc (C) ≤ rc (A) é em tudo semelhante à
anterior.

6.6.1 Operações Elementares


Os resultados da Proposição (10) permitem concluir que a dependência ou in-
dependência lineares das linhas (ou colunas) de uma matriz não é alterada por
um conjunto de operações que no seu conjunto se designam por Operações Ele-
mentares Sobre Filas de uma Matriz.

Definição 26 (Operações Elementares) Seja A ∈ Mm×n (K). Define-se


como operação elementar sobre as filas da matriz A, a cada uma das seguintes
operações:

i. Troca entre si de duas linhas (ou colunas) da matriz.


ii. Multiplicação de uma linha (ou coluna) da matriz por um escalar diferente
de 0.

42
6 Teoria das Matrizes

iii. Substituição de uma linha (ou coluna) pela que se obtém somando-lhe
outra, multiplicada por um qualquer escalar (Operação de Jacobi).

As operações elementares acima definidas correspondem à multiplicação (à


esquerda ou à direita) da matriz A por matrizes que resultam da matriz iden-
tidade, que deverá ter dimensão apropriada, por aplicação das operações ele-
mentares.
Definição 27 (Matriz Elementar) Seja I ∈ Mn (K) a matriz identidade de
ordem n. Designa-se por matriz elementar de ordem n a qualquer matriz E que
resulte de I por aplicação de uma das três operações elementares.

Consideremos genericamente uma matriz A ∈ Mm×n (K). Vejamos, caso


a caso, que matriz, resultante da aplicação de operações elementares sobre a
matriz identidade, deve multiplicar, ou pela qual se deve multiplicar, a matriz
A de forma a que as mesmas operações elementares tenham o mesmo efeito
sobre A. Naturalmente que, a multiplicação à esquerda ou à direita da matriz
A implica uma escolha acertada para a ordem das matrizes elementares a mul-
tiplicar. Assim, a multiplicação à esquerda da matriz A implica a utilização
de matrizes elementares de ordem m, enquanto que a multiplicação à direita
implica a utilização de matrizes elementares de ordem n.
• Regra geral
Operações elementares sobre as linhas da matriz A fazem-se por multi-
plicações à esquerda desta enquanto que operações elementares sobre as
colunas se fazem por multiplicações à direita.
• Troca de Linhas
Dadas duas linhas, Li e Lk , i 6= k da matriz A, a troca destas linhas
processa-se multiplicando a matriz A, à esquerda, pela matriz E que re-
sulta da troca das linhas i e k da matriz identidade I. Representa-se por
(Li ←→ Lk ). Matriz elementar associada: Eik .
• Troca de Colunas
Dadas duas colunas, Cj e Cl , j 6= l da matriz A, a troca destas colunas
processa-se multiplicando a matriz A, à direita, pela matriz F que resulta
da troca das colunas j e l da matriz identidade I. Representa-se por
(Cj ←→ Cl ). Matriz elementar associada: Fjl .
• Multiplicação de Linha por um Escalar
Dado um escalar α ∈ K, a multiplicação da linha Li da matriz A corre-
sponde a multiplicar A, à esquerda, pela matriz E que resulta da matriz
identidade por substituição do i-ésimo elemento da diagonal, que é 1, por
α, ou, por outras palavras, consiste na multiplicação da i-ésima linha da
matriz diagonal pelo escalar α. Representa-se por (Li ← αLi ). Matriz
elementar associada: Ei (α).

43
6 Teoria das Matrizes

• Multiplicação de Coluna por um Escalar


Dado um escalar β ∈ K, a multiplicação da coluna Cj da matriz A cor-
responde a multiplicar A, à direita, pela matriz F que resulta da matriz
identidade por substituição do i-ésimo elemento da diagonal, que é 1, por
β, ou, por outras palavras, consiste na multiplicação da i-ésima coluna da
matriz diagonal pelo escalar β. Representa-se por (Cj ← αCj ). Matriz
elementar associada: Fj (β).
• Operação de Jacobi sobre Linhas
Dadas duas linhas, Li e Lk , i 6= k da matriz A e um escalar α ∈ K, a
substituição da linha Li pela linha Li + α · Lk processa-se multiplicando
a matriz A, à esquerda, pela matriz E que resulta da matriz identidade
por substituição da linha i pela que se obtém somando-lhe a linha k mul-
tiplicada pelo escalar α. Representa-se por (Li ← Li + α · Lk ). Matriz
elementar associada: Eik (α).
• Operação de Jacobi sobre Colunas
Dadas duas colunas, Cj e Cl , j 6= l da matriz A e um escalar β ∈ K, a
substituição da linha Cj pela linha Cj + β · Cl processa-se multiplicando
a matriz A, à direita, pela matriz F que resulta da matriz identidade
por substituição da coluna j pela que se obtém somando-lhe a coluna l
multiplicada pelo escalar β. Representa-se por (Cj ← Cj + β · Cl ). Matriz
elementar associada: Fjl (β).

Exemplo 11 Considere-se a matriz

 
−34 −68 −85 −38
A =  90 52 43 91 
30 90 −24 −52

Vejamos como cada uma das seguintes operações elementares sobre a ma-
triz A resulta da multiplicação desta matriz pela que resulta da identidade por
aplicação das mesmas operações elementares:

1. Troca das linhas 1 e 3.


Deveremos considerar uma multiplicação à esquerda. Tomamos a matriz
identidade I3 e trocamos as linhas 1 e 3 para obter a matriz E:

   
1 0 0 0 0 1
 0 1 0  L1 ←→ L3  0 1 0 
−−−−−−−→
0 0 1 1 0 0

Procedendo à multiplicação obtém-se:

44
6 Teoria das Matrizes

0
A = E13 · A
  
0 0 1 −34 −68 −85 −38
=  0 1 0   90 52 43 91 
1 0 0 30 90 −24 −52
 
30 90 −24 −52
=  90 52 43 91 
−34 −68 −85 −38

0
A matriz A resultou da matriz A por troca das linhas 1 e 3 como se
pretendia.
2. Troca das colunas 2 e 3.
Deveremos considerar uma multiplicação à direita. Tomamos a matriz
identidade I4 e trocamos as colunas 2 e 3 para obter a matriz F :

   
1 0 0 0 1 0 0 0
 0 1 0 0   0 0 1 0 
  C2 ←→ C3  
 0 0 1 0  −−−−−−−→  0 1 0 0 
0 0 0 1 0 0 0 1

Procedendo à multiplicação obtém-se:

0
A = A · E23
 
  1 0 0 0
−34 −68 −85 −38 
0 0 1 0 
=  90 52 43 91  

0 1 0 0 
30 90 −24 −52
0 0 0 1
 
−34 −85 −68 −38
=  90 43 52 91 
30 −24 90 −52

0
A matriz A resultou da matriz A por troca das colunas 2 e 3 como se
pretendia.
3. Multiplicação de uma linha por um escalar.
Suponhamos
√ que se pretende multiplicar a linha 2 da matriz A pelo escalar
2. Para tal, tomamos a matriz identidade I3 e multiplicamos a segunda
linha pelo escalar pretendido para obter a matriz E. Seguidamente faz-se
o produto EA para obter a matriz pretendida.

45
6 Teoria das Matrizes

   
1 0 0 √ 1 √0 0
0
 0 1 0  L2 ←− 2L2  0 2 0 
−−−−−−−−−→
0 0 1 0 0 1

Procedendo à multiplicação obtém-se:

0
³√ ´
A = E2 2 ·A
  
1 √0 0 −34 −68 −85 −38
=  0 2 0   90 52 43 91 
0 0 1 30 90 −24 −52
 
−34
√ −68
√ −85
√ −38

=  90 2 52 2 43 2 91 2 
30 90 −24 −52
0 √
A matriz A resultou da matriz A por multiplicação da 2a linha por 2.
4. Multiplicação de uma coluna por um escalar.
Suponhamos que se pretende multiplicar a coluna 3 da matriz A pelo es-
calar 25 . Para tal, tomamos a matriz identidade I4 e multiplicamos a ter-
ceira coluna pelo escalar pretendido para obter a matriz F . Seguidamente
faz-se o produto AF para obter a matriz pretendida.

   
1 0 0 0 1 0 0 0
 0 0   0 
 1 0  C30 ←− 2 C3  0 1 0 
 0 0 1 
0 −−−−−−− 5−→  0 0 2
0 
5
0 0 0 1 0 0 0 1

Procedendo à multiplicação obtém-se:

µ ¶
0 2
A = A · F3
5
 
  1 0 0 0
−34 −68 −85 −38 
0 1 0 0 
=  90 52 43 91  

0 0 2
5 0 
30 90 −24 −52
0 0 0 1
 
−34 −68 −34 −38
=  90 52 86
5 91 
30 90 − 48
5 −52
0
A matriz A resultou da matriz A por multiplicação da linha 3a coluna por
2
5.

46
6 Teoria das Matrizes

5. Operação de Jacobi sobre as linhas da matriz A.


Consideremos as linhas 1 e 3 da matriz A. Suponhamos que se pretende
substituir a linha
√ L3 pela que se obtém somando-lhe a linha L1 multiplicada
pelo escalar 2. Tomamos a matriz√identidade I3 e substituímos a linha
L3 pela que se obtém somando-lhe 2L1 . A matriz F assim obtida é
multiplicada por A, à esquerda.

   
1 0 0 √ 1 0 0
 0 1 0  L3 ←− L3 + 2L1  0 1 0 
−−−−−−−−−−−−−→ √
0 0 1 2 0 1

Procedendo à multiplicação obtém-se:

0
³√ ´
A = E31 2 ·A
  
1 0 0 −34 −68 −85 −38
=  √0 1 0   90 52 43 91 
2 0 1 30 90 −24 −52
 
−34 −68 −85 −38
=  √90 √52 √43 √91

−34 2 + 30 −68 2 + 90 −85 2 − 24 −38 2 − 52

0
A matriz A resultou da matriz A por substituição
√ da linha 3 pela que se
obteve somando-lhe a linha 1 multiplicada por 2.
6. Operação de Jacobi sobre as colunas da matriz A.
Consideremos as colunas 2 e 3 da matriz A. Suponhamos que se pretende
substituir a coluna C3 pela que se obtém somando-lhe a coluna C2 multi-
plicada pelo escalar 25 . Tomamos a matriz identidade I4 e substituímos a
coluna C3 pela que se obtém somando-lhe 25 C2 . A matriz F assim obtida
é multiplicada por A, à direita.

   
1 0 0 0 1 0 0 0
 0 0   2
0 
 1 0  C3 ←− C3 + 2 C2  0 1 5 
 0 0 1 0  −−  0 0 1 0 
−−−−−−−−−5−→
0 0 0 1 0 0 0 1

Procedendo à multiplicação obtém-se:

47
6 Teoria das Matrizes

µ ¶
0 2
A = A · F32
5
 
  1 0 0 0
−34 −68 −85 −38 
0 1 2
0 
=  90 52 43 91   0 0
5 
1 0 
30 90 −24 −52
0 0 0 1
 561

−34 −68 − 5 −38
=  90 52 319
5 91 
30 90 12 −52

0
A matriz A resultou da matriz A por substituição da coluna 3 pela que se
obteve somando-lhe a coluna 2 multiplicada por 25 .

O exemplo acima ilustra o facto de operações elementares sobre uma matriz


A qualquer poderem ser definidas como o produto de matrizes elementares pela
matriz A.

Exemplo 12 Considere-se a matriz

 
−34 −68 −85 −38
A =  90 52 43 91 
30 90 −24 −52

Consideremos um conjunto de operações elementares a aplicar sobre a matriz


A:

• Troca das linhas 1 e 3 (L1 ←→ L3 ).


• Troca das colunas 2 e 3 (C2 ←→ C3 ).
√ ¡ √ ¢
• Multiplicação da linha 2 pelo escalar 2 L2 ←− 2L2 .
• Substituição da linha 3 pela que se obtém somando-lhe a linha 1 multipli-
cada pelo escalar 2 (L3 ←− L3 + 2L1 ).
¡ ¢
• Multiplicação da coluna 3 pelo escalar 25 C3 ←− 25 C3 .
• Substituição da coluna 3 pela que se obtém somando-lhe a coluna 4 multi-
plicada pelo escalar −1 (C3 ←− C3 − C4 ).
0
A questão que se coloca é a de saber qual a matriz A que se obtém de
A por aplicação das 6 operações elementares acima descritas. Vejamos
então o resultado, por aplicação directa das operações sobre a matriz A:

48
6 Teoria das Matrizes

 
−34 −68 −85 −38
 90 52 43 91  L ←→
−−1−−−−−L→3
30 90 −24 −52
 
30 90 −24 −52
 90 52 43 91  C ←→
−−2−−−−−C→3
−34 −68 −85 −38
 
30 −24 90 −52 √
 90 43 52 91  L ←−
−−2−−−−−−2L
−→2
−34 −85 −68 −38
 
30
√ −24
√ 90
√ −52

 90 2 43 2 52 2 91 2  L3 ←− L3 + 2L1
−−−−−−−−−−−−→
−34 −85 −68 −38

 
30
√ −24
√ 90√ −52

 90 2 43 2 52 2 91 2  C3 ←− 2 C3
5
26 −133 112 −142 −−−−−−−−→
 
30
√ −24
√ 36√ −52

 90 2 43 2 104 2 91 2  C3 ←− C3 − C4
5
224
−−−−−−−−−−−→
26 −133 5 −142
 
30
√ −24
√ 88√ −52

 90 2 43 2 − 351 2 91 2 
5
934
26 −133 5 −142

0
Vejamos agora que se obterá a mesma matriz A se a matriz A for devi-
damente multiplicada pelas matrizes elementares associadas às operações
elementares descritas.
O produto desejado é, simbolicamente, o seguinte:

³ ³√ ´ ´ µ µ ¶ ¶
2
E31 (2) × E2 2 × E13 × A × F23 × F3 × F34 (−1)
5

O resultado será:

49
6 Teoria das Matrizes


(L3 ←−L3 +2L1 ) (L2 ←− 2L2 ) (L1 ←→L3 )
z
 }| {z }| {
z }| {
1 0 0 1 √0 0 0 0 1
 0 1 0  0 2 0  0 1 0  ×
2 0 1 0 0 1 1 0 0
 
−34 −68 −85 −38
×  90 52 43 91  ×
30 90 −24 −52
   
1 0 0 0 1 0 0 0 1 0 0 0
 0 0 1 0   0 1 0 0  0 1 0 0 
×

  =
0 1 0 0  0 0 25 0  0 0 1 0 
0 0 0 1 0 0 0 1 0 0 −1 1
| {z }| {z }| {z }
(C2 ←→C3 ) (C3 ←− 25 C3 ) (C3 ←−C3 −C4 )
 
30
√ −24
√ 88√ −52

 90 2 43 2 − 351 2 91 2 
5
934
26 −133 5 −142

Como era de esperar o resultado dos dois métodos utilizado é o mesmo.

Nota 7 É importante notar a ordem pela qual os produtos, à esquerda e à


direita, são efectuados. Com efeito, se O1 , O2 , · · · , Op for um conjunto de oper-
ações elementares sobre linhas a executar, por esta ordem, sobre uma matriz A
qualquer, e se E1 , E2 , · · · , Ep forem as matrizes elementares associadas a cada
0
uma daquelas operações, a matriz A que se obtém por aplicação das operações
elementares é dada por Ep × · · · × E2 × E1 × A. Note-se que a matriz que
primeiro multiplica A está associada à primeira operação elementar, a segunda
matriz à segunda operação elementar e assim sucessivamente. O mesmo ar-
gumento é válido para operações sobre colunas, isto é, se O1 , O2 , · · · , Oq for
um conjunto de operações elementares sobre as colunas de uma matriz A, por
esta ordem, e F1 , F2 , · · · , Fp forem as matrizes elementares associadas àquelas
0
operações, a matriz A que resulta da aplicação destas operações é dada por
A × F1 × F2 × · · · × Fp .
Do acima exposto resulta o seguinte resultado:
Proposição 13 Se multiplicarmos A ∈ Mm×n (K), à esquerda por uma matriz
elementar E (de ordem m), a matriz produto, EA, também se pode obter de
A efectuando sobre as linhas de A a mesma operação sobre linhas que permitiu
passar de Im a E.
Se multiplicarmos A ∈ Mm×n (K), à direita por uma matriz elementar F
(de ordem n), a matriz produto, AF , também se pode obter de A efectuando
sobre as colunas de A a mesma operação sobre colunas que permitiu passar de
In a F .

50
6 Teoria das Matrizes

Demonstração. A demonstração é simples e está ilustrada pelos exemplos


anteriores.

6.6.2 Determinação da Característica de Linha de uma Matriz


Nesta secção estudar-se-ão um conjunto de resultados que permitem determinar
a característica de linha de qualquer matriz A ∈ Mm×n (K). Na determinação
da característca de linha, rl (A), utilizaremos operações elementares sobre as
linhas de uma matriz, estudadas na secção anterior. Como já vimos, operações
elementares sobre linhas (colunas) não afectam a dependência (ou independên-
cia) linear das linhas (colunas) de uma matriz. Como tal, a característica de
linha de uma matriz não é modificada por operações elementares sobre as linhas
dessa matriz.
É importante verificar que, por enquannto, não há nenhum resultado que
garanta que operações elementares sobre as linhas de uma matriz não afectam
a sua característica de coluna ou, que operações elementares sobre as colunas
não afectam a sua caractrística de linha.
0
Proposição 14 Seja A ∈ Mm×n (K). Se A for transformada ³ na ´ matriz A
0
através de operações elementares sobre linhas então rl (A) = rl A .

Demonstração. A demonstração sai imediatamente da aplicação directa


da Definição 25 e da Proposição 10.

Definição 28 (Matriz em Escada) Seja A ∈ Mm×n (K). Diz-se que a ma-


triz A está na forma de escada se a linha i apresenta mais zeros consecutivos
no início que a linha j, com i < j ≤ m.

Exemplo 13 As seguintes matrizes encontram-se em forma de escada:


 
0 1 1 −1 0 1a linha: 1 zero inicial
•  0 0 0 4 9 : 2a linha: 3 zeros iniciais
0 0 0 0 0 3a linha: 5 zeros iniciais
 
1 0 0 0 0 1a linha: nenhum zero inicial
•  0 
1 2 −1 0 : 2a linha: 1 zero inicial
0 0 0 0 1 3a linha: 4 zeros iniciais

Proposição 15 A característica de linha de uma matriz A ∈ Mm×n (K) em


forma de escada é igual ao número de linhas diferentes de zero.

51
6 Teoria das Matrizes

Demonstração. Suponhamos que a matriz A tem as primeiras p linhas


não nulas e as últimas m − p nulas. Vamos mostrar que as p primeiras lin-
has
Pp são linearmente independentes. Para tal, é necessário resolver a equação
i=1 λi Li = 0, para os escalares {λi }. A linha Li terá a configuração

£ ¤
0 ··· aiji ··· ain

onde aiji é o primeiro elemento não nulo da linha i. A combinação linear


nula das primeiras p linhas de A toma então a forma

p
X £ ¤
λi 0 ··· aiji ··· ain =0
i=1

a que corresponde a resolução de um sistema de equações, a saber:

 Pp

 a1j1 λ1 + Pi=2 λi · 0 = 0

 p
 a1j2 λ1 + a2j2 λ2 + Pi=3 λi · 0 = 0
a1j3 λ1 + a2j3 λ2 + a3j3 λ3 + pi=4 λi · 0 = 0



 ··· P
 p
i=1 aijp λi · 0 = 0

Note-se que da primeira equação resulta λ1 = 0. Substituindo λ1 = 0 na


segunda equação e resolvendo resulta λ2 = 0. Substituindo na terceira equação
λ1 = λ2 = 0 resulta λ3 = 0. Prosseguindo esta substituição recursivamente
até à p−ésima equação permite concluir que {λi = 0}i=1,··· ,p e que portanto
as primeiras p linhas de A são linearmente independentes. Se a este conjunto
de linhas adicionarmos uma qualquer linha k, com p < k ≤ m, resultará um
conjunto de p + 1 linhas linearmente dependente, uma vez que a linha k é nula.
Esta conclusão resulta da Proposição 10.1. Assim, p é o número máximo de
linhas linearmente independente da matriz A, isto é a característica de linha de
A é igual a p: rl (A) = p.

Nota 8 É evidente que a característica da matriz identidade de ordem n é


exactamente n, uma vez que a matriz identidade está naturalmente em forma
de escada.

Exemplo 14 Determinação da característica de linha das seguintes matrizes


em escada.

52
6 Teoria das Matrizes

 
0 1 1 −1 0
• A =  0 0 0 4 9 . O número de linhas não nulas é 2 pelo que
0 0 0 0 0
a característica de linha da matriz é rl (A) = 2. Alternativamente, pode-
mos verificar que as duas primeiras linhas são linearmente independentes
e, sendo a terceira linha nula, o número máximo de linhas linearmente
independentes é precisamente 2 (sejam λ1 e λ2 os escalares associados,
respectivamente, à primeira e segunda linhas da matriz A):

1.
 

 0 · λ1 + 0 · λ2 =0 
 0=0

 
 ½
 1 · λ1 + 0 · λ2 =0  λ1 = 0
λ1 = 0
1 · λ1 + 0 · λ2 = 0 ⇐⇒ 0 = 0 ⇐⇒

 
 λ2 =0

 (−1) · λ1 + 4 · λ2 =0 
 λ2 = 0
 
0 · λ1 + 9 · λ2 =0 0=0
 
1 0 0 0 0
• A =  0 1 2 −1 0 . O número de linhas não nulas é 3 pelo que a
0 0 0 0 1
característica de linha da matriz é rl (A) = 3. Alternativamente, podemos
verificar que as linhas são linearmente independentes, sendo portanto o
número máximo de linhas linearmente independentes que é precisamente
3 (sejam λ1 , λ2 e λ3 os escalares associados, respectivamente, à primeira,
segunda e terceira linhas da matriz A):

1.
 

 1 · λ1 + 0 · λ2 + 0 · λ3 =0 
 λ1 = 0 

 

 0 · λ1 + 1 · λ2 + 0 · λ3 =0  λ2 = 0  λ1 = 0
0 · λ1 + 2 · λ2 + 0 · λ3 = 0 ⇐⇒ 0 = 0 ⇐⇒ λ2 = 0

 
 

 0 · λ1 + (−1) · λ2 + 0 · λ3 =0 
 0 = 0 λ3 = 0
 
0 · λ1 + 0 · λ2 + 1 · λ3 =0 λ3 = 0

O resultado acima sugere que, se for possivel transformar uma qualquer


matriz A ∈ Mm×n (K) numa matriz B em forma de escada preservando a sua
característica de linha, então é possível determinar a característica de linha de
qualquer matriz. O resultado seguinte mostra que tal processo existe.

Proposição 16 Toda a matriz A ∈ Mm×n (K) pode ser reduzida a uma matriz
B em forma de escada por meio de operações elementares sobre as suas linhas,
tendo-se consequentemente rl (A) = rl (B).

53
6 Teoria das Matrizes

Demonstração. Suponhamos que j1 , com 1 ≤ j1 ≤ n é a primeira coluna


de A que não é nula. Por troca de linhas, colocamos um elemento a 6= 0 na
(1)
posição (1, j1 ) da matriz. Multiplica-se agora a linha L1 por a−1 ; deste modo
fica o elemento 1 ∈ K na posição (1, j1 ); se uma das outras linhas de A, Ls por
exemplo, com 1 < s ≤ m, tem um elemento b na coluna j1 soma-se-lhe a linha
(1) (1)
L1 multiplicada pelo escalar −b, isto é, faz-se Ls ← Ls + (−b) L1 (Operação
(1)
de Jacobi). Assim, a nova linha Ls passa a ter o escalar 0 ∈ K na posição
(s, j1 ). Procedendo de igual modo com todas as linhas, que não a primeira, que
tenham um elemento não nulo na coluna j1 obtem-se uma matriz com a forma:

 (1) (1) (1) 


0 ··· 0 1 a1,j1 +1 a1,j1 +2 ··· a1n
 (1) (1) (1) 
 0 ··· 0 0 a2,j1 +1 a2,j1 +2 ··· a2n 
A1 = 
 .. .. .. .. .. .. 

 . . . . . . 
(1) (1) (1)
0 ··· 0 0 am,j1 +1 a2,j1 +2 ··· amn

Suponhamos agora que j2 , com j1 < j2 ≤ n é a primeira coluna de A1 que


tem elementos não nulos para além de, eventualmente, o primeiro. Por troca de
linhas, colocamos um elemento d 6= 0 na posição (2, j2 ) da matriz. Multiplica-se
(2)
agora a linha L2 por d−1 ; deste modo fica o elemento 1 ∈ K na posição (2, j2 );
(1)
se uma das outras linhas de A1 , Lr por exemplo, com 2 < r ≤ m, tem um
(2)
elemento f na coluna j2 soma-se-lhe a linha L2 multiplicada pelo escalar −f ,
(1) (1) (2)
isto é, faz-se Lr ← Lr + (−f ) L2 (Operação de Jacobi). Assim, a nova linha
(2)
Lr passa a ter o escalar 0 ∈ K na posição (r, j2 ). Procedendo de igual modo
com todas as linhas, que não a primeira e a segunda, que tenham um elemento
não nulo na coluna j2 obtem-se uma matriz com a forma:

 (1) (1) (1) (1) 


0 ··· 0 1 a1,j1 +1 ··· a1,j2 a1,j2 +1 ··· a1n
 (2) (2) 
 0 ··· 0 0 0 ··· 1 a2,j2 +1 ··· a2n 
A2 = 
 .. .. .. .. .. .. .. 

 . . . . . . . 
(2) (2)
0 ··· 0 0 0 ··· 0 am,j2 +1 ··· amn

Repetindo este processo um número, p, suficiente de vezes, sempre inferior


a n, obtém-se uma matriz B = Ap na forma desejada. Adicionalmente, tem-
se rl (A) = rl (B) uma vez que operações elementares sobre as linhas de uma
matriz não alteram a sua característica de linha.

Definição 29 (Condensação Vertical) Ao processo implícito na Proposição


16, que permite transformar uma qualquer matriz A ∈ Mm×n (K) numa matriz
B em forma de escada através de operações elementares sobre linhas designa-se
Condensação Vertical da matriz A.

54
6 Teoria das Matrizes

 
0 2 4 1 9
Exemplo 15 Considere-se a matriz A =  0 3 5 2 1 . Determi-
0 −1 2 0 0
nemos a sua característica de linha através de condensação vertical.

   
0 2 4 1 9 0 1 2 12 29
 0 3 5 2 1  L1 ←− 2 L1  0 3 5 2 1  L2 ←− L2 − 3L1
5 −−−−−−−−−−−−→
0 −1 2 0 0 −−−−−−−−→ 0 −1 2 0 0
 
0 1 2 12 9
2
 0 0 −1 1 − 25  L3 ←− L3 + L1
2 2 −−−−−−−−−−−→
0 −1 2 0 0
   
0 1 2 12 9
2 0 1 2 1
2
9
2
 0 0 −1 1 − 25  L3 ←− L3 + 4L2  0 0 −1 1 − 25 
2 2 −−−−−−−−−−−−→ 2 2
0 0 4 12 9
2 0 0 0 5
2 − 91
2

Logo, a característica de linha da matriz A é rl (A) = 3. Repare-se que a 2a


e 3 operações poderiam ter sido ambas efectuadas na 2a matriz, poupando-nos
a

assim, a escrita de uma das matrizes anteriores (a terceira).

Definição 30 (Elemento Redutor) Durante o processo de CondensaçãoVer-


tical, ao elemento, aij , utilizado para, mediante a aplicação de Operações de
Jacobi, anular os elementos {akj }k>i da respectiva coluna mas em linhas de
ordem superior, dá-se a designação de Elemento Redutor (o termo ”pivot” é
também frequentemente utilizado). O Elemento Redutor de uma linha não nula
é o elemento com índice de coluna mais baixo que ainda é não -nulo.
As colunas de uma matriz em forma de escada que contêm um elemento
redutor designam-se por Colunas Redutoras (ou Colunas Pivot).

Nota 9 O elemento redutor não tem necessariamente de ser o escalar 1 ∈ K.


No exemplo anterior utilizàmos, por exemplo −1. Não nos afastemos do ob-
jectivo principal do processo de condensação que consiste em transformar uma
matriz numa outra em forma de escada. A utilização da operação elementar que
consiste em multiplicar uma linha da matriz por um escalar tem como objectivo
facilitar os cálculos mediante a transformação do elemento redutor no escalar
1 ∈ K, com o qual é muito mais simples realizar as Operações de Jacobi que se
seguem.
Se, numa matriz em forma de escada, todos os elementos redutores forem o
escalar 1 ∈ K e os restantes elementos da respectiva coluna redutora forem 0,
diz-se que a matriz se encontra na forma de escada reduzida.

Exemplo 16 As seguintes matrizes em forma de escada têm os seus elementos


redutores devidamente assinalados.

55
6 Teoria das Matrizes

 
0 1 1 −1 0
 
•  0 0 0 4 9 . Trata-se de uma matriz em forma de escada.
0 0 0 0 0
 
1 0 0 0 0
 
•  0 1 2 −1 0 . Trata-se de uma matriz em forma de escada
0 0 0 0 1
reduzida.

Nota 10 Naturalmente que, numa matriz em forma de escada, o número de


linhas não nulas, o número de elementos redutores e o número de colunas redu-
toras são sempre iguais entre si.

6.7 Inversão de Matrizes


Nesta secção vamos estudar a Inversão de Matrizes, questão central na Teoria
das Matrizes com ramificações extremamente importantes na Álgebra Linear
em geral.

6.7.1 Definições e Resultados


Definição 31 (Matriz Regular/Inversa) Uma matriz quadrada A ∈ Mn (K)
diz-se regular se existir B ∈ Mn (K) tal que AB = In = BA. A matriz B diz-
se inversa de A e escreve-se B = A−1 . Do mesmo modo, A diz-se inversa de
B e escreve-se A = B −1 . Se não existir uma matriz B nestas condições, diz-se
que a matriz A é singular.3

Esta definição deixa em aberto uma afirmação que carece de demonstração.


O estabelecimento formal desta afirmação é como se segue:

Proposição 17 Considerem-se as matrizes A, B ∈ Mn (K). Então AB = I se


e só se BA = I.

Demonstração.
(⇒) Suponhamos que AB = I. Pretende-se mostrar que BA = I.
3 Assumindo que o produto A· B −1 se encontra bem definido, é incorrecto representá-lo por
A
B
. Com efeito, esta notação poderá denotar ambiguamente o produto A · B −1 ou o produto
B −1 · A, que não são necessariamente iguais.

56
6 Teoria das Matrizes

(porque a identidade é elemento neu-


BA = BAI
tro para a multiplicação de matrizes)
(pela propriedade associativa pa-
= B (AI)
ra a multiplicação de matrizes)
= B (IA) (porque a matriz identidade é comutável)
= B (AB) A (por hipótese)
(pela propriedade associativa pa-
= (BA) (BA)
ra a multiplicação de matrizes)

Resulta que BA = (BA) (BA) ⇐⇒ BA (BA − I) = 0. Se BA = 0 então


ABA = A0 ⇐⇒ (AB) A = 0 ⇐⇒ IA = 0 ⇐⇒ A = 0. Mas também
BAB = 0B ⇐⇒ B (AB) = 0 ⇐⇒ BI = 0 ⇐⇒ B = 0. Logo deveremos
ter (BA − I) = 0 ⇐⇒ BA = I.
(⇐=) Suponhamos que BA = I. Pretende-se mostrar que AB = I. De-
mostração em tudo idêntica à anterior mutatis mutantis.

Naturalmente que o conceito de regularidade de uma matriz só é passível de


ser aplicado a matrizes quadradas. Qualquer matriz, que não seja quadrada não
pode, por definição, ser regular, uma vez que não existe uma outra matriz que
possa simultaneamente ser multiplicada à esquerda e à direita daquela (um dos
produtos nunca será possível).

Proposição 18 Segue-se uma miscelânea de resultados àcerca de matrizes re-


gulares.

1. Toda a matriz elementar é regular.


2. Se A ∈ Mn (K) é regular então rl (A) = n = rc (A).
¡ ¢−1 ¡ −1 ¢T
3. Se A ∈ Mn (K) é regular então AT = A .
4. Seja A ∈ Mm×n (K). Se B ∈ Mn (K) e D ∈ Mm (K) forem regulares
então rl (DA) = rl (A) e rc (AB) = rc (A).
5. Se A, B ∈ Mn (K) são matrizes regulares, AB também é regular e tem-se
−1
(AB) = B −1 A−1 .
Q
6. Se Ak ∈ Mn (K) , k = 1, · · · , p são matrizes regulares então pk=1 Ak
Q −1
também o é e ( pk=1 Ak ) = A−1 −1
p × · · · × A1 .

7. O conjunto das matrizes regulares de ordem n sobre um corpo K constitui


um grupo a respeito da multiplicação; tal grupo designa-se por GLn (K),
Grupo Linear Geral de ordem n.sobre K.

57
6 Teoria das Matrizes

8. Seja A ∈ Mn (K) uma matriz regular de ordem n sobre K. Se B ∈ Mn (K)


é tal que BA = In , então B = A−1 ; de igual modo, se B ∈ Mn (K) é tal
que AD = In então D = A−1 .

Demonstração.
1. Seja E uma matriz elementar de ordem n sobre K. Se E resultou de In
por troca de linhas (ou colunas) é fácil verificar que EE = In , logo E é
regular e inversa de si mesma. Com feito, se E resulta da troca das linhas
s e t; teremos (no caso da troca de linhas):

 Pn
n
X  Pj=1 esj ejk = etk , se i = s
n
(EE)ik = eij ejk = j=1 etj ejk = esk , se i = t

j=1 eik , se i 6= s, t
 ½

 1, se k = s

 , se i = s
 ½ 0, se k 6= s
= 1, se k = t = δ ik

 , se i = t

 0, se k =
6 t

eik , se i 6= s, t

Se E resultou da multiplicação da linha (ou coluna) s por um escalar


α ∈ K\ {0}, então, sendo F a matriz elementar resultante de multiplicar
a linha (ou coluna) s de In por a−1 , tem-se EF = In = F E, logo E é
regular. Efectivamente, no caso das linhas,

n
X ½
ess fsk = αfsk , se i = s
(EF )ik = eij fjk =
eik , se i 6= s
j=1
 ½
 1, se k = s
, se i = s
= 0, se k 6= s = δ ik

eik , se i 6= s

Se E se obteve somando à linha (ou coluna) s de In a linha (ou coluna)


t multiplicada por b ∈ K, a matriz H obtida de In somando à linha (ou
coluna) s a linha (ou coluna) t multiplicada por −b é tal que HE = In =
EH, logo E é regular. Com efeito, para as linhas,

n
X ½ Pn
(EH)ik = eij hjk = j=1 esj hjk = ess hsk + est htk , se i = s
eik , se i 6= s
j=1
 ½
 1 · 1 + 0 · 0 = 1, se k = s
, se i = s
= 1 · (−b) + b · 1 = 0, se k = t = δ ik

eik , se i 6= s

58
6 Teoria das Matrizes

2. Se A é regular teremos AA−1 = In , e pela Proposição (12) n = rc (In ) ≤


rc (A). Como A tem apenas n colunas, virá rc (A) = n. De igual modo,
como A−1 A = In , ter-se-á n = rl (In ) ≤ rl (A) e como A tem apenas n
linhas, virá rc (A) = n.
¡ ¢T ¡ ¢T
3. Basta verificar que AT A−1 = A−1 A = In .
4. Como DA = DA, tem-se, pela Proposição (12) rl (DA) ≤ rl (A). Mas
tem-se A = D−1 DA pelo que rl (DA) ≥ rl (A). Logo, rl (DA) = rl (A).
O raciocínio que demostra o resultado para as colunas é, em todo, semel-
hante.
¡ ¢
5. Basta verificar que (AB) B −1 A−1 = A BB −1 A−1 = AA−1 = In .
6. O resultado constitui uma generalização do resultado anterior e pode ser
demonstrado por indução sobre o número de factores do produto. Para
p = 2 o resultado está demonstrado. Suponhamos que o resultado é válido
para p − 1 factores. Pretende-se mostrar que também é válido para p
factores:

à p
!
Y ¡ −1 ¢
Ak Ap × · · · × A−1
1 =
k=1
¡ −1
¢
= (A1 × · · · × Ap ) A−1
p × · · · × A1
¡ ¢
= A1 × · · · × Ap A−1p × · · · × A−1
1
¡ −1 ¢
(porque Ap é regular) = (A1 × · · · × Ap−1 ) Ap−1 × · · · × A−1 1
= In (por hipótese)

7. Vimos no ponto 5. desta proposição que o referido conjunto é fechado


para a multiplicação; na Proposição (5) verificámos que a multiplicação
de matrizes é associativa; o elemento neutro In pertence ao conjunto;
finalmente, se A é regular A−1 também o é, o que significa que A−1 ∈
GLn (K). Conclui-se assim que GLn (K) é um grupo.
8. Se BA = In então BAA−1 = In A−1 , logo B = A−1 . De igual modo, se
AD = In então A−1 AD = A−1 In , logo D = A−1 .

Nota 11 Simbolicamente, a inversa de uma matriz regular é dada pelas seguin-


tes matrizes:
−1
• Eik = Eik
¡1¢
• Ei−1 (α) = Ei α , α 6= 0

59
6 Teoria das Matrizes

−1
• Eik (α) = Eik (−α)

A seguinte proposição é uma generalização do resultado estabelecido no


ponto 4 da Proposição (18):

Proposição 19 Seja A ∈ Mm×n (K). Se F ∈ Mn (K) e E ∈ Mm (K) forem


matrizes elementares então rl (AF ) = rl (A) e rc (EA) = rc (A).

0
Demonstração. Façamos a prova para as linhas. Considere-se A = AF ,
e recordemos que a multiplicação à direita por uma matriz elementar cor- re-
sponde a operar sobre as colunas (Proposição
n 0o 13). Designem-se as linhas de
0
A por {Ls }s=1,··· ,n e as de A por Ls . Suponhamos, sem perda de
s=1,··· ,n
generalidade, que {Ls }s=1,··· ,h são linearmente idependentes. Vejamos qual o
resultado da aplicação das três operações elementares sobre as linhas de A.
0
• Suponhamos então que A resulta
n 0 ode A por troca das colunas i e j, com i<
j. Mostremos que as linhas Ls são linearmente independentes:
s=1,··· ,h

h
X 0
λs Ls = 0 ⇐⇒
s=1
h
X £ ¤
λs as1 ··· asj ··· asi ··· asn = 0 ⇐⇒
s=1
h
X £ ¤
λs as1 ··· asi ··· asj ··· asn = 0 ⇐⇒
s=1
h
X
λs Ls = 0 =⇒
s=1
λs = 0, ∀s=1,··· ,h
n 0o
Assim, as linhas Ls são linearmente independentes.
s=1,··· ,n
0
Suponhamos agora que A resulta de A por multiplicação da coluna
n 0 o j desta
última por um escalar β ∈ K\ {0}. Mostremos que as linhas Ls
s=1,··· ,h
são linearmente independentes:

h
X 0
λs Ls = 0 ⇐⇒
s=1

60
6 Teoria das Matrizes

h
X £ ¤
λs as1 ··· β × asj ··· asn = 0 ⇐⇒
s=1
h
X £ ¤
λs as1 ··· asi ··· asj ··· asn = 0 ⇐⇒
s=1
h
X
λs Ls = 0 =⇒
s=1
λs = 0, ∀s=1,··· ,h

P
Em particular, relativamente às coordenadas de índice j, temos hs=1 λs ×
Ph Ph
β × asj = β s=1 λs asj = 0. Mas porque β 6= 0 virá s=1 λs asj = 0, isto
é

h
X £ ¤
λs as1 ··· asi ··· asj ··· asn = 0 ⇐⇒
s=1
h
X
λs Ls = 0 =⇒
s=1
λs = 0, ∀s=1,··· ,h
n 0o
Assim, as linhas Ls são linearmente independentes.
s=1,··· ,n
0
• Admitamos agora que A resulta de somar à coluna i de A a coluna j, com
in< j,
o multiplicada por um escalar β ∈ K\ {0}. Mostremos que as linhas
0
Ls são linearmente independentes:
s=1,··· ,h

h
X 0
λs Ls = 0 ⇐⇒
s=1
h
X £ ¤
λs as1 ··· asi + βasj ··· asj ··· asn = 0 ⇐⇒
s=1

61
6 Teoria das Matrizes

 Ph

 s=1 λs as1 = 0

 ..



 .

 Ph Ph
 λs asi + β

 s=1 s=1 λs asj = 0
.. ⇐⇒
 .

 Ph

 s=1 λs asj = 0



 .
..



 Ph
s=1 λs asn = 0
 Ph

 s=1 λs as1 = 0

 ..



 .
 Ph
 Ph


 s=1 λs asi + β s=1 λs asj = 0
.. ⇐⇒
 .

 Ph

 s=1 λs asj = 0



 ..

 .

 Ph
s=1 λs asn = 0
h
X £ ¤
λs as1 ··· asi ··· asj ··· asn = 0 ⇐⇒
s=1
h
X
λs Ls = 0 =⇒
s=1
λs = 0, ∀s=1,··· ,h
n 0o
Assim, as linhas Ls são linearmente independentes.
s=1,··· ,n
Concluímos assim, que rl (A) ≤ rl (AF ). Como F é uma matriz elemen-
0
tar, logo é regular e podemos escrever A = A F −1 , sendo também F −1
uma matriz elementar (como verificámos na demonstração
³ 0´ do
³ ponto ´1. da
0
−1
Proposição 18). Do mesmo modo, teremos rl A ≤ rl A F pela
Proposição 12, ou seja rl (AF ) ≤ rl (A), donde a igualdade.
Analogamente se prova a afirmação relativamente à característica de col-
una.

Nota 12 Em termos práticos, o que o resultado anterior nos indica é que oper-
ações elementares sobre as linhas de uma matriz não afectam a sua característica
de coluna e que as operaçõs elementares sobre as colunas de uma matriz não
afectam a sua característica de linha.

62
6 Teoria das Matrizes

Podemos portanto concluir que operações elementares sobre as linhas ou col-


unas de uma matriz não afectam a sua característica.

Proposição 20 Seja A ∈ Mn (K) uma matriz quadrada tal que rl (A) = n. A


redução da matriz A a uma matriz B em forma de escada por meio de operações
elementares sobre as linhas (ver Proposição 16) implica que B seja triangular
superior com todos os elementos principais não nulos.

Demonstração. Já verificámos na Proposição (16) que qualquer matriz é


redutível à forma de escada por meio de operações elementares, em particular
qualquer matriz A ∈ Mm×n (K).
Suponhamos que a matriz A está reduzida à forma de escada mas que, por
exemplo, bjj = 0, com 1 ≤ j ≤ n. Tal significa que o primeiro elemento
significativo da linha j será pelo menos bj,j+1 . Mas isso significa que o primeiro
elemento significativo da linha n será pelo menos bn,n+1 . Mas a matriz B é
quadrada, logo, a n-ésima linha de B é nula. Pela Proposição (10) as linhas
de B, e portanto de A, serão linearmente dependentes, implicando que rl (A) =
rl (B) < n, o que é absurdo. O absurdo resulta de assumirmos que um dos
elementos da diagonal de B é não nulo, logo bjj 6= 0, ∀1≤j≤n .

Assim, dada uma matriz A ∈ Mm×n (K) a matriz B, em forma de escada,


que daquela resulta por aplicação de operações elementares terá a forma:

 
1 b12 b13 ··· b1,n−2 b1,n−1 b1,n
 0 1 b23 ··· b2,n−2 b2,n−1 b2,n 
 
 0 0 1 ··· b3,n−2 b3,n−1 b3,n 
 
 .. .. .. .. .. .. 
 . . . . . .  (5)
 
 0 0 0 ··· 1 bn−2,n−1 bn−2,n 
 
 0 0 0 ··· 0 1 bn−1,n 
0 0 0 ··· 0 0 1

Continuando a proceder a operações elementares sobre linhas, poderemos


transformar B em In .
(1)
O seguinte conjunto de operações transformará a matriz B numa matriz B
onde a última coluna tem a forma {0, 0, 0, · · · 0, 0, 1}:

Ln−1 ← Ln−1 − bn−1,n × Ln


Ln−2 ← Ln−2 − bn−2,n × Ln
(6)
···
L1 ← L1 − b1,n × Ln

De igual modo, o seguinte conjunto de operações transformará a matriz B (1)


numa matriz B (2) onde a penúltima coluna tem a forma {0, 0, 0, · · · 0, 1, 0}:

63
6 Teoria das Matrizes

Ln−2 ← Ln−2 − bn−2,n−1 × Ln−1


Ln−3 ← Ln−3 − bn−3,n−1 × Ln−1
(7)
···
L1 ← L1 − b1,n−1 × Ln−1

Prossegue-se deste modo até se obter In .


A seguinte proposição enuncia o acima explicitado.

Proposição 21 Seja A ∈ Mn (K) uma matriz quadrada tal que rl (A) = n.


Através de um número finito de de operações elementares sobre as linhas é
possível transformar a matriz A na matriz In .

Proposição 22 Seja A ∈ Mn (K) uma matriz quadrada tal que rl (A) = n


(rc (A) = n). Então A é um produto de matrizes elementares, logo regular.

Demonstração. Verificámos, na Proposição 21, que é possível através


de operações elementares sobre linhas, transformar a matriz A na matriz In .
Suponhamos que precisámos de t destas operações, digamos Op1 ,Op2 ,Op3 ,· · ·,Opt,
para obter In . Vamos refazer o processo com o seguinte esquema:

Op1 Op1 ,
A −−−−−→ A1 In −−−−−→ E1

onde E1 é uma matriz elementar. Pelo estabelecido na Proposição 13 tem-se


ainda A1 = E1 · A. Efectuando uma sgunda operação tem-se:

Op2 Op2 Op2 ,


A1 −−−−−→ A2 E1 −−−−−→ E12 In −−−−−→ E2

onde A2 = E2 · A1 e E12 = E2 · E1 . Efectuando uma terceira operação,


tem-se:

Op3 Op3 Op3 ,


A2 −−−−−→ A3 E12 −−−−−→ E123 In −−−−−→ E3

onde A3 = E3 · A2 e E123 = E3 · E12 , e assim sucessivamente até à operação


Opt :

Opt Opt Opt ,


At−1 −−−−−→ At E12···t−1 −−−−−→ E12···t In −−−−−→ Et

onde At = Et · At−1 e E12···t = Et · E12···t−1 .

64
6 Teoria das Matrizes

Como se referiu no início da demonstração, depois da aplicação destas t


operações obteve-se a matriz In , isto é, At = In . Então,

E12···t = Et E12···t−1
= Et Et−1 · E12···t−2
= (· · · )
= Et Et−1 · · · · · E3 E2 E1

e ainda

In = At
= Et At−1
= Et Et−1 · At−2
= (· · · )
= Et Et−1 · · · · · E3 E2 E1 A
= E12···t A

Nos pontos 1 e 5 da Proposição 18, respectivamente, estabelecemos que toda


maatriz elementar é regular e que o produto de matrizes regulares é ainda uma
matriz regular. Conclui-se portanto que a matriz E12···t é regular. Pelo ponto
8 da Proposição 18 vem A = (E12···t )−1 , ou seja A = E1−1 E2−1 E3−1 · · · · · Et−1 .
Resta assinalar que cada Ei−1 , 1 ≤ i ≤ t é uma matriz elementar.

A seguinte proposição generaliza o resultado da Proposição 19.

Proposição 23 Seja A ∈ Mm×n (K). Se B ∈ Mn (K) e D ∈ Mm (K) forem


matrizes regulares então rl (AB) = rl (A) e rc (DA) = rc (A).

Demonstração. Façamos a prova para a característica de linha. Conforme


a Proposição 22, a matriz B é produto de matrizes elementares, digamos, B =
F1 F2 · · · Fi−1 Fi . Tendo em conta o resultado da Proposição 19

rl (AB) = rl (AF1 F2 · · · Fi−1 Fi )


= rl (AF1 F2 · · · Fi−1 )
= rl (AF1 F2 · · · Fi−2 )
= (· · · )
= rl (A)

Analogamente para a característica de coluna.

65
6 Teoria das Matrizes

Proposição 24 Seja A ∈ Mn (K).

1. A matriz A é regular se e só se rl (A) = n (ou rc (A) = n).


2. A matriz A é regular se e só se tiver uma inversa direita (respectivamente
esquerda), isto é, se existir uma matriz B ∈ Mn (K) tal que AB = In
(respectivamente BA = In ).

Demonstração.
1. Pelo ponto 2. da Proposição (18) se A é regular então rl (A) = n. Pela
Proposição (22), se rl (A) = n então A é regular. Analogamente para
rc (A) = n.
2. Se A é regular, por definição existe uma matriz B ∈ Mn (K) tal que AB =
In = BA. Se AB = In , pela Proposição (12) tem-se n = rc (In ) ≤ rc (B),
logo rc (A) = n, e portanto A é regular pelo ponto anterior.

6.7.2 Determinação da Inversa de uma Matriz Regular


Nesta secção apresenta-se um método prático para a determinação da matriz
inversa de uma matriz A ∈ Mn (K) regular. Pela Proposição (21) sabemos que
existem matrizes elementares E1 , E2 , · · · Et tais que Et Et−1 · · · E2 E1 A = In ,
logo A−1 = Et Et−1 · · · E2 E1 A Isto significa que, se conhecermos sucessivamente
as matrizes elementares que permitem passar de A a In . conhecermos a matriz
B tal que BA = £In , isto ¤é, conheceremos a inversa de A. Consideremos então a
matriz ampliada A|In do tipo n×2n e apliquemos toda a operação elementar
sobre as as linhas de A às linhas de In . Suponhamos que Op1 , Op2 , · · · Opt são
as operações elementares a aplicar sobre a matriz A.

£ ¤ £ ¤ £ ¤
A|In Op1 A1 |E1 In Op2 A2 |E2 E1 Op3
£ −−−−−¤→ £ −−¤−−−→ £ −−−− −→ ¤
A3 |E3 E2 E1 −−·−·−
·→ A1 |E1 Opt In |Et Et−1 · · · E2 E1
−−−−−→
£ ¤ £ ¤
O que fizemos foi passar de uma matriz A|In para uma matriz In |B
através de operações elementares sobre linhas, em que B = A−1 .

Exemplo 17 Consideremos a seguinte matriz real,

 
1 1 1
A =  1 −1 1 
1 1 0

66
6 Teoria das Matrizes

Vamos veriicar se a matriz A é regular e, em caso afirmativo, determinar a


sua inversa. Em vez de condensar primeiro a matriz A, de modo£ a determinar
¤
a
£ característica,
¤ e no caso em que r l (A) = n, partindo de
£ A|I n¤ chegar a
In |B vamos começar imediatamente com a redução de A|In . Assim, se
A for regular, não é necessário repetir as operações elementares já efectuadas:
 ¯ 
1 1 1 ¯¯ 1 0 0
 1 −1 1 ¯ 0 1 0  L2 ←− L2 − L1
¯ L3 ←− L3 − L1
1 1 0 ¯ 0 0 1 −−− −−−−−−−−−→
 ¯ 
1 1 1 ¯¯ 1 0 0 1
 0 −2 0 ¯ −1 1 0  L2 ←− − 2 L2
¯ L ←− −L3
0 0 −1 ¯ −1 0 1 −−−3−−−−−−−− →
 ¯ 
¯
1 1 1 ¯ 1 0 0
 0 1 0 ¯ 1 − 1 0  L1 ←− L1 − L3
¯ 2 2 −−−−−−−−−−−→
0 0 1 ¯ 1 0 −1
 ¯ 
1 1 0 ¯¯ 0 0 1
 0 1 0 ¯ 1 − 1 0  L1 ←− L1 − L2
¯ 2 2 −−−−−−−−−−−→
0 0 1 ¯ 1 0 −1
 ¯ 
1 0 0 ¯¯ − 12 1
2 1
 0 1 0 ¯ 1 −1 0 
¯ 2 2
0 0 1 ¯ 1 0 −1
Tem-se claramente que,

 
− 12 1
2 1
A−1 =  1
2 − 12 0 
1 0 −1
Conclui-se assim que a matriz é regular, conclusão esta atingida ao fim das
duas primeiras operações sobre as linhas de A, quando se obteve uma matriz
em escada de elementos principais significativos. Se a matriz A não fosse reg-
ular o processo teria terminado aqui. Sendo regular, prosseguiu-se na aplicação
de operações elementares sobre as linhas de A até se obter I3 enquanto que
simultaneamente determinávamos A−1 por aplicação das mesmas operações el-
ementares sobre I3 .
Note-se que às operações elementares utilizadas correspondem, utilizando a
notação habitual, as seguintes matrizes elementares

L2 ←− L2 − L1 : E21 (−1)
L3 ←− L3 − L1 : E31¡(−1)¢
L2 ←− − 12 L2 : E2 − 12
L3 ←− −L3 : E3 (−1)
L1 ←− L1 − L3 : E13 (−1)
L1 ←− L1 − L2 : E12 (−1)

67
6 Teoria das Matrizes

Tal significa, segundo o que verificámos na proposição 22, que a matriz A−1
pode ser produzida pelo produto, pela ordem correcta!, das matrizes elementares
acima descritas. Verifiquemos então esse resultado:

µ ¶
1
A−1 = E12 (−1) · E13 (−1) · E3 (−1) · E2 − · E31 (−1) · E21 (−1) =
2
      
1 −1 0 1 0 −1 10 0 1 0 0 1 00 1 00
· 0 1 0 
=  0 1 0  ·  0 1 0 · 0 − 12 0 ·  0 1 0  · −1 1 0 =
0 0 1 00 1 0 0 −1 0 0 1 −1 0 1 0 01
     1 1

1 −1 −1 1 0 0 1 0 0 −2 2 1
= 0 1 0   0 − 12 0   −1 1 0  =  12 − 12 0 
0 0 1 0 0 −1 −1 0 1 1 0 −1

Como seria inevitável, a matriz obtida pelo produto das matrizes elementares
é precisamente A−1 .
Por um processo semelhante, também será possível recuperar a matriz A.
Com efeito, esta matriz será a inversa do produto de matrizes elementares de-
scrito anteriormente. Sabendo que a inversa de uma matriz elementar tem uma
forma extremamente simples, é relativamente simples determinar A, como se
verifica em seguida:

· µ ¶ ¸−1
1
A = E12 (−1) · E13 (−1) · E3 (−1) · E2 − · E31 (−1) · E21 (−1) =
2
µ ¶
−1 −1 1
E21 (−1) · E31 (−1) · E2−1 − · E3−1 (−1) · E13
−1 −1
(−1) · E12 (−1) =
2
E21 (1) · E31 (1) · E2 (−2) · E3 (−1) · E13 (1) · E12 (1) =
      
100 100 1 0 0 10 0 101 110
=  1 1 0 · 0 1 0 ·  0 −2 0 · 0 1 0  · 0 1 0  =
·  0 1 0 
001 101 0 0 1 0 0 −1 001 001
     
1 0 0 1 0 0 1 1 1 1 1 1
=  1 1 0   0 −2 0   0 1 1  =  1 −1 −1 
1 0 1 0 0 −1 0 0 1 1 1 0

Definição 32 (Inversão por Condensação) Ao método atrás descrito para


a inversão de uma qualquer matriz A ∈ Mn (K) dá-se o nome de Inversão por
Condensação.

Nota 13 É extremamente importante lembrar que a determinação da inversa


de uma matriz através do método descrito só pode ser realizada exclusivamente

68
6 Teoria das Matrizes

por aplicação de operações elementares sobre linhas. Com efeito, só assim é pos-
sível afirmar que Et Et−1 · · · E2 E1 A = In e que portanto A−1 = Et Et−1 · · · E2 E1 .
Se forem aplicadas operações sobre colunas, definidas pelas matrizes elementares
F1 , F2 , · · · Fs , chegar-se-á à conclusão que Et Et−1 · · · E2 E1 AF1 F2 · · · Fs = In .
Esta expressão não está, obviamente, na forma BA = In não permitindo inferir
imediatamente a forma de A−1 .

Nota 14 Quando uma matriz A ∈ Mn (K) não é regular esta circunstância é


facilmente identificável durante o processo de inversão da matriz. Sucederá que
em determinado ponto, após a aplicação
£ de
¤ s operações elementares sobre linhas,
se obterá uma matriz do tipo As |Es em que o próximo elemento redutor
não poderá ter outro valor que não 0. Tal significa que não é possível reduzir
a matriz A original a uma matriz triangular superior com elementos proncipais
não nulos. Consequentemente, segundo a Proposição 20 a característica da
matriz será inferior a n e portanto não será regular.

Exemplo 18 Ilustremos a Nota anterior com a seguinte matriz real,

 
1 1 1
A =  1 −1 1 
−1 −3 −1

 ¯ 
1 1 1 ¯¯ 1 0 0
 1 −1 1 ¯ 0 1 0  L2 ←− L2 − L1
¯ L3 ←− L3 + L1
−1 −3 −1 ¯ 0 0 1 −−− −−−−−−−−−→
 ¯ 
¯
1 1 1 ¯ 1 0 0
 0 −2 0 ¯ −1 1 0  L3 ←− L3 − L2
¯ −−−−−−−−−−−−→
0 −2 0 ¯ 1 0 1
 ¯ 
1 1 1 ¯¯ 1 0 0
 0 −2 0 ¯ −1 1 0 
¯
0 0 0 ¯ 2 −1 1
£ ¤
Obteve-se uma matriz na forma A3 |E3 . Note-se que, neste ponto não há
forma de colocar na posição (3, 3) um elemento não nulo sem com essa operação
anular a configuração em forma de escada da matriz A3 . Conclui-se assim que
a matriz A não é regular. Mais se conclui que, como a matriz A3 está na forma
de escada, que a caratcterística da matriz A é 2.

69
6 Teoria das Matrizes

6.8 A Característica Revisitada


Na secção 6.6 estudámos um método, designado por Condensação Vertical,
para a determinação da característca de linha de uma qualquer matriz A ∈
Mm×n (K). Nesta secção vamos estudar a relação entre três valores: a carac-
terísitca de linha, a característica de coluna e a característica de uma matriz.
Esse estudo resume-se ao seguinte resultado:

Proposição 25 Seja A ∈ Mm×n (K). A características de linha e de coluna


da matriz A são iguais, isto é, rl (A) = rc (A).

Demonstração. Verificámos na Proposição 16 que a matriz A pode ser


reduzida a uma matriz A(1) , em forma de escada, por meio de operações ele-
mentares sobre as linhas da matriz A. Tal significa, por aplicação da Proposição
13 que existe uma matriz E, regular, tal que EA = A(1) . A matriz A(1) terá a
seguinte forma genérica:

 
0···0 1 b1,j1 +1 b1,j1 +2 · · · b1,j2 b1,j2 +1 · · · b1,j3 b1,j3 +1 · · · b1,jt · · · b1n
0 · · · 0
0 0 0 · · · 1 b2,j2 +1 · · · b2,j3 b2,j3 +1 · · · b2,jt · · · b2n
 
0 · · · 0
0 0 0 ··· 0 0 · · · 1 b3,j3 +1 · · · b3,jt · · · b3n
 
.. ..
.. .. .. .. .. .. .. .. .. 
. .. . . . . . . . . 
 
0 · · · 0
0 0 0 ··· 0 0 ··· 0 0 · · · 1 · · · btn
 
0 · · · 0
0 0 0 ··· 0 0 ··· 0 0 ··· 0 ··· 0 
 
.. ..
.. .. .. .. .. .. .. .. .. 
. .. . . . . . . . . 
0···0 0 0 0 ··· 0 0 ··· 0 0 ··· 0 ··· 0

Poderemos agora efectuar t trocas de colunas de modo a obter uma matriz


A(2) cuja forma é a seguinte:

 
1 b1,j2 b1,j3 · · · b1,jt b1,j1 +1 b1,j1 +2 · · · b1,j2 +1 · · · b1,j3 +1 · · · b1n 0···0
0 1 b2,j3 · · · b2,jt 0 0 · · · b2,j2 +1 · · · b2,j3 +1 · · · b2n 0 · · · 0
 
0 0 1 · · · b3,jt 0 0 ··· 0 · · · b3,j3 +1 · · · b3n 0 · · · 0
 
.. .. .. .. .. .. .. .. .. .. ..
. . . . . . . . . . .
 
0 0 0 ··· 1 0 0 ··· 0 ··· 0 · · · btn 0 · · · 0
 
0 0 0 ··· 0 0 0 ··· 0 ··· 0 ··· 0 0 · · · 0
 
. . .. .. .. .. .. .. .. .. ..
.
. . . . . . . . . . . .
0 0 0 ··· 0 0 0 ··· 0 ··· 0 ··· 0 0···0

Seguidamente, através de operações de Jacobi sobre colunas poderemos uti-


(2)
lizar o elemento redutor a11 para anular os elementos não nulos da primeira
(2)
linha de A(2) ; de igual modo, utilizaremos o elemento redutor a22 para anular

70
6 Teoria das Matrizes

os elementos não nulos da segunda linha de A(2) . Prosseguindo deste modo


(2)
até ao elemento redutor att poderemos constatar que a matriz A(2) pode ser
transformada, através de operações elementares sobre colunas, na matriz A(3) .
Tal significa, por aplicação da Proposição 13 que existe uma matriz F , regular,
tal que A(1) F = A(3) . A matriz A(3) terá a seguinte forma genérica, numa
representação por blocos:

· ¸
(3) It 0t,n−t
A =
0m−t,t 0m−t,n−t

Em resumo, existem matrizes regulares E e F¡ tais¢que EAF = A(3) .


Reconhecendo que, nestas circunstâncias, rc A(3) = t e, por aplicação do
ponto 3 da Proposição 18 e da Proposição 23 concluímos que:

³ ´
t = rl A(3) = rl (EAF ) = rl (AF ) = rl (A)
³ ´
t = rc A(3) = rc (EAF ) = rc (AF ) = rc (A)

Resulta imediatamente que rl (A) = rc (A).

A este valor rl (A) = rc (A) dá-se o nome de característica da matriz A e


designa-se simplesmente por r (A).

Definição 33· (Forma Canónica ¸ de uma Matriz) Seja A ∈ Mm×n (K). A


It 0t,n−t
matriz B = que resulta de A por aplicação de operações
0m−t,t 0m−t,n−t
elementares às suas linhas e colunas designa-se por forma canónica equiva-
lente a A.

Definição 34 (Condensação de uma Matriz) Seja A ∈ Mm×n (K). O pro-


cesso que permite determinar a forma canónica equivalente a A designa-se por
condensação da matriz A.

Nota 15 O processo de condensação não consiste necessariamente na aplicação


de um conjunto de operações elementares sobre linhas seguido da aplicação de
um conjunto de operações elementares sobre colunas. A aplicação inicial de
um conjunto de operações elementares sobre linhas, processo que se designa
por condensação vertical como definido na Definição 29 permite determinar a
característica da matriz, digamos r (A). A partir daqui, o problema consiste,
através de operações elementares, indiferentemente sobre linhas ou colunas, em
criar uma matriz, cuja submatriz ocupando as primeiras r (A) linhas e colunas
é a identidade de ordem r (A) e os restantes elementos da matriz são nulos.

71
6 Teoria das Matrizes

Exemplo 19 Pelo processo de condensação determine-se a forma canónica de


cada uma das seguinte matrizes
 
1 1 −1 −1 0
1.  13 0 13 4 9 
27 1 25 7 18
 
1 1 −1 −1 0
 13 0 13 L ←− L2 − 13 × L1
4 9  2
L3 ←− L3 − 27 × L1
27 1 25 7 18 −−− −−−−−−−−−−−−−→
 
1 1 −1 −1 0
 0 −13 26 17 9  L3 ←− L3 − 2 × L2
−−−−−−−−−−−−−−→
0 −26 52 34 18
 
1 1 −1 −1 0 C2 ←− C2 − C1
 0 −13 26 17 9  C3 ←− C3 + C1
0 0 0 0 0 C4 ←− C4 + C1
  −−−−−−−−−−−−−→
1 0 0 0 0 C3 ←− C3 + 2 × C2
 0 −13 26 17 9  C4 ←− C4 + 17 × C2
13
9
0 0 0 0 0 C5 ←− C5 + 13 × C2
  − −−−−−−−−−−−− −−−−→
1 0 0 0 0
 0 −13 0 0 0  C2 ←− − 1 C2
−−−−−−−−−13
−−−→
0 0 0 0 0
 
1 0 0 0 0
 0 1 0 0 0 
0 0 0 0 0
 
1 2 1
 1 −5 1 
 
2. 
 2 2 3 
 1 −1 1 
0 0 1
   
1 2 1 1 2 1
1 −5 1  L ←−L −L  0 
  2 2 1 0 −7  1
2 2 3  L ←−L −2×L 
1 0 −2 1 
  3 3 L2 ←− − 7 L2
1 −1 −2  L4 ←−L4 −L1  0 −3 −3 −−−−−−−−−→
−−−−−−−−−−−−−→
0 0 1 0 0 1

72
6 Teoria das Matrizes

   
1 2 1 1 2 1
0 1 0  0 1 0 
  L3 ←−L3 +2×L2   L4 ←−L4 +3×L3
0 −2 1   1 
  L4 ←−L4 +3×L2  0 0  L4 ←−L4 −L3
0 −3 
−3 −−−−−−−−−−−−−→ 0 0 −3 −−−− −−−−−−−−−→
0 0 1 0 0 1
 
1 2 1
 0 1 0 
 
 0 0 1 
 
 0 0 0 
0 0 0

A partir deste ponto temos duas alternativas possíveis. Ou prosseguimos


com operações elementares sobre linhas, ou com operações elementares
sobre colunas. Atente-se que o objectivo é criar uma matriz onde a iden-
tidade de ordem igual à característica da matriz, neste caso, obviamente,
3, constitui uma submatriz ocupando as primeiras 3 linhas e colunas da
matriz, sendo os restantes elementos da matriz nulos.
Utilizando operações elementares sobre linhas obtém-se:

   
1 2 1 1 2 0
 0 1 0   0 1 0 
   
 0 0 1  L1 ←− L1 − L3  0 0 1  L1 ←− L1 − 2 × L2
  −−−−−−−−−−−−→   −−−−−−−−−−−−−−−−→
 0 0 0   0 0 0 
0 0 0 0 0 0
 
1 0 0
 0 1 0 
 
 0 0 1 
 
 0 0 0 
0 0 0

Utilizando operações elementares sobre colunas obtém-se:

   
1 2 1 1 0 0
 0 1 0   0 1 0 
  C2 ←− C2 − 2 × C1  
 0 0 1   0 0 1 
   
 0 0 0  −−−C3 ←− C3 − C1
−−−−−−−−−−−−−→  0 0 0 
0 0 0 0 0 0

73
6 Teoria das Matrizes

6.9 Resolução de Sistemas de Equações Lineares


Nesta secção focaremos o problema que consiste na resolução de sistemas de
equações lineares. A aplicação da Teoria das Matrizes estudada ao longo das úl-
timas secções revelar-se-á de fundamental importância para este estudo. Inicia-
se esta exposição com algumas definições.

6.9.1 Enquadramento Teórico


Definição 35 (Equação Linear) Seja K um corpo. A igualdade

a1 x1 + a2 x2 + · · · + an−1 xn−1 + an xn = b

designa-se por equação linear. Os escalares {ai }j=1,...,n ∈ K designam-se


por coeficientes da equação, o escalar b ∈ K designa-se por termo inde-
pendente e os elementos {xi }j=1,...,n ∈ K designam-se por incógnitas (ou
variáveis) da equação. Uma equação linear em que as parcelas associadas às
incógnitas surgem no termo esquerdo da equação e o termo independente con-
stitui o termo direito, diz-se escrita na forma canónica.

Nota 16 O termo ”linear” significa que se trata de uma equação do primeiro


grau em cada uma das incógnitas.

Exemplo 20 Classifiquemos as seguintes equações relativamente à sua natureza


linear (ou não-linear):

• x + y − y 2 = 10 é uma equação não-linear uma vez que tem a parcela não


linear −y 2 .
• xy − x + y − 12 = 0 é uma equação não-linear uma vez que tem a parcela
não linear xy.
• x2 + y 3 = 0 é uma equação não-linear uma vez que tem as parcelas não
lineares x2 e y 3 .
• x + 2y + 6z = 7 é uma equação linear nas variáveis x, y e z.
• x + y − 2 = 0 é uma equação linear nas variáveis x e y. Basta verificar
que a equação pode ser reescrita na forma canónica como x + y = 2.

Definição 36 (Sistema de Equações Lineares) Seja K um corpo. Consi-


dere-se um conjunto de m equações lineares da forma

ai1 x1 + ai2 x2 + · · · + ai,n−1 xn−1 + ain xn = bi

74
6 Teoria das Matrizes

Quando se pretende resolver simultaneamente todas as equações, diz-se que


se tem um sistema de m equações lineares nas n incógnitas {xj }j=1,...,n , so qual
se representa do seguinte modo:



 a11 x1 + a12 x2 + · · · + a1,n−1 xn−1 + a1n xn = b1

a21 x1 + a22 x2 + · · · + a2,n−1 xn−1 + a2n xn = b1
(8)

 ···

am1 x1 + am2 x2 + · · · + am,n−1 xn−1 + amn xn = b1

Os escalares {aij }i=1,...,m; j=1,...,n ∈ K designam-se por coeficientes do


sistema, os escalares {bi }i=1,...,m ∈ K designam-se por termos indepen-
dentes do sistema.

Qualquer sistema de m equações a n incógnitas pode ser escrito na forma


matricial se atendermos ao seguinte:

• Os coeficientes do sistema, {aij }i=1,...,m; j=1,...,n ∈ K, podem ser descritos


como uma matriz A ∈ Mm×n (K), cujo elemento aij é precisamente o
coeficiente da incógnita xj na i-ésima equação.
• Os termos independentes do sistema, {bi }i=1,...,m ∈ K, podem ser de-
scritos como uma matriz coluna B ∈ Mm×1 (K), cujo elemento bi é pre-
cisamente o termo independete da i-ésima equação.
• As incógnitas do sistema, {xj }j=1,...,n ∈ K, podem ser descritas como uma
matriz coluna X ∈ Mn×1 (K), cujo elemento xj é precisamente a j-ésima
incógnita.

Nestas circunstâncias, o sistema de equações definido pelas matrizes A, B e


X pode ser escrito como sendo a equação matricial :

AX = B (9)

Note-se que o produto de matrizes AX é uma matriz do tipo Mm×1 (K),


precisamente o tipo da matriz B. A cada coluna da matriz de coeficientes, A,
corresponde uma incógnita; assim, a j − ésima coluna da matriz A é composta
pelos coeficientes da variável xj nas m equações do sistema.

Exemplo 21 Consideremos os seguintes sistemas de equações lineares e a sua


representação na forma de equações matriciais:
½
x + y = 1800
• 2 1
3 x + 2 y = 1100
O sistema pode ser escrito na forma matricial do seguinte modo:

75
6 Teoria das Matrizes

· ¸· ¸ · ¸
1 1 x 1800
2 1 =
3 2 y 1100
½
3x + 2y + z = 39

2x + 3y + z = 34
Este sistema pode ser escrito matricialmente na forma:

 
· ¸ x · ¸
3 2 1  y  = 39
2 3 1 34
z

 10 + 11x + 12y = 0
• 20 + 21x + 22y = 0

30 + 31x + 32y = 0
O sistema acima, reescrito na forma canónica, apresenta-se do seguinte
modo:


 11x + 12y = −10
21x + 22y = −20

31x + 32y = −30

A respectiva equação matricial será portanto da forma:

 
11 12 · ¸ −10
 21 22  x = −20
y
31 32 −30

Definição 37 Considere-se um sistema de equações lineares dado pela equação


matricial AX = B, onde A ∈ Mm×n (K), B ∈ Mm×1 (K) e X ∈ Mn×1 (K).

• Designa-se por solução do sistema a toda a matriz D ∈ Mn×1 (K) tal


que AD = B.
• A matriz A designa-se por matriz simples do sistema e a matriz [ A| B]
designa-se por matriz ampliada.
• O sistema dir-se-á homogéneo se B=0; caso contrário dir-se-á não ho-
mogéneo.

76
6 Teoria das Matrizes

Do acima exposto conclui-se que o estudo da resolubilidade do sistema de


equações (8) é, pois, o da resolubilidade da equação matricial (9).

Definição 38 (Solubilidade de um Sistema de Equações) Um sistema de


equações lineares é dado pela equação matricial AX = B, onde A ∈ Mm×n (K),
B ∈ Mm×1 (K) e X ∈ Mn×1 (K).

• Diz-se que o sistema de equações AX = B é possível quando tem pelo


menos uma solução, isto é, quando existe pelo menos uma matriz D ∈
Mn×1 (K) tal que AD = B. Se existe uma e uma só solução o sistema diz-
se determinado; se existir mais que uma solução diz-se indeterminado.
• Diz-se que o sistema é impossível se não existe nenhum D ∈ Mn×1 (K)
tal que AD = B.

Definição 39 (Equivalência de Sistemas de Equações) Dois sistemas de


equações lineares são dados pelas equações matriciais AX = B e A0 X = B 0
onde A, A0 ∈ Mm×n (K), B 0 , B ∈ Mm×1 (K) e X ∈ Mn×1 (K). Os sistemas
dizem-se equivalentes se toda a solução de uma equação for solução da outra.

Proposição 26 Considere-se um sistema de equações lineares dado pela equa-


ção matricial AX = B, onde A ∈ Mm×n (K), B ∈ Mm×1 (K) e X ∈ Mn×1 (K).

1. Dada uma matriz regular P∈Mm (K), os sistemas AX=B e (P A) X=P B


são equivalentes.
2. Se Q ∈ Mn (K) for uma matriz regular, existirá uma bijecção entre o
conjunto de solução da equação AX = B e o conjunto de soluções da
equação (AQ) Y = B. Tal bijecção é definida por:

f : {sol. de AX = B} → {sol. de (AQ) Y = B}


X0 7−→ Q−1 X0

Demonstração.
1. Basta verificar que, dada a regularidade da matriz P , então P −1 existe e
portanto

(P A) X = P B ⇐⇒
−1
P (P A) X = P −1 P B ⇐⇒
IAX = IB ⇐⇒
AX = B

77
6 Teoria das Matrizes

2. Injectividade. Temos de mostrar que

∀X0 ,X1 :AX0 =AX1 =B , f (X0 ) = f (X1 ) ⇒ X0 = X1

Obviamente que

f (X0 ) = f (X1 ) ⇒
Q−1 X0 = Q−1 X1 ⇒
¡ ¢ ¡ ¢
QQ−1 X0 = QQ−1 X1 ⇒
IX0 = IX1 ⇒
X0 = X1

Sobrejectividade. Temos de verificar que

∀D:(AQ)D=B , ∃X0 :AX0 =B : f (X0 ) = D

Basta portanto exibirmos X0 . Escolhamos X0 = QD. É claro que X0


resolve AX = B, uma vez que

AX0 = A (QD)
= (AQ) D
= B

O ponto 1. da proposição anterior mostra que, ao aplicarem-se as mesmas


operações elementares sobre linhas à matriz A e à matriz B se obtém sistemas
de equações equivalentes. A aplicação das operações elementares reside na mul-
tiplicação da matriz A e B, à esquerda, pela matriz P , regular. Lembremos
que, pela proposição 22, se P é uma matriz regular então é produto de matrizes
elementares.
Esta prática, que consiste em operar sobre as equações que compõem um
sistema de equações lineares, foi introduzida no ensino pré-universitário com
o objectivo de ”simplificar” algumas equações, nomeadamente no que diz re-
speito ao número de variáveis que contêm. Consideremos o seguinte exemplo de
enquadramento:

Exemplo 22 Consideremos o seguinte sistema de equações lineares:

78
6 Teoria das Matrizes


 x1 + 2x2 − x3 = 1
−2x1 + 4x2 + x3 = 0

−x1 + 6x2 = −1
A ”simplificação” deste sistema de equações consistia, por exemplo, em
”eliminar” a variável x1 da primeira equação; para tal, somava-se a primeira
com a terceira equação, para se obter 8x2 − x3 = 0; esta equação, com duas var-
iáveis, vinha agora substituir a primeira equação do sistema, com três variáveis,
para se obter um sistema equivalente:

 8x2 − x3 = 0
−2x1 + 4x2 + x3 = 0

−x1 + 6x2 = −1
Prosseguia-se agora com a resolução resolvendo explicitamente para algu-
mas variáveis e substituindo o resultado nas equações com maior número de
variáveis. A equivalência dos dois sistemas nunca foi justificada rigorosamente,
embora fosse intuitivamente evidente. No entanto, agora, à luz da teoria das
matrizes, é simples verificar que a transformação efectuada consistiu em tomar
a matriz elementar,

 
1 0 1
E= 0 1 0 
0 0 1
e multiplicá-la à esquerda das matrizes dos coeficientes e dos termos inde-
pendentes do sistema original, respectivamente,

   
1 2 −1 1
A =  −2 4 1  e B =  0 
−1 6 0 −1
O resultado obtido, é, como não podia deixar de ser,

    
1 0 1 1 2 −1 0 8 −1
A0 =  0 1 0   −2 4 1  =  −2 4 1  e
0 0 1 −1 6 0 −1 6 0
    
1 0 1 1 0
B0 =  0 1 0  0  =  0 
0 0 1 −1 −1
Note-se que as matrizes A0 e B 0 são precisamente as matrizes de coeficientes
e de termos independentes do sistema após a transformação. Portanto, os sis-
temas AX = B e A0 X = B 0 são equivalentes porque A0 = EA e B 0 = EB e E
é uma matriz elementar, logo regular.

79
6 Teoria das Matrizes

Note-se ainda que a matriz elementar E está associada à operação de Jacobi


L1 ←− L1 + L3 aplicada sobre a matriz ampliada do sistema AX = B, isto é:
 ¯ 
1 2 −1 ¯¯ 1
[ A| B] =  −2 4 1 ¯¯ 0  − L−1−←− L−
−−−− +
1−−−L
→3
−1 6 0 ¯ −1
 ¯ 
0 8 −1 ¯¯ 0
 −2 4 1 ¯ 0  = [ A0 | B 0 ]
¯
−1 6 0 ¯ −1

Do exposto anteriormente, poder-se-á concluir que o estudo da matriz ampli-


ada de um sistema, [ A| B], permite determinar a natureza e solução (se existir)
de qualquer sistema de equações lineares.
Proposição 27 (Teorema de Rouché) Considere-se um sistema de equações
lineares dado pela equação matricial AX =B, onde A∈Mm×n (K), B∈Mm×1 (K)
e X ∈Mn×1 (K). O sistema AX = B é possível se e só se r (A) = r ([ A| B]).

Demonstração. Para benefício do leitor apresentam-se duas demonstrações


para este importante Teorema. A primeira versão, baseada na aplicação de
Operações Elementares e a segunda baseada na independência linear das colunas
de uma matriz.
Versão 1:
Comecemos por transformar o sistema AX = B no sistema equivalente
A0 X = B 0 , em que a matriz ampliada do sistema original, [ A| B], é reduzida
a uma matriz [ A0 | B 0 ] em forma de escada reduzida por meio de operações ele-
mentares sobre linhas, e que constitui a matriz ampliada do sistema A0 X = B 0 .
Foi verificado na Proposição 16 que esta redução é sempre possível. A matriz
[ A0 | B 0 ] terá a seguinte forma:

 ¯ 
¯
¯
0 · · · 0 1 a01,j1 +1 a01,j1 +2 · · · a01,j2 a01,j2 +1 · · · a01,j3 a01,j3 +1 · · · a01,jt · · · a01n¯¯ b01 
 
0 · · · 0 0 0 0 · · · 1 a02,j2 +1 · · · a02,j3 a02,j3 +1 · · · a02,jt · · · a02n¯¯ b02 
 
0 · · · 0 0 0 0 ··· 0 0 · · · 1 a03,j3 +1 · · · a03,jt · · · a03n¯¯ b03 
 
. .. .. .. .. .. .. .. .. .. .. ¯¯ .. 
. 
. . . . . . . . . . . ¯ . 
 0 ¯ b0 
0 · · · 0 0 0 0 ··· 0 0 ··· 0 0 ··· 1 · · · atn¯ t 
 ¯ 
0 · · · 0 0 0 0 ··· 0 0 ··· 0 0 ··· 0 · · · 0 ¯ b0t+1 
 ¯ 
0 · · · 0 0 0 0 ··· 0 0 ··· 0 0 ··· 0 ··· 0 ¯ 0 
. .. .. .. .. .. .. .. .. .. ¯
.. ¯ .. 
. 
. . . . . . . . . . . ¯ . 
 ¯ 
0 · · · 0 0 0 0 ··· 0 0 ··· 0 0 ··· 0 ··· 0 ¯ 0 
| {z ¯
}¯ |{z}
A0 B 0

80
6 Teoria das Matrizes

(=⇒) Suponhamos que o sistema AX = B é solúvel, então A0 X = B 0 também


o será. Mas sendo este sistema solúvel, então b0t+1,n = 0. Com efeito, se
b0t+1,n 6= 0, a equação t + 1 terá a forma 0 = b0t+1,n , condição impossível.
Esta situação constitui um absurdo, pelo que, se o sistema é solúvel, se
deverá ter b0t+1,n = 0. Ora, neste caso a (t + 1) − ésima linha da matriz
ampliada [ A0 | B 0 ] é nula. A matriz ampliada [ A0 | B 0 ] terá portanto t linhas
não nulas onde pelo menos um elemento da linha t da matriz A0 é não
nulo. Imediatamente resulta que r (A0 ) = r ([ A0 | B 0 ]), ou, sabendo que
as operações elementares sobre as linha de uma matriz não alteram a sua
característica, pela Proposição 14, r (A) = r ([ A| B]).
(⇐=) Suponhamos que r (A) = r ([ A| B]). Então r (A0 ) = r ([ A0 | B 0 ]). Esta cir-
cunstância implica que b0t+1,n = 0. Se assim não fosse, teríamos r (A0 ) <
r ([ A0 | B 0 ]), o que contraria a hipótese. Posto isto, basta exibir uma
solução para o sistema A0 X = B 0 para mostrarmos que AX = B é solúvel.
Seja {j1 , · · · jt } o conjunto dos índices de coluna associados às colunas de
A0 que contêm um elemento redutor. Através de operações elementares
sobre as linhas de [ A0 | B 0 ], utilizemos o elemento redutor da i − ésima
linha, com i = 2, · · · , t, e que está na posição (i, ji ), para anular todos
os elementos não nulos da coluna ji . Para o efeito, vamos aplicar um
conjunto de operações de Jacobi sobre as linhas de [ A0 | B 0 ]. Obteremos
com este processo, um sistema A00 X = B 00 equivalente a A0 X = B 0 , e
portanto a AX = B, cuja matriz ampliada [ A00 | B 00 ] está em forma de
escada reduzida, com a seguinte forma:

 ¯ 
¯
¯
0 · · · 0 1 a001,j1 +1 a001,j1 +2 · · · 0 a001,j2 +1 · · · 0 a001,j3 +1 · · · 0 · · · a001n¯¯ b001 
 
0 · · · 0 0 0 0 · · · 1 a002,j2 +1 · · · 0 a002,j3 +1 · · · 0 · · · a002n¯¯ b002 
 
0 · · · 0 0 0 0 ···0 0 · · · 1 a003,j3 +1 · · · 0 · · · a003n¯¯ b003 
 
. .. .. .. .. .. .. .. .. .. .. ¯¯ .. 
. 
. . . . . . . . . . . ¯ . 
 ¯ 
0 · · · 0 0 0 0 ···0 0 ···0 0 ···1 · · · a00tn¯ b00t 
 ¯ 00 
0 · · · 0 0 0 0 ···0 0 ···0 0 ···0 · · · 0 ¯ bt+1 
 ¯ 
0 · · · 0 0 0 0 ···0 0 ···0 0 ···0 ··· 0 ¯ 0 
. .. .. .. .. .. .. .. .. .. ¯
.. ¯ .. 
. 
. . . . . . . . . . . ¯ . 
 ¯ 
0 · · · 0 0 0 0 ···0 0 ···0 0 ···0 ··· 0 ¯ 0 
| {z }¯¯ |{z}
A00 B 00

Concretizemos as incógnitas do problema com os seguintes valores:

81
6 Teoria das Matrizes

xj1 = b001n
xj2 = b002n
·········
xj2 = b00tn
xj = 0, j ∈ {1, · · · , n} \ {j1 , · · · jt }

É simples verificar que a solução acima exposta constitui uma solução para
o sistema A00 X = B 00 , logo, para o sistema AX = B. A título ilustrativo,
consideremos a primeira equação do sistema A00 X = B 00 :

0 · x1 + · · · + 0 · xj1 −1 + xj1 + a001,j1 +1 · xj1 +1 +


+a001,j1 +2 · xj1 +2 + · · · + a001,j2 · xj2 + a001,j2 +1 · xj2 +1 +
+ · · · + 0 · xjt + · · · + a001n · xn = b01

Ao substituirmos a solução encontrada nesta equação, obter-se-á, como


seria de prever b01 = b01 . Não é difícil intuir que as restantes equações do
sistema também serão satisfeitas, o que mostra que foi encontrada uma
solução para o sistema AX = B, como pretendido.

Versão 2:

(⇒) Admitamos então que AX = B admite uma solução, a coluna D =


{d1 , · · · , dn }. Designando por A1 , · · · , An as colunas da matriz A, poder-
emos escrever B = d1 A1 + · · · dn An . Ora, se o número máximo de colunas
da matriz A linearmente independentes é t, o número máximo de colunas
linearmente independentes da matriz [ A| B] terá também de ser t. Sem
perda de generalidade, suponhamos que as t primeiras colunas de A são
linearmente independentes podendo as restantes escrever-se de como com-
binação linear daquelas, de acordo com o ponto 6. da Proposição 10. Tal
significa que existem escalares {αj }j=1,···t tais que B = α1 A1 + · · · αt At .
Suponhamos, por redução ao absurdo que, por incluir a coluna B, o
número máximo de colunas linearmente independentes de [ A| B] é t + 1.
Uma das colunas deste conjunto terá de ser efectivamente B uma vez
que a matriz A só possui t colunas linearmente independentes. Mas B
escreve-se como combinação linear das colunas de A e, em particular das t
colunas de A que são linearmente independentes, uma vez que as restantes
n − t colunas de A se podem escrever à custa das t colunas que são lin-
earmente independentes. Logo, B não pode pertencer a um conjunto de
colunas linearmente independentes o que é absurdo. Conclui-se portanto
que o número máximo de colunas linearmente independentes de [ A| B] é
também t, isto é r (A) = r ([ A| B]).

82
6 Teoria das Matrizes

(⇐) Admitamos agora que r (A) = r ([ A| B]). Se r (A) = t suponhamos, sem


perda de generalidade, que as t primeiras colunas de A são linearmente
independentes. Como r ([ A| B]) = t também e se as t primeiras colunas
de A são linearmente independentes, então, de acordo com o ponto 6. da
Proposição 10, B pode ser escrita como combinação das primeiras t colunas
de A (as que são linearmente independentes), isto é, B = α1 A1 + · · · αt At .
Utilizando escalares nulos para as restantes n − t colunas de A, verifica-se
que B pode ser escrita como combinação linear das colunas de A, isto é,
existe uma coluna de escalares D = {d1 , · · · , dn } tais que AD = B, logo
D resolve AX = B.

O próximo resultado enquadra o modo como se identifica a indeterminação


(ou determinação) de um sistema de equações
Proposição 28 Considere-se um sistema de equações lineares dado pela equação
matricial AX = B, onde A ∈ Mm×n (K), B∈ Mm×1 (K) e X ∈ Mn×1 (K). O
sistema AX = B ...
1 ... é possível e determinado se e só se r (A) = r ([ A| B]) = n.
2 ... é possível e indeterminado se e só se r (A) = r ([ A| B]) < n.

Demonstração.
1.
2.(=⇒) Suponhamos que o sistema é possível e determinado. Então, existirá
apena uma coluna D ∈ Mn×1 (K) tal que AD = B. Se designarmos
por A1 , · · · , An as colunas da matriz A e se {d1 , · · · , dn } forem os
elementos da matriz D, teremos d1 A1 + · · · + dn An = B.
A natureza da independência linear das colunas da matriz A pode ser
estudada compondo a combinação nula destas colunas e resolvendo
para os escalares. A combinação linear nula das colunas de A é dada
por λ1 A1 + · · · + λn An = 0. Adicionando as duas equações termo a
termo, obtém-se

(d1 A1 + · · · + dn An ) + (λ1 A1 + · · · + λn An ) =
= (d1 + λ1 ) A1 + · · · + (dn + λn ) An = B + 0 = B
A igualdade mostra que a coluna de elementos {d1 + λ1 , · · · dn + λn }
é solução da equação AX = B. Como, por hipótese, a solução é única,
conclui-se que as colunas {d1 , · · · , dn } e {d1 + λ1 , · · · , dn + λn } de-
verão ser iguais, isto é, d1 = d1 + λ1 , · · · , dn = dn + λn , donde
λ1 = · · · = λn = 0, o que mostra que as colunas da matriz A
são linearmente independentes e, sendo em número de n, ter-se-á
r (A) = r ([ A| B]) = n.

83
6 Teoria das Matrizes

(⇐=) Dado que r (A) = n e a matriz A tem n colunas então as colu-


nas de A são linearmente independentes. Por outro lado, dado que
r ([ A| B]) = n e [ A| B] tem n + 1 colunas, então as colunas de [ A| B]
são linearmente independentes. Mostremos que B se pode escrever
como combinação linear das colunas de A. Seja então λ1 A1 + · · · +
λn An + λn+1 B = 0 uma combinação linear nula, não trivial, das col-
unas da matriz [ A| B]. Se λn+1 = 0, resta λ1 A1 + · · · + λn An = 0,
mas dada a independência linear das colunas da matriz A decorre
imediatamente que λ1 = · · · = λn = 0, o que é absurdo pois por
hipótese, partimos de uma combinação linear nula não trivial das
colunas de [ A| B]. Assim, deveremos ter λn+1 6= 0, e portanto
λ1
B = − λn+1 A1 − · · · − λλn+1
n
An .
Resta mostrar que esta combinação linear é única. Suponhamos então
que também se pode ter B = µ1 A1 + · · · + µn An . Subtraindo esta
equação à determinada anteriormente obtém-se

µ ¶
λ1 λn
(µ1 A1 + · · · + µn An ) − − A1 − · · · − An =
λn+1 λn+1
µ ¶ µ ¶
λ1 λn
= µ1 + A1 + · · · + µn + An = B − B = 0
λn+1 λn+1

Dada a independência linear das colunas de A decorre imediatamente


que µ1 = − λλn+1
1
, · · · , µn = − λλn+1
n
, que mostra a unicidade da com-
binação linear das colunas de A que resulta na coluna B.
Então, sabendo que o conjunto de escalares {d1 , · · · , dn } tais que
B = d1 A1 +· · ·+dn An é único, se designarmos por D uma coluna com
elementos {d1 , · · · , dn }, resulta que D é a única coluna que satisfaz
AD = B e portanto constitui solução única do sistema de equações
AX = D.
3. A demonstração deste ponto é imediata. Com efeito, a afirmação ”o sis-
tema é determinado se e só se r (A) = n” demonstrada no ponto anterior é
equivalente à afirmação ”o sistema é indeterminado se e só se r (A) 6= n”.
Como o número de colunas da matriz A é n, não poderemos ter r (A) > n
pelo que a afirmação ”o sistema é indeterminado se e só se r (A) < n” tem
de ser verdadeira.

Na prática, a matriz em escada reduzida, terá formas distintas, no caso


de sistemas possíveis e determinados e indeterminados. Com efeito, a única
forma de satisfazer a condição r (A) = r ([ A| B]) = n é que, após a condensação
da matriz ampliada [ A| B], que denotaremos por [ A0 | B 0 ], a submatriz de A0
que ocupa as primeiras n linhas e n colunas desta seja uma matriz triangular
superior. A matriz ampliada [ A0 | B 0 ] tem a seguinte configuração:

84
6 Teoria das Matrizes

 ¯ 
¯
¯
 1 a012 a013 · · · a01,n ¯¯ b01 
 
 0 1 a023 · · · a02,n ¯¯ b02 
 
 0 0 1 · · · a03,n ¯¯ b03 
 
 .. .. .. .. ¯¯ .. 
 
 . . . . ¯ . 
 ¯ 0 
 0 0 0 · · · 1 ¯ bn 
 ¯ 
 0 0 0 ··· 0 ¯ 0 
 ¯ 
 0 0 0 ··· 0 ¯ 0 
 .. .. .. ¯
.. ¯ .. 
 
 . . . . ¯ . 
 ¯ 
 0 0 0 ··· 0 ¯ 0 
| {z ¯
}¯ |{z}
A 0 B 0

Nota 17 Os resultados das Proposições 27 e 28 permitem investigar aquilo a


que se designa por natureza de um sistema de equações lineares. Neste sen-
tido, o sistema de equações lineares dado pela equação matricial AX = B, onde
A ∈ Mm×n (K),B ∈ Mm×1 (K) e X ∈ Mn×1 (K) pode ser classificado, proviso-
riamente, quanto à sua natureza, segundo o seguinte esquema:

 

 
 Indeterminado

  (r(A)=r([ A|B])<n)



 Solúvel
(r(A)=r([ A|B])) 

Equação AX = B  Determinado


(r(A)=r([ A|B])=n)





 Insolúvel
(r(A)6=r([ A|B]))

Exemplo 23 Estude-se a natureza do seguinte sistema de equações lineares:


 x+y =0
x−y =1

4x + 2y = 1

A matriz ampliada do sistema é dada por:

 ¯ 
1 1 ¯¯ 0
[ A| B] =  1 −1 ¯¯ 1 
4 2 ¯ 1

Procedendo à sua condensação, obtém-se o seguinte resultado:

85
6 Teoria das Matrizes

 ¯ 
1 1 ¯¯ 0
 1 −1 ¯ 1  L2 ←− L2 − L1
¯ L3 ←− L3 − 4L1
4 2 ¯ 1 −−− −−−−−−−−−−→
 ¯   ¯ 
1 1 ¯¯ 0 1 1 ¯¯ 0
 0 −2 ¯ 1  L3 ←− L3 − L2  0 −2 ¯ 1  = [ A0 | B 0 ]
¯ −−−−−−−−−−−→ ¯
0 −2 ¯ 1 0 0 ¯ 0

Dado que r (A) = r ([ A| B]) = 2, o sistema é possível e determinado.

Exemplo 24 Estude-se a natureza do seguinte sistema de equações lineares:


 2x1 + 2x2 − 2x3 = 5
7x1 + 7x2 + x3 = 10

5x1 + 5x2 − x3 = 5

A matriz ampliada do sistema é dada por:

 ¯ 
2 2 −2 ¯ 5
¯
[ A| B] =  7 7 1 ¯ 10 
¯
5 5 −1 ¯ 5

Procedendo à sua condensação, obtém-se o seguinte resultado:

 ¯ 
2 2 −2 ¯ 5
¯ L ←− L2 − 72 L1
 7 7 1 ¯ 10  2
¯ L3 ←− L3 − 5 L1
5 5 −1 ¯ 5 −−−−−−−−−−−−2−−→
 ¯ 
2 2 2 ¯ 5
¯
 0 0 8 ¯ − 15  L3 ←− L3 + 3 L2
¯ 2
0 0 −6 ¯ − 15 −−−−−−−−−−−4−→
 ¯ 2 
2 2 2 ¯¯ 5
 0 0 8 ¯¯ − 152
 = [ A0 | B 0 ]
0 0 0 ¯ 105
8

Dado que r (A) 6= r ([ A| B]), o sistema é impossível. Com efeito, a última


linha da matriz ampliada, [ A0 | B 0 ], corresponde à equação 0 = 105
8 , o que é
manifestamente impossível.

Exemplo 25 Estude-se a natureza do seguinte sistema de equações lineares:

½
x1 − x2 + x3 = 1
x1 + x2 − x3 = 2

86
6 Teoria das Matrizes

A matriz ampliada do sistema é dada por:

· ¯ ¸
1 −1 1 ¯¯ 1
[ A| B] =
1 1 −1 ¯ 2

Procedendo à sua condensação, obtém-se o seguinte resultado:

· ¯ ¸
1 −1 1 ¯¯ 1
L ←− L2−− L
1 1 −1 ¯ 2 −−2−−−−−− −− →1
· ¯ ¸
1 −1 1 ¯ 1
¯ 0 0
0 2 −2 ¯ 1 = [A | B ]

Dado que r (A) = r ([ A| B]) = 2 < n = 3, o sistema é possível e indetermi-


nado.

Os sistemas indeterminados, por terem múltiplas soluções requerem um es-


tudo mais aprofundado, que destacaremos em seguida:

6.9.2 Sistemas de Equações Lineares Indeterminados


Consideremos, de um modo geral, o sistema de equações lineares dado pela
equação matricial AX = B, onde A ∈ Mm×n (K),B ∈ Mm×1 (K) e X ∈
Mn×1 (K). Suponhamos ainda que r (A) = r ([ A| B]) < n, isto é, o sistema
é indeterminado. Sabemos ainda que existe uma matriz regular P que permite
transformar a matriz ampliada do sistema, [ A| B], numa matriz [ A00 | B 00 ], rep-
resentando o mesmo sistema de equações, mas em forma de escada reduzida que
a seguir se apresenta:

 ¯ 
¯
¯
0 · · · 0 1 a001,j1 +1 · · · 0 a001,j2 +1 · · · 0 a001,j3 +1 · · · 0 00 ¯
· · · a1n¯ b001 
 
0 · · · 0 0 0 · · · 1 a002,j2 +1 · · · 0 a002,j3 +1 · · · 0 · · · a002n¯¯ b002 
 
0 · · · 0 0 0 ···0 0 · · · 1 a003,j3 +1 · · · 0 · · · a003n¯¯ b003 
 
. .. .. .. .. .. .. .. .. .. ¯¯ .. 
. 
. . . . . . . . . . ¯ . 
 ¯ 
0 · · · 0 0 0 ···0 0 ···0 0 ···1 · · · a00tn¯ b00t 
 ¯ 
0 · · · 0 0 0 ···0 0 ···0 0 ···0 ··· 0 ¯ 0 
 ¯ 
0 · · · 0 0 0 ···0 0 ···0 0 ···0 ··· 0 ¯ 0 
. .. .. .. .. .. .. .. .. .. ¯¯ .. 
. 
. . . . . . . . . . ¯ . 
 ¯ 
0 · · · 0 0 0 ···0 0 ···0 0 ···0 ··· 0 ¯ 0 
| {z }¯¯ |{z}
A00 =P A 00
B =P B

Temos portanto um conjunto de t colunas redutoras ocupando as colunas de


índices {j1 , · · · , jt } É claro que, por troca das colunas da matriz A00 = P A é
possível obter uma matriz, de quatro blocos, com a forma

87
6 Teoria das Matrizes

· ¸
It Ct,n−t
0m−t,t 0m−t,n−t

· Por outras
¸ palavras, existe uma matriz regular Q ∈ Mn (K) tal que P AQ =
It C
. Como foi referido no ponto 2 da Proposição 26, se D for uma
0 0
solução de (P A) X = P B então Q−1 D é uma solução de (P AQ) Y = P B. Ora,
facilmente se verifica que a equação

· ¸
It C
Y = {b001 , · · · , b00t , 0, · · · , 0}
0 0

tem a solução D0 = {b001 , · · · , b00t , 0, · · · , 0}, logo, (P AQ) D0 = P B mostra


que QD0 é solução de (P A) X = P B, e consequentemente de AX = B. Mas
existem muitas mais soluções para o sistema (P AQ) Y = P B, com X = QY .
Na realidade, existem infinitas soluções, assumindo que o corpo K tem infinitos
elementos.
A questão que se coloca de imediato é a de descrever na totalidade o con-
junto das soluções do sistema (P AQ) Y = P B e consequentemente do sistema
AX = B. Começemos por dividir em dois blocos o vector coluna das incógni-
h ¯ iT
(1) ¯ (2) 00(1)
tas, Y , fazendo Y = Yt,1 ¯ Yn−t,1 . Temos naturalmente Yt,1 = {y1 , · · · , yt }
00(2)
e Yn−t,1 = {yt+1 , · · · , yn }. Dividamos tanbém em dois blocos o vector col-
h ¯ iT
00(1) ¯
una das varáveis independentes, B 00 , fazendo B 00 = Bt,1 ¯ 0m−t,1 , onde
00(1)
Bt,1 = {b001 , · · · , b00t }. Matricialmente, o sistema A00 Y = B 00 representa-se do
seguinte modo:

· ¸" (1)
# "
00(1)
#
It Ct,n−t Yt,1 Bt,1
(2) = (10)
0m−t,t 0m−t,n−t Yn−t,1 0m−t,1

Esta equação matricial pode ser reescrita como um sistema de duas equações
matriciais atendendo à partição em blocos escolhida. Obtém-se então:

(
(1) (2) 00(1)
It · Yt,1 + Ct,n−t · Yn−t,1 = Bt,1
(1) (2)
0m−t,t · Yt,1 + 0m−t,n−t · Yn−t,1 = 0m−t,1

A segunda equação pode ser omitida uma vez que constitui a condição uni-
versal 0m−t,1 ≡ 0m−t,1 . Resta portanto a equação:

(1) (2) 00(1)


Yt,1 + Ct,n−t · Yn−t,1 = Bt,1

88
6 Teoria das Matrizes

Rearranjando os termos da equação acima, obtém-se:

(1) 00(1) (2)


Yt,1 = Bt,1 − Ct,n−t · Yn−t,1
(1)
A expressão acima mostra que t incógnitas, precisamente as incógnitas Yt,1 ,
(2)
podem ser expressas em função de n − t incógnitas, precisamente Yn−t,1 . Assim,
a solução geral da equação A00 Y = B 00 será dada pelo vector coluna:

" #
00(1)
Bt,1 − Ct,n−t · Dn−t,1
(11)
Dn−t,1

(2)
onde Dn−t,1 ∈ K n−t é uma concretização arbitrária qualquer das incógnitas
(2) (2)
representadas em Yn−t,1 , a saber {yt+1 , · · · , yn }. Em particular, se Yn−t,1 = 0,
recupera-se a solução particular D0 = {b001 , · · · , b00t , 0, · · · , 0} já mencionada.
Nota 18 A solução geral do sistema, dada pela expressão (11), foi obtida atrvés
de uma sucessão de equivalências que se iniciou na equação A00 Y = B 00 , o que
significa que não só a expressão (11) é uma solução do sistema como também
qualquer solução do sistema A00 Y = B 00 poderá ser escrita na forma dada pela
expressão (11), isto é, se Gn1 for uma solução de A00 Y = B 00 então existe
(2)
Dn−t,1 ∈ K n−t tal que:

" #
00(1)
Bt,1 − Ct,n−t · Dn−t,1
Gn1 =
Dn−t,1

É esta ”arbitrariedade” na escolha dos valores das incógnitas que está na


base da classificação do sistema como indeterminado. Dependendo do número
de incógnitas arbitrárias, assim será o grau de indeterminação do sistema.
Definição 40 (Incógnitas Dependentes/Independentes) Seja AX = B a
equação matricial relativa a um sistema de equações lineares, solúvel, onde A ∈
Mm×n (K), B ∈ Mm×1 (K) e X ∈ Mn×1 (K). Sabemos que existem matrizes
regulares P ∈ Mm (K) e Q ∈ Mn (K) tais que o sistema (P AQ) Y = P B, com
X = QY é equivalente ao sistema original e assume a forma da expressão (10).
h ¯ iT
(1) ¯ (2) (1) 00(1) (2)
A solução é dada por Y = Yt,1 ¯ Yn−t,1 onde Yt,1 = Bt,1 − Ct,n−t · Yn−t,1 .
(1) (1)
As variáveis originais Xt,1 = QYt,1 , que se podem exprimir em função das var-
(2) (2)
iáveis Xn−t,1 = QYn−t,1 designam-se por variáveis dependentes do sistema
AX = B enquanto que as últimas se designam por variáveis independentes.
O número de variáveis dependentes é igual à característica da matriz de coefi-
cientes do sistema, r (A).

89
6 Teoria das Matrizes

Definição 41 (Grau de Indeterminação) O grau de indeterminação de um


sistema de equações lineares, possível, dado pela equação matricial AX = B,
onde A ∈ Mm×n (K),B ∈ Mm×1 (K) e X ∈ Mn×1 (K) é igual ao número de
variáveis independentes do sistema, isto é

Grau de Indeterminação = n − r (A)

Note-se que, se o sistema é possível e determinado, o grau de indeterminação


será nulo, uma vez que, pela Proposição 28, se tem n = r (A).
Poder-se-á ainda manipular a expressão (11) para concluir que se pode es-
crever como:

" # · ¸
00(1)
Bt,1 Ct,n−t
− Dn−t,1 (12)
0n−t,1 −In−t

Nota 19 A expressão (12) revela que a solução geral do sistema A00 Y = B 00 é


dado pela solução particular B 00 à qual se adiciona uma combinação linear das
colunas da matriz cujas primeiras t linhas são compostas pela matriz C e as
últimas n − t linhas pela matriz identidade multiplicada pelo escalar −1.

Nota 20 A solução geral do sistema original AX = B pode ser recuperada


aplicando a matriz Q à expressão (12) para se obter:

(" # · ¸ )
00(1)
Bt,1 Ct,n−t
Q − Dn−t,1
0n−t,1 −In−t

As seguintes observações auxiliarão no entendimento desta questão:


¡ ¢
1. Pondo (P A) X = (P AQ) Q−1 X , observa-se que a incógnita Y da equa-
ção (P AQ) Y = P B resulta de efectuar sobre as linhas da coluna incóg-
nita, Y , as mesmas trocas que foram feitas nas colunas de P A por efeito
de Q. Com efeito, ponhamos Q = E1 E2 · · · Eh onde cada Ek resultou de
It por trocas das colunas i e j ou das linhas i e j; vimos na Proposição
18 que uma matriz deste tipo é inversa de sim mesmo, isto é, Ek2 = It ;
assim, quando se escreve

¡ ¢
(P AQ) Q−1 X = (P A) E1 E2 · · · Eh Eh−1 · · · E2−1 E1−1 X
= (P A) E1 E2 · · · Eh Eh · · · E2 E1 X

90
6 Teoria das Matrizes

é possível verificar que, ao mesmo tempo que se trocam as colunas i e j


da matriz P A por efeito de E1 (à direita) e se obtém P AE1 , trocam-se as
linhas i e j de X por efeito da mesma matriz E1 (à esquerda) obtendo-se
E1 X, e analogamente com E2 , · · · , Eh .
2. Uma vez obtida uma solução D0 de (P AQ) Y = P B, o produto QD0 corre-
sponde a ”desfazer” em D0 todas as trocas que levaram de X a Y , obtendo-
se assim uma solução de (P A) X = P B.
3. Na prática, o que se descreve em 1. é que é permitido, na resolução da
equação (P A) X = P B, trocar colunas na matriz P A desde que se efectue
a respectiva troca de linhas na coluna incógnita X.
4. A operação descrita em 1. é muito útil na exposição teórica da res-
olução de uma equação matricial mas na resolução de problemas poderá
dispensar-se como adiante veremos.

Exemplo 26 Considere-se o sistema de equações dado pela seguinte equação


matricial:

 
  x1  
1 2 −1 0 2  x2  1
 
 −2 4 1 1 0  x3 = 0 
 
−1 6 0 0 −1  x4  −1
| {z } x5 | {z }
A | {z } B
X

Assume-se que A e B são matrizes de elementos reais. Começa por se con-


densar a matriz ampliada [ A| B]. Assim, ao mesmo tempo que averiguamos
àcerca da solubilidade da equação, vamo-nos encaminhando, em caso afirmativo,
para a sua resolução (os elementos redutores utilizados encontram-se assinalados
em cada passo):

 
1 2 −1 0 2 1
 −2 L2 ←− L2 + 2L1
4 1 1 0 0 
L3 ←− L3 + L1
−1 6 0 0 −1 −−−−−−−−−−−−−→
−1
 
1 2 −1 0 2 1
 0 −1 1 4 2  L
8 −−3−←− L−
−−−− −
3−−−L→2
0 8 −1 0 1 0
 
1 2 −1 0 2 1
 0 8 −1 1 4 2  = [ A0 | B 0 ]
0 0 0 −1 −3 −2

A matriz ampliada encontra-se em forma de escada e, dado que r ([ A0 | B 0 ]) =


r ([ A| B]) = r (A) = 3 conclui-se que o sistema é possível. Como r (A) < n

91
6 Teoria das Matrizes

conclui-se adicionalmente que o sistema é indeterminado com grau de indeter-


minação n − r (A) = 5 − 3 = 2. Em suma, o sistema é Possível e Indeterminado
com grau de indeterminação 2.
Prossegue-se o processo de condensação até a matriz ampliada estar na
forma de escada reduzida (os elementos redutores encontram-se devidamente
assinalados):

 
1 2 −1 0 2 1
  L2 ←− 18 L2
 0 8 −1 1 4 2 
L3 ←− −L3
0 0 0 -1 −3 −2 −−−−−−−−−−→
 
1 2 −1 0 2 1
 0 1 − 18 1 1 1  L1 ←− L1 − 2L2
8 2 4 −−−−−−−−−−−−→
0 0 0 1 3 2
 
1 0 − 34 − 14 1 1
2 1
 0 1 − 18 1
8
1
2
1
4
 L2 ←− L2 − 81 L3
L1 ←− L1 + L3
0 0 0 1 3 2 −−−−−−−−−−−−4−−→
 
1 0 − 34 0 7
4 1
 0 1 − 18 0 1
0 
8
0 0 0 1 3 2

Neste ponto, sabemos que existe uma matriz regular, P , tal que:

  
1 0 − 34 0 7
4 1
PA =  0 1 − 18 0 1
8
 e PB =  0 
0 0 0 1 3 2

Consideremos agora 3 alternativas para a determinação da solução geral do


sistema:

Alternativa 1
Esta alternativa é baseada na descrição teórica acima realizada. A partir da
equação (P A) X = P B poderemos escrever, trocando as colunas 3 e 4 da matriz
P A o sistema:

   
1 0 0 − 34 7
4 ¡ −1 ¢ 1
 0 1 0 − 18 1  Q X = 0 
8
0 0 1 0 3 2
| {z } | {z }
P AQ PB

Naturalmente que a matriz Q será dada pela matriz identidade de ordem 5,


onde as colunas 2 e 3 foram trocadas:

92
6 Teoria das Matrizes

 
1 0 0 0 0
 0 1 0 0 0 
 
Q=
 0 0 0 1 0 

 0 0 1 0 0 
0 0 0 0 1

É fácil verificar que a coluna D0 = {1, 0, 2, 0, 0} é uma solução particular


do sistema (P AQ) Y = P B pelo que D = QD0 = {1, 0, 2, 0, 0} (basta trocar as
linhas 3 e 4 de D0 ) é solução de (P A) X = P B, logo de AX = B.
Dado que o sistema é indeterminado de ordem 2, onde {y1 , y2 , y3 } são as
variáveis dependentes e {y4 , y5 } as variáveis independentes, e a característica
da matriz dos coeficientes é 5, a solução geral do sistema (P AQ) Y = P B é
dada por:

" # · ¸
00(1)
B3,1 C3,2
− D2,1
02,1 −I2
   3 7 
1 −4 4 · ¸ · ¸
00(1) 0 1 0
onde B3,1 =  0 , C3,2 =  − 18 18 , 02,1 = , I2 =
0 0 1
2 0 3
· ¸
α1
e D2,1 = é um vector de escalares pertencentes ao corpo K (neste caso
α2
K = R). Tem-se assim a solução geral, Y , de (P AQ) Y = P B dada por

     
y1 1 − 34 7
4
 y2   0   − 18 1 · ¸
     8  α1
 y3 = 2 − 0 3 
      α2 ; α1 , α2 ∈ R
 y4   0   −1 0 
y5 0 0 −1

A solução geral do sistema (P A) X = B e portanto AX = B será dada por:

      
y1 
 1 − 34 7
4 

  
 ¸
 y2  
 0  
  − 18 ·
1
 α1
8


Q
 y3 =Q 
  2 −
  0 3 
 α2 =
  
   

y4 
 0 −1 0  

 
y5 0 0 −1

93
6 Teoria das Matrizes

   3 
1 4 − 74
 0   1 − 18 · ¸
   8  α1
= Q
 2  
 + Q 0 −3 
 α2 =
 0   1 0 
0 0 1
   3 
1 4 − 74
 0   1 −1 · ¸
   8 8  α1
= 
 0
+ 1
  0 
 α2
 2   0 −3 
0 0 1

Conclui-se, dizendo que a solução geral da equação AX = B é dada por:

     3   
x1 1 4 − 74
 x2  0  1   − 18 
     8   
 x3  =  0  + α1  1  + α2  0  ; α1 , α2 ∈ R
       
 x4  2  0   −3 
x5 0 0 1

Alternativa 2
Nesta alternativa, exibir-se-á a solução geral do sistema partindo da equação
(P A) X = P B, evitando assim potenciais erros devido às trocas das colunas de
(P A). O sistema a resolver é portanto:

   
1 0 − 34 0 7
4 1
 0 1 − 18 0 1 X =  0 
8
0 0 0 1 3 2
| {z } | {z }
PA PB

As colunas redutoras da matriz P A têm índices {1, 2, 4}, correspondendo


às variáveis dependentes {x1 , x2 , x4 }, donde se deduz imediatamente a solução
particular x1 = b011 = 1, x2 = b021 = 0 e x4 = b031 = 2. Às restantes variáveis, as
variáveis independentes {x3 , x5 }, associadas a colunas não redutoras associa-se
o escalar 0: x3 = x5 = 0. Assim, a coluna D = {1, 0, 0, 2, 0} é uma solução
particular do sistema (P A) X = P B.
Resta determinar as duas colunas (relativas ao grau de indeterminação do
sistema, que é 2) cuja combinação linear completará a expressão da solução
geral do sistema. Cada uma dessa colunas terá dimensão 5 × 1 (uma vez que
n = 5). Como regra geral, a coluna Vi associada à variável independente xi terá
o escalar 1 na posição i e os escalares 0 nas posições associadas às restantes
variáveis independentes que não xi ; as restantes posições serão preenchidas com

94
6 Teoria das Matrizes

os escalares constantes da i − ésima coluna da matriz P A multiplicados por


−1, e por aquela ordem. Vejamos então a forma deste vectores coluna no caso
presente:
• Variável independente x3 :
 
  3
?
 4 
 ?   1 
   8 
V3 =  1  → V3 = 
 
 1


 ?   
 0 
0
0
• Variável independente x5 :
 
  − 74
?
 
 ?   −1 
   8 
V5 =  0  → V5 = 
 
 0


 ?   
 −3 
1
1

Como se confirma, a solução geral de (P A) X = P B e portanto de AX =


B será:

   
x1 1
 x2  0
   
 x3  =  0  + α1 V3 + α2 V5 =
   
 x4  2
x5 0
   3   7 
1 4 −4
0  1   −1 
   8   8 
=     
 0  + α1  1  + α2  0
 ; α1 , α2 ∈ R

2  0   −3 
0 0 1

Alternativa 3
Nesta alternativa, exibir-se-á a solução geral do sistema partindo da equação
(P A) X = P B, evitando assim potenciais erros devido às trocas das colunas de
(P A). Reescrevendo o sistema na forma algébrica, é possível deduzir a solução
geral de forma intuitiva. O sistema a resolver é, como na alternativa 2:
   
1 0 − 34 0 7
4 1
 0 1 − 18 0 1 X =  0 
8
0 0 0 1 3 2
| {z } | {z }
PA PB

95
6 Teoria das Matrizes

Na forma algébrica o sistema tomará a forma:



 x1 − 34 x3 + 74 x5 =1
x2 − 18 x3 + 18 x5 =0

x4 +3x5 =2
Resolvendo este sistema em ordem às variáveis dependentes, obtém-se:

 x1 = 1 + 34 x3 − 74 x5
x = 0 + 18 x3 − 18 x5 ; x3 , x5 ∈ R
 2
x4 = 2 −3x5
Assim, a solução geral dada por:
 
x1
 x2 
 
 x3 
 
 x4 
x5
poderá ser reescrita em função das variáveis independentes {x3 , x5 } substi-
tuindo, no vector acima, as variáveis dependentes {x1 , x2 , x4 } pelas respectivas
expressões em função de {x3 , x5 }:
   
x1 1 + 34 x3 − 74 x5
 x2   0 + 1 x3 − 1 x5 
   8 8 
 x3 → x3  ; x3 , x5 ∈ R
   
 x4   2 − 3x5 
x5 x5
Este vector pode ser reescrito com a soma de três vectores: um vector de
termos independentes, outro de termos em x3 e outro de termos em x5 obtendo-
se:
      
1 + 34 x3 − 74 x5 1 3
4 x3 − 74 x5
 0 + 1 x3 − 1 x5  0  1   − 1 x5 
 8 8     8 x3  8 
 x3 → 0 + x3   
     + 0 
 2 − 3x5  2  0   −3x5 
x5 0 0 x5
Colocando em evidência os escalares x3 e x5 :
   3
     3   7 
1 4 x3 − 74 x5 1 4 −4
0  1   − 1 x5  0  1   −1 
   8 x3
  8     8   8 
 0 + x3    =  0  + x3  1  + x5  0 
   + 0       
2  0   −3x5  2 0  −3 
0 0 x5 0 0 1

96
6 Teoria das Matrizes

Como x3 e x5 : são quaisquer escalares reais, poderemos sombolizá-los por,


por exemplo, α1 e α2 , para se obter a já conhecida expressão geral das soluções
de AX = B:

     3   7 
x1 1 4 −4
 x2  0  1   −1 
     8   8 
 x3  =  0  + α1  1  + α2  0  ; α1 , α2 ∈ R
       
 x4  2 0  −3 
x5 0 0 1

Nota 21 A apresentação da solução geral do sistema em forma matricial ou


algébrica é indiferente a menos que uma das formas seja especificamente solic-
itada.

O estudo da Natureza de um sistema de equações lineares, resume-se no


seguinte quadro:

Natureza de um Sistema de Equac,o ~es Lineares


 

 
 Indeterminado

 
 (r(A)=r([ A|B])<n)

 
 Grau de Indeterminação



 Solúvel (n−r(A))
 (r(A)=r([ A|B])) 


Equação AX = B 


  Determinado

 (r(A)=r([ A|B])=n)






 Insolúvel
(r(A)6=r([ A|B]))

Note-se que, a natureza de um sistema, requer que se identifique, no caso


indeterminado, o grau de indeterminação.

6.9.3 Algoritmo de Gauss-Jordan


O algoritmo de Gauss-Jordan é um método que permite resolver de forma sis-
temática um sistema de equações lineares dado pela equação matricial AX = B,
onde A ∈ Mm×n (K),B ∈ Mm×1 (K) e X ∈ Mn×1 (K).

• Condensar a matriz ampliada do sistema, [ A| B], numa matriz em forma


de escada reduzida [ A0 | B 0 ]. Note-se que [ A| B] ∈ Mm×(n+1) (K).
• Suponha-se que [ A0 | B 0 ] tem r linhas não-nulas e que o elemento redutor
na i − ésima linha ocorre na coluna ci para 1 ≤ i ≤ r. Ter-se-á então:

1 ≤ c1 < c2 < · · · < cr ≤ n + 1

97
6 Teoria das Matrizes

Suponha-se ainda que as restantes colunas de A0 terão índices cr+1 , · · · , cn ,


onde:

1 ≤ cr+1 < c2 < · · · < cn ≤ n

Caso 1 cr = n+1. O sistema é impossível.


£ Efectivamente,
¤ a última linha não-nula
de [ A0 | B 0 ] tem a forma 0 0 · · · 1 , correspondente à equação:

0x1 + 0x2 + · · · + 0xn = 1

obviamente insolúvel
Caso 2 cr ≤ n. O sistema é possível. Note-se que r ≤ n.

=⇒ Se r = n, então c1 = 1, c2 = 2, · · · , cn = n e o sistema é determinado


e terá a solução única:

£ ¤T
b01 b02 ··· b0n

=⇒ Se r < n, existirão soluções múltiplas. O sistema é indeterminado


com grau de indeterminação n − r. A solução geral obtem-se expri-
mindo as variáveis dependentes xc1 , · · · , xcr nas variáveis indepen-
dentes xcr+1 , · · · , xcn :


 xc1 = b01 − a01cr+1 xcr+1 − · · · − a01cn xcn
····································

xcr = b0r − a0rcr+1 xcr+1 − · · · − a0rcn xcn

Soluções particulares do sistema podem ser obtidas concretizando as


variáveis independentes com valores particulares de K.

6.10 Matrizes com propriedades especiais


Nesta secção distinguem-se algumas matrizes que, pelas suas propriedades, se
enquadram numa definição particular. Daremos uma breve definição de cada
um destes tipos de matrizes assim como um exemplo ilustrando a respectiva
popriedade.

Definição 42 (Matriz idempotente) Seja A ∈ Mn (K). Diz-se que a matriz


A é idempotente se A2 = A.

98
6 Teoria das Matrizes

· ¸
8 −28
Exemplo 27 A matriz A = é idempotente uma vez que:
2 −7
· ¸· ¸ · ¸
8 −28 8 −28 8 × 8 + (−28) × 2 8 × (−28) + (−28) × (−7)
=
2 −7 2 −7 2 × 8 + (−7) × 2 2 × (−28) + (−28) × (−7)
· ¸
8 −28
=
2 −7

Definição 43 (Matriz nilpotente) Seja A ∈ Mn (K). A matriz A diz-se


nilpotente se Ap = 0 para algum inteiro p. Se p é o menor inteiro para o qual
Ap = 0, A diz-se nilpotente de ordem p.



0 0 0
Exemplo 28 A matriz A =  1 2 −1  é nilpotente de ordem 3 uma vez
1 4 −2
que:

 
0 0 0
 1 2 −1  6= 0
1 4 −2
 2  
0 0 0 0 0 0
 1 2 −1  6=  1 0 0  6= 0
1 4 −2 2 0 0
 3
0 0 0
 1 2 −1  = 0
1 4 −2

Definição 44 Seja A ∈ Mn (K). A matriz A diz-se involuntória se A2 = I.

 
− 11
2 − 39
4 − 39
4
Exemplo 29 É simples confirmar que a matriz A =  1 5 3 é
2 2
2 3 4
involuntória.

Definição 45 (Matrizes Equivalentes) Duas matrizes A, B ∈ Mn×m (K)


dizem-se equivalentes se existem matrizes regulares P ∈ Mn (K) e Q ∈ Mm (K)
tais que A = P BQ.

Uma propriedade importante das matrizes equivalentes traduz-se no seguinte


resultado:

99
6 Teoria das Matrizes

Proposição 29 Duas matrizes, A, B ∈ Mn×m (K), equivalentes têm a mesma


característica.

Demonstração. Por definição, existem matrizes regulares P ∈ Mn (K)


e Q ∈ Mm (K) tais que A = P BQ. Pelo ponto 4 da Proposição 18 tem-
se r (P BQ) = r (BQ). Pela Proposição 23 tem-se r (BQ) = r (B). Como
A = P BQ resulta imediatamente r (A) = r (B).

Um caso particular de equivalência de matrizes é o de semelhança de ma-


trizes, que se definem em seguida.

Definição 46 (Matrizes Semelhantes) Duas matrizes A, B ∈Mn(K) dizem-


se semelhantes se existe uma matriz regular P ∈Mn (K) tal que A = P BP −1 .

100

You might also like