c Christophe Bertault - MPSI

Matrices
Dans tout ce chapitre, K est l’un des corps R ou C. Tous les résultats présentés dans ce chapitre demeurent vrais si K est un
corps quelconque, mais nous ne nous en préoccuperons pas ici. Les lettres n, p, q . . . désignent des entiers naturels non nuls.
1 Matrices et opérations sur les matrices
1.1 Matrices
Définition (Matrice)
• On appelle matrice de taille n×p à coefficients dans K toute famille A de np éléments de K présentée sous la forme
d’un tableau
_
_
_
_
_
a11 a12 · · · a1p
a21 a22 · · · a2p
.
.
.
.
.
.
.
.
.
an1 an2 · · · anp
_
_
_
_
_
, noté aussi
_
aij
_
1in
1jp
, où aij ∈ K pour tout (i, j) ∈ 1, n ×1, p.
Pour tout (i, j) ∈ 1, n ×1, p, le scalaire aij est appelé coefficient de A de position (i, j), la matrice
_
_
_
_
_
a1j
a2j
.
.
.
anj
_
_
_
_
_
est appelée la
j
ème
colonne de A et la matrice
_
ai1 ai2 · · · aip
_
est appelée sa i
ème
ligne.
• L’ensemble des matrices de taille n ×p à coefficients dans K est noté Mn,p(K).
– Pour n = p, on parle de matrices carrées de taille n et la notation simplifiée Mn(K) est alors préférée. La
famille (a11, a22, . . . , ann) est alors appelée diagonale de A.
– Pour p = 1, on parle de matrices colonnes de taille n.
– Pour n = 1, on parle de matrices lignes de taille p.
Explication
• Une matrice de taille n × p à coefficients dans K n’est rien de plus qu’un élément de K
np
, i.e. une famille de np éléments
de K, mais qu’on a préféré écrire sous la forme d’un tableau. Ainsi, en réalité : Mn,p(K) = K
np
. Pourquoi donc
introduire les matrices dans ce cas ? Parce que nous allons sous peu définir une loi interne de produit sur les matrices, et
vous comprendrez alors qu’il est bien pratique d’écrire les matrices comme des tableaux et non comme des familles.
• L’usage veut qu’on utilise le plus possible la lettre i pour indice des lignes et la lettre j pour indice des colonnes.
• Par convention dans ce cours, si A (majuscule) est une matrice de taille n×p, nous noterons généralement aij (minuscule)
le coefficient de A de position (i, j) — mais parfois Aij.
1.2 Structure vectorielle
Théorème (Structure vectorielle sur Mn,p(K)) Muni de la structure vectorielle naturelle de K
np
, Mn,p(K) est un
K-espace vectoriel de dimension n ×p.
• Pour tous A, B ∈ Mn,p(K) et λ, µ ∈ K : λA +µB =
_
_
_
_
_
λa11 +µb11 λa12 +µb12 · · · λa1p +µb1p
λa21 +µb21 λa22 +µb22 · · · λa2p +µb2p
.
.
.
.
.
.
.
.
.
λan1 +µbn1 λan2 +µbn2 · · · λanp +µbnp
_
_
_
_
_
.
• Pour tout (i, j) ∈ 1, n ×1, p, on note Ei,j la matrice dont le coefficient de position (i, j) est égal à 1 et dont tous
les autres coefficients sont nuls. Alors (Ei,j)
1in
1jp
est une base de Mn,p(K) appelée sa base canonique.
1
c Christophe Bertault - MPSI
Explication La base canonique de Mn,p(K) n’est rien d’autre que la base canonique de K
np
, simplement indexée
par deux entiers conformément à l’idée que les matrices sont des tableaux. Pour n = 3 et p = 2 par exemple :
E11 =
_
_
1 0
0 0
0 0
_
_
, E21 =
_
_
0 0
1 0
0 0
_
_
, E31 =
_
_
0 0
0 0
1 0
_
_
, E12 =
_
_
0 1
0 0
0 0
_
_
, E22 =
_
_
0 0
0 1
0 0
_
_
et E32 =
_
_
0 0
0 0
0 1
_
_
.
Pour toute matrice A ∈ M3,2(K), les coordonnées de A dans la base canonique sont (a11, a21, a31, a12, a22, a32) car :
A =
_
_
a11 a12
a21 a22
a31 a32
_
_
= a11E11 +a21E21 +a31E31 +a12E12 +a22E22 +a32E32.
1.3 Produit matriciel
Définition (Produit matriciel) Soient A ∈ Mp,q(K) et B ∈ Mq,r(K). Par définition, le produit de A par B, noté A×B
ou AB, est la matrice
_
q

k=1
a
ik
b
kj
_
1ip
1jr
de taille p ×r.
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a11 a12 · · ·
a1q
a21 a22 · · ·
a2q
.
.
.
.
.
.
.
.
.
ap1 ap2 · · ·
apq
Produit
et somme
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
b11 b12
· · · b1r
b21 b22
· · · b2r
.
.
.
.
.
.
.
.
.
bq1 bq2
· · · bqr
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
q

k=1
a
1k
b
k1
q

k=1
a
1k
b
k2 · · ·
q

k=1
a
1k
b
kr
q

k=1
a
2k
b
k1
q

k=1
a
2k
b
k2 · · ·
q

k=1
a
2k
b
kr
.
.
.
.
.
.
.
.
.
q

k=1
a
pk
b
k1
q

k=1
a
pk
b
k2 · · ·
q

k=1
a
pk
b
kr
Sur une copie, vous n’êtes pas autorisés à écrire ainsi les matrices les unes au-dessus des autres.
Attention !
• Le produit de deux matrices en général n’est pas défini s’il n’y a pas, comme on dit, compatibilité des formats :
Matrice de taille p ×q Matrice de taille q ×r Matrice de taille p ×r
• Le produit matriciel n’est pas commutatif — même en cas de compatibilité des formats ! Exemple :
_
1 1
0 1
__
0 0
1 0
_
=
_
1 0
1 0
_
=
_
0 0
1 1
_
=
_
0 0
1 0
__
1 1
0 1
_
.
• Un produit de matrices peut être nul sans qu’aucune de ces matrices soit nulle. Exemple :
_
0 1
0 0
__
1 1
0 0
_
=
_
0 0
0 0
_
.
Explication Remarque fondamentale : tout système linéaire peut être écrit matriciellement comme un produit. Par
exemple, pour tout (x, y, z) ∈ R
3
:
_
_
_
2x + y − 3z = 3
5y + z = 2
9x + 10y = 1
⇐⇒
_
_
2 1 −3
0 5 1
9 10 0
_
_
. ¸¸ .
Matrice
du système
_
_
x
y
z
_
_
=
_
_
3
2
1
_
_
.
. ¸¸ .
Second
membre
Un système linéaire dont le second membre est nul
est dit homogène ou sans second membre.
2
c Christophe Bertault - MPSI
Théorème (Produit matriciel et lignes/colonnes) Soient A ∈ Mn,p(K), i ∈ 1, n et j ∈ 1, p.
A ×
_
_
_
_
_
_
_
_
0
.
.
.
1
.
.
.
0
_
_
_
_
_
_
_
_
= « j
ème
colonne de A ».
position j
_
0 · · · 1 · · · 0
_
×A = « i
ème
ligne de A ».
position i
Démonstration Simple calcul ! Il faut que ce petit résultat coule dans vos veines.
Par convention, quand une matrice contient beaucoup de zéros, on omet souvent de les noter par souci de lisibilité.
Théorème (Propriétés du produit matriciel, matrice identité)
• Associativité : Pour tous A ∈ Mp,q(K), B ∈ Mq,r(K), C ∈ Mr,s(K) : (AB)C = A(BC).
• Bilinéarité : Pour tous A, B ∈ Mp,q(K), C, D ∈ Mq,r(K) et λ, µ ∈ K :
(λA+µB)C = λAC +µBC et B(λC +µD) = λBC +µBD.
• Elément neutre : On appelle matrice identité de taille n la matrice carrée In =
_
_
_
1
.
.
.
1
_
_
_ de taille n.
Pour toute matrice A ∈ Mn,p(K) : InA = AIp = A.
Démonstration Pour l’associativité, soit (i, j) ∈ 1, p ×1, s.
_
(AB)C
_
ij
=
r

l=1
(AB)
il
c
lj
=
r

l=1
_
q

k=1
a
ik
b
kl
_
c
lj
=
r

l=1
q

k=1
a
ik
b
kl
c
lj
=
q

k=1
r

l=1
a
ik
b
kl
c
lj
=
q

k=1
a
ik
_
r

l=1
b
kl
c
lj
_
=
q

k=1
a
ik
(BC)
kj
=
_
A(BC)
_
ij
.
Théorème (Produit par blocs) Soient A, B, C, D, A

, B

, C

, D

des matrices à coefficients dans K de tailles indiquées
ci-dessous.
A
B
C
D
_ _
p
p

q q

×
A

B

C

D

_ _
q
q

r r

=
AA

+CB

BA

+DB

AC

+CD

BC

+DD

_ _
Explication En résumé, tout se passe avec les blocs comme si chacun d’entre eux était un scalaire.
Démonstration Seulement calculatoire mais sans difficulté.
1.4 Transposition
Définition (Transposée) Soit A ∈ Mn,p(K). On appelle transposée de A la matrice (aji)
1ip
1jn
, notée
t
A ou A
T
.
Exemple
_
3 0 1
5 2 7
_
=
_
_
3 5
0 2
1 7
_
_
et
_
_
_
λ1
.
.
.
λn
_
_
_ =
_
λ1 · · · λn
_
.
t
t
Théorème (Propriétés de la transposition)
• Linéarité : Soient A, B ∈ Mn,p(K) et λ, µ ∈ K.
t
(λA +µB) = λ
t
A+µ
t
B.
• Involutivité : Soit A ∈ Mn,p(K).
t
_
t
A
_
= A.
• Produit : Soient A ∈ Mp,q(K) et B ∈ Mq,r(K).
t
(AB) =
t
B
t
A.
3
c Christophe Bertault - MPSI
Démonstration Seule l’assertion sur le produit mérite une preuve. Pour tout (i, j) ∈ 1, r ×1, p :
_
t
(AB)
_
ij
= (AB)ji =
q

k=1
a
jk
b
ki
=
q

k=1
b
ki
a
jk
=
q

k=1
_
t
B
_
ik
_
t
A
_
kj
=
_
t
B
t
A
_
ij
.
Définition (Matrice symétrique/antisymétrique) Soit A ∈ Mn(K).
• On dit que A est symétrique si
t
A = A. • On dit que A est antisymétrique si
t
A = −A.
Exemple
_
_
1 2 3
2 5 0
3 0 6
_
_
est symétrique et
_
_
0 1 −5
−1 0 2
5 −2 0
_
_
est antisymétrique.
Diagonale nulle
car tout coefficient diagonal
est égal à son opposé.
1.5 Opérations élémentaires
Définition (Opérations élémentaires) Soient i, j ∈ N

et λ ∈ K. On appelle opération élémentaire sur les lignes d’une
matrice les opérations suivantes :
– permutation des i
ème
et j
ème
lignes, notée Li ↔ Lj,
– multiplication de la i
ème
ligne par le scalaire λ = 0, notée Li ← λLi,
– addition de la j
ème
ligne multipliée par le scalaire λ à la i
ème
ligne (avec i = j), notée Li ← Li +λLj.
On définit de même des opérations élémentaires sur les colonnes, notées Ci ↔ Cj, Ci ← λCi et Ci ← Ci +λCj.
La démonstration du théorème suivant requiert seulement un soupçon d’enthousiasme calculatoire. Calculez !
Théorème (Opérations élémentaires = multiplication par certaines matrices) Soit A ∈ Mn,p(K).
• Soient i, j ∈ 1, n. L’opé-
ration élémentaire Li ↔ Lj est
équivalente à la multiplication de A
à gauche par :
• Soient i ∈ 1, n et λ ∈ K

.
L’opération élémentaire Li ← λLi
est équivalente à la multiplication de
A à gauche par :
• Soient i, j ∈ 1, n, i = j
et λ ∈ K. L’opération élémentaire
Li ← Li +λLj est équivalente à la
multiplication de A à gauche par :
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1
0
1
.
.
.
1
0
1
.
.
.
1
1
1
j −→
i −→
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1
λ
1
.
.
.
1

i
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1
.
.
.
1
.
.
.
1
λ

j
i −→
Si, au lieu de multiplier à gauche, on multiplie A à droite par les matrices décrites ci-dessus, on obtient une simulation des
opérations élémentaires sur les colonnes, respectivement : Ci ↔ Cj, Ci ← λCi et Cj ← Cj + λCi — à condition de
faire varier i et j dans 1, p et non plus dans 1, n.
Explication Pas la peine de retenir par cœur bêtement les trois formes de matrices du théorème ! Pour les retrouver,
appliquer simplement à la matrice In l’opération élémentaire concernée.
Attention !
Opérations élémentaires sur les lignes
Opérations élémentaires sur les colonnes
=
=
Multiplication à gauche
Multiplication à droite
4
c Christophe Bertault - MPSI
1.6 Application linéaire canoniquement associée à une matrice
Un élement de K
n
peut toujours être vu comme une colonne car après tout K
n
= Mn,1(K). Dans la définition qui suit, X
doit être justement vu comme une colonne pour que le produit AX ait un sens.
Définition (Application linéaire canoniquement associée à une matrice, noyau, image) Soit A ∈ Mn,p(K).
(i) L’application X −→ AX est linéaire de K
p
dans K
n
, appelée l’application linéaire canoniquement associée à A.
(ii) On appelle noyau de A et on note Ker A le noyau de l’application linéaire canoniquement associée à A :
Ker A =
_
X ∈ K
p
/ AX = 0
_
. Les lignes de A forment un système d’équations de Ker A.
(iii) On appelle image de A et on note Im A l’image de l’application linéaire canoniquement associée à A. Les colonnes
de A forment une famille génératrice de Im A.
Explication L’application X −→ AX est définie de K
p
dans K
n
et non l’inverse pour une simple raison de compatibilité
des formats.
Démonstration
(ii) L’égalité AX = 0 peut être vue comme un système linéaire dont les lignes sont celles de A.
(iii) Si nous notons (Ei)
1ip
la base canonique de K
p
écrite en colonnes et C1, C2, . . . , Cp les colonnes de A,
alors Ci = AEi pour tout i ∈ 1, p, donc : ImA = Vect
_
AE1, AE2, . . . , AEn
_
= Vect(C1, C2, . . . , Cp).
Exemple L’application linéaire canoniquement associée à
_
0 1 2
3 4 5
_
est l’application (x, y, z) −→ (y + 2z, 3x + 4y + 5z)
de R
3
dans R
2
. Son noyau est la droite vectorielle de R
3
d’équations y + 2z = 0 et 3x + 4y + 5z = 0. Quant à son image, c’est
Vect
_
(0, 3), (1, 4), (2, 5)
_
= Vect
_
(0, 3), (1, 4)
_
= R
2
— surjectivité.
2 Matrices carrées
2.1 Structure d’anneau
Le produit de deux matrices carrées de taille n est une matrice carrée de taille n : la multiplication des matrices est donc une
loi de composition interne sur Mn(K). Si A ∈ Mn(K) et k ∈ N, nous pouvons donc noter A
k
la matrice
k fois
¸ .. ¸
A ×A ×. . . ×A, avec
la convention A
0
= In. Il a dès lors un sens, pour tout P =

k=0
p
k
X
k
∈ K[X], de noter P(A) la matrice

k=0
p
k
A
k
(somme finie).
Le théorème suivant est une conséquence immédiate des résultats précédents.
Théorème (Anneau Mn(K))
_
Mn(K), +, ×
_
est un anneau d’élément neutre In pour la multiplication. Si n 2, cet
anneau n’est ni commutatif ni intègre.
Explication
• L’anneau Mn(K) possède une autre propriété remarquable de stabilité : la transposée d’une matrice carrée de taille n est
encore une matrice carrée de taille n.
• Comme dans tout anneau, deux formules importantes sont vraies dans Mn(K) :
(A+B)
k
=
k

i=0
_
k
i
_
A
i
B
k−i
(formule du binôme) et A
k
−B
k
= (A −B)
k−1

i=0
A
i
B
k−i−1
pour toutes matrices A, B ∈ Mn(K) qui commutent. Il est essentiel que A et B commutent.
5
c Christophe Bertault - MPSI
Exemple On pose A =
_
_
1 1 2
0 1 0
0 0 1
_
_
. Alors pour tout k ∈ N : A
k
=
_
_
1 k 2k
0 1 0
0 0 1
_
_
.
En effet Pour calculer les puissances de A, écrivons A = I3 + J avec J =
_
_
0 1 2
0 0 0
0 0 0
_
_
. Bien sûr, I3 et J
commutent car I3 commute avec toute matrice carrée de taille 3, et on remarque que J
2
= 0, donc que J
i
= 0
pour tout i 2. Par conséquent, pour tout k ∈ N : A
k
=
k

i=0
_
k
i
_
I
i
3
J
k−i
= I3 +kJ =
_
_
1 k 2k
0 1 0
0 0 1
_
_
.
2.2 Matrices inversibles
Définition (Matrice inversible et inverse, groupe linéaire)
• Soit A ∈ Mn(K). On dit que A est inversible (dans Mn(K)) si A est inversible (pour la multiplication) dans l’anneau
_
Mn(K), +, ×
_
, i.e. s’il existe une matrice B ∈ Mn(K) telle que AB = BA = In.
On sait déjà qu’une telle matrice B, si elle existe, est unique, notée A
−1
et appelée l’inverse de A.
• Si A, B ∈ Mn(K) sont inversibles :
– A
−1
est inversible et (A
−1
)
−1
= A,
– AB est inversible et (AB)
−1
= B
−1
A
−1
— et non pas A
−1
B
−1
!
– pour tout k ∈ Z, A
k
est inversible et (A
k
)
−1
= (A
−1
)
k
,

t
A est inversible et
_
t
A
_
−1
=
t
_
A
−1
_
.
• L’ensemble des matrices inversibles de Mn(K) est noté GL
n
(K) et appelé le groupe linéaire de degré n sur K. Il
s’agit là du groupe des inversibles de l’anneau
_
Mn(K), +, ×
_
: U
_
Mn(K)
_
= GL
n
(K).
Démonstration Pour le résultat sur la transposition, simple vérification :
t

t
_
A
−1
_
=
t
_
A
−1
A
_
=
t
In = In
et de même
t
_
A
−1
_
×
t
A = In.
Attention ! La notation
A
B
, où A et B sont deux matrices, est rigoureusement interdite, même lorsque B est
inversible. Quel en serait le sens : AB
−1
ou B
−1
A? Deux matrices ne commutent pas en général.
Théorème (Matrices inversibles de taille 2) Soient a, b, c, d ∈ K. On appelle déterminant de
_
a c
b d
_
, noté det
_
a c
b d
_
ou
¸
¸
¸
¸
a c
b d
¸
¸
¸
¸
, le scalaire ad −bc.
La matrice
_
a c
b d
_
est inversible si et seulement si son déterminant est non nul. Dans ce cas
_
a c
b d
_
−1
=
1
ad −bc
_
d −c
−b a
_
.
Démonstration Par un simple calcul :
_
d −c
−b a
__
a c
b d
_
=
_
a c
b d
__
d −c
−b a
_
= (ad −bc)I2.
• Du coup, clairement, si ad −bc = 0, alors
_
a c
b d
_
est inversible d’inverse
1
ad −bc
_
d −c
−b a
_
.
• Dans l’autre sens, si nous supposons par l’absurde que ad−bc = 0 et que
_
a c
b d
_
est inversible, alors après
multiplication par
_
a c
b d
_
−1
,
_
d −c
−b a
_
= 0, i.e. a = b = c = d = 0, et donc
_
a c
b d
_
= 0 — alors que
_
a c
b d
_
est supposée inversible.
Théorème (Inversibilité à gauche/à droite) Soient A, B ∈ Mn(K) telles que AB = In. Alors A et B sont inversibles,
inverses l’une de l’autre.
6
c Christophe Bertault - MPSI
Explication En principe, montrer que A est inversible revient à montrer l’existence d’une matrice B telle que
AB = In et BA = In. Ce théorème montre que l’une ou l’autre des assertions suffit en réalité, ce qui est bien pratique.
Démonstration L’application M
β
−→ BM est un endomorphisme de Mn(K). Comme Mn(K) est de dimension
finie, il nous suffit d’établir l’injectivité de β pour avoir sa bijectivité. Or en effet β est injective, car pour tout
M ∈ Ker β : M = InM = (AB)M = A(BM) = Aβ(M) = A ×0 = 0.
La bijectivité de β montre en particulier que pour une certaine matrice A

∈ Mn(K), β(A

) = In. Or en fait :
A

= InA

= (AB)A

= A(BA

) = Aβ(A

) = AIn = A. Bref : AB = BA = In comme voulu.
Théorème (Caractérisation des matrices inversibles en termes de systèmes linéaires, système de Cramer)
• Soit A ∈ Mn(K). Les assertions suivantes sont équivalentes :
(i) A est inversible.
(ii) Ker A =
_
0
_
.
(iii) Pour tout second membre Y ∈ K
n
, le système linéaire Y = AX d’inconnue X ∈ K
n
possède une
et une seule solution. En d’autres termes : ∀Y ∈ K
n
, ∃ ! X ∈ K
n
/ Y = AX.
• Un système linéaire (carré) associé à une matrice inversible est appelé un système de Cramer. Précisément, si le
système Y = AX d’inconnue X ∈ K
n
, de matrice A ∈ Mn(K) et de second membre Y ∈ K
n
est de Cramer, sa solution
unique est la colonne X = A
−1
Y .
Démonstration
(i) =⇒ (ii) Si A est inversible, soit X ∈ Ker A. Alors X = InX = (A
−1
A)X = A
−1
(AX) = A
−1
0 = 0.
Conclusion : Ker A =
_
0
_
.
(ii) =⇒ (iii) Si Ker A =
_
0
_
, alors l’application linéaire canoniquement associée à A est injective de K
n
dans
K
n
, donc bijective comme endomorphisme en dimension finie. C’est exactement le résultat attendu.
(iii) =⇒ (i) Notons (Ei)
1in
la base canonique de K
n
. Alors In est la matrice de colonnes E1, E2, . . . , En.
Par hypothèse, pour tout i ∈ 1, n, Ei = ACi pour un certain Ci ∈ K
n
. Notant B la matrice de colonnes
C1, C2, . . . , Cn, nous avons : In = AB, donc A est inversible d’inverse B.
Théorème (Caractérisation des matrices inversibles au moyen de leurs lignes/colonnes) Soit A ∈ Mn(K). Les
assertions suivantes sont équivalentes :
(i) A est inversible.
(ii) La famille des colonnes de A est une base de K
n
— cela revient à dire qu’elle est libre ou génératrice.
(iii) La famille des lignes de A est une base de K
n
— cela revient à dire qu’elle est libre ou génératrice.
Démonstration
(i) ⇐⇒ (ii) Notons C1, C2, . . . , Cn les colonnes de A.
A est inversible ⇐⇒ Ker A =
_
0
_
⇐⇒ ∀X ∈ K
n
,
_
AX = 0 =⇒ X = 0
_
⇐⇒ ∀(xi)
1in
∈ K
n
,
_
n

i=1
xiCi = 0 =⇒ x1 = x2 = . . . = xn = 0
_
⇐⇒ (Ci)
1in
est libre
dimK
n
=n
⇐⇒ (Ci)
1in
est une base de K
n
.
(ii) ⇐⇒ (iii) Nous avons vu que A est inversible si et seulement
t
A l’est. Comme la transposition échange les
lignes et les colonnes, l’équivalence (i) ⇐⇒ (iii) se déduit de l’équivalence (i) ⇐⇒ (ii).
Théorème (Inversibilité des opérations élémentaires) Les matrices d’opérations élémentaires sont inversibles.
Démonstration La matrice de l’opération élémentaire Li ↔ Lj est inversible d’inverse elle-même. Pour
tout λ ∈ K

, la matrice de l’opération élémentaire Li ← λLi est inversible d’inverse la matrice de l’opération
élémentaire Li ←
1
λ
Li. Enfin pour tout λ ∈ K, la matrice de l’opération élémentaire Li ← Li + λLj est
inversible d’inverse la matrice de l’opération élémentaire Li ← Li −λLj. — Même chose sur les colonnes.
7
c Christophe Bertault - MPSI
En pratique Nous avons vu un peu plus haut que l’inversibilité d’une matrice A peut être exprimée en termes de
systèmes linéaires. Précisément, A est inversible si et seulement si pour tout Y , le système linéaire Y = AX possède une et
une seule solution. Résoudre ce système lorsque A est inversible, c’est transformer l’égalité Y = AX en une égalité de la forme
X = BY dans laquelle, en fait, B = A
−1
. Or comment résolvons-nous les systèmes linéaires ? Nous utilisons l’algorithme du pivot
de Gauss, fondé sur la notion d’opération élémentaire.
Voyons cela sur un exemple, celui de la matrice A =
_
_
1 3 1
1 2 2
1 2 1
_
_
. Pour tous X = (x1, x2, x3) ∈ R
3
et Y = (y1, y2, y3) ∈ R
3
:
Y = AX
A
¸ .. ¸
_
_
1 3 1
1 2 2
1 2 1
_
_
⇐⇒
_
_
_
x1 + 3x2 + x3 = y1
x1 + 2x2 + 2x3 = y2
x1 + 2x2 + x3 = y3
_
_
1 0 0
0 1 0
0 0 1
_
_
_
_
1 3 1
0 1 −1
0 1 0
_
_
⇐⇒
_
_
_
x1 + 3x2 + x3 = y1
x2 − x3 = y1 − y2
x2 = y1 − y3
L2 ←L1 −L2
L3 ←L1 −L3
_
_
1 0 0
1 −1 0
1 0 −1
_
_
_
_
1 3 1
0 1 −1
0 0 1
_
_
⋆⋆ ⇐⇒
_
_
_
x1 + 3x2 + x3 = y1
x2 − x3 = y1 − y2
x3 = y2 − y3 L3 ←L3 −L2
_
_
1 0 0
1 −1 0
0 1 −1
_
_
_
_
1 3 0
0 1 0
0 0 1
_
_
⇐⇒
_
_
_
x1 + 3x2 = y1 − y2 + y3
x2 = y1 − y3
x3 = y2 − y3
L1 ←L1 −L3
L2 ←L2 + L3
_
_
1 −1 1
1 0 −1
0 1 −1
_
_
_
_
1 0 0
0 1 0
0 0 1
_
_
⇐⇒
_
_
_
x1 = −2y1 − y2 + 4y3
x2 = y1 − y3
x3 = y2 − y3.
L1 ←L1 −3L2
_
_
−2 −1 4
1 0 −1
0 1 −1
_
_
. ¸¸ .
A
−1
Transformation de A en I3
par des opérations élémentaires
sur les lignes.
Transformation de I3 en A
−1
par report des mêmes opérations élémentaires
qui ont changé A en I3.
Cf. plus loin
Pour éclairer le principe de cette méthode, rappelons que les opérations élémentaires peuvent être vues matriciellement comme
des produits. Transformer A en In par des opérations élémentaires P1, P2, . . . , Pr dans cet ordre, c’est au fond dire ceci :
PrPr−1 . . . P1A = In — multiplications à gauche car nous opérons sur les lignes. Or cette égalité peut aussi être écrite :
PrPr−1 . . . P1In = A
−1
, donc en effet le report des opérations P1, P2, . . . , Pr sur In transforme celle-ci en A
−1
.
Bon, d’accord, mais à quoi peut-on reconnaître avec cette méthode que A n’est pas inversible ?
– Si A est inversible, on peut toujours la transformer en In par des opérations élémentaires sur les lignes via
l’algorithme du pivot de Gauss.
– Si elle ne l’est pas, on finit toujours par tomber sur une ligne nulle en appliquant le même algorithme.
La matrice B =
_
_
1 0 2
−1 −3 1
0 1 −1
_
_
, par exemple, n’est pas inversible, car :
B
¸ .. ¸
_
_
1 0 2
−1 −3 1
0 1 −1
_
_
_
_
1 0 2
0 −3 3
0 1 −1
_
_
L2 ←L1 + L2
_
_
1 0 2
0 −3 3
0 0 0
_
_
L3 ←L2 + 3L3
Attention ! Il est impératif que vos opérations élémentaires se fassent ici toutes sur les lignes. Vous pouvez en fait
les effectuer aussi toutes sur les colonnes — pourquoi ? — mais les mélanges sont interdits.
8
c Christophe Bertault - MPSI
2.3 Matrices diagonales et triangulaires
Définition (Matrice diagonale, matrice scalaire, matrice triangulaire)
• Une matrice carrée est dite diagonale si tous ses coefficients non diagonaux sont nuls.
En particulier, les matrices λIn, λ décrivant K, sont appelées matrices scalaires.
• Une matrice carrée est dite triangulaire supérieure (resp. inférieure) si ses coefficients situés strictement au-dessous
(resp. strictement au-dessus) de la diagonale sont nuls.
_
_
_
_
_
a11 a12 · · · a1n
a22 · · · a2n
.
.
.
.
.
.
ann
_
_
_
_
_
Matrice
triangulaire
supérieure
_
_
_
_
_
a11
a21 a22
.
.
.
.
.
.
.
.
.
an1 an2 · · · ann
_
_
_
_
_
Matrice
triangulaire
inférieure
Les matrices diagonales sont exactement les matrices à la fois triangulaires supérieures et triangulaires inférieures.
Explication Pour tous (λ1, λ2, . . . , λn), (µ1, µ2, . . . , µn) ∈ K
n
et α, β ∈ K :
• Combinaisons linéaires : α
_
_
_
λ1
.
.
.
λn
_
_
_+β
_
_
_
µ1
.
.
.
µn
_
_
_ =
_
_
_
αλ1 +βµ1
.
.
.
αλn +βµn
_
_
_.
• Produit :
_
_
_
λ1
.
.
.
λn
_
_
_
_
_
_
µ1
.
.
.
µn
_
_
_ =
_
_
_
λ1µ1
.
.
.
λnµn
_
_
_.
• Inverse :
_
_
_
λ1
.
.
.
λn
_
_
_ est inversible
si et seulement si
λ
k
= 0 pour tout k ∈ 1, n.
Dans ce cas
_
_
_
λ1
.
.
.
λn
_
_
_
−1
=
_
_
_
λ
−1
1
.
.
.
λ
−1
n
_
_
_.
Ces résultats sur les matrices diagonales sont en fait généralisables aux matrices triangulaires supérieures (resp. inférieures)
comme le montre le théorème suivant.
Théorème (Produit et inverse d’une matrice triangulaire)
(i) Produit : Le produit de deux matrices triangulaires supérieures (resp. inférieures) est encore une matrice trian-
gulaire supérieure (resp. inférieure).
(ii) Inverse : Une matrice triangulaire est inversible si et seulement si ses coefficients diagonaux sont tous non nuls.
De plus, en cas d’inversibilité, l’inverse d’une matrice
_
_
_
_
_
a11 a12 · · · a1n
a22 · · · a2n
.
.
.
.
.
.
ann
_
_
_
_
_
est de la forme
_
_
_
_
_
_
_
_
_
1
a11
× · · · ×
1
a22
· · · ×
.
.
.
.
.
.
1
ann
_
_
_
_
_
_
_
_
_
, où
le symbole × désigne des coefficients de valeurs non précisées — résultat analogue pour les matrices triangulaires inférieures.
Explication L’assertion (ii) est équivalente au principe bien connu suivant : un système linéaire triangulaire possède
une et une seule solution si et seulement si ses coefficients diagonaux sont tous non nuls. Nous avions plus ou moins admis ce
résultat jusqu’ici.
Démonstration Contentons-nous du cas des matrices triangulaires supérieures : le cas des matrices triangulaires
inférieures s’en déduit par transposition.
(i) Soient A, B ∈ Mn(K) triangulaires supérieures. Posons C = AB. Alors C est triangulaire supérieure car
pour tous i, j ∈ 1, n tels que i > j : cij =
n

k=1
a
ik
b
kj
=
i−1

k=1
a
ik
.¸¸.
=0
b
kj
+
n

k=i
a
ik
b
kj
.¸¸.
=0
= 0.
(ii) Raisonnons par récurrence sur la taille n des matrices concernées.
Initialisation : Toute matrice triangulaire supérieure de taille 1 est de la forme
_
a
_
où a ∈ K. Une
telle matrice est inversible si et seulement si a = 0 et dans ce cas
_
a
_
−1
=
_
a
−1
_
. L’inverse d’une matrice
triangulaire supérieure inversible de taille 1 est bien une matrice triangulaire supérieure.
9
c Christophe Bertault - MPSI
Hérédité : Soit n ∈ N

. Supposons le résultat vrai pour les matrices triangulaires supérieures de taille n
et fixons A ∈ Mn+1(K) triangulaire supérieure. Ecrivons A sous la forme A =
_
B C
0 a
_
avec B ∈ Mn(K)
triangulaire supérieure, a ∈ K et C ∈ K
n
écrit en colonne.
• Supposons A inversible. Les lignes de A forment alors une famille libre donc sa dernière ligne est
non nulle : a = 0.
De même, les n premières colonnes de A forment une famille libre, donc comme le dernier coefficient de
chacune est nul, les colonnes de B forment une famille libre. Ainsi B est inversible, donc à coefficients
diagonaux non nuls par hypothèse de récurrence.
• Supposons A à coefficients diagonaux non nuls. Alors B est inversible par hypothèse de récurrence
et B
−1
triangulaire supérieure à coefficients diagonaux inverses de ceux de B. Posons D = −
1
a
B
−1
C, de
sorte que BD +
1
a
C = 0. Alors
_
B C
0 a
_
×
_
B
−1
D
0
1
a
_
=
_
BB
−1
BD +
1
a
C
0 1
_
=
_
In 0
0 1
_
= In+1.
Conclusion : A est inversible d’inverse
_
B
−1
D
0
1
a
_
triangulaire supérieure et les coefficients diagonaux de
A
−1
sont exactement les inverses de ceux de A.
Explication Revenons maintenant rapidement sur la méthode d’inversibilité présentée quelques pages plus haut, et
plus précisément sur l’exemple de la matrice A =
_
_
1 3 1
1 2 2
1 2 1
_
_
. A l’issue de la deuxième étape ⋆⋆, la matrice T =
_
_
1 3 1
0 1 −1
0 0 1
_
_
obtenue à gauche est inversible car triangulaire à coefficients diagonaux non nuls. On a donc transformé A en une matrice
inversible par des opérations élémentaires, c’est-à-dire en multipliant par des matrices inversibles. Forcément, A elle-même
est inversible. Il n’est donc pas nécessaire de transformer A en In pour savoir qu’elle est inversible, il suffit en fait de la transformer
en une matrice dont on connaît l’inversibilité. On ne va jusqu’à In puis jusqu’à A
−1
que lorsqu’on veut explicitement A
−1
.
3 Représentation matricielle des familles de vecteurs
et des applications linéaires
3.1 Matrice d’une famille de vecteurs dans une base
Définition (Matrice d’une famille de vecteurs dans une base) Soient E un K-espace vectoriel de dimension n,
B = (ei)
1in
une base de E et X = (xj)
1jp
une famille quelconque de vecteurs de E.
Pour tout (i, j) ∈ 1, n × 1, p, notons aij la i
ème
coordonnée de xj dans B. La matrice
_
aij
_
1in
1jp
, notée Mat
B
(X), est
appelée matrice de X dans B.
Mat
B
(X) =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a11 a12 · · · a1j · · · a1p
a21 a22 · · · a2j · · · a2p
.
.
.
.
.
.
.
.
.
.
.
.
ai1 ai2 · · · aij · · · aip
.
.
.
.
.
.
.
.
.
.
.
.
an1 an2 · · · anj · · · anp
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_

x1

x2

xj

xp
← e1
← e2
← ei
← en
Coordonnées de xj dans B écrites en colonne
Exemple Soient E un K-espace vectoriel de dimension finie et B une base de E. Alors pour tout x ∈ E, Mat
B
(x) est tout
simplement la colonne des coordonnées de x dans B.
10
c Christophe Bertault - MPSI
Exemple Si on note B4 la base canonique de R
4
: Mat
B
4
_
(1, 0, 3, 1), (2, −1, 0, −1)
_
=
_
_
_
_
1 2
0 −1
3 0
1 −1
_
_
_
_
.
Exemple Mat
(1,X,X
2
)
(X
2
+2X +1, X, X
2
−X) =
_
_
1 0 0
2 1 −1
1 0 1
_
_
et Mat
(X
2
,X,1)
(X
2
+2X +1, X
2
−X, X) =
_
_
1 1 0
2 −1 1
1 0 0
_
_
.
Bref, si on change la base ou l’ordre des vecteurs de la famille étudiée, on change la matrice !
Théorème (Matrice des colonnes dans la base canonique) Soit A ∈ Mn,p(K) de colonnes C1, C2, . . . , Cp. Si on note
Bn la base canonique de K
n
, alors : A = Mat
Bn
(C1, C2, . . . , Cp).
Démonstration Réfléchissez ! Il faut que ce petit résultat coule dans vos veines.
3.2 Matrice d’une application linéaire dans des bases
Définition (Matrice d’une application linéaire dans des bases) Soient E et F deux K-espaces vectoriels de dimensions
respectives p et n, B = (ej)
1jp
une base de E et C = (fi)
1in
une base de F. Soit en outre f ∈ L(E, F).
On appelle matrice de f dans B et C et on note Mat
B,C
(f) la matrice de la famille f(B) =
_
f(ej)
_
1jp
dans la base C.
Mat
B,C
(f) = Mat
C
_
f(B)
_
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a11 a12 · · · a1j · · · a1p
a21 a22 · · · a2j · · · a2p
.
.
.
.
.
.
.
.
.
.
.
.
ai1 ai2 · · · aij · · · aip
.
.
.
.
.
.
.
.
.
.
.
.
an1 an2 · · · anj · · · anp
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_

f(e1)

f(e2)

f(ej)

f(ep)
← f1
← f2
← fi
← fn
Coordonnées de f(ej) dans C écrites en colonne
Si E = F et si B = C, la
matrice Mat
B,B
(f) est simple-
ment notée Mat
B
(f).
Exemple Si E est de dimension finie n et si B est une base de E : Mat
B
(IdE) = In.
Exemple On note T l’endomorphisme P −→ X
2
P
′′
+P(−X) +P(1) de R3[X] et B3 la base canonique de R3[X].
Alors : Mat
B
3
(T) =
_
_
_
_
2 1 1 1
0 −1 0 0
0 0 3 0
0 0 0 5
_
_
_
_
.
En effet T(1) = 0+1+1 = 2, T(X) = 0+(−X)+1 = 1−X, T
_
X
2
_
= X
2
×2+(−X)
2
+1 = 1+3X
2
et T
_
X
3
_
= X
2
×6X + (−X)
3
+ 1 = 1 + 5X
3
.
Exemple On note ϕ l’application linéaire (x, y) −→ (x, x+y, y−x) de R
2
dans R
3
et B2 et B3 les bases canoniques respectives
de R
2
et R
3
. On pose également B

2
=
_
(0, 1), (1, 0)
_
et B

3
=
_
(1, 1, 1), (1, 1, 0), (1, 0, 0)
_
, bases de R
2
et R
3
respectivement.
Alors : Mat
B
2
,B
3
(ϕ) =
_
_
1 0
1 1
−1 1
_
_
et Mat
B

2
,B

3
(ϕ) =
_
_
1 −1
0 2
−1 0
_
_
. Bref, si on change les bases, on change la matrice !
11
c Christophe Bertault - MPSI
En effet Pour la deuxième matrice, nous devons calculer les coordonnées de ϕ(0, 1) et ϕ(1, 0) dans B

3
. Or :
ϕ(0, 1) = (0, 1, 1) = (1, 1, 1) −(1, 0, 0) et ϕ(1, 0) = (1, 1, −1) = −(1, 1, 1) + 2(1, 1, 0),
donc les coordonnées de ϕ(0, 1) dans B

3
sont (1, 0, −1) et celles de ϕ(1, 0) sont (−1, 2, 0).
Théorème (Matrice d’une application linéaire canoniquement associée dans les bases canoniques) Soit
A ∈ Mn,p(K). Si on note encore A l’application linéaire X −→ AX de K
p
dans K
n
canoniquement associée à A, et si on note
Bp et Bn les bases canoniques respectives de K
p
et K
n
, alors : A = Mat
Bp,Bn
(A).
Démonstration Réfléchissez ! Il faut que ce petit résultat coule dans vos veines.
Théorème (Equivalence des points de vue vectoriel et matriciel) Soient E et F deux K-espaces vectoriels de
dimension finie, B une base de E et C une base de F.
Soient en outre u ∈ L(E, F), x ∈ E et y ∈ F. Si on pose U = Mat
B,C
(u), X = Mat
B
(x) et Y = Mat
C
(y), alors :
y = u(x) ⇐⇒ Y = UX.
Explication Ce théorème montre que le calcul du vecteur u(x) est équivalent au calcul du produit matriciel
UX. Précisément, UX est la colonne des coordonnées de u(x) dans C. Rappelons que par définition, X = Mat
B
(x) est la colonne
des coordonnées de x dans B et Y = Mat
C
(y) celle de y dans C.
Démonstration Introduisons les vecteurs de B et C : B = (ej)
1jp
et C = (fi)
1in
.
y = u(x) ⇐⇒
n

i=1
yifi = u
_
p

j=1
xjej
_
⇐⇒
n

i=1
yifi =
p

j=1
xju(ej) ⇐⇒
n

i=1
yifi =
p

j=1
xj
n

i=1
uijfi
⇐⇒
n

i=1
yifi =
n

i=1
_
p

j=1
uijxj
_
fi ⇐⇒ ∀i ∈ 1, n, yi =
p

j=1
uijxj ⇐⇒ Y = UX.
Exemple On note R l’endomorphisme de R
3
de matrice
_
_
4 0 0
0 1 −

3
0 −

3 3
_
_
dans la base canonique, c’est-à-dire
l’application linéaire canoniquement associée à cette matrice. Alors Ker R = Vect
_
_
0,

3, 1
_
_
.
En effet Pour tout (x, y, z) ∈ R
3
: (x, y, z) ∈ Ker R ⇐⇒ R(x, y, z) = (0, 0, 0)
⇐⇒
_
_
4 0 0
0 1 −

3
0 −

3 3
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
⇐⇒
_
_
_
4x = 0
y −

3z = 0


3y + 3z = 0
⇐⇒
_
x = 0
y =

3z.
Comme annoncé : Ker R = Vect
_
_
0,

3, 1
_
_
.
Théorème (Equivalence des points de vue vectoriel et matriciel, bis)
(i) Soient E et F deux K-espaces vectoriels de dimensions finies respectives p et n, B une base de E et C une base
de F. L’application f −→ Mat
B,C
(f) est un isomorphisme (linéaire) de L(E, F) sur Mn,p(K).
(ii) Soient E, F, G trois K-espaces vectoriels de dimension finie, de bases respectives B, C, D.
Soient en outre f ∈ L(E, F) et g ∈ L(F, G). Alors : Mat
B,D
(g ◦ f) = Mat
C,D
(g) ×Mat
B,C
(f).
(iii) Soient E un K-espace vectoriel de dimension n et B une base de E. L’application f −→ Mat
B
(f) est un isomor-
phisme d’anneaux de L(E) sur Mn(K).
En particulier, les groupes linéaires GL(E) = U
_
L(E)
_
et GL
n
(K) = U
_
Mn(K)
_
sont isomorphes comme groupes.
12
c Christophe Bertault - MPSI
Explication
• L’assertion (i) exprime deux choses :
– une propriété de linéarité : Mat
B,C
(λf +µg) = λ Mat
B,C
(f) +µ Mat
B,C
(g) pour tous f, g ∈ L(E, F) et λ, µ ∈ K,
– une propriété de bijectivité : pour tout f ∈ L(E, F), connaître Mat
B,C
(f) revient à connaître entièrement f.
• L’assertion (ii) montre que le produit matriciel et la composition des applications linéaires sont deux faces d’une même
pièce. Le produit est aux matrices ce que la composition est aux applications linéaires.
Démonstration
(i) La construction de la matrice d’une application linéaire rend « évidente » la linéarité de Mat
B,C
: réfléchissez !
Ensuite, comme : dimL(E, F) = dimE×dimF = np = dimMn,p(K), il nous suffit de montrer l’injectivité
de Mat
B,C
pour montrer sa bijectivité. Soit donc f ∈ Ker Mat
B,C
. Alors Mat
B,C
(f) = 0
Mn,p(K)
, donc f envoie tout
vecteur de B sur 0F , et donc a fortiori tout vecteur de E sur 0F par linéarité. Comme voulu, f = 0
L(E,F)
.
(ii) Posons A = Mat
B,C
(f), B = Mat
C,D
(g) et C = Mat
B,D
(g ◦ f). Nous devons montrer que BA = C, i.e. que BA et C
ont les mêmes colonnes.
Ej =
_
_
_
_
_
_
_
_
0
.
.
.
1
.
.
.
0
_
_
_
_
_
_
_
_
position j
Posons n = dimE, fixons j ∈ 1, n et notons ej le j
ème
vecteur de B et Ej la matrice des coordonnées de
ej dans B. Dans ces conditions :
– AEj est la colonne des coordonnées de f(ej) dans C,
– donc B(AEj) est la colonne des coordonnées de g
_
f(ej)
_
dans D,
– or CEj est aussi la colonne des coordonnées de (g ◦ f)(ej) dans D,
donc enfin (BA)Ej = CEj. On conclut en remarquant que (BA)Ej est la j
ème
colonne de BA et CEj la
j
ème
colonne de C. Comme voulu, BA et C ont les mêmes colonnes.
(iii) D’après (i), Mat
B
est un isomorphisme linéaire de L(E) sur Mn(K), donc une bijection et un morphisme
de groupes pour l’addition. Ensuite, d’après (ii), Mat
B
préserve les produits : Mat
B
(g ◦f) = Mat
B
(g) ×Mat
B
(f)
pour tous f, g ∈ L(E). Enfin : Mat
B
(IdE) = In.
Exemple L’endomorphisme θ de R3[X] dont la matrice dans la base canonique de R3[X] est Θ =
_
_
_
_
0 0 1 −1
−1 1 1 −1
0 2 1 −2
−1 2 1 −2
_
_
_
_
est la
symétrie par rapport à Vect(X
3
+X
2
+X, X
2
+ 1) parallèlement à Vect(X
3
+X + 1, X
3
+X
2
).
En effet
• Par définition, θ est linéaire. Montrer que θ est une symétrie revient donc à montrer que θ
2
= Id
R
3
[X]
, ou
encore que Θ
2
= I4 — ce qui est très facile à vérifier.
• Cherchons le sous-espace vectoriel de R3[X] par rapport auquel θ est une symétrie, à savoir Ker(θ −Id
R
3
[X]
).
Pour tout P = aX
3
+bX
2
+cX +d ∈ R3[X] :
Coordonnées de P dans la base canonique de R3[X]
P ∈ Ker(θ −Id
R
3
[X]
) ⇐⇒ θ(P) = P ⇐⇒ Θ
_
_
_
_
d
c
b
a
_
_
_
_
=
_
_
_
_
d
c
b
a
_
_
_
_
⇐⇒
_
¸
¸
_
¸
¸
_
b − a = d
− d + c + b − a = c
2c + b − 2a = b
− d + 2c + b − 2a = a
⇐⇒
_
¸
¸
_
¸
¸
_
− d + b − a = 0
− d + b − a = 0
c − a = 0
− d + 2c + b − 3a = 0
⇐⇒
_
− d + b − a = 0
c − a = 0
⇐⇒ ∃ λ, µ ∈ R/
_
¸
¸
_
¸
¸
_
a = λ
b = λ +µ
c = λ
d = µ.
Ainsi Ker(θ −Id
R
3
[X]
) = Vect(X
3
+X
2
+X, X
2
+ 1).
• On montre de la même manière que Ker(θ + Id
R
3
[X]
) = Vect(X
3
+X + 1, X
3
+X
2
).
13
c Christophe Bertault - MPSI
3.3 Interprétation vectorielle de l’inversibilité
Théorème (Interprétation vectorielle de l’inversibilité)
(i) Soient E un K-espace vectoriel de dimension finie n, B une base de E et X une famille de n vecteurs de E. Alors
X est une base de E si et seulement si Mat
B
(X) est inversible.
(ii) Soient E et F deux K-espaces vectoriels de mêmes dimensions finies, B une base de E et C une base de F. Soit
en outre f ∈ L(E, F).
Alors f est un isomorphisme de E sur F si et seulement si Mat
B,C
(f) est inversible. Dans ce cas : Mat
C,B
_
f
−1
_
=
_
Mat
B,C
(f)
_
−1
.
Démonstration Nous commencerons par l’assertion (ii).
(ii) Si f est bijective, alors Mat
B,C
(f) ×Mat
C,B
_
f
−1
_
= Mat
C
(IdF) = In avec n = dimF, donc Mat
B,C
(f) est inversible
d’inverse Mat
C,B
_
f
−1
_
.
Réciproquement, si A = Mat
B,C
(f) est inversible, notons g l’unique application linéaire de F dans E pour
laquelle Mat
C,B
(g) = A
−1
. Alors Mat
B
(g ◦ f) = Mat
C,B
(g) × Mat
B,C
(f) = A
−1
A = In et de même Mat
C
(f ◦ g) = In,
donc g ◦ f = IdE et que f ◦ g = IdF , et enfin f est bijective de E sur F.
(i) Notons f l’unique endomorphisme de E envoyant la base B sur la famille X.
X est une base de E ⇐⇒ f(B) est une base de E ⇐⇒ f est un automorphisme de E
(ii)
⇐⇒ Mat
B
(f) est inversible ⇐⇒ Mat
B
(X) est inversible.
4 Changements de base et matrices semblables
4.1 Changements de base
Définition (Matrice de passage d’une base à une autre) Soient E un K-espace vectoriel et B et B

deux bases de
E. On appelle matrice de passage de B à B

la matrice Mat
B
(B

) = Mat
B

,B
(IdE), souvent notée P
B

B
.
Théorème (Propriétés des matrices de passage) Soient E un K-espace vectoriel et B, B

et B
′′
trois bases de E.
(i) P
B

B
est inversible d’inverse P
B
B
′ . (ii) P
B

B
×P
B
′′
B
′ = P
B
′′
B
.
Démonstration
(i) P
B

B
est la matrice d’un isomorphisme : P
B

B
−1
=
_
Mat
B

,B
(IdE)
_
−1
= Mat
B,B

_
Id
−1
E
_
= Mat
B,B

(IdE) = P
B
B
′ .
(ii) P
B

B
×P
B
′′
B
′ = Mat
B

,B
(IdE) × Mat
B
′′
,B

(IdE) = Mat
B
′′
,B
(IdE ◦ IdE) = Mat
B
′′
,B
(IdE) = P
B
′′
B
.
Théorème (Changement de base) Soient E et F deux K-espaces vectoriels, B et B

deux bases de E et C et C

deux
bases de F. On pose P = P
B

B
et Q = P
C

C
.
(i) Version vecteur : Soit x ∈ E. On pose X = Mat
B
(x) et X

= Mat
B

(x). Alors : X = PX

.
(ii) Version application linéaire : Soit f ∈ L(E, F). On pose A = Mat
B,C
(f) et A

= Mat
B

,C

(f).
Alors : A

= Q
−1
AP.
14
c Christophe Bertault - MPSI
Démonstration
(i) En termes matriciels, l’égalité x = IdE(x) s’écrit, dans les bases adaptées, X = PX

.
(ii) A

= Mat
B

,C

(f) = Mat
B

,C

_
Id
−1
F
◦ f ◦ IdE
_
=
_
Mat
C

,C
(IdF )
_
−1
×Mat
B,C
(f) × Mat
B

,B
(IdE) = Q
−1
AP.
Exemple Soit θ ∈ R fixé. Notons
_
−→
ı ,
−→

_
la base canonique de R
2
et :
_
−→
u
θ
= cos θ
−→
ı + sin θ
−→

−→
v
θ
= −sin θ
−→
ı + cos θ
−→
 .
(i)
_
−→
u
θ
,
−→
v
θ
_
est une base de R
2
.
(ii) Soit
−→
u = (x, y) ∈ R
2
. Les coordonnées de
−→
u dans
_
−→
ı ,
−→

_
sont bien sûr X =
_
x
y
_
. Notons X

=
_
x

y

_
les
coordonnées de
−→
u dans la base
_
−→
u
θ
,
−→
v
θ
_
. Alors :
_
x = x

cos θ −y

sin θ
y = x

sin θ +y

cos θ
et
_
x

= x cos θ +y sin θ
y

= −xsin θ +y cos θ.
En géométrie élémentaire de début d’année, nous aurions bien sûr obtenu les mêmes formules de changement de base.
En effet
(i) La matrice de
_
−→
u
θ
,
−→
v
θ
_
dans
_
−→
ı ,
−→

_
est
_
cos θ −sin θ
sin θ cos θ
_
, de déterminant cos
2
θ + sin
2
θ = 1 = 0 donc
inversible. Comme voulu,
_
−→
u
θ
,
−→
v
θ
_
est une base de R
2
.
(ii) Sachant que P
(
− →
u
θ
,
− →
v
θ
)
(
− →
ı ,
− →
 )
=
_
cos θ −sin θ
sin θ cos θ
_
: X =
_
cos θ −sin θ
sin θ cos θ
_
X

. Pour l’autre formule, simplement
calculer l’inverse de P
(
− →
u
θ
,
− →
v
θ
)
(
− →
ı ,
− →
 )
.
Théorème (Changement de bases et matrice Jr)
Soient E et F deux K-espaces vectoriels de dimension finie et f ∈ L(E, F) de rang r.
Alors pour une certaine base B de E et une certaine base C de F : Mat
B,C
(f) = Jr,
où Jr est la matrice de taille n ×p suivante :
Jr =
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
.
r colonnes
¸ .. ¸
Démonstration Soient B = (ei)
1jp
une base de E et C = (fi)
1in
une base de F. Que faut-il imposer à
ces bases pour que la matrice de f y soit Jr ?
• Pour que les p −r dernières colonnes de Mat
B,C
(f) soient nulles, il faut que les vecteurs ep−r+1, ep−r+2, . . . , ep
soient éléments de Ker f et linéairement indépendants. Comme Ker f est de dimension p − r d’après le
théorème du rang, nous n’avons qu’à choisir pour famille (ej)
p−r+1jp
une base de Ker f et la compléter
simplement en une base B de E.
• Pour que les r premières colonnes de Mat
B,C
(f) soient celles qu’on veut, il suffit qu’on pose fj = f(ej) pour
tout j ∈ 1, r, puis qu’on complète en une base C de F si tant est que la famille (fj)
1jr
soit
bien libre. Or la famille (ej)
1jr
, par construction, engendre un supplémentaire I de Ker f dans E,
donc f
¸
¸
I
est un isomorphisme de I sur Im f, donc comme voulu, (fj)
1jr
=
_
f(ej)
_
1jr
est libre.
Voilà, nous avons garanti l’existence de deux bases B et C pour lesquelles Mat
B,C
(f) = Jr.
4.2 Matrices semblables et trace
Définition (Matrices semblables) Soient A, B ∈ Mn(K). On dit que B est semblable à A (dans Mn(K)) s’il existe une
matrice inversible P ∈ GL
n
(K) telle que B = P
−1
AP.
Explication A tout endomorphisme f d’un espace vectoriel E de dimension finie peuvent être associées de multiples
matrices Mat
B
(f) où B est une base de E. Si B

est une autre base de E, quel rapport y a-t-il entre Mat
B
(f) et Mat
B

(f) ? Tout
simplement, si on pose P = P
B

B
: Mat
B

(f) = P
−1
Mat
B
(f)P, autrement dit Mat
B

(f) est sembable à Mat
B
(f). La relation de
similitude met donc en évidence ce qu’il y a de réellement propre à f dans les différentes matrices qu’on peut lui associer.
15
c Christophe Bertault - MPSI
Théorème (Propriétés de la relation de similitude) La relation de similitude sur Mn(K) est une relation d’équivalence.
Démonstration
• Réflexivité : Soit A ∈ Mn(K). Alors A est semblable à A car In est inversible et A = I
−1
n
AIn.
• Symétrie : Soient A, B ∈ Mn(K). On suppose B semblable à A. Il existe donc P ∈ GL
n
(K) telle que
B = P
−1
AP. Alors P
−1
est inversible et A =
_
P
−1
_
−1
BP
−1
, donc A est semblable à B.
• Transitivité : Soient A, B, C ∈ Mn(K). On suppose B semblable à A et C semblable à B. Il existe
donc P, Q ∈ GL
n
(K) telles que B = P
−1
AP et C = Q
−1
BQ. Alors PQ est inversible par produit et
C = Q
−1
BQ = Q
−1
P
−1
APQ = (PQ)
−1
A(PQ), donc C est semblable à A.
Définition (Trace d’une matrice carrée) Soit A ∈ Mn(K). On appelle trace de A et on note tr(A) ou Tr(A) la somme
des éléments diagonaux de A.
(i) Linéarité : Pour tous A, B ∈ Mn(K) et λ, µ ∈ K : tr(λA +µB) = λtr(A) +µtr(B).
(ii) Effet sur un produit : Pour toutes matrices A, B ∈ Mn(K) : tr(AB) = tr(BA).
(iii) Invariance par similitude : Deux matrices de Mn(K) semblables ont même trace.
Démonstration
(i) tr(λA+µB) =
n

k=1
(λa
kk
+µb
kk
) = λ
n

k=1
a
kk

n

k=1
b
kk
= λtr(A) +µtr(B).
(ii) tr(AB) =
n

k=1
(AB)
kk
=
n

k=1
n

l=1
a
kl
b
lk
=
n

l=1
n

k=1
b
lk
a
kl
=
n

l=1
(BA)
ll
= tr(BA).
(iii) Soient A, B ∈ Mn(K) semblables, disons B = P
−1
AP pour une certaine matrice P ∈ GL
n
(K). Alors
tr(B) = tr
_
P
−1
(AP)
_
(ii)
= tr
_
(AP)P
−1
_
= tr(A).
Définition (Trace d’un endomorphisme en dimension finie) Soit E un K-espace vectoriel de dimension finie.
(i) Définition : Soit f ∈ L(E). La trace de la matrice Mat
B
(f) ne dépend pas du choix de la base B de E choisie.
On l’appelle trace de f, notée tr(f) ou Tr(f).
(ii) Linéarité : Pour tous f, g ∈ L(E) et λ, µ ∈ K : tr(λf +µg) = λtr(f) +µtr(g).
(iii) Effet sur une composée : Pour tous f, g ∈ L(E) : tr(f ◦ g) = tr(g ◦ f).
Démonstration Il nous suffit au fond de montrer l’assertion (i). Soient B et B

deux bases de E. Les matrices
Mat
B
(f) et Mat
B

(f) étant semblables, elles ont en effet même trace.
5 Rang d’une matrice
Définition (Rang d’une matrice) Soit A ∈ Mn,p(K). Le rang de l’application linéaire canoniquement associée à A est
égal au rang de la famille des colonnes de A. On appelle rang de A, noté rg(A), la valeur commune de ces deux rangs.
Forcément : rg(A) min
_
n, p
_
.
Démonstration Tout simplement, les colonnes de A engendrent ImA.
Exemple Soit A ∈ Mn,p(K). Si A possède une colonne nulle et si A

est la matrice obtenue à partir de A après suppression
de cette colonne nulle, alors rg(A) = rg(A

).
En effet Le rang de A est la dimension du sous-espace vectoriel de K
n
engendré par les colonnes de A. Or dans
un Vect, on peut toujours se défaire des vecteurs nuls.
16
c Christophe Bertault - MPSI
Théorème (Rang d’un système linéaire et structure de l’ensemble des solutions) Soient A ∈ Mn,p(K) et
B ∈ K
n
. On appelle rang du système linéaire AX = B d’inconnue X ∈ K
p
le rang de la matrice A de ce système.
(i) L’ensemble Ker A des solutions du système homogène AX = 0 d’inconnue X ∈ K
p
est un sous-espace vectoriel
de K
p
de dimension p −rg(A).
(ii) Dans le cas général :
– soit le système linéaire AX = B d’inconnue X ∈ K
p
ne possède pas de solution,
– soit, s’il en possède une X0, l’ensemble de toutes ses solutions est l’ensemble X0 + Ker A.
On rappelle que lorsque A est inversible, i.e. lorsque le système est de Cramer, il admet A
−1
B pour solution unique.
Démonstration
(i) Simple application du théorème du rang, puisque le rang de A comme matrice est par définition son rang
comme application linéaire.
(ii) Si le système possède une solution X0, alors pour tout X ∈ K
p
:
AX = B ⇐⇒ AX = AX0 ⇐⇒ A(X−X0) = 0 ⇐⇒ X−X0 ∈ Ker A ⇐⇒ X ∈ X0 +Ker A.
Théorème (Rang et inversibilité) Soit A ∈ Mn(K). Alors A est inversible si et seulement si rg(A) = n.
Démonstration A est inversible ⇐⇒ La famille des colonnes de A est une base de K
n
⇐⇒ Le sous-espace vectoriel engendré par les colonnes de A est de dimension n ⇐⇒ rg(A) = n.
Théorème (Relation entre les différentes notions de rang) Soient E et F deux K-espaces vectoriels de dimension
finie, B une base de E et C une base de F.
(i) Pour toute famille (finie) X de vecteurs de E : rg(X) = rg
_
Mat
B
(X)
_
.
(ii) Pour tout f ∈ L(E, F) : rg(f) = rg
_
Mat
B,C
(f)
_
.
En pratique En résumé, tout rang d’une famille de vecteurs ou d’une application linéaire peut être calculé comme
le rang d’une matrice. Il ne nous reste plus qu’à trouver une méthode en or pour calculer les rangs matriciels !
Démonstration
(i) Introduisons les vecteurs de B et X : B = (ei)
1in
et X = (xj)
1jp
, ainsi que les colonnes
C1, C2, . . . , Cp de Mat
B
(X). L’application (λi)
1in
ϕ
−→
n

i=1
λiei est un isomorphisme de K
n
sur E car B est
une base de E. De plus, pour tout j ∈ 1, p : ϕ(Cj) = xj puisque Cj est la colonne des coordonnées de
xj dans B. Par restriction, ϕ induit alors un isomorphisme de Vect(Cj)
1jp
sur Vect(xj)
1jp
= Vect(X).
En particulier : rg(X) = dimVect(X) = dimVect(Cj)
1jp
= rg(Cj)
1jp
= rg
_
Mat
B
(X)
_
.
(ii) rg
_
Mat
B,C
(f)
_
= rg
_
Mat
C
_
f(B)
_
_
(i)
= rg
_
f(B)
_
= dimVect
_
f(B)
_
= dimIm f = rg(f).
Théorème (Invariance du rang par multiplication par une matrice inversible) Le rang d’une matrice n’est pas
modifié quand on la multiplie à gauche ou à droite par une matrice inversible.
En particulier, les opérations élémentaires conservent le rang et deux matrices semblables ont même rang.
Démonstration Soient A ∈ Mn,p(K) et P ∈ GL
p
(K). Notons
´
A et
´
P les applications linéaires canoniquement
associées à A et P respectivement. Par définition : rg(AP) = rg
_
¯
AP
_
= rg
_
´
A ◦
´
P
_
. Or P est inversible donc
´
P est un automorphisme de K
p
, donc comme le rang d’une application linéaire est préservé quand on la compose
par un isomorphisme : rg(AP) = rg
_
´
A
_
= rg(A).
17
c Christophe Bertault - MPSI
Théorème (Invariance du rang par transposition) Le rang d’une matrice est égal au rang de sa transposée.
Démonstration Soit A ∈ Mn,p(K) de rang r.
• Notons
´
A l’application linéaire canoniquement associée à A et Bp et Bn les bases canoniques respectives de
K
p
et K
n
. Nous savons qu’alors A = Mat
Bp,Bn
_
´
A
_
, mais aussi que pour certaines bases B de K
n
et C de K
p
:
Mat
B,C
_
´
A
_
= Jr. Pour P = P
Bp
B
et Q = P
Bn
C
, énonçons le changement de bases sous-jacent : A = Q
−1
JrP.
• Aussitôt : rg
_
t
A
_
= rg
_
t
_
Q
−1
JrP
_
_
= rg
_
t
P
t
Jr
t
_
Q
−1
_
_
. Or
t
P et
t
_
Q
−1
_
sont inversibles, donc comme
le rang est invariant par multiplication par de telles matrices : rg
_
t
A
_
= rg(
t
Jr) = r = rg(A).
Exemple Soit A ∈ Mn,p(K). Si A possède une ligne nulle et si A

est la matrice obtenue à partir de A après suppression de
cette ligne nulle, alors rg(A) = rg(A

).
En effet Nous avons déjà montré le résultat pour une colonne nulle et nous savons maintenant que le rang est
invariant par transposition.
En pratique Décrivons enfin comment l’algorithme du pivot de Gauss peut être utilisé pour calculer rapidement
le rang d’une matrice. Partons d’une matrice A ∈ Mn,p(K). L’algorithme suivant ramène le calcul du rang de A au calcul du
rang d’une matrice de taille strictement plus petite sur laquelle le procédé doit être répété à l’identique.
0) Si A = 0, alors rg(A) = 0 — sortie de l’algorithme.
1) Sinon au moins un coefficient de A est non nul. En permutant les lignes et les colonnes de A, on se ramène au
calcul du rang d’une matrice de même rang que A dont le coefficient a de position (1, 1) est non nul. Ce coefficient a est
alors qualifié de pivot.
2) A l’aide du pivot a, on annule par des opérations élémentaires sur les lignes tous les termes de la première colonne
de la matrice obtenue à l’issue de l’étape 1) (à l’exception du pivot).
3) Toujours à l’aide du pivot a, on annule ensuite par des opérations élémentaires sur les colonnes tous les termes de
la première ligne de la matrice obtenue à l’issue de l’étape 2) (à l’exception du pivot).
4) La première colonne de la matrice obtenue à l’issue de l’étape 3) est clairement non combinaison linéaire des
autres colonnes de cette matrice. Ceci explique le résultat de l’étape 4) figuré ci-dessous.
L’algorithme ainsi décrit se termine avec certitude car A

est strictement plus petite en taille que A.
rg(A) = rg
_
_
_
_
_
a × · · · ×
× × · · · ×
.
.
.
.
.
.
.
.
.
× × · · · ×
_
_
_
_
_
= rg
_
_
_
_
_
a × · · · ×
0
.
.
.
0
_
_
_
_
_
= rg
_
_
_
_
_
a 0 · · · 0
0
.
.
.
0
_
_
_
_
_ A

A

. ¸¸ .
Cette étape n’a pas à figurer sur vos copies,
vous pouvez directement passer à l’étape 4).
Etape 4) Etape 3) Etape 2) Etape 1)
= rg(A

) + 1.
Attention ! Pour calculer le rang d’une matrice, vous pouvez mélanger comme vous voulez les opérations sur les
lignes et celles sur les colonnes !
Exemple rg
_
_
_
_
_
_
0 0 1 3
1 0 −1 2
0 0 1 2
−2 4 −4 1
−1 0 3 0
_
_
_
_
_
_
= rg
_
_
_
_
_
_
0 0 1 3
0 1 −1 2
0 0 1 2
4 −2 −4 1
0 −1 3 0
_
_
_
_
_
_
C1 ↔ C2 = rg
_
_
_
_
_
_
4 −2 −4 1
0 1 −1 2
0 0 1 2
0 0 1 3
0 −1 3 0
_
_
_
_
_
_
L1 ↔L4
= 1 + rg
_
_
_
_
1 −1 2
0 1 2
0 1 3
−1 3 0
_
_
_
_
= 1 + rg
_
_
_
_
1 −1 2
0 1 2
0 1 3
0 1 1
_
_
_
_
L4 ←
1
2
L1 +
1
2
L4
= 2 + rg
_
_
1 2
1 3
1 1
_
_
= 2 + 2 = 4 car les vecteurs
_
_
1
1
1
_
_
et
_
_
2
3
1
_
_
sont non colinéaires.
18

Sign up to vote on this title
UsefulNot useful