You are on page 1of 19

Résumé de cours d’algèbre linéaire de Math Sup

et compléments

I. Espaces vectoriels - Sous espaces vectoriels


1) Structure de K-espace vectoriel.
Soit K = R ou C. Soit E un ensemble non vide muni d’une l.d.c.i. notée + et d’une l.d.c.e. de domaine K notée.
(E, +, .) est un K-espace vectoriel ⇔ (E, +) est un groupe abélien (c’est-à-dire que + est commutative, associative,
possède un élément neutre noté 0 et tout x de E possède un symétrique pour + noté −x) et de plus, + et . vérifient
quatre axiomes :

∀(λ, µ) ∈ K2 , ∀(x, y) ∈ E2 , (1) λ(x + y) = λx + λy (2) (λ + µ)x = λx + µx (3) λ(µx) = (λµ)x (4) 1.x = x.

2) Structure de K-algèbre.
Soit (E, +, .) un K espace vectoriel muni d’une autre l.d.c.i. notée ×.
(E, +, ., ×) est une K algèbre ⇔ (E, +, ×) est un anneau (c’est-à-dire que × est associative, distributive sur + et possède
un élément neutre souvent noté 1 ou e ou In ou IdE ...) et de plus . et × vérifient l’axiome :

∀λ ∈ K, ∀(x, y) ∈ E2 , λ(x × y) = (λ.x) × y = x × (λ.y).

L’algèbre est dite commutative quand × est commutative. La dimension de l’algèbre est la dimension de l’espace
vectoriel (E, +, .).
3) Exemples de K-espaces vectoriels ou de K-algèbres supposés connus.
(Dans les exemples qui suivent les opérations ne sont pas citées et sont toujours les opérations usuelles dans les
ensembles considérés.)
a) K-espaces vectoriels
1. (C, +, .) est un R-espace de dimension 2 (les nombres ou scalaires sont les réels et les vecteurs sont les complexes).
(C, +, .) est un C-espace de dimension 1 (les nombres ou scalaires sont les complexes et les vecteurs sont
les complexes).
2. (Kn , +, .) sur K (modèle de l’espace de dimension n sur K, tout espace de dimension n sur K est isomorphe
à Kn ). 
3. KN , +, . est un K-espace de dimension infinie (suites à coefficients dans K) (les vecteurs sont les suites).
4. (K[X], +, .) est un K-espace de dimension infinie (polynômes à coefficients dans K).
5. (K(X), +, .) est un K-espace de dimension infinie (fractions rationnelles).
6. RR , +, . est un R-espace de dimension infinie (applications de R dans R) et plus généralement FA , +, . où A


est un ensemble quelconque et (F, +, .) est un R-espace vectoriel.


7. (L (E, F), +, .) et donc en particulier L (E) et L (E, K) = {formes linéaires sur E}.
8. (E1 × E2 × ... × En , +, .) quand les (Ei , +, .) sont des K-espaces vectoriels.
9. (Mn,p (K), +, .)(les vecteurs sont les matrices).
10. Ck (I, K), +, . (les vecteurs sont les fonctions) et (C∞ (I, K), +, .).
b) K-algèbre
1. (C, +, ., ×) est une R-algèbre.
2. (L (E)+, ., ◦) (non commutative si dimE > 1).
3. (Mn (K), +,  ., ×) (non commutative si n > 1)
4. IK , +, ., × ou Ck (I, K) ou C∞ (I, K)
5. (K[X], +, ., ×) et (K(X), +, ., ×)
(Kn [X], +., ×) n’est pas une K-algèbre car × n’est pas une loi interne dans Kn [X].
4) Sous espaces vectoriels
a) Définition et caractérisation

F sev de E ⇔ F ⊂ E et F stable pour + et . et F K-ev pour les lois induites


def
⇔ F ⊂ E et 0E ∈ F et F stable pour + et .
th
⇔ F ⊂ E et 0E ∈ F et ∀(x, y) ∈ F2 , x + y ∈ F et ∀λ ∈ K, λx ∈ F
th
⇔ F ⊂ E et 0E ∈ F et ∀(λ, µ) ∈ K2 , ∀(x, y) ∈ F2 , λx + µy ∈ F
th

c Jean-Louis Rouget, 2019. Tous droits réservés. 1 http ://www.maths-france.fr


Un sous-espace vectoriel F est stable par combinaison linéaire : toute combinaison linéaire d’une famille de vecteurs
de F est un vecteur de F.
b) Intersection et somme
Si F et G sev de E alors F ∩ G et F + G sont des sev de E et plus généralement si F1 , F2 ,..., Fp sont des sev alors
F1 ∩ F2 ∩ ... ∩ Fp et F1 + F2 ... + Fp sont des sev.
Remarque. F ∪ G n’est pas un sev en général. Vect(F ∪ G) = F + G. F ∪ G sev ⇔ F ⊂ G ou G ⊂ F.
c) Sous-algèbres
Soit (E, +, ., ×) une K-algèbre.
A sous-algèbre de E ⇔ A ⊂ E, A 6= ∅, A est stable pour +, . et × et A munie des lois induites est une K-algèbre
def
⇔ A ⊂ E, 0 ∈ A et A est stable pour +, . et ×
th
⇔ A ⊂ E, 0 ∈ A et ∀(x, y) ∈ A2 , x + y ∈ A et ∀(x, λ) ∈ A × K, λx ∈ A et ∀(x, y) ∈ A2 , x × y ∈ A
th
⇔ A ⊂ E, 0 ∈ A et ∀(x, y) ∈ A2 , ∀(λ, µ) ∈ K2 , λx + µy ∈ A et ∀(x, y) ∈ A2 , x × y ∈ A
th

5) Sommes directes. Sous espaces vectoriels supplémentaires


a) Cas de deux sous espaces

Soient F et G deux sev de E.


La somme F + G est directe ⇔ tout x de F + G s’écrit de manière unique sous la forme x = x1 + x2 où x1 ∈ F et x2 ∈ G
def
⇔ l’application F × G → E est injective
def
(x, y) 7→ x + y
⇔ F ∩ G = {0}.
th
Dans ce cas, F + G se note F ⊕ G. F ⊕ G est isomorphe à F × G.
F et G sont supplémentaires ⇔ tout x de E s’écrit de manière unique sous la forme x = x1 + x2 où x1 ∈ F et x2 ∈ G
def
⇔ l’application F × G → E est bijective
def
(x, y) 7→ x + y
⇔ E = F + G et F ∩ G = {0}.
th

L’existence d’un supplémentaire est démontrée en dimension finie mais ne peut pas être utilisée en dimension infinie.
Un sous-espace admet le plus souvent une infinité de supplémentaires et on ne doit donc pas dire « le supplémentaire
... » mais on doit dire « un supplémentaire de F ».
Exemples. CR = P ⊕ I (décomposition d’une fonction f en somme d’une fonction paire et d’une fonction impaire :
1 1
pour tout x de R, f(x) = (f(x) + f(−x)) + (f(x) − f(−x)))).
2 2
Mn (K) = Sn ⊕ An (décomposition d’une matrice carrée M en somme d’une matrice symétrique et d’une matrice
1 1
anti-symétrique : M = (M + t M) + (M − t M)).
2 2
b) Cas général d’un nombre fini de sous espaces

La somme F1 + . . . Fp est directe ⇔ tout x de F1 + . . . + Fp s’écrit de manière unique x = x1 + . . . + xp


def
où ∀i ∈ J1, pK, xi ∈ Fi
⇔ l’application ϕ : F1 × . . . × Fp → E est injective
def
(x1 , . . . , xp ) 7→ x1 + . . . + xp
 
X
⇔ ∀i ∈ J1, pK, Fi ∩  Fj  = {0}
th
j6=i
 
Xi−1
⇔ ∀i ∈ J2, pK, Fi ∩  Fj  = {0}.
th
j=1

p
M
Dans ce cas, la somme F1 + . . . + Fp s’écrit F1 ⊕ . . . ⊕ Fp ou Fi . La somme directe F1 ⊕ ... ⊕ Fp est isomorphe à
i=1
F1 × ... × Fp . Un isomorphisme de F1 × ... × Fp sur F1 ⊕ ... ⊕ Fp est (x1 , . . . , xp ) 7→ x1 + . . . + xp .
X
Danger. Il est faux de croire que Fi est directe ⇔ ∀i 6= j, Fi ∩ Fj = {0} (⇒ vraie bien sûr).
Le cas de trois droites vectorielles de R2 deux à deux distinctes fournit un contre exemple usuel.

c Jean-Louis Rouget, 2019. Tous droits réservés. 2 http ://www.maths-france.fr


Def : Les sous-espaces F1 , . . . , Fp , sont supplémentaires si et seulement si tout x de E s’écrit de manière unique sous
la forme x = x1 + . . . + xp où x1 ∈ F1 , . . . , xp ∈ Fp si et seulement si E = F1 + . . . + Fp et la somme F1 + . . . + Fp est
Mp
directe. Dans ce cas, on écrit E = F1 ⊕ . . . ⊕ Fp ou E = Fi .
i=1

6) Projections et symétries.
Soient F et G deux sev supplémentaires de E. Soient p la projection sur F parallèlement à G, q la projection sur G
parallèlement à F et s la symétrie par rapport à F parallèlement à G.
Soit x = x1 + x2 la décomposition d’un vecteur quelconque x de E associée à la décomposition E = F ⊕ G. Alors par
définition p(x) = x1 et s(x) = x1 − x2 .
a) • ∀x ∈ E, p(x) = x1 et q(x) = x2 .
• p ∈ L (E), p ◦ p = p, p ◦ q = q ◦ p = 0, p + q = IdE .
• F = Im(p) = Ker(q) = Ker(Id − p) = {invariants par p} et G = Ker(p) = Im(q) = Im(Id − p).
• p/Imp = Id/Imp et p/Kerp = 0/Kerp .
Th : Réciproquement, si p est un endomorphisme vérifiant p ◦ p = p alors Im(p) et Ker(p) sont supplémentaires puis
p est la projection sur Imp parallèlement à Kerp.
b) • ∀x ∈ E, s(x) = x1 − x2
• s ∈ GL(E), s ◦ s = Id
• F = Ker(s − Id) = {invariants par s} et G = Ker(s + Id) = {x/s(x) = −x}
1
• s = 2p − Id = Id − 2q et p = (Id + s)
2
Réciproquement si s est un endomorphisme de E vérifiant s◦s = Id alors Ker(s−Id) et Ker(s+id) sont supplémentaires
puis s est la symétrie par rapport à Ker(s − Id) parallèlement à Ker(s + Id).
7) Combinaisons linéaires et sous-espace engendré par une famille ou une partie de E
a) Combinaisons linéaires
Soit (λi )i∈I une famille non vide de scalaires. Cette famille est dite à support fini si et seulement si l’ensemble des
indices i tels que λi est non nul est fini (éventuellement vide).
Soient (xi )i∈I une famille de vecteurs de E et y un vecteur de E.
X
y est combinaison linéaires de la famille (xi )i∈I ⇔ ∃ (λi )i∈I ∈ KI à support fini telle que y = λi xi . Si I = J1, pK,
i∈I
une combinaison linéaire de la famille (xi )16i6n
Soient X une partie de E et y un vecteur de E. X
y est combinaison linéaire des vecteurs de X ⇔ ∃(λx )x∈X ∈ KX à support fini telle que y = λx x
X x∈X
(Convention : si X est vide, λx x = 0).
b) Sous espace engendré par une famille ou une partie
Approche externe. Soit X une famille (resp. une partie) (éventuellement vide) de vecteurs de E (resp.de E). Il existe
un et un seul plus petit sous-espace vectoriel de E (pour l’inclusion) contenant X. Il est noté Vect(X). C’est l’intersection
de tous les sous-espaces vectoriels de E contenant X (et donc Vect(∅) = {0}).
Approche interne. Vect(X) est l’ensemble
 des combinaisons linéaires d’éléments de X. En particulier, Vect(0) = {0},
Vect(u) = {λu, λ ∈ K}, Vect(u, v) = λu + µv, (λ, µ) ∈ K2 , ...
c) Propriétés.
X
• Vect(xi ) = {C.L. des xi } = λi xi , (λi ) à support fini = plus petit sev de E contenant (xi ).
• A ⊂ Vect(A).
• A = Vect(A) ⇔ A sev de E.
• A ⊂ B ⇒ Vect(A) ⊂ Vect(B) (réciproque fausse).
• Vect(Vect(A)) = Vect(A), Vect(A ∪ B) = Vect(A) + Vect(B), Vect(A + B) = Vect(A) + Vect(B),
Vect(A ∩ B) ⊂ Vect(A) ∩ Vect(B).

c Jean-Louis Rouget, 2019. Tous droits réservés. 3 http ://www.maths-france.fr


Résumé des différentes techniques de sup permettant de montrer qu’un sous-ensemble F de E est
un sev de E.


• Montrer que F contient le vecteur nul et est stable par combinaisons linéaires (0E ∈ F et

∀ → −
x ,→ −
y ∈ F2 , ∀(λ, µ) ∈ R2 , λ→
 −
x + µ→
y ∈ F).

• Montrer que F est l’intersection ou la somme de deux ou plusieurs sev (F = G ∩ H ou F =


G1 ∩ . . . ∩ Gp ou F = G + H ou F = G1 + . . . + Gp ).

• Montrer que F est l’espace engendré par une certaine famille de vecteurs (F = Vect −
→ ).
ui i∈I

• Montrer que F est le noyau d’une application linéaire.

• Montrer que F est l’orthogonal d’une partie A de E pour un certain produit scalaire (F = A⊥ ).

II. Familles libres. Familles génératrices. Bases


1) Familles libres
p
!
X
p
(xi )16i6p est libre ⇔ ∀(λi )16i6p ∈ K , λi xi = 0 ⇒ ∀i ∈ J1, pK, λi = 0 .
i=1 !
X
(xi )i∈I est libre ⇔ ∀(λi )i∈I ∈ KI à support fini, λi xi = 0 ⇒ ∀i ∈ I, λi = 0 .
i∈I X
(xi )i∈I est liée ⇔ ∃(λi )i∈I ∈ KI à support fini et les λi non tous nuls telle que λi xi = 0.
Une telle relation est alors une relation de dépendance linéaire.
Une famille infinie est libre si et seulement si toute sous famille finie est libre.
Une famille infinie est liée si et seulement si il existe une sous famille finie liée.
Soit L = (xi )i∈I une famille de vecteurs de E.


• Si L contient 0 ou 2 vecteurs égaux ou deux vecteurs colinéaires, L est liée (réciproque fausse).
• L est liée ⇔ ∃k ∈ I tel que xk est combinaison linéaire de la famille (xi )i∈I, i6=k .
• Toute sur famille d’une famille liée est liée. Toute sous famille d’une famille libre est libre
(Convention : ∅est libre)
X X 
• L est libre ⇔ λi x i = µi xi ⇔ ∀i, λi = µi (on peut identifier les coefficients quand L est libre
et uniquement quand L est libre)
• Soit L ′ = L ∪ {x}. (L libre et L ′ liée) ⇒ x est C.L. des vecteurs de L.
Erreur classique : si les vecteurs de la famille sont deux à deux non colinéaires, la famille n’est pas nécessairement
libre (penser à trois vecteurs deux à deux non colinéaires dans un même plan vectoriel). La phrase « les vecteurs sont
deux à deux non colinéaires et donc la famille est libre » est totalement fausse.
2) Familles génératrices
(xi )i∈I est génératrice de E ⇔ Vect(xi )i∈I = E ⇔ tout vecteur
X de E est combinaison linéaire des vecteurs de la famille
(xi )i∈I ⇔ ∀x ∈ E, ∃ (λi )i∈I à support fini telle que x = λi x i .
i∈I

Toute sur famille d’une famille génératrice est génératrice.


3) Bases
(xi )i∈I base de E ⇔ tout x de E s’écrit de manière unique Xcomme combinaison linéaire des xi ⇔ B est libre et
génératrice ⇔ ∀x ∈ E, ∃! (λi )i∈I à support fini telle que x = λi xi ..
i∈I
X
Si x = λi xi , les λi sont les coordonnées de x dans la base B.
Théorème. Les bases de E sont les parties génératrices minimales pour l’inclusion ou libres maximales.
Quasiment jamais utilisé sous cette forme, mais on utilise plutôt des conséquences du genre : si x ∈
/ B, B ∪ {x} n’est
plus libre et si x ∈ B, B \ {x} n’est plus génératrice.

c Jean-Louis Rouget, 2019. Tous droits réservés. 4 http ://www.maths-france.fr


Résumé des différentes techniques de sup permettant de montrer qu’une famille de vecteurs est
une base de E ou simplement une famille libre.

• En dimension quelconque, B est une base si B est libre et génératrice.

• En dimension finie n ∈ N∗ (la dimension est donc supposée connue), si une famille B est libre de
cardinal n, alors B est une base de E et si B est libre de cardinal n, alors B est une base.

• Si E est de dimension finie n ∈ N∗ , si B0 est une base connue de E et si B est une famille de n
vecteurs, alors B est une base de E si et seulement si detB0 (B) 6= 0 (souvent le plus efficace).

• Si F est une famille de p vecteurs, F est libre si et seulement si le rang r de F est égal au
cardinal p de la famille. Si de plus dim(E) = n, F est une base de E si et seulement si r = p = n.

• Si B est une famille d’un espace E ′ qui est l’image d’une base B0 de E par un isomorphisme, alors
B est une base de E ′ .

• Si E est muni d’un produit scalaire, une famille orthogonale de vecteurs tous non nuls est libre
et en particulier une famille orthonormale est libre.

III. Applications linéaires


1) Définition Soient E et F deux K-ev et f une application de E vers F.

f linéaire ⇔, ∀(x, y) ∈ E2 , f(x + y) = f(x) + f(y) et ∀λ ∈ K, ∀x ∈ E, f(λx) = λf(x)


⇔ ∀(λ, µ) ∈ K2 , ∀(x, y) ∈ E2 , f(λx + µy) = λf(x) + µf(y).

Si f est linéaire , on a toujours f(0E ) = 0F .


Vocabulaire usuel.
Endomorphisme de E = application linéaire de E vers E.
Isomorphisme de E sur F = application linéaire bijective de E sur F.
Automorphisme de E = application linéaire bijective de E sur E = isomorphisme de E sur E.
Forme linéaire sur E = application linéaire de E vers K.
2) Images directes et réciproques
Théorème. Soient E et F deux K-espaces vectoriels et f linéaire de E dans F.
L’image directe d’un sous espace de E par f est un sous espace de F.
L’image réciproque d’un sous espace de F par f est un sous espace de E.
En particulier : Ker(f) = {x ∈ E/ f(x) = 0F } = f−1 {0F } est un sous espace de E. Im(f) = {f(x), x ∈ E} = f(E) est un
sous espace de F.
Théorème. (f injective ⇔ Ker(f) = {0}) (f surjective ⇔ Im(f) = F) (f bijective ⇔ Ker(f) = {0} et Im(f) = F).
Théorème. Soit f linéaire de E vers F. Si X est génératrice de E, f(X) est génératrice de f(E) = Im(f) et en particulier
si f est surjective, f(X) est génératrice de F.
En particulier, si dim(E) = n puis (ei )16i6n est une base de E, alors (f (ei ))16i6n est une famille génératrice de Im(f).
Théorème. Soit f linéaire de E vers F. Si f est linéaire et X est liée alors f(X) est liée.
Si f est injective et X est libre dans E alors f(X) est libre dans F.
Théorème. Soit f linéaire de E vers F. f est un isomorphisme de E sur F si et seulement si l’image par f d’une base
donnée de E est une base de F.
Détermination. Soient (ei )i∈I une base de E et f ∈ L(E, F). f est entièrement déterminée par les f (ei ), i ∈ I, et en
particulier une application linéaire qui s’annule sur une base est nulle et deux applications linéaires qui coïncident sur
une base sont égales.
3) Ensembles d’applications linéaires
(L(E, F), +, .) est un K-espace vectoriel.
(L(E), +, ., ◦) est une K-algèbre (non commutative si dimE > 1. Elément unité : IdE )
(GL(E), ◦) est un groupe, non commutatif si dimE > 1.
GL(E) =groupe linéaire de E = {automorphismes de E} = {inversibles de L(E) pour ◦}.
Danger : si u et v sont dans GL(E), u + v ne l’est que très rarement.
(L (E, K), +, .) est un K-espace vectoriel. (L(E, K) = {formes linéaires sur E}.
Si dim(E) < +∞, (SL(E), ◦) est un groupe. (SL(E) = {endomorphismes de déterminant égal à 1}).
(O(E), ◦) est un groupe appelé le groupe orthogonal (notion euclidienne).

c Jean-Louis Rouget, 2019. Tous droits réservés. 5 http ://www.maths-france.fr


IV. Dimension des espaces vectoriels
1) Dimension
E est dit de dimension finie sur K si et seulement si E admet une partie génératrice finie. E est dit de dimension infinie
sinon.
E est aussi dit de dimension infinie si et seulement si E contient une famille libre infinie.
Théorème de la dimension finie et définition. Si E de dimension finie, toutes les bases ont même cardinal (fini)
et dimK E est le cardinal d’une base quelconque.
(Convention : ∅ est une base de {0} et dim{0} = 0)
dimK Kn = n et si ei = (0, 0, ...0, 1, 0, ..., 0) alors B = (ei )16i6n est une base de Kn appelée base canonique de Kn .
Deux espaces vectoriels E et F de dimensions finies sont isomorphes si et seulement si ils ont même dimension. Si
dimE = n < +∞, E est isomorphe à Kn .
2) Familles libres et génératrices
Soit n = dimE < +∞.
Si L est libre alors card(L) 6 n et de plus (L base de E ⇔ card(L) = n)
Si G est génératrice de E alors card(G) > n et de plus (G base de E ⇔ card(G) = n)
Théorème. Si E est de dimension finie et si B est une famille de vecteurs de E, 2 des 3 propositions suivantes
entrainent la troisième :

(1) card(B) = n (2) B est libre (3) B est génératrice de E

Théorème de la base incomplète. Soit L libre dans E (dimE < +∞), L peut être complétée en une base de E.
Si dimE < +∞, E admet des bases. Si dimE < +∞, de toute partie ou famille génératrice de E on peut extraire une
base.
3) Sous espaces
Théorème. Soit n = dimE < +∞ et soit F sev de E alors (dimF 6 n et dimF = n ⇔ F = E) (faux en dimension
infinie).
Théorème. (Supplémentaires) Soit n = dimE < +∞ et F sev de E. F admet au moins un supplémentaire. Tout
supplémentaire a pour dimension : dimE − dimF.
Plus généralement, dim(F ⊕ G) = dimF + dimG.
Théorème. Soient F et G sev de E.
(E = F ⊕ G) ⇔ F ∩ G = {0} et dimF + dimG = dimE) ⇔ (F + G = E et dimF + dimG = dimE)
X
Théorème. F1 , . . . , Fp sev de E tels que la somme Fi est directe. dim(F1 ⊕ ... ⊕ Fp ) = dimF1 + ... + dimFp .
Théorème. F1 , . . . , Fp sev de E. dim (F1 + ... + Fp ) 6 dim (F1 ) + ... + dim (Fp ) avec égalité si et seulement si la somme
est directe. [ [
Si E = F1 ⊕ ... ⊕ Fp et si Bi est une base de Fi alors B = Bi est une base de E et réciproquement, si B = Bi est
i i
une base de E alors les Fi = Vect (Bi ) sont supplémentaires dans E.
4) Rang
a) d’une famille de vecteurs
Soit X = (xi )16i6p une famille de p vecteurs de E. rg (xi )16i6p = dimVect (xi )16i6p = maximum du cardinal d’une
sous-famille libre de (xi )16i6p .
Si X est une famille de vecteurs de E de rang r et si A est une sous-famille de S : si A est libre alors card(A) 6 r ou
encore si card(A) > r, A est liée.
Soient n = dim(E), r = rg (xi )16i6p (et p = card (xi )16i6p ).
• r 6 p et (r = p ⇔ (xi )16i6p est libre.
• r 6 n et (r = n ⇔ (xi )16i6p est génératrice de E.
• (xi )16i6p base de E ⇔ r = p = n.
b) d’une application linéaire
Soit f ∈ L (E, F). rg(f) = dim(Im(f)). Si dim(E) = n < +∞ et (ei )16i6n est une base quelconque de E, rg(f) =
 
rg (f (ei ))16i6n .

Théorème du rang. Soit f ∈ L(E, F) où E est de dimension finie.


La restriction de f à un supplémentaire S de Ker(f) dans E réalise un isomorphisme de S sur Im(f).
En particulier, dim(E) = rg(f) + dim(Ker(f)) ou aussi rg(f) = dim(E) − dim(Ker(f)).
Théorème. Si dimE = dimF < +∞ alors f ∈ L(E, F) est injective ⇔ f est surjective ⇔ f est bijective.
Théorème. Si n = dimE < +∞ et f ∈ L(E) les propriétés suivantes sont équivalentes :
1) f bijective

c Jean-Louis Rouget, 2019. Tous droits réservés. 6 http ://www.maths-france.fr


2) f injective
3) f surjective
4) Ker(f) = {0}
5) Im(f) = E
6) rg(f) = n
7) l’image d’une base de E par f est une base de E
8) det(f) 6= 0
9) la matrice de f dans une base donnée de E est inversible
10) f inversible à droite (pour ◦) ou f inversible à gauche ou f inversible
11) f simplifiable à gauche (pour ◦) ou f est simplifiable à droite ou f est simplifiable
c) Transformations d’une famille de vecteurs ne modifiant pas le rang (car ne modifiant pas le sous-espace
engendré).
Les transformations suivantes ne modifie pas le rang :
• permuter les vecteurs de X.
• remplacer un vecteur x de X par λx où λ est un nombre non nul.
• ajouter à un vecteur x de X un autre vecteur de X.
• ajouter à un vecteur x de X une combinaison linéaire des autres vecteurs de X.
• supprimer un vecteur nul ou plus généralement supprimer un vecteur combinaison linéaire des autres vecteurs
5) Dimensions usuelles
dim(E × F) = dimE + dimF et dim(E1 × ... × Ep ) = dimE1 + ... + dimEp .
dim(F ⊕ G) = dim(F) + dim(G) et dim (E1 ⊕ ... ⊕ Ep ) = dim (E1 ) + ... + dim (Ep ).
dim(L(E, F)) = dimE × dimF et en particulier dim(L(E)) = (dim(E))2 et dim(L (E, K )) = dim(E).
dim(F + G) = dim(F) + dim(G) − dim(F ∩ G).
6) Hyperplans
Si E est de dimension quelconque, un hyperplan de E est le noyau d’une forme linéaire non nulle. Si dim(E) = n > 2,
un hyperplan de E est un sev de E de dimension n − 1 d’après le théorème du rang.
Théorème. Soit E un K-espace vectoriel de dimension quelconque. Soit F un sev de E. F est un hyperplan de E si et
seulement si il existe D droite vectorielle telle que E = F ⊕ D.
Théorème. Soit Eun espace de dimension finie.
• Un sev de dimension p ∈ J1, n − 1K est l’intersection de n − p hyperplans.
• Inversement, une intersection de n − p hyperplans est un sev de dimension supérieure ou égale à n − p.

V. Sous-espaces affines
 − −
Soit E un K-espace vectoriel. Un sous-espace affine de E est un sous-ensemble de la forme F = A+F = A + →
u, →u ∈F
où A est un point de E (ou encore un élément de E) et F est un sev de E. Dans ce cas, F est uniquement défini (mais
pas A) et s’appelle la direction du sous-espace affine F .
La dimension du sous-espace affine F est la dimension de sa direction F.
Théorème. L’intersection de deux sous-espaces affines F et G , de directions respectives F et G, est soit vide, soit un
sous-espace affine de direction F ∩ G.
 
Si E est de dimension finie n et R = (O, B) = O, (ei )16i6n est un repère de E, un hyperplan affine a une
équation de la forme a1 x1 + . . . + an xn = b, (a1 , . . . , an ) 6= (0, . . . , 0), et réciproquement un sous-ensemble d’équation
a1 x1 + . . . + an xn = b, (a1 , . . . , an ) 6= (0, . . . , 0), est un hyperplan affine de direction l’hyperplan vectoriel d’équation
a1 x1 + . . . + an xn = 0 dans B.
Plus généralement, un sous-espace affine de dimension n − p admet un système d’équation de la forme

 a1,1 x1 + . . . + a1,n xn = b1
.

ap,1 x1 + . . . + ap,n xn = bp 
 a1,1 x1 + . . . + a1,n xn = b1
Inversement, l’ensemble des solutions d’un système de la forme est soit vide, soit un

ap,1 x1 + . . . + ap,n xn = bp
sous-espace affine de dimension n − r où r est le rang du système et en particulier de dimension supérieure ou égale à
n − p.

c Jean-Louis Rouget, 2019. Tous droits réservés. 7 http ://www.maths-france.fr


Calcul matriciel. Rappel et compléments
I. Opérations dans Mn,p (K)
1) Structure de K-espace vectoriel de Mn,p (K).
Une matrice à n lignes et p colonnes (n et p entiers naturels non nuls) est une application de J1, nK × J1, pK dans K qui
à un couple d’indices (i, j) associe un élément de K noté ai,j . Une matrice de format (n, p) est aussi plus simplement
un tableau à n lignes et p colonnes.
Addition. (ai,j )16i6n, 16j6p + (bi,j )16i6n, 16j6p = (ai,j + bi,j )16i6n, 16j6p .
Multiplication par un scalaire. λ (ai,j )16i6n, 16j6p = (λai,j )16i6n, 16j6p .
Muni de ces deux lois, Mn,p (K) est un K-espace vectoriel de dimension np et en particulier Mn (K) est un K-espace
vectoriel de dimension n2 .
La base canonique de Mn,p (K) est la famille des matrices élémentaires (Ei,j )16i6n, 16j6p où Ei,j est la matrice dont le
coefficient ligne k, colonne l vaut 1 si (k, l) = (i, j) et 0 sinon. Une écriture abrégée
X de son terme général est δk,i × δl,j .
La décomposition d’une matrice A = (ai,j )16i6n dans la base canonique est ai,j Ei,j .
16j6p 16i6n
16j6p

2) Produit de deux matrices.


Soient A = (ai,j )16i6n ∈ Mn,p (K) et B = (bi,j )16i6p ∈ Mp,q (K). Le produit AB est la matrice de format (n, q)
16j6p 16j6q
dont le terme général ligne i, colonne j (où i ∈ J1, nK et j ∈ J1, qK) est
p
X
ci,j = ai,k bk,j .
k=1

Dans le cas des matrices non carrées, ce produit n’est pas une loi interne.
Il est « associatif », non « commutatif » en général et « distributif sur l’addition ».
Théorème. (Mn (K), +, ×) est un anneau, non commutatif pour n > 2.
(Mn (K), +, ., ×) est une K-algèbre non commutative pour n > 2.
L’ensemble des matrices inversibles pour × est noté GLn (K) (GL=groupe linéaire). (GLn (K), ×) est un groupe, non
commutatif pour n > 2.
Dangers principaux.
• L’égalité AB = AC n’entraine pas en général B = C mais, si A est inversible, A est simplifiable.
• Pour des matrices carrées, l’identité (A + B)2 = A2 + 2AB + B2 , plus généralement la formule du binôme de
Xp  
p
Newton (A + B) = p
Ak Bp−k , et l’identité A2 − B2 = (A − B)(A + B) et plus généralement Ap − Bp =
k
k=0
p−1
X
(A − B) Ap−1−k Bk , sont vraies quand A et B commutent (et souvent fausses sinon).
k=0
• Si A et B commutent et sont carrées, (AB)p = Ap Bp (souvent faux sinon).
• L’égalité AB = 0 n’entraine pas en général A = 0 ou B = 0.
• Si les formats sont adaptés aux deux produits, AB = 0 6⇒ BA = 0 (alors que AB = In ⇒ BA = In ).
• La somme de 2 matrices inversibles n’est en général pas inversible ou encore GLn (K) n’est pas stable pour +.
Théorème. Soit A un élément de Mn (K). Les propriétés suivantes sont équivalentes :
1) A est inversible
2) A est inversible à droite
3) A est inversible à gauche
4) det(A) 6= 0
5) A est simplifiable à droite
6) A est simplifiable à gauche
7) A est simplifiable à gauche
8) rg(A) = n
9) KerA = {0} (KerA est l’ensemble des vecteurs colonnes X tels que AX = 0)
10) ImA = Mn,1 (K) (ImA est l’ensemble des vecteurs colonnes de la forme AX où X ∈ Mn,1 (K)).
11) Pour tout vecteur colonne B, le système AX = B, d’inconnue le vecteur colonne X, admet une unique solution.
(X est alors fourni par les formules de Cramer).
12) A est la matrice d’une base dans une base.
13) A est la matrice d’un automorphisme dans une base.

c Jean-Louis Rouget, 2019. Tous droits réservés. 1 http ://www.maths-france.fr


Théorème (produit de deux matrices élémentaires).
Soient Ei,j une matrice élémentaire de format (n, p) et Ek,l une matrice élémentaire de format (p, q) alors

Ei,j × Ek,l = δj,k Ei,l .


p
X p
X
Démonstration. Le coefficient ligne u, colonne v, de ce produit vaut δu,i δw,j δw,k δv,l = δu,i δv,l δw,j δw,k =
w=1 w=1
δu,i δv,l δj,k (obtenu quand w = j) qui est le coefficient ligne u, colonne v de la matrice δj,k Ei,l .
3) Transposition.
Soit A = (ai,j ) une matrice de format (n, p). La transposée de A notée t A est la matrice de format (p, n) dont le

coefficient ligne i, colonne j, est ai,j = aj,i .
Théorème. t (t A) = A, t (A + B) = t A + t B, t (λA) = λt A et t (AB) = t Bt A.
La transposition est un isomorphisme de l’espace vectoriel (Mn,p (K), +, .) sur l’espace vectoriel (Mp,n (K), +, .).
Les matrices carrées A telles que t A = A sont les matrices symétriques. Leur ensemble est noté Sn (K).
∀A ∈ Mn (K), A ∈ Sn (K) ⇔ ∀(i, j) ∈ J1, nK2 , aj,i = ai,j .
Les matrices A telles que t A = −A sont les matrices antisymétriques. Leur ensemble est noté An (K).
∀A ∈ Mn (K), A ∈ An (K) ⇔ ∀(i, j) ∈ J1, nK2 , aj,i = −ai,j .


Théorème. Sn (K) et An (K) sont des sous-espaces vectoriels de Mn (K). Mn (K) = Sn (K) ⊕ An (K).
n(n + 1) n(n − 1)
dim (Sn (K)) = et dim (An (K)) = .
2 2
Démonstration. Soit t l’endomorphisme de Mn (K) qui à une matrice associe
 sa transposée. t−IdMn (K) et t+IdMn (K)
sont des endomorphismes de Mn (K). Donc, Sn (K) = Ker t − IdMn (K) et An (K) = Ker t + IdMn (K) sont des sev
de Mn (K). t est un endomorphisme
 involutif de Mn (K) et donc t est une symétrie. On sait alors que
Mn (K) = Ker t − IdMn (K) ⊕ Ker t + IdMn (K) = Sn (K) ⊕ Sn (K).
1 1
(L’écriture d’une matrice carrée M associée à cette décomposition est alors : M = (M + t M) + (M − t M).)
2 2
II. Matrice d’une famille de vecteurs dans une base
Soient E un K-espace vectoriel de dimension n et B = (ei )16i6n une base donnée de E.
Soit (xj )16j6p une famille de p vecteurs de E.
La matrice de la famille (xj )16j6p dans la base B, notée MatB (xj )16j6p , est la matrice de format (n, p) dont le
coefficient ligne i, colonne j, vaut la i-ème coordonnée de xj dans B (la j-ème colonne « est » xj ).

III. Matrice d’une application linéaire


1) Définition
Soient E et F des espaces de dimensions respectives n et p et f un élément de L(E, F).
Soient B = (ej )16j6n une base de E et B ′ = (ei′ )16i6p . La matrice de f relativement aux bases B et B ′ , notée
MatB,B ′ f, est la matrice (de format (p, n)) de la famille (f (ej ))16j6n dans la base B ′ .
Le coefficient ligne i, colonne j, de cette matrice est la i-ème coordonnée de f(ej ) dans la base B ′ . Ainsi,

matB,B ′ (f) = matB ′ (f(B)).


Deux bases de E et F respectivement étant fixées, l’application qui à f un élément de L(E, F) associe sa matrice
relativement à ces bases est un isomorphisme d”espaces vectoriels de L(E, F) vers Mp,n (K) (une application linéaire
est entièrement déterminée par sa matrice car entièrement déterminée par l’image d’une base) et en particulier,
MatB,B ′ (f + g) = MatB,B ′ f + MatB,B ′ g et MatB,B ′ (λf) = λMatB,B ′ (f).
2) Ecriture matricielle d’une application linéaire
Avec les notations du 1), soit x un vecteur de E et y = f(x).
Soit X le vecteur colonne dont les composantes sont les coordonnées de x dans B.
Soit Y le vecteur colonne dont les composantes sont les coordonnées de y dans B ′ .
Soit A la matrice de f relativement aux base B et B ′ alors

Y = AX.
 
p p
n n
! n
X X X X X
Démonstration. f(x) = xj f(ej ) = xj ai,j ei′ =  ai,j xj  ei′ et donc, pour i ∈ J1, pK,
j=1 j=1 i=1 i=1 j=1
n
X
yi = ai,j xj qui est bien le coefficient ligne i de AX.
j=1

c Jean-Louis Rouget, 2019. Tous droits réservés. 2 http ://www.maths-france.fr


Théorème. B est une base de E, B ′ est une base de E ′ , B ′′ est une base de E ′′ .
• ∀(f, g) ∈ L (E, E ′ ) × L (E ′ , E ′′ ), MatB,B ′′ (g ◦ f) = MatB ′ ,B ′ (g) × MatB,B ′ (f).
• ∀f ∈ L (E), ∀n ∈ N, MatB (fn ) = (MatB (f))n .
• f isomorphisme de E sur E ′ si et seulement si MatB,B ′ (f) ∈ GLn (K) et dans ce cas, MatB ′ ,B f−1 = (MatB,B ′ (f))−1 .

−1
En particulier, si f ∈ L (E), (f ∈ GL(E) ⇔ MatB (f) ∈ GLn (K)) et dans ce cas, MatB f−1 = (MatB (f)) .

n
• ∀f ∈ GL(E), ∀n ∈ Z, MatB (fn ) = (MatB (f)) .

IV. Changement de bases


1) Matrice de passage
Soient B et B ′ deux bases d’un espace vectoriel E de dimension n.
B′
La matrice de passage de B à B ′ , notée PB , est la matrice de B ′ dans B.

B
La j-ème colonne de PB « est » le j-ème vecteur de B ′ exprimé dans la base B.
′ ′′ ′′
B B B B
Théorème. PB = In , PB × PB ′ = PB .
 −1
B′ B
Toute matrice de passage est inversible et PB = PB ′ . Réciproquement, toute matrice inversible peut être

interprétée comme une matrice de passage .


2) Changements de base
Soient B et B ′ deux bases de E et soit P la matrice de passage de B à B ′ .
Soient x un vecteur de E puis X (resp. X ′ ) le vecteur colonne dont les composantes sont les coordonnées de x dans B
(resp. dans B ′ ). Alors

X = PX ′ .
(anciennes coordonnées en fonction des nouvelles.)
!  
n
X n
X n
X n
X n
X
Démonstration. x = xj′ ej′ = xj′ pi,j ei =  pi,j xj′  ei puis, pour i élément de J1, pK,
j=1 j=1 i=1 i=1 j=1
Xn
xi = pi,j xj′ ,
j=1

qui est bien le coefficient ligne i de PX .
3) Changements de base et applications linéaires
a) Cas général.
Données.
E un espace de dimension n muni de deux bases B et B ′ et P la matrice de passage de B à B ′ .
F un espace de dimension p muni de deux bases B1 et B1′ et Q la matrice de passage de B1 à B1′ .
f une application linéaire de E vers F.
A (resp. B) la matrice de f relativement aux bases B et B1 (resp. B ′ et B1′ ). Alors

B = Q−1 AP.

b) Cas particulier d’un endomorphisme .


Données.
E un espace de dimension n muni de deux bases B et B ′ et P la matrice de passage de B à B ′ .
f un endomorphisme de E.
A (resp. B) la matrice de f dans la base B (resp. B ′ ). Alors

B = P−1 AP.

4) Matrices équivalentes , matrices semblables.


Définition. Soient A et B deux matrices rectangulaires (éventuellement carrées) de mêmes formats (n, p).
A et B sont équivalentes si et seulement si il existe P matrice carrée inversible de format n et Q matrice carrée inversible
de format p telles que B = QAP.
Deux matrices A et B sont équivalentes si et seulement si elles sont les matrices d’une même application linéaire
relativement à deux couples de bases comme décrit en 3). Deux matrices équivalentes ont même rang.
Définition. Soient A et B deux matrices carrées de format n. A et B sont semblables si et seulement si il existe P
matrice carrée inversible de format n telle que B = P−1 AP.
Deux matrices A et B sont semblables si et seulement si elles sont les matrices d’un même endomorphisme relativement
à deux bases comme décrit en 3).

c Jean-Louis Rouget, 2019. Tous droits réservés. 3 http ://www.maths-france.fr


Deux matrices semblables sont équivalentes mais la réciproque est fausse en général ne serait-ce que parce que deux
matrices équivalentes ne sont pas nécessairement carrées.
Deux matrices semblables ont même rang, même trace, même déterminant, mêmes propriétés de calculs ...

V. Rang d’une matrice


Soit A = (ai,j )16i6n, 16j6p une matrice de format (n, p).
Les lignes de A seront notées L1 , ... , Ln et les colonnes de A seront notées C1 , ... , Cp .
1) Définitions et premières propriétés.
Définition. Le rang de A est le rang de la famille de ses vecteurs colonnes c’est-à-dire la dimension de l’espace
engendré par la famille de ses vecteurs colonnes dans Mn,1 (K).
Exemple. (forme générale des matrices de rang 1)
Soit A une matrice de format (n, p) et de rang 1. Ses colonnes sont dans la droite engendrée par une certaine colonne
non nulle U = (ui )16i6n . Plus précisément, pour j élément de J1, pK, Cj s’écrit vj U où les vj sont des scalaires non
tous nuls.
Si on pose V = (vi )16i6p , alors A = Ut V = (ui vj )16i6n, 16j6p où U et V sont non nuls.
Réciproquement, une telle matrice est bien de rang 1.
Théorème. rgA 6 Min{n, p}.
Théorème. Soit F une famille de p vecteurs d’un espace E de dimension n telle que A soit la matrice de F dans
une certaine base de E. Alors, rg(A) = rg(F ).
Théorème. Soient E et F deux K-espaces vectoriels. Soit B une base de E et B ′ une base de F.
Soit f une application linéaire de E vers F de matrice A relativement aux bases B et B ′ . Alors rg(A) = rg(f).
Théorème. Une matrice carrée de format n est inversible si et seulement si son rang est n.
Théorème. rg(A + B) 6 rg(A) + rg(B) et rg(λA) 6 rg(A) et rg(AB) 6 Min{rg(A), rg(B)}.
Théorème. Soient A une matrice de format (n, p), P une matrice carrée inversible de format n et Q une matrice
carrée inversible de format p. Alors, rg(PA) = rg(A) et rg(AQ) = rg(A).
Démonstration. rg(PA) 6 rg(A) puis rg(A) = rg P−1 PA 6 rg(PA).


2) Opérations élémentaires.
Description des opérations élémentaires. On utilise les trois opérations élémentaires sur les colonnes ou sur les
lignes suivantes :
1. Echange de deux colonnes (resp.de deux lignes). Codage : Ci ↔ Cj (resp. Li ↔ Lj )
2. Multiplication d’une colonne (resp.d’une ligne ) par λ scalaire non nul. Codage : Cj ← λCj (resp. Li ← λLi ).
3. Ajout de la colonne (resp.ligne) j à la colonne (resp.ligne) i avec i 6= j. Codage : Ci ↔ Ci +Cj (resp. Li ← Li +Lj ).
En combinant ces transformations élémentaires, on obtient des transformations plus sophistiquées :
4. Permutation des colonnes (resp. des lignes) d’une matrice
5. ajout à une colonne (resp. ligne) d’une combinaison linéaire des autres colonnes (resp. lignes)
3) Opérations élémentaires et rang.
Théorème. Les opérations élémentaires ne modifient pas le rang.
4) Interprétation matricielle des opérations élémentaires.
a) Produit d’une matrice par une matrice élémentaire.
On considère A = (ai,j ) une matrice rectangulaire de format (n, p).
Calculons le produit de A par une matrice élémentaire Ei,j de format p à droite ou de format n à gauche.
Soient i et j deux éléments de J1, pK (non nécessairement distincts).

!
X X X
AEi,j = ak,l Ek,l Ei,j = ak,l Ek,l Ei,j = ak,l δi,l Ek,j
k,l k,l k,l
X
= ak,i Ek,j
k

c’est-à-dire

c Jean-Louis Rouget, 2019. Tous droits réservés. 4 http ://www.maths-france.fr


i ème colonne de A
en j ème colonne

 
0 ... 0 a1,i 0 ... 0
 0 ... 0 a2,i 0 ... 0 
.. .. .. .. .. 
 

 . . . . . 
.. .. .. .. .. 
 

AEi,j = . . . . . 
.. .. .. .. .. 
 


 . . . . . 
 .. .. .. .. .. 
 . . . . . 
0 ... 0 an,i 0 ... 0

De même ,

!
X X X
Ei,j A = Ei,j ak,l Ek,l = ak,l Ei,j Ek,l = ak,l δj,k Ei,l
k,l k,l k,l
X
= aj,l Ei,l
l

c’est-à-dire
 
0 0 ... ... ... ... 0
 .. .. 

 . . 

 0 0 ... ... ... ... 0 

Ei,j A = 
 j ème ligne de A
 aj,1 aj,2 . . . . . . . . . . . . aj,n 
en i ème ligne

 0 0 ... ... ... ... 0 
 
 . ..
 ..

. 
0 0 ... ... ... ... 0

b) Multiplication d’une colonne (ou d’une ligne) par un scalaire λ non nul : Ci ← λCi .
Soient i un élément de J1, pK (ou J1, nK) puis λ un scalaire non nul.
Soit Λi (λ) la matrice carrée de format p (resp. n) définie par :

Λi (λ) = Ip + (λ − 1)Ei,i .
D’après le calcul préliminaire , il est clair que AΛi (λ) se déduit de A par multiplication par λ de la colonne i et que
Λi (λ)A se déduit de A par multiplication de la ligne i par λ.
Théorème. Si λ 6= 0, Λi (λ) est inversible .
c) Ajout d’une colonne à une autre colonne (d’une ligne à une autre ligne) : Ci ← Ci + Cj
Soient i et j deux éléments de de J1, pK (ou J1, nK) distincts.
Soit Λi,j = Ip + Ej,i (resp. In + Ei,j ). D’après le calcul préliminaire , il est clair que AΛj,i se déduit de A en ajoutant
Ci à Cj et que Λi,j A se déduit de A en ajoutant Lj à Li .
Théorème. Λi,j est inversible .
5) Méthode du Pivot de Gauss
Lemme du Pivot de Gauss. Soit A une matrice de format (n, p) dont la première ligne est non nulle.
A peut être transformée par opérations élémentaires sur les colonnes en une matrice A1 de même format de la forme :
 
1 0 ... 0
 × 
A′ =  .
 
 ..


A1 
×
où rgA = rgA ′ = 1 + rg(A1′ ).
Le même travail est valable en ligne en supposant non nulle la première colonne.
Démonstration. Si a1,1 = 0, il existe j > 1 tel que a1,j soit non nul. On échange alors la colonne Cj et la colonne
C1 pour obtenir une matrice de même rang que A et dont le coefficient ligne 1, colonne 1, est non nul.

c Jean-Louis Rouget, 2019. Tous droits réservés. 5 http ://www.maths-france.fr


Puis par division de la première colonne de cette matrice par ce coefficient non nul, on obtient une matrice de même
rang que A dont le coefficient ligne 1, colonne 1, est égal à 1.
′ ′
Il reste enfin à remplacer chaque colonne Cj d’indice j > 1 et de premier coefficient a1,j par Cj − a1,j C1 pour parvenir
à la forme voulue sans avoir modifié le rang de A.
Détermination du rang de A par la méthode du Pivot de Gauss. Si A est nulle , rgA = 0. Sinon, en
commençant
 par amener
 en première ligne, une ligne non nulle, A a même rang qu’une matrice de la forme A ′ =
1 0 ... 0
 × 
 ..  c’est à dire 1 + rgA1′ (car la première colonne de A ′ et les p − 1 dernières engendrent des sous
 
 . A′ 1

×
espaces supplémentaires)
En réitérant ces
 transformations en ligne et en colonnes, A a même rang qu’une matrice de la forme
1 0 ... ... 0
 × 1 0 0 
 .. . . .. 
 
. .. ..
 .
 . . . 
 .. . Le rang de A est le nombre de colonnes non nulles de cette dernière matrice .


 . 1 0 

 × 0 

 . .. .. 
 .. × . . 
× ... ... × 0 ... 0
6) Rang et matrices équivalentes
Théorème. Soit A une matrice de format (n, p) et de rang r non nul.
A est équivalente à la matrice Jr de format (n, p) définie par blocs :
 
Ir 0r,p−r
Jr =
0n−r,r 0n−r,p−r
où Ir est la matrice carrée unité de format r. Réciproquement, une matrice équivalente à Jr est de rang r.
Démonstration 1. Soit A une matrice de format (n, p) et de rang r non nul. On reprend le pivot de Gauss et en
l’interprétant en terme de produit matriciel : en multipliant A à droite par un certain nombre de matrices inversibles
dont le produit est noté V et à gauche par un certain nombre de matrices inversibles dont le produit est noté U, on
obtient UAV = Jr puis A = U−1 Jr V −1 .
Démonstration 2. Soit A une matrice de format (n, p) et de rang r non nul. Soit f l’application linéaire de Kp dans
Kn de matrice A relativement aux bases canoniques de Kp et Kn .
Soit B0 = (ei )r+16i6p une base de Kerf si r < p (dim(Kerf) = dim(Kp ) − rgf = p − r) ou B0 = ∅ si r = p. B0 est
une famille libre de Kp que l’on peut compléter en B = (ei )16i6p base de Kp . La restriction de f à Vect(ei )16i6r est
injective de sorte que si on pose pour 1 6 i 6 r, ei′ = f(ei ), la famille (ei′ )16i6r est une famille libre de Kn que l’on
peut compléter en une base B ′ = (ei′ )16i6n de Kn .
La matrice de f relativement aux bases B et B ′ est la matrice Jr ce qui montre que A est équivalente à Jr .
Réciproquement, rg (PJr Q) = rg (Jr ) = r.
Théorème. rg(A) = rg (t A).
7) Rang et matrices extraites
Théorème. rg(A) est le format maximal d’une matrice carrée inversible extraite de A.
Théorème. rg(A) > r ⇔ il existe une matrice carrée inversible de format r extraite de A.
Théorème. rgA = r ⇔ il existe une matrice carrée inversible de format r extraite de A et toute matrice carrée extraite
de A de format > r est non inversible
rgA = r ⇔ il existe une matrice carrée inversible de format r extraite de A et toute matrice carrée extraite de A de
format r + 1 est non inversible.

VI. Matrices de permutations


1) Définition.

Soit σ une permutation de J1, nK. La matrice Pσ = δi,σ(j) 16i,j6n est la matrice (de permutation) associée à σ. Le
coefficient ligne i, colonne j, de Pσ vaut 1 si i = σ(j) et 0 sinon.
 
  0 0 1 0
1 2 3 4  0 1 0 0 
Exemple. Si σ = alors Pσ =  .
4 2 1 3  0 0 0 1 
1 0 0 0

c Jean-Louis Rouget, 2019. Tous droits réservés. 6 http ://www.maths-france.fr


2) Propriétés.
Théorème. Pσ × Pσ ′ = Pσ◦σ ′ .
Démonstration. Le coefficient ligne i, colonne j, de Pσ × Pσ ′ vaut
n
X
δi,σ(k) δk,σ ′ (j) = δi,σ(σ ′ (j))
k=1

qui est bien le coefficient ligne i, colonne j, de Pσ◦σ ′ .


−1
Théorème. ∀σ ∈ Sn , Pσ ∈ GLn (C) et (Pσ ) = Pσ−1 .
Théorème. Soit G = {Pσ , σ ∈ Sn }. (G, ×) est un sous-groupe de (GLn (C), ×) isomorphe à (Sn , ◦).
Théorème. ∀σ ∈ Sn , det(Pσ ) = ε(σ) (signature).
Démonstration.
X X
det(Pσ ) = ε(σ ′ )pσ ′ (1),1 ...pσ ′ (n),n = ε(σ ′ )δσ ′ (1),σ(1) ...δσ ′ (n),σ(n) = ε(σ)
σ ′ ∈Sn σ ′ ∈Sn

(car δσ ′ (1),σ(1) ...δσ ′ (n),σ(n) = 1 ⇔ ∀k ∈ J1, nK, σ(k) = σ (k) ⇔ σ = σ ′ et sinon δσ ′ (1),σ(1) ...δσ ′ (n),σ(n) = 0).

3) Produit d’une matrice par une matrice de permutation


Soit A = (ai,j ) une matrice de format (p, 
n) et Pσ la matrice
 associée à σ permutation donnée de J1, nK (resp. J1, nK).
Lσ−1 (1)

Alors APσ = Cσ(1) , ..., Cσ(n) et Pσ A =  ..
.
 
.
Lσ−1 (n)
Démonstration. Le coefficient ligne i, colonne j, de APσ vaut :
n
X
ai,k δk,σ(j) = ai,σ(j) ,
k=1

De même, le coefficient ligne i, colonne j, de Pσ A vaut :


n
X
δi,σ(k) ak,j = aσ−1 (i),j .
k=1

VII. Trace d’une matrice carrée et trace d’un endomorphisme


1) Définition.
n
X
Soit A = (ai,j )16i,j6n une matrice carrée. La trace de A est le nombre ai,i .
i=1

2) Propriétés.
Théorème. La trace est une forme linéaire sur Mn (K) :

∀(λ, µ) ∈ K2 , ∀(A, B) ∈ (Mn (K))2 , Tr(λA + µB) = λTrA + µTrB.

Théorème. ∀(A, B) ∈ (Mn (K))2 , Tr(AB) = Tr(BA).


  !
Xn Xn n
X n
X
Démonstration. Tr(AB) =  ai,j bj,i  = bj,i ai,j = Tr(BA).
i=1 j=1 j=1 i=1

Théorème. Deux matrices semblables ont même trace.


Démonstration. Tr P−1 AP = Tr APP−1 = TrA.
 

Danger. Tr(ABC) = Tr(CAB) = Tr(BCA) 6= Tr(ACB) en général.


3) Trace d’un endomorphisme.
La trace d’un endomorphisme f d’un espace E de dimension n est la trace de sa matrice dans une base donnée de E
(ne dépend pas du choix de la base puisque deux matrices semblables ont même trace).

c Jean-Louis Rouget, 2019. Tous droits réservés. 7 http ://www.maths-france.fr


VIII. Calculs par blocs
1) Combinaisons linéaires.
On découpe une matrice A = (ai,j )16i6n, 16j6p de format (n, p) en blocs (ou cellules) Ai,j de format (ni , pj ) où
1 6 i 6 s, 1 6 j 6 t et n1 + ... + ns = n, p1 + ... + pt = p.
Avec des notations évidentes, si A = (Ai,j )16i6s, 16j6t et B = (Bi,j )16i6s, 16j6t alors λA+µB = (λAi,j +µBi,j )16i6s, 16j6t .
2) Multiplication.
Pour calculer par blocs le produit AB, le découpage de A en colonnes doit correspondre au découpage de B en lignes.
On découpe une matrice A = (ai,j )16i6n, 16j6p de format (n, p) en A = (Ai,j )16i6r, 16j6s où 1 6 i 6 r, 1 6 j 6 t et
n1 + ... + nr = n, p1 + ... + ps = p, et une matrice B = (bi,j )16i6p, 16j6q de format (p, q) en B = (Bi,j )16i6s, 16j6t
où 1 6 i 6 s, 1 6 j 6 t et p1 + ... + ps = p, q1 + ... + qt = q.
Xs
Si, pour 1 6 i 6 r et 1 6 j 6 t, on pose Ci,j = Ai,k Bk,j , alors AB = (Ci,j )16i6r, 16j6t .
k=1

L’étude de la comatrice sera rappelée dans le chapitre « déterminant » et les calculs de puissance de matrices ou
d’inverses de matrices seront étudiés dans le chapitre « réduction des endomorphismes ».

c Jean-Louis Rouget, 2019. Tous droits réservés. 8 http ://www.maths-france.fr


Déterminants. Rappels
I - Applications multilinéaires
1) Définition.
Soient E1 ,..., En , F n + 1 espaces vectoriels . Soit f une application de E1 × ... × En dans F.

f est n-linéaire ⇔ f est linéaire par rapport à chaque variable


⇔ ∀(ai )16i6n , ∀i ∈ J1, nK, l’application Ei → F est linéaire.
xi 7→ f(a1 , ..., ai−1 , xi , ai+1 , ..., an )

Exemple. Un produit scalaire est bilinéaire. Dans R3 euclidien orienté, f : R3 × R3 est bilinéaire.
(x, y) →
7 x∧y
Si E1 = ... = En = E et F = K, on obtient les formes n-linéaires sur E.
2/ Formes symétriques , antisymétriques , alternées.
Définition. Soit f une forme n-linéaire sur E.
1) f est symétrique ⇔ ∀(x1 , ..., xn ) ∈ En , ∀σ ∈ Sn , f(xσ(1) , ..., xσ(n) ) = f(x1 , ..., xn ).
2) f est antisymétrique ⇔ ∀(x1 , ..., xn ) ∈ En , ∀σ ∈ Sn , f(xσ(1) , ..., xσ(n) ) = ε(σ)f(x1 , ..., xn ).
3) f est alternée ⇔ ∀(x1 , ..., xn ) ∈ En , [(∃(i, j) ∈ J1, nK2 / i 6= j et xi = xj ) ⇒ f(x1 , ..., xn ) = 0].
Théorème. f est antisymétrique ⇔ ∀(x1 , ..., xn ) ∈ En , ∀τ transposition de J1, nK, f(xτ(1) , ..., xτ(n) ) = −f(x1 , ..., xn ).
Démonstration. Soit σ ∈ Sn , on écrit σ = τ1 ◦ ... ◦ τk où les τi sont des transpositions et on sait que ε(σ) = (−1)k .
Théorème. Soient E un K-espace vectoriel (K sous-corps de C) puis f une forme n-linéaire sur E.
f alternée ⇔ f antisymétrique.
Démonstration.
⇒ / Soit (x1 , ..., xn ) ∈ En . Soient i 6= j puis τ = τi,j .

0 = f(x1 , ..., xi + xj , ...xi + xj , ..., xn )


= f(x1 , ..., xi , ..., xi , ...xn ) + f(x1 , ..., xi , ..., xj , ...xn ) + f(x1 , ..., xj , ..., xi , ...xn ) + f(x1 , ..., xj , ..., xj , ...xn )
= f(x1 , ..., xi , ..., xj , ...xn ) + f(x1 , ..., xj , ..., xi , ...xn ).

Donc pour tout (x1 , ..., xn ) ∈ En , pour toute transposition τ, f(xτ(1) , ..., xτ(n) ) = −f(x1 , ..., xn ) et f est antisymétrique.
⇐ / Soit (x1 , ..., xn ) ∈ En tel qu’il existe i 6= j tel que xi = xj = x.
L’égalité f(x1 , ..., xi , ..., xj , ...xn ) = −f(x1 , ..., xj , ..., xi , ...xn ) s’écrit encore f(x1 , ..., x, ..., x, ...xn ) = −f(x1 , ..., x, ..., x, ...xn )
ou encore 2f(x1 , ..., x, .., x, ...xn ) = 0 ou enfin f(x1 , ..., x, .., x, ...xn ) = 0.

II- Définition de la forme déterminant dans une base.


1) Théorème fondamental. Soit E un espace vectoriel de dimension finie n > 1. On note Λ∗n (E) l’ensemble des
formes n-linéaires alternées sur E.
Théorème. 1) Λ∗n (E) est un K-espace vectoriel de dimension 1.
2) Si B = (ei )16i6n est une base donnée de E, il existe une et une seule forme f n-linéaire alternée sur E telle que
f(B) = 1.
Définition. L’unique forme f n-linéaire alternée sur E telle que f(B) = 1 s’appelle la forme déterminant dans la base
B et se note detB .
n
X
n
Démonstration. Soit (x1 , ..., xn ) ∈ E . Pour j ∈ J1, nK, posons xj = xi,j ei (où les xi,j sont dans K).
i=1
Soit f une forme n-linéaire alternée sur E. En développant f(x1 , ..., xn ) par n-linéarité, on obtient une somme de nn
termes du type xχ(1),1 ...xχ(n),n f eχ(1) , ..., eχ(n) où χ est une application quelconque de J1, nK dans lui-même.
f est alternée et les termes correspondant aux applications χ telles que ∃i 6= j/ χ(i) = χ(j), sont nuls. Donc tous les
termes pour lesquels χ n’est pas injective disparaissent. Maintenant, J1, nK étant un ensemble fini, χ est injective si et
seulement si χ est une bijection de J1, nK sur lui-même ou encore une permuation de J1, nK.
Il ne reste donc que les termes du type xσ(1),1 ...xσ(n),n f(eσ(1) , ..., eσ(n) ) = ε(σ)xσ(1),1 ...xσ(n),n f(e1 , ..., en ) où σ est
une élément quelconque de Sn .
On a montré que nécessairement
X
∀(x1 , ..., xn ) ∈ En , f(x1 , ..., xn ) = f(e1 , ..., en ) ε(σ)xσ(1),1 ...xσ(n),n .
σ∈Sn

c Jean-Louis Rouget, 2019. Tous droits réservés. 1 http ://www.maths-france.fr


X
Pour (x1 , ..., xn ) ∈ En , posons ϕ(x1 , ..., xn ) = ε(σ)xσ(1),1 ...xσ(n),n .
σ∈Sn
• ϕ est une forme n-linéaire sur E carX linéaire par rapport à chaque variable.
• ϕ est non nulle car ϕ(e1 , ..., en ) = ε(σ)δσ(1),1 ...δσ(n),n = 1.
σ∈Sn
• ϕ est alternée. En effet, soit (x1 , ..., xn ) ∈ En tel que xi = xj pour un certain couple (i, j) tel que i 6= j.
Soit τ = τi,j . On sait que si An est l’ensemble des permutations paires, An τ est l’ensemble des permutations impaires.
Donc

X X
ϕ(x1 , ..., xi , ..., xj , ..., xn ) = xσ(1),1 ...xσ(n),n − xστ(1),1 ...xστ(n),n
σ∈An σ∈An
X X
= xσ(1),1 ...xσ(i),i . . . xσ(j),j . . . xσ(n),n − xσ(1),1 ...xσ(j),i . . . xσ(i),j . . . xσ(n),n
σ∈An σ∈An
X X
= xσ(1),1 ...xσ(i),i . . . xσ(j),j . . . xσ(n),n − xσ(1),1 ...xσ(j),j . . . xσ(i),i . . . xσ(n),n (car xi = xj )
σ∈An σ∈An

= 0.

Finalement, Λ∗n (E) = Vect(ϕ) avec ϕ 6= 0 et Λ∗n (E) est un K-espace vectoriel de dimension 1.
On a vu que ϕ(B) = 1 et que si f ∈ Λ∗n (E), f = f(B)ϕ. Par suite, f(B) = 1 ⇔ f = ϕ.
2) Propriétés.
Théorème.
1) detB (B) = 1.
2) detB ′ = detB ′ (B)detB .
3) detB (B ′ ) × detB ′ (B) = 1.
4) detB (B ′ ) × detB ′ (B ′′ ) = detB (B ′′ ).
Démonstration. On applique : ∀f ∈ Λ∗n (E), f = f(B)detB .
3) Applications.
a) Théorème. Soit B une base de E de dimension finie n > 1 et B ′ une famille de n vecteurs de E. B ′ est une base
de E si et seulement si detB (B ′ ) 6= 0.
Démonstration. Si B ′ est une base, detB (B ′ ) × detB ′ (B) = 1 et en particulier detB (B ′ ) 6= 0.
Si B ′ n’est pas une base, puisque card(B) = n, B ′ est liée. Par suite, l’un des vecteurs de B ′ est combinaison linéaire
des autres vecteurs de B ′ . Par n linéarité de detB et puisque detB est alternée, on a bien detB (B ′ ) = 0.
b) Orientation.
Soient B et B ′ deux bases de E 6= {0}. On définit la relation : « B ′ a même orientation que B ⇔ detB (B ′ ) > 0 ».
La relation précédente est une relation d’équivalence à deux classes. On appelle arbitrairement l’une des deux classes,
classe des bases directes et l’autre, classe des bases indirectes. L’espace E est alors orienté.

III - Déterminant d’une matrice carrée. Déterminant d’un endomorphisme.


1) Déterminant d’une matrice carrée.
a) Définition. X
Si A = (ai,j )16i,j6n ∈ Mn (K), le déterminant de A est le nombre det(A) = ε(σ)aσ(1),1 ...aσ(n),n .
σ∈Sn
Notation. det(A) = |ai,j |16i,j6n .
b) Propriétés.
Théorème. detA = det(t A). X
Démonstration. det(t A) = ε(σ)a1,σ(1) ...an,σ(n) .
σ∈Sn
Soit σ un élément donné de Sn . Si on pose i1 = σ(1), ... , in = σ(n), alors σ−1 (i1 ) = 1, ..., σ−1 (in ) = n.
Le monôme a1,σ(1) ...an,σ(n) s’écrit aσ−1 (i1 ),i1 ...aσ−1 (in ),in ou encore aσ−1 (1),1 . . . aσ−1 (n),n , après avoir remis dans
l’ordre les n facteurs. Donc,

X X
det(t A) = ε(σ)a1,σ(1) ...an,σ(n) = ε(σ)aσ−1 (1),1 . . . aσ−1 (n),n
σ∈Sn σ∈Sn
X X
= ε(σ−1 )aσ−1 (1),1 . . . aσ−1 (n),n = ε(σ ′ )aσ ′ (1),1 . . . aσ ′ (n),n
σ∈Sn σ ′ ∈Sn

= det(A)

car l’application σ 7→ σ−1 est une permutation de Sn (puisque application involutive de Sn dans lui-même).

c Jean-Louis Rouget, 2019. Tous droits réservés. 2 http ://www.maths-france.fr


Théorème. 1) ∀(A, B) ∈ (Mn (K))2 , det(AB) = (detA)(detB).
2) det(In ) = 1.
3) ∀A ∈ Mn (K), [A ∈ GLn (K) ⇔ detA 6= 0] et dans ce cas det(A−1 ) = (detA)−1 .
L’ensemble des matrice carrées de déterminant 1 est un sous-groupe de (GLn (K), ×) noté SLn (K) (groupe spécial
linéaire).
Théorème. Deux matrices semblables ont même déterminant.
Théorème. ∀A ∈ Mn (K), ∀λ ∈ K, det(λA) = λn det(A).
Danger. En général, det(A + B) 6= det(A) + det(B).
c) Application aux calculs de rang.
Théorème. Le rang d’une matrice A est le format maximum d’un déterminant extrait de A et non nul.
2) Déterminant d’un endomorphisme.
a) Définition.
Définition. Soit f ∈ L (E). Le déterminant de f, noté det(f), est le déterminant de sa matrice dans une base donnée
(ne dépend pas du choix d’une base car deux matrices semblables ont même déterminant).
b) Propriétés.
Théorème. Soit f ∈ L (E).
1) Pour toute base B de E, pour tout (x1 , ..., xn ) ∈ En , detB (f (x1 ) , ..., u (xn )) = (det(f)) × detB (x1 , ..., xn ).
2) Pour toute base B de E, detB (f(B)) = det(f).
Théorème.
1) det (IdE ) = 1.
2) ∀(f, g) ∈ (L (E))2 , det(g ◦ f) = (det(f)) × (det(g)).
3) ∀f ∈ L (E), (f ∈ GL(E) ⇔ det(f) 6= 0) et dans ce cas, det f−1 = (det(f))−1 .


Théorème. ∀f ∈ L (E), ∀λ ∈ K, det(λf) = λn (det(f)).


Danger. En général, det(u + v) 6= detu + detv.

IV - Calculs de déterminants
1) Transposition. detA = det(t A) et donc toutes les règles portant sur les colonnes sont encore valables sur les
lignes.
2) Matrices triangulaires. Le déterminant d’une matrice triangulaire est égal au produit de ses coefficients diago-
naux. En particulier, le déterminant d’une matrice diagonale est le produit de ses coefficients diagonaux.
3) Opérations élémentaires.
a) ∀σ ∈ Sn , det(Cσ(1) , ..., Cσ(n) ) = ε(σ)det(C1 , ..., Cn ). Quand on permute des colonnes, le déterminant est multiplié
par la signature de la permutation. (et de même pour les lignes)
b) Si on ajoute à une colonne une combinaison linéaire des autres colonnes, le déterminant garde la même valeur. (et
de même pour les lignes)
c) det est n-linéaire et donc det(C1 , ..., Ci + Ci′ , ..., Cn ) = det(C1 , ..., Ci , ..., Cn ) + det(C1 , ..., Ci′ , ..., Cn ) et
det(C1 , ..., λCi , ..., Cn ) = λdet(C1 , ..., Cn ).
Danger. det(A + B) 6= detA + detB en général et det(λA) = det(λC1 , ..., λCi , ..., λCn ) = λn det(C1 , ..., Cn ) = λn detA.
4) Calculs par blocs.  
A1 × ... ×
. ..
. . . ..
 
 0 . 
Théorème. Si les Ai sont des matrices carrées, det  ..
 = det (A1 ) × det (A2 ) × ... × det (Ap ).
 .. .. 
 . . . × 
0 . . . 0 Ap
5) Développement suivant une ligne ou une colonne.
Théorème. Soient mi,j le mineur de ai,j et Ai,j = (−1)i+j mi,j = cofacteur de ai,j . Alors, ∀(i, j) ∈ J1, nK2 ,

n
X
det(A) = ai,k Ai,k (développement suivant la ligne i)
k=1
Xn
= ak,j Ak,j (développement suivant la colonne j)
k=1

Démonstration. Il suffit de démontrer la formule de développement suivant une colonne car detA = det(t A).

c Jean-Louis Rouget, 2019. Tous droits réservés. 3 http ://www.maths-france.fr


Ensuite, il suffit de démontrer la formule de développement suivant la première colonne car alors, si on veut développer
suivant la colonne j, on effectue la permutation des colonnes Cj → C1 → C2 ... → Cj−1 dont la signature est (−1)j−1
(signature d’un cycle de longueur j), puis en développant suivant la première colonne, on obtient
n
X n
X
det(A) = (−1)j−1 ak,j (−1)k+1 mk,j = ak,j Ak,j .
k=1 k=1

Il reste à démontrer la formule de développement


  suivant la première colonne.
0
 .. 
 . 
 
 0  n
  X
C1 est somme de n colonnes du type  a
 i,1 
 et par n-linéarité du déterminant, detA = detAi où
 0  i=1
 
 . 
 .. 
0

0 a1,2 ... ... a1,n


.. .. ..
. . .
0 ai−1,2 ... . . . ai−1,n
det (Ai ) = ai,1 ai,2 ... ... ai,n .
0 ai+1,2 ... . . . ai+1,n
.. .. ..
. . .
0 an,2 ... ... an,n

Si i = 1, un calcul de déterminant par blocs fournit det (A1 ) = a1,1 A1,1 .


Si i > 2, on passe Li en L1 , L1 en L2 ,..., Li−1 en Li . On obtient

ai,1 ai,2 ... ... ai,n


0 a1,2 ... ... a1,n
.. .. ..
. . .
det (Ai ) = (−1)i−1 0 ai−1,2 ... . . . ai−1,n = Ai,1 (calcul par blocs)
0 ai+1,2 ... . . . ai+1,n
.. .. ..
. . .
0 an,2 ... ... an,n
n
X
et finalement detA = ai,1 Ai,1 .
i=1

V - Comatrice. Inverse d’une matrice .


La comatrice de la matrice carrée A de format n est la matrice, notée com(A), dont le coefficient ligne i, colonne j,
est le cofacteur de l’élément ai,j de A, c’est-à-dire si A = (ai,j )16i,j6n , alors com(A) = (Ai,j )16i,j6n . La transposée
de la comatrice de A est appelée matrice complémentaire de A et est notée Ã.
Théorème.
1) ∀A ∈ Mn (K), AÃ = ÃA = (detA)In ou encore At (com(A)) = t (com(A))A = (detA)In .
1 t
2) ∀A ∈ Mn (K), (A ∈ GLn (K) ⇔ det(A) 6= 0) et dans ce cas, A−1 = (com(A)).
detA
n
X
Démonstration. Le coefficient ligne i, colonne j de At (comA) vaut ai,k Aj,k .
k=1
• Si i = j, cette expression n’est autre que le développement de det(A) suivant sa i-ème ligne et vaut donc det(A).
Xn
• Si i 6= j, ai,k Aj,k est le développement suivant la ligne j du déterminant déduit de det(A) en remplaçant la
k=1
ligne j de det(A) par sa ligne i (et en ne modifiant pas sa ligne i). Cette expression est donc nulle puisque égale à un
déterminant ayant deux lignes identiques.
Ensuite , il est clair que com (t A) = t (com(A)) (à partir de la définition de com(A)) et donc ÃA = (t com(A)) A =
com (t A) t (t A) = t (t At (com (t A)) = t ((det (t A) In ) = (det(A))In .

c Jean-Louis Rouget, 2019. Tous droits réservés. 4 http ://www.maths-france.fr

You might also like