You are on page 1of 160

COLE POLYTECHNIQUE

FDRALE DE LAUSANNE
Algbre Linaire
Bachelor 1re anne
2008 - 2009
Sections : Matriaux et Microtechnique
Support du cours de Dr. Lara Thomas
Polycopi labor par :
Prof. Eva Bayer Fluckiger
Dr. Philippe Chabloz
Version de septembre 2007
2
Table des matires
1 Systmes dquations linaires et matrices 7
1.1 Introduction aux systmes dquations linaires . . . . . . . . . . . . . . . . . . . . . 7
1.1.1 Systmes linaires et matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2 Elimination Gaussienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.1 Algorithme dlimination de Gauss . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.2 Mthode de rsolution dun systme dquations linaires . . . . . . . . . . . 16
1.3 Systmes homognes dquations linaires . . . . . . . . . . . . . . . . . . . . . . . . 17
2 Elments du calcul matriciel 19
2.1 Quelques dnitions et oprations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2 Le produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.1 Matrice identit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3 Rgles du calcul matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.4 Ecriture matricielle des systmes dquations linaires . . . . . . . . . . . . . . . . . 22
2.5 Linversion des matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.5.1 Matrices 2 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.5.2 Puissances dune matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.6 Les matrices lmentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.7 Calcul de linverse dune matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.8 Matrices triangulaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.9 La transposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.10 La trace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.11 Matrices symtriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.12 Matrices antisymtriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3 Le dterminant 33
3.1 Permutations et dterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.1.1 Mthode pour calculer des dterminants de matrices de taille 2 2 et 3 3 . 36
3.2 Dterminants et oprations lmentaires . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.3 Les cofacteurs et la rgle de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3.1 Calcul du dterminant par la mthode des cofacteurs . . . . . . . . . . . . . . 43
3.3.2 Calcul de linverse par la mthode des cofacteurs . . . . . . . . . . . . . . . . 45
3.3.3 Systmes linaires : rgle de Cramer . . . . . . . . . . . . . . . . . . . . . . . 47
4 Calcul vectoriel dans le plan et dans lespace 49
4.1 Dnitions et rgles de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.1.1 Systmes de coordonnes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.1.2 Proprits du calcul vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.2 Le produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.2.1 Projection orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.3 Le produit vectoriel (cross product) . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.3.1 Interprtation gomtrique du produit vectoriel . . . . . . . . . . . . . . . . . 58
4.4 Le produit mixte (triple product) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.5 Droites et plans dans lespace de dimension 3 . . . . . . . . . . . . . . . . . . . . . . 61
4.5.1 Equation du plan passant par un point P
0
et ayant vecteur normal n . . . . . 61
3
4 TABLE DES MATIRES
4.5.2 Droites dans lespace de dimension 3 . . . . . . . . . . . . . . . . . . . . . . . 62
5 Espaces euclidiens et applications linaires 65
5.1 Espaces de dimension n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.1.1 Dnitions et notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.1.2 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.1.3 Norme et distance dans R
n
. . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.1.4 Reprsentation matricielle des vecteurs de R
n
. . . . . . . . . . . . . . . . . . 68
5.1.5 Formule matricielle du produit scalaire . . . . . . . . . . . . . . . . . . . . . . 69
5.1.6 Multiplication des matrices et produit scalaire . . . . . . . . . . . . . . . . . 70
5.2 Applications linaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.2.1 Rappels sur les applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.2.2 Applications linaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.2.3 Quelques exemples dapplications linaires . . . . . . . . . . . . . . . . . . . . 72
5.2.4 Rotations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
5.2.5 Composition dapplications linaires . . . . . . . . . . . . . . . . . . . . . . . 76
5.3 Proprits des applications linaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6 Espaces vectoriels 81
6.1 Dnition et premires proprits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
6.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.2.1 Espace des solutions dun systme dquations linaires homognes . . . . . . 84
6.3 Combinaison linaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
6.4 Indpendance linaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
6.4.1 Interprtation gomtrique de la dpendance linaire . . . . . . . . . . . . . . 88
6.5 Bases et dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6.6 Espace des lignes et colonnes dune matrice . . . . . . . . . . . . . . . . . . . . . . . 94
6.7 Changements de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
6.7.1 Changement de bases en 2 dimensions . . . . . . . . . . . . . . . . . . . . . . 99
6.7.2 Dimension quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
7 Produits scalaires gnraliss 103
7.1 Dnition et premires proprits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
7.2 Angles et orthogonalit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
7.2.1 Angle form par deux vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . 107
7.3 Bases orthogonales et mthode de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . 110
7.4 Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
7.4.1 Dnition et Proprits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
7.4.2 Changement de bases orthonormes . . . . . . . . . . . . . . . . . . . . . . . 115
7.4.3 Dcomposition Q-R : application du thorme 7.30 . . . . . . . . . . . . . . . 115
7.5 La mthode des moindres carrs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
7.5.1 Solution approximative dun systme dquations linaires . . . . . . . . . . . 117
8 Valeurs propres et vecteurs propres 121
8.1 Dnitions et premires proprits . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
8.1.1 Calcul des vecteurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
8.2 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
8.2.1 Mthode pour diagonaliser une matrice . . . . . . . . . . . . . . . . . . . . . 127
8.3 Matrices symtriques et diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . 128
9 Applications linaires 131
9.1 Dnitions et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
9.1.1 Proprits des applications linaires . . . . . . . . . . . . . . . . . . . . . . . 134
9.1.2 Expression dune application linaire dans une base . . . . . . . . . . . . . . 134
9.2 Noyau et image dune application linaire . . . . . . . . . . . . . . . . . . . . . . . . 136
9.3 Applications linaires inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
9.4 Matrice dune application linaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
TABLE DES MATIRES 5
10 Applications multilinaires et tenseurs 143
10.1 Formes linaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
10.1.1 Formes linaires sur V : tenseurs dordre (0,1) . . . . . . . . . . . . . . . . . . 143
10.1.2 Espace dual, bases duales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
10.1.3 Formes linaires sur V

: tenseurs dordre (1, 0) . . . . . . . . . . . . . . . . . 145


10.2 Formes multilinaires sur V : tenseurs dordre (0, m) . . . . . . . . . . . . . . . . . . 146
10.2.1 Formes bilinaires sur V : tenseurs dordre (0, 2) . . . . . . . . . . . . . . . . 146
10.2.2 Tenseurs dordre (0, m) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
10.2.3 Quelques interprtations physiques . . . . . . . . . . . . . . . . . . . . . . . . 147
10.3 Formes multilinaires sur V

: tenseurs dordre (m, 0) . . . . . . . . . . . . . . . . . 148


10.3.1 Une remarque sur les tenseurs dordre (1, 0) . . . . . . . . . . . . . . . . . . . 148
10.3.2 Formes bilinaires sur V

: tenseurs dordre (2, 0) . . . . . . . . . . . . . . . . 148


10.3.3 Tenseurs dordre (m, 0) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
10.4 Tenseurs mixtes dordre (p, q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
10.4.1 Tenseurs dordre (p, q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
10.4.2 Exemple des tenseurs dordre (1, 1) . . . . . . . . . . . . . . . . . . . . . . . . 149
10.5 Oprations sur les tenseurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
10.6 Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
10.6.1 Cas des tenseurs dordre (1, 0) (vecteurs de V ) . . . . . . . . . . . . . . . . . 151
10.6.2 Cas des tenseurs dordre (0, 1) (formes linaires sur V ) . . . . . . . . . . . . . 151
10.6.3 Cas des tenseurs dordre (0, 2) (formes bilinaires sur V ) . . . . . . . . . . . 153
10.6.4 Cas des tenseurs (2, 0) (formes bilinaires sur V

) . . . . . . . . . . . . . . . 153
10.6.5 Cas des tenseurs dordre (1, 1) . . . . . . . . . . . . . . . . . . . . . . . . . . 153
10.6.6 Cas des tenseurs dordre (p, q) . . . . . . . . . . . . . . . . . . . . . . . . . . 154
10.7 Champs tensoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
10.7.1 Dnitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
10.7.2 Changements de coordonnes . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
10.7.3 Cas dun champ tensoriel dordre (1, 0) (champ vectoriel) . . . . . . . . . . . 155
10.7.4 Cas dun champ tensoriel dordre (0, 1) . . . . . . . . . . . . . . . . . . . . . . 155
10.7.5 Cas dun champ quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
Index des notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
6 TABLE DES MATIRES
Chapitre 1
Systmes dquations linaires et
matrices
Lalgbre linaire est un outil essentiel pour toutes les branches des mathmatiques appliques,
en particulier lorsquil sagit de modliser puis rsoudre numriquement des problmes issus de divers
domaines : des sciences physiques ou mcaniques, des sciences du vivant, de la chimie, de lconomie,
des sciences de lingnieur,...
Par exemple, la physique abonde de relations linaires : les lois fondamentales du mouvement
sont presque toutes linaires, ou se dduisent de lois linaires. Les systmes lectriques sont fonda-
mentalement dcrits par des lois linaires (V = RI, etc.) Cest pourquoi, le prsent cours commence
avec une tude des quations linaires et de leur rsolution.
1.1 Introduction aux systmes dquations linaires
Lquation dune droite dans le plan xy scrit
a
1
x +a
2
y = b
o a
1
, a
2
et b sont des paramtres rels. Cette quation sappelle quation linaire dans les variables
(ou inconnues) x et y.
Exemple 1.1.
2x + 3y = 6
`
`
`
`
`
`
`
`
`
`
`
`
`
`
`
`
`
1 2
1
y
x
Exemple 1.2. Les quations suivantes ne sont pas des quations linaires :
2x +y
2
= 1
y = sin(x)
x =

y
7
8 CHAPITRE 1. SYSTMES DQUATIONS LINAIRES ET MATRICES
Dnition 1.3. De manire gnrale, on appelle quation linaire dans les variables x
1
, ...., x
n
toute
relation de la forme
a
1
x
1
+ +a
n
x
n
= b (1.1)
o a
1
, . . . , a
n
et b sont des nombres rels.
Il importe dinsister ici que ces quations linaires sont implicites, cest--dire quelles dcrivent
des relations entre les variables, mais ne donnent pas directement les valeurs que peuvent prendre
les variables.
Rsoudre une quation signie donc la rendre explicite, cest--dire rendre plus apparentes les
valeurs que les variables peuvent prendre.
Une solution de lquation linaire (1.1) est un n-uple s
1
, . . . , s
n
de valeurs des variables x
1
, . . . , x
n
qui satisfont lquation (1.1). Autrement dit
a
1
s
1
+ +a
n
s
n
= b.
Par la suite, nous tudierons lensemble des solutions dune quation linaire.
Exemple 1.4. Trouvons lensemble des solutions de lquation
x
1
4x
2
+ 13x
3
= 5.
Nous donnons des valeurs arbitraires s et t x
2
et x
3
respectivement et rsolvons lquation par
rapport x
1
:
x
2
= s, x
3
= t et x
1
= 4s 13t + 5.
Lensemble des solutions est alors
x
1
= 4s 13t + 5, x
2
= s, x
3
= t
o s et t sont des nombres rels quelconques.
Dnition 1.5. Un ensemble ni dquations linaires dans les variables x
1
, . . . , x
n
sappelle un
systme dquations linaires. Tout nuplet de nombres s
1
, . . . , s
n
satisfaisant chacune des quations
sappelle solution du systme dquations linaires.
Exemple 1.6. Le systme
_
x
1
3x
2
+ x
3
= 1
2x
1
+ 4x
2
3x
3
= 9
admet comme solution
x
1
= 18 , x
2
= 6 , x
3
= 1 .
Par contre
x
1
= 7 x
2
= 2 x
3
= 0
ne satisfait que la premire quation. Ce nest donc pas une solution du systme.
Dnition 1.7. Un systme dquations est dit incompatible ou inconsistant sil nadmet pas de
solutions.
Exemple 1.8. Le systme linaire
_
x
1
+x
2
= 1
2x
1
+ 2x
2
= 1
est clairement incompatible.
1.1. INTRODUCTION AUX SYSTMES DQUATIONS LINAIRES 9
Considrons le systme
_
a
11
x
1
+a
12
x
2
= b
1
a
21
x
1
+a
22
x
2
= b
2
(1.2)
avec a
11
a
12
,= 0 et a
21
a
22
,= 0.
Ces deux quations reprsentent deux droites d
1
et d
2
dans le plan x
1
x
2
et une solution du
systme est un point (s
1
, s
2
) qui est sur les deux droites. Trois cas se prsentent alors :
(1) Les droites d
1
et d
2
se coupent en un seul point. Dans ce cas, illustr par la gure 1.1, le systme
(1.2) a une seule solution.
(2) Les droites d
1
et d
2
sont parallles. Alors le systme est incompatible et na pas de solution. La
gure 1.2 illustre cette situation.
(3) Les droites d
1
et d
2
sont confondues et, dans ce cas, le systme a une innit de solutions.
Nous verrons plus loin que ces trois cas de gures (aucune solution, une seule solution, une innit
de solutions) sont les seuls cas qui peuvent se prsenter pour nimporte quel systme dquations
linaires.
`
`
`
`
`
`
`
`
`
`
`
`
`
`
`
/
/
/
/
/
/
/
/
/
/
/
/
/
x
1
x
2
d
2
d
1
Fig. 1.1 Droites se coupant en un seul point
`
`
`
`
`
`
`
`
`
`
`
`
`
`
`
`
`
`
`
`
`
`
`
`
`
`
`
x
1
x
2
d
2
d
1
Fig. 1.2 Droites parallles
10 CHAPITRE 1. SYSTMES DQUATIONS LINAIRES ET MATRICES
`
`
`
`
`
`
`
`
`
`
`
`
`
`
`
x
1
x
2
d
1
= d
2
Fig. 1.3 Droites confondues
1.1.1 Systmes linaires et matrices
Considrons un systme quelconque de m quations n inconnues,
_

_
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= b
2
.
.
.
.
.
.
a
m1
x
1
+a
m2
x
2
+ +a
mn
x
n
= b
m
.
(1.3)
o le nombre rel a
ij
est le coecient de la j-me inconnue dans la i-me quation.
Dnition 1.9 (Matrice augmente). Nous obtenons la matrice augmente associe au systme en
oubliant les variables x
i
et les signes + et =. La matrice augmente aasocie au systme (1.3)
est alors
_
_
_
_
_
a
11
a
12
a
1n
b
1
a
21
a
22
a
2n
b
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
b
m
_
_
_
_
_
Exemple 1.10. Considrons le systme linaire
_
_
_
x
1
+x
2
+ 7x
3
= 1
2x
1
x
2
+ 5x
3
= 5
x
1
3x
2
9x
3
= 5.
Sa matrice augmente est
_
_
1 1 7 1
2 1 5 5
1 3 9 5
_
_
.
La mthode de base pour rsoudre un systme dquations linaires est de remplacer le systme
par un autre, plus simple, ayant le mme ensemble de solutions. Ceci se fait par une succession
doprations, appeles oprations lmentaires :
(1) multiplier une quation par une constante non nulle ;
(2) permuter deux quations ;
(3) ajouter un multiple dune quation une autre quation.
Les oprations (1), (2) et (3) ne changent pas lensemble des solutions. Elles correspondent des
oprations lmentaires sur les lignes de la matrice augmente. Ces oprations sont les suivantes :
(1) multiplier une ligne par une constante non nulle ;
(2) permuter deux lignes ; ()
(3) ajouter un multiple dune ligne une autre ligne.
1.1. INTRODUCTION AUX SYSTMES DQUATIONS LINAIRES 11
Exemple 1.11. Utilisons ces oprations lmentaires pour rsoudre le systme suivant.
_
_
_
x +y + 7z = 1
2x y + 5z = 5
x 3y 9z = 5
Nous calculons la matrice augmente associe au systme :
_
_
1 1 7 1
2 1 5 5
1 3 9 5
_
_
puis faisons les oprations lmentaires ncessaires sur le systme et sur la matrice augmente.
(3)
2

2
2
1
_
_
_
x +y + 7z = 1
3y 9z = 3
x 3y 9z = 5
(3)
2

2
2
1
_
_
1 1 7 1
0 3 9 3
1 3 9 5
_
_
Nous remarquons que les oprations lmentaires peuvent tre faites uniquement sur la matrice
augmente pour revenir la n au systme dquations. Cest ce que nous faisons dans la suite.
(3)
3

3
+
1
_
_
1 1 7 1
0 3 9 3
0 2 2 6
_
_
(1)
2

1
3

2
_
_
_
_
_
1 1 7 1
0 1 3 1
0 2 2 6
_
_
_
_
_
(3)
3

3
+ 2
2
_
_
_
_
_
1 1 7 1
0 1 3 1
0 0 4 4
_
_
_
_
_
(1)
3

1
4

3
_
_
_
_
_
1 1 7 1
0 1 3 1
0 0 1 1
_
_
_
_
_
(3)
1

1
7
3
12 CHAPITRE 1. SYSTMES DQUATIONS LINAIRES ET MATRICES
_
_
_
_
_
1 1 0 6
0 1 3 1
0 0 1 1
_
_
_
_
_
(3)
2

2
3
3
_
_
1 1 0 6
0 1 0 4
0 0 1 1
_
_
(3)
1

1

2
_
_
1 0 0 2
0 1 0 4
0 0 1 1
_
_
Cette matrice augmente correspond au systme
_
_
_
x = 2
y = 4
z = 1.
On obtient ainsi lunique solution su systme : x = 2, y = 4 et z = 1.
Cet exemple est gnralis dans le paragraphe suivant.
1.2 Elimination Gaussienne
Il sagit dune mthode qui permet de trouver lensemble des solutions de nimporte quel systme
dquations linaires. La mthode consiste mettre la matrice augmente du systme sous une forme
simple, dite forme chelonne (rduite) par une srie doprations lmentaires (1), (2), (3) de ().
Commenons par poser la dnition suivante :
Dnition 1.12 (matrice chelonne). Une matrice est appele matrice chelonne si elle a les
proprits suivantes :
(i) Dans toute ligne non nulle, le premier lment non nul vaut 1. Il est appel le 1 directeur.
(ii) Les lignes dont tous les lments sont nuls sont regroupes en bas de la matrice.
(iii) Dans deux lignes successives (contigus) ayant des lments non nuls, le 1 directeur de la ligne
infrieure se trouve droite du 1 directeur de la ligne suprieure.
Exemple 1.13. La matrice
_
_
0 1 3 6 0
1 3 1 0 2
0 0 1 1 7
_
_
satisfait la proprit (i) mais pas la proprit (iii), alors que la matrice suivante
_
0 3 1
1 1 0
_
ne satisfait pas la proprit (i). En revanche, la matrice
_
_
_
_
_
0 1 7 6
0 0 0 1
0 0 0 0
_
_
_
_
_
1.2. ELIMINATION GAUSSIENNE 13
satisfait (i), (ii) et (iii) : elle est donc sous forme chelonne. Finalement, la matrice
_
_
_
_
_
0 0 1 1 1
0 1 0 0 3
0 0 0 0 0
_
_
_
_
_
satisfait (i), (ii) mais pas (iii).
On peut raner un peu la dnition prcdente en posant :
Dnition 1.14 (matrice chelonne rduite). Si, en plus des proprits (i)-(iii) ci-dessus, la matrice
satisfait la proprit (iv) ci-dessous, on parle de matrice chelonne rduite :
(iv) Toute colonne contenant un 1 directeur a des zros partout ailleurs.
Exemple 1.15. La matrice
_
_
1 0 0 3
0 0 1 1
0 0 0 0
_
_
est chelonne rduite, alors que la matrice
_
_
1 0 1 2
0 0 1 1
0 0 0 0
_
_
est sous forme chelonne non rduite ( cause de la 3-me colonne).
On peut transformer nimporte quelle matrice en une matrice chelonne (rduite) en utilisant
lalgorithme de Gauss.
1.2.1 Algorithme dlimination de Gauss
Cet algorithme permet de transformer nimporte quelle matrice sous sa forme chelonne rduite
laide des oprations lmentaires (1)-(3) de (). Voici la marche suivre illustre par un exemple.
(1) Identier la colonne se trouvant le plus gauche contenant au moins un lment non nul.
Exemple :
_
_
0 0 1 3
0 3 0 1
0 3 1 2
_
_
2
`eme
colonne
(2) Permuter, sil le faut, la premire ligne avec une autre, pour que llment en haut de la colonne
identie en (1) devienne non nul.
Exemple (suite) :
_
_
0
`
_
0 1 3
0 3 0 1
0 3 1 2
_
_

1

2
_
_
0
`
_
3 0 1
0 0 1 3
0 3 1 2
_
_
(3) Si llment se trouvant en haut de la dite colonne vaut a, multiplier la premire ligne par
1
a
pour y faire apparatre le 1 directeur.
Exemple (suite) :
_
_
0 3 0 1
0 0 1 3
0 3 1 2
_
_
14 CHAPITRE 1. SYSTMES DQUATIONS LINAIRES ET MATRICES

1

1
3

1
_
_
0 1 0
1
3
0 0 1 3
0 3 1 2
_
_
(4) Ajouter des multiples adquats de la premire ligne aux lignes en-dessous pour annuler les
lments en dessous du 1 directeur.
Exemple (suite) :
_
_
0 1 0
1
3
0 0 1 3
0
`
_
3 1 2
_
_

3

3
3
1
_
_
0 1 0
1
3
0 0 1 3
0
`
_
0 1 1
_
_
(5) Couvrir la premire ligne de la matrice, et aller (1)
Exemple (suite) :
_
0 0 1 3
0 0 1 1
_
(4)
2

2

1
_
0 0 1 3
0 0 0 2
_
(3)
2

1
2

2
_
0 0 1 3
0 0 0 1
_
(6) La matrice entire est chelonne.
Exemple (suite) : On remet la premire ligne en place
_
_
0 1 0
1
3
0 0 1 3
0 0 0 1
_
_
(7) Pour la mettre sous la forme chelonne rduite, il faut ajouter une ligne des multiples
adquats des lignes situes au-dessous delle en allant du bas vers le haut.
Exemple (suite) :
_
_
0 1 0
1
3
0 0 1 3
0 0 0 1
_
_

2

2
3
3
_
_
0 1 0
1
3
0 0 1 0
0 0 0 1
_
_

1

1

1
3

3
_
_
0 1 0 0
0 0 1 0
0 0 0 1
_
_
1.2. ELIMINATION GAUSSIENNE 15
Les deux exemples ci-dessous illustrent encore lalgorithme. Lexemple 1.16 illustre le point (7)
partir dune matrice qui est dj sous forme chelonne mais pas rduite. Dans lexemple 1.17, on
eectue lalgorithme dans son entier.
Exemple 1.16.
_
_
1
`
_
4 0 1
0 1
`
_
2 1
0 0 1 3
_
_

2

2
2
3
_
_
1 4 0 1
0 1
`
_
0 7
0 0 1 3
_
_
_
_
1
`
_
4 0 1
0 1 0 7
0 0 1 3
_
_

1

1
4
2
_
_
1
`
_
0 0 29
0 1 0 7
0 0 1 3
_
_
Exemple 1.17.
_
_
0 1 1 5 1
0 1 2 0 3
1 3 2 0 1
_
_
(1) 1
`ere
colonne
_
_
1 3 2 0 1
0 1 2 0 3
0 1 1 5 1
_
_
(2)
1

3
_
0 1 2 0 3
0 1 1 5 1
_
2
`eme
colonne
(4)
2

2

1
_
0 1 2 0 3
0 0 1 5 4
_
On remet en place la premire ligne pour obtenir
_
_
1 3 2 0 1
0 1 2 0 3
0 0 1 5 4
_
_
.
La matrice est maintenant sous forme chelonne. Il reste la mettre sous la forme chelonne
rduite.
(7)
2

2
+ 2
3
_
_
1 3 2 0 1
0 1 0 10 5
0 0 1 5 4
_
_
(7)
1

1
2
3
16 CHAPITRE 1. SYSTMES DQUATIONS LINAIRES ET MATRICES
_
_
1 3 0 10 7
0 1 0 10 5
0 0 1 5 4
_
_
(7)
1

1
+ 3
2
_
_
1 0 0 20 8
0 1 0 10 5
0 0 1 5 4
_
_
La matrice est sous forme chelonne rduite. Un systme dont la matrice augmente est sous
forme chelonne rduite est trs simple rsoudre comme nous allons le voir ci-aprs.
1.2.2 Mthode de rsolution dun systme dquations linaires
Aprs avoir mis la matrice augmente du systme sous forme chelonne rduite, on procde
selon les deux tapes suivantes.
(1) Donner une valeur arbitraire chaque variable dont la colonne ne contient pas de 1 directeur.
Ces variables sont les variables libres.
(2) Rsoudre chaque quation en exprimant la variable correspondant au 1 directeur, appele
variable directrice, en fonction des autres variables.
Exemple 1.18. La matrice
_
_
1 0 0 2
0 1 0 4
0 0 1 1
_
_
est chelonne rduite.
Elle correspond au systme
_

_
x = 2
y = 4
z = 1.
Toutes les variables sont des variables directrices.
La solution est donc
x = 2, y = 4, z = 1.
Exemple 1.19. La matrice
_
_
0 1 3 0 1
0 0 0 1 5
0 0 0 0 0
_
_
est chelonne rduite. Elle correspond au systme
_
0x
1
+x
2
+ 3x
3
+ 0x
4
= 1
x
4
= 5.
Les variables directrices sont x
2
et x
4
car les colonnes 2 et 4 de la matrice contiennent un 1
directeur, alors que x
1
et x
3
sont les variables libres.
Posons
x
1
= s, x
3
= t.
On obtient
x
2
= 1 3t, x
4
= 5
et lensemble des solutions du systme est :
x
1
= s, x
2
= 1 3t, x
3
= t, x
4
= 5, pour tout t, s R.
1.3. SYSTMES HOMOGNES DQUATIONS LINAIRES 17
1.3 Systmes homognes dquations linaires
Un systme homogne est un systme dont les termes constants sont tous nuls. Il est de la forme
_

_
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= 0
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= 0
. . .
a
m1
x
1
+a
m2
x
2
+ +a
mn
x
n
= 0.
Tout systme homogne dquations linaires est consistant, car il a au moins la solution dite
triviale x
1
= x
2
= = x
n
= 0. Un systme homogne dquations linaires a ou bien une seule
solution (la solution triviale), ou bien une innit de solutions. En eet, supposons que le systme
admette la solution
x
1
= t
1
, . . . , x
n
= t
n
avec au moins lun des t
i
,= 0. Alors, pour un nombre rel k quelconque,
x
1
= kt
1
, . . . , x
n
= kt
n
est aussi solution du systme.
Thorme 1.20. Tout systme homogne dquations linaires dont le nombre dinconnues est plus
grand que le nombre dquations a une innit de solutions.
Dmonstration. Soit m le nombre de colonnes et n le nombre dquations. La matrice augmente du
systme a alors m+1 colonnes et n lignes. Il sensuit que sa forme chelonne rduite doit comporter
au moins une colonne sans 1 directeur. Supposons que ce soit la j-me avec 1 j m. Cette colonne
correspond une variable libre x
j
= s et il y a donc une innit de solutions puisque le systme est
compatible.
Exemple 1.21. Considrons le systme homogne
_

_
3x
1
+ 3x
2
2x
3
x
5
= 0
x
1
x
2
+ x
3
+ 3x
4
+ x
5
= 0
2x
1
+ 2x
2
x
3
+ 2x
4
+ 2x
5
= 0
x
3
+ 8x
4
+ 4x
5
= 0
Sa matrice augmente est
_
_
_
_
3 3 2 0 1 0
1 1 1 3 1 0
2 2 1 2 2 0
0 0 1 8 4 0
_
_
_
_
et la forme chelonne rduite est
_
_
_
_
1 1 0 0 13 0
0 0 1 0 20 0
0 0 0 1 2 0
0 0 0 0 0 0
_
_
_
_
Cette matrice correspond donc au systme
_
_
_
x
1
+ x
2
+ 13x
5
= 0
x
3
+ 20x
5
= 0
x
4
2x
5
= 0
Les variables directrices sont x
1
, x
3
et x
4
alors que les variables libres sont x
2
et x
5
. Posons alors
x
2
= s
x
5
= t .
18 CHAPITRE 1. SYSTMES DQUATIONS LINAIRES ET MATRICES
On obtient
x
1
= s 13t
x
3
= 20t
x
4
= 2t .
Lensemble des solutions est donc
x
1
= s 13t, x
2
= s, x
3
= 20t, x
4
= 2t , x
5
= t,
qui est bien inni.
Chapitre 2
Elments du calcul matriciel
2.1 Quelques dnitions et oprations
Dnition 2.1 (Matrice). Une matrice (relle) A est un tableau rectangulaire de nombres (rels).
Elle est dite de taille m n si le tableau possde m lignes et n colonnes. Les nombres du tableau
sont appels les lments de A. Llment situ la i-me ligne et la j-me colonne est not a
ij
.
La matrice A est galement note
A = (a
ij
)
1in
1jm
ou plus simplement
A = (a
ij
)
ij
si le nombre de lignes et de colonnes est connu par ailleurs.
Exemple 2.2.
A =
_
1 2 5
0 3 7
_
est une matrice 2 3 avec, par exemple, a
11
= 1 et a
23
= 7.
Si n = m, la matrice est dite carre.
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
nn
_
_
_
_
_
matrice carre n n
Dans le cas dune matrice carre, les lments a
11
, a
22
, . . . a
nn
sont appels les lments diagonaux.
_
_
_
_
_
`
_
a
11 a
21
. . . a
1n
a
21
`
_
a
22 . . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . .
`
_
a
nn
_
_
_
_
_
Deux matrices sont gales lorsquelles ont la mme taille et que les lments correspondants sont
gaux.
Dnition 2.3 (Somme de deux matrices). On peut dnir la somme de deux matrices si elles sont
de mme taille. Soient A etB deux matrices de taille mn. On dnit leur somme C = A+B, de
taille mn, par
c
ij
= a
ij
+b
ij
.
En dautres termes, on somme composante par composante.
19
20 CHAPITRE 2. ELMENTS DU CALCUL MATRICIEL
Exemple 2.4.
A =
_
3 2
1 7
_
, B =
_
0 5
2 1
_
, A+B =
_
3 3
3 6
_
A =
_
4 1
3 2
_
, B =
_
2
8
_
, A+B nest pas dnie.
La matrice (de taille mn) dont tous les lments sont des zros est appele la matrice nulle et
note 0
nm
ou plus simplement 0. Cest llment neutre pour laddition, cest--dire que A+ 0 = A.
Dnition 2.5 (Produit dune matrice par un scalaire). Le produit dune matrice A par un scalaire
k est form en multipliant chaque lment de A par k. Il est not kA.
Exemple 2.6. Soient
A =
_
3 2
0 6
_
et k = 3.
Alors kA =
_
9 6
0 18
_
.
La matrice (1)A est note A et la dirence AB est dnie par A+ (B).
Exemple 2.7.
A =
_
2 1 0
4 5 2
_
B =
_
1 4 2
7 5 3
_
AB =
_
3 5 2
3 0 1
_
2.2 Le produit matriciel
Le produit AB de deux matrices A et B est dni seulement si le nombre de colonnes de A est
gal au nombre de lignes de B :
Dnition 2.8 (Produit de deux matrices). Soit A = (a
ij
) une matrice m n et B = (b
ij
) une
matrice n p. Alors le produit C = AB est une matrice mp dont les lments c
ij
sont dnis par
c
ij
= a
i1
b
1j
+a
i2
b
2j
+ +a
im
b
mj
=
n

k=1
a
ik
bkj.
AB = C :
_
_
_
_
_
_
b
11
. . . b
1r
_
`

b
21
.
.
.
.
.
.
.
.
.
b
m1
. . . b
mr
_
_
_
_
_
_
_
_
_
_
_
a
11
. . . . . . a
1m
a
21

a
22 . . . a
2m
.
.
.
.
.
.
a
n1
. . . . . . a
nm
_
_
_
_
_
_
_
_
_
_
_
c
11
. . . c
1r
`
_
c
21
.
.
.
.
.
.
.
.
.
c
n1
. . . c
nr
_
_
_
_
_
_
c
21
= a
21
b
11
+a
22
b
21
+ +a
2m
b
m1
2.3. RGLES DU CALCUL MATRICIEL 21
Exemple 2.9.
(2 3 1)
_
_
4
2
3
_
_
= (8 6 3) = (1)
1 3 3 1 1 1
Exemple 2.10.
_
_
3
2
1
_
_
_
1 2 3 0
_
=
_
_
3 6 9 0
2 4 6 0
1 2 3 0
_
_
3 1 1 4 3 4
2.2.1 Matrice identit
Dnition 2.11. La matrice carre n n
I
n
=
_
_
_
_
_
1 0 . . . 0
0 1 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 1
_
_
_
_
_
sappelle la matrice identit. Ses lments diagonaux sont gaux 1 et tous ses autres lments
sont gaux 0.
Dans le calcul matriciel, la matrice identit joue un rle analogue celui du nombre 1 dans
larithmtique des scalaires. Cest llment neutre pour la multiplication. En dautres termes, si A
une matrice mn, alors
I
m
A = A et AI
n
= A.
2.3 Rgles du calcul matriciel
Sous l hypothse que les tailles des matrices soient compatibles avec les oprations indiques, on
a les rgles suivantes :
(a) Commutativit de la somme : A+B = B +A
(b) Associativit de la somme : A+ (B +C) = (A+B) +C.
(c) Associativit du produit : A(BC) = (AB)C
(d) Distributivit du produit par rapport la somme : A(B +C) = AB +AC
(B +C)A = BA+CA
(e) A+ 0 = A
(f) AI = IA = A
(g) A 0 = 0 A = 0
ATTENTION!
Le produit des matrices nest pas ncessairement commutatif. On peut avoir
AB ,= BA.
Exemple 2.12.
A =
_
1 0
2 5
_
B =
_
2 1
3 0
_
AB =
_
2 1
11 2
_
BA =
_
4 5
3 0
_
.
22 CHAPITRE 2. ELMENTS DU CALCUL MATRICIEL
ATTENTION! Il peut arriver que le produit de deux matrices non nulles soit nul. En dautres
termes, on peut avoir A, B ,= 0 et AB = 0.
Exemple 2.13.
A =
_
0 1
0 5
_
, B =
_
2 3
0 0
_
et AB =
_
0 0
0 0
_
.
Ce qui prcde implique, par distributivit, que lon peut avoir AB = AC et B ,= C.
Exemple 2.14.
A =
_
0 1
0 3
_
, B =
_
4 1
5 4
_
, C =
_
2 5
5 4
_
AB = AC =
_
5 4
15 12
_
.
2.4 Ecriture matricielle des systmes dquations linaires
Le systme linaire
_

_
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= b
2
. . .
a
m1
x
1
+a
m2
x
2
+ +a
mn
x
n
= b
m
peut scrire sous forme matricielle :
_
_
_
_
_
a
11
. . . a
1n
a
21
. . . a
2n
.
.
.
.
.
.
a
m1
. . . a
mn
_
_
_
_
_
. .
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
. .
=
_
_
_
_
_
b
1
b
2
.
.
.
b
m
_
_
_
_
_
.
. .
A x B
On appelle A la matrice des coecients du systme. Le vecteur x est une solution du systme si
et seulement si
Ax = B.
Thorme 2.15. Un systme dquations linaires na soit aucune solution, soit une seule solution,
soit une innit de solutions.
Dmonstration. Soit Ax = B la reprsentation matricielle du systme. On est ncessairement dans
lun des cas ci-dessous :
(a) le systme est incompatible (aucune solution) ;
(b) le systme a une seule solution;
(c) le systme a plusieurs solutions.
Pour dmontrer le thorme , il sut alors de montrer que dans le cas (c) il y a une innit de
solutions.
Soient x
1
et x
2
des solutions distinctes du systme. Alors Ax
1
= B et Ax
2
= B. Donc Ax
1
Ax
2
=
0 et A(x
1
x
2
) = 0.
Posons
x
0
= x
1
x
2
.
On a x
0
,= 0, car x
1
,= x
2
et lexpression
x
1
+kx
0
est une solution du systme pour tout nombre rel k. En eet, A(x
1
+kx
0
) = Ax
1
+kAx
0
= B+0.
2.5. LINVERSION DES MATRICES 23
Thorme 2.16. Supposons que le systme
_

_
a
11
y
1
+a
12
y
2
+ +a
1n
y
n
= c
1
a
21
y
1
+a
22
y
2
+ +a
2n
y
n
= c
2
. . .
a
m1
y
1
+a
m2
y
2
+ +a
mn
y
n
= c
m
dtermine les variables y
1
, . . . , y
n
en fonction de constantes c
1
, . . . , c
m
, et que le systme
_

_
b
11
x
1
+b
12
x
2
+ +b
1p
x
p
= y
1
b
21
x
1
+b
22
x
2
+ +b
2p
x
p
= y
2
. . .
b
n1
x
1
+b
n2
x
2
+ +b
np
x
p
= y
n
exprime les variables x
1
, . . . , x
p
en fonction des variables y
1
, . . . , y
n
.
crivons ces systmes sous la forme compacte
Ay = c, Bx = y.
Alors le systme dterminant les variables x
1
, . . . , x
p
en fonction des constantes c
1
, . . . , c
m
est
donn par
(AB)x = c.
Quelques cas particuliers
Dans le cas particulier n = m = 2 (2 quations 2 inconnues) le systme linaire correspond
lintersection de deux droites dans le plan. Nous avons vu, dans le chapitre 1, que trois cas pou-
vaient se prsenter : les droites sont soit parallles, soit scantes, soit confondues et ces trois cas
correspondent aux trois cas du thorme ci-dessus.
Si le systme est homogne, les deux droites passent par le point (0, 0) et ne peuvent donc tre
parallles. Le cas sans solution est donc exclu.
Dans le cas lon a 2 quations (m = 2) 3 inconnues (n = 3), ceci correspond lintersection
de deux plans dans lespace. Trois cas se prsentent alors :
les plans sont parallles et il ny a alors aucune solution au systme ;
les plans sont confondus et il y a une innit de solutions au systme ;
les plans se coupent en une droite et il y a une innit de solutions ;
Du point de vue du nombre de solutions, nous constatons quil n y a que deux possibilits, savoir
aucune solution ou une innit de solutions. Mais les deux derniers cas ci-dessus sont nanmoins
trs dirents gomtriquement et il semblerait que dans le second cas (plans confondus), linnit
de solutions soit plus grande que dans le troisime cas. Les chapitres suivants nous permettront de
rendre rigoureuse cette impression.
2.5 Linversion des matrices
Dnition 2.17 (Matrice inverse). Soit A une matrice carre de taille nn. Sil existe une matrice
carre B de taille n n telle que
AB = I et BA = I,
on dit que A est inversible et on appelle B un inverse de A.
(on verra plus tard quil sut de vrier une seule des conditions AB = I, BA = I)
Exemple 2.18. La matrice
_
2 1
5 3
_
est inversible et un de ses inverses est
_
3 1
5 2
_
.
24 CHAPITRE 2. ELMENTS DU CALCUL MATRICIEL
En eet, on a
_
2 1
5 3
__
3 1
5 2
_
=
_
1 0
0 1
_
et
_
3 1
5 2
__
2 1
5 3
_
=
_
1 0
0 1
_
.
Exemple 2.19. La matrice
A =
_
3 0
5 0
_
nest pas inversible. En eet, soit
B =
_
b
11
b
12
b
21
b
22
_
une matrice quelconque. Alors le produit
BA =
_
b
11
b
12
b
21
b
22
__
3 0
5 0
_
=
_
0
0
_
ne peut jamais tre gal la matrice identit.
Thorme 2.20. Si B et C sont des inverses de A, alors
B = C.
Dmonstration. On a I = AC = BA du fait que B et C sont des inverses de A; donc
B = BI = B(AC) = (BA)C = IC = C.
Si A est une matrice inversible, son inverse est not A
1
. On a donc
AA
1
= I et A
1
A = I.
2.5.1 Matrices 2 2
Considrons les matrices 2 2
A =
_
a b
c d
_
et B =
_
d b
c a
_
.
On vrie que
AB = BA = (ad bc)
_
1 0
0 1
_
.
Donc A est inversible si ad bc ,= 0, et on a alors
A
1
=
1
ad bc
_
d b
c a
_
.
2.5.2 Puissances dune matrice
Soit A une matrice n n. On dnit
A
m
= AA A
. .
m facteurs
Si A est inversible, on dnit
A
m
=
_
A
1
_
m
= A
1
A
1
A
1
. .
m facteurs
Thorme 2.21. Soit A une matrice inversible. Alors
2.6. LES MATRICES LMENTAIRES 25
(a) A
1
est inversible et (A
1
)
1
= A;
(b) A
m
est inversible et
(A
m
)
1
= A
1
A
1
A
1
. .
m facteurs
= (A
1
)
m
= A
m
;
(c) kA est inversible si k ,= 0 et (kA)
1
=
1
k
A
1
.
Thorme 2.22. Soient A et B deux matrices n n inversibles. Alors
(a) AB est inversible et
(b) (AB)
1
= B
1
A
1
.
Dmonstration. Il sut de montrer
(B
1
A
1
)(AB) = (AB)(B
1
A
1
) = I.
Cela suit de
(B
1
A
1
)(AB) = B
1
(AA
1
)B = B
1
IB = B
1
B = I,
et (AB)(B
1
A
1
) = A(BB
1
)A
1
= AIA
1
= AA
1
= I.
De faon analogue, on montre que si A
1
, . . . , A
m
sont inversibles, alors
(A
1
A
2
. . . A
m
)
1
= A
1
m
A
1
m1
. . . A
1
1
.
Exemple 2.23.
A =
_
2 1
5 3
_
A
1
=
_
3 1
5 2
_
B =
_
9 4
2 1
_
B
1
=
_
1 4
2 9
_
AB =
_
2 1
5 3
_

_
9 4
2 1
_
=
_
16 7
39 17
_
B
1
A
1
=
_
1 4
2 9
_

_
3 1
5 2
_
=
_
17 7
39 16
_
On a alors bien
(AB)(B
1
A
1
) =
_
16 7
39 17
_

_
17 7
39 16
_
=
_
272 + 273 0
0 273 272
_
=
_
1 0
0 1
_
.
2.6 Les matrices lmentaires
Dnition 2.24 (Matrice lmentaire). On dit quune matrice E est lmentaire si elle peut tre
obtenue par une seule opration lmentaire sur les lignes de la matrice identit (voir 1.1.1 () pour
la dnition des oprations lmentaires).
Il existe donc trois types de matrices lmentaires correspondant aux trois oprations lmen-
taires.
(1) La matrice E
i
(c) est la matrice lmentaire obtenue en multipliant par c la i-me ligne de I
n
,
c est un nombre rel non nul.
Exemple 2.25.
E
2
(5) =
_
_
_
_
1 0 0 0
0 5 0 0
0 0 1 0
0 0 0 1
_
_
_
_
26 CHAPITRE 2. ELMENTS DU CALCUL MATRICIEL
(2) La matrice E
ij
est la matrice lmentaire obtenue en permutant les i-me et j-me lignes de I
n
.
Exemple 2.26.
E
24
= E
42
=
_
_
_
_
1 0 0 0
0 0 0 1
0 0 1 0
0 1 0 0
_
_
_
_
(3) La matrice E
ij
(c) est la matrice lmentaire obtenue en ajoutant c fois la j-me ligne de I
n
la
i-me ligne.
Exemple 2.27.
E
21
(5) =
_
_
_
_
1 0 0 0
5 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
Lopration lmentaire permuter les lignes i et j correspond multiplier une matrice sur la
gauche par la matrice lmentaire E
ij
; et de mme pour toutes autres oprations lmentaires. Cest
ce quindique le thorme suivant :
Thorme 2.28. Si la matrice lmentaire E est le rsultat dune opration lmentaire eectue
sur I
m
, alors pour toute matrice A de taille m n le produit matriciel EA est gal la matrice
obtenue en eectuant la mme opration lmentaire sur A.
Ainsi, multiplier une matrice A sur la gauche par E
ij
revient changer les lignes i et j de A;
multiplier A sur la gauche par E
i
(c) revient multiplier la ligne i de A par c ; et multiplier A sur la
gauche par E
ij
(c) revient ajouter c fois la ime ligne la jme.
Exemples :
(1)
E
1
(2) A =
_
2 0
0 1
__
a
11
a
12
a
13
a
21
a
22
a
23
_
=
_
2a
11
2a
12
2a
13
a
21
a
22
a
23
_
(2)
E
23
A =
_
_
1 0 0
0 0 1
0 1 0
_
_
_
_
a
11
a
12
a
21
a
22
a
31
a
32
_
_
=
_
_
a
11
a
12
a
31
a
32
a
21
a
22
_
_
.
(3)
E
21
(9) A =
_
_
1 0 0
9 1 0
0 0 1
_
_
_
_
a
11
a
21
a
31
_
_
=
_
_
a
11
9a
11
+a
21
a
31
_
_
.
Les oprations lmentaires sur les lignes sont rversibles. Ceci entrane linversibilit des matrices
lmentaires.
Thorme 2.29. Toute matrice lmentaire est inversible. En particulier, on a :
[E
ij
(c)]
1
= E
ij
(c)
E
1
ij
= E
ij
[E
i
(c)]
1
= E
i
_
1
c
_
.
Exemple 2.30. On a
E
21
(4) =
_
1 0
4 1
_
et E
21
(4) =
_
1 0
4 1
_
et
_
1 0
4 1
__
1 0
4 1
_
=
_
1 0
0 1
_
=
_
1 0
4 1
__
1 0
4 1
_
2.7. CALCUL DE LINVERSE DUNE MATRICE 27
Dnition 2.31. On dit que deux matrices sont quivalentes par lignes si lune peut tre obtenue
partir de lautre par une suite doprations lmentaires sur les lignes.
Thorme 2.32. Pour toute matrice A de taille nn, les armations suivantes sont quivalentes :
(a) A est inversible.
(b) Le systme AX = B a une et une seule solution pour toute matrice B de taille n 1. Cette
solution est donne par X = A
1
B.
(c) AX = 0 na que la solution triviale X = 0.
(d) A est quivalente par lignes I
n
.
(e) A est un produit de matrices lmentaires.
Dmonstration. (a) (b) Si A est inversible, on a les quivalences suivantes :
AX = B A
1
AX = A
1
B X = A
1
B
ce qui prouve (b).
(b) (c) Cest vident car (c) est un cas particulier de (b) avec B = 0.
(c) (d) Par hypothse, le systme AX = 0 est quivalent au systme
_

_
X
1
= 0
X
2
= 0
.
.
.
.
.
.
X
n
= 0
.
La matrice associe ce dernier systme est la matrice identit. La matrice A est donc quivalente
par lignes I
n
et ceci prouve le point (d).
(d) (e) On sait, par hypothse, quune succession doprations lmentaires sur A conduit la
matrice I
n
. Par le thorme 2.28, ceci signie quil existe des matrices lmentaires E
1
, . . . E
r
telles
que
E
r
E
r1
E
1
A = I
n
.
Comme une matrice lmentaire est inversible, ceci implique que
A = E
1
1
E
1
2
E
1
r
.
Mais linverse dune matrice lmentaire est encore une matrice lmentaire et lon a le rsultat
cherch.
(e) (a) Ceci dcoule du fait que toute matrice lmentaire est inversible et que le produit de
matrices inversibles est encore inversible.
2.7 Calcul de linverse dune matrice
Le thorme prcdent donne une mthode pour dterminer linverse dune matrice inversible. La
mthode consiste faire les oprations lmentaires mettant la matrice A sous la forme chelonne
rduite, qui est I
n
. On fait ensuite les mmes oprations lmentaires sur la matrice I
n
. On aboutit
alors A
1
. En pratique, on fait les deux oprations en mme temps selon la procdure suivante :
Former la matrice (A : I) et eectuer sur cette matrice augmente les oprations lmentaires
mettant A sous la forme chelonne rduite. On obtient alors la matrice (I : A
1
).
Exemple 2.33. Calculons linverse de
A =
_
_
1 2 1
4 0 1
1 2 2
_
_
.
28 CHAPITRE 2. ELMENTS DU CALCUL MATRICIEL
(A : I) =
_
_
1 2 1 : 1 0 0
4 0 1 : 0 1 0
1 2 2 : 0 0 1
_
_

2
:=
2
4
1
_
_
1 2 1 : 1 0 0
0 8 5 : 4 1 0
1 2 2 : 0 0 1
_
_

3
:=
3
+
1
_
_
1 2 1 : 1 0 0
0 8 5 : 4 1 0
0 4 3 : 1 0 1
_
_

2
:=
1
8

2
_
_
1 2 1 : 1 0 0
0 1 5/8 : 1/2 1/8 0
0 4 3 : 1 0 1
_
_

3
:=
3
4
2
_
_
1 2 1 : 1 0 0
0 1 5/8 : 1/2 1/8 0
0 0 1/2 : 1 1/2 1
_
_

3
:= 2
3
_
_
1 2 1 : 1 0 0
0 1 5/8 : 1/2 1/8 0
0 0 1 : 2 1 2
_
_

2
:=
2

5
8

3
_
_
1 2 1 : 1 0 0
0 1 0 :
7
4

3
4

5
4
0 0 1 : 2 1 2
_
_

1
:=
1
2
2

3
_
_
1 0 0 :
1
2
1
2
1
2
0 1 0 :
7
4

3
4

5
4
0 0 1 : 2 1 2
_
_
A
1
=
1
4
_
_
2 2 2
7 3 5
8 4 8
_
_
2.8. MATRICES TRIANGULAIRES 29
2.8 Matrices triangulaires
Dnition 2.34. Soit A une matrice de taille n n. On dit que A est triangulaire infrieure si ses
lments au dessus de la diagonale sont nuls, autrement dit si
i < j = a
ij
= 0.
Une matrice triangulaire infrieure a donc la forme suivante :
_
_
_
_
_
_
_
_
_
a
11
0 0
a
21
a
22
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
a
n1
a
n2
a
nn
_
_
_
_
_
_
_
_
_
On dit que A est triangulaire suprieure si ses lments en dessous de la diagonale sont nuls,
autrement dit si
i > j = a
ij
= 0.
Une matrice triangulaire suprieure a donc la forme suivante :
_
_
_
_
_
_
_
_
_
_
_
a
11
a
12
. . . . . . . . . a
1n
0 a
22
. . . . . . . . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . . . . . . . 0 a
nn
_
_
_
_
_
_
_
_
_
_
_
Exemple 2.35. Matrices triangulaires infrieures :
_
_
4 0 0
0 1 0
3 2 0
_
_
_
5 0
1 2
_
Exemple 2.36. Matrices triangulaires suprieures :
_
_
1 1 1
0 1 1
0 0 1
_
_
_
1 3
0 6
_
Dnition 2.37. Une matrice qui est triangulaire infrieure et triangulaire suprieure est dite
diagonale.
Exemple 2.38. Exemples de matrices diagonales :
_
_
1 0 0
0 6 0
0 0 0
_
_
et
_
2 0
0 3
_
Thorme 2.39. Une matrice A de taille n n, triangulaire, est inversible si et seulement si ses
lments diagonaux sont tous non nuls.
Dmonstration. Supposons que A est triangulaire suprieure.
Si les lments de la diagonale sont tous non nuls, alors, en multipliant chaque ligne i par
linverse de llment diagonal a
ii
, on obtient la forme chelonne de A. Elle ne contient que des 1
sur la diagonale. De ce fait, la forme chelonne rduite de A sera la matrice identit. Le thorme
2.32 permet de conclure que A est inversible.
30 CHAPITRE 2. ELMENTS DU CALCUL MATRICIEL
Inversement, supposons quau moins lun des lments diagonaux soit nul et notons a
mm
le
premier lment nul de la diagonale. En multipliant les lignes 1 m1 par linverse de leur lment
diagonal, on obtient une matrice de la forme
_
_
_
_
_
_
_
_
_
_
_
_
1
0
.
.
.

0 0 1
0 0 0
0 0 0 a
ll

.
.
.
.
.
.
.
.
. 0
.
.
.
.
.
.
0 0 a
nn
_
_
_
_
_
_
_
_
_
_
_
_
o l = m+ 1.
Il est alors clair que la colonne m de la forme chelonne ne contiendra pas de 1 directeur. La
forme chelonne rduite de A ne peut donc pas tre I
n
et par le thorme 2.32, A nest pas inversible.
Dans le cas dune matrice triangulaire infrieure, on utilise la transposition qui fait lobjet de la
section suivante et on obtient une matrice triangulaire suprieure. On applique alors la dmonstration
ci-dessus.
2.9 La transposition
Soit A la matrice de taille mn
A =
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
_
_
_
_
_
Dnition 2.40. On appelle matrice transpose de A, la matrice A
T
de taille n m dnie par :
A
T
=
_
_
_
_
_
a
11
a
21
. . . a
m1
a
12
a
22
. . . a
m2
.
.
.
.
.
.
.
.
.
a
1n
a
2n
. . . a
mn
_
_
_
_
_
.
Autrement dit, la i-me colonne de A
T
est la i-me ligne de A, ou encore
a
T
ij
= a
ji
.
Exemple 2.41.
(1 2 5)
T
=
_
_
1
2
5
_
_
_
_
0 3
1 5
1 2
_
_
T
=
_
0 1 1
3 5 2
_
_
1 0
0 2
_
T
=
_
1 0
0 2
_
.
(4)
T
= (4) .
Thorme 2.42. Lopration de transposition obit aux rgles suivantes :
(a) (A+B)
T
= A
T
+B
T
(b) (kA)
T
= kA
T
(c) (AB)
T
= B
T
A
T
(d) (A
T
)
T
= A.
(e) Si A est inversible, alors A
T
lest aussi et on a (A
T
)
1
= (A
1
)
T
qui sera note A
T
.
2.10. LA TRACE 31
2.10 La trace
Soit A la matrice n n
A =
_
_
_
a
11
. . . a
1n
.
.
.
.
.
.
a
n1
. . . a
nn
_
_
_
Dnition 2.43. On appelle trace de A,et on note trace(A), le nombre obtenu en additionnant les
lments diagonaux de A. Autrement dit,
trace(A) = a
11
+ +a
nn
.
Exemple 2.44. Soient
A =
_
2 1
0 5
_
et B =
_
_
1 1 2
5 2 8
11 0 10
_
_
Alors trace(A) = 2 + 5 = 7 et trace(B) = 1 + 2 -10 =-7.
Thorme 2.45. Soient A et B deux matrices n n. Alors
(a) trace(A+B) = trace(A) + trace(B) ;
(b) trace(A) = trace(A) pour tout R;
(c) trace(A
T
) = trace(A) ;
(d) trace(AB) = trace(BA).
Dmonstration. (a) Pour tout 1 i n, (A + B)
ii
= A
ii
+ B
ii
. Ainsi, on a bien trace(A + B) =
trace(A) + trace(B).
(b) On a trace(A) = A
11
+ +A
nn
= (A
11
+ +A
nn
).
(c) Etant donn que la transposition ne change pas les lments diagonaux, la trace de A est gale
la trace de A
T
.
(d) On a
AB
ii
= A
i1
B
1i
+A
i2
B
2i
+ +A
in
B
ni
.
Ainsi,
trace(AB) = A
11
B
11
+A
12
B
21
+. . . +A
1n
B
n1
+ A
21
B
12
+A
22
B
22
+. . . +A
2n
B
n2
.
.
.
+ A
n1
B
1n
+A
n2
B
2n
+. . . +A
nn
B
nn
On peut rarranger les termes pour obtenir
A
11
B
11
+A
21
B
12
+. . . +A
n1
B
1n
+ A
12
B
21
+A
22
B
22
+. . . +A
n2
B
2n
.
.
.
+ A
1n
B
n1
+A
2n
B
n2
+. . . +A
nn
B
nn
En utilisant la commutativit de la multiplication dans R, la premire ligne devient
B
11
A
11
+B
12
A
21
+ +B
1n
A
n1
qui vaut BA
11
. En faisant de mme avec les autres lignes, on voit nalement que
trace(AB) = BA
11
+ +BA
nn
= trace(BA).
32 CHAPITRE 2. ELMENTS DU CALCUL MATRICIEL
2.11 Matrices symtriques
Dnition 2.46. Une matrice A de taille nn est dite symtrique si elle est gale sa transpose,
cest--dire si
A = A
T
ou encore si a
ij
= a
ji
pour tout i, j = 1, . . . , n.
Exemple 2.47. Les matrices
_
_
1 0 5
0 2 1
5 1 0
_
_
,
_
0 2
2 4
_
, I
n
et 0
n,n
sont symtriques.
Thorme 2.48. Pour une matrice B quelconque, les matrices BB
T
et B
T
B sont symtriques.
Dmonstration. Par le thorme 2.42, on a
(BB
T
)
T
= (B
T
)
T
B
T
= BB
T
(B
T
B)
T
= B
T
(B
T
)
T
= B
T
B.
2.12 Matrices antisymtriques
Dnition 2.49. Une matrice A de taille n n est dite antisymtrique si
A
T
= A
cest--dire si a
ij
= a
ji
pour tout i, j = 1, . . . , n.
Exemple 2.50.
_
0 1
1 0
_
,
_
0 0
0 0
_
,
_
_
0 4 2
4 0 5
2 5 0
_
_
.
Remarquons que les lments diagonaux dune matrice antisymtrique sont toujours tous nuls.
Thorme 2.51. Toute matrice A de taille n n est la somme dune matrice symtrique B et
dune matrice antisymtrique C.
Dmonstration. Posons B = (A + A
T
)/2 et C = (A A
T
)/2. On a alors A = B + C ; et B est
symtrique, car B
T
= (A
T
+ (A
T
)
T
)/2 = B; et C est antisymtrique, car C
T
= (A
T
(A
T
)
T
)/2 =
C.
Exemple 2.52. Soit
A =
_
2 10
8 3
_
A =
_
2 9
9 3
_
. .
symtrique
+
_
0 1
1 0
_
. .
antisymtrique
.
Chapitre 3
Le dterminant
3.1 Permutations et dterminants
Nous allons construire dans ce chapitre une fonction appele le dterminant qui associe
un nombre rel chaque matrice carre et qui permettra de caractriser facilement les matrices
inversibles puisque ce sont celles dont le dterminant est non nul.
Exemple 3.1. Soit
A =
_
a b
c d
_
.
On a vu que si ad bc ,= 0, alors A est inversible. On a alors
A
1
=
1
ad bc
_
d b
c a
_
.
On dnit alors le dterminant de A comme tant
det(A) = ad bc.
On va maintenant gnraliser cette notion des matrices carres de taille n n.
Dnition 3.2. On appelle permutation de lensemble dentiers 1, . . . , n un arrangement de ceux-
ci sans omissions ni rptitions. Autrement dit, une permutation de 1, . . . , n est une bijection de
lensemble 1, . . . , n sur lui-mme.
Une permutation quelconque de 1, . . . , n sera note
= (j
1
, j
2
, . . . , j
n
)
o j
1
= (1), j
2
= (2),. . ., j
n
= (n).
Lensemble de toutes les permutations de n lments sera not o
n
.
Exemple 3.3. Il y a deux permutations de lensemble 1, 2 :

1
= (1, 2) et
2
= (2, 1)
(1, 2) est lidentit car
1
(1) = 1 et
1
(2) = 2.
Exemple 3.4. Il y a 6 permutations de lensemble 1, 2, 3 :
(1, 2, 3) (1, 3, 2) (2, 1, 3) (3, 2, 1) (2, 3, 1) (3, 1, 2).
Plus gnralement, lensemble 1, . . . , n a
n! = 1 2 n
permutations. En eet, il y a n possibilits pour le premier nombre, n 1 possibilits pour le
deuxime et ainsi de suite ce qui nous donne n(n1)(n2) 2 1 dirents arrangements possibles
des nombres 1, 2, . . . , n.
33
34 CHAPITRE 3. LE DTERMINANT
Dnition 3.5. Dans une permutation on a une inversion si un nombre plus grand prcde un
nombre plus petit.
De manire plus prcise, le nombre dinversions dune permutation
(j
1
, j
2
, . . . , j
n
)
est la somme du
nombre de successeurs de j
1
plus petits que j
1
, plus
le nombre de successeurs de j
2
plus petits que j
2
, plus
. . .
le nombre de successeurs de j
n1
plus petits que j
n1
.
Exemple 3.6. La permutation
(4, 2, 5, 3, 1) contient 7 inversions.
En eet,il y a 3 successeurs plus petits que 4, 1 successeur plus petit que 2, 2 successeurs plus petits
que 5, 1 successeur plus petit que 3 et pas de successeur plus petit que 1. En additionnant ces
nombres, on obtient bien 7.
Exemple 3.7. La permutation
(6, 1, 3, 4, 5, 2)
contient 5 + 0 + 1 + 1 + 1 = 8 inversions.
Dnition 3.8. Une permutation ayant un nombre pair dinversions est appele permutation paire,
sinon elle est appele permutation impaire. On dnit la signature de la permutation comme suit :
sign() =
_
1 si est paire
1 si est impaire.
Exemple 3.9. Classication des permutations de 1, 2, 3 :
Permutation Nbre dinversions Parit
(1, 2, 3) 0 paire
(1, 3, 2) 1 impaire
(2, 1, 3) 1 impaire
(2, 3, 1) 2 paire
(3, 1, 2) 2 paire
(3, 2, 1) 3 impaire
Lemme 3.10. Soit n 1, i, j 1, . . . , n avec i < j et o
n
.
Posons

= ((1), . . . , (i 1), (j), (i + 1), . . . , (j 1), (i), (j + 1), . . . , (n)). Alors


sign() = sign(

).
Dmonstration : Nous illustrons la mthode de la dmonstration par un cas particulier.
Considrons les deux permutations de o
8
suivantes :
= (1, 2, 5, 7, 6, 3, 4, 8) et

= (1, 3, 5, 7, 6, 2, 4, 8).
Pour calculer leur signature, il faut calculer le nombre dinversions de et de

. On voit que 1, 4
et 8 ont le mme nombre de successeurs plus petits dans et

.
Pour passer de

, on permute 2 et 3. Dans , 3 nest pas un successeur de 2 plus petit, alors


que dans

, 2 est un successeur de 3 plus petit.


Dans , 5 nest pas un successeur de 2 plus petit, mais 3 est un successeur de 5 plus petit,alors
que dans

, 5 nest pas un successeur de 3 plus petit, mais 2 est un successeur de 5 plus petit. En
rptant le mme raisonnement avec 7 et 6, on remarque que le nombre de successeurs de 5, 7 et 6
plus petits est le mme que cela soit dans ou dans

. Globalement, on voit donc que

a une et
une seule inversion de plus que . Ainsi, leurs signatures sont opposes.
3.1. PERMUTATIONS ET DTERMINANTS 35
Dnition 3.11. Soit
A =
_
_
_
a
11
. . . a
1n
.
.
.
.
.
.
a
n1
. . . a
nn
_
_
_
une matrice carre de taille n n. Un produit lmentaire de A est le produit de n lments de A,
choisis de faon quaucun couple dentre eux ne provienne de la mme ligne ou de la mme colonne.
Autrement dit, tous les lments du produit sont dans des lignes et des colonnes direntes.
Exemple 3.12. Les produits lmentaires de la matrice
A =
_
a
11
a
12
a
21
a
22
_
sont a
11
a
22
et a
12
a
21
. Les produits lmentaires de
A =
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
sont :
a
11
a
22
a
33
a
11
a
32
a
23
a
21
a
12
a
33
a
21
a
32
a
13
a
31
a
12
a
23
a
31
a
22
a
13
Plus gnralement, partir dune matrice de taille nn, on peut former n! produits lmentaires.
En eet, on constate quun produit lmentaire de A nest rien dautre quun produit a
1j
1
a
2j
2
. . . a
nj
n
o (j
1
, j
2
, . . . , j
n
) est un lment de o
n
.
Dnition 3.13. Un produit lmentaire sign dune matrice A est un produit
sign() a
1j
1
a
2j
2
. . . a
nj
n
o = (j
1
, j
2
, . . . , j
n
) est une permutation n lments.
Exemple 3.14. Les produits lmentaires signs de
_
a
11
a
12
a
21
a
22
_
sont a
11
a
22
(la permutation (1, 2) est paire) et a
21
a
12
(la permutation (2,1) est impaire).
Les produits lmentaires signs de
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
sont a
11
a
22
a
33
, a
11
a
23
a
32
, a
12
a
21
a
33
, a
12
a
23
a
31
, a
13
a
21
a
32
et a
13
a
22
a
31
.
Dnition 3.15. Le dterminant dune matrice A est le nombre obtenu en eectuant la somme de
tous les produits lmentaires signs de A. Il est not det(A). Autrement dit,
det(A) =

S
n
sign() a
1i
1
. . . a
ni
n
,
o = (i
1
, . . . , i
n
).
Exemple 3.16.
A =
_
a
11
a
12
a
21
a
22
_
det(A) = a
11
a
22
a
12
a
21
.
36 CHAPITRE 3. LE DTERMINANT
Exemple 3.17.
A =
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
det(A) = sign((1, 2, 3))a
11
a
22
a
33
+ sign((2, 3, 1))a
12
a
23
a
31
+ sign((3, 1, 2))a
13
a
21
a
32
+ sign((3, 2, 1))a
13
a
22
a
31
+ sign((2, 1, 3))a
12
a
21
a
33
+ sign((1, 3, 2))a
11
a
23
a
32
= a
11
a
22
a
33
+a
12
a
23
a
31
+a
13
a
21
a
32
a
13
a
22
a
31
a
12
a
21
a
33
a
11
a
23
a
32
Thorme 3.18. Si A est une matrice ayant une ligne forme de zros, alors det(A) = 0.
Dmonstration. Par dnition, le dterminant est la somme des produits lmentaires signs de A.
Mais chacun de ces produits lmentaires contient un lment nul provenant de la ligne de zros de
A. Donc det(A) = 0.
Thorme 3.19. Le dterminant dune matrice A triangulaire (infrieure ou suprieure) est gal
au produit a
11
a
22
a
33
. . . a
nn
des lments diagonaux.
Dmonstration. Le seul produit lmentaire sign non nul est a
11
a
22
. . . a
nn
. La permutation corres-
pondante est (1, 2, . . . , n) qui contient 0 inversions et qui est donc une permutation paire. On a donc
bien
det(A) = a
11
a
22
a
33
. . . a
nn
.
Examinons maintenant ce qui se passe si deux lignes de la matrice sont gales.
Exemple 3.20. Soit
A =
_
_
a b c
a b c
d e f
_
_
,
on a
det(A) = abf abf +ace ace +bcd bcd = 0
et lon remarque que tous les produits lmentaires apparaissent deux fois avec des signes opposs
(cf. lemme 3.10).
Ceci nous amne au thorme suivant :
Thorme 3.21. Soit A une matrice avec deux lignes gales. Alors
det(A) = 0.
Dmonstration. Dans le dterminant dune telle matrice, tous les produits lmentaires apparaissent
deux fois, avec des signes opposs. Donc det(A) = 0.
3.1.1 Mthode pour calculer des dterminants de matrices de taille 2 2
et 3 3
Nous dcrivons ici la rgle de Sarus pour calculer des dterminants 2 2 et 3 3.
Matrice 2 2
_
_
`
`
`
`
`
`
`
a
11
a
12
.
.
.
.
.
.
.
a
21
a
22
_
_

+
det(A) = a
11
a
22
a
12
a
21
.
3.2. DTERMINANTS ET OPRATIONS LMENTAIRES 37
Matrice 3 3
On recopie les colonnes 1 et 2 la suite de la colonne 3 et on calcule comme suit :
_
_
`
`
`
`
`
`
`
a
11
`
`
`
`
`
`
`
a
12
`
`
`
`
`
`
`
a
13
a
21
a
22
a
23
.
.
.
.
.
.
a
31
.
.
.
.
.
.
a
32
.
.
.
.
.
.
a
33
_
_

a
11
a
12
a
21
a
22
a
31
a
32
+ + +
det(A) = a
11
a
22
a
33
+a
12
a
23
a
31
+a
13
a
21
a
32
a
31
a
22
a
13
a
32
a
23
a
11
a
33
a
21
a
12
.
Exemple 3.22. Calculer
det
_
_
2 1 0
1 0 1
0 0 1
_
_
.
_
_
`
`
`
`
`
`
`
2
`
`
`
`
`
`
`
1
`
`
`
`
`
`
`
0
1 0 1
.
.
.
.
.
.
.
0
.
.
.
.
.
.
.
0
.
.
.
.
.
.
.
1
_
_
0 0 1
2 1
1 0
0 0
0 0 0
donc det = 1.
ATTENTION : Cette mthode ne sapplique pas pour les matrices de dimensions suprieures
3.
3.2 Dterminants et oprations lmentaires
Nous allons voir que la rduction dune matrice la forme chelonne nous fournit une mthode
ecace pour calculer son dterminant.
Thorme 3.23. Soit A une matrice de taille n n, et soit E une matrice lmentaire (E =
E
i
(k), E
ij
ou E
ij
(k)). Alors
(1) det(E
i
(k)) = k
(2) det(E
ij
) = 1
(3) det(E
ij
(k)) = 1
(4) det(EA) = det(E) det(A)
Dmonstration. (1) Soit k R, k ,= 0. Rappelons que
E
i
(k) =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 0 . . . . . . . . . . . . 0
0
.
.
.
.
.
.
.
.
. 1
.
.
.
.
.
. k
.
.
.
.
.
. 1
.
.
.
.
.
.
.
.
.
0
0 . . . . . . . . . . . . 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
det(E
i
(k)) =

S
n
sign() a
1j
1
. . . a
nj
n
,
o = (j
1
, . . . , j
n
).
38 CHAPITRE 3. LE DTERMINANT
Comme il ny a quun seul lment non nul dans chaque ligne et dans chaque colonne, le seul
produit lmentaire non nul est
1 1 k 1 1 = k.
De plus, la permutation (1, 2, . . . , n) na pas dinversion. Sa signature est donc 1. Ainsi
det(E
i
(k)) = k.
(2) Sans perte de gnralit, on peut supposer que i < j. On a
E
ij
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
0 1
1
.
.
.
1
1 0
1
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
Comme avant, il y a un seul produit produit lmentaire non nul, qui vaut 1. Le dterminant
sera donc 1. Il reste dterminer la signature de la permutation
(1, 2, . . . , (i 1), j, (i + 1), (i + 2), . . . , (j 1), i, (j + 1), . . . , n).
j a (j 1) successeurs plus petits. Les nombres compris entre (i + 1) et (j 1) ont chacun un
succeseur plus petit. Or, il y a (j 1) 1 nombres entre i et j. Ainsi, le nombre dinversions de
la permutation est
(j i) + (j i) 1 = 2j 2i 1.
Cest un nombre impair. La signature est donc 1 et le dterminant de E
ij
est 1.
(3) En crivant la matrice E
ij
(k), on voit que le seul produit lmentaire non nul est 1 et que la
signature de la permutation tudier est celle de (1, 2, . . . , n). Cest une permutation paire, ce
qui implique que det(E
ij
(k)) = 1.
(4) Pour montrer que det(EA) = det(A) det(E), nous allons considrer trois cas, E = E
i
(k), E = E
ij
et E = E
ij
(k).
Premier cas E = E
i
(k), k ,= 0 et A = (a
ij
).
EA =
_
_
_
_
_
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
ka
i1
ka
i2
. . . ka
in
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
nn
_
_
_
_
_
_
_
_
_
_
.
Le dterminant est la somme des produits lmentaires signs. Chaque produit lmentaire
a exactement un lment de chaque ligne,en particulier un lment de la i-me ligne. Ainsi,
dans chaque terme de la somme, on peut mettre k en vidence. Finalement,
det(EA) = k

S
n
sign()a
1(1)
. . . a
n(n)
= det(E) det(A).
3.2. DTERMINANTS ET OPRATIONS LMENTAIRES 39
Deuxime cas E = E
ij
. On peut supposer que i < j. Posons B = E
ij
A. On a
E
ij
A =
_
_
_
_
_
_
_
_
_
_
_
_
_
a
11
a
12
. . . a
1n
.
.
.
.
.
.
.
.
.
a
j1
a
j2
. . . a
jn
.
.
.
.
.
.
.
.
.
a
i1
a
i2
. . . a
in
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
nn
_
_
_
_
_
_
_
_
_
_
_
_
_
.
Les produits lmentaires de B et de A sont les mmes. Comme det(E
ij
) = 1, pour montrer
que det(E
ij
A) = det(E
ij
) det(A) il faut montrer que les produits lmentaires signs de A et
de B sont opposs. Par dnition du dterminant,
det(B) =

S
n
sign() b
1(1)
. . . b
i(i)
. . . b
j(j)
. . . b
n(n)
=

S
n
sign() a
1(1)
. . . a
j(i)
. . . a
i(j)
. . . a
n(n)
La deuxime galit vient du fait que la i-me ligne de B est la j-me ligne de A (et rcipro-
quement). Posons

= ((1), . . . , (i 1), (j), (i + 1), . . . , (j 1), (i), (j + 1), . . . , (n)).

est la composition de avec la permutation qui change i et j. Par le lemme 3.10,


sign(

) = sign(). Ainsi
det(B) =

S
n
(sign(

)) a
1

(1)
. . . a
n

(n)
=

S
n
sign(

) a
1

(1)
. . . a
n

(n)
= det(A).
Troisime cas E = E
ij
(k). On peut supposer que i < j. Posons C = E
ij
(k)A. On a
C =
_
_
_
_
_
_
_
_
_
_
_
_
_
a
11
. . . a
1n
.
.
.
.
.
.
a
i1
+ka
j1
. . . a
in
+ka
jn
.
.
.
.
.
.
a
j1
. . . a
jn
.
.
.
.
.
.
a
n1
. . . a
nn
_
_
_
_
_
_
_
_
_
_
_
_
_
.
Alors,
det(C) =

S
n
sign() b
1(1)
. . . b
n(n)
=

S
n
sign() a
1(1)
. . . a
(i1)(i1)
(a
i(i)
+ka
j(i)
)a
(i+1)(i+1)
. . . a
n(n)
=

S
n
sign() a
1(1)
. . . a
n(n)
+ k

S
n
sign(a
1(1)
. . . a
(i1)(i1))
a
j(i)
a
(i+1)(i+1)
. . . a
n(n)
. .
=
= det(A) +k
40 CHAPITRE 3. LE DTERMINANT
Comme det(E
ij
(k)) = 1, pour montrer que det(C) = det(A) det(E
ij
(k)), il sut de montrer
que = 0. Mais,
= det
_
_
_
_
_
_
_
_
_
_
_
_
a
11
. . . a
1n
.
.
.
.
.
.
a
(i1)1
. . . a
(i1)n
a
j1
. . . a
jn
a
(i+1)1
. . . a
(i+1)n
.
.
.
.
.
.
a
n1
. . . a
nn
_
_
_
_
_
_
_
_
_
_
_
_
et la i-me ligne de cette matrice est a
j1
. . . a
jn
. Elle a donc deux lignes identiques (la i-me
et la j-me), ce qui implique que = 0.
Ce thorme nous permet de calculer le dterminant dune matrice de faon relativement simple,
en utilisant lalgorithme de Gauss pour rduire la matrice la forme chelonne (qui est triangulaire)
et en utilisant les thormes 3.23 et 3.19. En eet, si
A = E
1
. . . E
r
D
o D = (d
ij
) est une matrice chelonne (triangulaire). Alors
det(A) = det(E
1
) . . . det(E
r
) det(D) = det(E
1
) . . . det(E
r
)d
11
d
22
. . . d
nn
.
Exemple 3.24. Calculer det(A), o
A =
_
_
0 1 5
3 6 9
2 6 1
_
_
det(A) = det
_
_
0 1 5
3 6 9
2 6 1
_
_
= (1) det
_
_
3 6 9
0 1 5
2 6 1
_
_
= (3) det
_
_
1 2 3
0 1 5
2 6 1
_
_
= (3) det
_
_
1 2 3
0 1 5
0 10 5
_
_
= (3) det
_
_
1 2 3
0 1 5
0 0 55
_
_
= (3)(55) det
_
_
1 2 3
0 1 5
0 0 1
_
_
= (3)(55) = 165.
Exemple 3.25. Soit
A =
_
_
_
_
1 3 2 4
2 6 4 8
3 9 1 5
1 1 4 8
_
_
_
_
3.2. DTERMINANTS ET OPRATIONS LMENTAIRES 41
Alors, en soustrayant deux fois la ligne 1 la ligne 2, on obtient
det(A) = det
_
_
_
_
1 3 2 4
0 0 0 0
3 9 1 5
1 1 4 8
_
_
_
_
= 0.
Notation : Pour toute matrice carre A, on note
[A[ = det(A).
Thorme 3.26. Soit A une matrice carre. Alors A est inversible si et seulement si det(A) ,= 0.
On a, dans ce cas,
det(A
1
) :=
1
det(A)
.
Dmonstration. Supposons dabord que A est inversible. On peut alors crire A comme produit de
matrices lmentaires, A = E
1
E
r
. En appliquant successivement le thorme 3.23, on a
det(A) = det(E
1
E
r
) = det(E
1
) det(E
2
E
r
) = = det(E
1
) det(E
r
).
Comme le dterminant dune matrice lmentaire nest jamais nul, on en dduit que le dterminant
de A nest pas nul.
Ensuite, A
1
= E
1
r
E
1
1
, et on vrie aisment que det(E
1
) = det(E)
1
pour toute matrice
lmentaire E. On a donc
det(A
1
) = det(E
r
)
1
det(E
1
)
1
,
et donc det(A
1
) = det(A)
1
.
Rciproquement, supposons que det(A) ,= 0. Nous montrerons qualors A est quivalente par
lignes I, ce qui implique, par le thorme 2.32, que A est inversible.
Soit R la forme chelonne rduite de A. On peut donc trouver des matrices lmentaires
E
1
, , E
k
telles que
E
k
E
1
A = R, ou encore
A = E
1
1
E
1
k
R.
On en dduit que
[A[ = [E
1
1
[ [E
1
k
[ [R[ .
Mais par hypothse [A[ , = 0. Donc [R[ , = 0.
On en dduit que chaque ligne de R contient un 1 directeur. Donc R = I.
Le thorme suivant est essentiel et nous arme que le dterminant est multiplicatif :
Thorme 3.27. Soient A et B deux matrices de taille n n. Alors
det(AB) = det(A) det(B) .
Dmonstration. Si A et B sont les deux inversibles, on les crit comme produit de matrices lmen-
taires : A = E
1
. . . E
r
et B = F
1
. . . F
s
. On a alors
det(AB) = det(E
1
E
r
F
1
F
s
) = det(E
1
) det(E
2
E
r
F
1
. . . F
s
)
= = det(E
1
) det(E
r
) det(F
1
F
s
)
= det(E
1
E
r
) det(F
1
F
s
) = det(A) det(B).
Si A ou B nest pas inversible, alors AB nest pas inversible non plus ; et det(AB) = 0.
Le dterminant est invariant par transposition :
42 CHAPITRE 3. LE DTERMINANT
Thorme 3.28. Soit A une matrice de taille n n. Alors
det(A) = det(A
T
).
Autrement dit, le dterminant dune matrice est gal celui de sa transpose.
Dmonstration. La dmonstration se fait comme ci-dessus : supposons dabord que A est inversible.
On peut alors lcrire comme produit de matrices lmentaires, A = E
1
E
r
. On a alors
A
T
= E
T
r
E
T
1
et
[A
T
[ = [E
T
r
[ [E
T
1
[ = [E
r
[ [E
1
[ = [A[.
Dautre part, si A nest pas inversible, alors A
T
nest pas inversible non plus, et [A[ = [A
T
[ =
0.
Comme la transposition transforme une ligne en une colonne (et rciproquement), ce thorme
nous permet de formuler le principe suivant :
Principe 3.29. Pour toute propri
`
t des dterminants o il est question des lignes de la matrice, on
a une proprit analogue concernant les colonnes de la matrice.
Rsum des rsultats sur le dterminant
A matrice carre de taille n n
det(A) =

sign()a
1,j
1
a
n,j
n
o = (j
1
, . . . , j
n
).
Si A a une ligne nulle, alors det(A) = 0 .
Si A a deux lignes gales, alors det(A) = 0.
Si A est une matrice triangulaire (infrieure ou suprieure) alors det(A) est le produit de ses
lments diagonaux.
A =
_
_
_
a
11

.
.
.
0 a
nn
_
_
_ ou
_
_
_
a
11
0
.
.
.
a
nn
_
_
_
det(A) = a
11
a
nn
.
det(AB) = det(A) det(B)
det(A
T
) = det(A)
A est inversible si et seulement si
det(A) ,= 0 .
Si A est inversible, alors
det(A) =
1
det(A
1
)
Matrices lmentaires :
det(E
i
(k)) = k
det(E
ij
) = 1
det(E
ij
(k)) = 1.
3.3 Les cofacteurs et la rgle de Cramer
Dnition 3.30 (Mineur et cofacteur). Soit A = (a
ij
) une matrice de taille n n. On appelle
mineur de llment a
ij
le dterminant de la sous-matrice obtenue en liminant la i-me ligne et la
j-me colonne de la matrice A. On le note M
ij
. On appelle cofacteur de a
ij
la quantit
C
ij
= (1)
i+j
M
ij
.
3.3. LES COFACTEURS ET LA RGLE DE CRAMER 43
A =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a
11
a
12
. . . a
ij
. . . a
1n
a
21
a
22
. . . a
2j
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
i1
a
ij
. . . a
ij
. . . a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
nj
. . . a
nn
_
_
_
_
_
_
_
_
_
_
_
_
_
_
M
ij
= det
_
_
_
_
_
_
_
_
_
_
a
11
. . . a
1,j1
a
1,j+1
. . . a
1n
.
.
.
.
.
.
.
.
.
.
.
.
a
i11
. . . a
i1,j1
a
i1,j+1
. . . a
i1,n
a
i+11
. . . a
i+1,j1
a
i+1,j+1
. . . a
i+1,n
.
.
.
.
.
.
.
.
.
a
n1
. . . a
n,j1
a
n,j+1
. . . a
n,n
_
_
_
_
_
_
_
_
_
_
Exemple 3.31. Soit
A =
_
_
1 2 3
4 2 1
0 1 1
_
_
Calculons M
11
, C
11
, M
32
, C
32
:
M
11
=

1 2 3
4 2 1
0 1 1

2 1
1 1

= 1
C
11
= (1)
1+1
M
11
= 1 .
M
32
=

1 2 3
4 2 1
0 1 1

1 3
4 1

= 11
C
32
= (1)
3+2
(11) = 11 .
Pour dterminer si C
ij
= M
ij
ou C
ij
= M
ij
, on peut utiliser le schma suivant :
A =
_
_
_
_
_
+ + . . .
+ + . . .
+ + . . .
.
.
.
.
.
.
.
.
.
.
.
.
_
_
_
_
_
C
11
= M
11
, C
12
= M
12
, C
21
= M
21
, etc...
3.3.1 Calcul du dterminant par la mthode des cofacteurs
Soit A une matrice de taille 3 3
44 CHAPITRE 3. LE DTERMINANT
A =
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
Nous savons que
det(A) = a
11
a
22
a
33
+a
12
a
23
a
31
+a
13
a
21
a
32
a
13
a
22
a
31
a
12
a
21
a
33
a
11
a
23
a
32
.
On peut le rcrire de la manire suivante :
det(A) = a
11
(a
22
a
33
a
23
a
32
)
+a
12
(a
23
a
31
a
21
a
33
)
+a
13
(a
21
a
32
a
22
a
31
) .
Les termes entre parenthses sont les cofacteurs des lments a
11
, a
12
, a
13
.
Donc
det(A) = a
11
C
11
+a
12
C
12
+a
13
C
13
.
Exemple 3.32.
A =
_
_
1 2 3
4 2 1
0 1 1
_
_
det(A) = 1C
11
+ 2C
12
+ 3C
13
= 1

2 1
1 1

+ 2 (1)

4 1
0 1

+ 3

4 2
0 1

= 1 8 + 12
= 5 .
De manire analogue, on obtient
det(A) = a
11
C
11
+a
12
C
12
+a
13
C
13
= a
21
C
21
+a
22
C
22
+a
23
C
23
= a
31
C
31
+a
32
C
32
+a
33
C
33
.
Nous avons vu que les proprits du dterminant relatives aux lignes conduisent des proprits
analogues relatives aux colonnes. On a donc aussi :
det(A) = a
11
C
11
+a
21
C
21
+a
31
C
31
= a
12
C
12
+a
22
C
22
+a
32
C
32
= a
13
C
13
+a
23
C
23
+a
33
C
33
.
Ces expressions sont appeles les dveloppements du dterminant en cofacteurs par rapport aux
lignes, respectivement aux colonnes, de la matrice A.
Pour une matrice A de taille n n, on a les dveloppements en cofacteurs analogues. Nous
rsumons ceci dans le thorme suivant :
Thorme 3.33 (Dterminant par la mthode des cofacteurs). Dveloppement par rapport la
i-me ligne :
det(A) = a
i1
C
i1
+a
i2
C
i2
+ +a
in
C
in
Dveloppement par rapport la j-me colonne :
det(A) = a
1j
C
1j
+a
2j
C
2j
+ +a
nj
C
nj
.
3.3. LES COFACTEURS ET LA RGLE DE CRAMER 45
3.3.2 Calcul de linverse par la mthode des cofacteurs
Reprenons la formule du dterminant dvelopp selon la i-me ligne :
a
i1
C
i1
+a
i2
C
i2
+ +a
in
C
in
.
Remplaons les lments a
ij
par ceux dune autre ligne, disons la k-me, avec k ,= i. Nous
obtenons
a
k1
C
i1
+a
k2
C
i2
+ +a
kn
C
in
.
Cette expression est gale zro. Autrement dit,
Thorme 3.34.
a
k1
C
i1
+a
k2
C
i2
+ +a
kn
C
in
= 0 si k ,= i
Dmonstration : Nous allons le vrier dans le cas particulier o n = 3. La dmonstration
est analogue dans le cas gnral. Soit
A =
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
Remplaons la 3-me ligne par la 1-re. On obtient
A

=
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
11
a
12
a
13
_
_
On a det(A

) = 0, car A

a deux lignes gales. Calculons det(A

) par dveloppement en cofacteurs


par rapport la 3me ligne. On a :
det(A

) = a
11
C

31
+a
12
C

32
+a
13
C

33
o C

ij
sont les cofacteurs de la matrice A

. Mais
C

31
= C
31
, C

32
= C
32
, et C

33
= C
33
.
On a donc
det(A

) = a
11
C
31
+a
12
C
32
+a
13
C
33
= 0.
En rsum, on a
a
k1
C
i1
+a
k2
C
i2
+ +a
kn
C
in
=
_
det(A) si i = k
0 si i ,= k .
Considrons maintenant la matrice des cofacteurs
C =
_
_
_
_
_
C
11
C
12
. . . C
1n
C
21
C
22
. . . C
2n
.
.
.
.
.
.
.
.
.
C
n1
C
n2
. . . C
nn
_
_
_
_
_
et calculons
AC
T
=
_
_
_
_
_
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
a
i1
a
i2
. . . a
in
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
nn
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
C
11
C
21
. . . C
n1
C
12
C
22
. . . C
n2
.
.
.
.
.
.
.
.
.
C
1n
C
2n
. . . C
nn
_
_
_
_
_
46 CHAPITRE 3. LE DTERMINANT
Dans le produit AC
T
, llment de la i-me ligne et de la j-me colonne est
a
i1
C
j1
+a
i2
C
j2
+ +a
in
C
jn
.
Par ce qui prcde, on a donc
AC
T
=
_
_
_
_
_
_
det(A) 0 . . . 0
0 det(A)
.
.
.
.
.
.
.
.
.
0
0 . . . 0 det(A)
_
_
_
_
_
_
= det(A) I.
On en dduit que si det(A) ,= 0, cest--dire si A est inversible, alors on a
A
1
=
1
det(A)
C
T
.
On a ainsi une formule explicite pour calculer A
1
. On appelle C
T
la matrice adjointe de A.
Elle est note
adj(A) .
Thorme 3.35. Soit A une matrice carre avec det(A) ,= 0. On a alors
A
1
=
1
det(A)
adj(A).
Exemple 3.36.
A =
_
_
1 1 0
0 1 1
1 0 1
_
_
.
On a det(A) = 2 .
La matrice forme des M
ij
est
M =
_
_
1 1 1
1 1 1
1 1 1
_
_
.
La matrice des signes est
A =
_
_
+ +
+
+ +
_
_
.
La matrice des cofacteurs est
C =
_
_
1 1 1
1 1 1
1 1 1
_
_
.
On a donc
adj(A) = C
T
=
_
_
1 1 1
1 1 1
1 1 1
_
_
.
Donc
A
1
=
1
2
_
_
1 1 1
1 1 1
1 1 1
_
_
.
3.3. LES COFACTEURS ET LA RGLE DE CRAMER 47
3.3.3 Systmes linaires : rgle de Cramer
Le thorme suivant, appel rgle de Cramer, donne une formule explicite pour la solution de
certaines systmes dquations linaires.
Soit
_

_
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= b
2
. . .
a
n1
x
1
+a
n2
x
2
+ +a
nn
x
n
= b
n
un systme dquations linaires n quations et n inconnues. Ce systme peut aussi scrire AX = B
o
A =
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
nn
_
_
_
_
_
, X =
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
et B =
_
_
_
_
_
b
1
b
2
.
.
.
b
n
_
_
_
_
_
.
La matrice A est appele la matrice des coecients du systme et la matrice B est appele le second
membre.
Dnissons A
j
par
A
j
=
_
_
_
_
_
a
11
. . . a
1,j1
b
1
a
1,j+1
. . . a
1n
a
21
. . . a
2,j1
b
2
a
2,j+1
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
. . . a
n,j1
b
n
a
n,j+1
. . . a
nn
_
_
_
_
_

jme colonne
Autrement dit, A
j
est la matrice obtenue en remplaccant la j-me colonne de A par le second
membre B. La rgle de Cramer va nous permettre de calculer la solution du systme dans le cas o
det(A) ,= 0 en fonction des dterminants des matrices A et A
j
.
Thorme 3.37 (Rgle de Cramer). Soit
AX = B
un systme de n quations n inconnues. Supposons que det(A) ,= 0. Alors lunique solution du
systme est donne par
x
1
=
det(A
1
)
det(A)
, x
2
=
det(A
2
)
det(A)
, . . . , x
n
=
det(A
n
)
det(A)
.
Dmonstration. Nous avons suppos que
det(A) ,= 0 .
Donc A est inversible. Alors
X = A
1
B
est lunique solution du systme. Dautre part, nous avons vu que
A
1
=
1
det(A)
adj(A) .
Donc
X =
1
det(A)
adj(A)B.
48 CHAPITRE 3. LE DTERMINANT
Autrement dit,
X =
_
_
_
x
1
.
.
.
x
n
_
_
_ =
1
det(A)
_
_
_
C
11
. . . C
n1
.
.
.
.
.
.
C
1n
. . . C
nn
_
_
_
_
_
_
b
1
.
.
.
b
n
_
_
_
=
1
det(A)
_
_
_
C
11
b
1
+C
21
b
2
+ +C
n1
b
n
.
.
.
C
1n
b
1
+C
2n
b
2
+ +C
nn
b
n
_
_
_,
cest- -dire
x
1
=
C
11
b
1
+ +C
n1
b
n
det(A)
x
i
=
C
1i
b
1
+ +C
ni
b
n
det(A)
. . .
x
n
=
C
1n
b
1
+ +C
nn
b
n
det(A)
.
Mais
b
1
C
1i
+ +b
n
C
ni
est le dveloppement en cofacteurs de det(A
i
) par rapport sa i-me colonne. Donc
x
i
=
det(A
i
)
det(A)
.
Exemple 3.38. Rsolvons le systme suivant :
_
_
_
x
1
+ 2x
3
= 6
3x
1
+ 4x
2
+ 6x
3
= 30
x
1
2x
2
+ 3x
3
= 8.
On a
A =
_
_
1 0 2
3 4 6
1 2 3
_
_
A
1
=
_
_
6 0 2
30 4 6
8 2 3
_
_
A
2
=
_
_
1 6 2
3 30 6
1 8 3
_
_
A
3
=
_
_
1 0 6
3 4 30
1 2 8
_
_
.
et
det(A) = 44 det(A
1
) = 40
det(A
2
) = 72 det(A
3
) = 152.
La solution est alors
x
1
=
det(A
1
)
det(A)
=
40
44
=
10
11
x
2
=
det(A
2
)
det(A)
=
72
44
=
18
11
x
3
=
det(A
3
)
det(A)
=
152
44
=
38
11
.
Chapitre 4
Calcul vectoriel dans le plan et dans
lespace
4.1 Dnitions et rgles de calcul
Un vecteur est un segment orient dans le plan ou dans lespace de dimension 3.

B
v
A Z
Z
Z
Z
Z

v =

AB
On appelle module du vecteur la longueur du segment AB. Le support du vecteur v est par
dnition la droite passant par A et B.
Deux vecteurs ont la mme direction si leurs supports sont parallles. Deux vecteurs ayant la
mme direction ont le mme sens sils sont orients de la mme faon :
Z
Z
Z
Z
Z
Z
Z
Z
Deux vecteurs sont dits quivalents si lon peut les superposer par une translation. Par la suite, deux
vecteurs quivalents seront considrs comme gaux. Un vecteur est ainsi dtermin par son module,
sa direction et son sens.
Dans le calcul vectoriel, on pourra donc faire des translations sans changer le vecteur. On dnit
la somme de deux vecteurs v et w par la rgle du parallelogramme :
`
`
`
`
`
`
`
`

v+w
v
w
w
`
`
`
`
v
49
50 CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS LESPACE
On place lorigine de w sur lextrmit de v. Le vecteur v+w est alors le segment orient joignant
lorigine de v lextrmit de w. Remarquons que v +w = w +v.
Le produit dun vecteur v par un scalaire k est le vecteur kv dni par les proprits suivantes :
son module est gal [k[ fois le module de v
sa direction est celle de v
son sens est celui de v si k > 0 et le sens oppos si k < 0.
Exemple 4.1.
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
v
3v
2v
Loppos du vecteur v est le vecteur v et la dirence de deux vecteurs v et w est dnie par
v w = v + (w).
4.1.1 Systmes de coordonnes
Si lon choisit un systme de coordonnes pour le plan (resp. pour lespace), un vecteur peut
alors scrire en composantes :
v =
_
v
1
v
2
_
, respectivement v =
_
_
v
1
v
2
v
3
_
_
.

x
y
v
2
v
1
v
O
Figure 6.2
Dans cette reprsentation, lorigine du vecteur est toujours le point O = (
0
0
), intersection des
axes de coordonnes x et y.
Dans le cas de lespace 3 dimensions, on choisit toujours un systme daxes orient positivement
comme le montre la gure ci-dessous :
La somme de deux vecteurs et le produit dun vecteur par un scalaire se calculent comme suit
(nous donnons les formules pour des vecteurs de lespace, le cas du plan tant similaire) :
Si v =
_
v
1
v
2
v
3
_
et w =
_
w
1
w
2
w
3
_
alors
v +w =
_
_
v
1
+w
1
v
2
+w
2
v
3
+w
3
_
_
,
kv =
_
_
kv
1
kv
2
kv
3
_
_
4.1. DFINITIONS ET RGLES DE CALCUL 51

.
.
.
.
.
.
.
v
1
v
2
v
3
v
y
z
x
Figure 6.4 : v =
_
_
v
1
v
2
v
3
_
_
.
Figure 6.5 :
_
_
x
y
z
_
_
a lorientation positive.
52 CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS LESPACE
et
v =
_
_
v
1
v
2
v
3
_
_
.
4.1.2 Proprits du calcul vectoriel
Thorme 4.2. (a) u +v = v +u
(b) (u +v) +w = u + (v +w)
(c) u + 0 = 0 +u = u
(d) u + (u) = 0
(e) k(u) = (k)u
(f ) k(u +v) = ku +kv
(g) (k +)u = ku +u
Soit v un vecteur. On note | v | son module. Cest un nombre positif ou nul qui est aussi appel
la norme de v. Si u = (
u
1
u
2
) alors
| u |=
_
u
2
1
+u
2
2
et, de mme, si u =
_
u
1
u
2
u
3
_
alors
| u |=
_
u
2
1
+u
2
2
+u
2
3
.
Ceci dcoule du thorme de Pythagore.
Un vecteur de norme 1 est appel vecteur unit.
4.2 Le produit scalaire
On va dnir le produit scalaire de deux vecteurs u et v dans le plan ou dans lespace de dimension
3. Le produit scalaire de deux vecteurs est un scalaire. Soient u = (
u
1
u
2
) et v = (
v
1
v
2
) deux vecteurs
dans le plan. On dnit le produit scalaire par
u v = u
1
v
1
+u
2
v
2
.
Soient u =
_
u
1
u
2
u
3
_
et v = (
v
1
,v
2
,v
3 ) deux vecteurs dans lespace de dimension 3. On dnit le produit
scalaire par
u v = u
1
v
1
+u
2
v
2
+u
3
v
3
Le produit scalaire a les proprits suivantes :
Thorme 4.3. (1) u v = v u
(2) u v = (u v)
(3) (u +v) w = u w +v w
(4) u u 0
(5) u u = 0 si et seulement si u = 0.
(6) u u =| u |
2
Dmonstration. Ces proprits sont des consquences immdiates de la dnition. Par exemple, si
u = (
u
1
u
2
) alors
u u = u
2
1
+u
2
2
.
Mais
| u |=
_
u
2
1
+u
2
2
et donc
u u =| u |
2
,
ce qui dmontre (6).
4.2. LE PRODUIT SCALAIRE 53
Nous rappelons maintenant un rsultat de trigonomtrie. Considrons le triangle suivant :
/
/
/
/
/
/
`
`
`
`
`
`
`
`
`

a
b
c

On a alors
Thorme 4.4 (Thorme du cosinus). Soient a, b, c les cts dun triangle et , , ses angles
comme dans la gure ci-dessus. Alors
a
2
= b
2
+c
2
2 b c cos().
Dmonstration. Soit H le pied de la hauteur issue du sommet C.
/
/
/
/
/
/
`
`
`
`
`
`
`
`
`

a
b
c

A
C
B
H
Appliquons le thorme de Pythagore dans le triangle rectangle BCH :
a
2
= BH
2
+CH
2
.
Or, CH = b sin() et BH = c b cos(). Ainsi
a
2
= c
2
2 b c cos() +b
2
cos
2
() +b
2
sin
2
()
= b
2
+c
2
2 b c cos()
Thorme 4.5. Soient u et v deux vecteurs non nuls, et soit langle quils forment. Alors
u v =| u | | v | cos()
Dmonstration. On a
| v u |
2
= (v u) (v u)
= v v +u u 2u v
= | v |
2
+ | u |
2
2u v .
Par le thorme du cosinus, on a :
| v u |
2
=| v |
2
+ | u |
2
2 | u | | v | cos() .
Donc
u v =| u | | v | cos() .
Ceci dmontre le thorme.
54 CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS LESPACE

`
`
`
`
`
`
`
u
v
v u

Figure 6.8
Thorme 4.6. Soient u et v deux vecteurs non nuls. Alors u et v sont orthogonaux si et seulement
si
u v = 0 .
Dmonstration. Comme
u v =| u | | v | cos() .
on a u v = 0 si et seulement si cos() = 0 et donc si et seulement si =

2
et donc si et seulement
si u et v sont orthogonaux.
Remarque 4.7. On convient en gnral que le vecteur nul est orthogonal tous les vecteurs. Ainsi,
lnonc du thorme 4.6 reste vrai, mme si lun des deux vecteurs est nul, bien que langle entre
u et v ne soit pas dni.
4.2.1 Projection orthogonale

u
v
Figure 6.9
La projection (orthogonale) de u sur v est note
proj
v
u.
Le thorme suivant nous donne le lien entre la projection et le produit scalaire :
Thorme 4.8.
proj
v
u =
u v
| v |
2
v
Posons w
1
= proj
v
u. Comme w
1
est parallle v, on peut lcrire
w
1
= v
pour un certain scalaire . On a :
u = w
1
+w
2
.
4.3. LE PRODUIT VECTORIEL (CROSS PRODUCT) 55
.
.
.
.
.
.
.
.
.
.
.
. .
..
~ ~
\
\ /
/
w
2
w
1
v
u
Figure 6.10
Dmonstration.
Calculons le produit scalaire avec v. On a :
u v = (w
1
+w
2
) v =
= w
1
v +w
2
v .
Mais w
2
v = 0, car w
2
et v sont orthogonaux. Il reste alors
u v = w
1
v = (v) v =
= v v = | v |
2
do
=
u v
| v |
2
.
On a donc
proj
v
u =
u v
| v |
2
v.
Thorme 4.9. Soit langle form par les vecteurs u et v. Alors
| proj
v
u |=| u | [cos()[ .
Dmonstration. Par les thormes 4.8 et 4.5, on a
| proj
v
u | =
[u v[
| v |
2
| v | =
[u v[
| v |
=
| u | | v | cos()
| v |
=| u | [ cos()[.
4.3 Le produit vectoriel (cross product)
Le produit vectoriel associe deux vecteurs de lespace u et v un troisime vecteur, not u v,
et dni de la faon suivante :
Dnition 4.10. Soient u =
_
u
1
u
2
u
3
_
et v =
_
v
1
v
2
v
3
_
deux vecteurs. Leur produit vectoriel est le vecteur
u v dni par
56 CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS LESPACE
u v =
_
_
u
2
v
3
u
3
v
2
u
3
v
1
u
1
v
3
u
1
v
2
u
2
v
1
_
_
=
_
_
_
_
_
_
_
_

u
2
v
2
u
3
v
3

u
1
v
1
u
3
v
3

u
1
v
1
u
2
v
2

_
_
_
_
_
_
_
_
.
Posons
i =
_
_
1
0
0
_
_
, j =
_
_
0
1
0
_
_
, et k =
_
_
0
0
1
_
_
.
Alors
u v =

i u
1
v
1
j u
2
v
2
k u
3
v
3

.
Le produit vectoriel satisfait les proprits suivantes :
Thorme 4.11. Si u, v et w sont des vecteurs dans lespace de dimension 3, on a :
(a) u (u v) = 0 u v est orthogonal u
(b) v (u v) = 0 u v est orthogonal v
(c) | u v |
2
=| u |
2
| v |
2
(u v)
2
identit de Lagrange.
(d) u (v w) = (u w)v (u v)w
(e) (u v) w = (u w)v (v w)u
Dmonstration. (a) Soient u =
_
u
1
u
2
u
3
_
et v =
_
v
1
v
2
v
3
_
. Alors
u (u v) =
_
_
u
1
u
2
u
3
_
_

_
_
u
2
v
3
u
3
v
2
u
3
v
1
u
1
v
3
u
1
v
2
u
2
v
1
_
_
=
= u
1
(u
2
v
3
u
3
v
2
) +u
2
(u
3
v
1
u
1
v
3
) +u
3
(u
1
v
2
u
2
v
1
) =
= u
1
u
2
u
3
u
1
u
3
v
2
+u
2
u
3
v
1
u
1
u
2
v
3
+u
1
u
3
v
2
u
2
u
3
v
1
= 0 .
(b) calcul similaire (a)
(c) On a
| u v |
2
= (u
2
v
3
u
3
v
2
)
2
+ (u
3
v
1
u
1
v
3
)
2
+ (u
1
v
2
u
2
v
1
)
2
et
| u |
2
| v |
2
(u v)
2
= (u
2
1
+u
2
2
+u
3
3
)(v
2
1
+v
2
2
+v
2
3
) (u
1
v
1
+u
2
v
2
+u
3
v
3
)
2
et un calcul direct montre que les deux termes de droites sont gaux.
(d) Les galits (d) et (e) se montrent de manire similaire.
Le produit vectoriel est bilinaire et anti-symtrique. En dautres termes, on a
Thorme 4.12. (a) u v = (v u)
(b) u (v +w) = (u v) + (u w)
(c) (u +v) w = (u w) + (v w)
(d) k(u v) = (ku) v = u (kv)
(e) u 0 = 0 u = 0
4.3. LE PRODUIT VECTORIEL (CROSS PRODUCT) 57
(f ) u u = 0 .
La notion de produit vectoriel est lie celle de colinarit par le thorme suivant :
Thorme 4.13. Soient u et v deux vecteurs non nuls de lespace de dimension 3. Les armations
(1) et (2) sont quivalentes :
(1) u et v sont colinaires (cest--dire u = v)
(2) u v = 0.
Dmonstration. (1) = (2) : Supposons que u = v. Alors
u v = (v) v = (v v) = 0.
ce qui dmontre (2).
Montrons maintenant limplication inverse (2) = (1) : Soient u =
_
u
1
u
2
u
3
_
et v =
_
v
1
v
2
v
3
_
et
u v =
_
u
2
v
3
u
3
v
2
u
3
v
1
u
1
v
3
u
1
v
2
u
2
v
1
_
. Supposons que u v = 0. On a donc
u
2
v
3
u
3
v
2
= 0
u
3
v
1
u
1
v
3
= 0
u
1
v
2
u
2
v
1
= 0 .
1er cas : Si u
1
,= 0 et u
2
= u
3
= 0, les quations deviennent
0 = 0
u
1
v
3
= 0
u
1
v
2
= 0 .
Comme u
1
,= 0, ceci entrane v
2
= v
3
= 0 et donc
u =
_
u
1
0
0
_
v =
_
v
1
0
0
_
.
Comme v est non nul, on a v
1
,= 0, do u = v avec =
u
1
v
1
ce qui dmontre (1).
2me cas : Supposons maintenant que u
1
,= 0 et u
2
,= 0. Si v
2
= 0 la 1-re quation devient
u
2
v
3
= u
3
v
2
= 0.
Comme u
2
,= 0, ceci entrane v
3
= 0. Comme par hypothse v est non nul, on doit avoir v
1
,= 0.
Alors par la 3me quation, on a
u
1
v
2
= u
2
v
1
,= 0
ce qui implique v
2
,= 0 ce qui est absurde. Ainsi, on a donc v
1
,= 0 et v
2
,= 0.
Posons
=
u
1
v
1
.
Alors la 3-me quation donne
u
2
v
2
=
et par la 2me quation on a
u
3
v
1
= u
1
v
3
ce qui implique
u
3
=
u
1
v
1
v
3
= v
3
.
En conclusion, on a
u = v
ce qui dmontre (2).
58 CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS LESPACE
4.3.1 Interprtation gomtrique du produit vectoriel
Nous avons vu que
| u v |
2
=| u |
2
| v |
2
(u v)
2
(identit de Lagrange). Soit langle form par u et v. Alors on a :
u v =| u | | v | cos() .
On a donc
| u v |
2
= | u |
2
| v |
2
| u |
2
| v |
2
cos
2

= | u |
2
| v |
2
(1 cos
2
)
= | u |
2
| v |
2
sin
2
.
On obtient donc
Thorme 4.14.
| u v |=| u | | v | sin()
Dmonstration. Comme
0
on a
sin() 0 .
et donc lgalit cherche.
Considrons maintenant un paralllogramme dont les cts sont les vecteurs u et v :

h
u
v

Figure 6.12 : h =| v | sin()


Laire A de ce paralllogramme se calcule de la faon suivante :
A = (base)(hauteur)
=| u | | v | sin()
=| u v | .
On obtient donc le thorme suivant qui donne une interprtation gomtrique du produit vec-
toriel de deux vecteurs :
Thorme 4.15. La norme | u v | est gale laire du paralllogramme dtermin par u et v.
En rsum, u v est un vecteur perpendiculaire u et v, et de longueur (norme) gale laire du
paralllogramme dtermin par u et v. De plus, lorientation du triplet (u, v, u v) est positive
4.4. LE PRODUIT MIXTE (TRIPLE PRODUCT) 59

u v
u
v
Figure 6.13
4.4 Le produit mixte (triple product)
Dnition 4.16. Soient u, v et w des vecteurs de lespace de dimension 3. On dnit le produit
mixte des vecteurs u, v et w par
[u, v, w] = u (v w) .
Cest un scalaire. Si u =
_
u
1
u
2
u
3
_
, v =
_
v
1
v
2
v
3
_
et w =
_
w
1
w
2
w
3
_
alors
[u, v, w] = u (v w)
= u
_

v
2
w
2
v
3
w
3

v
1
w
1
v
3
w
3

j +

v
1
w
1
v
2
w
2

k
_
=

v
2
w
2
v
3
w
3

u
1

v
1
w
1
v
3
w
3

u
2
+

v
1
w
1
v
2
w
2

u
3
=

u
1
v
1
w
1
u
2
v
2
w
2
u
3
v
3
w
3

.
Thorme 4.17. Soient u, v et w trois vecteurs de lespace. Alors
(1) [u, v, w] = [w, u, v] = [v, w, u] = [v, u, w] = [u, w, v] = [w, v, u]
(2) [u, v, w] = [u, v, w] pour tout scalaire .
(3) [u, v, w] = 0 si et seulement sil existe des scalaires , , non tous nuls tels que u+v+w =
0.
Dmonstration. (1) et (2) dcoulent directement de la dnition. Montrons alors la proprit (3).
Supposons que
u +v +w = 0
avec , , non tous nuls. Sans perte de gnralit, on peut supposer ,= 0.
Alors
u = v +w
avec
=

et =

,
et
[u, v, w] = (v +w) (v w)
= v (v w)
. .
0
+w (v w)
. .
0
= 0 .
60 CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS LESPACE
Rciproquement, supposons que [u, v, w] = 0. On a donc
(u v) w = 0
cest--dire que u v est orthogonal w. Mais u v est aussi orthogonal u et v. Ceci entrane
que u, v et w sont coplanaires et donc que lon peut crire
w = u +v
ce qui termine la dmonstration.
Le produit mixte peut galement tre interprt gomtriquement ce qui est lobjet du thorme
suivant.
Thorme 4.18. (1) Soit u = (
u
1
u
2
) et v = (
v
1
v
2
) deux vecteurs de R
2
. Alors la valeur absolue du
dterminant

u
1
v
1
u
2
v
2

est gal laire du paralllogramme dni par les vecteurs u et v.


(2) Soient u =
_
u
1
u
2
u
3
_
, v =
_
v
1
v
2
v
3
_
et w =
_
w
1
w
2
w
3
_
trois vecteurs de R
3
. Alors la valeur absolue du
dterminant

u
1
v
1
w
1
u
2
v
2
w
2
u
3
v
3
w
3

est gal au volume du paralllpipde dtermin par ces trois vecteurs


Dmonstration. (1) On considre u et v comme vecteurs de lespace de dimension 3 :
u =
_
u
1
u
2
0
_
et v =
_
v
1
v
2
0
_
.
Alors
u v =

i u
1
v
1
j u
2
v
2
k 0 0

u
1
v
1
u
2
v
2

k .
Laire du paralllogramme dtermin par u et v est
| u v | =

det
_
u
1
v
1
u
2
v
2
_
k

det
_
u
1
v
1
u
2
v
2
_

| k |=

det
_
u
1
v
1
u
2
v
2
_

.
(2) Prenons le paralllogramme dtermin par v et w comme base du paralllpipde dtermin par
u, v et w. Laire de la base est donc
| v w |
et la hauteur du paralllpipde est la projection orthogonale de u sur v w .
On a
h =| proj
vw
u |=
[u (v w)[
| v w |
et le volume V du paralllpipde est alors
V = (aire de la base) (hauteur)
=| v w |
[u (v w)[
| v w |
= [u (v w)[
qui est donc bien la valeur absolue du dterminant

u
1
v
1
w
1
u
2
v
2
w
2
u
3
v
3
w
3

.
4.5. DROITES ET PLANS DANS LESPACE DE DIMENSION 3 61
Figure 6.14 : h = hauteur
4.5 Droites et plans dans lespace de dimension 3
4.5.1 Equation du plan passant par un point P
0
et ayant vecteur normal
n
Soit P
0
=
_
x
0
y
0
z
0
_
un point de lespace de dimension 3 et n =
_
n
1
n
2
n
3
_
un vecteur.
Figure 6.15
Le plan passant par P
0
et ayant n comme vecteur normal est form des points P tels que le
vecteur

P
0
P est orthogonal au vecteur n. On a donc

P
0
P n = 0 .
Si P =
_
X
Y
Z
_
alors

P
0
P =
_
Xx
0
Y y
0
Zz
0
_
et la condition

P
0
P n = 0 scrit
_
Xx
0
Y y
0
Zz
0
_

_
n
1
n
2
n
3
_
= 0
ou encore
n
1
(X x
0
) +n
2
(Y y
0
) +n
3
(Z z
0
) = 0 .
Exemple 4.19. Lquation du plan passant par le point P
0
=
_
2
5
6
_
et perpendiculaire au vecteur
n =
_
1
3
2
_
est
(X 2) + 3(Y + 5) 2(Z 6) = 0
ou encore
X + 3Y 2Z + 25 = 0.
Thorme 4.20. Soient a, b, c, d des scalaires tels que (a, b, c) ,= (0, 0, 0). Alors lquation
aX +bY +cZ +d = 0
62 CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS LESPACE
est lquation dun plan ayant comme vecteur normal le vecteur
n =
_
_
a
b
c
_
_
.
Dmonstration. Par hypothse, les scalaires a, b, c sont non tous nuls. Nous pouvons supposer que
a ,= 0. Alors lquation
aX +bY +cZ +d = 0
peut tre rcrite comme
a
_
X +
d
a
_
+bY +cZ = 0 .
Mais ceci est lquation du plan passant par le point
_
d/a
0
0
_
et ayant comme vecteur normal le
vecteur
_
a
b
c
_
.
4.5.2 Droites dans lespace de dimension 3
Soit L la droite passant par le point P
0
= (x
0
, y
0
, z
0
) et parallle au vecteur v = (a, b, c). Alors L
est constitue des points P = (X, Y, Z) tels que le vecteur

P
0
P est parallle au vecteur v. Autrement
dit :

P
0
P = v
pour un scalaire . On a donc
_
_
X x
0
Y y
0
Z z
0
_
_
=
_
_
a
b
c
_
_
ou, de manire quivalente,
_

_
X x
0
= a
Y y
0
= b
Z z
0
= c.
Ce systme est est appel systme dquations paramtriques de la droite L.
Thorme 4.21. La distance D entre le point P
0
=
_
x
0
y
0
z
0
_
et le plan dquation
aX +bY +cZ +d = 0
est donne par
D =
[ax
0
+by
0
+cz
0
+d[

a
2
+b
2
+c
2
.
Figure 6.16
Dmonstration.
4.5. DROITES ET PLANS DANS LESPACE DE DIMENSION 3 63
Soit Q =
_
x
1
y
1
z
1
_
un point du plan. On place le vecteur normal n au point Q. La distance de P
0
au plan est gale la norme de la projection orthogonale du vecteur

QP
0
sur le vecteur n :
Donc
D =| proj
n

QP
0
|=
[

QP
0
n[
| n |
.
On a

QP
0
=
_
x
0
x
1
y
0
y
1
z
0
z
1
_
et ainsi

QP
0
n =
_
_
x
0
x
1
y
0
y
1
z
0
z
1
_
_

_
_
a
b
c
_
_
= a(x
0
x
1
) +b(y
0
y
1
) +c(z
0
z
1
).
Comme
| n |=
_
a
2
+b
2
+c
2
,
on a
D =
[a(x
0
x
1
) +b(y
0
y
1
) +c(z
0
z
1
)[

a
2
+b
2
+c
2
.
Or Q =
_
x
1
y
1
z
1
_
est un point du plan, ce qui entrane que ax
1
+ by
1
+ cz
1
+ d = 0 et donc que
d = ax
1
by
1
cz
1
. On obtient nalement
D =
[ax
0
+by
0
+cz
0
+d[

a
2
+b
2
+c
2
64 CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS LESPACE
Chapitre 5
Espaces euclidiens et applications
linaires
5.1 Espaces de dimension n
5.1.1 Dnitions et notations
Lensemble des nombres rels est not R. Lensemble des nombres rels R est souvent reprsent
par une droite. Cest un espace de dimension 1. Le plan est form des couples (
a
1
a
2
) de nombres rels.
Il est not R
2
. Lespace de dimension 3 est constitu des triplets de nombres rels
_
a
1
a
2
a
3
_
. Il est not
R
3
. Le symbole
_
a
1
a
2
a
3
_
a deux interprtations gomtriques :
1. Un point

_
_
a
1
a
2
a
3
_
_
Figure 7.1
2. Un vecteur

_
_
a
1
a
2
a
3
_
_
Figure 7.2
65
66 CHAPITRE 5. ESPACES EUCLIDIENS ET APPLICATIONS LINAIRES
On gnralise ces notions en considrant aussi des espaces de dimension n pour tout entier positif
n = 1, 2, 3, 4, . . . . Les lments de lespace de dimension n sont les n-uples
_
a
1
.
.
.
a
n
_
de nombres rels.
Lespace de dimension n est not R
n
. Comme en dimension 3, le n-uple
_
a
1
.
.
.
a
n
_
dnote aussi bien le
point que le vecteur de lespace de dimension n.
Dnition 5.1 (Somme de deux vecteurs). Soient u =
_
u
1
.
.
.
u
n
_
et v =
_
v
1
.
.
.
v
n
_
deux vecteurs de R
n
.
Leur somme est par dnition le vecteur
u +v =
_
_
_
u
1
+v
1
.
.
.
u
n
+v
n
_
_
_.
Dnition 5.2 (Produit dun vecteur par un scalaire). Soit u =
_
u
1
.
.
.
u
n
_
un vecteur et un scalaire.
Alors
u =
_
_
_
u
1
.
.
.
u
n
)
_
_
_.
Le vecteur nul de R
n
est le vecteur 0 =
_
0
.
.
.
0
_
.
Soit u =
_
u
1
.
.
.
u
n
_
un vecteur de R
n
. Alors son oppos est le vecteur u =
_
u
1
.
.
.
u
n
_
.
Thorme 5.3. Soient u =
_
u
1
.
.
.
u
n
_
, v =
_
v
1
.
.
.
v
n
_
et w =
_
w
1
.
.
.
w
n
_
des vecteurs de R
n
. Alors :
(a) u +v = v +u
(b) u + (v +w) = (u +v) +w
(c) u + 0 = 0 +u = u
(d) u + (u) = 0
(e) (u) = ()u
(f ) (u +v) = u +v
(g) ( +)u = u +u
(h) 1 u = u
5.1.2 Produit scalaire
Soient u =
_
u
1
.
.
.
u
n
_
et v =
_
v
1
.
.
.
v
n
_
deux vecteurs de R
n
. On dnit leur produit scalaire par
u v = u
1
v
1
+u
2
v
2
+ +u
n
v
n
.
Cest un scalaire. Remarquons que cette dnition gnralise la notion de produit scalaire dans le
plan R
2
et dans lespace R
3
.
Thorme 5.4. Soient u, v et w des vecteurs de R
n
et soit un scalaire. Alors on a :
(a) u v = v u
(b) (u +v) w = u w +v w
(c) (u) v = (u v)
(d) v v 0.
(e) v v = 0 si et seulement si v = 0.
5.1. ESPACES DE DIMENSION N 67
5.1.3 Norme et distance dans R
n
Soit u =
_
u
1
.
.
.
u
n
_
un vecteur. On dnit la norme de u (ou norme euclidienne de u ) par
| u |=

u u =
_
u
2
1
+ +u
2
n
.
Soient u =
_
u
1
.
.
.
u
n
_
et v =
_
v
1
.
.
.
v
n
_
deux vecteurs. La distance (ou distance euclidienne) entre u et v
est dnie par
d(u, v) =| u v |=
_
(u
1
v
1
)
2
+ (u
2
v
2
)
2
+ + (u
n
v
n
)
2
.
Exemple 5.5. Soient u =
_
1
6
4
3
_
et v =
_
3
7
2
2
_
. Alors leur distance dans R
4
est
d(u, v) =
_
(1 3)
2
+ (6 7)
2
+ (4 2)
2
+ (3 + 2)
2
=

4 + 1 + 36 + 25 =

66.
Thorme 5.6. (Ingalit de Cauchy-Schwarz)
Soient u et v des vecteurs de R
n
. Alors on a
[u v[ | u | | v | .
Thorme 5.7. Soient u et v des vecteurs de R
n
, et soit un scalaire. Alors on a :
(a) | u | 0
(b) | u | = 0 si et seulement si u = 0
(c) | u |= [[ | u |
(d) | u +v | | u | + | v | (Ingalit du triangle)
Dmonstration. (a) et (b) dcoulent des points (d) et (e) du thorme 5.4.
(c) Soit u =
_
u
1
.
.
.
u
n
_
. On a u =
_
u
1
.
.
.
u
n
_
et donc
| u | =
_
(u
1
)
2
+ + (u
n
)
2
=
_

2
u
2
1
+ +
2
u
2
n
=

2
_
u
2
1
+ +u
2
n
= [[
_
u
2
1
+ +u
2
n
= [[ | u | .
(d) Soient u =
_
u
1
dotsu
n
_
et v = (
v
1
v
n
). On a
| u +v |
2
= (u +v) (u +v)
= u u +v v + 2u v
=| u |
2
+ | v |
2
+2u v.
Remarquons que u v [u v[ car, pour nimporte quel scalaire a, on a a [a[.
On obtient alors
| u +v |
2
| u |
2
+ | v |
2
+2 | u | | v |= (| u | + | v |)
2
et donc
| u +v || u | + | v |
Corollaire 5.8. Soient u, v et w des vecteurs dans R
n
, et soit un scalaire. Alors
68 CHAPITRE 5. ESPACES EUCLIDIENS ET APPLICATIONS LINAIRES

u +v
u
v
Figure 7.3
(a) d(u, v) 0
(b) d(u, v) = 0 si et seulement si u = v.
(c) d(u, v) = d(v, u)
(d) d(u, v) d(u, w) +d(w, v) (Ingalit du triangle)
Thorme 5.9. Soient u et v des vecteurs de R
n
. Alors
u v =
1
4
| u +v |
2

1
4
| u v |
2
.
Dmonstration.
| u +v |
2
= (u +v) (u +v) =| u |
2
+ | v |
2
+2u v
| u v |
2
= (u v) (u v) =| u |
2
+ | v |
2
2u v
Donc
| u +v |
2
| u v |
2
= 4u v
do
u v =
1
4
| u +v |
2

1
4
| u v |
2
.
Dnition 5.10. On dit que deux vecteurs u et v de R
n
sont orthogonaux si
u v = 0.
Thorme 5.11 (Thorme de Pythagore dans R
n
). Soient u et v deux vecteurs de R
n
orthogonaux.
Alors
| u +v |
2
=| u |
2
+ | v |
2
.
Dmonstration.
| u +v |
2
= (u +v) (u +v)
= | u |
2
+ | v |
2
+2u v
= | u |
2
+ | v |
2
car u v = 0.
5.1.4 Reprsentation matricielle des vecteurs de R
n
Soit u =
_
u
1
.
.
.
u
n
_
un vecteur de R
n
. On lappelle vecteur colonne, et on le considre naturelle-
ment u comme une matrice de taille n1. Parfois, on rencontre aussi des vecteurs ligne : on peut
voir u comme une matrice 1n, de la forme u = (u
1
, . . . , u
n
). En fait, le vecteur ligne correspondant
u est le transpos u
T
du vecteur colonne u.
5.1. ESPACES DE DIMENSION N 69
Les oprations de somme et de produit par un scalaire dnies ci-dessus se transposent parfaite-
ment lcriture matricielle et lon retrouve ainsi les oprations dnies sur les matrices introduites
au chapitre 2 :
u +v =
_
_
_
u
1
.
.
.
u
n
_
_
_+
_
_
_
v
1
.
.
.
v
n
_
_
_ =
_
_
_
u
1
+v
1
.
.
.
u
n
+v
n
_
_
_
et
u =
_
_
_
u
1
.
.
.
u
n
_
_
_ =
_
_
_
u
1
.
.
.
u
n
_
_
_.
5.1.5 Formule matricielle du produit scalaire
Soient
u =
_
_
_
u
1
.
.
.
u
n
_
_
_ et v =
_
_
_
v
1
.
.
.
v
n
_
_
_
deux vecteurs. On a
v
T
=
_
v
1
v
2
. . . v
n
_
et ainsi
v
T
u = (v
1
. . . v
n
)
_
_
_
u
1
.
.
.
u
n
_
_
_ = u
1
v
1
+ +u
n
v
n
= u v.
On a donc
u v = v
T
u.
Exemple 5.12.
u =
_
_
_
_
1
3
6
4
_
_
_
_
, v =
_
_
_
_
2
3
5
0
_
_
_
_
u v = v
T
u = (2 3 5 0)
_
_
_
_
1
3
6
4
_
_
_
_
= (41) = 41.
Soit A une matrice de taille n n et u un vecteur colonne (i.e. une matrice n 1). Le produit
matriciel Au est une matrice n 1, donc un vecteur colonne. On peut alors considrer le produit
scalaire de Au avec un autre vecteur v,
(Au) v
On a ainsi
(Au) v = v
T
(Au)
= (v
T
A)u = (A
T
v)
T
u =
= u (A
T
v).
On obtient donc la formule
Thorme 5.13.
(Au) v = u (A
T
v).
On verra plus tard (matrices orthogonales) la signication de cette quation.
70 CHAPITRE 5. ESPACES EUCLIDIENS ET APPLICATIONS LINAIRES
Exemple 5.14. Posons
A =
_
_
1 2 3
2 4 1
1 0 1
_
_
u =
_
_
1
2
4
_
_
et v =
_
_
2
0
5
_
_
.
Alors
Au =
_
_
1 2 3
2 4 1
1 0 1
_
_
_
_
1
2
4
_
_
=
_
_
7
10
5
_
_
et
A
T
v =
_
_
1 2 1
2 4 0
3 1 1
_
_
_
_
2
0
5
_
_
=
_
_
7
4
1
_
_
.
On obtient ainsi
(Au) v = (v
T
)(Au) =
_
2 0 5
_
_
_
7
10
5
_
_
= 14 + 0 + 25 = 11
et
u (A
T
v) = (A
T
v)
T
u =
_
7 4 1
_
_
_
1
2
4
_
_
= 7 + 8 4 = 11.
5.1.6 Multiplication des matrices et produit scalaire
Soient A = (a
ij
) une matrice de taille mr, et B = (b
ij
) une matrice de taille r n. Nous avons
vu que lon peut former le produit matriciel AB. On obtient une matrice de taille mn. Llment
dindice ij de la matrice AB est
a
i1
b
1j
+a
i2
b
2j
+ +a
ir
b
rj
.
Remarquons que ceci est aussi le produit
_
a
i1
a
i2
. . . a
ir
_
_
_
_
_
_
b
1j
b
2j
.
.
.
b
rj
_
_
_
_
_
Autrement dit, cest le produit scalaire du i-me vecteur ligne de A avec le j-me vecteur colonne
de B. Notons l
1
, . . . , l
m
les vecteurs ligne de A, et c
1
, . . . , c
n
les vecteurs colonne de B. On a alors
AB =
_
_
_
_
_

1
c
1

1
c
2
. . .
1
c
n

2
c
1

2
c
2
. . .
2
c
n
.
.
.
.
.
.
.
.
.

m
c
1

m
c
2
. . .
m
c
n
_
_
_
_
_
En particulier, un systme dquations linaires peut tre exprim grce au produit scalaire comme
suit : soit Ax = b un systme linaire o A est la matrice des coecients du systme de taille mn,
b =
_
_
_
b
1
.
.
.
b
m
_
_
_
est le second membre et
x =
_
_
_
x
1
.
.
.
x
n
_
_
_
5.2. APPLICATIONS LINAIRES 71
le vecteur colonne des inconnues.
Soient
1
, . . . ,
m
les lignes de la matrice A. Ce sont des vecteurs ligne (matrices de taille 1 n).
Alors le systme peut tre exprim comme
_
_
_
_
_

1
x

2
x
.
.
.

m
x
_
_
_
_
_
= b =
_
_
_
b
1
.
.
.
b
m
_
_
_ .
5.2 Applications linaires
5.2.1 Rappels sur les applications
Soient A et B deux ensembles. Une application f : A B associe tout lment a de A
un unique lment f(a) de B. Llment f(a) est appel limage de a par f (ou la valeur de f en
a). Lensemble A est appel le domaine de dnition de f. Le sous-ensemble f(A) de lensemble B
forms des lments f(a), o a est un lment de A, sappelle limage de A par f. Lorsque A = R,
on dit que f est une application (ou fonction) dune variable relle. Lorsque A = R
n
, on dit que f
est une application (ou fonction) de n variables relles. Lorsque B = R, on dit que f est valeurs
relles.
Exemples
(1)
f : R R
f(x) = x
2
est une fonction dune variable relle valeurs relles.
(2)
f : R
n
R
f(x
1
, . . . , x
n
) = x
2
1
+ +x
2
n
est une fonction valeurs relles, de n variables relles.
(3)
f : R R
f(x) = 3x
est une fonction dune variable relle valeurs relles.
Soient
f
1
: R
n
R
.
.
.
f
m
: R
n
R
m fonctions de n variables relles valeurs relles. On peut construire une application
f : R
n
R
m
dnie par
f(x
1
, . . . , x
n
) = (f
1
(x
1
, . . . , x
n
), . . . , f
m
(x
1
, . . . , x
n
)) .
72 CHAPITRE 5. ESPACES EUCLIDIENS ET APPLICATIONS LINAIRES
5.2.2 Applications linaires
Dnition 5.15. Une application f : R
n
R
m
dnie par f(x
1
, . . . , x
n
) = (w
1
, . . . , w
m
) est dite
linaire si
w
1
= a
11
x
1
+ a
12
x
2
+ . . . + a
1n
x
n
w
2
= a
21
x
1
+ a
22
x
2
+ . . . + a
2n
x
n
.
.
.
.
.
.
.
.
.
.
.
.
w
m
= a
m1
x
1
+ a
m2
x
2
+ . . . + a
mn
x
n
.
En notation matricielle, on a
f
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
=
_
_
_
_
_
w
1
w
2
.
.
.
w
m
_
_
_
_
_
=
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
ou encore
f(x) = w = Ax avec A = (a
ij
).
A est appele la matrice de lapplication f.
Exemple 5.16. La fonction f : R
4
R
3
dnie par
w
1
= 2x
1
+ 5x
2
+ 2x
3
7x
4
w
2
= 4x
1
+ 2x
2
3x
3
+ 3x
4
w
3
= 7x
1
3x
2
+ 9x
3
peut tre exprime sous forme matricielle comme suit :
_
_
w
1
w
2
w
3
_
_
=
_
_
2 5 2 7
4 2 3 3
7 3 9 0
_
_
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
.
Notation :
Soit f : R
n
R
m
une application linaire. On note [f] la matrice de f (appele aussi matrice
standard de f). Soit A une matrice mn. On note f
A
: R
n
R
m
lapplication linaire
f
A
(x) = Ax pour tout x R
n
.
Lapplication linaire induite par la matrice identit
f
I
(x) = Ix = x
est appele application identit, et note I ou Id. Lapplication linaire induite par la matrice nulle
0 de taille mn
f
0
(x) = 0x = 0
est appele application nulle, et note 0.
Remarque 5.17. Soit f : R
n
R
m
une application linaire. Alors f(0) = 0. En eet, si A est la
matrice standard de f, on a f(0) = A0 = 0.
5.2.3 Quelques exemples dapplications linaires
Rexion par rapport laxe Oy
La fonction
f : R
2
R
2
(
x
y
)
_
x
y
_
5.2. APPLICATIONS LINAIRES 73
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .

(x, y) (x, y)
Figure 7.6
est la rexion par rapport laxe Oy et sa matrice est
_
1 0
0 1
_
car
_
1 0
0 1
__
x
y
_
=
_
x
y
_
.
Rexion par rapport laxe Ox
La rexion par rapport laxe des x est donne par la matrice
_
1 0
0 1
_
.
Rexion par rapport la droite y = x
La rexion par rapport la droite y = x est donne par
f : R
2
R
2
(
x
y
) (
y
x
)
et sa matrice est
_
0 1
1 0
_
.
Rexions dans lespace
Lapplication
f : R
3
R
3
_
x
y
z
_

_
x
y
z
_
est la rexion par rapport au plan Oxy. Cest une application linaire et sa matrice est
_
_
1 0 0
0 1 0
0 0 1
_
_
.
De mme, la rection par rapport au plan Oxz est donne par la matrice
_
_
1 0 0
0 1 0
0 0 1
_
_
74 CHAPITRE 5. ESPACES EUCLIDIENS ET APPLICATIONS LINAIRES

.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
/
/
/
/
/
/
/
/
/
/
/
/
/
/
'
'
(y, x)
(x, y)
Figure 7.7
et la rection par rapport au plan Oyz par la matrice
_
_
1 0 0
0 1 0
0 0 1
_
_
.
Projections orthogonales
.
.
.
.
.
.
.
.
.
.
.
.
. .
(x, y)
(x, 0)
x
y
Figure 7.8
Lapplication
f : R
2
R
2
(
x
y
) (
x
0
)
est la projection orthogonale sur laxe Ox. Cest une application linaire donne par la matrice
_
1 0
0 0
_
.
Lapplication linaire
f : R
3
R
3
_
x
y
z
_

_
x
y
0
_
5.2. APPLICATIONS LINAIRES 75
est la projection orthogonale sur le plan Oxy et sa matrice est
_
_
1 0 0
0 1 0
0 0 0
_
_
.
De mme, la projection orthogonale sur le plan Oxz est donne par la matrice standard
_
_
1 0 0
0 0 0
0 0 1
_
_
,
et la projection orthogonale R
3
R
3
sur le plan Oyz par la matrice standard
_
_
0 0 0
0 1 0
0 0 1
_
_
.
5.2.4 Rotations
Soit f : R
2
R
2
la rotation dangle . On a
/
/
/
/
/
/
/
/
/
/
/
/
/
/
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. (x, y)
(w1, w2)

x
y
Figure 7.9 : Rotation dangle
x = r cos
y = r sin
Aprs rotation dangle , on obtient :
w
1
= r cos( +),
w
2
= r sin( +) .
En appliquant des formules trigonomtriques, on obtient
w
1
= r cos cos r sinsin
w
2
= r cos sin + r sincos
cest--dire
w
1
= x cos y sin
w
2
= x sin +y cos .
76 CHAPITRE 5. ESPACES EUCLIDIENS ET APPLICATIONS LINAIRES
Autrement dit, la rotation dangle est donne par la matrice standard
_
cos sin
sin cos
_
.
5.2.5 Composition dapplications linaires
Soient
f
A
: R
m
R
r
et
f
B
: R
r
R
n
deux applications linaires induites respectivement par les matrices A et B. Considrons leur com-
position
f
B
f
A
: R
m
R
n
dnie par (f
B
f
A
)(x) = f
B
(f
A
(x)).
Cest une application linaire et on a
(f
B
f
A
)(x) = f
B
(f
A
(x)) =
= B(Ax) = (BA)x
ce qui implique que
f
B
f
A
= f
BA
.
Autrement dit, la matrice associe la composition de deux applications linaires est gale au produit
de leurs matrices standard.
Exemple 5.18. Soit
f : R
2
R
2
la rection par rapport la droite y = x, et soit
g : R
2
R
2
la projection orthogonale sur laxe des y.

.
.
.
.
.
.
.
.
.
.
. .
/
/
/
/
/
/
/
/
/
/
'
'
\
\ /
/
v
x = y
g(f(v))
f(v)
Figure 7.10 : Composition de f puis de g
La matrice standard de f est
[f] =
_
0 1
1 0
_
et la matrice standard de g est
[g] =
_
0 0
0 1
_
5.3. PROPRITS DES APPLICATIONS LINAIRES 77

.
.
.
.
.
.
.
.
.
.
. .
x = y
v
g(v)
f(g(v))
x
y
Figure 7.11 : Composition de g puis de f
On a alors
[f g] = [f][g] =
_
0 1
1 0
_ _
0 0
0 1
_
=
_
0 1
0 0
_
et
[g f] = [g][f] =
_
0 0
0 1
_ _
0 1
1 0
_
=
_
0 0
1 0
_
Remarquons que
[g f] =
_
0 0
1 0
_
,=
_
0 1
0 0
_
= [f g]
ce qui montre que la composition dapplications linaires nest pas commutative en gnral.
5.3 Proprits des applications linaires
Dnition 5.19. Soient E
1
et E
2
deux ensembles et soit
f : E
1
E
2
une application. On dit que f est injective si f(x) = f(y) implique x = y. Autrement dit, deux
lments distincts ont des images distinctes.
On dit que f est surjective si pour tout z E
2
, il existe x E
1
avec f(x) = z. Autrement dit,
f(E
1
) = E
2
.
On dit que f est bijective si elle est injective et surjective. Autrement dit, f est bijective si, pour
tout z E
2
, il existe un unique x E
1
avec f(x) = z.
Soit A une matrice n n . Nous avons vu (thorme 2.32) que les proprits suivantes sont
quivalentes :
(1) A est inversible
(2) Pour toute matrice colonne w, de taille n 1, le systme
Ax = w
a une solution.
Dautre part, si pour toute matrice colonne w de taille n 1 le systme
Ax = w
a une solution, alors A est inversible. En eet, vu que pour tout w le systme a une solution, il existe
x
1
, x
2
, . . . , x
n
des matrices colonne telles que
Ax
1
=
_
_
_
_
_
_
_
1
0
0
.
.
.
0
_
_
_
_
_
_
_
, Ax
2
=
_
_
_
_
_
_
_
0
1
0
.
.
.
0
_
_
_
_
_
_
_
, . . . , Ax
n
=
_
_
_
_
_
_
_
0
.
.
.
0
0
1
_
_
_
_
_
_
_
.
78 CHAPITRE 5. ESPACES EUCLIDIENS ET APPLICATIONS LINAIRES
Ainsi,
A(x
1
x
2
. . . x
n
)
. .
=C
= I
n
et det(AC) = det(A) det(C) = 1. Le dterminant de A est donc non nul, ce qui est quivalent dire
que A est inversible. Do le thorme suivant :
Thorme 5.20. Soit A une matrice n n. Les proprits suivantes sont quivalentes :
(1) A est inversible
(2) Pour toute matrice colonne w de taille n 1, le systme
Ax = w
a une solution
(3) Pour toute matrice colonne w de taille n 1, le systme
Ax = w
a exactement une solution.
Soit f
A
: R
n
R
n
lapplication linaire de matrice standard A. Remarquons que la proprit
(2) ci-dessus est quivalente
(2) f
A
est surjective
et que (3) quivalent
(3) f
A
est bijective.
On a donc le thorme suivant :
Thorme 5.21. Soit A une matrice de taille n n, et soit f
A
: R
n
R
n
lapplication linaire
associe. Les proprits suivantes sont quivalentes :
(1) f
A
est injective
(2) f
A
est surjective
(3) f
A
est bijective
(4) A est inversible.
Dmonstration. Lquivalence des points (2), (3) et (4) dcoule du thorme prcdent.
Il sut donc de montrer que (1) est quivalent (4) par exemple.
Supposons f
A
injective. Soit x R
n
tel que f
A
(x) = 0. Alors Ax = 0. Or, on a aussi A0 = 0. Comme
f
A
est injective, on a ncessairement x = 0. Autrement dit, le systme Ax = 0 a une unique solution.
Le thorme 2.32 permet de conclure que la matrice A est inversible.
Rciproquement, supposons A inversible. Soient x
1
, x
2
R
n
tels que f
A
(x
1
) = f
A
(x
2
), cest--dire
tels que Ax
1
= Ax
2
. On a alors A(x
1
x
2
) = 0. A nouveau par le thorme 2.32, on en dduit que
x
1
= x
2
. Lapplication f
A
est donc injective.
Exemple 5.22. Soit
f : R
2
R
2
la projection sur laxe des x. Alors f nest pas injective. En eet,
f (
x
y
) = (
x
0
) pour tout y R
2
La matrice standard de f est
[f] =
_
1 0
0 0
_
.
Elle nest pas inversible, car det([f]) = 0. Lapplication f nest donc pas surjective : ceci se vrie
aisment car aucun point en-dehors de laxe des x nest dans limage de f.
5.3. PROPRITS DES APPLICATIONS LINAIRES 79
Soit
f
A
: R
n
R
n
une application linaire associe une matrice A inversible. Alors
f
A
1 : R
n
R
n
est aussi une application linaire et on a
f
A
(f
A
1(x)) = AA
1
x = Ix = x
f
A
1(f
A
(x)) = A
1
Ax = Ix = x
pour tout x dans R
n
. Lapplication f
A
1 est appele lapplication inverse de f
A
.
On dit quune application linaire f : R
n
R
n
est inversible si f = f
A
, o A est une matrice
inversible. Si f : R
n
R
n
est inversible, on note
f
1
: R
n
R
n
son inverse. Par le thorme 5.21, une application linaire est inversible si et seulement si elle est
bijective.
Exemple 5.23. Soit f : R
n
R
2
la rotation dangle . Alors f
1
: R
2
R
2
est la rotation
dangle .
On a
[f] =
_
cos sin
sin cos
_
_
f
1

=
_
cos sin
sin cos
_
=
_
cos () sin()
sin() cos()
_
.
Thorme 5.24. Une application
f : R
n
R
m
est linaire si et seulement si pour tous les vecteurs u, v de R
n
et pour tout scalaire , on a
(1) f(u +v) = f(u) +f(v)
(2) f(u) = f(u) .
Dmonstration. Supposons f : R
n
R
m
linaire, et soit A sa matrice standard. On a
f(u +v) = A(u +v) = Au +Av = f(u) +f(v)
et
f(u) = A(u) = Au = f(u) .
Rciproquement, supposons (1) et (2). Notons dabord que (1) implique que
f(v
1
+v
2
+ +v
r
) = f(v
1
) +f(v
2
) + +f(v
r
).
Posons
e
1
=
_
_
_
_
_
1
0
.
.
.
0
_
_
_
_
_
, e
2
=
_
_
_
_
_
_
_
0
1
0
.
.
.
0
_
_
_
_
_
_
_
, . . . , e
n
=
_
_
_
_
_
0
.
.
.
0
1
_
_
_
_
_
.
Soit A la matrice n n dont les colonnes sont
f(e
1
), f(e
2
), . . . , f(e
n
)
80 CHAPITRE 5. ESPACES EUCLIDIENS ET APPLICATIONS LINAIRES
et
x =
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
.
Alors
x = x
1
e
1
+x
2
e
2
+ +x
n
e
n
et donc
Ax = A(x
1
e
1
+x
2
e
2
+ +x
n
e
n
)
= x
1
Ae
1
+x
2
Ae
2
+ +x
n
Ae
n
= x
1
f(e
1
) +x
2
f(e
2
) + +x
n
f(e
n
)
= f(x
1
e
1
) +f(x
2
e
2
) + +f(x
n
e
n
)
= f(x
1
e
1
+x
2
e
2
+ +x
n
e
n
) = f(x).
On a alors que f = f
A
. Cest une application linaire.
Dnition 5.25. Les vecteurs
e
1
=
_
_
_
_
_
1
0
.
.
.
0
_
_
_
_
_
, e
2
=
_
_
_
_
_
_
_
0
1
0
.
.
.
0
_
_
_
_
_
_
_
, . . . , e
n
=
_
_
_
_
_
0
.
.
.
0
1
_
_
_
_
_
sont appels les vecteurs de base standard de R
n
.
La dmonstration prcdente a ainsi montr :
Thorme 5.26. Soit f : R
n
R
m
une application linaire, et soient e
1
, . . . , e
n
les vecteurs de
base standard de R
n
. Alors la matrice standard de f est donne par
[f] =
_
f(e
1
) f(e
2
) f(e
n
)
_
.
Chapitre 6
Espaces vectoriels
6.1 Dnition et premires proprits
Rappels et notations
1. Soit E un ensemble. La notation x E signie x est un lment de E ou x appartient
E. Par exemple, R signie est un nombre rel.
2. Soient E et E

deux ensembles. La notation E E

signie E est contenu dans E

ou E
est un sous-ensemble de E

.
3. Soient E, E

deux ensembles. Alors lensemble des couples


E E

= (e, e

) [ e E, e

sappelle le produit cartsien de E et E

.
Dnition 6.1 (Espace vectoriel). Soit V un ensemble muni de deux oprations : une addition
V V V
(u, v) u +v
et une multiplication par les scalaires
R V V
(, u) u.
On dit que V , muni de ces deux oprations, est un espace vectoriel si pour tout u, v, w V et tout
, R, on a les proprits suivantes :
(1) u +v = v +u
(2) u + (v +w) = (u +v) +w
(3) Il existe 0 V tel que 0 +u = u + 0 = u pour tout u V .
(4) Pour tout u V , il existe u V tel que u + (u) = 0
(5) (u +v) = u +v
(6) ( +)u = u +u
(7) (u) = ()u
(8) 1 u = u
Exemple 6.2. Lensemble V = R
n
muni des oprations habituelles daddition de vecteurs et de
produit dun vecteur par un scalaire est un espace vectoriel.
Exemple 6.3. Soit V lensemble des matrices de taille n m, muni de laddition des matrices et
de la multiplication dune matrice par un scalaire. Alors V est un espace vectoriel.
81
82 CHAPITRE 6. ESPACES VECTORIELS
Exemple 6.4. Soit V lensemble des fonctions
f : R R.
On dnit sur V une opration daddition :
(f +g)(x) = f(x) +g(x)
et une opration de multiplication par les scalaires
(f)(x) = f(x) pour tout R.
Ceci en fait un espace vectoriel. Les proprits sont faciles vrier. Par exemple, on dnit la
fonction nulle
0 : R R
par
0(x) = 0 pour tout x R.
Alors f + 0 = f pour toute fonction f, et on est donc lgitim crire 0 pour la fonction 0. Si
f : R R est une fonction, on dnit
f : R R
par
(f)(x) = f(x)
Les autres proprits se vrient facilement.
Exemple 6.5. Tout plan passant par lorigine est un espace vectoriel (par rapport aux oprations
habituelles sur les vecteurs). Le plan est donn par une quation de la forme
ax +by +cz = 0
o a, b et c sont des scalaires non tous nuls.
Notons V ce plan. Soient
_
x
0
y
0
z
0
_
et
_
x
1
y
1
z
1
_
deux lments de V . Autrement dit,
ax
0
+by
0
+cz
0
= 0
ax
1
+by
1
+cz
1
= 0.
Alors
_
x
0
+x
1
y
0
+y
1
z
0
+z
1
_
est aussi dans V car on a
a(x
0
+x
1
) +b(y
0
+y
1
) +c(z
0
+z
1
) = 0.
Les autres proprits sont aussi faciles vrier.
Remarque 6.6. Attention! Un plan ne contenant pas lorigine nest pas un espace vectoriel.
Thorme 6.7. Soit V un espace vectoriel, v V et R. Alors on a :
(a) 0 v = 0.
(b) 0 = 0
(c) (1) v = v
(d) Si v = 0, alors = 0 ou v = 0.
6.2. SOUS-ESPACES VECTORIELS 83
6.2 Sous-espaces vectoriels
Dnition 6.8. Un sous-ensemble W dun espace vectoriel V est un sous-espace vectoriel de V si
W est un espace vectoriel par rapport aux oprations de V .
Thorme 6.9. Soit V un espace vectoriel, et soit W un sous-ensemble de V . Alors W est un
sous-espace vectoriel de V si et seulement si les conditions suivantes sont vries :
(a) 0 W ;
(b) si u, v W, alors u +v W ;
(c) si u W et R, alors u W.
Dmonstration. Soit W un sous-espace vectoriel de V . Alors W satisfait aux axiomes qui dnissent
un espace vectoriel, en particulier on a (a) (b) et (c). Rciproquement, si W est un sous-ensemble
de V vriant (a), (b) et (c), alors il est facile de vrier que W est un espace vectoriel.
Terminologie : Soit W un sous-ensemble dun espace vectoriel V . Si la proprit (b) ci-dessus
est satisfaite, on dit que W est ferm par rapport laddition. Si (c) est satisfait, on dit que W est
ferm par rapport la multiplication par les scalaires.
Remarque 6.10. Soit V un espace vectoriel et W un sous-ensemble de V . Pour montrer que W
est un sous-espace vectoriel de V , il sut de vrier les proprits (b) et (c) du thorme ci-dessous.
En eet, en prenant = 0 dans (c), on a directement que 0 W.
Il est par contre souvent utile de commencer par vrier (a) ; ainsi, si 0 / W, on en dduit imm-
diatemment que W nest pas un sous-espace vectoriel.
Exemple 6.11. Soit M
n
lespace vectoriel de toutes les matrices de taille n n Soit S
n
le sous-
ensemble des matrices symtriques. Alors S
n
est un sous-espace vectoriel de M
n
. Il sut en eet de
vrier que la matrice nulle est symtrique, que la somme de deux matrices symtriques est encore
symtrique et nalement que le produit dune matrice symtrique par un scalaire est une matrice
symtrique.
Exemple 6.12. Soit V lespace vectoriel des fonctions f : R R et soit T
n
le sous-ensemble des
fonctions polynomiales de degr au plus n, autrement dit des fonctions de la forme
p : R R
p(x) = a
0
+a
1
x + +a
n
x
n
,
avec a
0
, a
1
, . . . , a
n
R. Alors T
n
est un sous-espace vectoriel de V . En eet :
(a) la fonction nulle est une fonction polynomiale ;
(b) soient p, q T
n
p(x) = a
0
+a
1
x + +a
n
x
n
q(x) = b
0
+b
1
x + +b
n
x
n
Alors
(p +q)(x) = p(x) +q(x) = (a
0
+b
0
) + (a
1
+b
1
)x + + (a
n
+b
n
)x
n
.
Donc p +q T
n
;
(2) soit p(x) = a
0
+a
1
x + +a
n
x
n
T
n
et R. Alors
(p)(x) = p(x) = a
0
+a
1
x + +a
n
x
n
.
Donc p T
n
.
Exemple 6.13. Notons C(R) lensemble des fonctions continues f : R R. Alors C(R) est un
espace vectoriel. Cest un sous-espace vectoriel de lespace vectoriel de toutes les fonctions f : R
R. Il sut de vrier que la somme de deux fonctions continues est continue et que si f C(R)
alors f est continue pour tout R.
84 CHAPITRE 6. ESPACES VECTORIELS
Notons C
1
(R) lensemble des fonctions f : R R qui sont drivables et de premire drive
continue. Alors C
1
(R) est un sous-espace vectoriel de C(R). Notons C
i
(R) lensemble des fonctions
f : R R qui sont drivables i fois et dont la i-me drive est continue. On a les inclusions
C
i
(R) C
i1
(R) C(R).
C
i
(R) est un sous-espace vectoriel de C(R) (et aussi de C
i1
(R)).
Notons C

(R) lensemble des fonctions f : R R qui sont indniment drivables et dont


toutes les drives sont continues. Alors C

(R) est un sous-espace vectoriel de C(R). On a les


inclusions despaces vectoriels
T
n
C

(R) C(R).
Remarque 6.14. Soit e
1
, e
2
la base standard de R
2
. Soit d
1
(respectivement d
2
) la droite passant
par lorigine et de vecteur directeur e
1
(respectivement e
2
). La runion de d
1
et de d
2
nest pas un
sous-espace vectoriel de R
2
. En eet, le vecteur
e
1
+e
2
=
_
1
0
_
+
_
0
1
_
=
_
1
1
_
nappartient ni d
1
, ni d
2
.
6.2.1 Espace des solutions dun systme dquations linaires homognes
Un autre exemple despace vectoriel est donn par lensemble des solutions dun systme linaire
homogne. Soit Ax = 0 un systme de m quations n inconnues :
_
_
_
a
11
. . . a
1n
.
.
.
.
.
.
a
m1
. . . a
mn
_
_
_
_
_
_
x
1
.
.
.
x
n
_
_
_ =
_
_
_
0
.
.
.
0
_
_
_
On a alors
Thorme 6.15. Soit Ax = 0 un systme dquations linaires homognes n variables. Alors
lensemble des vecteurs solution est un sous-espace vectoriel de R
n
.
Dmonstration. Soit W lensemble des vecteurs solution. Le vecteur 0 est un lment de W. Vrions
que W est ferm par rapport laddition et par rapport la multiplication par un scalaire.
Si x et x

sont des vecteurs-solution, alors Ax = 0 et Ax

= 0 et donc A(x +x

) = Ax +Ax

= 0
ce qui montre que W est ferm par rapport laddition. On a aussi A(x) = Ax = 0 = 0 ce qui
prouve que W est aussi ferm par rapport la multiplication par un scalaire.
Exemple 6.16. Considrons le systme
_
_
1 2 3
2 4 6
3 6 9
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
.
Les solutions de ce systme sont
x = 2s 3t
y = s
z = t
ce qui donne
x = 2y 3z
do
x 2y + 3z = 0.
Lensemble des solutions est donc un plan passant par lorigine. Nous avons vu que ceci est un espace
vectoriel.
6.3. COMBINAISON LINAIRE 85
6.3 Combinaison linaire
Dnition 6.17. Un vecteur w est appel combinaison linaire des vecteurs v
1
, v
2
, . . . , v
r
si
w =
1
v
1
+
2
v
2
+ +
r
v
r
avec
1
R, . . . ,
r
R.
Exemple 6.18. Soient
e
1
=
_
_
1
0
0
_
_
e
2
=
_
_
0
1
0
_
_
e
3
=
_
_
0
0
1
_
_
les vecteurs de la base standard de R
3
et
x =
_
_
x
1
x
2
x
3
_
_
un vecteur quelconque de R
3
. On a
x =
_
_
x
1
0
0
_
_
+
_
_
0
x
2
0
_
_
+
_
_
0
0
x
3
_
_
= x
1
_
_
1
0
0
_
_
+x
2
_
_
0
1
0
_
_
+x
3
_
_
0
0
1
_
_
ce qui montre que x est une combinaison linaire de e
1
, e
2
et e
3
. Ainsi, tout vecteur de R
3
est
combinaison linaire de e
1
, e
2
et e
3
.
Exemple 6.19. Soient u =
_
1
2
1
_
et v =
_
6
4
2
_
deux vecteurs de R
3
. Montrons que w =
_
9
2
7
_
est
combinaison linaire de u et v. On cherche donc et tels que
_
9
2
7
_
=
_
1
2
1
_
+
_
6
4
2
_
=
_

2

_
+
_
6
4
2
_
=
_
+6
2+4
+2
_
.
On a donc
_

_
9 = + 6
2 = 2 + 4
7 = + 2.
Une solution de ce systme est par exemple
= 3, = 2,
ce qui implique que w est combinaison linaire de u et v. On vrie que lon a
_
_
9
2
7
_
_
= 3
_
_
1
2
1
_
_
+ 2
_
_
6
4
2
_
_
.
Exemple 6.20. Soient u =
_
1
2
1
_
et v =
_
6
4
2
_
. Montrons que w =
_
4
1
8
_
nest pas une combinaison
linaire de u et v. Lgalit
_
_
4
1
8
_
_
=
_
_
1
2
1
_
_
+
_
_
6
4
2
_
_
donne le systme
_

_
4 = + 6
1 = 2 + 4
8 = + 2.
Or ce systme na aucune solution.
86 CHAPITRE 6. ESPACES VECTORIELS
Thorme 6.21. Soient v
1
, . . . , v
r
des vecteurs dun espace vectoriel V . Alors lensemble W des
combinaisons linaires de v
1
, . . . , v
r
est un sous-espace vectoriel de V .
Dmonstration. Le vecteur 0 est dans W car 0 = 0 v
1
+ +0 v
r
. Vrions que W est ferm pour
laddition et pour la multiplication par un scalaire. Soient u, v W. Alors, par dnition de W,
u =
1
v
1
+
2
v
2
+ +
r
v
r
v =
1
v
1
+
2
v
2
+ +
r
v
r
,
o
1
, . . . ,
r
et
1
, . . . ,
r
sont des scalaires. Donc
u +v = (
1
+
1
)v
1
+ (
2
+
2
)v
2
+ + (
r
+
r
)v
r
.
Donc u+v est aussi une combinaison linaire de v
1
, . . . , v
r
. Ceci implique que u+v W. Pour tout
R, on a
u = (
1
)v
1
+ + (
r
)v
r
.
Donc u est combinaison linaire de v
1
, . . . , v
r
. Ceci implique que u W. Donc W est bien un
sous-espace vectoriel de V .
Dnition 6.22. Le sous-espace W du thorme prcdent est appel le sous-espace vectoriel de v
engendr par v
1
, . . . , v
r
. Si lon pose S = v
1
, . . . , v
n
, alors W est not
W = L(S) = L(v
1
, v
2
, . . . , v
r
).
Thorme 6.23. Soit V un espace vectoriel, et soient v
1
, . . . , v
r
V . Soit W le sous-espace vec-
toriel de V engendr par v
1
, . . . , v
r
. Alors W est le plus petit sous-espace vectoriel de V contenant
v
1
, . . . , v
r
.
Dmonstration. On a clairement que v
1
W, v
2
W, . . . , v
r
W. Soit W

un autre sous-espace
vectoriel de V qui contient v
1
, . . . , v
r
. Comme W

est un sous-espace vectoriel de V , il est ferm par


addition et par multiplication par un scalaire. Donc W

contient toutes les combinaisons linaires


de v
1
, . . . , v
r
ce qui implique que W W

.
Exemple 6.24. Soient v
1
et v
2
deux vecteurs non colinaires de R
3
. Alors lespace vectoriel W
engendr par v
1
et v
2
est un plan.
Exemple 6.25. Soient v
1
et v
2
deux vecteurs colinaires de R
3
. Alors v
2
= v
1
. Lespace vectoriel
engendr par v
1
et v
2
est une droite.
Exemple 6.26. Soit T
n
lespace vectoriel des fonctions polynomiales de degr n. Alors les
polynmes 1, x, . . . , x
n
engendrent T
n
.
Thorme 6.27. Soit V un espace vectoriel, et soient S = v
1
, v
2
, . . . , v
r
et S

= v

1
, v

2
, . . . , v

deux ensembles de vecteurs de V . On a


L(v
1
, v
2
, . . . , v
r
) = L(v

1
, v

2
, . . . , v

s
)
si et seulement si tout vecteur de S est une combinaison linaire de vecteurs de S

et tout vecteur
de S

est une combinaison linaire de vecteurs de S.


Dmonstration. Cest une consquence immdiate de la dnition de L(S) et de L(S

).
6.4. INDPENDANCE LINAIRE 87
6.4 Indpendance linaire
Dnition 6.28. Soit S = v
1
, . . . , v
r
un ensemble non vide de vecteurs dun espace vectoriel.
Lquation

1
v
1
+ +
r
v
r
= 0
a au moins une solution, notamment la solution triviale
1
=
2
= =
r
= 0. Si cette solution
est unique, on dira que S est un ensemble linairement indpendant, ou que les vecteurs v
1
, . . . v
r
sont linairement indpendants.
Sinon, on dira que S est un ensemble linairement dpendant, ou que les vecteurs v
1
, . . . , v
r
sont
linairement dpendants.
Remarque 6.29. Tout vecteur non nul est linairement indpendant. En eet, v = 0 implique
= 0 ou v = 0.
Le vecteur nul est linairement dpendant car 0 = 0 pour tout R. Plus gnralement,
tout ensemble contenant le vecteur nul est linairement dpendant. En eet, soient v
1
, . . . , v
r1
des
vecteurs quelconques et v
r
= 0. Alors
0 v
1
+ + 0 v
r1
+ 0 = 0
pour tout R.
Exemple 6.30. Soient v
1
=
_
2
1
0
3
_
, v
2
=
_
1
2
5
1
_
et v
3
=
_
7
1
5
8
_
. Alors lensemble S = v
1
, v
2
, v
3

est linairement dpendant, car


3v
1
+v
2
v
3
= 0.
Exemple 6.31. Les polynmes p
1
(x) = 1 x, p
2
(x) = 5 +3x 2x
2
et p
3
(x) = 1 +3x x
2
forment
un ensemble linairement dpendant, car
3p
1
p
2
+ 2p
3
= 0.
Exemple 6.32. Soient
e
1
=
_
_
1
0
0
_
_
, e
2
=
_
_
0
1
0
_
_
, e
3
=
_
_
0
0
1
_
_
les vecteurs de la base standard de R
3
. Alors lensemble e
1
, e
2
, e
3
est linairement indpendant.
En eet, supposons que
1
e
1
+
2
e
2
+
3
e
3
= 0. Alors

1
_
_
1
0
0
_
_
+
2
_
_
0
1
0
_
_
+
3
_
_
0
0
1
_
_
=
_
_
0
0
0
_
_
,
ce qui donne
_
_

1
0
0
_
_
+
_
_
0

2
0
_
_
+
_
_
0
0

3
_
_
=
_
_

3
_
_
=
_
_
0
0
0
_
_
,
et donc

1
= 0 ,
2
= 0 ,
3
= 0.
Exemple 6.33. Les polynmes 1, x, . . . , x
n
forment un ensemble linairement indpendant de T
n
.
En eet, supposons quil existe a
0
, . . . , a
n
R tels que
a
0
+a
1
x + +a
n
x
n
soit la fonction nulle 0. Ceci implique que pour tout x
0
R, on a
a
0
+a
1
x
0
+ +a
n
x
n
0
= 0 .
Mais un polynme de degr n a au plus n racines. On doit donc avoir
a
0
= a
1
= = a
n
= 0 .
88 CHAPITRE 6. ESPACES VECTORIELS
Thorme 6.34. Un ensemble S est linairement dpendant si et seulement si au moins lun des
vecteurs de S est une combinaison linaire des autres vecteurs de S.
Dmonstration. Soit S = v
1
, v
2
, . . . , v
r
un ensemble linairement dpendant. Alors il existe
1
, . . . ,
r

R non tous nuls tels que

1
v
1
+
2
v
2
+ +
r
v
r
= 0.
Comme les
1
, . . . ,
r
ne sont pas tous nuls, il en existe au moins un qui est non nul. Supposons

i
,= 0, avec 1 i r. On a

i
v
i
=
1
v
1

i1
v
i1

i+1
v
i+1

r
v
r
.
Comme
i
,= 0, ceci implique
v
i
=
_

i
_
v
1
+ +
_

i1

i
_
v
i1
+
_

i+1

i
_
v
i+1
+ +
_

i
_
v
r
et alors v
i
est une combinaison linaire des autres vecteurs.
Rciproquement, supposons que lun des vecteurs disons v
i
soit combinaison linaire des
autres vecteurs. Alors on a
v
i
=
1
v
1
+ +
i1
v
i1
+
i+1
v
i+1
+ +
r
v
r
.
Ceci implique

1
v
1
+ +
i1
v
i1
v
i
+
i+1
v
i+1
+ +
r
v
r
= 0.
Donc v
1
, . . . , v
r
sont linairement dpendants.
6.4.1 Interprtation gomtrique de la dpendance linaire
Dans R
2
ou R
3
, deux vecteurs sont linairement dpendants si et seulement sils sont colinaires.
Dans R
3
, trois vecteurs sont linairement dpendants si et seulement sils sont sur le mme
plan (coplanaires).
Thorme 6.35. Soit S = v
1
, v
2
, . . . , v
r
un sous-ensemble de R
n
. Si S contient plus de n l-
ments, alors S est linairement dpendant.
Dmonstration. Supposons que
v
1
=
_
_
_
_
_
v
11
v
12
.
.
.
v
1n
_
_
_
_
_
, v
2
=
_
_
_
_
_
v
21
v
22
.
.
.
v
2n
_
_
_
_
_
, , . . . , v
r
=
_
_
_
_
_
v
r1
v
r2
.
.
.
v
rn
_
_
_
_
_
.
Lquation
x
1
v
1
+x
2
v
2
+ +x
r
v
r
= 0
donne alors le systme suivant
v
11
x
1
+v
21
x
2
+ +v
r1
x
r
= 0
v
12
x
1
+v
22
x
2
+ +v
r2
x
r
= 0
. . . . . . . . . . . . . . . . . . . . . . . . . . .
v
1n
x
1
+v
2n
x
2
+ +v
rn
x
r
= 0
Cest un systme homogne de n quations r inconnues. Lorsque r > n, ce systme a des solutions
non triviales ce qui montre que la famille S est linairement dpendante.
6.5. BASES ET DIMENSION 89
6.5 Bases et dimension
Dnition 6.36 (Base dun espace vectoriel). Soit V un espace vectoriel, et S = v
1
, v
2
, . . . , v
n

un sous-ensemble de V . Alors S est une base de V si et seulement si les deux conditions suivantes
sont vries :
(1) lensemble S est linairement indpendant ;
(2) lensemble S engendre V , cest--dire V = L(S).
Thorme 6.37. Si S = v
1
, v
2
, . . . , v
n
est une base de lespace vectoriel V , alors tout vecteur
v V sexprime de faon unique comme combinaison linaire dlments de S :
v =
1
v
1
+
2
v
2
+ +
n
v
n
avec
1
, . . . ,
n
R dtermins de faon unique.
Dmonstration. Par dnition, S engendre V , donc pour tout v V il existe
1
, . . . ,
n
R tels
que
v =
1
v
1
+
2
v
2
+ +
n
v
n
.
Il reste montrer lunicit des
1
,
2
, . . . ,
n
. Soient
1
,
2
, . . . ,
n
R tels que
v =
1
v
1
+
2
v
2
+ +
n
v
n
.
Alors on a
(
1

1
)v
1
+ (
2

2
)v
2
+ + (
n

n
)v
n
= 0.
Comme S = v
1
, . . . , v
n
est linairement indpendant, ceci implique

1

1
= 0,
2

2
= 0, . . . ,
n

n
= 0
et donc

1
=
1
,
2
=
2
, . . . ,
n
=
n
.
Dnition 6.38 (Coordonnes par rapport une base). Les
1
, . . . ,
n
du thorme prcdent sont
appels les coordonnes de v dans la base S.
Exemple 6.39. Les vecteurs v
1
et v
2
de la gure ci-dessous forment une base du plan car on a
v = av
1
+bv
2
pour tout vecteur v du plan o a et b sont des nombres rels uniquement dtermins.
Figure 8.4
Exemple 6.40. Soient e
1
=
_
1
0
0
_
, e
2
=
_
0
1
0
_
, e
3
=
_
0
0
1
_
les vecteurs de la base standard de R
3
.
Alors S = e
1
, e
2
, e
3
est une base de R
3
car S est linairement indpendant et engendre R
3
.
90 CHAPITRE 6. ESPACES VECTORIELS
Exemple 6.41. Base standard de R
n
: les vecteurs
e
1
=
_
_
_
_
_
1
0
.
.
.
0
_
_
_
_
_
, e
2
=
_
_
_
_
_
0
1
.
.
.
0
_
_
_
_
_
, . . . , e
n
=
_
_
_
_
_
0
.
.
.
0
1
_
_
_
_
_
forment une base de R
n
, appele la base standard de R
n
.
Exemple 6.42. Soient v
1
=
_
1
2
1
_
, v
2
=
_
2
9
0
_
et v
3
=
_
3
3
4
_
. Montrons que lensemble S = v
1
, v
2
, v
3

est une base de R


3
. Montrons dabord que S engendre R
3
. Soit a =
_
a
1
a
2
a
3
_
un vecteur quelconque de
R
3
. On cherche
1
,
2
,
3
R tels que
a =
1
v
1
+
2
v
2
+
3
v
3
.
Ceci se reformule comme suit :
_
_
a
1
a
2
a
3
_
_
=
1
_
_
1
2
1
_
_
+
2
_
_
2
9
0
_
_
+
3
_
_
3
3
4
_
_
=
_
_

1
+ 2
2
+ 3
3
2
1
+ 9
2
+ 3
3

1
+ 4
3
_
_
.
Ceci conduit au systme suivant :
_
_
_

1
+ 2
2
+ 3
3
= a
1
2
1
+ 9
2
+ 3
3
= a
2

1
+ 4
3
= a
3
.
Il reste montrer que ce systme a une solution
1
,
2
,
3
. Pour montrer que S est linairement
indpendant, il faut montrer que lunique solution de

1
v
1
+
2
v
2
+
3
v
3
= 0
est

1
=
2
=
3
= 0 .
Ceci conduit montrer que le systme
_
_
_

1
+ 2
2
+ 3
3
= 0
2
1
+ 9
2
+ 3
3
= 0

1
+ 4
3
= 0
a une unique solution

1
=
2
=
3
= 0.
Remarquons que les deux systmes ont la mme matrice de coecients. On peut donc montrer
simultanment que S engendre R
3
et que S est linairement indpendant en montrant que la matrice
des coecients est inversible. Cette matrice est
A =
_
_
1 2 3
2 9 3
1 0 4
_
_
et son dterminant vaut det(A) = 1. Donc S est une base de R
3
.
Remarque 6.43. Lexemple prcdent se gnralise de la faon suivante : pour montrer que n
vecteurs de R
n
forment une base de R
n
, il sut de montrer la chose suivante : la matrice A constitue
des composantes de ces vecteurs (chaque vecteur formant une colonne de A) est de dterminant non
nul.
6.5. BASES ET DIMENSION 91
Exemple 6.44. Base standard de T
n
: la famille S = 1, x, . . . , x
n
est une base de T
n
, appele base
standard de T
n
. En eet, nous avons dj vu que L(S) = T
n
et que S est linairement indpendant.
Exemple 6.45. Base standard de M
22
. On note M
22
lensemble des matrices 2 2. Nous avons vu
que M
22
est un espace vectoriel. Soient
M
1
=
_
1 0
0 0
_
M
2
=
_
0 1
0 0
_
M
3
=
_
0 0
1 0
_
M
4
=
_
0 0
0 1
_
.
Lensemble S = M
1
, M
2
, M
3
, M
4
est une base de lespace vectoriel M
22
, appele base standard de
M
22
.
Montrons dabord que L(S) = M
22
. Soit
_
a b
c d
_
un lment quelconque de M
22
. On a
_
a b
c d
_
=
_
a 0
0 0
_
+
_
0 b
0 0
_
+
_
0 0
c 0
_
+
_
0 0
0 d
_
= a
_
1 0
0 0
_
+b
_
0 1
0 0
_
+c
_
0 0
1 0
_
+d
_
0 0
0 1
_
= aM
1
+bM
2
+cM
3
+dM
4
ce qui montre que L(S) = M
22
.
Montrons maintenant que S est linairement indpendant. Pour cela, supposons que
1
M
1
+

2
M
2
+
3
M
3
+
4
M
4
= 0. Ceci implique
_
0 0
0 0
_
=
1
_
1 0
0 0
_
+
2
_
0 1
0 0
_
+
3
_
0 0
1 0
_
+
4
_
0 0
0 1
_
=
_

1
0
0 0
_
+
_
0
2
0 0
_
+
_
0 0

3
0
_
+
_
0 0
0
4
_
=
_

1

2

3

4
_
ce qui implique
1
=
2
=
3
=
4
= 0. Donc S est linairement indpendant.
Dnition 6.46. Soit V un espace vectoriel non nul. On dit que V est de dimension nie sil existe
un ensemble ni S de V qui est une base de V . Sil nexiste aucun tel ensemble, alors on dit que V
est de dimension innie.
Exemple 6.47. Les espaces vectoriels R
n
, M
22
, T
n
sont de dimension nie alors que C

(R), C
1
(R),
C(R) sont de dimension innie.
Thorme 6.48. Soit V un espace vectoriel de dimension nie, et soit S = v
1
, . . . , v
n
une base
de V . Alors
(1) Tout sous-ensemble de V ayant plus de n lments est linairement dpendant.
(2) Aucun sous-ensemble de V ayant moins de n lments nengendre V .
Dmonstration. (1) Soit S

= w
1
, . . . , w
m
avec w
1
, . . . , w
m
V et m > n. Montrons que S

est
linairement dpendant. Comme S = v
1
, v
2
, . . . , v
n
est une base de V , on a
w
1
= a
11
v
1
+a
21
v
2
+ +a
n1
v
n
w
2
= a
12
v
1
+a
22
v
2
+ +a
n2
v
n
. . . . . . . . . . . . . . . . . . . . . . . . . . .
w
m
= a
1m
v
1
+a
2m
v
2
+ +a
nm
v
n
92 CHAPITRE 6. ESPACES VECTORIELS
Pour montrer que S

est linairement dpendant, on doit trouver des scalaires


1
,
2
, . . . ,
m
non
tous nuls tels que
1
w
1
+
2
w
2
+ +
m
w
m
= 0. On peut recrire cette quation comme suit
(
1
a
11
+
2
a
12
+ +
m
a
1m
)v
1
+
+ (
1
a
21
+
2
a
22
+ +
m
a
2m
)v
2
+
+ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
+ (
1
a
n1
+
2
a
n2
+ +
m
a
nm
)v
n
= 0.
Par lindpendance linaire de S, on obtient
a
11

1
+a
12

2
+ +a
1m

m
= 0
a
21

1
+a
22

2
+ +a
2m

m
= 0
. . . . . . . . . . . . . . . . . . . . . . . . . . .
a
n1

1
+a
n2

2
+ +a
nm

m
= 0.
C est un systme homogne qui a plus dinconnues que dquations. Il a donc des solutions non
triviales
1
, . . . ,
m
R telles que
1
w
1
+ +
m
w
m
= 0 ce qui montre que S

= w
1
, . . . , w
m
est
linairement dpendant.
La dmonstration de (2) est similaire.
Corollaire 6.49. Toutes les bases dun espace vectoriel de dimension nie ont le mme nombre
dlments.
Dnition 6.50 (Dimension dun espace vectoriel). La dimension dun espace vectoriel de dimension
nie V , note dim(V ), est par dnition le nombre dlments dune base de V . Lespace vectoriel
V = 0 est de dimension 0.
Exemple 6.51. Par les exemples qui prcdent, on a
1. dim(R
n
) = n (Exemple 6.41) ;
2. dim(T
n
) = n + 1 (Exemple 6.44) ;
3. dim(M
22
) = 4 (Exemple 6.45) ;
4. Plus gnralement, si M
mn
est lespace vectoriel des matrices m n, on a dim(M
mn
) = mn.
En eet, lensemble
M
1
=
_
_
_
_
_
_
1 0 . . . 0
0
.
.
.
.
.
.
.
.
.
0 . . . . . . 0
_
_
_
_
_
_
M
2
=
_
_
_
_
_
_
0 1 0 . . . 0
0
.
.
.
.
.
.
.
.
.
0 . . . . . . . . . 0
_
_
_
_
_
_
M
n
=
_
_
_
0 . . . 0 1
.
.
.
.
.
.
0 . . . . . . 0
_
_
_ M
n+1
=
_
_
_
_
_
_
_
_
_
0 . . . 0
1
.
.
.
0
.
.
.
.
.
.
.
.
.
0 . . . 0
_
_
_
_
_
_
_
_
_
M
mn
=
_
_
_
_
_
_
0 . . . 0
.
.
.
.
.
.
.
.
. 0
0 . . . 1
_
_
_
_
_
_
est une base de M
mn
et possde mn lments.
6.5. BASES ET DIMENSION 93
Exemple 6.52. On a vu la base standard 1, x, . . . , x
n
des polynmes de degr au plus n. Voici
une autre base, souvent commode pour les calculs : on xe des nombres
0
,
1
, . . . ,
n
distincts, et
on considre la base
(x
0
)(x
1
) . . . (x
n1
),
(x
0
)(x
1
) . . . (x
n2
)(x
n
), . . . ,
(x
0
) . . . (x
i
) . . . (x
i+2
) . . . (x
n
), . . . ,
(x
1
)(x
2
) . . . (x
n
)
o chaque fois on prend tous les facteurs (x
i
) sauf un.
Cette base est trs utile parce que le i-ime vecteur sannulle en tous les
j
pour j ,= i.
Exemple 6.53. Nous avons vu que lensemble des solutions dun systme dquations linaires
homogne est un espace vectoriel.
On considre le systme
_

_
2x
1
+ 2x
2
x
3
+ x
5
= 0
x
1
x
2
+ 2x
3
3x
4
+ x
5
= 0
x
1
+ x
2
2x
3
x
5
= 0
x
3
+ x
4
+ x
5
= 0.
On vrie que la solution gnrale de ce systme est
x
1
= s t x
2
= s x
3
= t x
4
= 0 x
5
= t .
Donc les vecteurs solution scrivent sous la forme
_
_
_
_
_
_
x
1
x
2
x
3
x
4
x
5
_
_
_
_
_
_
=
_
_
_
_
_
_
s t
s
t
0
t
_
_
_
_
_
_
=
_
_
_
_
_
_
s
s
0
0
0
_
_
_
_
_
_
+
_
_
_
_
_
_
t
0
t
0
t
_
_
_
_
_
_
= s
_
_
_
_
_
_
1
1
0
0
0
_
_
_
_
_
_
+t
_
_
_
_
_
_
1
0
1
0
1
_
_
_
_
_
_
.
Ceci montre que les vecteurs
v
1
=
_
_
_
_
_
_
1
1
0
0
0
_
_
_
_
_
_
et v
2
=
_
_
_
_
_
_
1
0
1
0
1
_
_
_
_
_
_
engendrent lespace des solutions du systme. Dautre part, on vrie que v
1
et v
2
sont linairement
indpendants. Donc v
1
, v
2
est une base de lespace des solutions du systme. Ceci montre que cet
espace vectoriel est de dimension 2.
Thorme 6.54. Soit V un espace vectoriel et S un sous-ensemble ni et non vide de V . Alors
(a) si S est linairement indpendant et si v , L(S), alors S v est encore linairement ind-
pendant ;
(b) si v S est une combinaison linaire dautres vecteurs de S, alors
L(Sv) = L(S)
o Sv dsigne lensemble obtenu en retirant v de S.
Thorme 6.55. Soit V un espace vectoriel de dimension n. Soit S un sous-ensemble de V conte-
nant exactement n vecteurs. Alors les armations suivantes sont quivalentes :
(1) S est une base de V ;
(2) S engendre V ;
94 CHAPITRE 6. ESPACES VECTORIELS
(3) S est linairement indpendant.
Dmonstration. Il est clair que (1) implique (2) et (3). Montrons que (2) implique (1). Pour cela, il
sut de montrer que (2) implique (3). Autrement dit, il sut de montrer que que si V = L(S) alors
S est linairement indpendant. On le montre par labsurde. Supposons S linairement dpendant.
Alors il existe v S qui est une combinaison linaire des autres vecteurs de S. Par le thorme
prcdent, ceci implique que
L(Sv) = L(S) = V.
Mais Sv contient seulement n 1 vecteurs, ce qui contredit lhypothse dim(V ) = n.
Montrons que (3) implique (1). Il sut de montrer que (3) implique (2). Autrement dit, il sut
de montrer que si S est linairement indpendant, alors S engendre V . Supposons que ce ne soit pas
le cas. Alors il existe v V tel que v , L(S). Par le thorme prcdent, ceci implique que Sv est
linairement indpendant. Mais Sv contient n+1 vecteurs ce qui contredit nouveau lhypothse
sur la dimension de V .
Thorme 6.56. Soit V un espace vectoriel de dimension nie et soit S un sous-ensemble ni de
V .
(a) Si S engendre V , alors on peut rtrcir S en une base de V : il existe v
1
, . . . , v
r
S tels que
Sv
1
, . . . , v
r
soit une base de V .
(b) Si S est linairement indpendant, alors on peut complter S en une base de V : il existe
w
1
, . . . , w
k
V tels que S w
1
, . . . , w
k
soit une base de V .
Dmonstration. Pour (a), on procde par rcurrence sur dimV #S. Supposons que S ne soit pas
linairement indpendant (sinon on a dj gagn). On a alors une combinaison linaire c
1
u
1
+ +
c
n
u
n
= 0 avec des u
i
S, et au moins un des c
i
, disons c
1
, non nul. On pose alors v
1
= u
1
et
S

= S v
1
. Par le thorme 6.54(a), S

engendre aussi V et est plus petit ; on peut donc, par


rcurrence, enlever v
2
, . . . , v
r
S

pour obtenir une base de V ; et donc enlever v


1
, . . . , v
r
S pour
obtenir une base de V .
Pour (b), on procde par rcurrence sur #S dimV . Supposons que S nengendre pas V . Soit
w
1
V L(S), et S

= S w
1
. Alors, par le thorme 6.54(b), S

est toujours linairement


indpendant, mais plus grand, donc par rcurrence peut se complter en une base S

w
2
, . . . , w
k

de V . Ainsi S w
1
, . . . , w
k
est une base de V .
Thorme 6.57. Soit V un espace vectoriel de dimension nie, et soit W un sous-espace vectoriel
de V . Alors
dim(W) dim(V ).
De plus, si dim(W) = dim(V ), alors W = V .
6.6 Espace des lignes et colonnes dune matrice
Dnition 6.58. Soit A une matrice de taille mn,
A =
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
_
_
_
_
_
.
Les vecteurs de R
n

1
=
_
a
11
a
12
. . . a
1n
_
,

2
=
_
a
21
a
22
. . . a
2n
_
,
. . . . . . . . . . . . . . . . . . . . . . . . . . .

m
=
_
a
m1
a
m2
. . . a
mn
_
6.6. ESPACE DES LIGNES ET COLONNES DUNE MATRICE 95
sont appels vecteurs ligne de A, et les vecteurs de R
m
c
1
=
_
_
_
_
_
a
11
a
21
.
.
.
a
m1
_
_
_
_
_
, c
2
=
_
_
_
_
_
a
12
a
22
.
.
.
a
m2
_
_
_
_
_
, . . . , c
n
=
_
_
_
_
_
a
1n
a
2n
.
.
.
a
mn
_
_
_
_
_
sont appels vecteurs colonne de A.
Dnition 6.59. Soit A une matrice de taille mn. Le sous-espace de R
n
engendr par les vecteurs
ligne de A est appel espace des lignes de A, et le sous-espace de R
m
engendr par les vecteurs colonne
de A est appel espace des colonnes de A.
Ainsi la dimension de lespace des lignes de A est le nombre de lignes linairement indpendantes
de A; la dimension de lespace des colonnes est le nombre de colonnes linairement indpendantes
de A. On verra bientt que ces dimensions sont gales.
Dnition 6.60 (Noyau (ou Nilespace) dune matrice). Lespace des solutions du systme dqua-
tions homogne
Ax = 0
est appel noyau de A, ou nilespace de A. Le noyau (nilespace) de A est un sous-espace vectoriel de
R
n
. Il est not Ker(A).
Thorme 6.61. Soit A une matrice mn. Alors
1. Lespace des colonnes de A est R
m
si et seulement si f
A
est surjective ;
2. Le noyau ker(A) = 0 si et seulement si f
A
est injective ;
3. Ax = b admet une solution si et seulement si b appartient lespace des colonnes de A;
4. Lespace des lignes de A est lespace des colonnes de A
T
;
5. Soit x
0
un vecteur solution du systme Ax = b, et soit v
1
, v
2
, . . . , v
k
une base du noyau de
A. Alors lensemble des solutions du systme Ax = b est
x
0
+c
1
v
1
+ +c
k
v
k
: c
i
R.
Dmonstration. 1. Lespace des colonnes est limage de lapplication f
A
. Ainsi lespace des co-
lonnes est R
m
si et seulement si limage de f
A
est R
m
, cest--dire si et seulement si f
A
est
surjective.
2. Le noyau de A est lensemble des x R
n
tels que Ax = 0. Ainsi le noyau de A est 0 si et
seulement si Ax = 0 nadmet que x = 0 comme solution, ce qui veut dire que A est injective.
3. Ax = b admet une solution si et seulement si b est dans limage de f
A
, qui est lespace des
colonnes de A.
4. Cest vident.
5. On calcule dabord
A(x
0
+c
1
v
1
+ +c
k
v
k
) = Ax
0
+c
1
Av
1
+ +c
k
Av
k
= b + 0 + + 0 = b,
ce qui montre que x
0
+c
1
v
1
+ +c
k
v
k
est une solution quels que soient c
1
, . . . , c
k
.
Ensuite, soit x
1
une autre solution Ax = b. On a alors A(x
1
x
0
) = b b = 0, donc
x
1
x
0
ker(A). On peut donc crire x
1
x
0
= c
1
v
1
+ +c
k
v
k
dans la base de ker(A). On
a donc x
1
= x
0
+c
1
v
1
+ +c
k
v
k
pour certains c
1
, . . . , c
k
R.
Thorme 6.62. Les oprations lmentaires sur les lignes ne changent pas le noyau de la matrice.
Dmonstration. Soit A une matrice. Le noyau de A est par dnition lespace vectoriel des solutions
du systme Ax = 0. Nous avons vu que les oprations lmentaires sur A ne changent pas les
solutions du systme Ax = 0. Ceci implique que les oprations lmentaires ne changent pas le
noyau de A.
96 CHAPITRE 6. ESPACES VECTORIELS
Thorme 6.63. Les oprations lmentaires sur les lignes ne changent pas lespace des lignes de
la matrice.
Dmonstration. Soit A une matrice, et soient
1
, . . . ,
m
ses vecteurs ligne. Soit B une matrice
obtenue partir de A par une opration lmentaire sur les lignes. Si lopration consiste permuter
deux lignes de A, alors B a les mmes lignes que A, donc lespace des lignes est le mme. Si lopration
consiste multiplier une ligne de A par un scalaire non nul, ou ajouter un multiple dune ligne
une autre, alors les lignes de B sont des combinaisons linaires de
1
, . . . ,
m
. Donc lespace des lignes
de B est contenu dans lespace des lignes de A. Comme les oprations lmentaires sont rversibles,
on voit que lespace des lignes de A est contenu dans lespace des lignes de B. Donc ces deux espaces
vectoriels sont gaux.
Thorme 6.64. Soit A une matrice. Alors les lignes non nulles de la matrice chelonne rduite
forment une base de lespace des lignes de A.
Dmonstration. La matrice chelonne rduite a autant de 1 directeurs que de lignes non nulles.
Les 1 directeurs sont dans des colonnes direntes. Donc les vecteurs ligne non nuls de la matrice
chelonne rduite sont linairement indpendants. Comme ils engendrent galement lespace des
lignes, ils forment une base de cet espace.
Exemple 6.65.
A =
_
_
_
_
1 1 0 0 1 0
0 0 1 0 1 0
0 0 0 1 0 0
0 0 0 0 0 0
_
_
_
_
est une matrice chelonne rduite. Les lignes non nulles de A sont

1
= (1 1 0 0 1 0),
2
= (0 0 1 0 1 0) et
3
= (0 0 0 1 0 0).
Elles sont linairement indpendantes. En eet, soient
1
,
2
,
3
R tels que

1
+
2

2
+
3

3
= 0 .
Alors on a

1
(1 1 0 0 1 0) +
2
(0 0 1 0 1 0) +
3
(0 0 0 1 0 0) = (0 0 0 0 0 0).
Donc
1
=
2
=
3
= 0.
Application. Nous donnons la mthode pour extraire une base dune famille de vecteurs.
Soient
x =
_
_
_
_
2
3
8
19
_
_
_
_
, y =
_
_
_
_
1
10
21
69
_
_
_
_
, z =
_
_
_
_
1
11
23
76
_
_
_
_
.
Nous voulons extraire une base de cette famille de vecteurs. Nous crivons ces trois vecteurs en ligne
dans une matrice 3 4. On obtient
A =
_
_
2 3 8 19
1 10 21 69
1 11 23 76
_
_
.
Par le thorme 6.64, les lignes non nulles de la matrice chelonne rduite forment une base de
lespace des lignes de la matrice A. Il sut donc dechelonner A et de la rduire pour trouver une
base.
_
_
2 3 8 19
1 10 21 69
1 11 23 76
_
_

2
2
2
+
1
6.6. ESPACE DES LIGNES ET COLONNES DUNE MATRICE 97
_
_
2 3 8 19
0 17 34 119
1 11 23 76
_
_

3
2
3

1
_
_
2 3 8 19
0 17 34 119
0 19 38 133
_
_

3
17
3
+ 19
2
_
_
2 3 8 19
0 17 34 119
0 0 0 0
_
_

2

1
17

2
_
_
2 3 8 19
0 1 2 7
0 0 0 0
_
_

1

1
3
2
_
_
2 0 2 2
0 1 2 7
0 0 0 0
_
_

1

1
2

1
_
_
1 0 1 1
0 1 2 7
0 0 0 0
_
_
Une base de lespace engendr par les vecteurs x, y et z est
_

_
_
_
_
_
1
0
1
1
_
_
_
_
,
_
_
_
_
0
1
2
7
_
_
_
_
_

_
.
En fait, on peut galement prendre comme vecteurs de base les lignes non nulles de la matrice
chelonne (non ncessairement rduite).
Thorme 6.66. Soit A une matrice de taille mn. Alors la dimension de lespace des lignes de
A est gale la dimension de lespace des colonnes de A. Cette dimension est appele le rang de la
matrice A et est note rg(A).
Dmonstration. Soit
A =
_
_
_
a
11
. . . a
1n
.
.
.
.
.
.
a
m1
. . . a
mn
_
_
_ .
Soient
1
, . . . ,
m
les lignes de A et c
1
, . . . , c
n
les colonnes de A. Supposons que la dimension de
lespace des lignes de A soit k, et soit b
1
, . . . , b
k
une base de cet espace. On peut donc crire
chaque ligne comme combinaison linaire des vecteurs de cette base :

1
=
11
b
1
+ +
1k
b
k
. . . . . . . . . . . . . . . . . . . . .

m
=
m1
b
1
+ +
mk
b
k
.
98 CHAPITRE 6. ESPACES VECTORIELS
Ceci donne le systme
a
1j
=
11
b
1j
+ +
1k
b
kj
a
2j
=
21
b
2j
+ +
2k
b
kj
. . . . . . . . . . . . . . . . . . . . .
a
mj
=
m1
b
1j
+ +
mk
b
kj
avec
b
j
= (b
j1
. . . b
jn
) .
On a donc
c
j
= b
1j
_
_
_
_
_

11

21
.
.
.

m1
_
_
_
_
_
+ +b
kj
_
_
_
_
_

1k

2l
.
.
.

mk
_
_
_
_
_
.
Ainsi lespace des colonnes de A est engendr par k vecteurs. La dimension de cet espace est donc
au plus gale k. Ce raisonnement est valable pour nimporte quelle matrice et en particulier pour
la transpose de A. Or, les colonnes de A
T
sont les lignes de A, et les lignes de A
T
sont les colonnes
de A. Grce au raisonnement prcdent applique A
T
, on voit que la dimension de lespace des
lignes de A est au plus gale la dimension de lespace des colonnes de A. Ces deux dimensions sont
donc gales.
Dnition 6.67. Soit A une matrice. La nullit de A est par dnition la dimension du noyau de
A, et est not null(A).
Thorme 6.68 (Thorme du rang). Soit A une matrice n colonnes. Alors
rg(A) + null(A) = n.
Dmonstration. Le systme linaire homogne
Ax = 0
a n variables. Donc la somme du nombre des variables directrices et du nombre des variables libres est
n. Or, le nombre de variables directrices est gal au nombre de 1 directeurs dans la forme chelonne
rduite de A. Ce nombre est gal au rang de (A). Dautre part, le nombre de variables libres est
gal au nombre de paramtres de la solution gnrale du systme, ce qui est gal la dimension de
lespace des solutions du systme, qui est par dnition gal la nullit de A. On a donc bien
rg(A) + null(A) = n.
Thorme 6.69. Soit A une matrice de taille nn. Alors les armations suivantes sont quivalen-
tes :
(1) A est inversible
(2) rg(A) = n
(3) null(A) = 0.
Dmonstration. Nous avons vu que A est inversible si et seulement si sa forme chelonne rduite
est la matrice identit I
n
. Ceci se passe si et seulement si toutes les variables sont directrices. Mais le
nombre de variables directrices est gal au rang de A. On a donc (1) (2). Lquivalence (2) (3)
rsulte du thorme prcdent.
6.7. CHANGEMENTS DE BASES 99
6.7 Changements de bases
Soit V un espace vectoriel, et soit
B = v
1
, v
2
, . . . , v
n

une base de V . Nous avons vu que tout v V scrit de faon unique


v =
1
v
1
+
2
v
2
+ +
n
v
n
avec
1
,
2
, . . . ,
n
R. Les
1
, . . . ,
n
sont appels les coordonnes de v dans la base B, et on note
(v)
B
=
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
.
6.7.1 Changement de bases en 2 dimensions
Soient
B = u
1
, u
2
et B

= u

1
, u

deux bases du mme espace vectoriel. Supposons que


(u

1
)
B
=
_
a
b
_
et
(u

2
)
B
=
_
c
d
_
autrement dit que
u

1
= au
1
+bu
2
u

2
= cu
1
+du
2
.
Soit v V tel que
(v)
B
=
_

1

2
_
,
cest--dire que
v =
1
u

1
+
2
u

2
.
Nous aimerions trouver les coordonnes de v par rapport la base B. On a
v =
1
(au
1
+bu
2
) +
2
(cu
1
+du
2
)
= (
1
a +
2
c)u
1
+ (
1
b +
2
d)u
2
On a donc
(v)
B
=
_

1
a +
2
c

1
b +
2
d
_
.
Ceci peut galement scrire
(v)
B
=
_
a c
b d
__

1

2
_
=
_
a c
b d
_
(v)
B
.
La matrice
P
B,B
=
_
a c
b d
_
est la matrice de changement de bases (ou de passage de bases) de B

B.
100 CHAPITRE 6. ESPACES VECTORIELS
6.7.2 Dimension quelconque
Soit V un espace vectoriel de dimension n, et soient
B = u
1
, . . . , u
n
et B

= u

1
, . . . , u

deux bases de V . Alors


(v)
B
= P
B,B
(v)
B

o P
B,B
est la matrice dont les colonnes sont les coordonnes de u

1
, . . . , u

n
par rapport la base
B; autrement dit,
P
B,B
=
_
(u

1
)
B
(u

2
)
B
. . . (u

n
)
B
_
.
On appelle P
B,B
la matrice de changement de base (ou de passage de base) de B

B.
Exemple 6.70. Soient B = u
1
, u
2
et B

= u

1
, u

2
deux bases de R
2
, avec
u
1
= (
1
0
) , u
2
= (
0
1
) ;
u

1
= (
1
1
) , u

2
= (
2
1
) .
On a
u

1
= u
1
+u
2
u

2
= 2u
1
+u
2
.
Donc
(u

1
)
B
=
_
1
1
_
, (u

2
)
B
=
_
2
1
_
.
La matrice de changement de base de B

B est ainsi
P
B,B
=
_
1 2
1 1
_
.
Thorme 6.71. Soit V un espace vectoriel de dimension nie, et soient B et B

deux bases de V .
Soit P
B,B
la matrice de changement de base de B

B. Alors P
B,B
est inversible et la matrice de
changement de base de B B

est P
1
B,B
.
Dmonstration. Soit P
B

,B
la matrice de changement de base de B B

. Montrons que
P
B,B
P
B

,B
= I .
Soit B = u
1
, u
2
, . . . , u
n
, et supposons que
P
B,B
P
B

,B
=
_
_
_
_
_
c
11
c
12
. . . c
1n
c
21
c
22
. . . c
2n
.
.
.
.
.
.
c
n1
c
n2
. . . c
nn
_
_
_
_
_
.
Nous avons
(x)
B
= P
B,B
(x)
B

et
(x)
B
= P
B

,B
(x)
B
pour tout x V . On a donc
(x)
B
= P
B,B
P
B

,B
(x)
B
.
Pour x = u
1
, on obtient
_
_
_
_
_
1
0
.
.
.
0
_
_
_
_
_
=
_
_
_
_
_
c
11
c
12
. . . c
1n
c
21
c
22
. . . c
2n
.
.
.
.
.
.
.
.
.
c
n1
c
n2
. . . c
nn
_
_
_
_
_
_
_
_
_
_
1
0
.
.
.
0
_
_
_
_
_
6.7. CHANGEMENTS DE BASES 101
do
_
_
_
_
_
1
0
.
.
.
0
_
_
_
_
_
=
_
_
_
_
_
c
11
c
21
.
.
.
c
n1
_
_
_
_
_
.
Le mme raisonnement avec x = u
2
, . . . , u
n
nous donne
_
_
_
_
_
c
12
c
22
.
.
.
c
n2
_
_
_
_
_
=
_
_
_
_
_
0
1
.
.
.
0
_
_
_
_
_
, . . . ,
_
_
_
_
_
c
1n
c
2n
.
.
.
c
nn
_
_
_
_
_
=
_
_
_
_
_
0
0
.
.
.
1
_
_
_
_
_
.
Ceci montre que
P
B,B
P
B

,B
= I.
Thorme 6.72. Soit V un espace vectoriel de dimension n et soient B, B

, B

trois bases de V .
Alors
P
B,B
P
B

,B
= P
B,B
.
Dmonstration. Soit x V . On a
(x)
B
= P
B,B
(x)
B

et
(x)
B
= P
B

,B
(x)
B

do
(x)
B
= P
B,B
P
B

,B
(x)
B
.
Ainsi, la matrice de changement de base de B

B est P
B,B
P
B

,B
. Autrement dit,
P
B,B
= P
B,B
P
B

,B
.
Application. Soit V un espace vectoriel de dimension n. Soient B

et B

deux bases de V et C
une autre base de V . Si on connat les coordonnes des vecteurs de B et de B

dans C, on peut
calculer la matrice P
B,B
de la manire suivante : Ecrivons
_
P
C,B
: P
C,B

_
. Comme P
C,B
est
inversible (son inverse est P
B,C
), elle est quivalente par lignes I
n
. On obtient donc, par la mthode
de Gauss, que
_
I
n
: (P
C,B
)
1
P
C,B

_
ou, autrement dit
_
I
n
: (P
B,C
) P
C,B

. .
P
B,B

_
.
La matrice C dsigne souvent la matrice canonique. Dans ce cas, si on connat les coordonnes de
B et B

dans la base canonique, on calcule directement la matrice de passage de B

B.
Exemple 6.73. Soit V = R
3
et C sa base canonique. Dnissons
B =
_
_
_
_
_
1
1
0
_
_
,
_
_
0
1
0
_
_
,
_
_
3
2
1
_
_
_
_
_
et
B

=
_
_
_
_
_
1
1
0
_
_
,
_
_
0
1
0
_
_
,
_
_
0
0
1
_
_
_
_
_
.
102 CHAPITRE 6. ESPACES VECTORIELS
On a alors
P
C,B
=
_
_
1 0 3
1 1 2
0 0 1
_
_
et P
C,B
=
_
_
1 0 0
1 1 0
0 0 1
_
_
.
On applique maintenant la mthode de Gauss pour calculer P
1
C,B
et donc P
B,B
= P
1
C,B
P
C,B
:
_
_
1 0 3 : 1 0 0
1 1 2 : 1 1 0
0 0 1 : 0 0 1
_
_

2

2

1
_
_
1 0 3 : 1 0 0
0 1 1 : 2 1 0
0 0 1 : 0 0 1
_
_

1

1
+ 3
3

2

2
+
3

3

3
_
_
1 0 0 : 1 0 3
0 1 0 : 2 1 1
0 0 1 : 0 0 1
_
_
Do :
P
B,B
=
_
_
1 0 3
2 1 1
0 0 1
_
_
.
Chapitre 7
Produits scalaires gnraliss
7.1 Dnition et premires proprits
Dnition 7.1. Soit V un espace vectoriel. Alors un produit scalaire gnralis sur V est par
dnition une application
<, >: V V R
(u, v) < u, v >
ayant les proprits
(1) < u, v >=< v, u > symtrie
(2) < u +v, w >=< u, w > + < v, w > additivit
(3) < u, v >= < u, v > homognt
(4) < v, v > 0 positivit
(5) < v, v >= 0 v = 0.
pour tout u, v, w V et R.
Exemple 7.2. Produit scalaire euclidien sur R
n
. Dans cet exemple, on a
V = R
n
et
< u, v >= u v
le produit scalaire euclidien (produit scalaire habituel) de R
n
. Nous avons dj vu que les proprits
(1) - (5) sont vries dans cet exemple.
Exemple 7.3. Soient u = (
u
1
u
2
) et v = (
v
1
v
2
) deux vecteurs de R
2
. Posons
< u, v >= 3u
1
v
1
+ 2u
2
v
2
.
Alors <, > est un produit scalaire gnralis sur R
2
. Vrions les proprits (1) - (5) :
(1) On a
< u, v > = 3u
1
v
1
+ 2u
2
v
2
= 3v
1
u
1
+ 2v
2
u
2
= < v, u > .
(2) Soit w = (
w
1
w
2
). Alors
< u +v, w > = 3(u
1
+v
1
)w
1
+ 2(u
2
+v
2
)w
2
= (3u
1
w
1
+ 2u
2
w
2
) + (3v
1
w
1
+ 2v
2
w
2
)
= < u, w > + < v, w > .
103
104 CHAPITRE 7. PRODUITS SCALAIRES GNRALISS
(3)
< u, v > = 3(u
1
)v
1
+ 2(u
2
)v
2
= (3u
1
v
1
+ 2u
2
v
2
)
= < u, v > .
(4)
< v, v > = 3v
1
v
1
+ 2v
2
v
2
= 3v
2
1
+ 2v
2
2
0.
(5)
< v, v > = 3v
2
1
+ 2v
2
2
= 0
v
1
= 0 v
2
= 0
v = 0 .
Dnition 7.4. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >. Alors on
dnit la norme (ou longueur) dun vecteur v V par la formule
| v |=

< v, v >
La distance entre u, v V est mme par dnition
d(u, v) =| u v | .
Exemple 7.5. Norme et distance dans R
n
. Lorsque V = R
n
et <, > est le produit scalaire habituel
< u, v >= u v, on retrouve les notions habituelles de norme et de distance dans R
n
.
Exemple 7.6. Soit V = R
2
. On obtient des notions de norme et de distance direntes selon le
produit scalaire gnralis choisi. Soient u = (
1
0
) et v = (
0
1
). Si lon choisit le produit scalaire
habituel sur R
2
, on a
| u |=
_
u
2
1
+u
2
2
=

1 + 0 = 1
et
d(u, v) =| u v |=|
_
1
1
_
|
=
_
1
2
+ (1)
2
=

2.
Si lon choisit le produit scalaire gnralis < u, v >= 3u
1
v
1
+ 2u
2
v
2
on obtient
| u | =

< u, u >
=
_
3u
2
1
+ 2u
2
2
=

3 + 0 =

3.
et
d(u, v) =| u v |=
_
<
_
1
1
_
,
_
1
1
_
> =

3 + 2 =

5.
Dnition 7.7 (Cercle unit (ou sphre unit)). Soit V un espace vectoriel muni dun produit
scalaire gnralis <, >. Alors le cercle unit, ou sphre unit de V est par dnition lensemble des
u V tels que
| u |= 1 .
Ce sont les lments de V dont la distance lorigine est gale 1.
7.1. DFINITION ET PREMIRES PROPRITS 105
Exemple 7.8. Soit V = R
2
et <, > le produit scalaire habituel. Soit u = (
x
y
). Alors
| u |=
_
x
2
+y
2
et lquation du cercle unit est alors
_
x
2
+y
2
= 1 ou
x
2
+y
2
= 1.
Exemple 7.9. Soit V = R
2
muni du produit scalaire gnralis
< u, v >= 3u
1
v
1
+ 2u
2
v
2
.
Soit w = (x, y). Alors
| w |=
_
3x
2
+ 2y
2
ce qui donne
_
3x
2
+ 2y
2
= 1 ou
3x
2
+ 2y
2
= 1
comme quation pour le cercle unit.
Le graphe de cette quation est une ellipse.
Dnition 7.10. Soit A une matrice de taille nn inversible. Le produit scalaire gnralis associ
A est, par dnition, le produit scalaire sur R
n
qui u, v R
n
associe
Au Av
(le produit scalaire habituel de Au et de Av).
Soient u, v R
n
reprsents comme vecteurs colonne. Nous avons vu que
Au Av = (Av)
T
Au
et ceci conduit une nouvelle formulation de ce produit scalaire gnralis :
< u, v >= v
T
A
T
Au.
Notons que lorsque A = I, on obtient le produit scalaire habituel < u, v >= u v.
Exemple 7.11. Soit
A =
_
3 0
0

2
_
.
Alors le produit scalaire gnralis associ A est
< u, v > = (v
1
v
2
)
_
3 0
0

2
__
3 0
0

2
__
u
1
u
2
_
= (v
1
v
2
)
_
3 0
0 2
__
u
1
u
2
_
= 3u
1
v
1
+ 2u
2
v
2
.
On retrouve ainsi le produit scalaire de lexemple 7.3.
Thorme 7.12. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >. Alors, pour
tout u, v, w V et tout R, on a
(a) < 0, v >=< v, 0 >= 0
(b) < u, v >= < u, v >
(c) < u, v +w >=< u, v > + < u, w > .
Dmonstration. Ceci dcoule immdiatement des proprits du produit scalaire :
(a) < 0, v >= 0 < 0, v >= 0 et < v, 0 >=< 0, v >= 0.
(b) < u, v >=< v, u >= < v, u >= < u, v >.
(c) < u, v +w >=< v +w, u >=< v, u > + < w, u >=< u, v > + < u, w > .
106 CHAPITRE 7. PRODUITS SCALAIRES GNRALISS
7.2 Angles et orthogonalit
Thorme 7.13 (Ingalit de Cauchy-Schwarz). Soit V un espace vectoriel muni dun produit
scalaire gnralis <, >. Soient u, v V . Alors on a
[ < u, v > [ | u | | v | .
Dmonstration. Si u = 0 , alors on a
< u, v >=| u |= 0 ,
donc larmation est vraie. Supposons que u ,= 0, et posons
a = < u, u >
b = 2 < u, v >
c = < v, v > .
On a, pour tout t R,
0 < tu +v, tu +v >=< u, u > t
2
+ 2 < u, v > t+ < v, v >= at
2
+bt +c.
Donc
at
2
+bt +c 0
pour tout t R. Ceci implique que le polynme quadratique
aX
2
+bX +c
a soit une racine double, soit aucune racine relle.
Son discriminant est donc ngatif ou nul : b
2
4ac 0. Remplaant a par < u, u >, b par
2 < u, v > et c par < v, v >, on obtient
4 < u, v >
2
4 < u, u >< v, v > 0
ce qui implique
< u, v >
2
< u, u > < v, v >
donc
[ < u, v > [

< u, u >< v, v > =| u | | v | .
Thorme 7.14. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >. Alors on
a, pour tout u, v V et pour tout R
(a) | u | 0
(b) | u | = 0 u = 0
(c) | u | = [[ | u |
(d) | u +v | | u | + | v | ingalit du triangle
Dmonstration. La dmonstration est la mme que dans le cas du produit scalaire habituel.
Corollaire 7.15. Soit V un espace vectoriel muni dun produit scalaire gnralis. Alors, pour tout
u, v, w V et tout R, on a
(a) d(u, v) 0
(b) d(u, v) = 0 u = v
(c) d(u, v) = d(v, u)
(d) d(u, v) d(u, w) +d(w, v) ingalit du triangle
Dmonstration. Ceci est une consquence immdiate des dnitions et du thorme prcdent.
7.2. ANGLES ET ORTHOGONALIT 107
7.2.1 Angle form par deux vecteurs
Soit V un espace vectoriel muni dun produit scalaire gnralis <, >. Soient u, v V . Alors par
lingalit de Cauchy-Schwarz, on a si u ,= 0 et v ,= 0
_
< u, v >
| u | | v |
_
2
1
donc
1
< u, v >
| u | | v |
1 .
Il existe donc un unique angle , avec 0 , tel que
cos =
< u, v >
| u | | v |
.
On appelle langle form par les vecteurs u et v. Remarquons que dans le cas du produit scalaire
habituel de R
n
, on retrouve la notion habituelle dangle entre deux vecteurs.
Dnition 7.16. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >. Soient
u, v V . On dit que u et v sont orthogonaux si et seulement si
polynme < u, v >= 0 .
Exemple 7.17. Soit T
2
lespace vectoriel des fonctions polynomiales de degr au plus 2. On dnit
un produit scalaire gnralis sur T
2
en posant
< p, q >=
_
1
1
p(x)q(x)dx
pour tout p, q T
2
. Les axiomes de produit scalaire gnralis sont faciles vrier. On a par
exemple la positivit : pour tout p T
2
, on a
< p, p >=
_
1
1
p
2
(x)dx 0 .
Soient
p(x) = x
et
q(x) = x
2
alors p et q sont orthogonaux. En eet
< p, q > =
_
1
1
x x
2
dx =
_
1
1
x
3
dx
= 0 .
Thorme 7.18 (Thorme de Pythagore gnralis). Soit V un espace vectoriel muni dun produit
scalaire gnralis. Soient u, v V , et supposons que u et v soient orthogonaux. Alors
| u +v |
2
=| u |
2
+ | v |
2
.
Dmonstration. Comme u et v sont orthogonaux, on a
< u, v >= 0 .
Donc
| u +v |
2
= < u +v, u +v >
= | u |
2
+ | v |
2
+2 < u, v >
= | u |
2
+ | v |
2
.
108 CHAPITRE 7. PRODUITS SCALAIRES GNRALISS
Exemple 7.19. Soit T
2
lespace vectoriel des fonctions polynomiales de degr au plus 2, muni du
produit scalaire gnralis dni dans lexemple 7.17.
Soient p(x) = x et q(x) = x
2
. Nous avons vu que p et q sont orthogonaux. Calculons | p |
2
, |
q |
2
, et | p +q |
2
:
| p |
2
=< p, p >=
_
1
1
x
2
dx =
2
3
| q |
2
=< q, q >=
_
1
1
x
4
dx =
2
5
| p +q |
2
=< p +q, p +q >=
_
1
1
(x +x
2
)(x +x
2
)dx =
_
1
1
(x
4
+ 2x
3
+x
2
)dx =
16
15
On a bien
| p |
2
+ | q |
2
=| p +q |
2
Dnition 7.20. Soit V un espace vectoriel muni dun produit scalaire gnralis, et soit W un
sous-espace vectoriel de V . On dit que u V est orthogonal W si u est orthogonal tout lment
de W. Lensemble des u V qui sont orthogonaux W est appel le complment orthogonal de W.
Il est not W

.
Thorme 7.21. Soit V un espace vectoriel muni dun produit scalaire gnralis, et soit W un
sous-espace vectoriel de V . Alors on a
(a) W

est un sous-espace vectoriel de V .


(b) W W

= 0 .
Figure 9.1 : V = R
2
< u, v >= u v
Dmonstration. (a) On a < 0, w >= 0 pour tout w W, donc 0 W

. Montrons que W

est
ferm par addition et par multiplication par les scalaires. Soient
u, v W

.
Alors
< u, w >=< v, w >= 0
pour tout w W . On a donc
< u +v, w >=< u, w > + < v, w >= 0 + 0 = 0
7.2. ANGLES ET ORTHOGONALIT 109
pour tout w W ce qui montre que
u +v W

.
De mme, si R, alors
< u, w >= < u, w >= 0
pour tout w W et donc u W

.
(b) Soit v W W

. Alors
< v, v >= 0
et donc
v = 0.
Thorme 7.22. Soit A une matrice de taille mn. Alors
(a) Par rapport au produit scalaire habituel de R
n
, le complment orthogonal de lespace des lignes
de A est le nilespace (noyau) de A.
(b) Par rapport au produit scalaire habituel de R
m
, le complment orthogonal de lespace des co-
lonnes de A est le nilespace de A
T
.
Dmonstration. (a) Soit W lespace des lignes de A. Soit v W

. Soient
1
, . . . ,
m
les vecteurs
ligne de A. Alors

1
v =
2
v = =
m
v = 0 .
Or, nous avons vu que le systme linaire
Ax = 0
peut tre exprim par
_
_
_
_
_

1
x

2
x
.
.
.

m
x
_
_
_
_
_
=
_
_
_
_
_
0
0
.
.
.
0
_
_
_
_
_
.
Comme
1
v =
2
v = =
m
v = 0, le vecteur v est une solution de ce systme. Par
dnition, ceci implique que v est dans le nilespace de A.
Rciproquement, supposons que v est dans le nilespace de A, autrement dit
Av = 0 .
Alors on a

1
v =
2
v = =
m
v = 0 .
Soit w W. Alors w est combinaison linaire de
1
,
2
, . . . ,
m
., cest--dire que lon a
w =
1

1
+
2

2
+ +
m

m
avec
1
,
2
, . . . ,
m
R. On a donc
w v = (
1

1
+
2

2
+ +
m

m
) v
=
1
(
1
v) +
2
(
2
v) + +
m
(
m
v)
= 0
Donc v W

. Ceci dmontre la partie (a) du thorme.


(b) On applique (a) la matrice A
T
: en eet, lespace des colonnes de A est gal lespace des
lignes de A
T
.
110 CHAPITRE 7. PRODUITS SCALAIRES GNRALISS
7.3 Bases orthogonales et mthode de Gram-Schmidt
Dnition 7.23. Soit V un espace vectoriel muni dun produit scalaire gnralis . Soit
S = v
1
, . . . , v
n

un sous-ensemble de V . On dit que S est un ensemble orthogonal si v


i
est orthogonal v
j
pour tout
i ,= j. On dit que S est un ensemble orthonorm si S est orthogonal et si
| v
i
|= 1
pour tout i = 1, . . . , n. Un ensemble orthogonal qui est une base est appel une base orthogonale ;
un ensemble orthonorm qui est une base est appel une base orthonorme.
Thorme 7.24. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >, et soit
S = v
1
, . . . , v
n
une base orthonorme de V . Soit u V . Alors
u =< u, v
1
> v
1
+ + < u, v
n
> v
n
.
Dmonstration. Comme S est une base, il existe
1
, . . . ,
n
R tels que
u =
1
v
1
+ +
n
v
n
.
On a
< u, v
i
>=<
1
v
1
+ +
n
v
n
, v
i
>=
1
< v
1
, v
i
> + +
n
< v
n
, v
i
> .
Or, comme < v
j
, v
i
>= 0 si i ,= j et < v
i
, v
i
>=| v
i
|
2
= 1, on a
< u, v
i
>=
i
et par consquent
u =< u, v
1
> v
1
+ < u, v
2
> v
2
+ + < u, v
n
> v
n
.
On appelle les scalaires
< u, v
1
>, < u, v
2
>, . . . , < u, v
n
>
les coordonnes de u par rapport la base orthonorme v
1
, . . . , v
n
.
Thorme 7.25. Soit V un espace vectoriel muni dun produit scalaire gnralis <, > . Soit S =
v
1
, v
2
, . . . , v
n
une base orthogonale de V et u un vecteur de V . Alors
u =
< u, v
1
>
| v
1
|
2
v
1
+
< u, v
2
>
| v
2
|
2
v
2
+ +
< u, v
n
>
| v
n
|
2
v
n
.
Dmonstration. La base
S

=
_
v
1
| v
1
|
,
v
2
| v
2
|
, . . . ,
v
n
| v
n
|
_
est orthonorme. Par le thorme prcdent, on a donc
u =
_
u,
v
1
| v
1
|
_
v
1
| v
1
|
+ +
_
u,
v
n
| v
n
|
_
v
n
| v
n
|
et alors
u =
< u, v
1
>
| v
1
|
2
v
1
+ +
< u, v
n
>
| v
n
|
2
v
n
.
Thorme 7.26. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >. Soit S =
v
1
, . . . , v
n
un sous-ensemble orthogonal de V , avec v
i
,= 0 pour tout i = 1, . . . , n. Alors S est une
famille linairement indpendante.
7.3. BASES ORTHOGONALES ET MTHODE DE GRAM-SCHMIDT 111
Dmonstration. Supposons que

1
v
1
+
2
v
2
+ +
n
v
n
= 0
avec
1
,
2
, . . . ,
n
R. On a
<
1
v
1
+
2
v
2
+ +
n
v
n
, v
i
>=< 0, v
i
>= 0
pour tout i = 1, . . . , n. Par linarit du produit scalaire, on obtient

1
< v
1
, v
i
> +
2
< v
2
, v
i
> + +
n
< v
n
, v
i
>= 0.
Mais comme < v
j
, v
i
>= 0 si i ,= j, on obtient

i
< v
i
, v
i
>= 0
ce qui implique, comme v
i
,= 0, que
i
= 0 pour tout i = 1, . . . , n. Donc S est linairement
indpendant.
Thorme 7.27. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >. Soit S =
v
1
, v
2
, . . . , v
n
un sous-ensemble orthonorm (qui nest pas forcment une base ; il peut tre plus
petit) de V et soit u V . Posons
w
1
=< u, v
1
> v
1
+ < u, v
2
> v
2
+ + < u, v
n
> v
n
et w
2
= u w
1
. Notons W = L(S), le sous-espace vectoriel de V engendr par S. Alors w
1
W et
w
2
W

W
u
w
1
w
2
Figure 9.2 : u = w
1
+w
2
Notation : Le vecteur w
1
W est appel la projection orthogonale de u sur W, et est not
proj
W
(u).
Dmonstration. Il est clair que w
1
W, puisque w
1
est une combinaison linaire de v
1
, . . . , v
n
.
Montrons que w
2
W

. On a
< w
2
, v
i
>=< u w
1
, v
i
>=< u, v
i
> < w
1
, v
i
>
pour tout i = 1, . . . , n. On a
< w
1
, v
i
> = < u, v
1
> v
1
+ + < u, v
n
> v
n
, v
i
)
= < u, v
1
>< v
1
, v
i
> + + < u, v
n
>< v
n
, v
i
>
= 0 + + 0+ < u, v
i
>< v
i
, v
i
> +0 + + 0
= < u, v
i
> 1 =< u, v
i
>
pour tout i = 1, . . . , n. On a donc
< w
2
, v
i
>=< u, v
i
> < w
1
, v
i
>= 0
112 CHAPITRE 7. PRODUITS SCALAIRES GNRALISS
pour tout i = 1, . . . , n ce qui montre que w
2
est orthogonal S = v
1
, v
2
, . . . , v
n
. Comme S engendre
W, on a que w
2
est orthogonal W. Donc
w
2
W

.
Corollaire 7.28. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >. Soit W un
sous-espace vectoriel de dimension nie de V . Alors tout u V scrit de manire unique comme
u = w
1
+w
2
avec w
1
W et w
2
W

. De plus, w
1
= proj
W
(u).
Exemple 7.29. Soit V = R
3
, <, > le produit scalaire habituel, et soit W le sous-espace engendr
par
v
1
=
_
_
0
1
0
_
_
et v
2
=
_
_
4/5
0
3/5
_
_
.
On vrie que | v
1
|=| v
2
|= 1, et que < v
1
, v
2
>= v
1
v
2
= 0. Donc S = v
1
, v
2
est un ensemble
orthonorm. Soit u =
_
1
1
1
_
. Alors
w
1
= proj
W
(u) =< u, v
1
> v
1
+ < u, v
2
> v
2
.
Comme < u, v
1
>= 1 et < u, v
2
>=
1
5
, ceci donne
proj
W
(u) = v
1

1
5
v
2
=
_
_
4/25
1
3/25
_
_
.
La dcomposition orthogonale de u par rapport W est donc
_
_
1
1
1
_
_
=
_
_
4/25
1
3/25
_
_
+
_
_
21/25
0
28/25
_
_
.
On vrie que
_
21/25
0
28/25
_
est orthogonal v
1
et v
2
et donc quil est bien dans W

.
Thorme 7.30. Soit V un espace vectoriel de dimension nie muni dun produit scalaire gnralis
<, >. Alors V a une base orthonorme.
Dmonstration. On va dmontrer le thorme en construisant une base orthonorme. La mthode de
construction utilise ici sappelle mthode de Gram-Schmidt ou procd de Gram-Schmidt.
Soit S = u
1
, . . . , u
n
une base quelconque de V . On construit une base orthonorme en n tapes.
1re tape : On pose
v
1
=
u
1
| u
1
|
ce qui nous donne | v
1
|= 1.
2re tape : Soit W
1
le sous-espace de V engendr par v
1
. On pose
w
2
= u
2
proj
W
1
(u
2
) .
Alors
< w
2
, v
1
>= 0
7.3. BASES ORTHOGONALES ET MTHODE DE GRAM-SCHMIDT 113
car w
2
est orthogonal W
1
, donc v
1
. Vrions que w
2
,= 0. En eet, si w
2
= 0, alors
u
2
= proj
W
1
(u
2
) .
Ceci implique que u
2
et v
1
sont linairement dpendants et donc que u
2
et u
1
le sont galement.
Ceci nest pas possible car u
1
et u
2
font partie dune base de V . La norme de w
2
est donc non nulle.
On pose alors
v
2
=
w
2
| w
2
|
.
On a | v
2
|= 1, | v
1
|= 1 et < v
1
, v
2
>= 0.
k-me tape Supposons construits les vecteurs
v
1
, v
2
, . . . , v
k1
tels que
| v
1
|=| v
2
|= =| v
k1
|= 1,
que < v
i
, v
j
>= 0 si i ,= j et que le sous-espace W
k1
engendr par v
1
, v
2
, . . . , v
k1
soit gal au
sous-espace engendr par u
1
, . . . , u
k1
. On pose
w
k
= u
k
proj
W
k1
(u
k
).
Montrons que w
k
,= 0. Si w
k
= 0, alors u
k
= proj
W
k1
(u
k
), donc u
k
W
k1
= L(u
1
, . . . , u
k1
).
Ceci contredit lhpothse que u
1
, . . . , u
k
font partie dune base de V . Donc w
k
,= 0. Comme w
k
=
u
k
proj
W
k1
(u
k
), le vecteur w
k
est orthogonal W
k1
et en particulier v
1
, . . . , v
k1
. On pose
nalement
v
k
=
w
k
| w
k
|
.
On a ainsi construit v
1
, . . . , v
k
tels que
| v
1
|= =| v
k
|= 1,
et que < v
i
, v
j
>= 0 si i ,= j et L(v
1
, . . . , v
k
) = L(u
1
, . . . , u
k
). On termine ce procd lorsque lon a
obtenu v
n
.
Exemple 7.31. On considre R
3
muni du produit scalaire habituel. Soit S = u
1
, u
2
, u
3
, avec
u
1
=
_
1
1
1
_
, u
2
=
_
0
1
1
_
, u
3
=
_
0
0
1
_
une base de R
3
. On applique la mthode de Gram-Schmidt pour
obtenir une base orthonorme.
1re tape : w
1
= u
1
=
_
1
1
1
_
.
2me tape : soit W
1
= L(w
1
) = L(u
1
). On pose
w
2
= u
2
proj
W
1
(u
2
) =
= u
2

< u
2
, w
1
>
| w
1
|
2
w
1
Comme < u
2
, w
1
>=< u
2
, u
1
>= 2 et | w
1
|
2
=| u
1
|
2
= 3, on obtient
w
2
=
_
_
0
1
1
_
_

2
3
_
_
1
1
1
_
_
=
_
_
2/3
1/3
1/3
_
_
.
3me tape : soit
W
2
= L(w
1
, w
2
) = L(u
1
, u
2
).
Posons
w
3
= u
3
proj
W
2
(u
3
) = u
3

< u
3
, w
1
>
| w
1
|
2
w
1

< u
3
, w
2
>
| w
2
|
2
w
2
=
_
_
0
1/2
1/2
_
_
.
114 CHAPITRE 7. PRODUITS SCALAIRES GNRALISS
On a donc
w
1
=
_
_
1
1
1
_
_
, w
2
=
_
_
2/3
1/3
1/3
_
_
, w
3
=
_
_
0
1/2
1/2
_
_
.
Alors w
1
, w
2
, w
3
est une base orthogonale de R
3
. On obtient une base orthonorme en posant
v
1
=
w
1
| w
1
|
, v
2
=
w
2
| w
2
|
et v
3
=
w
3
| w
3
|
.
Ceci nous donne
v
1
=
_
_
1/

3
1/

3
1/

3
_
_
, v
2
=
_
_
2/

6
1/

6
1/

6
_
_
, v
3
=
_
_
0
1/

2
1/

2
_
_
.
7.4 Matrices orthogonales
7.4.1 Dnition et Proprits
Dnition 7.32. Soit A une matrice carre. On dit que A est une matrice orthogonale si
A
1
= A
T
Remarque : A est une matrice orthogonale si et seulement si
A
T
A = AA
T
= I .
Exemple 7.33. Les matrices de rotation sont orthogonales. Soit un angle. Alors la matrice de la
rotation dangle de R
2
est
A =
_
cos sin
sin cos
_
.
Cette matrice est orthogonale. En eet, lidentit
sin
2
+ cos
2
= 1
montre que lon a
A
T
A = I.
Thorme 7.34. Soit A une matrice n n. Les trois proprits suivantes sont quivalentes :
(a) A est orthogonale.
(b) Pour tout x R
n
, on a | Ax |=| x |.
(c) Pour tout x, y R
n
, on a Ax Ay = x y.
En dautres termes, une matrice orthogonale conserve les normes et les angles.
Dmonstration. (a) = (b) Supposons A orthogonale. On a
| Ax |
2
= Ax Ax = x (A
T
A)x = x x =| x |
2
.
(b) = (c) Supposons que
| Ax |=| x |
pout tout x R
n
. On a
Ax Ay =
1
4
| Ax +Ay |
2

1
4
| Ax Ay |
2
=
=
1
4
| A(x +y) |
2

1
4
| A(x y) |
2
=
=
1
4
| x +y |
2

1
4
| x y |
2
= x y .
7.4. MATRICES ORTHOGONALES 115
(c) = (a) On considre (c) avec x = e
i
et y = e
j
des vecteurs de la base standard. Alors x y
est soit 0 (si i ,= j) soit 1 (si i = j), et est le coecient I
ij
de la matrice identit. Dautre part,
Ax Ay = e
T
j
A
T
Ae
i
est le coecient (i, j) de la matrice A
T
A. Il suit que A
T
A = I, et donc que A est orthogonale.
Remarque 7.35. Linverse dune matrice orthogonale est orthogonale. En eet on a
A orthogonale A
1
= A
T
(A
1
)
1
= (A
T
)
1
(A
1
)
1
= (A
1
)
T
A
1
est orthogonale.
7.4.2 Changement de bases orthonormes
Thorme 7.36. Soit V un espace vectoriel de dimension nie muni dun produit scalaire gnralis.
Soit P la matrice de changement de base dune base orthonorme vers une autre base orthonorme.
Alors P est une matrice orthogonale.
Dmonstration. Soient B = e
1
, . . . , e
n
et B

= e

1
, . . . , e

n
deux bases orthonormes de V et soit
P
B,B
la matrice de changement de base de B

B. On a
u =
n

i=1
u
i
e
i
=
n

i=1
u

i
e

i
.
Comme B et B

sont des bases orthonormes, on a


| u |=
n

i=1
u
2
i
=
n

i=1
u

2
i
.
De plus, on a
(u)
B
=
_
_
_
u
1
.
.
.
u
n
_
_
_ = P
B,B

_
_
_
u

1
.
.
.
u

n
_
_
_ = P
B,B
(u)
B
,
n

i=1
u
2
i
= (u)
T
B
(u)
B
et
n

i=1
u

2
i
= (u)
T
B
(u)
B

ce qui implique que


(u)
T
B
(u)
B
=| u |= (u)
T
B
(u)
B
= (P
B,B
(u)
B
)
T
P
B,B
(u)
T
B
= (u)
T
B
P
T
B,B
P
B,B
(u)
B
.
Comme ceci est vrai pour tout vecteur u, on en dduit que P
T
B,B
P
B,B
= I ce qui montre que P
B,B

est orthogonale.
7.4.3 Dcomposition Q-R : application du thorme 7.30
Soit A une matrice n n ayant ses colonnes linairement indpendantes. Alors il existe une
matrice orthogonale Q (par rapport au produit scalaire standard sur R
n
) et une matrice triangulaire
suprieure R, telles que :
A = QR.
Plus prcisment, Q est la matrice dont les colonnes sont les vecteurs obtenus en appliquant le
procd de Gram-Schmidt aux vecteurs colonne de A.
On procde comme suit :
Soit
A =
_
_
_
a
11
a
12
. . . a
1n
.
.
.
.
.
.
a
n1
a
n2
. . . a
nn
_
_
_.
116 CHAPITRE 7. PRODUITS SCALAIRES GNRALISS
On appelle c
i
la i-me colonne de A. Soit c

1
, . . . , c

n
la base obtenue en appliquant Gram-Schmidt
c
1
, . . . , c
n
et Q la matrice dont les colonnes sont c

1
, . . . , c

n
.
Q =
_
_
_
q
11
. . . q
1n
.
.
.
.
.
.
q
n1
. . . q
nn
_
_
_
Comme c

1
, . . . , c

n
est une base orthonorme, on a
c
1
= < c
1
, c

1
> c

1
+ + < c
1
, c

n
> c

n
.
.
.
c
n
= < c
n
, c

1
> c

1
+ + < c
n
, c

n
> c

n
cest--dire
c
1
= < c
1
, c

1
>
_
_
_
q
11
.
.
.
q
n1
_
_
_+ + < c
1
, c

n
>
_
_
_
q
1n
.
.
.
q
nn
_
_
_
.
.
.
c
n
= < c
n
, c

1
>
_
_
_
q
11
.
.
.
q
n1
_
_
_+ + < c
n
, c

n
>
_
_
_
q
1n
.
.
.
q
nn
_
_
_.
Ainsi, on voit que
A =
_
_
_
q
11
. . . q
1n
.
.
.
.
.
.
q
n1
. . . q
nn
_
_
_
_
_
_
< c
1
, c

1
> < c
2
, c

1
> . . . < c
n
, c

1
>
.
.
.
.
.
.
< c
1
, c

n
> < c
2
, c

n
> . . . < c
n
, c

n
>
_
_
_
. .
=R
La matrice R est triangulaire. En eet, par Gram-Schmidt, pour tout k > 1, c

k
est orthogonal
lespace engendr par c
1
, . . . , c
k1
. Ainsi, R
ij
=< c
j
, c

i
>= 0 pour tout i > j, et R est bien
triangulaire suprieure.
La dcomposition dune matrice en un produit dune matrice orthogonale et dune matrice tri-
angulaire sappelle la dcomposition QR.
Exemple 7.37. Calculons la dcomposition QR de la matrice
A =
_
2 3
1 0
_
.
En appliquant le procd de Gram-Schmidt aux vecteurs colonne de A, on obtient
c

1
=
_
2

5
5
5
5
_
et c

2
=
_

5
5
2

5
5
_
De plus,
< c
1
, c

1
> =

5
< c
2
, c

1
> =
6

5
5
< c
1
, c

2
> = 0
< c
2
, c

2
> =
3

5
5
Ainsi,
Q =
_
2

5
5

5
5
5
5
2

5
5
_
et R =
_

5
6

5
5
0
3

5
5
_
.
7.5. LA MTHODE DES MOINDRES CARRS 117
7.5 La mthode des moindres carrs
Thorme 7.38. Soit V un espace vectoriel muni dun produit scalaire gnralis, et soit W un
sous-espace de V . Soit u V . Alors
| u proj
W
(u) | <| u w |
pour tout w W, w ,= proj
W
(u). On dit que proj
W
(u) est la meilleure approximation de u par des
vecteurs de W.
Dmonstration. Pour tout w W, on a
u w = (u proj
W
(u)) + (proj
W
(u) w) .
On a
proj
W
(u) w W
et
u proj
W
(u) W

donc ces deux termes sont orthogonaux lun lautre. Par le thorme de Pythagore gnralis, on
a
| u w |
2
=| u proj
W
(u) |
2
+ | proj
W
(u) w |
2
.
Si w ,= proj
W
(u), alors
| proj
W
(u) w |
2
> 0
, do
| u w |
2
>| u proj
w
(u) |
2
et donc
| u w | >| u proj
w
(u) | .
7.5.1 Solution approximative dun systme dquations linaires
Soit Ax = b un systme dquations linaires qui est incompatible, cest--dire qui na pas de
solution. Nous allons voir une mthode pour donner une solution approximative de ce systme. Cette
mthode sappelle la mthode des moindres carrs (least squares). Le principe de la mthode est le
suivant : tant donn un systme Ax = b de m quations et n inconnues, on se propose de trouver
un vecteur x tel que la norme
| Ax b |
soit minimale. Un tel vecteur x est appel une solution au sens des moindres carrs. Cette termi-
nologie vient du fait que lon minimise la norme euclidienne de lerreur commise. En eet, posons
e = Ax b. Si le systme admettait une solution, on aurait e = 0. Ce terme mesure donc lerreur
commise par lapproximation faite. Si e = (e
1
, . . . , e
m
), alors
| e |
2
= e
2
1
+e
2
2
+ +e
2
m
.
On dsire que ces carrs soient aussi petits que possible.
Soit Ax = b un systme de m quations linaires n inconnues. Alors A est de taille mn. Soit
W lespace des colonnes de A. Cest un sous-espace vectoriel de R
m
. Nous avons vu que le systme
a une solution si et seulement si b W. Lorsque b , W, le mieux que lon puisse faire est de trouver
une approximation de b par un vecteur de W. Or, nous avons vu que la meilleure approximation de
b par un vecteur de W est
proj
W
(b) .
On doit donc rsoudre le systme
Ax = proj
W
(b).
118 CHAPITRE 7. PRODUITS SCALAIRES GNRALISS
On pourrait donc calculer proj
W
(b), et rsoudre le systme Ax = proj
W
(b), mais il y a une meilleure
mthode. En eet, si x est tel que Ax = proj
W
(b), alors le vecteur
b Ax = b proj
W
(b)
est orthogonal W. Mais W est lespace des colonnes de A et W

est donc le nilespace de A


T
. On
doit donc avoir
A
T
(b Ax) = 0
autrement dit
A
T
Ax = A
T
b.
Dnition 7.39. Le systme
A
T
Ax = A
T
b
est appel le systme normal associ au systme Ax = b. Les solutions du systme normal sont les
solutions au sens des moindres carrs (solutions approximatives) du systme de dpart Ax = b.
Thorme 7.40. Pour tout systme dquations linaires
Ax = b
le systme normal associ
A
T
Ax = A
T
b
a au moins une solution. Toutes les solutions du systme normal sont des solutions au sens des
moindres carrs du systme Ax = b. De plus, si W est lespace des colonnes de A et si x est une
solution de moindres carrs de Ax = b, alors
proj
W
b = Ax.
Thorme 7.41. Soit A une matrice de taille m n. Supposons que les vecteurs colonne de A
soient linairement indpendantes. Alors la matrice A
T
A est inversible.
Dmonstration. Pour montrer que A
T
A est inversible, il sut de montrer que le systme
A
T
Ax = 0
a une unique solution (la solution triviale). Soit x une solution de ce systme. Alors Ax est dans le
nilespace de A
T
. Mais Ax est aussi dans lespace des colonnes de A. Or nous avons vu que ces deux
espaces sont orthogonaux lun lautre. Leur intersection est donc nulle. Ceci implique que
Ax = 0.
Comme nous avons suppos que les vecteurs colonne de A sont linairement indpendants, ceci
implique que x = 0.
Thorme 7.42. Soit A une matrice dont les vecteurs colonne sont linairement indpendants.
Alors tout systme linaire
Ax = b
a une unique solution au sens des moindres carrs qui est donne par
x = (A
T
A)
1
A
T
b .
Dmonstration. Ceci dcoule directements des deux thormes prcdents.
Exemple 7.43. Trouver les solutions de moindres carrs du systme Ax = b suivant :
x
1
+x
2
= 6
2x
1
x
2
= 1
x
1
3x
2
= 1
7.5. LA MTHODE DES MOINDRES CARRS 119
On a
A =
_
_
1 1
2 1
1 3
_
_
b =
_
_
6
1
1
_
_
Les vecteurs colonne de A tant linairement indpendants, le systme a une unique solution au sens
des moindres carrs. On a
A
T
A =
_
6 5
5 11
_
et
A
T
b =
_
7
8
_
.
Le systme normal A
T
Ax = A
T
b est donc
6x
1
5x
2
= 7
5x
1
+ 11x
2
= 8.
dont lunique solution est
x
1
=
117
39
x
2
=
83
39
.
120 CHAPITRE 7. PRODUITS SCALAIRES GNRALISS
Chapitre 8
Valeurs propres et vecteurs propres
8.1 Dnitions et premires proprits
Dnition 8.1. Soit A une matrice n n. On dit que x R
n
, x ,= 0, est un vecteur propre de A
sil existe R tel que
Ax = x.
Le scalaire est appel valeur propre de A. On dit que x est un vecteur propre associ (ou corres-
pondant) la valeur propre . Si x est un vecteur propre de A, alors Ax est colinaire x :
/
/
/
/
/
/
x
Ax
= 1
/
/
/
/
/
/
/
/
/
x
Ax
= 2
Exemple 8.2. Soit
A =
_
3 0
8 1
_
.
Alors x =
_
1
2
_
est un vecteur propre de A correspondant la valeur propre = 3, car
Ax =
_
3 0
8 1
__
1
2
_
=
_
3
6
_
= 3x.
Soit A une matrice n n. On peut rcrire lgalit
Ax = x
comme
Ax = Ix,
ce qui est quivalent
(I A)x = 0 .
Si est une valeur propre de A, alors cette quation a une solution x ,= 0. Ceci implique que
det(I A) = 0.
Cette dernire quation est appele lquation caractristique de A et p() = det(I A) est appel
le polynme caractristique de A. Les racines de lquation caractristique sont les valeurs propres
de A. Si A est une matrice nn, alors lquation caractristique de A est de degr n et le coecient
de
n
est 1. Autrement dit, le polynme caractristique dune matrice n n est de la forme
p() = det(I A) =
n
+c
1

n1
+ +c
n1
+c
n
.
On sait quun polynme de degr n a au plus n racines distinctes ce qui montre quune matrice nn
a au plus n valeurs propres distinctes.
121
122 CHAPITRE 8. VALEURS PROPRES ET VECTEURS PROPRES
Exemple 8.3. Cherchons les valeurs propres et les vecteurs propres de la matrice
A =
_
1 3
4 2
_
.
Son quation caractristique est
det(I A) = det
_
1 3
4 2
_
=
2
3 10 = 0.
Les valeurs propres de A sont donc les racines de

2
3 10 = 0.
qui sont polynme
= 2 et = 5.
Cherchons maintenant les vecteurs propres de A. Un vecteur
x =
_
x
1
x
2
_
est vecteur propre de A si et seulement si
Ax = x
autrement dit si
(I A)x = 0.
Ceci nous donne
_
1 3
4 2
__
x
1
x
2
_
=
_
0
0
_
.
Pour = 2, on obtient
_
3 3
4 4
__
x
1
x
2
_
=
_
0
0
_
.
Les solutions de ce systme sont
x
1
= t, x
2
= t.
Lensemble des vecteurs propres de A correspondant la valeur propre = 2 est donc
__
t
t
_
[ t R, t ,= 0
_
Pour = 5, on obtient le systme
_
4 3
4 3
__
x
1
x
2
_
=
_
0
0
_
dont les solutions sont
_
x
1
x
2
_
=
_
3
4
t
t
_
.
Lensemble des vecteurs propres de A correspondant la valeur propre = 5 est donc
__
3
4
t
t
_
[ t R, t ,= 0
_
Thorme 8.4. Soit A une matrice triangulaire. Alors les valeurs propres de A sont les lments
de la diagonale de A.
8.1. DFINITIONS ET PREMIRES PROPRITS 123
Dmonstration. Soit A une matrice triangulaire suprieure
A =
_
_
_
_
_
_
_
_
_
a
11
. . . . . .
0 a
22
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

0 0 . . . 0 a
nn
_
_
_
_
_
_
_
_
_
.
Le polynme caractristique de A est
det(I A) = det
_
_
_
_
_
_
_
_
_
a
11
. . . . . .
0 a
22
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

0 0 . . . 0 a
nn
_
_
_
_
_
_
_
_
_
= ( a
11
)( a
22
) . . . ( a
nn
)
ce qui montre que les valeurs propres de A sont
= a
11
, = a
22
, . . . , = a
nn
.
La dmonstration est analogue lorsque A est triangulaire infrieure.
8.1.1 Calcul des vecteurs propres
Soit A une matrice carre et une valeur propre de A. Les vecteurs propres de A correspondant
la valeur propre sont les vecteurs x ,= 0 qui satisfont lquation Ax = x. De faon quivalente,
ces vecteurs sont les vecteurs non nuls de lespace des solutions de
(I A)x = 0 .
Lensemble de ces vecteurs propres est appel lespace propre de A correspondant la valeur propre
et est not E

.
Nous venons donc de voir que lespace propre E

est le nilespace de la matrice I A.


Exemple 8.5. Trouver des bases pour les espaces propres de la matrice
A =
_
_
0 0 2
1 2 1
1 0 3
_
_
.
Lquation caractristique de A est

3
5
2
+ 8 4 = ( 1)( 2)
2
= 0 .
Les valeurs propres de A sont donc
= 1 et = 2 .
Il y a donc deux espaces propres.
Pour calculer E
2
(lespace propre associ la valeur propre 2), il faut trouver le noyau de 2I A,
cest--dire le noyau de
_
_
2 0 2
1 0 1
1 0 1
_
_
.
On obtient
x
1
= s, x
2
= t, x
3
= s.
124 CHAPITRE 8. VALEURS PROPRES ET VECTEURS PROPRES
Les vecteurs propres de A correspondant la valeur propre = 2 sont donc les vecteurs non nuls
de la forme
x =
_
_
s
t
s
_
_
=
_
_
s
0
s
_
_
+
_
_
0
t
0
_
_
= s
_
_
1
0
1
_
_
+t
_
_
0
1
0
_
_
.
Comme
_
_
1
0
1
_
_
et
_
_
0
1
0
_
_
sont linairement indpendants, ces vecteurs forment une base de lespace propre E
2
.
Pour = 1, on calcule le noyau de I A :
_
_
1 0 2
1 1 1
1 0 2
_
_
.
Les solutions sont
x
1
= 2s, x
2
= s, x
3
= s
ce qui nous permet de conclure que les vecteurs propres de A correspondant la valeur propre = 1
sont les vecteurs non nuls de la forme
s
_
_
2
1
1
_
_
.
Lensemble
_
_
_
_
_
2
1
1
_
_
_
_
_
constitue ainsi une base possible de E
1
Thorme 8.6. Soit A une matrice carre, et soit k un entier. Si est une valeur propre de A, et
x un vecteur propre correspondant, alors
k
est une valeur propre de A
k
, et x est un vecteur propre
correspondant
k
.
polynme
Dmonstration. Supposons dabord que k est positif. On a
A
k
x = A
k1
(Ax) = A
k1
(x) = A
k1
x = A
k2
(Ax) =
2
A
k2
x = =
k
x.
Si k est ngatif, et si A est inversible, on a alors A
1
x =
1
x en divisant lquation Ax = x
par A
1

1
; le mme calcul donne A
k
x =
k
x.
En particulier, les valeurs propres de A
k
sont prcisment les puissances k-imes des valeurs
propres de A. Remarquons toutefois que A
k
peut avoir plus de vecteurs propres que A. Un exemple
simple est la matrice A = (
0 1
0 0
) ; lespace propre E
0
de A est de dimension 1, mais comme A
2
= 0
lespace propre E
0
de A
2
est de dimension 2.
Lemme 8.7. Soit f = a
n
X
n
+ +a
1
X +a
0
un polynme coecients rels. Alors X = 0 est une
racine de f = 0 si et seulement si a
0
= 0.
Dmonstration. Si 0 est une racine de f = 0, alors en remplaant X par 0 on trouve a
0
= 0.
Rciproquement, si a
0
= 0, alors on vrie que 0 est bien une solution de lquation f = 0.
Thorme 8.8. Soit A = (a
ij
) une matrice n n et det(I A) =
n
+c
n1

n1
+ +c
1
+c
0
son polynme caractristique. Alors
c
0
= (1)
n
det(A) et c
n1
= tr(A).
8.2. DIAGONALISATION 125
Dmonstration. Montrons la premire galit. Remplaons par 0 dans le polynme caractristique
de A. On obtient ainsi
det(A) = c
0
.
Comme det(A) = (1)
n
det(A), on obtient lgalit voulue.
Montrons la deuxime galit.
det(I n) = det
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
a
n1
. . . a
n(n1)
a
nn
_
_
_
_
_
.
Si on dveloppe ce dterminant par rapport la premire ligne par exemple, on remarque que le
seul terme qui contient des puissances de suprieures n 2 est
( a
11
)( a
22
) ( a
nn
).
On a donc
( a
11
)( a
22
) ( a
nn
) =
n
+ (a
11
a
22
a
nn
)
n1
+. . .
Le coecient de
n1
dans le polynme caractristique est donc bien trace(A).
Corollaire 8.9. Une matrice carre A est inversible si et seulement si = 0 nest pas valeur propre
de A.
Dmonstration. la matrice A est inversible si et seulement si det(A) ,= 0. Or, par le thorme
prcdent, ceci est quivalent dire que = 0 nest pas un zro du polynme caractristique,
cest--dire pas une valeur propre de A.
Notons que si = 0 est une valeur propre de A, alors lespace propre associ E
0
nest rien dautre
que le nilespace de A. En rsum,
E
0
= KerA
si 0 est valeur propre.
8.2 Diagonalisation
Dnition 8.10. Soit A une matrice carre. On dit que A est diagonalisable sil existe une matrice
inversible P telle que P
1
AP soit une matrice diagonale.
Thorme 8.11. Soit A une matrice n n. Alors les proprits suivantes sont quivalentes :
(a) A est diagonalisable ;
(b) A a n vecteurs propres linairement indpendants.
Dmonstration. (a) = (b) Comme A est diagonalisable, il existe une matrice inversible
P =
_
_
_
_
_
p
11
p
12
. . . p
1n
p
21
p
22
. . . p
2n
.
.
.
.
.
.
.
.
.
p
n1
p
n2
. . . p
nn
_
_
_
_
_
,
telle que P
1
AP soit diagonale. On a donc P
1
AP = D, avec
D =
_
_
_
_
_
_

1
0 . . . 0
0
2
.
.
.
.
.
.
.
.
.
0
0 . . . 0
n
_
_
_
_
_
_
.
126 CHAPITRE 8. VALEURS PROPRES ET VECTEURS PROPRES
Comme P
1
AP = D, on a AP = PD. Donc
AP = PD =
_
_
_
p
11
. . . p
1n
.
.
.
.
.
.
p
n
1
. . . p
nn
_
_
_
_
_
_
_
_
_

1
0 . . . 0
0
.
.
.
.
.
.
.
.
.
0
n
_
_
_
_
_
_
=
_
_
_
_
_

1
p
11

2
p
12
. . .
n
p
1n

1
p
21

2
p
22
. . .
n
p
2n
.
.
.
.
.
.

1
p
n1

2
p
n2
. . .
n
p
nn
_
_
_
_
_
.
Soient p
1
, p
2
, . . . , p
n
les vecteurs colonne de P. Alors les colonnes de AP sont

1
p
1
,
2
p
2
, . . . ,
n
p
n
.
Mais on sait que les colonnes de AP sont
Ap
1
, Ap
2
, . . . , Ap
n
.
Donc
Ap
1
=
1
p
1
, Ap
2
=
2
p
2
, . . . , Ap
n
=
n
p
n
.
Comme P est inversible, les vecteurs colonne p
1
, p
2
, . . . , p
n
sont linairement indpendants. Par les
formules ci-dessus, p
1
, p
2
, . . . , p
n
sont des vecteurs propres de A correspondant aux valeurs propres

1
,
2
, . . . ,
n
. Donc A a n vecteurs propres linairement indpendants.
(b) = (a) Supposons que A ait n vecteurs propres linairement indpendants p
1
, p
2
, . . . , p
n
,
avec valeurs propres correspondantes
1
,
2
, . . . ,
n
. Posons
P =
_
_
_
_
_
p
11
p
12
. . . p
1n
p
21
p
22
. . . p
2n
.
.
.
.
.
.
.
.
.
p
n1
p
n2
. . . p
nn
_
_
_
_
_
.
Les colonnes de la matrice P sont les vecteurs p
1
, p
2
, . . . , p
n
. Les colonnes du produit AP sont les
vecteurs Ap
1
, Ap
2
, . . . , Ap
n
. Mais comme
Ap
1
=
1
p
1
, Ap
2
=
2
p
2
, . . . , Ap
n
=
n
p
n
,
on a
AP =
_
_
_
_
_

1
p
11

2
p
12
. . .
n
p
1n

1
p
21

2
p
22
. . .
n
p
2n
.
.
.
.
.
.
.
.
.

1
p
n1

2
p
n2
. . .
n
p
nn
_
_
_
_
_
=
_
_
_
_
_
p
11
p
12
. . . p
1n
p
21
p
22
. . . p
2n
.
.
.
.
.
.
.
.
.
p
n1
p
n2
. . . p
nn
_
_
_
_
_
_
_
_
_
_

1
0 . . . 0
0
2
. . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . .
n
_
_
_
_
_
= PD,
avec
D =
_
_
_
_
_

1
0 . . . 0
0
2
. . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . .
n
_
_
_
_
_
.
On a donc :
AP = PD.
Comme les vecteurs colonne de P sont linairement indpendants, la matrice P est inversible et lon
obtient nalement
P
1
AP = D,
ce qui montre que A est diagonalisable.
8.2. DIAGONALISATION 127
8.2.1 Mthode pour diagonaliser une matrice
1. Trouver n vecteurs propres linairement indpendants, p
1
, p
2
, . . . , p
n
.
2. Construire la matrice P ayant p
1
, p
2
, . . . , p
n
comme vecteurs colonne.
3. La matrice P
1
AP est diagonale. Les lments diagonaux sont les valeurs propres
1
,
2
, . . . ,
n
correspondant respectivement aux vecteurs propres p
1
, p
2
, . . . , p
n
.
Exemple 8.12. Diagonalisons la matrice
A =
_
_
0 0 2
1 2 1
1 0 3
_
_
.
Lquation caractristique de A est
( 1)( 2)
2
= 0
et les valeurs propres sont alors = 1 et = 2.
Une base de E
2
est donne par
p
1
=
_
_
1
0
1
_
_
, p
2
=
_
_
0
1
0
_
_
alors quune base de E
1
est donne par le vecteur
p
3
=
_
_
2
1
1
_
_
Ces 3 vecteurs propres tant linairement indpendants, la matrice A est diagonalisable. On pose
alors
P =
_
_
1 0 2
0 1 1
1 0 1
_
_
et on a
P
1
AP =
_
_
2 0 0
0 2 0
0 0 1
_
_
Thorme 8.13. Si v
1
, v
2
, . . . , v
n
sont des vecteurs propres dune matrice A correspondant des
valeurs propres distinctes
1
,
2
, . . . ,
n
, alors v
1
, v
2
, . . . , v
n
est un ensemble linairement ind-
pendant.
Dmonstration. Nous allons dmontrer ce thorme par labsurde.
Supposons donc que les vecteurs propres v
1
, v
2
, . . . , v
n
sont linairement dpendants. Soit r le
plus grand entier tel que v
1
, v
2
, . . . , v
r
soit linairement indpendant. On a 1 r < n. Il existe
donc des scalaires c
1
, c
2
, . . . , c
r+1
non tous nuls tels que
c
1
v
1
+c
2
v
2
+ +c
r+1
v
r+1
= 0 . ()
Multiplions cette quation par A. On obtient
c
1
Av
1
+c
2
Av
2
+ +c
r+1
Av
r+1
= 0 .
Comme
Av
1
=
1
v
1
, Av
2
=
2
v
2
, . . . , Av
r+1
=
r+1
v
r+1
,
on obtient
c
1

1
v
1
+c
2

2
v
2
+ +c
r+1

r+1
v
r+1
= 0 .
En multipliant () par
r+1
, on a
c
1

r+1
v
1
+c
2

r+1
v
2
+ +c
r+1

r+1
v
r+1
= 0 .
128 CHAPITRE 8. VALEURS PROPRES ET VECTEURS PROPRES
En soustrayant cette quation de la dernire, on obtient
c
1
(
1

r+1
)v
1
+ +c
r
(
r

r+1
)v
r
= 0 .
Comme les
1
, . . . ,
n
sont distincts, on a
c
1
= c
2
= = c
r
= 0 .
On a donc c
r+1
v
r+1
= 0 . Comme v
r+1
,= 0, on a c
r+1
= 0 ce qui conduit
c
1
= c
2
= = c
r+1
= 0.
Ceci contredit lhypothse que c
1
, c
2
, . . . , c
r+1
sont non tous nuls.
Corollaire 8.14. Soit A une matrice n n. Si A a n valeurs propres distinctes, alors A est diago-
nalisable.
Dmonstration. Cest une consquence immdiate des thormes 8.13 et 8.11.
Exemple 8.15. Soit A =
_
0 2
2 0
_
. Par le thorme 8.8, le polynme carcatristique de A est

2
trace(A) + det(A) =
2
+ 4.
A nest pas diagonalisable car son polynme na pas de racines dans R.
Exemple 8.16. Soit A =
_
2 3
0 2
_
. Comme A est triangulaire, ses valeurs propres apparaissent
sur la diagonale. La matrice a donc une unique valeur propre qui est gale 2. On sait, par le
thorme 8.11, que A est diagonalisable si et seulement si A a deux vecteurs propres linairement
indpendants. Calculons lespace E
2
: on doit rsoudre le systme
_
2 3
0 2
_ _
x
y
_
= 2
_
x
y
_
, x, y R.
Il est quivalent y = 0. Ainsi, E
2
=
__
s
0
_
[ s R
_
qui est de dimension 1. A na donc pas 2
vecteurs linairement indpendants , elle nest donc pas diagonalisable.
8.3 Matrices symtriques et diagonalisation
Comme nous allons le voir, les matrices symtriques sont des matrices ayant la proprit dtre
toujours diagonalisables. De plus, il existe une base de vecteurs propres orthonorme.
Thorme 8.17. Soit A une matrice nn, symtrique. Alors A possde n vecteurs propres linai-
rement indpendants. De plus, on peut choisir ces vecteurs propres de faon quils forment une base
orthonormale. Une matrice carre symtrique est donc diagonalisable.
On va faire appel au lemme suivant, dont la dmonstration ncessite lusage de nombres com-
plexes.
Lemme 8.18. Soit A une matrice n n, symtrique. Alors A possde une valeur propre relle.
Preuve du thorme 8.17. Il sagit de montrer : pour une matrice A symtrique (A
T
= A), il existe
une matrice P orthogonale (P
T
P = I) telle que P
1
AP est diagonale. En eet, la matrice P en
question a pour colonnes les vecteurs propres de A, et ces derniers forment une base orthonormale
si et seulement si P est orthogonale.
On procde par rcurrence, le cas n = 1 tant trivial. Par le lemme, soit
1
une valeur propre de
A, et soit x un vecteur propre associ. On peut supposer x de norme 1, soit x
T
x = 1.
Par le procd de Gram-Schmidt, on peut complter x en une base orthonormale (x, y
2
, . . . , y
n
)
de R
n
. On note Y la matrice n (n 1) dont les colonnes sont y
1
, . . . , y
n
. On a donc Y
T
Y = 1 et
x
T
Y = 0 et Y
T
x = 0, par orthogonalit de la base.
8.3. MATRICES SYMTRIQUES ET DIAGONALISATION 129
La matrice B = Y
T
AY est une matrice symtrique, car B
T
= Y
T
A
T
(Y
T
)
T
= B. De plus, elle
est de taille (n 1) (n 1). Ainsi, par rcurrence, il existe une matrice orthogonale Q telle que
Q
1
BQ soit diagonale, disons de cocients diagonaux
2
, . . . ,
n
.
On pose alors P = (x[Y Q) ; cest la matrice carre dont la premire colonne est x et dont les
n 1 colonnes suivantes sont la matrice Y Q. On calcule :
P
T
P =
_
x
T
(Y Q)
T
_
_
x Y Q
_
=
_
x
T
x x
T
Y Q
Q
T
Y
T
x Q
T
Y
T
Y Q
_
=
_
1 0
0 I
n1
_
= I
n
,
donc P est une matrice orthogonale. De plus,
P
1
AP = P
T
AP =
_
x
T
Ax x
T
AY Q
Q
T
Y
T
Ax Q
T
Y
T
AY Q
_
=
_
x
T

1
x (Ax)
T
Y Q
Q
T
Y
T

1
x Q
T
BQ
_
=
_
_
_
_
_

1

1
x
T
Y Q

1
Q
T
Y
T
x
_
_
_

2
0
.
.
.
0
n
_
_
_
_
_
_
_
_
=
_
_
_
_
_

1
0

2
.
.
.
0
n
_
_
_
_
_
est diagonale.
Thorme 8.19. Deux vecteurs propres associs deux valeurs propres distinctes sont orthogonaux
(pour le produit scalaire usuel).
Dmonstration. Soient A une matrice carre et , deux valeurs propres de A distinctes. Soient
encore v un vecteur propre associ la valeur propre et w un vecteur propre associ la valeur
propre . On a
(Av) w = (v) w = (v w) = w
T
v.
Dautre part,
v (Aw) = (Aw)
T
v = w
T
A
T
v = w
T
Av = w
T
v = w
T
v.
La troisime galit dcoule du fait que A est symtrique. On a donc (Av)w = v(Aw), cest--dire
v w = v w. Ainsi
( ) v w = 0.
Comme ,= , on a ncessairement v w = 0. Les vecteurs v et w sont donc bien orthogonaux.
Dnition 8.20. Soit A une matrice carre. On dit que A est orthogonalement diagonalisable si
elle est diagonalisable et sil existe une base de vecteurs propres qui est orthonorme.
Par le thorme prcdent, toute matrice symtrique est orthogonalement diagonalisable.
Nous donnons maintenant un exemple dune diagonalisation orthogonale.
Exemple 8.21. Soit A =
_
_
1 1 1
1 1 1
1 1 1
_
_
. Le polynme caractristique est
det(I A)
cest--dire
det
_
_
1 1 1
1 1 1
1 1 1
_
_
.
On trouve ainsi

3
3
2
.
Les valeurs propres de A sont donc 0 et 3. Calculons les espaces propres. Pour E
0
, on doit rsoudre
le systme
_
_
1 1 1
1 1 1
1 1 1
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
130 CHAPITRE 8. VALEURS PROPRES ET VECTEURS PROPRES
qui est quivalent x +y +z = 0. Ainsi,
E
0
=
_
s
_
_
1
1
0
_
_
+t
_
_
1
0
1
_
_

s, t R
_
Comme A est diagonalisable et que E
0
est de dimension 2, alors E
3
est ncessairement de dimension
1. On a clairement
_
_
1
1
1
_
_
E
3
. Ainsi
E
3
=
_
s
_
_
1
1
1
_
_

s R
_
On remarque quon a bien
_
_
1
1
1
_
_

_
_
1
1
0
_
_
et
_
_
1
1
1
_
_

_
_
1
0
1
_
_
. Appliquons le procd de
Gram-Schmidt pour extraire une base orthogonale de E
0
. Posons f
1
=
_
_
1
1
0
_
_
et f
2
=
_
_
1
0
1
_
_
.
f

2
= f
2

f
1
f
2
f
1
f
1
f
1
=
_
_
1
0
1
_
_

1
2
_
_
1
1
0
_
_
=
_
_

1
2

1
2
1
_
_
Les vecteurs, g
1
=
f
1
||f
1
||
=
_
_

2
1

2
0
_
_
et g
2
=
f

2
||f

2
||
=
_
_
_
_

2
2

2
2

3
_
_
_
_
forment une base orthonorme
de E
0
. Pour E
3
, il sut de prendre
_
_
_
1

3
1

3
1

3
_
_
_ comme vecteur de base de norme 1. On vrie que
_
_
_

2
1

2
0

2
2

2
2

3
1

3
1

3
1

3
_
_
_
. .
P
T
_
_
1 1 1
1 1 1
1 1 1
_
_
_
_
_
_

2
2

3
1

3
1

2
2

3
1

3
0

3
1

3
_
_
_
_
. .
P
=
_
_
0 0 0
0 0 0
0 0 3
_
_
Chapitre 9
Applications linaires
9.1 Dnitions et exemples
Nous avons tudi la notion dapplication linaire
f : R
n
R
m
.
Cette notion se gnralise des espaces vectoriels quelconques.
Dnition 9.1. Soient V et W des espaces vectoriels. On dit quune application
f : V W
est une application linaire si et seulement si les deux proprits suivantes sont vries :
(a) f(u +v) = f(u) +f(v) pout tout u, v V ;
(b) f(u) = f(u) pour tout u V , R.
Exemple 9.2. Voici quelques exemples dapplications linaires :
(1) Applications linaires
f : R
n
R
m
f(x) = Ax
pour une certaine matrice A.
(2) Lapplication nulle
f : V W
f(u) = 0
pour tout u V .
(3) Lapplication identit
f : V V
f(u) = u
pour tout u V .
(4) La symtrie centrale
S : V V
S(v) = v
pour tout v V .
(5) Lhomothtie de rapport k
H : V V
H(v) = k v
pour tout v V .
131
132 CHAPITRE 9. APPLICATIONS LINAIRES
(6) La projection orthogonale. Soit V un espace vectoriel muni dun produit scalaire gnralis
<, >, et soit W un sous-espace vectoriel de V . Nous avons dni la projection orthogonale
f : V W
f(v) = proj
W
(v) .
Si S = w
1
, w
2
, . . . , w
r
est une base orthonorme de W, alors
f(v) = proj
W
(v) =< v, w
1
> w
1
+ + < v, w
r
> w
r
.
Cest une application linaire. En eet, vrions les deux proprits :
f(u +v) =< u +v, w
1
> w
1
+ + < u +v, w
r
> w
r
=< u, w
1
> w
1
+ < v, w
1
> w
1
+ + < u, w
r
> w
r
+ < v, w
r
> w
r
=< u, w
1
> w
1
+ + < u, w
r
> w
r
+ < u, w
1
> w
1
+ + < v, w
r
> w
r
= f(u) +f(v).
f(u) =< u, w
1
> w
1
+ + < u, w
r
> w
r
= (< u, w
1
> w
1
+ + < u, w
r
> w
r
)
= f(u).
Donc f est bien une application linaire.
(7) Rappelons que lon note T
n
lensemble des fonctions polynomiales de degr n : p(x) =
a
n
x
n
+ +a
1
x +a
0
. On dnit une application f : T
n
T
n+1
par
f(p) = xp(x) = a
n
x
n+1
+ +a
1
x
2
+a
0
x.
Cest une application linaire car on a :
f(p
1
+p
2
) = x(p
1
(x) +p
2
(x))
= xp
1
(x) +xp
2
(x)
= f(p
1
) +f(p
2
)
et
f(p) = x(p(x))
= (xp(x))
= f(p) .
(8) Soient a, b R. Dnissons lapplication T : T
n
T
n
par
T(f) = f(ax +b).
Cest bien une application linaire car :
T(f
1
+f
2
) = (f
1
+f
2
)(ax +b)
= f
1
(ax +b) +f
2
(ax +b)
= T(f
1
) +T(f
2
)
et
T(f) = (f)(ax +b)
= (f(ax +b))
= T(f).
9.1. DFINITIONS ET EXEMPLES 133
(9) Lapplication linaire dnie par un produit scalaire gnralis. Soit V un espace vec-
toriel muni dun produit scalaire gnralis <, >. Soit v
0
V . On dnit une application
f : V R
en posant
f(v) =< v, v
0
> .
Alors f est une application linaire. En eet, on a :
f(u +v) =< u +v, v
0
>=< u, v
0
> + < v, v
0
>= f(u) +f(v) ,
et
f(v) =< v, v
0
>= < v, v
0
>= f(v) .
(10) La drivation. Soit V = (
1
(R) lespace vectoriel des fonctions f : R R drivables avec
premire drive continue et W = (
0
(R) lespace vectoriel des fonctions continues relles
variable relle. Soit
D : (
1
(R) (
0
(R)
lapplication dnie par
D(f) = f

o f

est la premire drive de f. Alors D est une application linaire car la drivation est une
opration linraire.
(11) Lintgration. Soit V = (
0
(R) et W = (
1
(R). Soit
J : (
0
(R) (
1
(R)
f(t)
_
x
0
f(t)dt
Lapplication J est linaire car
_
x
0
(f(t) + g(t))dt =
_
x
0
f(t)dt +
_
x
0
g(t)dt et
_
x
0
(f(t))dt =

_
x
0
f(t)dt pour toutes fonctions f et g et pour tout R.
(12) Soit M
n
(R) lensemble des matrices n n. Alors
tr : M
n
(R) R
A trace(A)
est une application linaire.
Exemple 9.3. Donnons un exemple dune application qui nest pas linaire. Soit
f : M
22
R
la fonction dnie par
f(A) = det(A) .
On a
det(A) =
2
det(A)
et
2
det(A) est dirent de det(A) ds que ,= 1 et det(A) ,= 0. De plus, en gnral
det(A+B) ,= det(A) + det(B)
ce qui montre que cette application nest pas linaire.
134 CHAPITRE 9. APPLICATIONS LINAIRES
9.1.1 Proprits des applications linaires
Soit f : V W une application linaire. Pour tout v
1
, v
2
V et pour tout
1
,
2
R, on a
f(
1
v
1
+
2
v
2
) =
1
f(v
1
) +
2
f(v
2
) .
Plus gnralement, pour tout
1
, . . . ,
n
R et tout v
1
, . . . , v
n
V , on a
f(
1
v
1
+ +
n
v
n
) =
1
f(v
1
) + +
n
f(v
n
).
On dit que f prserve les combinaisons linaires.
Thorme 9.4. Soit f : V W une application linaire. Alors on a les proprits suivantes :
(a) f(0) = 0
(b) f(v) = f(v) pour tout v V
(c) f(v w) = f(v) f(w) pour tout v, w V .
Dmonstration. (a) Soit v V . On a 0 v = 0. Comme f est linaire, on a
f(0) = f(0 v) = 0f(v) = 0 .
(b) Pour tout v V , on a
f(v) = f((1)v) = (1)f(v) = f(v) .
Pour tout v, w V , on a
v w = v + (1)w,
donc
f(v w) = f(v + (1)w)
= f(v) +f((1)w)
= f(v) + (1)f(w)
= f(v) f(w) .
9.1.2 Expression dune application linaire dans une base
Soit f : V W une application linaire, et soit v
1
, . . . , v
n
une base de lespace vectoriel V .
Alors f est dtermine par les images des lments de la base, cest--dire par lensemble
f(v
1
), . . . , f(v
n
).
En eet, si v V , alors v =
1
v
1
+ +
n
v
n
. On a donc
f(v) = f(
1
v
1
+ +
n
v
n
)
=
1
f(v
1
) + +
n
f(v
n
) .
Exemple 9.5. Soit v
1
, v
2
, v
3
une base de R
3
, avec v
1
= (1, 1, 1), v
2
= (1, 1, 0) et v
3
= (1, 0, 0).
Soit
f : R
3
R
2
lapplication linaire telle que
f(v
1
) = (1, 0), f(v
2
) = (2, 1), f(v
3
) = (4, 3) .
Soit
v = (2, 3, 5) .
9.1. DFINITIONS ET EXEMPLES 135
Alors
v = 5v
1
8v
2
+ 5v
3
,
donc
f(v) = f(5v
1
8v
2
+ 5v
3
) =
= 5f(v
1
) 8f(v
2
) + 5f(v
3
)
= 5(1, 0) 8(2, 1) + 5(4, 3)
= (5 16 + 20, 8 + 15)
= (9, 23) .
Dnition 9.6. Soient f
1
: V
1
V
2
et f
2
: V
2
V
3
deux applications linaires. Alors on dnit
la composition de f
2
avec f
1
, note f
2
f
1
par
(f
2
f
1
) : V
1
V
3
v f
2
(f
1
(v))
pour tout v V
1
.
Figure 11.1
Thorme 9.7. Si f
1
: V
1
V
2
et f
2
: V
2
V
3
sont des applications linaires, alors (f
2
f
1
) :
V
1
V
3
est aussi une application linaire.
Dmonstration. Soient u, v V
1
. Alors on a
(f
2
f
1
)(u +v) = f
2
(f
1
(u +v))
= f
2
(f
1
(u) +f
1
(v))
= f
2
(f
1
(u)) +f
2
(f
1
(v))
= (f
2
f
1
)(u) + (f
2
f
1
)(v) .
Soient v V
1
et R. Alors
(f
2
f
1
)(v) = f
2
(f
1
(v)) =
= f
2
(f
1
(v)) =
= f
2
(f
1
(v)) =
= (f
2
f
1
)(v) .
Donc f
2
f
1
est bien une application linaire.
136 CHAPITRE 9. APPLICATIONS LINAIRES
9.2 Noyau et image dune application linaire
Dnition 9.8. Soit f : V W une application linaire. Le noyau de f, not Ker(f), est par
dntion lensemble des v V tels que
f(v) = 0 .
Limage de f , note Im(f), est par dnition lensemble des w W tel quil existe v V avec
f(v) = w.
Exemple 9.9. Soit f : R
n
R
m
dnie par f(x) = Ax, o A est une matrice mn. Alors Ker(f)
est gal au nilespace de A, et Im (f) est gal lespace des colonnes de A.
Exemple 9.10. Soit 0 : V W lapplication linaire nulle. Alors Ker(0) = V et Im(0) = 0.
Exemple 9.11. Soit f : V V lapplication identit. Alors Ker(f) = 0 et Im (f) = V .
Exemple 9.12. Soit f : R
3
R
2
la projection orthogonale sur le plan xy. Alors Ker(f) est gal
laxe des z et limage de f est gale au plan xy.
Figure 11.2
Thorme 9.13. Soit f : V W une application linaire. Alors
(a) Ker(f) est un sous-espace vectoriel de V .
(b) Im(f) est un sous-espace vectoriel de W.
Dmonstration. (a) On a 0 Ker(f). Supposons que u, v Ker(f). Alors f(u) = f(v) = 0.
On a f(u + v) = f(u) + f(v) = 0 ce qui montre que u + v Ker(f). Soit R. Alors
f(v) = f(v) = 0, car f(v) = 0. Ceci implique que v Ker(f). Ceci montre que Ker(f) est
un sous-espace vectoriel de V .
(b) On a f(0) = 0, donc 0 Im(f). Soient w
1
, w
2
Im(f). Alors il existe v
1
, v
2
V tels que
f(v
1
) = w
1
,
f(v
2
) = w
2
.
9.2. NOYAU ET IMAGE DUNE APPLICATION LINAIRE 137
Mais alors
f(v
1
+v
2
) = f(v
1
) +f(v
2
)
= w
1
+w
2
,
donc w
1
+ w
2
Im(f). Soient w Im(f) et R. Soit v V tel que f(v) = w. Alors
f(v) = f(v) = w. Donc w Im(f). Ceci implique que Im(f) est un sous-espace vectoriel
de W.
Exemple 9.14. Soit n un entier. Considrons lapplication linaire
: T
n
T
n+1
f xf.
Etudions dabord le noyau de : soit f = a
n
x
n
+ +a
0
T
n
tel que xf = 0. Alors
a
n
x
n+1
= +a
1
x
2
+a
0
x = 0.
Ainsi, a
i
= 0 pour tout i 0, . . . , n et f = 0. Le noyau de est donc nul.
Lespace Im() est lensemble des polynmes de T
n+1
sans terme constant. Une base de cet espace
est x, x
2
, . . . , x
n+1
.
Lemme 9.15. Soit f : V W une application linaire. Alors f est injective si et seulement si
Ker(f) = 0.
Dmonstration. Supposons f injective. On a, par le thorme 9.4, que f(0) = 0. Mais, linjectivit
implique que pour tout v V , v ,= 0, on a f(v) ,= 0. Ainsi, le noyau de f est nul.
Rciproquement, supposons que Ker(f) = 0, et soient v
1
, v
2
V avec f(v
1
) = f(v
2
). Alors
0 = f(v
1
) f(v
2
) = f(v
1
) +f(v
2
) = f(v
1
v
2
).
Ainsi, v
1
v
2
Ker(f) et v
1
= v
2
. Lapplication f est donc bien injective.
Dnition 9.16. Soit f : V W une application linaire. La dimension de Ker(f) est appele la
nullit de f, et est note null(f). La dimension de Im(f) est appele le rang de f, et est note rg(f).
Ces dnitions sont compatibles avec celles donnes pour les matrices comme le montre le tho-
rme suivant :
Thorme 9.17. Soit A une matrice mn, et soit
f : R
n
R
m
dnie par
f(x) = Ax.
Alors
(a) null(f) = null(A)
(b) rg(f) = rg(A).
Thorme 9.18 (Thorme du rang). Soient V un espace vectoriel de dimension nie et f : V
W une application linaire. Alors
rg(f) + null(f) = dim(V ) .
Dmonstration. (i) Si null(f) = 0, alors Ker(f) = 0 et, par le lemme 9.15, f est injective. Soit
e
1
, . . . , e
n
une base de lespace V . La famille f(e
1
), . . . , f(e
n
) est une base de limage de
f. En eet, cest une famille linairement indpendante car si
1
f(e
1
) + +
n
f(e
n
) = 0,
la linarit permet de dire que f(
1
e
1
+ +
n
e
n
) = 0. Mais linjectivit implique que

1
e
1
+ +
n
e
n
= 0 et comme e
1
, . . . , e
n
est une base, on a nalement
1
= =
n
= 0.
Il reste montrer que cest une famille gnratrice. Soit w Im(f). Il existe v V tel
que f(v) = w. Mais v scrit
1
e
1
+ +
n
e
n
, pour certains
1
, . . . ,
n
R. Ainsi, w =
f(
1
e
1
+ +
n
e
n
) =
1
f(e
1
) + +
n
f(e
n
).
On a ainsi rg(f) = dim(V ) et donc bien rg(f) + (f) = dim(V ).
138 CHAPITRE 9. APPLICATIONS LINAIRES
(ii) Si rg(f) = 0, cela signie que Im(f) = 0. Autrement dit, tout vecteur de V est envoy sur 0
par lapplication f. Ainsi, Ker(f) = V et null(f) = dim(V ).
(iii) Supposons maintenant que null(f), rg(f) ,= 0. Posons r = (f) et soit e
1
, . . . , e
r
une base de
Ker(f). Pour montrer le thorme, il sut de montrer que limage de f est de dimension nr.
Comme e
1
, . . . , e
n
est une base de
Ker(f), cest en particulier une famille de vecteurs linairement indpendants. Il existe donc
e
r+1
, . . . , e
n
V tels que e
1
, . . . , e
n
soit une base de V . La famille B = f(e
r+1
), . . . , f(e
n
)
est une base de Im(f). En eet,
i) si
r+1
f(e
r+1
) + +
n
f(e
n
) = 0, alors, par linarit, on a que
r+1
e
r+1
+ +
n
e
n

Ker(f). Ce vecteur sexprime alors dans la base du noyau :

r+1
e
r+1
+ +
n
e
n
=
1
e
1
+ +
r
e
r
pour certains
1
, . . . ,
r
R
ou, autrement dit,

1
e
1
+
r
e
r
+
r+1
e
r+1
+ +
n
e
n
= 0.
Ceci implique en particulier que
r+1
= =
n
= 0. B est donc linairement indpen-
dante.
ii) soit w Im(f). Il existe
1
, . . . ,
n
R tels que
w = f(
1
e
1
+ +
n
e
n
).
Mais cette galit implique que
w =
1
f(e
1
)
. .
=0
+ +
r
f(e
r
)
. .
=0
+
r+1
f(e
r+1
) + +
n
f(e
n
).
Ainsi, tout lment de limage de f est une combinaison linaire des vecteurs de B.
Thorme 9.19. Soit V un espace vectoriel de dimension nie, et soit
f : V V
une application linaire. Alors les armations suivantes sont quivalentes :
(a) f est injective
(b) Ker(f) = 0
(c) null(f) = 0
(d) rg(f) = n = dim(V ).
9.3 Applications linaires inversibles
Nous avons dj dni linverse dune application linaire f
A
donne par une matrice inversible
A. Nous allons maintenant gnraliser cette notion pour toutes les applications linaires.
Dnition 9.20. Soit f : V W une application linaire injective. On dnit
f
1
: Im(f) V
de la manire suivante :
Soit w Im(f). Il existe v V tel que w = f(v). De plus, comme f est injective, le vecteur v est
unique. On dnit alors
f
1
(w) = v.
Lapplication f
1
est appele linverse de f.
9.3. APPLICATIONS LINAIRES INVERSIBLES 139
Remarque 9.21. Dans le dnition ci-dessus, on dnit f
1
uniquement sur lespace Im(f). Si
Im(f) = W, cest--dire si f est aussi surjective, alors on peut dnir f
1
: W V . On dit alors
que f est inversible.
Remarque 9.22. Une application linaire f : V W est donc dite inversible si et seulement si
elle est bijective.
Thorme 9.23. Soit f : V W une application linaire injective. Alors
(1) (f
1
f)(v) = v pour tout v V .
(2) (f f
1
)(w) = w pour tout w Im(f).
(3) f
1
est une application linaire.
Dmonstration. (1) Ce point dcoule directement de la dnition de linverse.
(2) Soit w Im(f). Il existe un unique v V tel que f(v) = w. On a donc
(f f
1
)(w) = f(f
1
(w)
. .
=v
) = f(v) = w.
(3) Soient w
1
, w
2
Im(f) et R. Alors
f
1
(w
1
+w
2
) = f
1
(f(v
1
) +f(v
2
)) pour certains v
1
, v
2
V
= f
1
(f(v
1
+v
2
))
= v
1
+v
2
.
Or, f
1
(w
i
) = v
i
pour i = 1, 2. Ainsi
f
1
(w
1
+w
2
) = f
1
(w
1
) +f
1
(w
2
).
La proprit f
1
(w
1
) = f
1
(w
1
) se montre de manire analogue.
Thorme 9.24. Soit f : V W une application linaire injective. Si g : Im(f) V est
une application telle que (g f)(v) = v pour tout v V , alors g = f
1
. De plus, on a galement
(f g)(w) = w pour tout w Im(f).
Dmonstration. Soit w Im(f). Par hypothse, on a
(g f)(f
1
(w)) = f
1
(w) ()
Mais, par le thorme prcdent, cette expression est gale g(w). Ainsi, g(w) = f
1
(w) pour tout
w Im(f), cest--dire que g = f
1
.
En appliquant f des deux cts de lgalit (), on obtient (f g)(w) = w pour tout w Im(f).
Cas particulier
Soit V un espace vectoriel de dimension nie et f : V V une application injective. Alors, par
le thorme du rang, rg(f) = dim(V ) et donc, Im(f) = V . Dans ce cas, linverse de f est dni sur
tout V .
Thorme 9.25. Soient f : V
1
V
2
et g : V
2
V
3
deux applications linaires injectives. Alors
g f est aussi injective et
(g f)
1
= f
1
g
1
.
Dmonstration. Soit v
1
V
1
avec g(f(v
1
)) = 0. On utilise succesivement linjectivit de g et de f
pour conclure que v
1
= 0. La composition g f est donc bien injective.
Soit v
3
Im(g f). Posons u = (g f)
1
(v
3
). Montrons que u = (f
1
g
1
)(v
3
). On a
(g f)(u) = (g f)((g f)
1
(v
3
)) = v
3
.
Ainsi,
g
1
((g f)(u)) = f(u) = g
1
(v
3
)
et
f
1
(f(u)) = u = f
1
(g
1
(v
3
)) = (f
1
g
1
)(v
3
).
140 CHAPITRE 9. APPLICATIONS LINAIRES
9.4 Matrice dune application linaire
Soient V et W des espaces vectoriels avec n = dim(V ) et m = dim(W). Soit B = u
1
, . . . u
n

une base de V et B

= v
1
, . . . , v
m
une base de W. On sait que les n vecteurs f(u
1
), . . . , f(u
n
)
dterminent lapplication linaire f. Notons [f(u
i
)]
B
, les coordonnes de f(u
i
) dans la base B

.
Cest un vecteur colonne de taille m. Considrons alors la matrice mn suivante :
A =
_
[f(u
1
)]
B

. . . [f(u
n
)]
B

_
Cette matrice est note
[f]
B

,B
et est appele la matrice de f par rapport aux bases B et B

. Si V = W et B = B

, on note [f]
B
au
lieu de [f]
B,B
.
Thorme 9.26. Soient V
1
, V
2
et V
3
des espaces vectoriels de dimensions nies munis des bases
B
1
, B
2
et B
3
respectivement. Soient f
1
: V
1
V
2
et f
2
: V
2
V
3
des applications linaires. Alors
[f
2
f
1
]
B
3
,B
1
= [f
2
]
B
3
,B
2
[f
1
]
B
2
,B
1
.
Dmonstration. Posons n
1
= dim(V
1
), n
2
= dim(V
2
), n
3
= dim(V
3
) et
B
1
= e
1
, . . . , e
n
1

B
2
= b
1
, . . . , b
n
2

B
3
=
1
, . . . ,
n
3
.
Ecrivons
[f
2
]
B
3
,B
2
=
_
_
_

11

1n
2
.
.
.
.
.
.

n
3
1

n
3
n
2
_
_
_ et [f
1
]
B
2
,B
1
=
_
_
_

11

1n
1
.
.
.
.
.
.

n
2
1

n
2
n
1
_
_
_.
On a (f
2
f
1
)(e
1
) = f
2
(f
1
(e
1
)) = f
2
(
11
b
1
+ +
n
2
1
b
n
2
) =
11
f
2
(b
1
) + +
n
2
1
f
2
(b
n
2
)
=
11
[
11

1
+ +
n
3
1

n
3
] + +
n
2
1
[
1n
2

1
+ +
n
3
n
2

n
3
].
Ainsi, la premire colonne de [f
2
f
1
]
B
3
,B
1
est
_
_
_
_
_

11

11
+ +
n
2
1

1n
2

11

21
+ +
n
2
1

2n
2
.
.
.

11

n
3
1
+ +
n
2
1

n
3
n
2
_
_
_
_
_
.
Mais ceci est aussi la premire colonne de la matrice [f
2
]
B
3
,B
2
[f
1
]
B
2
,B
1
. En faisant la mme chose
avec les autres colonnes, on remarque que [f
2
]
B
3
,B
2
[f
1
]
B
2
,B
1
et [f
2
f
1
]
B
3
,B
1
sont deux matrices ayant
leurs colonnes gales. On a donc bien lgalit cherche.
Thorme 9.27. Soit f : V V une application linaire, et soit B une base de V . Alors les
conditions suivantes sont quivalentes :
(a) lapplication f est inversible ;
(b) La matrice [f]
B
est inversible.
Dmonstration. Si f est inversible, alors, par le thorme prcdent, [f]
B
[f
1
]
B
= [f f
1
]
B
= [I]
B
.
Ainsi, [f]
B
est inversible et son inverse est [f
1
]
B
.
Rciproquement, si [f]
B
est inversible, il existe une matrice [g]
B
telle que [f]
B
[g]
B
= I = [g]
B
[f]
B
.
Par le thorme ci-dessus, [f g]
B
= I = [g f]
B
, et les applications f g et g f sont toutes deux
gales lidentit. Donc f est bien inversible.
Thorme 9.28. Soient V un espace vectoriel de dimension nie, B et B

des bases de V et P
B,B

la matrice de changement de base de B

B. Soit f : V V une application linaire. Alors


[f]
B
= P
1
B,B
[f]
B
P
B,B
.
9.4. MATRICE DUNE APPLICATION LINAIRE 141
Dmonstration. Soit x V . Il faut montrer que P
1
B,B
[f]
B
P
B,B
(v)
B
= (f(v))
B
. Rappelons que
P
1
B,B
= P
B

,B
et que P
B,B
(v)
B
= (v)
B
. On a alors
P
1
B,B
[f]
B
P
B,B
(v)
B
= P
B

,B
[f]
B
(v)
B
= P
B

,B
([f]
B
(v)
B
)
= P
B

,B
(f(v))
B
= (f(v))
B
.
142 CHAPITRE 9. APPLICATIONS LINAIRES
Chapitre 10
Applications multilinaires et
tenseurs
La thorie des tenseurs ore un langage mathmatique simple et ecace pour dcrire des ph-
nomnes naturels, comme la trajectoire dun satellite, la circulation de la chaleur dans un corps ou
encore la focre lectromagntique dun lectron. Lobjectif du prsent chapitre est dintroduire la
notion de tenseur ainsi que certaines proprits associes. Celles-ci permettent, par exemple, dex-
pliquer les relations entre des quantits physiques et de prdire leur volution future.
Dans toute la suite, on considre un espace vectoriel V .
Nous commenons ce chapitre en introduisant, dans le premier paragraphe, les tenseurs dordre
(0, 1) et ceux dordre (1, 0) : ce sont des formes linaires. Dans les paragraphes suivants, nous intro-
duirons les tenseurs dordre (0, m) (dits aussi m fois covariants) puis les tenseurs dordre (m, 0) (dits
m fois contravariants) avant de dnir les tenseurs mixtes (p, q) : ce sont des formes multilinaires.
Ltude du comportement des tenseurs lors de changements de bases permettra dexpliquer les ter-
minologies covariant et contravariant (paragraphe 10.6). Ce chapitre clturera avec un paragraphe
sur les champs tensoriels.
10.1 Formes linaires
10.1.1 Formes linaires sur V : tenseurs dordre (0,1)
Dnition 10.1. On appelle forme linaire ou tenseur dordre (0, 1) ou encore tenseur covariant
dordre 1 sur V toute application linaire :
f : V R.
Exemple 10.2.
1. Si V = R
n
, lapplication de i-ime projection
i
: (x
1
, ..., x
n
) x
i
est une forme linaire sur V .
2. Si V est lespace vectoriel des matrices carres de taille n, alors lapplication trace M Tr(M)
dnit une application linaire sur V .
3. Si V est un espace vectoriel muni dun produit scalaire gnralis <, > et si v
0
un lment de
V , alors lapplication f : V R dnie par f(v) =< v, v
0
> est une forme linaire sur V .
10.1.2 Espace dual, bases duales
Dnition 10.3. On appelle espace dual de V lensemble, not V

, des formes linaires sur V .


143
144 CHAPITRE 10. APPLICATIONS MULTILINAIRES ET TENSEURS
On a donc :
V

= f : V R | f est linaire .
Thorme 10.4. Lespace dual V

est muni dune structure despace vectoriel.


Dmonstration. On vrie facilement que laddition des formes linaires et leur multiplication par
un scalaire satisfont aux proprits des espaces vectoriels.
Si V est un espace vectoriel de dimension nie (voir Chapitre 6 pour la notion de dimension),
alors V

est aussi de dimension nie, et leurs dimensions sont gales. Plus prcisment, chaque base
de V dtermine une base de V

de la faon suivante :
Thorme 10.5. On suppose que lespace V est de dimension nie, avec dim(V ) = n.
Soit B = (e
1
, ..., e
n
) une base de V . Soit B

la famille (
1
, ...,
n
) de V

o les
i
: V R sont
des applications linaires sur V donnes par :

i
(e
j
) =
ij
et tendues linairement V .
Alors, la famille B

forme une base de lespace dual V

, appele base duale de la base B.


En particulier, on a bien :
dim(V ) = dim(V

).
Rappelons que le symbole
ij
dsigne le symbole de Kronecker, cest--dire la fonction qui vaut
1 si i = j et 0 sinon.
Dmonstration. Soit f une forme linaire sur V . Puisque toute forme linaire sur V est dtermine
par ses valeurs prises sur les e
i
, on a :
f =
n

i=1
f
i

i
avec f
i
= f(e
i
). Ceci montre que les
i
engendrent lespace dual V

.
Dautre part, on vrie facilement que les
i
sont linairement indpendantes. Lensemble B

forme donc une base de lespace V

.
Remarque 10.6. Si f est une application linaire sur V , alors, avec les notations prcdentes, on
a f =

i
f
i

i
et les coordonnes f
i
sont appeles les coordonnes covariantes de f.
Exemple 10.7. Considrons la base suivante de V = R
2
:
B = e
1
= (2, 1) , e
2
= (3, 1).
Nous allons dterminer la base B

de V

qui est duale de B, cest--dire identier les formes linaires


sur R
2
, notes
1
et
2
, telles que :

1
(e
1
) = 1,
1
(e
2
) = 0, et
2
(e
1
) = 0,
2
(e
2
) = 0.
On crit ces applications sous la forme :

1
(x, y) = ax +by et
2
(x, y) = cx +dy.
10.1. FORMES LINAIRES 145
Il sagit donc de dterminer les rels a, b, c, d.
Les relations prcdentes impliquent :
_

1
(e
1
) =
1
(2, 1) = 2a +b = 1

1
(e
2
) =
1
(3, 1) = 3a +b = 0
do a = 1 et b = 3. Puis :
_

2
(e
1
) =
2
(2, 1) = 2c +d = 0

2
(e
2
) =
2
(3, 1) = 3c +d = 1
do c = 1 et d = 2.
La base duale est donc :
B

=
1
: (x, y) x + 3y ;
2
: (x, y) x 2y.
Le thorme 10.5 implique un rsultat plus fort :
Thorme 10.8. Si V est un espace de dimension nie, alors les espaces V et V

sont isomorphes.
Dmonstration. Soit B = (e
1
, ..., e
n
) une base de V et soit B

= (
1
, ...,
n
) la base duale de V

correspondante, donne par le thorme 10.5. Daprs ce thorme, il est vident que lapplication :

B
: V V

e
i

i
est un isomorphisme entre V et V

.
Notons que cet isomorphisme dpend de la base B choisie : en ce sens, il nest pas canonique.
Il est intressant de noter les relations suivantes entre une base B = (e
1
, ..., e
n
) de V et sa base
duale B

= (
1
, ...,
n
) de V

. Ces relations expriment les coordonnes de tout vecteur v (resp. forme


linaire f) dans la base B (resp. B

) :
v V, u =
1
(v)e
1
+
2
(v)e
2
+... +
n
(v)e
n
;
f V

, f = f(e
1
)
1
+f(e
2
)
2
+... +f(e
n
)
n
.
10.1.3 Formes linaires sur V

: tenseurs dordre (1, 0)


Lespace dual V

de V tant encore un espace vectoriel, on peut dnir son espace dual. Celui-ci
est not V

: cest lespace vectoriel form de toutes les formes linaires sur V

. Si lon applique
deux fois le thorme 10.8, on voit clairement que les espaces V et V

sont isomorphes, lorsque V


est de dimension nie. En fait, on a mieux : lisomorphisme est cette fois canonique, dans le sens
quil ne dpend pas de la base choisie sur V . Cest ce que nous montrons dans le thorme qui suit.
Avant cela, il est utile de faire la remarque suivante : si v est un vecteur de V , lapplication :
v := f f(v)
est une forme linaire sur V

, cest--dire un lment de V

. On dnit ainsi une application de


lespace V dans son bidual V

, donne par :
: V V

v v.
Le thorme est le suivant :
Thorme 10.9. Lapplication est linaire et injective. De plus, lorsque lespace V est de dimen-
sion nie, est un isomorphisme.
146 CHAPITRE 10. APPLICATIONS MULTILINAIRES ET TENSEURS
Dmonstration. Pour montrer la linarit, il faut montrer que (k v +w) = k (v) +(w) pour tout
k R et pour tout v, w V . Il faut donc montrer que

k v +w = k v + w. Ce qui est vrai car
(

k v +w)(f) = f(k v +w) = k f(v) +f(w) = k v(f) + w(f)
puisque f est linaire.
Supposons maintenant que (v) = 0, cest--dire que v(f) = 0 pour tout f V

. Ceci implique
que f(v) = 0 pour tout f V

et donc que v = 0. Ceci dmontre bien linjectivit de .


Enn, si lon calcule la base duale de B

, on obtient une base de V

, note :
B

= e
1
, e
2
, . . . , e
n

et lisomorphisme (cf. notations de la preuve du thorme 10.8)


V

B
V

envoie e
i
sur e
i
. Cet isomorphisme nest donc rien dautre que (en particulier, ne dpend plus de
B). Ceci prouve la dernire assertion du thorme.
Dans la suite, nous supposerons lespace V de dimension nie et nous identierons souvent
les espaces V et V

. Les vecteurs de V sont appels tenseurs dordre (1, 0), ou encore tenseurs
contravariants dordre 1.
Avec cette identication, remarquons que si (
1
, ...,
n
) est une base de V

, duale dune base


(e
1
, ..., e
n
) de V , alors (e
1
, ..., e
n
) est aussi une base de V

, duale de la base (
1
, ...,
n
).
10.2 Formes multilinaires sur V : tenseurs dordre (0, m)
10.2.1 Formes bilinaires sur V : tenseurs dordre (0, 2)
Dnition 10.10 (Forme bilinaire). Une application
f : V V R
est dite bilinaire si elle est linaire en chacun des facteurs, autrement dit, si :
(i) f(ku +v, w) = kf(u, w) +f(v, w) et si
(ii) f(u, kv +w) = kf(u, v) +f(u, w).
Lensemble des formes bilinaires sur V est un espace vectoriel o laddition et la multiplication
par un scalaire sont donnes par
(f +g)(u, v) = f(u, v) +g(u, v)
et
(f)(u, v) = f(u, v).
Cet espace vectoriel est not Bil(V, R).
Si B = e
1
, e
2
, . . . , e
n
est une base de V , on peut considrer les formes bilinaires particulires

i

j
1 i n, 1 j n
dnies par
(
i

j
)(e
k
, e
l
) =
ik

jl
.
Lensemble des
i

j
forme alors une base de Bil(V, R). Les coordonnes f
ij
dune forme bilinaire
f quelconque dans cette base sont simplement donnes par lvaluation de f au couple (e
i
, e
j
).
Explicitement, on a
f
ij
= f(e
i
, e
j
)
10.2. FORMES MULTILINAIRES SUR V : TENSEURS DORDRE (0, M) 147
et
f =

i,j
f
ij
(
i

j
).
Ainsi, si une base B de V est choisie, une forme bilinaire sur V nest rien dautre que la donne
dune matrice F = (f
ij
) de dimension nn o n = dimV . Si [u]
B
(resp. [v]
B
) dsigne le vecteur des
coordonnes de u (resp. v) dans la base B, alors f(u, v) se calcule par le produit matriciel suivant :
f(u, v) = [u]
T
B
F [v]
B
.
Une forme bilinaire sur V est aussi appele un tenseur dordre (0, 2) ou encore un tenseur 2 fois
covariant. Cette terminologie provient du comportement de la forme lors dun changement de base
que nous verrons dans la section 10.6.
Remarque 10.11. La notation ci-dessus peut tre prise ici pour une simple notation.
Exemple 10.12. Soit V = R
n
. Alors le produit scalaire usuel est une forme bilinaire (symtrique).
Sa matrice dans la base canonique est I
n
.
Un produit scalaire gnralis est une forme bilinaire (symtrique). Il est reprsent par une
matrice A symtrique et dnie positive.
10.2.2 Tenseurs dordre (0, m)
Dnition 10.13 (Forme multilinaire). Soit V un espace vectoriel, et soit
f : V V
. .
m
R
une application. On dit que f est une forme multilinaire ou tenseur dordre (0, m) si pour tout
1 i m, on a :
f(v
1
, . . . , v
i
+w
i
, . . . , v
m
) = f(v
1
, . . . , v
i
, . . . , v
m
) +f(v
1
, . . . , w
i
, . . . , v
m
)
pour tout v
1
, . . . , v
m
, w
1
, . . . , w
m
V et tout , R. Une telle application est appele tenseur
dordre (0, m), ou tenseur covariant dordre m. Pour m = 1, on retrouve les formes linaires sur V ,
et pour m = 2 les formes bilinaires sur V .
Exemple 10.14 (Produit mixte). Le produit mixte
R
3
R
3
R
3
R
f(x, y, z) = [x, y, z] = x (y z)
est un tenseur dordre (0, 3).
10.2.3 Quelques interprtations physiques
Avant de poursuivre, voici quelques interptations physiques des tenseurs dordre (0, m) que nous
venons de rencontrer.
1. Les tenseurs dordre (0, 0) sont les applications linaires R R. Ces dernires tant prcis-
ment de la forme x ax pour un scalaire a R, les tenseurs dordre (0, 0) peuvent donc tre
naturellement identis aux scalaires de R. En physique, ils reprsentent des quantits chires
telles la masse dun satellite, la temprature dun corps ou la charge dun lectron.
2. Les tenseurs dordre (0, 1) sont les formes linaires V R. Un exemple de tel tenseur est
donn par ltude de la trajectoire dun bateau voile, qui se dirige selon un vecteur unitaire
e. Considrons la force du vent exerce sur ce bateau : elle est reprsente par un vecteur
f perpendiculaire la voile du bateau. Seule la composante e

f (produit scalaire) propulse
le bateau lavant. Lapplication f e

f est un tenseur dordre (0, 1). Le bateau avancera
dautant plus vite que la quantit e

f est grande.
3. Les tenseurs dordre (0, 2) sont les formes bilinaires V V R. Le calcul du moment dune
force applique sur une clef plate pour visser un boulon fournit un exemple.
148 CHAPITRE 10. APPLICATIONS MULTILINAIRES ET TENSEURS
10.3 Formes multilinaires sur V

: tenseurs dordre (m, 0)


10.3.1 Une remarque sur les tenseurs dordre (1, 0)
Nous avons vu la section 10.1.3 que V et V

sont isomorphes si V est de dimension nie (ce


que nous supposons toujours ici). Ainsi un vecteur v V peut tre vu comme une forme linaire v
sur V

:
v : V

R
f f(v).
Cest pourquoi, on identie les tenseurs dordre (1, 0) avec les vecteurs. En physique, la direction
que suit la trajectoire dun lectron un moment donn est reprsente par un vecteur et fournit
donc un exemple de tenseur 1 fois contravariant.
10.3.2 Formes bilinaires sur V

: tenseurs dordre (2, 0)


Considrons un espace vectoriel V muni dune base B = e
1
, . . . , e
n
et son dual V

muni de la
base duale B

=
1
, . . .
n
.
On se donne une forme bilinaire
f : V

R.
Cette forme est entirement dtermine par ses valeurs sur les couples (
i
,
j
).
Rappelons que lespace vectoriel V

des formes linaires sur V

est isomorphe canoniquement


V et admet pour base lensemble :
B

= e
1
, . . . , e
n

o les e
i
sont donns par :
e
i
(
j
) =
j
(e
i
) =
ij
.
Notons e
i
e
j
la forme bilinaire sur V

dnie par
e
i
e
j
(
k
,
l
) =
ik

jl
.
On montre de manire similaire ce qui a t fait prcdemment que lensemble
( = e
i
e
j
1 i n
1 j n
est une base de lespace vectoriel des formes bilinaires sur V

.
Dans cette base, la forme bilinaire f scrit
f =

j
f
ij
( e
i
e
j
)
o f
ij
= f(
i
,
j
). Le choix de B tant fait (et donc aussi celui de B

et de (), la forme f est


reprsente par une matrice F = (f
ij
).
Les formes bilinaires sur V

sont appeles tenseurs dordre (2, 0), ou encore tenseurs


contravariants dordre 2.
10.3.3 Tenseurs dordre (m, 0)
En gnralisant ceci, on peut poser la dnition suivante :
Dnition 10.15 (Tenseur dordre (m, 0)). Une application multilinaire
V

. .
m
R
est appele un tenseur dordre (m, 0) ou tenseur m fois contravariant ou encore tenseur contravariant
dordre m.
nouveau, la terminologie de tenseur contravariant vient du comportement dune telle applica-
tion lors dun changement de bases (voir paragraphe 10.6).
10.4. TENSEURS MIXTES DORDRE (P, Q) 149
10.4 Tenseurs mixtes dordre (p, q)
10.4.1 Tenseurs dordre (p, q)
Il existe des tenseurs mixtes, savoir des tenseurs dordre (p, q) qui sont donc (en copiant les
terminologies prcdentes) p fois contravariants et q fois covariants.
Dnition 10.16 (Tenseur dordre (p, q)). Soient p et q des entiers 0. Un tenseur dordre (p, q)
est une application multilinaire :
f : V

. .
p
V V
. .
q
R.
10.4.2 Exemple des tenseurs dordre (1, 1)
Pour illustrer la notion de tenseur dordre (1, 1), considrons une application bilinaire :
f : V

V R.
Nous allons montrer quune telle application nest rien dautre quune application linaire :
: V V.
On commence par la construction inverse. Etant donne une application linaire :
: V V,
on peut dnir une application bilinaire :
f : V

V R
en posant :
f(, u) =

(u)() = ((u)).
On vrie facilement que f est bilinaire et que lassociation f est injective. Vrions ici
linjectivit. Supposons que f soit lapplication triviale f(, u) = 0 pour tout u V et pour tout
V

. Par dnition de f, ceci implique que ((u)) = 0 pour tout u et tout . Mais ceci entrane
que (u) doit tre nul pour tout u V et donc que est lapplication nulle.
Pour des raisons de dimensions, linjectivit implique la surjectivit et on a donc montr que
donner une application bilinaire :
f : V

V R
est quivalent donner une application linaire :
: V V.
Ce qui est remarquable, cest que les matrices de f et de sont les mmes, une base B de V
tant choisie. Soit B = e
1
, . . . , e
n
une base de V et B

=
1
, . . . ,
n
sa base duale. La matrice
de f dans les bases B

et B est dnie par F


B

,B
= F = (f
ij
) avec
f
ij
= f(e
i
,
j
).
Mais, dautre part, la j-me colonne de la matrice []
B
est donne par limage de e
j
exprime dans
la base B. Ainsi, on a
[]
ij
=
i
((e
j
)) = f(
i
, e
j
) = f
ij
ce qui prouve que
[]
B
= F
B

,B
.
150 CHAPITRE 10. APPLICATIONS MULTILINAIRES ET TENSEURS
10.5 Oprations sur les tenseurs
Sur les tenseurs de mme ordre, on a une opration daddition et de multiplication par les scalaires
qui en font un espace vectoriel.
Nous avons dj vu cette structure despace vectoriel pour les tenseurs dordre (0, 1) et dordre
(0, 2), cest--dire sur V

et sur lespace des formes bilinaires. La gnralisation tout tenseur se


fait de manire vidente.
On a aussi une opration de multiplication entre tenseurs. Nous commenons par lexemple du
produit de deux formes linaires :
Exemple 10.17. Soient f, g V

deux tenseurs dordre (0, 1),


f : V R
g : V R.
on dnit leur produit par
b : V V R
b(u, v) = f(u)g(v).
Cest une forme bilinaire, cest--dire un tenseur dordre (0, 2).
Plus gnralement, on peut multiplier un tenseur dordre (p, q) avec un tenseur dordre (r, s) et
le rsultat est un tenseur dordre (p +r, q +s). Voici comment le produit est dni. Soit :
f : V

. .
p
V V
. .
q
R
un tenseur dordre (p, q) et soit :
g : V

. .
r
V V
. .
s
R
un tenseur dordre (r, s). On dnit leur produit :
f g : V

. .
p+r
V V
. .
q+s
R
par :
(f g)(a
1
, . . . , a
p+r
, x
1
, . . . x
q+s
) = f(a
1
, . . . , a
p
, x
1
, . . . x
q
)g(a
p+1
, . . . a
p+r
, x
q+1
, . . . x
q+ss
).
Remarque 10.18. Lapplication identit Id : R R peut tre considre comme un tenseur dordre
(0, 0). Il joue alors le rle dlment neutre pour le produit dni ci-dessus.
10.6 Changement de bases
Dans ce paragraphe, nous allons tudier le comportement dun tenseur (ou plutt de ses coordon-
nes) lors dun changement de bases. Il sagit ici dintroduire des proprits importantes des tenseurs
lies aux changements de coordonnes, trs utiles par exemple en physique lorsque lon change de
systme rfrent. Dautre part, les relations obtenues nous permettront dclairer les notions de
tenseurs covariants et contravariants.
Soient donc deux bases de V :
B = e
1
, . . . , e
n
et B

= e

1
, . . . , e

n
.
10.6. CHANGEMENT DE BASES 151
Daprs le paragraphe 6.7, la matrice de passage de la base B

la base B est la matrice :


P
BB
= (
ij
)
dont la j-me colonne repsente les coordonnes de e

j
dans la base B. En dautres termes
e

j
=
n

i=1

ij
e
i
(10.1)
ou encore, matriciellement (avec un petit abus de notation)
_
_
_
_
_
e

1
e

2
.
.
.
e

n
_
_
_
_
_
= P
T
BB

_
_
_
_
_
e
1
e
2
.
.
.
e
n
_
_
_
_
_
. (10.2)
Daprs le thorme 6.71, la matrice P
BB
est inversible, et lon a :
P
1
BB
= P
B

B
.
Dans la suite, nous noterons
ij
les coecients de la matrice P
B

B
, de sorte que lon a :
e
i
=
n

k=1
e

k
.
Le but de cette section est de dtudier le changement de coordonnes des tenseurs.
10.6.1 Cas des tenseurs dordre (1, 0) (vecteurs de V )
La modication des coordonnes dun vecteur par un changement de bases a dj t tudie au
chapitre 6, paragraphe 6.7). Rappelons que si v est un vecteur de V et si [v]
B
(resp. [v]
B
) dsigne
le vecteur colonne dont les composantes sont les coordonnes de v dans la base B (resp. B

), on a :
[v]
B
= P
BB
[v]
B
, (10.3)
ou encore :
[v]
B
= P
1
BB
[v]
B
, (10.4)
chaque v
i
(resp. v

i
) dsignant la i-me composante de v dans la base B (resp. B

).
10.6.2 Cas des tenseurs dordre (0, 1) (formes linaires sur V )
Considrons maintenant une forme linaire f V

. Soit B = (e
1
, ..., e
n
) une base de V et soit
B

= (
1
, ...,
n
) la base de V

, duale de V .
Matriciellement, en crivant les vecteurs de V dans la base B, lapplication f est de la forme :
f(
_
_
_
x
1
.
.
.
x
n
_
_
_) =
_
f
1
. . . f
n
_

_
_
_
x
1
.
.
.
x
n
_
_
_
152 CHAPITRE 10. APPLICATIONS MULTILINAIRES ET TENSEURS
Le vecteur ligne [f]
B
=
_
f
1
. . . f
n
_
est la matrice de f dans la base B

, donne par f
i
= f(e
i
).
En dautres termes, on a :
f =
n

i=1
f
i

i
.
De mme, si B

= (e

1, . . . , e

n
) est une autre base de V , de base duale B

= (

1
, . . . ,

n), et si on
note [f]
B
la matrice de f dans cette base, ses coecients sont donns par :
f

i
= f(e

i
),
de sorte que :
f =
n

i=1
f

i
.
Il sagit dcrire la matrice de passage de la base B

la base B

et de voir les modications sur


les coecients de la matrice de f.
Pour cela, dterminons dabord les coecients, nots
ij
de la matrice de passage P
B

B
, dont
la j-me colonne est donne par les coecients de lapplication

j
dans la base B

.
Des relations

j
=

ij

i
et
i
(e
j
) =
ij
, on dduit :

j
(e
i
) =
ij
,
cest--dire :

ij
=

j
(

k

ki
e

k
)
=
ji
,
o les
ij
sont les coecients de la matrice P
B

B
= P
1
BB
.
On a donc prouv :
P
B

B
= (P
1
BB
)
T
. (10.5)
On peut maintenant calculer les coordonnes de f dans la base B

, i.e. trouver les f

j
tels que
f =

j
f

j
.
Cela scrit facilement, en utilisant la relation

i
(e

j
) =
ij
:
f

j
= f(e

j
)
=

i

ij
f(e
i
)
=

i

ij
f(e
i
)
=

i

ij
f
i
.
On a donc :
[f]
B
= P
T
BB
[f]
B
. (10.6)
On constate que les formes linaires sur V se transforment comme les vecteurs de base tandis
que les vecteurs se transforment selon la rgle inverse (comparer (10.6) avec (10.2) et (10.4)).
10.6. CHANGEMENT DE BASES 153
Cest pour cette raison que les vecteurs (ou les formes linaires sur V

) sont appels
des tenseurs contravariants dordre 1 et les formes linaires sur V sont appeles des
tenseurs covariants dordre 1.
Le qualicatif contravariant concernerait donc les tenseurs dont les composantes se trans-
forment contrairement celles des vecteurs de base. Poursuivons notre investigation...
10.6.3 Cas des tenseurs dordre (0, 2) (formes bilinaires sur V )
On considre une forme bilinaire f sur V et sa matrice F (resp. F

) dans la base B (resp, B

).
On peut montrer que lon a la relation
F

= P
T
BB
F P
BB
. (10.7)
Cette quation est du mme type que la relation (10.6). Les formes bilinaires suivent les mmes
rgles que les formes linaires lors dun changement de bases. Cest pourquoi, on dit aussi que les
formes bilinaires sur V sont des tenseurs covariants dordre 2.
10.6.4 Cas des tenseurs (2, 0) (formes bilinaires sur V

)
On considre un tenseur dordre (2, 0), cest--dire une forme bilinaire sur V

. Notons F (resp.
F

) sa matrice dans la base B

(resp, B

). On a la relation :
F

= P
1
BB
F (P
1
BB
)
T
. (10.8)
On constate que cest la rgle inverse que pour un tenseur dordre (0, 2) (comparer avec 10.7).
En revanche, cest une loi similaire celle qui rgit le changement de coordonnes dun vecteur. Un
tenseur dordre (2, 0) est donc dit 2 fois contravariant.
10.6.5 Cas des tenseurs dordre (1, 1)
Lors dun changement de bases, on sait comment la matrice dune application : V V
change. Si (resp.

) est la matrice de dans la base B (resp. B

), alors on a

= P
1
BB
P
BB
.
Via lquivalence vue au paragraphe 10.4.2, et tenant compte du fait que = F, on obtient la
manire dont les coecients dun tenseur dordre (1, 1) varient lors dun changement de bases. Cest
la mme rgle que pour une application linaire. Plus prcisment, si
f : V

V R
est une application bilinaire de matrice F (resp. F

) dans la base B (resp. B

), alors on a
F

= P
1
BB
F P
BB
. (10.9)
On constate que la matrice de changement de base apparat droite de F mais que cest son
inverse qui apparait gauche. Cest pourquoi, un tenseur dordre (1, 1) est dit 1 fois covariant et
1 fois contravariant (comparer la relation (10.9) avec lquation (10.8) qui donne la rgle pour un
tenseur 2 fois covariant.)
154 CHAPITRE 10. APPLICATIONS MULTILINAIRES ET TENSEURS
10.6.6 Cas des tenseurs dordre (p, q)
Les formules prcdentes se gnralisent encore... et expliquent pourquoi un tenseur dordre (p, q)
est dit p fois contravariant et q fois covariant.
10.7 Champs tensoriels
10.7.1 Dnitions
Jusquici, nous navons considr que des tenseurs isols. En physique, il est plus frquent de
rencontrer un champ tensoriel, cest--dire, la donne dun tenseur en tout point de lespace (ou
dune partie de celui-ci) ou en plusieurs instants.
On considre donc lespace ane E = R
n
et en tout point y de lespace on considre lespace
vectoriel V = R
n
.
Dnition 10.19 (Champ tensoriel). Un champ tensoriel est la donne en tout point y de lespace
dun tenseur dordre (p, q). Alors que le tenseur varie en fonction du point y E, lordre (p, q),
quant lui, est indpendant de y.
Exemple 10.20. Considrons un uide localis dans une partie de lespace E. La vitesse du uide
en chaque point de lespace est un tenseur dordre (0, 1).
En chaque point y R
3
, on se donne une base :
B(y) = e
1
(y), . . . e
n
(y)
dans laquelle on exprimera le champ tensoriel.
Par exemple, on pourrait considrer la base canonique en chaque point y : dans ce cas, la base
ne dpend pas de la position y.
10.7.2 Changements de coordonnes
Supposons que lon se donne un changement de coordonnes, i.e. en termes mathmatiques, une
fonction :
: R
n
R
n
(x
1
, . . . , x
n
)
_

_
u
1
= u
1
(x
1
, . . . , x
n
)
.
.
.
u
n
= u
n
(x
1
, . . . , x
n
)
qui soit de classe C
1
, bijective et dont linverse est aussi de classe C
1
.
Lapplication transforme, en chaque point y, la base B(y) en une nouvelle base
B

(y) = e

1
(y), . . . , e

n
(y).
Le dessin ci-dessous illustre la situation dans le cas E = R
2
.
Explicitement, en chaque point y de lespace R
n
, on a un changement de bases qui est donn par
e

i
(y) =

j
u
j
x
i
(y)e
j
(y).
Notons la dpendance en y dans la formule ci-dessus.
10.7. CHAMPS TENSORIELS 155
\ \ / /
..
~ ~
'
'
'\ \


..
y
y

1
(y)
e
1
(y)
e
2
(y)

2
(y)
Dnissons la matrice :
= (
ij
) :=
_
u
i
x
j
(y)
_
.
Cest la matrice de changement de base au point y. Son inverse est donn par

1
= = (
ij
) =
_
x
i
u
j
(y)
_
.
Ces deux matrices dpendent du point y.
10.7.3 Cas dun champ tensoriel dordre (1, 0) (champ vectoriel)
Admettons que lon ait maintenant un champ vectoriel, i.e. la donne dun vecteur v de R
n
en
tout point y de lespace R
n
. Un champ vectoriel (ou champ tensoriel dordre (1, 0)) est donc la
donne dune application :
E = R
n
R
n
y v(y)
qui tout point y associe un vecteur v(y).
Notons v
i
(y) (resp. v

i
(y)) les coordonnes de v(y) dans la base B(y) (resp. B

(y)). On montre
alors quon a la relation suivante :
v

i
(y) =

j
u
i
x
j
(y)v
j
(y)
ou matriciellement
[v

] = [v].
Cette rgle est similaire celle obtenue en (10.3), avec comme seule dirence que la matrice de
changement de bases dpend du point y et est donne par la matrice jacobienne =
1
.
On parle dans ce cas de champ contravariant.
10.7.4 Cas dun champ tensoriel dordre (0, 1)
Soit w un champ de formes linaires, i.e. la donne en tout point y de lespace dune forme linaire
w(y) : R
n
R.
On peut, en tout point y, considrer la base duale de B(y) que lon note B

(y). Comme prcdemment,


si
B

(y) =
i
(y)
alors chaque forme linaire w(y) scrit
w(y) =

i
w
i
(y)
i
(y).
156 CHAPITRE 10. APPLICATIONS MULTILINAIRES ET TENSEURS
Le changement de coordonnes donn par induit un changements des coordonnes w
i
(y) qui suit
la rgle suivante :
w

i
(y) =

j
x
j
u
i
(y)w
j
(y)
qui scrit matricellement
[w

] =
T
[w]
ou encore
[w] = (
1
)
T
[w

] (10.10)
Ce rsultat nest pas surprenant. Lquation (10.10) est semblable la relation (10.6), la matrice
P
BB
ayant t remplae par la matrice .
On parle dans ce cas dun champ covariant.
10.7.5 Cas dun champ quelconque
On peut gnraliser ce qui prcde au cas dun champ tensoriel dordre (p, q) quelconque. Les
changements de coordonnes se font de la mme manire que pour un tenseur dordre (p, q) la
dirence prs, nouveau, que la matrice de changement de bases dpend du point y (et de ). On
remplace ainsi la matrice
P
BB

par la matrice
=
_
u
i
x
j
_
.
Bibliographie
[1] H. Anton and C. Rorres. Elementary linear Algebra. Applications Version. John Wiley &
Sons, Inc. New York, 2000.
[2] R. Dalang and A. Caabouni. Algbre linaire, Aide-mmoire, exercices et applications.
[3] D. Danielson. Vectors and Tensors in Enginee and Physics. Addison-Wesley Publishing Com-
pany, 1992.
[4] T. Liebling. Algbre linaire : une introduction pour ingnieurs.
157
158 BIBLIOGRAPHIE
Index
angle entre deux vecteurs, 105
application, 69
application linaire, 70, 127
base
dun espace vectoriel, 86
orthogonale, 108
orthonorme, 108
standard, 78, 83, 87, 88
bijective (application), 75
caractristique (quation), 117
caractristique (polynme), 117
Cauchy-Schwarz (ingalit de), 65, 104
cofacteur dune matrice, 42
combinaison linaire, 82
complment orthogonal, 106
composition dapplications, 73
coordonnes dun vecteur, 50, 87, 108
Cramer (rgle de), 46
dterminant, 33, 35
drivation, 129
diagonal(e)
lment, 19
matrice, 29
diagonalisation, 121
dimension dun espace vectoriel, 90
dual dun espace vectoriel, 139
espace
des colonnes, 92
des lignes, 92
propre, 119
vectoriel, 79
dimension, 90
fonction, 69
forme multilinaire, 141
Gauss (algorithme de), 12
gaussienne (limination), 11
Gram-Schmidt (mthode de), 110
homogne (systme), 15, 82
image dune application, 132
impaire (permutation), 34
incompatible (systme), 6
inconsistant (systme), 6
injective (application), 75
inversion dune permutation, 33
linaire (quation), 5
linairement dpendants (vecteurs), 84
linairement indpendants (vecteurs), 84
matrice
adjointe, 46
antisymtrique, 32
augmente dun systme, 9
carre, 19
dune application linaire, 70, 136
de changement de bases, 97
des coecients, 47
diagonale, 29
diagonalisable, 121
chelonne, 11
chelonne rduite, 11
lmentaire, 25
identit, 21
inverse, 23
inversible, 23
orthogonale, 112
symtrique, 31
transpose, 30
triangulaire, 28
matrice (relle), 19
matrices quivalentes par lignes, 26
mineur dune matrice, 42
moindres carrs (mthode des), 114
nilespace (=noyau), 93, 132
norme dun vecteur, 51, 65, 102
noyau (=nilespace), 93, 132
nullit, 96, 133
oprations lmentaires, 9
orthogonal
complment, 106
matrice, 112
vecteur, 105
orthogonalit, 53, 66, 106
paire (permutation), 34
paramtriques (quations dune droite), 61
permutation, 33
polynme, 81, 85
produit
de tenseurs, 143
cartsien, 79
lmentaire, 35
lmentaire sign, 35
matriciel, 20, 68
mixte, 58
scalaire, 52, 64, 101
vectoriel, 55
projection orthogonale, 54, 72, 109, 128
Pythagore (thorme de), 66, 105
INDEX 159
rang, 95, 133
rang (thorme du), 96, 133
rexion, 71
rotation, 73
second membre, 47
somme
de matrices, 19
de tenseurs, 143
de vecteurs, 49, 64
sous-espace vectoriel, 80
sphre unit, 102
surjective (application), 75
systme dquations linaires, 6
systme normal, 115
tenseur, 139
triangle (ingalit du), 66, 104
valeur propre, 117
variable
directrice, 15
libre , 15
vecteur(s), 49
colonne, 66
ligne, 66
normal, 60
orthogonaux, 105
propre, 117
160 BIBLIOGRAPHIE
Index des notations
Id - application identit, 70
<, > - produit scalaire (gnralis), 101
a
ij
lments de la matrice A, 19
A, B - matrices, 19
A
1
- matrice inverse, 24
[A[ - dterminant, 41
adj(A) - matrice adjointe, 46
A
T
- matrice transpose, 30
A
T
- matrice transpose inverse, 30
C
ij
- cofacteur dune matrice, 42
C
i
(R), 81
det(A) - dterminant de A, 35
e
1
, . . ., e
n
- base standard, 78
E
i
(c), E
ij
(c), E
ij
- matrices lmentaires, 25
E

- espace propre, 119


f
A
- application associe A, 70
[f]
B

,B
- matrice de f dans les bases B et B

,
136
f, F - applications (linaires), 69, 127
[f], [F] - matrice standard, 70
G F - composition dapplications, 131
g f - composition dapplications, 74
I
n
, I - matrice identit, 21
Im(f) - image de f, 132
Ker(A) - noyau de A, 93
Ker(f) - noyau de f, 132
L(S) - espace vectoriel engendr par S, 84
M
ij
- mineur dune matrice, 42
M
mn
- espace vectoriel des matrices mn, 90
null(A) - nullit de A, 96
T
n
- espace vectoriel des polynmes de degr
n, 81
rg(A) - rang de A, 95
R
n
- espace rel de dimension n, 63
u v - produit scalaire, 52, 64
u v - produit vectoriel, 55
[u, v, w]- produit mixte, 58
V

- dual de V , 139
| v | - norme de v, 51, 65
V , W - espace, sous-espace vectoriel, 79
W

- complment orthogonal, 106


x
1
, x
2
, x
3
- variables, 5

You might also like