Notes de cours d’alg`ebre lin´eaire.

L1, alg`ebre 1.
Anne Beaulieu
Ann´ee 2007–2008
2
Table des mati`eres
1 R´esolution des syst`emes lin´eaires. 5
1.1 Exemples ´el´ementaires (`a coefficients r´eels). . . . . . . . . . . . . . . . . . . . . . 5
1.2 Syst`emes `a n lignes et p colonnes, syst`emes ´echelonn´es. . . . . . . . . . . . . . . . 6
1.3 R´esolution des syst`emes ´echelonn´es. . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4 Algorithme du pivot de Gauss. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.5 Principes `a retenir, pour la r´esolution des syst`emes lin´eaires. . . . . . . . . . . . 11
1.6 Structure de l’ensemble des solutions d’un syst`eme lin´eaire. . . . . . . . . . . . . 12
2 Espaces vectoriels sur R ou C. 15
2.1 Rappel : les vecteurs du plan. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Espaces vectoriels sur R ou C. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3 Sous-espaces vectoriels. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4 Intersection de sous-espaces vectoriels. . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5 Somme d’un nombre fini de sous-espaces vectoriels. . . . . . . . . . . . . . . . . . 20
2.6 Somme directe de deux sous-espaces vectoriels.
Sous-espaces vectoriels suppl´ementaires. . . . . . . . . . . . . . . . . . . . . . . . 21
2.7 Sous-espace vectoriel engendr´e par une famille de vecteurs. . . . . . . . . . . . . 22
2.8 D´ependance et ind´ependance lin´eaire. . . . . . . . . . . . . . . . . . . . . . . . . 24
2.9 Bases. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3 Espaces vectoriels sur R ou C de dimension finie. 27
3.1 D´efinition d’un espace vectoriel de dimension finie. Exemple d’un espace vectoriel
de dimension infinie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2 Th´eor`eme de la base incompl`ete. Existence des bases. . . . . . . . . . . . . . . . 27
3.3 Notion de dimension d’un espace vectoriel. . . . . . . . . . . . . . . . . . . . . . . 28
3.4 Sous-espaces vectoriels en dimension finie. Tout sous-espace vectoriel admet un
suppl´ementaire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.5 Rang d’une famille de vecteurs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.6 Sous-espaces vectoriels de K
p
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.6.1 Passage d’une partie g´en´eratrice `a une base ; calcul du rang. . . . . . . . . 31
3.6.2 Passage d’une base `a un syst`eme d’´equations cart´esiennes. . . . . . . . . . 33
4 Applications lin´eaires. 35
4.1 D´efinitions et exemples. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.2 Image et noyau. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.3 Application lin´eaire injective. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.4 Cas o` u l’espace vectoriel de d´epart est de dimension finie, image d’une partie
g´en´eratrice. Rang d’une application lin´eaire. . . . . . . . . . . . . . . . . . . . . . 38
4.5 Isomorphismes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.6 Exemples : projections vectorielles, sym´etries vectorielles. . . . . . . . . . . . . . 40
3
4 TABLE DES MATI
`
ERES
5 Applications lin´eaires en dimension finie. Matrices 41
5.1 Matrices. R`egles de calcul. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5.2 Matrice d’une application lin´eaire dans des bases. . . . . . . . . . . . . . . . . . . 45
5.3 Application lin´eaire de K
p
dans K
n
associ´ee canoniquement
`a une matrice. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
5.4 Calcul des coordonn´ees de l’image d’un vecteur de E. . . . . . . . . . . . . . . . 46
5.5 Op´erations lin´eaires sur les applications lin´eaires et les matrices. . . . . . . . . . 47
5.6 Composition des applications lin´eaires et multiplication des matrices. . . . . . . . 48
5.7 Matrices carr´ees inversibles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.8 Matrices carr´ees inversibles et isomorphismes. . . . . . . . . . . . . . . . . . . . . 50
5.9 Calcul de la matrice inverse. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.10 Alg`ebre des matrices nn. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
6 Changements de bases. 53
6.1 Changement de coordonn´ees. Matrice de passage. . . . . . . . . . . . . . . . . . . 53
6.2 Formule de changement de base pour une application lin´eaire. . . . . . . . . . . . 56
7 Rang d’une matrice, retour aux syst`emes lin´eaires. 59
7.1 Rang d’une matrice. Rang d’un syst`eme lin´eaire. . . . . . . . . . . . . . . . . . . 59
7.2 Syst`emes lin´eaires avec second membre. Espaces affines. . . . . . . . . . . . . . . 64
Chapitre 1
R´esolution des syst`emes lin´eaires.
Dans tout ce cours, le symbole K d´esigne R ou C, appel´e corps des scalaires.
1.1 Exemples ´el´ementaires (`a coefficients r´eels).
Premier exemple. On veut trouver les couples de r´eels (x, y) qui satisfont les deux ´equations
du syst`eme
(S
1
)

2x + 3y = 7 (L
1
)
x −y = 1 (L
2
)
Par exemple on retranche 2(L
2
) `a (L
1
). On obtient le syst`eme
(S

1
)

5y = 5 (L

1
)
x −y = 1 (L

2
)
qui a le mˆeme ensemble de solutions que (S
1
). En effet, on retrouve (S
1
) `a partir de (S

1
) en
faisant

(L

1
) + 2(L

2
)
(L

2
)
La ligne (L

1
) est ´equivalente `a y = 1. On reporte dans la deuxi`eme ´equation, on trouve x = 2.
On conclut que (S
1
) a une solution et une seule : (x, y) = (2, 1).
Deuxi`eme exemple.
(S
2
)

2x −2y = 10 (L
1
)
x −y = 1 (L
2
)
On retranche 2(L
2
) `a (L
1
). On obtient le syst`eme
(S

2
)

0 = 8 (L

1
)
x −y = 1 (L

2
).
On remarque que le syst`eme (S
2
) peut ˆetre retrouv´e `a partir du syst`eme (S

2
) car
(L
1
) = (L

1
) + 2(L

2
).
Les syst`emes (S
2
) et (S

2
) ont donc le mˆeme ensemble de solutions. La premi`ere ligne (L

1
) n’est
jamais r´ealis´ee. On conclut que le syst`eme (S
2
) n’a aucune solution.
5
6 CHAPITRE 1. R
´
ESOLUTION DES SYST
`
EMES LIN
´
EAIRES.
Troisi`eme exemple.
(S
3
)

2x −2y = 8 (L
1
)
x −y = 4 (L
2
).
La premi`ere ligne est ´egale `a deux fois la seconde. On conclut que le syst`eme (S
3
) est ´equivalent
`a
(S

3) x = y + 4
L’ensemble des couples (x, y) qui v´erifient l’´equation (S

3
) est
¦(y + 4, y); y ∈ R¦.
Le syst`eme (S
3
) a donc une infinit´e de solutions. On dit qu’on a pris y comme param`etre.
Remarquons qu’au lieu de prendre y comme param`etre, on peut prendre x. Le mˆeme ensemble
de solutions s‘´ecrit donc aussi
¦(x, x −4); x ∈ R¦.
1.2 Syst`emes `a n lignes et p colonnes, syst`emes ´echelonn´es.
D´efinition 1.2.1 Soient p et n dans N

. On appelle syst`eme lin´eaire `a n ´equations et p incon-
nues `a coefficients dans K tout syst`eme d’´equations qui s’´ecrit
(S)

a
1,1
x
1
+... +a
1,j
x
j
+... +a
1,p
x
p
= b
1
................
a
i,1
x
1
+... +a
i,j
x
j
+... +a
i,p
x
p
= b
i
................
a
n,1
x
1
+... +a
n,j
x
j
+... +a
n,p
x
p
= b
n
o` u a
i,j
∈ K, 1 ≤ i ≤ n, 1 ≤ j ≤ n et b
i
∈ K. On appelle matrice associ´ee au syst`eme (S) le
tableau de nombres
A =

¸
¸
¸
a
1,1
a
1,2
... a
1,p
a
2,1
a
2,2
... a
2,p
.......
a
n,1
a
n,2
... a
n,p
¸

On note A = (a
i,j
)
1 ≤ i ≤ n
1 ≤ j ≤ n
On dit que A est une matrice `a n lignes et p colonnes `a coefficients
dans K.
On notera toujours par i l’indice de ligne (premier indice) et par j l’indice de colonne (deuxi`eme
indice).
Exemple : Le syst`eme (S
1
) a pour matrice
A =

2 3
1 −1

.
D´efinition 1.2.2 Si b
1
= ... = b
n
= 0, on dit que le syst`eme est homog`ene. Le syst`eme
(S
0
)

a
1,1
x
1
+... +a
1,j
x
j
+... +a
1,p
x
p
= 0
..............
a
n,1
x
1
+... +a
n,j
x
j
+... +a
n,p
x
p
= 0
est appel´e le syst`eme homog`ene associ´e `a (S) (on dit aussi le syst`eme sans second membre).
1.2. SYST
`
EMES
`
A N LIGNES ET P COLONNES, SYST
`
EMES
´
ECHELONN
´
ES. 7
Exemple : Le syst`eme homog`ene associ´e `a (S
1
) est

2x + 3y = 0
x −y = 0
D´efinition 1.2.3 On appelle solution de (S) tout n-uplet (u
1
, ..., u
n
) de K
n
tel que

a
1,1
u
1
+... +a
1,p
u
p
= b
1
...........
a
n,1
u
1
+... +a
n,p
u
p
= b
n
D´efinition 1.2.4 Deux syst`emes (S
1
) et (S
2
) sont ´equivalents s’ils ont le mˆeme ensemble de
solutions, c’est `a dire si toute solution de (S
1
) est solution de (S
2
) et vice-versa.
Exemple : Les syst`emes :

x
1
= 2
x
1
−x
2
= 4
et

x
1
+x
2
= 0
x
1
−x
2
= 4
sont ´equivalents car chacun d’eux a pour unique solution (2, −2).
D´efinition 1.2.5 On dit qu’un syst`eme n p est carr´e si n = p. La matrice du syst`eme est
alors dite matrice carr´ee. On dit qu’un syst`eme carr´e est triangulaire inf´erieur si a
i,j
= 0 pour
tout couple (i, j) tel que i < j. On dit qu’un syst`eme carr´e est triangulaire sup´erieur si a
i,j
= 0
pour tout couple (i, j) tel que i > j.
Exemple : Le syst`eme suivant est triangulaire sup´erieur

x
1
+2x
2
−x
3
= 2
x
2
+x
3
−x
4
= 0
x
3
−x
4
= 5
x
4
= 3
On dit que la diagonale est non nulle si tous les termes diagonaux sont non nuls. Le syst`eme
ci-dessus est triangulaire sup´erieur `a diagonale non nulle. La matrice du syst`eme est dite matrice
triangulaire sup´erieure `a diagonale non nulle.
D´efinition 1.2.6 On dit qu’un syst`eme n p est ´echelonn´e s’il est de la forme
(S)

a
1,j
1
x
j
1
+....................... +a
1,p
x
p
= b
1
a
2,j
2
x
j
2
+............. +a
2,p
x
p
= b
2
a
3,j
3
x
j
3
+.......... +a
3,p
x
p
= b
3
..............
a
k,j
k
x
j
k
+.... +a
k,p
x
p
= b
k
0 = b
k+1
....
0 = b
n
o` u 1 ≤ j
1
< j
2
< ... < j
k
≤ p, 1 ≤ k ≤ n et tous les a
m,j
m
sont non nuls, m = 1....k. Les
k premi`eres ´equations sont appel´ees les ´equations principales et les inconnues x
j
1
,...,x
j
k
sont
appel´ees les inconnues principales.
Exemple : Le syst`eme 3 5 suivant est ´echelonn´e.

x
1
−x
2
+ +x
4
+ 2x
5
= 0
−x
3
+x
4
−x
5
= 0
0 = 1
8 CHAPITRE 1. R
´
ESOLUTION DES SYST
`
EMES LIN
´
EAIRES.
Remarque : Tout syst`eme triangulaire sup´erieur de taille n n `a diagonale non nulle est
´echelonn´e avec k = n et j
i
= i pour i = 1...n. Un syst`eme carr´e est ´echelonn´e si il est : soit
triangulaire sup´erieur `a diagonale non nulle, soit triangulaire sup´erieur avec certains termes
diagonaux nuls. Dans ce dernier cas, la ou les derni`ere lignes ont leurs premiers membres nuls.
Exemple : Le syst`eme carr´e 4 4 suivant

x
1
+2x
2
−x
3
= 2
x
3
−x
4
= 0
x
4
= 5
0 = 3
est ´echelonn´e, triangulaire avec des termes diagonaux nuls. Le premier membre de sa derni`ere
ligne est nul.
1.3 R´esolution des syst`emes ´echelonn´es.
Proposition 1.3.1 Soit (S) un syst`eme triangulaire sup´erieur n n `a diagonale non nulle.
Alors (S) a une solution unique obtenue par la m´ethode de la remont´ee.
Preuve : x
n
=
b
n
a
p,p
, x
n−1
=
b
n−1
−a
n−1,n
x
n
a
n−1,n−1
, ...., x
1
=
b
1
−a
1,2
x
2
....−a
1,p
x
p
a
1,1
.
Remarque : Les syst`emes triangulaires inf´erieurs `a diagonale non nulle peuvent ˆetre r´esolus
par la m´ethode de la descente.
Proposition 1.3.2 Soit (S) le syst`eme ´echelonn´e pn de la d´efinition 1.2.6. Supposons k < n.
Alors
(i) Si l’un des b
j
, j ∈ ¦k + 1, ..., n¦ est non nul, S n’a pas de solution.
(ii) Si b
k+1
= ... = b
n
= 0, alors S est ´equivalent `a
(Σ)

a
1,j
1
x
j
1
+....................... +a
1,p
x
p
= b
1
a
2,j
2
x
j
2
+............. +a
2,p
x
p
= b
2
a
3,j
3
x
j
3
+.......... +a
3,p
x
p
= b
3
..............
a
k,j
k
x
j
k
+.... +a
k,p
x
p
= b
k
o` u 1 ≤ j
1
< j
2
... < j
k
≤ p et a
1,j
1
= 0 ,...., a
k,j
k
= 0. Alors on a deux cas. Le premier cas est k =
p (autant d’´equations que d’inconnues pour (Σ)), alors (Σ) est un syst`eme triangulaire sup´erieur
`a diagonale non nulle, il a une solution unique. Le second cas est k < p (plus d’inconnues que
d’´equations pour (Σ), on prend les inconnues non principales comme param`etres. On obtient
une infinit´e de solutions, par la m´ethode de la remont´ee.
Remarque : Si k = n, on est plac´e directement dans la situation (ii).
Exemples : 1) Le syst`eme 4 5

x
1
+ 2x
2
x
5
= 1
x
2
+2x
4
− x
5
= 2
x
5
= 6
0 = 8
n’a pas de solutions.
2) Le syst`eme 4 5

x
1
+ 2x
2
− x
3
+x
5
= 1
x
2
+ +x
4
−x
5
= 2
x
5
= 6
0 = 0
1.4. ALGORITHME DU PIVOT DE GAUSS. 9
a pour inconnues principales x
1
, x
2
, x
5
. On prend x
3
et x
4
comme param`etres. On passe x
3
et
x
4
dans le second membre. On est ramen´e `a un syst`eme triangulaire sup´erieur `a diagonale non
nulle. Par la m´ethode de la remont´ee, on trouve

x
5
= 6
x
2
= −x
4
+ 6 + 2 = −x
4
+ 8
x
1
= x
3
+ 2x
4
−16 −6 + 1 = x
3
+ 2x
4
−21
Le syst`eme a donc une infinit´e de solutions. L’ensemble des solutions est
¦(x
3
+ 2x
4
−21, −x
4
+ 8, x
3
, x
4
, 6); x
3
∈ R, x
4
∈ R¦.
1.4 Algorithme du pivot de Gauss.
L’algorithme du pivot de Gauss sert `a transformer n’importe quel syst`eme en un syst`eme
´echelonn´e ´equivalent, `a l’aide de transformations ´el´ementaires.
Les transformations ´el´ementaires sont :
(1) ´echange de deux lignes du syst`eme ;
(2) multiplication d’une ligne par un scalaire non nul ;
(3) ajout d’une ligne `a une autre ligne.
Proposition 1.4.1 Quand on transforme un syst`eme en un autre par une succession d’op´erations
´el´ementaires, on obtient un syst`eme ´equivalent au premier. (Autrement dit, transformer un
syst`eme par une succession d’op´erations ´el´ementaires ne change pas l’ensemble des solutions.)
Preuve : Pour l’op´eration (1), c’est ´evident. Pour l’op´eration (2) : on passe de la ligne (L
i
) :
a
i,1
x
1
+ ... + a
i,p
x
p
= b
i
`a la ligne (L

i
) : αa
i,1
x
1
+ ... + αa
i,p
x
p
= αb
i
en multipliant par le
scalaire non nul α. Alors on passe de (L

i
) `a (L
i
) en multipliant par
1
α
. Pour l’op´eration (3) : On
remplace la ligne (L
i
) par la ligne (L
i
) + (L
j
),not´ee (L

i
), les autres lignes restant inchang´ees.
Dans le syst`eme initial les lignes num´eros i et j sont

a
i,1
x
1
+.... +a
i,p
x
p
= b
i
(L
i
)
a
j,1
x
1
+.... +a
j,p
x
p
= b
j
(L
j
)
Dans le syst`eme obtenu les lignes num´eros i et j sont

(a
i,1
+a
j,1
)x
1
+.... +(a
i,p
+a
j,p
)x
p
= b
i
+b
j
(L

i
)
a
j,1
x
1
+.... +a
j,p
x
p
= b
j
(L

j
)
Pour retrouver le syst`eme initial, on remplace la ligne (L

i
) par (L

i
) −(L

j
).
Th´eor`eme 1.4.2 Tout syst`eme est ´equivalent `a un syst`eme ´echelonn´e.
La d´emonstration repose sur l’algorithme du pivot de Gauss. Montrons-le sur un exemple.
Soit le syst`eme

x
1
+2x
2
−x
4
= 1 (L
1
)
2x
1
+3x
2
+x
3
+x
4
= 2 (L
2
)
x
1
−x
3
−x
4
= 0 (L
3
)
La premi`ere ´equation est prise comme pivot et reste inchang´ee. On remplace les deux derni`eres
lignes en leur retranchant un multiple de la premi`ere ligne, de mani`ere `a supprimer l’inconnue
x
1
. On obtient le syst`eme ´equivalent suivant :

x
1
+2x
2
−x
4
= 1 (L

1
)
−x
2
+x
3
+3x
4
= 0 (L

2
) = (L
2
) −2(L
1
)
−2x
2
−x
3
= −1 (L

3
) = (L
3
) −(L
1
)
10 CHAPITRE 1. R
´
ESOLUTION DES SYST
`
EMES LIN
´
EAIRES.
On r´eit`ere le proc´ed´e pour le syst`eme 2 3 form´e par la deuxi`eme et la troisi`eme ´equation. La
deuxi`eme ´equation est prise comme pivot.

x
1
+2x
2
−x
4
= 1 (L

1
)
−x
2
+x
3
+3x
4
= 0 (L

2
))
−3x
3
−6x
4
= −1 (L

3
) −2(L

2
)
On a obtenu un syst`eme ´echelonn´e. Les inconnues principales sont x
1
, x
2
, x
3
. On a une inconnue
non principale : x
4
. On la prend comme param`etre, puis on utilise la m´ethode de la remont´ee.

x
3
= −2x
4
+
1
3
x
2
= −2x
4
+
1
3
+ 3x
4
= x
4
+
1
3
x
1
= 1 +x
4
−2(x
4
+
1
3
) = −x
4
+
1
3
L’ensemble des solutions est
¦(−x
4
+
1
3
, x
4
+
1
3
, −2x
4
+
1
3
); x
4
∈ R¦.
Remarquons qu’on peut pr´esenter l’algorithme du pivot de Gauss sous une forme matricielle.
On fait alors une succession d’op´erations ´el´ementaires sur les lignes de la matrice du syst`eme,
sans oublier de faire simultan´ement les mˆemes op´erations sur le second membre. Dans le cas de
l’exemple ci-dessus,
la matrice du syst`eme est

¸
1 2 0 −1
2 3 1 1
1 0 −1 −1
¸

et le second membre est

¸
1
2
0
¸

.
En prenant la premi`ere ligne comme pivot, on obtient d’abord la matrice et le second membre :

¸
1 2 0 −1
0 −1 1 3
0 −2 −1 0
¸

et

¸
1
0
−1
¸

.
En r´eit´erant le proc´ed´e, on obtient la matrice et le second membre :

¸
1 2 0 −1
0 −1 1 3
0 0 −3 −6
¸

et

¸
1
0
−1
¸

.
Algorithme du pivot de Gauss dans le cas g´en´eral.
Soit (S) un syst`eme np de matrice A non nulle. Soit j
1
l’indice de la premi`ere colonne non
nulle.
Premi`ere ´etape. On permute ´eventuellement des lignes pour se ramener `a a
1,j
1
= 0. Apr`es
cette permutation ´eventuelle, (S) est remplac´e par un syst`eme ´equivalent, de matrice
A =

¸
¸
0 ...0 a
1,j
1
......
.
.
.
.
.
.
0 .....0 a
n,j
1
.......
¸

On permute de la mˆeme mani`ere les lignes du second membre.
Deuxi`eme ´etape. On fait apparaˆıtre des 0 dans la colonne j
1
, sous le coefficient a
1,j
1
. Pour
cela, on remplace la ligne (L
i
), i = 2, ..., p, par
(L

i
) = (L
i
) −
a
i,j
1
a
1,j
1
(L
1
).
1.5. PRINCIPES
`
A RETENIR, POUR LA R
´
ESOLUTION DES SYST
`
EMES LIN
´
EAIRES. 11
On n’oublie pas de faire simultan´ement les mˆemes op´erations ´el´ementaires sur le second membre
du syst`eme. Apr`es ces p op´erations ´el´ementaires, on obtient le syst`eme de matrice

¸
¸
0 ...0 a
1,j
1
∗ ...∗
.
.
.
0 ∗ ...∗
0 .....0 0 ∗ ...∗
¸

On recommence ces deux ´etapes pour le syst`eme (n − 1) p constitu´e par les lignes num´eros
2 `a p du syst`eme obtenu `a la fin de la premi`ere ´etape. L’algorithme s’arrˆete au bout d’au plus
n −1 it´erations, ou quand la matrice du sous-syst`eme obtenu a toutes ses lignes nulles.
L’algorithme est programmable et permet de r´esoudre des syst`emes lin´eaires, mˆeme de tr`es
grandes dimensions, par ordinateur.
1.5 Principes `a retenir, pour la r´esolution des syst`emes lin´eaires.
Pour r´esoudre un syst`eme lin´eaire, on le transforme en un syst`eme ´equivalent et on r´eit`ere le
proc´ed´e jusqu’`a obtenir l’ensemble des solutions. Il y a deux proc´ed´es qui permettent de passer
d’un syst`eme donn´e `a un syst`eme ´equivalent.
Premier proc´ed´e pour obtenir un syst`eme ´equivalent : la substitution. On se sert
de l’une des ´equations pour calculer l’une des inconnues en fonction des autres. Ensuite on
´ecrit un nouveau syst`eme ´equivalent au premier en gardant l’´equation qui vient de servir et en
rempla¸cant, dans toutes les autres ´equations, l’inconnue qu’on a calcul´ee par son expression en
fonction des autres. (Remarquons que le nombre d’´equations reste le mˆeme).
Deuxi`eme proc´ed´e pour obtenir un syst`eme ´equivalent : les op´erations ´el´ementaires.
On multiplie plusieurs ´equations par des nombres non nuls puis on les ajoute membre `a membre.
Ensuite on ´ecrit un nouveau syst`eme ´equivalent au premier en rempla¸cant l’une des ´equations
qu’on vient d’utiliser par celle qu’on a obtenue et en gardant toutes les autres. (L`a aussi, on
remarque que le nombre d’´equations reste le mˆeme).
Toute m´ethode de r´esolution qui utilise successivement l’un ou l’autre de ces deux proc´ed´es
est juste. La m´ethode du pivot de Gauss permet `a coup sˆ ur de trouver un syst`eme ´echelonn´e
´equivalent au syst`eme donn´e en proc´edant par op´erations ´el´ementaires. La r´esolution par la
m´ethode de la remont´ee est un proc´ed´e de substitutions r´eit´er´ees.
Dans la pratique courante (sans machine !) la m´ethode du pivot n’est pas toujours la m´ethode
la plus rapide, il se peut qu’on ait int´erˆet `a proc´eder par substitutions.
Exemple :

2x
1
−x
2
+x
3
= 4 (L
1
)
x
1
−x
3
= 0 (L
2
)
x
2
+x
3
= 0 (L
3
)
R´esolution par la m´ethode du pivot de Gauss :

2x
1
−x
2
+x
3
= 4
x
2
−3x
3
= −4 2(L
2
) −(L
1
)
x
2
+x
3
= 0
puis

2x
1
−x
2
+x
3
= 4
x
2
−3x
3
= −4
+4x
3
= 4 (L

3
) −(L

2
)
Par la m´ethode de la remont´ee on obtient la solution unique :

x
3
= 1
x
2
= −4 + 3 = −1
x
1
= 1
Reprenons le mˆeme syst`eme et r´esolvons-le par substitution :

x
1
= x
3
(L
2
)
x
2
= −x
3
(L
3
)
2x
3
+x
3
+x
3
= 4 (on substitue x
3
`a x
1
et −x
3
`a x
2
dans (L
1
))
12 CHAPITRE 1. R
´
ESOLUTION DES SYST
`
EMES LIN
´
EAIRES.
On retrouve la solution unique (1, −1, 1).
1.6 Structure de l’ensemble des solutions d’un syst`eme lin´eaire.
Pr´esentation de l’ensemble des solutions. Exemple. Soit le syst`eme 3 4 `a coefficients
dans R :

x
1
−2x
2
+x
3
−x
4
= 2 (L
1
)
−x
2
+x
4
= 0 (L
2
)
x
3
+x
4
= 1 (L
3
)
C’est un syst`eme ´echelonn´e. On prend x
4
comme param`etre et x
1
, x
2
, x
3
comme inconnues
principales..

x
3
= −x
4
+ 1 (L
3
)
x
2
= x
4
(L
2
)
x
1
= 2 + 2x
4
+x
4
−1 +x
4
(on substitue x
4
`a x
2
et −x
4
+ 1 `a x
3
dans (L
1
))
L’ensemble des solutions est l’ensemble des quatre-uplets de r´eels

¸
¸
¸
x
1
x
2
x
3
x
4
¸

qui v´erifient :

x
1
= 4x
4
+ 1
x
2
= x
4
x
3
= −x
4
+ 1
x
4
= x
4
.
Ceci est ´equivalent `a dire que la colonne

¸
¸
¸
x
1
x
2
x
3
x
4
¸

est telle que :

¸
¸
¸
x
1
x
2
x
3
x
4
¸

= x
4

¸
¸
¸
4
1
−1
1
¸

+

¸
¸
¸
1
0
1
0.
¸

On pr´esente l’ensemble des solutions sous la forme :
c = ¦λ

¸
¸
¸
4
1
−1
1
¸

+

¸
¸
¸
1
0
1
0
¸

; λ ∈ R¦.
Proposition 1.6.1 Soit (S) un syst`eme lin´eaire et soit (S
0
) le syst`eme homog`ene associ´e.
Soient c et c
0
leurs ensembles de solutions respectifs. Alors c
0
n’est jamais l’ensemble vide,
car il contient toujours la solution nulle. De plus, la diff´erence de deux ´el´ements de c est un
´el´ement de c
0
. On a donc : soit c = ∅, soit c est l’ensemble de la somme des ´el´ements de c
0
et
d’un ´el´ement particulier de c.
Preuve : Si c = ∅, soit (α
1
, ..., α
p
) une solution de (S). Si (x
1
, ..., x
p
) est une autre solution de
(S), alors la diff´erence (x
1
−α
1
, ..., x
p
−α
p
) est une solution de (S
0
). Pour le montrer, on ´ecrit,
pour tout i = 1, ..., n, que la ligne num´ero i du syst`eme (S) est v´erifi´ee par (x
1
, ..., x
p
) et par

1
, ..., α
p
). On a donc :

a
i,1
x
1
+... +a
i,p
x
p
= b
i
a
i,1
α
1
+... +a
i,p
α
p
= b
i
On soustrait membre `a membre les deux ´equations ci-dessus, on obtient :
a
i,1
(x
1
−α
1
) +... +a
i,p
(x
p
−α
p
) = 0,
ce qui signifie que la ligne num´ero i du syst`eme homog`ene (S
0
) est v´erifi´ee par (x
1
−α
1
, ..., x
p
−α
p
).
Ceci est vrai pour i = 1, ..., n, donc (x
1
−α
1
, ..., x
p
−α
p
) est une solution du syst`eme homog`ene
(S
0
).
1.6. STRUCTURE DE L’ENSEMBLE DES SOLUTIONS D’UN SYST
`
EME LIN
´
EAIRE. 13
R´eciproquement, on montre de la mˆeme mani`ere que si (α
1
, ..., α
p
) est une solution de (S)
et si (β
1
, ..., β
p
) est une solution de (S
0
), alors (α
1

1
, ..., α
p

p
) est une solution de (S).
Exemple. Dans l’exemple ci-dessus, remarquons que

¸
¸
¸
1
0
1
0
¸

est une solution de (S), obtenue
pour la valeur 0 du param`etre. D’apr`es la proposition ci-dessus, les solutions de (S
0
) s’obtiennent
en retranchant cette solution particuli`ere `a toutes les solutions de (S). On a donc
c
0
= ¦λ

¸
¸
¸
4
1
−1
1
¸

; λ ∈ R¦.
On dira que c
0
est un sous-espace vectoriel de R
4
.
14 CHAPITRE 1. R
´
ESOLUTION DES SYST
`
EMES LIN
´
EAIRES.
Chapitre 2
Espaces vectoriels sur R ou C.
2.1 Rappel : les vecteurs du plan.
On connaˆıt depuis le lyc´ee u = (x, y).
Point de vue g´eom´etrique. Un vecteur du plan est un segment orient´e. Plus pr´ecis´emment,
c’est une classe d’´equivalence de segments pour la relation :
[A, B] ∼ [A

, B

] ⇔ (AB) | (A

B

) et (AA

) | (BB

).
Ou encore : les couples de points (A, B) et (A

, B

) d´efinissent le mˆeme vecteur si et seulement
si le quadrilat`ere ABB

A

est un parall´elogramme.
Point de vue analytique. Un vecteur du plan est caract´eris´e par ses coordonn´ees x et y
suivant une base de vecteurs (

i,

j) fix´ee une fois pour toutes.
Pour nous : un vecteur du plan sera un couple de r´eels, autrement dit un ´el´ement de R
2
,
u = (x, y), qu’on notera soit en ligne, soit en colonne.
On sait d´ej`a ajouter deux vecteurs du plan. u
1
= (x
1
, y
1
), u
2
= (x
2
, y
2
).
u
1
+u
2
= (x
1
+x
2
, y
1
+y
2
).
Comme la somme de deux vecteurs du plan est un vecteur du plan, on dit que l’addition est une
loi interne.
On sait multiplier un vecteur du plan par un nombre r´eel. Si λ est un nombre r´eel et si
u = (x, y) est un vecteur du plan, on d´efinit
λu = (λx, λy).
La multiplication est effectu´ee par un r´eel et non par un vecteur. On dit que la multiplication
par un r´eel est une loi externe.
On ne sait pas multiplier deux vecteurs du plan, ni diviser deux vecteurs du plan.
On peut combiner la multiplication par un r´eel et l’addition.
λ, µ ∈ R; λu
1
+µu
2
= (λx
1
+µx
2
, λy
1
+µy
2
).
On dit qu’on a effectu´e une combinaison lin´eaire des deux vecteurs u
1
et u
2
avec les coefficients
λ et µ.
Lorsqu’il existe un r´eel λ tel que u = λv, ou tel que v = λu on dit que les vecteurs u et v
sont colin´eaires. Dans le cas contraire, on dit qu’ils sont lin´eairement ind´ependants. Exemple :
(1, 0) et (0, 1) sont lin´eairement ind´ependants.
On peut d´efinir aussi les vecteurs de l’espace comme les triplets de r´eels u = (x, y, z).
15
16 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.
2.2 Espaces vectoriels sur R ou C.
On rappelle que K = R ou C est appel´e le corps des scalaires.
D´efinition 2.2.1 Un espace vectoriel sur K est un ensemble non vide E qui est muni de deux
op´erations : la somme et la multiplication par un scalaire. Ces deux op´erations v´erifient les
propri´et´es suivantes :
u, v ∈ E, u+v = v+u (l’addition est commutative). u, v, w ∈ E, u+(v+w) = (u+v)+w.
On notera u +v +w. (L’addition est associative).
Il existe e ∈ E tel que u +e = u pour tout u de E.
Pour tout u ∈ E, il existe u

∈ E tel que u +u

= e.
u ∈ E, 1u = u.
u ∈ E, λ, µ ∈ K, (λ +µ)u = λu +µu
u ∈ E, λ, µ ∈ K, (λµ)u = λ(µu). (on notera λµu).
u, v ∈ E, λ ∈ K, λ(u +v) = λu +λv.
Tout ´el´ement de E s’appelle un vecteur. On pourrait noter u, on notera u.
Remarques : Ce n’est pas la nature des ´el´ements de E qui fait que E est appel´e un espace
vectoriel, mais ce sont les op´erations qu’on peut effectuer sur les ´el´ements de E et les propri´et´es
de ces op´erations.
L’addition est une loi interne. Les quatre premi`eres propri´et´es sont des propri´et´es de l’addi-
tion seulement. On dit que (E, +) est un groupe ab´elien. L’´el´ement e est appel´e l’´el´ement neutre
pour +. Les ´el´ements u et u

sont appel´es des ´el´ements sym´etriques pour +.
La multiplication par un scalaire est une loi externe. On n’a pas d´efini la multiplication de
deux ´el´ements de E.
Montrons l’unicit´e de l’´el´ement neutre pour l’addition. Soient e et e

tels que pour tout u ∈ E,
e +x = x et e

+x = x. alors e +e

= e et e

+e = e

. Mais e +e

= e

+e donc e = e

.
Pour u ∈ E, montrons l’unicit´e de l’´el´ement sym´etrique de u pour l’addition. Soient u

et v
tels que u +u

= e et u +v = e. Alors v +(u +u

) = (v +u) +u

= e +u

= u

. Mais on a aussi
v + (u +u

) = v +e = v. Donc v = u

.
Notation : L’´el´ement neutre pour l’addition, e, sera not´e 0. On pourrait noter

0, pour ne pas
le confondre avec le 0 de R ou C, mais on d´ecide de ne pas mettre de fl`eches sur les vecteurs.
Attention : On prendra garde, tout au long du cours, `a ne pas confondre le vecteur 0 (vecteur
nul) avec le scalaire 0. C’est le contexte qui nous permettra de reconnaˆıtre dans quels cas le
symbole 0 d´esigne le vecteur nul et dans quels cas il d´esigne le scalaire nul.
Montrons que si u, v, w ∈ E,
(u +w = v +w) ⇒ (u = v).
Il suffit d’ajouter le sym´etrique de w, w

, de chaque cˆot´e.
Montrons que si u ∈ E,
0u = 0.
(Remarquons que le 0 `a gauche du signe = est un scalaire et que le 0 `a droite du signe = est un
´el´ement de E).
0u +u = 0u + 1u = (0 + 1)u = 1u = u donc 0u +u +u

= u +u

d’o` u 0u = 0.
Montrons que si λ est un scalaire,
λ0 = 0.
(Remarquons que le 0 `a gauche du signe = et le 0 `a droite du signe = d´esignent tous deux le
vecteur nul).
λ0 +λ0 = λ(0 + 0) = λ0 = λ0 + 0 donc λ0 = 0.
2.2. ESPACES VECTORIELS SUR R OU C. 17
Montrons que si u ∈ E et λ ∈ K et si λu = 0, alors u = 0 (u est le vecteur nul), ou λ = 0 (λ
est le z´ero de R ou C). Supposons λ = 0. Soit 1/λ son inverse dans R ou C. On a (1/λ)(λu) = 0
Or (1/λ)(λu) = ((1/λ)λ)u = 1u = u, donc u = 0. On a donc bien montr´e
(λu = 0) ⇒ (λ = 0 ou u = 0).
Le sym´etrique pour l’addition du vecteur u ∈ E, u

, sera not´e −u. On a u + (−1)u =
1u + (−1)u, donc u + (−1)u = (1 + (−1))u = 0u = 0. Donc
−u = (−1)u.
Exemples d’espaces vectoriels a) L’ensemble K lui mˆeme est un espace vectoriel sur K. On
prend comme op´erations l’addition et la multiplication dans K. Toutes les propri´et´es ci-dessus
sont v´erifi´ees.
b) C est un espace vectoriel sur C, d’apr`es a). C’est aussi un espace vectoriel sur R, si on
prend les op´erations suivantes : comme loi interne l’addition dans C et comme loi externe la
mutiplication d’un nombre complexe par un nombre r´eel. C’est `a dire
a, b, a

, b

∈ R, (a +ib) + (a

+ib

) = (a +a

) +i(b +b

).
a, b, λ ∈ R, λ(a +ib) = λa +iλb.
c) Si n est un entier sup´erieur ou ´egal `a 2, l’ensemble R
n
des n−uplets de r´eels est un espace
vectoriel sur R. Pour n = 2, on trouve les vecteurs du plan ´etudi´es au lyc´ee, pour n = 3, on
trouve les vecteurs de l’espace. L’addition dans R
n
est d´efinie par :
(x
1
, ..., x
n
) + (y
1
, ..., y
n
) = (x
1
+y
1
, ..., x
n
+y
n
).
La multiplication par un r´eel λ est d´efinie par :
λ(x
1
, ..., x
n
) = (λx
1
, ..., λx
n
).
L’addition dans R
n
est commutative, car l’addition dans R l’est. On v´erifie facilement que
l’addition dans R
n
est associative car l’addition dans R l’est. L’addition dans R
n
a un ´el´ement
neutre qui est (0, ..., 0) car (x
1
, ..., x
n
) + (0, ..., 0) = (x
1
+ 0, ..., x
n
+ 0) = (x
1
, ..., x
n
). Chaque
´el´ement (x
1
, ..., x
n
) de R
n
a un sym´etrique pour l’addition, qui est (−x
1
, ..., −x
n
). Donc (R
n
, +)
est un groupe ab´elien.
De plus on a :
1(x
1
, ..., x
n
) = (1x
1
, ..., 1x
n
) = (x
1
, ..., x
n
).
Pour λ, µ ∈ R on a :
(λ +µ)(x
1
, ..., x
n
) = ((λ +µ)x
1
, ..., (λ +µ)x
n
) = (λx
1
+µx
1
, ..., λx
n
+µx
n
) =
(λx
1
, ..., λx
n
) + (µx
1
, ..., µx
n
) = λ(x
1
, ..., x
n
) +µ(x
1
, ..., x
n
),
λ(µ(x
1
, ..., x
n
)) = λ(µx
1
, ..., µx
n
) = (λµx
1
, ..., λµx
n
) = (λµ)(x
1
, ..., x
n
)
et
λ((x
1
, ..., x
n
) + (y
1
, ..., y
n
)) = λ(x
1
+y
1
, ..., x
n
+y
n
) = (λ(x
1
+y
1
), ..., λ(x
n
+y
n
)) =
(λx
1
+λy
1
, ..., λx
n
+λy
n
) = (λx
1
, ..., λx
n
) + (λy
1
, ..., λy
n
) = λ(x
1
, ..., x
n
) +λ(y
1
, ..., y
n
).
d) L’ensemble des n−uplets de nombres complexes, C
n
, est un espace vectoriel sur C. La
d´emonstration est identique `a celle de c).
18 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.
e) L’ensemble C
n
est un espace vectoriel sur R pour la somme dans C
n
et la multiplication
d’un ´el´ement de C
n
par un nombre r´eel.
f) Soit I un intervalle de R. Soit T(I, R) l’ensemble des fonctions de I dans R. T(I, R) = ∅,
puisqu’il contient au moins la fonction identiquement nulle : x → 0. On le munit des op´erations
d´efinies par :
(f +g)(x) = f(x) +g(x),
λ ∈ R, (λf)(x) = λ(f(x)).
On a bien une loi interne et une multiplication par les scalaires. V´erifions les quatre propri´et´es de
la loi interne. La fonction identiquement nulle est ´el´ement neutre pour l’addition. Montrons que
l’addition dans T(I, R) est commutative. Par la d´efinition de f +g on a : (f +g)(x) = f(x)+g(x).
Comme l’addition dans R est commutative, on a f(x) +g(x) = g(x) +f(x). Or par la d´efinition
de la fonction g + f, on a g(x) + f(x) = (g + f)(x). On conclut que f + g = g + f. On peut
montrer de la mˆeme mani`ere que l’addition dans T(I, R) est associative. Chaque ´el´ement f a un
sym´etrique pour l’addition qui est la fonction x → −f(x), qu’on notera −f. On a donc montr´e
que (T(I, R), +) est un groupe ab´elien.
On a :
(1f)(x) = 1(f(x)) = f(x), donc 1f = f.
On a
((λµ)f)(x) = (λµ)(f(x)) = λ(µf(x)) = λ((µf)(x)) = (λ(µf))(x), donc (λµ)f = λ(µf).
On a
((λ +µ)f)(x) = (λ +µ)(f(x)) = λ(f(x)) +µ(f(x)) = (λf)(x) + (µf)(x),
donc (λ +µ)f = λf +µf.
On a
(λ(f +g))(x) = λ((f +g)(x)) = λ(f(x) +g(x)) = λ(f(x)) +λ(g(x)) = (λf)(x) + (λg)(x) =
(λf +λg)(x),
donc λ(f +g) = (λf) + (λg).
On a d´emontr´e que T(I, R) muni de l’addition et de la multiplication par un scalaire d´efinies
ci-dessus est un espace vectoriel sur R.
2.3 Sous-espaces vectoriels.
Dans cette partie, E sera un espace vectoriel sur K.
D´efinition 2.3.1 Soient n ∈ N

, u
1
, ..., u
n
, v ∈ K, alors
(i) si il existe λ ∈ K tel que v = λu
1
, on dit que v est colin´eaire `a u
1
.
(ii) si n ≥ 2 et si il existe λ
1
, ..., λ
n
∈ K tels que v = λ
1
u
1
+ ... + λ
n
u
n
, on dit que le vecteur v
est une combinaison lin´eaire des vecteurs u
1
, ..., u
n
.
Remarque : Le vecteur nul est colin´eaire `a tout autre vecteur car
0 = 0u, pour tout u ∈ E.
(
`
A gauche du signe=, le symbole 0 d´esigne le vecteur nul ; `a droite du signe= le mˆeme symbole
d´esigne le scalaire nul.)
2.4. INTERSECTION DE SOUS-ESPACES VECTORIELS. 19
D´efinition 2.3.2 Soit F un sous-ensemble non vide de E. On dit que F est un sous-espace
vectoriel de E si
(i) Pour tous u, v ∈ F, u +v ∈ F ;
(ii) pour tous λ ∈ K, u ∈ F, λu ∈ F.
Remarques : Si F est un sous-espace vectoriel de E, alors
a) le vecteur nul appartient `a F. En effet, comme F = ∅, soit u ∈ F. Soit 0 ∈ K le scalaire
nul, on a 0u ∈ F. Or 0u est le vecteur nul, donc le vecteur nul appartient `a F.
b) Si n ≥ 2 et si u
1
, ..., u
n
∈ F, alors u
1
+ ... + u
n
∈ F. (Appelons ({
n
) la propri´et´e ”si
u
1
, ..., u
n
sont n vecteurs de F, alors le vecteur u
1
+ ... + u
n
appartient `a F”. D´emontrons par
r´ecurrence que ({
n
) est vraie pour tout n ≥ 2. La propri´et´e ({
2
) est vraie, donc la propri´et´e ({
n
)
est initialis´ee `a l’ordre 2. Montrons qu’elle est h´er´editaire `a partir de l’ordre 2, c’est `a dire que
pour n ≥ 2, (({
n
) ⇒ ({
n+1
)). Soit n ≥ 2 tel que ({
n
) soit vraie. Montrons que ({
n+1
) est vraie.
Prenons n +1 vecteurs de F. On a u
1
+... +u
n+1
= (u
1
+... +u
n
) +u
n+1
. Or, par la propri´et´e
({
n
) on a u
1
+... +u
n
∈ F. Par la propri´et´e ({
2
), on a donc que (u
1
+... +u
n
) +u
n+1
∈ F. La
propri´et´e ({
n
) est donc bien h´er´editaire `a partir de l’ordre 2. Comme elle est aussi initialis´ee `a
l’ordre 2, alors elle est vraie pour tout n ≥ 2, par le th´eor`eme de r´ecurrence.)
c) Si n ≥ 2, toute combinaison lin´eaire de n vecteurs de F appartient `a F. (C’est vrai pour
toute combinaison lin´eaire de deux vecteurs de F, puis on fait une d´emonstration par r´ecurrence
sur le nombre de vecteurs).
Proposition 2.3.3 Tout sous-espace vectoriel de E est un espace vectoriel sur K.
Preuve : On prend comme addition dans F la loi interne de E. On prend comme loi externe sur
F la loi externe sur E. On a vu que le vecteur nul de E appartient `a F. C’est l’´el´ement neutre
pour l’addition dans F. Si u appartient `a F, on sait que son sym´etrique pour l’addition est
(−1)u, donc il appartient `a F. La commutativit´e et l’associativit´e de la loi interne sont v´erifi´ees
dans F, car elles le sont dans E. Il en est de mˆeme des quatre derni`eres propri´et´es qui d´efinissent
un espace vectoriel.
Exemples : a) Si E est un espace vectoriel sur K alors ¦0¦ est un sous-espace vectoriel de E
et E lui-mˆeme est un sous-espace vectoriel de E.
b) Soit n ∈ N, n ≥ 2 et soit l’espace vectoriel sur K K
n
. Soit 1 ≤ p ≤ n. Alors
F = ¦(x
1
, ..., x
p
, 0...0); x
i
∈ K, i = 1, ..., p¦
est un sous-espace vectoriel de K
n
. On a (0, ..., 0) ∈ F, donc F = ∅. Si u = (x
1
, ..., x
p
, 0, ...0) ∈ F
et si λ ∈ K, alors λu ∈ F car λu = (λx
1
, ..., λx
p
, 0, ..., 0). Si v = (y
1
, ..., y
p
, 0, ..., 0) ∈ F, alors
u +v ∈ F car u +v = (x
1
+y
1
, ..., x
p
+y
p
, 0, ..., 0).
c) Soit (

(R) l’ensemble des fonctions ind´efiniment d´erivables de R dans R. C’est un sous-espace
vectoriel de l’espace vectoriel sur R T(R, R).
2.4 Intersection de sous-espaces vectoriels.
Proposition 2.4.1 Si F et G sont des sous-espaces vectoriels de E, alors F ∩ G est un sous-
espace vectoriel de E.
Preuve : 0 ∈ F ∩G, donc F ∩G = ∅. Si u, v ∈ F ∩G et λ ∈ K, alors λu ∈ F ∩G et u+v ∈ F ∩G.
Remarque : L’intersection d’une famille quelconque de sous-espaces vectoriels de E est un
sous-espace vectoriel de E.
Proposition 2.4.2 L’ensemble des solutions d’un syst`eme homog`ene n p est un sous-espace
vectoriel de K
p
.
20 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.
Preuve : 0n rappelle qu’un syst`eme homog`ene n p a n lignes et p inconnues et un second
membre nul.
(S)

a
1,1
x
1
+... +a
1,p
x
p
= 0
...
a
i,1
x
1
+... +a
i,p
x
p
= 0
...
a
n,1
x
1
+... +a
n,p
x
p
= 0
Soit F
1
l’ensemble des solutions de la premi`ere ligne, c’est `a dire :
F
1
= ¦(x
1
, ..., x
p
) ∈ K
p
; a
1,1
x
1
+... +a
1,p
x
p
= 0¦.
Montrons que F
1
est un sous-espace vectoriel de K
p
. D’abord F
1
n’est pas vide car il contient
(0, ..., 0). Si λ ∈ K, (x
1
, ..., x
p
) ∈ F
1
et (y
1
, ..., y
p
) ∈ F
1
, alors on a

a
1,1
x
1
+... +a
1,p
x
p
= 0
a
1,1
y
1
+... +a
1,p
y
p
= 0
En sommant membre `a membre on obtient :
a
1,1
(x
1
+y
1
) +... +a
1,p
(x
p
+y
p
) = 0,
ce qui montre que (x
1
, ..., x
p
) + (y
1
, ..., y
p
) ∈ F
1
.
En multipliant la premı`ere ligne de (S) par λ on obtient
a
1,1
(λx
1
) +... +a
1,p
(λx
p
) = 0,
ce qui montre que
λ(x
1
, ..., x
p
) ∈ F
1
.
Donc F
1
est un sous-espace vectoriel de K
p
. Si n = 1, F
1
est l’ensemble des solutions de (S). Si
n ≥ 2, on appelle F
i
l’ensemble des solutions de la i`eme ligne du syst`eme (S), pour i = 2, ..., n.
La mˆeme d´emonstration que pour F
1
montre que F
i
est un sous-espace vectoriel de K
p
, pour
i = 2, ..., n. Or l’ensemble des solutions de (S) est F
1
∩... ∩F
n
. C’est l’intersection d’une famille
finie de sous-espaces vectoriels de K
p
, donc c’est un sous-espace vectoriel de K
p
.
2.5 Somme d’un nombre fini de sous-espaces vectoriels.
D´efinition 2.5.1 Soient n ≥ 2 et F
1
,...,F
n
des sous-espaces vectoriels de E. On appelle somme
des sous-espaces vectoriels F
1
,...,F
n
, et on note F
1
+... +F
n
l’ensemble d´efini par
F
1
+... +F
n
= ¦u
1
+... +u
n
; u
1
∈ F
1
, ..., u
n
∈ F
n
¦.
Proposition 2.5.2 F
1
+... +F
n
est un sous-espace vectoriel de E.
Preuve : Soient u
1
∈ F
1
, v
1
∈ F
1
,....,u
n
∈ F
n
, v
n
∈ F
n
. Alors (u
1
+... +u
n
) + (v
1
+.... +v
n
) =
(u
1
+v
1
) +... +(u
n
+v
n
) ∈ F
1
+... +F
n
. Si λ ∈ K, alors λ(u
1
+... +u
n
) = (λu
1
) +... +(λu
n
) ∈
F
1
+... +F
n
.
Exemple. Dans R
2
. Soit F
1
= ¦(λ, 0), λ ∈ R¦ et F
2
= ¦(0, λ), λ ∈ R¦. Ce sont des sous-
espaces vectoriels de R
2
. On a F
1
+ F
2
= ¦(λ, µ), λ ∈ R, µ ∈ R¦. Donc F
1
+ F
2
= R
2
. Soit
F
3
= ¦(λ, λ), λ ∈ R¦. C’est un sous-espace vectoriel de R
2
. Alors F
1
+F
2
+F
3
= R
2
.
2.6. SOMME DIRECTE DE DEUX SOUS-ESPACES VECTORIELS.SOUS-ESPACES VECTORIELS SUPPL
´
EMENTAIRES.21
2.6 Somme directe de deux sous-espaces vectoriels.
Sous-espaces vectoriels suppl´ementaires.
Soient F et G deux sous-espaces vectoriels de E.
D´efinition 2.6.1 On dit que la somme F +G est une somme directe si tout vecteur de F +G
s’´ecrit de mani`ere unique comme somme d’un vecteur de F et d’un vecteur de G.
Notation. Quand la somme est directe, on ´ecrit F
¸
G `a la place de F +G. Exemple. Dans
l’exemple ci-dessus la somme F
1
+F
2
est directe.
Proposition 2.6.2 La somme F +G est directe si et seulement si F ∩ G = ¦0¦.
Preuve : Supposons d’abord que la somme F +G est directe. Tout u de F +G s’´ecrit de mani`ere
unique u = v + w, o` u v ∈ F et w ∈ G. Soit u ∈ F ∩ G. Le vecteur nul appartient `a F + G et
on a d’une part 0 = 0 +0 et d’autre part 0 = u +(−u). Or la d´ecomposition de tout vecteur de
F +G comme somme d’un vecteur de F et d’un vecteur de G est unique, donc 0 = u.
Supposons maintenant que F ∩ G = ¦0¦. Soit u ∈ F + G. Il existe v ∈ F et w ∈ G tels
que u = v + w. Montrons l’unicit´e de la d´ecomposition. Soient v

∈ F et w

∈ G tels que
u = v

+ w

. Alors en retranchant membre `a membre les deux d´ecompositions de u on obtient
0 = (u − u

) + (v − v

), ce qui donne u − u

= v

− v. Or u − u

∈ F et v

− v ∈ G. Donc
u −u

∈ F ∩ G et v

−v ∈ F ∩ G. On a donc u = u

et v = v

.
D´efinition 2.6.3 On dit que F et G sont suppl´ementaires si tout vecteur de E s’´ecrit de mani`ere
unique comme somme d’un vecteur de F et d’un vecteur de G.
On note alors E = F
¸
G.
Proposition 2.6.4 Soient F et G deux sous-espaces vectoriels de E. Alors ils sont suppl´ementaires
si et seulement si E = F +G et F ∩G = ¦0¦. (C’est un corollaire de la proposition pr´ec´edente).
Exemples : a) Dans R
2
F
1
= ¦(λ, 0), λ ∈ R¦ et F
2
= ¦(0, λ), λ ∈ R¦ sont des sous-espaces
vectoriels suppl´ementaires.
b) Soit G l’espace vectoriel des fonctions affines de R dans R : G = ¦x → ax +b, a ∈ R, b ∈ R¦.
Alors G = G
1
¸
G
2
o` u G
1
est le sous-espace vectoriel des fonctions constantes et G
2
est le
sous-espace vectoriel des fonctions lin´eaires. On v´erifie que G
1
∩ G
2
= ¦0
G
¦, o` u 0
G
d´esigne la
fonction constante x → 0.
c) Dans E = T(R, R), on d´efinit
F = ¦f ∈ T(R, R), f paire¦ et G = ¦g ∈ T(R, R), f impaire¦.
On v´erifie d’abord (exercice) que F et G sont des sous-espaces vectoriels de T(R, R). Montrons
que T(R, R) = F
¸
G. Prouvons d’abord que F ∩G = ¦0¦. Soit f ∈ F ∩G. Alors f est `a la fois
paire et impaire, donc pour tout x ∈ R on a f(−x) = f(x) et f(−x) = −f(x). Donc f(x) = 0
pour tout x ∈ R, ce qui prouve que F ∩ G = ¦0¦. Prouvons maintenant que T(R, R) = F + G.
Soit h ∈ T(R, R). On ´ecrit :
h(x) =
h(x)+h(−x)
2
+
h(x)−h(−x)
2
.
Posons
f(x) =
h(x)+h(−x)
2
et g(x) =
h(x)−h(−x)
2
.
Alors f est paire et g est impaire. On a donc bien T(R, R) = F +G et on conclut que
T(R, R) = F
¸
G.
22 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.
2.7 Sous-espace vectoriel engendr´e par une famille de vecteurs.
Soit S une partie non vide de E. On consid`ere toutes les familles finies d’´el´ements de S et
on appelle F l’ensemble de toutes les combinaisons lin´eaires de toutes les parties finies de S.
F = ¦
n
¸
i=1
λ
i
s
i
; n ∈ N; λ
i
∈ K; s
i
∈ S, i = 1, ..., n¦.
Proposition 2.7.1 L’ensemble F est un sous-espace vectoriel de E et c’est le plus petit sous-
espace vectoriel de E, pour l’inclusion, qui contient tous les vecteurs de la partie S.
Dire que F est le plus petit sous-espace vectoriel, pour l’inclusion, contenant S signifie que
si G est un autre sous-espace vectoriel de E qui contient S, alors F ⊂ G.
Preuve : Le fait que F est un sous-espace vectoriel de E est imm´ediat : la somme de deux
combinaisons lin´eaires de familles finies d’´el´ements de S est une combinaison lin´eaire de la
r´eunion de ces deux familles ( pour les mˆemes coefficients) donc c’est encore une combinaison
lin´eaire finie d’´el´ements de S. La multiplication par un scalaire d’une combinaison lin´eaire finie
d’´el´ements de S est encore une combinaison lin´eaire finie des mˆemes ´el´ements de S (avec les
coefficients multipli´es par λ). Donc F est un sous-espace vectoriel de E. Montrons que c’est le
plus petit sous-espace vectoriel, pour l’inclusion, qui contient S. Soit G un sous-espace vectoriel
de E qui contient la partie S. Alors G contient toutes les combinaisons lin´eaires finie d’´el´ements
de S (Voir Remarques c)), donc F ⊂ G.
D´efinition 2.7.2 On appelle F le sous-espace vectoriel de E engendr´e par la partie S. On dit
que S est une partie g´en´eratrice de F.
Notation : F = Vect S.
Cas particulier : si S a un nombre fini d’´el´ements, il existe p ∈ N et e
1
, ..., e
p
des vecteurs de
E tels que S = ¦e
1
, ..., e
p
¦. Dans ce cas,
F = ¦
p
¸
i=1
λ
i
e
i
; λ
1
∈ K, ..., λ
p
∈ K¦.
D´efinition 2.7.3 Soit u ∈ E, u = 0 et soit S = ¦u¦. Alors Vect S = ¦λu; λ ∈ K¦. On dit alors
que Vect S est une droite vectorielle de E. C’est la droite vectorielle engendr´ee par le vecteur
non nul u.
Exemple. Si E = R
2
. Soit e ∈ E, e = 0 et soit e

∈ E, e

∈ Vect ¦e¦. On dessine Vect ¦e¦ dans
le plan R
2
comme la droite passant par 0 de vecteur directeur e. On dessine Vect ¦e

¦ comme une
droite passant par 0, diff´erente de Vect ¦e¦. Alors Vect ¦e, e

¦ = ¦λe+µe

, λ, µ ∈ K¦ est l’ensemble
des sommes des vecteurs de la droite vectorielle Vect ¦e¦ et des vecteurs de la droite vectorielle
Vect ¦e

¦. On construit la somme de deux vecteurs par la m´ethode du parall´elogramme. On
constate sur la figure que Vect ¦e, e

¦ = R
2
.
Exemples. a) Soit E = T(R, R) le R-espace vectoriel des fonctions de R dans R. Soit S le
sous-ensemble de E constitu´e des monˆomes x → x
k
, k = 0, 1.... Le sous-espace vectoriel Vect S
est par d´efinition l’ensemble de toutes les combinaisons lin´eaires d’un nombre fini de monˆomes.
On a donc
Vect S = ¦α
n
x
n
+.... +α
0
; n ∈ N; α
0
, ..., α
n
∈ R¦.
Donc les ´el´ements de Vect S sont des fonctions polynˆomes de R dans R, de tous les degr´es
possibles, avec tous les coefficients r´eels possibles. Vect S est donc l’ensemble des fonctions po-
lynˆomes de R dans R.
2.7. SOUS-ESPACE VECTORIEL ENGENDR
´
E PAR UNE FAMILLE DE VECTEURS. 23
b) Soit F = ¦(x, y, z) ∈ R
3
; 2x − y + z = 0¦. On sait que F est un sous-espace vectoriel de
R
3
(c’est l’ensemble des solutions d’un syst`eme homog`ene 1 3). Peut-on trouver une partie
de R
3
qui engendre F ? On a un syst`eme ´echelonn´e, avec une seule inconnue principale et deux
param`etres.
(2x −y +z = 0) ⇔ (y = 2x +z) ⇔

x = x
y = 2x+ z
z = z

¸
x
y
z
¸

= x

¸
1
2
0
¸

+z

¸
0
1
1
¸

.
On en d´eduit que F est l’ensemble des combinaisons lin´eaires des vecteurs (1, 2, 0) et (0, 1, 1).
Donc F est le sous espace vectoriel de R
3
engendr´e par ces deux vecteurs. On dit aussi que
ces deux vecteurs constituent une partie g´en´eratrice de F. Remarquons qu’en montrant que
F = Vect ¦(1, 2, 0); (0, 1, 1)¦, on a red´emontr´e que F est un sous-espace vectoriel de R
3
!
Proposition 2.7.4 F +G est le sous-espace vectoriel de E engendr´e par la partie F ∪ G.
Cela signifie que F +G est le plus petit sous-espace vectoriel, pour l’inclusion, qui contient
`a la fois les ´el´ements du sous-espace vectoriel F et ceux du sous-espace vectoriel G.
Preuve : Prouvons que F + G = Vect (F ∪ G). Prouvons d’abord que F + G ⊂ Vect (F ∪ G).
Soit u ∈ F et v ∈ G. Alors u + v est une combinaison lin´eaire de deux ´el´ements de F ∪ G,
donc u +v ∈ Vect (F ∪ G). On a donc bien : F +G ⊂ Vect (F ∪ G). Montrons maintenant que
Vect (F ∪G) ⊂ F +G. Soit w ∈ Vect (F ∪G). Alors w est une combinaison lin´eaire d’un nombre
fini de vecteurs de F ∪ G. C’est `a dire qu’il existe n, m ∈ N, il existe f
1
,...,f
n
∈ F, il existe
g
1
,...,g
m
∈ G, il existe λ
1
,...,λ
n
∈ K, il existe µ
1
,...,µ
m
∈ K tels que
w =
n
¸
i=1
λ
i
f
i
+
m
¸
j=1
µ
j
g
j
.
Or la premi`ere somme est un vecteur de F et la deuxi`eme est un vecteur de G. Donc w ∈ F +G.
On a donc bien Vect (F ∪ G) ⊂ F + G. Finalement : Vect (F ∪ G) = F + G. Remarquons que
cela red´emontre que F +G est un sous-espace vectoriel de E.
Proposition 2.7.5 Si F est le sous-espace vectoriel de E engendr´e par les vecteurs f
1
,...,f
p
et
si G est le sous- espace vectoriel de E engendr´e par les vecteurs g
1
,...,g
q
, alors F + G est le
sous-espace vectoriel de E engendr´e par les vecteurs f
1
,...,f
p
, g
1
,...,g
q
. (la r´eunion des parties
g´en´eratrices est une partie g´en´eratrice de F +G.)
Proposition 2.7.6 Soient g
1
, ..., g
q
et f
1
, ..., f
p
deux familles de vecteurs de E. Supposons que
pour tout i = 1, ..., q le vecteur g
i
s’´ecrive comme combinaison lin´eaire des vecteurs f
1
, ..., f
p
.
g
1
, ..., g
q
. Alors V ect¦g
1
, ..., g
q
¦ ⊂ V ect¦f
1
, ..., f
p
¦.
Exercice r´esolu. Soit E = R
3
, F = ¦(x, y, z) ∈ R
3
, x +y = 0¦ et G = V ect¦(1, 0, 0)¦.
On sait que F est un sous-espace vectoriel de R
3
(ensemble des solutions d’un syst`eme
homog`ene) et que G est un sous-espace vectoriel de R
3
(sous-espace vectoriel engendr´e par un
vecteur non nul, appel´e droite vectorielle.) Montrer que R
3
= F
¸
G.
On va prouver d’abord que E = F +G. Cherchons une partie g´en´eratrice de F. On a
((x, y, z) ∈ F) ⇔ (x = −y) ⇔ (x, y, z) = y(−1, 1, 0) +z(0, 0, 1).
Donc F est engendr´e par les deux vecteurs (−1, 1, 0) et (0, 0, 1). Alors F +G est le sous-espace
vectoriel de R
3
engendr´e par la r´eunion des parties g´en´eratrices de F et de G. c’est `a dire :
24 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.
F +G = Vect ¦(−1, 1, 0); (0, 0, 1); (1, 0, 0)¦
Montrons que tout vecteur de R
3
appartient `a F +G. Soit (x, y, z) ∈ R
3
. On ´ecrit
(x, y, z) = x(1, 0, 0) +y((−1, 1, 0) + (1, 0, 0)) +z(0, 0, 1),
donc
(x, y, z) = (x +y)(1, 0, 0) +y(−1, 1, 0) +z(0, 0, 1).
D’o` u R
3
⊂ F +G et donc R
3
= F +G.
Montrons que F ∩ G = ¦0¦. Si (x, y, z) ∈ F ∩ G, alors d’une part il existe λ ∈ R tel que
(x, y, z) = λ(1, 0, 0) , ce qui signifie que y = z = 0 et d’autre part x = −z. Donc x = y = z = 0.
Finalement R
3
= F
¸
G.
Attention : Ne pas confondre somme de deux sous-espaces vectoriels et r´eunion (F + G et
F ∪ G).
Exercice. G
1
= ¦x → ax, a ∈ R¦ ; G
2
= ¦x → b, b ∈ R¦. Prouver que G
1
et G
2
sont des
sous-espaces vectoriels de T(R, R). Soit G = ¦x → ax + b¦ l’ensemble des fonctions affines sur
R. Prouver que G = G
1
¸
G
2
.
Ne pas confondre sous-espaces vectoriels suppl´ementaires et sous-ensembles compl´ementaires.
2.8 D´ependance et ind´ependance lin´eaire.
D´efinition 2.8.1 Soit n un entier positif et u
1
,...,u
n
des vecteurs de E. Les vecteurs u
1
,..., u
n
sont dits lin´eairement ind´ependants si on a l’implication :
λ
1
,...,λ
n
∈ K, u
1
,...,u
n
∈ E,

1
u
1
+... +λ
n
u
n
= 0) ⇒ (λ
1
= ... = λ
n
= 0).
Remarques : a) Cette implication signifie qu’il n’y a qu’une seule fa¸con d’´ecrire le vecteur nul
comme une combinaison lin´eaire des vecteurs u
1
,...,u
n
. Cette ´ecriture est 0 = 0u
1
+ .. + 0u
n
,
dans laquelle tous les coefficients sont des scalaires nuls.
b) Si n = 1, l’implication devient (λ
1
u
1
= 0) ⇒ (λ
1
= 0). Donc u
1
est ”lin´eairement
ind´ependant” si et seulement si il est non nul.
c) Si n ∈ N∗, et si u
1
,...,u
n
sont des vecteurs de E, alors 0, u
1
,...,u
n
ne sont pas lin´eairement
ind´ependants. En effet, le vecteur nul s’´ecrit de plusieurs mani`eres comme combinaison lin´eaire
des vecteurs 0, u
1
,...,u
n
, car pour n’importe quel scalaire λ on a : 0 = λ0 + 0u
1
+... + 0u
2
.
Exemples : a) Dans R
2
les vecteurs (1, 0) et (0, 1) sont lin´eairement ind´ependants. En effet si
λ
1
(1, 0) +λ
2
(0, 1) = 0, alors (λ
1
, λ
2
) = (0, 0) donc λ
1
= λ
2
= 0.
b) Dans R
2
les vecteurs (0, 3) et (0, 1) ne sont pas lin´eairement ind´ependants. On a (0, 3) −
3(0, 1) = (0, 0), donc le vecteur nul s’´ecrit au moins de deux mani`eres diff´erente comme combi-
naison lin´eaire des vecteurs (0, 3) et (0, 1).
Vocabulaire. a) Si les vecteurs u
1
,...,u
n
sont lin´eairement ind´ependants, on dit qu’ils forment
une famille libre. On dit aussi que ¦u
1
, ..., u
n
¦ est une partie libre. Sinon, on dit qu’ils forment
une famille li´ee.
b) Si la partie ¦u
1
, ..., u
n
¦ est li´ee, et si λ
1
,...,λ
n
sont n scalaires non tous nuls tels que λ
1
u
1
+
... + λ
n
u
n
= 0, on dit qu’on a une relation lin´eaire non triviale entre les vecteurs u
1
,....,u
n
, de
coefficients λ
1
,...,λ
n
. La relation lin´eaire ”triviale” est celle o` u les coefficients sont tous nuls.
G´en´eralisation. On peut d´efinir la notion de famille libre ou li´ee pour des familles de vecteurs
qui ont une infinit´e d’´el´ements. Soient I un ensemble infini et u
i
, i ∈ I, une famille de vecteurs
de E. On dit qu’elle est libre si toute sous-famille finie est libre. On dit qu’elle est li´ee si elle n’est
pas libre. Par cons´equent, la famille des u
i
, i ∈ I, sera li´ee si et seulement il existe un nombre fini
2.9. BASES. 25
de vecteurs pris parmi les u
i
qui forment une famille li´ee. (Dans ce cours, on s’interessera plus
particuli`erement aux familles libres qui ont un nombre fini d’´el´ements et aux parties g´en´eratrices
qui ont un nombre fini d’´el´ements).
Proposition 2.8.2 Si n ≥ 2, les vecteurs u
1
,...,u
n
forment une famille li´ee si et seulement si
l’un des vecteurs est combinaison lin´eaire des autres.
Preuve : Supposons que les vecteurs u
1
, ... , u
n
forment une famille li´ee (autrement dit, ils
ne sont pas lin´eairement ind´ependants). Alors il existe des scalaires λ
1
, ..., λ
n
non tous nuls
tels que λ
1
u
1
+ ... + λ
n
u
n
= 0. Quitte `a r´eindexer, on peut supposer que λ
1
= 0. Alors on a :
u
1
=
1
λ
1
(−λ
2
u
2
− ... − λ
n
u
n
), c’est `a dire que u
1
=
¸
n
i=1
(
−λ
i
λ
1
)x
j
. Donc u
1
est combinaison
lin´eaire des vecteurs u
2
, ..., u
n
.
Supposons maintenant que l’un des vecteurs est combinaison lin´eaire des autres. En r´eindexant
on peut se ramener au cas o` u u
1
est combinaison lin´eaire de u
2
,...,u
n
. Il existe λ
2
,...,λ
n
des sca-
laires tels que u
1
= λ
2
u
2
+ ... + λ
n
u
n
, donc u
1
− λ
2
u
2
− ... − λ
n
u
n
= 0, donc u
1
,...,u
n
ne sont
pas lin´eairement ind´ependants (car le coefficient 1 est = 0).
Remarque : Pour n = 2, la proposition ci-dessus signifie que deux vecteurs sont li´es si et seule-
ment si ils sont colin´eaires. (c’est `a dire si il existe un scalaire λ tel que u
1
= λu
2
ou u
2
= λu
1
).
Proposition 2.8.3 Soit n ∈ N. Soient u
1
, ..., u
n
des vecteurs de E lin´eairement ind´ependants
et soit v un vecteur de E. Alors les deux propositions suivantes sont ´equivalentes :
(i) v est combinaison lin´eaire de u
1
, ..., u
n
.
(ii) Les n + 1 vecteurs v, u
1
,...,u
n
ne sont pas lin´eairement ind´ependants.
Preuve : (i) ⇒ (ii) : voir la proposition ci-dessus.
(ii) ⇒ (i) : par (ii) il existe µ, λ
1
, ..., λ
n
∈ Knon tous nuls tels que µv+λ
1
u
1
+...+λ
n
u
n
= 0. Si
on avait µ = 0, alors on aurait λ
1
u
1
+...+λ
n
u
n
= 0. Or u
1
, ..., u
n
sont lin´eairement ind´ependants,
donc λ
1
= ... = λ
n
= 0, ce qui contredit l’hypoth`ese ”µ, λ
1
, ..., λ
n
non tous nuls”. Donc µ = 0
et on peut donc diviser par µ. On en d´eduit que v = −
λ
1
µ
−... −
λ
n
µ
u
n
.
Proposition 2.8.4 Si n ≥ 2 Et si u
1
,...,u
n
sont des vecteurs de E lin´eairement ind´ependants.
Alors u
1
,...,u
n
sont deux `a deux diff´erents et pour tout 1 ≤ p ≤ n, les vecteurs u
1
, ..., u
p
sont
lin´eairement ind´ependants.
Preuve : En exercice.
2.9 Bases.
D´efinition 2.9.1 Si il existe des vecteurs u
1
,...,u
n
de E qui sont lin´eairement ind´ependants et
qui engendrent E, on dit que u
1
,...,u
n
forment une base de E.
Th´eor`eme 2.9.2 Les deux propositions suivantes sont ´equivalentes :
(i) les vecteurs u
1
,...,u
n
forment une base de E
(ii) tout vecteur de E s’´ecrit de mani`ere unique comme combinaison lin´eaire des vecteurs
u
1
,...,u
n
.
Preuve : (i) ⇒ (ii) : soit u un vecteur de E. Comme les vecteurs u
1
,...,u
n
engendrent E il
existe des scalaires λ
1
,...,λ
n
tels que u = λ
1
u
1
+ ... + λ
n
u
n
. Supposons qu’il existe des scalaires
λ

1
,...,λ

n
tels que u = λ

1
u
1
+ ... + λ

n
u
n
. En soustrayant membre `a membre on trouve 0 =

1
−λ

1
)u
1
+ ... + (λ
n
−λ

n
)u
n
. Comme u
1
,...,u
n
sont lin´eairement ind´ependants, on en d´eduit
que λ
1
−λ

1
= ... = λ
n
−λ

n
= 0,, donc λ
1
= λ

1
, ..., λ
n
= λ

n
. Donc la d´ecomposition de u comme
combinaison lin´eaire des vecteurs u
1
,...,u
n
est unique.
26 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.
(ii) ⇒ (i) : Comme tout vecteur de E s’´ecrit comme combinaison lin´eaire des vecteurs
u
1
,...,u
n
, alors les vecteurs u
1
,...,u
n
engendrent E. Prouvons qu’ils sont lin´eairement ind´ependants.
Le vecteur nul, comme tout vecteur de E s’´ecrit de mani`ere unique comme combinaison lin´eaire
des vecteurs u
1
,...,u
n
( cette ´ecriture unique est : 0 = 0u
1
+ ... + 0u
n
). Ceci est la d´efinition de
vecteurs lin´eairement ind´ependants.
Exemples : a) Dans R
2
, les vecteurs (1, 0) et (0, 1) forment une base de R
2
. En effet, tout vecteur
de R
2
s’´ecrit de mani`ere unique comme combinaison lin´eaire de (1, 0) et (0, 1) : soit (x, y) ∈ R
2
,
on ´ecrit (x, y) = x(1, 0) +y(0, 1) et si a et b sont des scalaires tels que (x, y) = a(1, 0) +b(0, 1),
alors a = x et b = y.
b) Pour n ∈ N, n ≥ 2, les vecteurs e
1
= (1, 0, ..., 0), ..., e
i
= (0, ..., 1, ..., 0) (1 `a la i`eme
place),..., e
n
= (0, ...., 0, 1). forment une base de R
n
, appel´ee la base canonique. En effet, tout
vecteur (x
1
, ..., x
n
) de R
n
s’´ecrit comme combinaison lin´eaire des vecteurs e
1
, ..., e
n
:
(x
1
, ..., x
n
) = x
1
(1, 0, ..., 0) +... +x
n
(0, ..., 0, 1).
Cette ´ecriture est unique car si (x
1
, ..., x
n
) = a
1
(1, 0, ..., 0) + ... + a
n
(0, ..., 0, 1), alors x
1
=
a
1
,...,x
n
= a
n
.
c) On donne les vecteurs de R
3
: v
1
= (1, −1, 0), v
2
= (0, 1, −1), v
3
= (2, −1, −1). Forment-ils
une base de R
3
?
(Rep. :Non.)
Notation Si les vecteurs e
1
,...,e
n
forment une base de E, on notera : (e
1
, ..., e
n
) est une base de
E.
D´efinition 2.9.3 Soit (e
1
, ..., e
n
) une base de E. Soit u ∈ E. Les scalaires λ
1
,...,λ
n
∈ K qui sont
tels que u = λ
1
e
1
+.... +λ
n
e
n
s’appellent les coordonn´ees du vecteur u dans la base (e
1
, ..., e
n
).
Remarque : Si E = K
n
. Soit u = (x
1
, ..., x
n
) un vecteur de K
n
. Alors les coordonn´ees de u
dans la base canonique de K
n
sont ses composantes x
1
,...,x
n
.
Chapitre 3
Espaces vectoriels sur R ou C de
dimension finie.
3.1 D´efinition d’un espace vectoriel de dimension finie. Exemple
d’un espace vectoriel de dimension infinie.
Soit E un espace vectoriel sur K = R ou C.
D´efinition 3.1.1 On dit que E est un espace vectoriel de dimension finie s’il est engendr´e par
un nombre fini d’´el´ements. C’est `a dire s’il existe un sous-ensemble de vecteurs ¦u
1
, ..., u
p
¦ tel
que tout vecteur u de E s’´ecrive u = λ
1
u
1
+... +λ
p
u
p
, pour certains scalaires λ
1
,...,λ
p
.
Rappel L’ensemble ¦u
1
, ..., u
p
¦ est alors appel´e une partie g´en´eratrice de E et il peut exister
d’autres coefficients µ
1
,...,µ
p
tels que u = µ
1
u
1
+... +µ
p
u
p
.
Exemple : Soit l’espace vectoriel sur R E = R
3
. Les vecteurs e
1
= (1, 2, 0), e
2
= (0, 1, 1),
e
3
= (0, 1, 0) et e
4
= (0, 0, 1) engendrent R
3
. En effet, on a
(1, 0, 0) = e
1
−2e
2
+ 2e
4
.
Or tout vecteur de R
3
est combinaison lin´eaire des vecteurs de la base canonique (1, 0, 0), (0, 1, 0),
(0, 0, 1). Ces trois vecteurs de la base canonique s’´ecrivent comme combinaisons lin´eaires des
vecteurs e
1
, e
2
, e
3
, e
4
, donc tout vecteur de R
3
s’´ecrit comme combinaison lin´eaire de e
1
, e
2
, e
3
,
e
4
.
On remarque que le vecteur e
3
= (0, 1, 0) s’´ecrit au moins de deux mani`eres comme combi-
naison lin´eaire des vecteurs e
1
, e
2
, e
3
, e
4
. En effet on ´ecrit : e
3
= 1e
3
et e
3
= e
2
− e
4
. Donc les
vecteurs e
1
, e
2
, e
3
, e
4
engendrent R
3
mais ne forment pas une base de R
3
.
Remarque : Il existe des espaces vectoriels qui ne sont pas engendr´es par une famille finie de
vecteurs. On dit qu’ils sont de dimension infinie. Par exemple, montrons que l’espace vectoriel
E sur R des fonctions polynˆomes `a coefficients r´eels n’est pas de dimension finie. Faisons une
d´emonstration par l’absurde. Supposons qu’il existe un nombre fini de fonctions polynˆomes
f
1
,...,f
q
qui engendrent E. Parmi ces fonctions polynˆomes, l’une au moins a un degr´e maximal,
not´e d. (Par exemple, si on a : q = 2, f
1
: x → x
2
et f
2
: x → x
3
+ 1, ce degr´e maximal est
d = 3.) Alors toute fonction polynˆome est une combinaison lin´eaire de f
1
,...,f
q
(dans l’exemple,
toute fonction polynˆome s’´ecrit x → λ
1
x
2
+ λ
2
(x
3
+ 1), pour certains r´eels λ
1
, λ
2
). Donc toute
fonction polynˆome est de degr´e inf´erieur ou ´egal `a 3, ce qui est absurde.
3.2 Th´eor`eme de la base incompl`ete. Existence des bases.
Th´eor`eme 3.2.1 (Th´eor`eme de la base incompl`ete). On suppose E = ¦0¦. Soient q et
27
28 CHAPITRE 3. ESPACES VECTORIELS SUR R OU C DE DIMENSION FINIE.
p des entiers, p ≥ 1, q ≥ 1. Supposons que E soit engendr´e par les vecteurs g
1
,...,g
q
. Soient
f
1
,...,f
p
des vecteurs de E lin´eairement ind´ependants. Alors il existe un sous-ensemble G

de
l’ensemble ¦g
1
, ..., g
q
¦ tel que les ´el´ements de l’ensemble ¦f
1
, ..., f
p
¦ ∪G

forment une base de E.
Le th´eor`eme dit que si E est de dimension finie et si E = ¦0¦, alors toute partie libre de E
peut ˆetre compl`et´ee en une base de E en lui ajoutant des vecteurs d’une partie g´en´eratrice.
Preuve : Remarquons d’abord qu’on peut toujours trouver des vecteurs f
1
,...,f
p
lin´eairement
ind´ependants. En particulier on peut choisir p = 1 et prendre pour f
1
n’importe quel vecteur
non nul de E.
Posons G = ¦g
1
, ..., g
q
¦ et L = ¦f
1
, ..., f
p
¦. Il existe des parties G

de G telles que L∪G

soit
libre : il y a au moins G

= ∅. Soit G

une partie de G telle que L ∪ G

soit libre, de cardinal
maximal. (On commentera plus tard l’existence d’une telle partie G

).
Assertion : L ∪ G

est une base de E.
Preuve de cette assertion. Par hypoth`ese, L ∪ G

est libre. Il reste `a prouver qu’elle engendre
E. Il suffit de prouver que tout ´el´ement g de G est combinaison lin´eaire des vecteurs de L ∪ G

.
Distinguons deux cas.
Premier cas : G ⊂ L ∪ G

. Alors il n’y a rien `a d´emontrer.
Deuxi`eme cas : il existe g ∈ G, g / ∈ L∪G

. En particulier, g / ∈ G

. Consid`erons la partie G

∪¦g¦
de G. Elle a un cardinal strictement plus grand que celui de G

. On en d´eduit que L ∪ G

∪ ¦g¦
n’est pas libre. Or L ∪ G

est libre, donc g s’´ecrit comme combinaison lin´eaire des ´el´ements de
L ∪ G

.
Finalement, tout ´el´ement g de la partie g´en´eratrice G est combinaison lin´eaire des ´el´ements de
L ∪ G

, donc L ∪ G

engendre E.
Commentons l’existence d’une partie G

de G de cardinal maximal telle que L ∪ G

soit libre.
Point de vue ”pratique” : on regarde les parties L ∪ ¦g
1
¦,...,L ∪ ¦g
q
¦. Si toutes ces parties sont
li´ees, alors G

= ∅.
Sinon il existe un ´el´ement g de G tel que L∪¦g¦ est libre. Supposons que c’est g
1
. On recommence
avec les parties L∪¦g
1
¦ et ¦g
2
, ..., g
q
¦. On regarde donc les parties L∪¦g
1
¦∪¦g
2
¦,...,L∪¦g
1
¦∪¦g
q
¦.
Si toutes ces parties sont li´ees, alors on prend G

= ¦g
1
¦. Sinon il existe un ´el´ement g de G tel
que L∪¦g
1
¦∪¦g¦ est libre. Supposons que c’est g
2
. On recommence avec les parties L∪¦g
1
, g
2
¦
et ¦g
3
, ..., g
q
¦. Etc...On arrive `a un nombre n maximal, n ≤ q tel que L ∪ ¦g
1
, ..., g
n
¦ est libre.
On pose G

= ¦g
1
, ..., g
n
¦.
Point de vue ”axiomatique” : l’existence de d’une partie G

de G, de cardinal le plus grand
possible telle que L ∪ G

est libre vient de ”l’axiome du choix”.
Corollaire 3.2.2 Tout espace vectoriel de dimension finie, non ´egal `a ¦0¦ poss`ede des bases qui
ont un nombre fini d’´el´ements.
Preuve : Soit f un vecteur non nul de E et soit G une partie g´en´eratrice de E. Par le th´eor`eme
de la base incompl`ete il existe une partie G

de G telle que ¦f¦ ∪ G

est une base de E.
Corollaire 3.2.3 Si E est un espace vectoriel de dimension finie, E = ¦0¦, alors de toute partie
g´en´eratrice de E on peut extraire une base.
Preuve : Soit G une partie g´en´eratrice de E et soit f un vecteur non nul de G, puis voir la
d´emonstration ci-dessus.
3.3 Notion de dimension d’un espace vectoriel.
Proposition 3.3.1 Soit G un ensemble fini de g´en´erateurs de E. Soit q ∈ N

le cardinal de G.
Alors toute partie de E contenant plus de q ´el´ements est li´ee.
3.4. SOUS-ESPACES VECTORIELS EN DIMENSION FINIE. TOUT SOUS-ESPACE VECTORIEL ADMET UN SUPPL
´
EMENTAIRE. 29
Preuve : Posons G = ¦g
1
, ..., g
q
¦. On va faire une d´emonstration par l’absurde. Soit L =
¦f
1
, ..., f
q+1
, ...¦ une partie libre de plus de q ´el´ements. On va utiliser le th´eor`eme de la base
incompl`ete pour arriver `a une absurdit´e. La partie L`¦f
1
¦ est libre. Montrons qu’elle n’engendre
pas E. Comme L est libre, f
1
ne peut pas s’´ecrire comme une combinaison lin´eaire d’´el´ements
de L`¦f
1
¦, sinon cela donnerait une relation lin´eaire non triviale entre les ´el´ements de L. Cela
prouve que L`¦f
1
¦ n’engendre pas E. Par le th´eor`eme de la base incompl`ete, il existe une partie
G

de G telle que L`¦f
1
¦ ∪ G

est une base de E. On a G

= ∅. Soit un ´el´ement g de G

. On a
que L`¦f
1
¦ ∪ ¦g¦ est libre, car c’est un sous-ensemble de la base L`¦f
1
¦ ∪ G

. Supposons que
cet ´el´ement est g
1
. On est arriv´e `a : L`¦f
1
¦ ∪ ¦g
1
¦ est libre et G engendre E. On recommence
avec L`¦f
1
¦ ∪ ¦g
1
¦ `a la place de L. La partie L`¦f
1
, f
2
¦ ∪¦g
1
¦ est libre et n’engendre pas E. Il
existe donc un ´el´ement g de G, g = g
1
, tel que L`¦f
1
, f
2
¦ ∪¦g
1
, g¦ est libre. Supposons que c’est
g
2
. On recommence avec la partie libre L`¦f
1
, f
2
¦∪¦g
1
, g
2
¦ `a la place de L`¦f
1
¦∪¦g
1
¦. Comme
L a au moins q + 1 ´el´ements, on peut faire ce raisonnement q fois. Au bout de q fois on obtient
que L`¦f
1
, f
2
, ...f
q
¦ ∪ ¦g
1
, ..., g
q
¦ est libre. Or comme G = ¦g
1
, ..., g
q
¦ engendre E, le vecteur
f
q+1
s’´ecrit comme combinaison lin´eaire des vecteurs g
1
,...,g
q
. Cela donne une relation lin´eaire
non triviale entre les ´el´ements de L`¦f
1
, f
2
, ...f
q
¦ ∪¦g
1
, ..., g
q
¦. On conclut que cette partie est `a
la fois libre et li´ee, ce qui est absurde. L’hypoth`ese de l’existence d’une partie libre d’au moins
q + 1 ´el´ements est donc fausse.
Corollaire 3.3.2 Soit E un espace vectoriel de dimension finie. Alors toutes les bases de E
sont finies et ont le mˆeme nombre d’´el´ements.
Preuve : Soit B et B

deux bases de E. Elles ont un nombre fini d’´el´ements car il existe une
partie g´en´eratrice finie. Soit n =CardB et n

=CardB

. Alors on a n ≤ n

et n ≥ n

, donc n = n

.
D´efinition 3.3.3 Si E est de dimension finie, le nombre d’´el´ements commun `a toutes les bases
de E s’appelle la dimension de E. (Si E = ¦0¦, E n’admet pas de base).
Th´eor`eme 3.3.4 Soit E = ¦0¦ un K-espace vectoriel de dimension n. Alors :
(i) Toute partie libre a au plus n ´el´ements et toute partie libre de n ´el´ements est une base de E.
(ii) Toute partie g´en´eratrice a au moins n ´el´ements et toute partie g´en´eratrice de n ´el´ements est
une base de E.
Preuve : Prouvons (i). Comme il existe une base de E `a n ´el´ements, alors toute partie de plus
de n ´el´ements est li´ee. Donc si f
1
,...,f
p
forment une partie libre, alors p ≤ n. Par le th´eor`eme de
la base incompl`ete, on peut compl`eter f
1
,...,f
p
en une base de E, donc si n = p, f
1
,...,f
p
forment
une base de E (sinon, en compl`etant, on trouverait une base d’au moins n + 1 ´el´ements).
Montrons (ii). Il existe un sous-ensemble de ¦g
1
, ..., g
q
¦ qui forme une base de E. Donc n ≤ q.
Si n = q, alors cette base est g
1
,...,g
q
.
3.4 Sous-espaces vectoriels en dimension finie. Tout sous-espace
vectoriel admet un suppl´ementaire.
Soit E un K-espace vectoriel de dimension n. Soit F un sous-espace vectoriel de E. Soit
e
1
,....,e
n
une base de E. Alors tout vecteur de F s’´ecrit comme combinaison lin´eaire des vecteurs
e
1
,...,e
n
, mais les vecteurs e
i
ne sont pas forc´ement dans F. Nous allons montrer que F est
engendr´e par un nombre fini de vecteurs, qui ne sont peut-ˆetre pas des ´el´ements de la base
e
1
,...,e
n
.
Exemple : E = R
2
, F est la droite vectorielle engendr´ee par le vecteur (2, 1) (on la dessine, dans
le plan rapport´e `a la base canonique, comme la droite passant par (0, 0) de vecteur directeur
(2, 1)). Alors (1, 0) et (0, 1) ∈ F et F est de dimension 1. Il admet pour base le vecteur (2, 1).
30 CHAPITRE 3. ESPACES VECTORIELS SUR R OU C DE DIMENSION FINIE.
Th´eor`eme 3.4.1 Si F est un sous-espace vectoriel de E, alors F est de dimension finie et
dimF ≤ dimE. Si dimF = dimE, alors F = E.
Preuve : Si F = ¦0¦ alors dimF = 0 et le th´eor`eme est d´emontr´e. Supposons F = ¦0¦.
Soit un vecteur non nul de F. Il forme une famille libre. On sait que n + 1 vecteurs de E
sont li´es, donc c’est vrai aussi pour n + 1 vecteurs de F. Donc il existe un plus grand entier p,
1 ≤ p ≤ n pour lequel on peut trouver p vecteurs de F lin´eairement ind´ependants. Soient f
1
,...,f
p
p vecteurs de F lin´eairement ind´ependants. Soit u ∈ F. Alors les vecteurs u,f
1
,...,f
p
ne sont pas
lin´eairement ind´ependants car ils constituent une famille de p+1 vecteurs. Comme f
1
,...,f
p
sont
lin´eairement ind´ependants, alors u est combinaison lin´eaire de f
1
,...,f
p
. On en d´eduit que f
1
,...,f
p
engendrent F. Comme de plus ils sont lin´eairement ind´ependants, alors ils forment une base de
F. et dimF ≤ n.
Supposons que p = n. Alors f
1
,...,f
n
sont n vecteurs lin´eairement ind´ependants, donc ils
forment une base de E. Comme ils forment aussi une base de F, alors E = F (car tous deux
sont ´egaux `a Vect ¦f
1
, ..., f
n
¦).
D´efinition 3.4.2 On appelle plan vectoriel de E tout sous-espace vectoriel de dimension 2. On
appelle hyperplan vectoriel de E tout sous-espace vectoriel de dimension n −1.
Exemple : Si E = R
3
les hyperplans sont les plans vectoriels. Si E = R
4
, les hyperplans sont
les sous-espaces vectoriels de dimension 3.
Remarque : Les droites vectorielles sont les sous-espaces vectoriels de dimension 1.
Proposition 3.4.3 Soient F et G des sous-espaces vectoriels de E diff´erents de ¦0¦. Si e
1
,...,e
p
forment une base de F et si e
p+1
,...,e
p+q
forment une base de G, alors F et G sont des sous-
espaces vectoriels suppl´ementaires si et seulement si les vecteurs e
1
,...e
p+q
forment une base de
E.
Preuve : Supposons que F et G sont suppl´ementaires. Soit u ∈ E. Il existe v ∈ F et w ∈ G
uniques tels que u = v+w. Or v est combinaison lin´eaire des vecteurs e
1
,...e
p
et w est combinaison
lin´eaire des vecteurs e
p+1
,...,e
p+q
. Donc les vecteurs e
1
,...e
p
,e
p+1
,...,e
p+q
engendrent E. D’autre
part ´ecrivons le vecteur nul comme combinaison lin´eaire des vecteurs e
1
,...e
p
,e
p+1
,...,e
p+q
. Soient
des scalaires λ
1
,...,λ
p+q
tels que 0 = λ
1
e
1
+.... +λ
p+q
e
p+q
. Alors λ
1
e
1
+.... +λ
p
e
p
= −λ
p+1
e
p+1

... − λ
p+q
e
p+q
. Or `a gauche du signe ´egal nous avons un vecteur de F et `a droite du signe
´egal un vecteur de G. Comme F ∩ G = ¦0¦, on en d´eduit que λ
1
e
1
+ .... + λ
p
e
p
= 0 et que
λ
1
e
1
+ .... + λ
p+q
e
p+q
= 0. Comme les vecteurs e
1
,...e
p
d’une part et e
p+1
,...,e
p+q
d’autre part
sont lin´eairement ind´ependants, alors λ
1
= 0,...,λ
p+q
= 0. Donc les vecteurs e
1
,...e
p
,e
p+1
,...,e
p+q
sont lin´eairement ind´ependants et engendrent E. Ils forment une base de E.
Supposons maintenant que les vecteurs e
1
,...e
p
,e
p+1
,...,e
p+q
forment une base de E. Alors
tout vecteur u de E s’´ecrit de mani`ere unique u = λ
1
e
1
+... +λ
p
e
p

p+1
e
p+1
+... +λ
p+q
e
p+q
,
o` u λ
1
,...,λ
p+q
∈ K. Posons v = λ
1
e
1
+... +λ
p
e
p
et w = λ
p+1
e
p+1
+... +λ
p+q
e
p+q
. Alors v ∈ F,
w ∈ G et u = v +w. Puis, si u = v

+w

est une autre d´ecomposition de u sur les sous-espaces
vectoriels F et G, on a v

= λ

1
e
1
+... +λ

p
e
p
et w

= λ

p+1
e
p+1
+... +λ

p+q
e
p+q
, o` u λ

1
,...,λ

p+q
∈ K,
donc u = λ

1
e
1
+ ... + λ

p
e
p
+ λ

p+1
e
p+1
+ ... + λ

p+q
e
p+q
. Comme la d´ecomposition de u sur la
base e
1
,...,e
p
,e
p+1
,...,e
p+q
est unique, alors λ

1
= λ
1
,...,λ

p+q
= λ
p+q
, donc la d´ecomposition de u
suivant les sous-espaces vectoriels F et G est unique. On a donc E = F
¸
G.
Th´eor`eme 3.4.4 Soit E un espace vectoriel sur K de dimension finie. Alors tout sous-espace
vectoriel de E admet un sous-espace vectoriel suppl´ementaire.
Preuve : Soit e
1
,...,e
p
une base de F. Par le th´eor`eme de la base incompl`ete, on peut compl`eter
ces vecteurs pour obtenir une base de E. Soient e
p+1
,...,e
n
des vecteurs de E tels que les
vecteurs e
1
,...,e
p
,e
p+1
,...,e
n
forment une base de E. On pose G = V ect¦e
p+1
, ..., e
n
¦. Les vec-
teurs e
p+1
,...,e
n
sont lin´eairement ind´ependants (car ils font partie d’une famille de vecteurs
3.5. RANG D’UNE FAMILLE DE VECTEURS. 31
lin´eairement ind´ependants) et ils engendrent G (par la d´efinition de G). Donc les vecteurs
e
p+1
,...,e
n
forment une base de G. La r´eunion d’une base de F et d’une base de G forme une
base de E, donc E = F
¸
G par la proposition ci-dessus.
Exemple : Dans R
3
on consid`ere le sous-espace vectoriel F engendr´e par e
1
= (1, 0, 0), e
2
=
(1, 2, 0) et e
3
= (1, 1, 0). Soit G le sous-espace vectoriel engendr´e par e
4
= (0, 0, 3). On voit que e
1
et e
2
sont non colin´eaires, donc ils sont lin´eairement ind´ependants. On remarque que e
1
+e
2
= 2e
3
donc F est de dimension 2 et admet une base form´ee des vecteurs e
1
et e
2
. D’autre part, G est
une droite vectorielle. Montrons que e
1
,e
2
,e
4
sont lin´eairement ind´ependants. S’ils ´etaient li´es,
alors e
4
serait combinaison lin´eaire de e
1
et e
2
(car e
1
et e
2
sont lin´eairement ind´ependants). Or
cela implique que la derni`ere composante de e
4
serait nulle, ce qui est faux. Donc e
1
,e
2
,e
4
sont
lin´eairement ind´ependants, leur nombre est trois, donc ils forment une base de R
3
. Cela montre
que R
3
= F
¸
G.
3.5 Rang d’une famille de vecteurs.
D´efinition 3.5.1 Soit E un espace vectoriel sur K et soient u
1
,...,u
q
des vecteurs de E. On
appelle rang de la famille de vecteurs u
1
,...,u
q
la dimension du sous-espace vectoriel engendr´e
par les vecteurs u
1
,...,u
q
.
Remarque : Si le rang de la famille de vecteurs u
1
,...,u
q
est r, alors r ≤ q et on peut extraire
une sous-famille `a r ´el´ements de la famille u
1
,...,u
q
qui soit une base de Vect ¦u
1
, ..., u
q
¦. De plus,
dans le cas o` u r < q, toute sous famille de u
1
,...,u
q
de plus de r ´el´ements est li´ee.
3.6 Sous-espaces vectoriels de K
p
.
Un sous-espace vectoriel de K
p
peut ˆetre donn´e d’au moins trois mani`eres :
a) par une partie g´en´eratrice ;
b) par un syst`eme d’´equations lin´eaires de second membre nul ;
c) par une base.
Il faut savoir passer d’une description `a l’autre.
3.6.1 Passage d’une partie g´en´eratrice `a une base ; calcul du rang.
Le probl`eme : on donne un sous-espace vectoriel F de K
p
par des vecteurs u
1
,..., u
q
qui
l’engendrent, c’est `a dire que F = Vect ¦u
1
, ..., u
q
¦. On veut calculer la dimension de F (encore
appel´ee le rang de la famille de vecteurs u
1
,...,u
q
) et trouver une base de F. On peut aussi se
poser le probl`eme d’extraire une base de F de la famille de vecteurs u
1
,...,u
q
.
On va ´ecrire les vecteurs u
1
,...,u
q
en colonnes et utiliser l’algorithme du pivot de Gauss
appliqu´e aux colonnes u
1
,...,u
q
.
Principe. Si λ
2
,...,λ
q
sont des scalaires, alors les vecteurs w
1
= u
1
, w
2
= u
2
− λ
2
u
1
,....,w
q
=
u
q
− λ
q
u
1
engendrent F. En effet, d’une part on a w
1
,....,w
q
∈ F, donc Vect ¦w
1
, ..., w
q
¦ ⊂ F
et d’autre part on peut ´ecrire u
1
= w
1
, u
2
= w
2
+ λ
2
w
1
,....,u
q
= w
q
+ λ
q
w
1
, donc u
1
,....,u
q

Vect ¦w
1
, ..., w
q
¦ , donc F ⊂ Vect ¦w
1
, ..., w
q
¦. Finalement, F = Vect ¦w
1
, ..., w
q
¦.
On explique la m´ethode sur des exemples.
Premier exemple. Dans R
4
on consid`ere le sous-espace vectoriel F engendr´e par les vecteurs
u
1
= (1, 0, −1, 1), u
2
= (2, 1, 4, 0), u
3
= (1, 1, 0, 0), u
4
= (3, 1, 2, 1) et u
5
= (4, 2, 13, −1). On
les place en colonnes. Comme la premi`ere composante de u
1
est non nulle, on la prend comme
pivot. La premi`ere ´etape consiste `a remplacer pour tout i ≥ 2 le vecteur u
i
par un vecteur de la
forme u
i
−λu
1
, o` u le scalaire λ est choisi pour que la premi`ere composante du vecteur
32 CHAPITRE 3. ESPACES VECTORIELS SUR R OU C DE DIMENSION FINIE.
u
i
−λu
1
soit nulle. On ´ecrit :
1 2 1 3 4
0 1 1 1 2
−1 4 0 2 13
1 0 0 1 −1
puis
1 0 0 0 0
0 1 1 1 2
−1 6 1 5 17
1 −2 −1 −2 −5
. Appelons
w
1
, w
2
, w
3
, w
4
et w
5
les colonnes qu’on vient d’obtenir. Alors F = Vect ¦w
1
, w
2
, w
3
, w
4
, w
5
¦,
d’apr`es le principe ´enonc´e ci-dessus. Comme le coefficient de la deuxi`eme colonne et deuxi`eme
ligne est non nul, on le prend comme pivot et on recommence sur les colonnes j, j ≥ 2. On ´ecrit :
1 0 0 0 0
0 1 0 0 0
−1 6 −5 4 5
1 −2 1 −1 −1
Appelons η
1
,...,η
5
les 5 colonnes obtenues. Selon le principe ´enonc´e
ci-dessus, on a Vect ¦w
1
, ..., w
5
¦ = V ect¦η
1
, ..., η
5
¦ ; on recommence sur les colonnes 4 et 5.
1 0 0 0 0
0 1 0 0 0
−1 6 −5 0 0
1 −2 1 −1/5 0
.
Appelons t
1
,...,t
5
les colonnes qu’on vient d’obtenir. Toujours grace au mˆeme principe, on a
Vect ¦η
1
, ..., η
5
¦ = Vect ¦t
1
, ..., t
5
¦. Donc finalement F = Vect ¦t
1
, ..., t
5
¦. Or t
5
est nul, donc
F = Vect ¦t
1
, t
2
, t
3
, t
4
¦. De plus les vecteurs t
1
, t
2
, t
3
et t
4
sont lin´eairement ind´ependants, `a
cause du caract`ere ´echelonn´e de leurs composantes. En effet, t
4
et t
3
sont non colin´eaires. Puis t
2
n’est pas combinaison lin´eaire des vecteurs t
4
et t
3
, sinon sa deuxi`eme composante serait nulle.
donc t
4
, t
3
, t
2
sont lin´eairement ind´ependants. Puis t
1
n’est pas combinaison lin´eaire de t
4
, t
3
,t
2
,
sinon sa premi`ere composante serait nulle. Donc t
1
, t
2
, t
3
, t
4
sont lin´eairement ind´ependants.
Comme on sait qu’ils engendrent F, alors ils forment une base de F. On a donc trouv´e que le
rang de la famille des 5 vecteurs u
1
, u
2
, u
3
, u
4
, u
5
est 4.
Remarquons qu’au cours de l’utilisation de l’algorithme du pivot de Gauss, on n’a pas eu
besoin d’intervertir l’ordre des colonnes. Montrons, `a titre d’exercice, que cela implique que
les vecteurs u
1
, u
2
, u
3
, u
4
forment une base de F, extraite de la famille u
1
, u
2
, u
3
, u
4
, u
5
.
Soient w
1
,...,w
5
les vecteurs obtenus apr`es la premi`ere ´etape. On remarque que w
1
, w
2
, w
3
,
w
4
∈ Vect ¦u
1
, u
2
, u
3
, u
4
¦ et que u
1
, u
2
, u
3
,u
4
∈ Vect ¦w
1
, w
2
, w
3
, w
4
¦. En effet, les vecteurs
w
i
, i = 1, ..., 4 s’´ecrivent comme des combinaisons lin´eaires des vecteurs u
i
, i = 1, ..., 4 et
r´eciproquement, les vecteurs u
i
, i = 1, ..., 4 s’´ecrivent comme des combinaisons lin´eaires des
vecteurs w
i
, i = 1, ..., 4. Par cons´equent Vect ¦u
1
, ..., u
4
¦ = Vect ¦w
1
, ..., w
4
¦. A l’´etape sui-
vante, on n’a pas intervertit les colonnes. On trouve donc des vecteurs η
1
,...,η
5
de la forme
η
i
= w
i
− λ
i
w
2
, i = 1, ..., 5, donc les vecteurs η
1
,...,η
4
sont combinaisons lin´eaires de w
1
,...,w
4
et r´eciproquement les vecteurs w
1
,...,w
4
sont combinaisons lin´eaires de η
1
,...,η
4
. Par cons´equent
Vect ¦w
1
, ..., w
4
¦ = Vect ¦η
1
, ..., η
4
¦. On recommence le mˆeme raisonnement `a la derni`ere ´etape.
On trouve Vect ¦t
1
, t
2
, t
3
, t
4
¦ = Vect ¦η
1
, η
2
, η
3
, η
4
¦. Finalement :
Vect ¦u
1
, u
2
, u
3
, u
4
¦ = Vect ¦t
1
, t
2
, t
3
, t
4
¦ = F. Les vecteurs u
1
, u
2
, u
3
, u
4
engendrent donc F.
Or F est de dimension 4, donc toute partie g´en´eratrice de 4 vecteurs est une base de F. Donc
les quatre vecteurs u
1
, u
2
, u
3
et u
4
forment une base de F.
Dans certains cas, on peut ˆetre oblig´e d’intervertir les colonnes, afin d’avoir `a chaque it´eration
un pivot non nul.
Deuxi`eme exemple. Dans R
4
on consid`ere le sous-espace vectoriel F engendr´e par les vec-
teurs e
1
= (1, 2, 3, 1), e
2
= (1, 2, 1, 0), e
3
= (2, 1, 0, 1) et e
4
= (0, 1, 2, 2). On cherche la dimension
de F, en mˆeme temps qu’une base de F. On ´ecrit
3.6. SOUS-ESPACES VECTORIELS DE K
P
. 33
1 1 2 0
2 2 1 1
3 1 0 2
1 0 1 2
puis
1 0 0 0
2 0 −3 1
3 −2 −6 2
1 −1 −1 2
.
le deuxi`eme pivot est nul. On intervertit par exemple la deuxi`eme colonne avec la derni`ere.
On obtient :
1 0 0 0
2 1 −3 0
3 2 −6 −2
1 2 −1 −1
, puis
1 0 0 0
2 1 0 0
3 2 0 −2
1 2 5 −1
Le troisi`eme pivot est nul. On intervertit la troisi`eme colonne et la quatri`eme. On obtient :
1 0 0 0
2 1 0 0
3 2 −2 0
1 2 −1 5
.
Soient t
1
,...,t
4
ces colonnes . Comme dans le premier exemple on a F = V ect¦t
1
, ..., t
4
¦ et t
1
, t
2
,
t
3
, t
4
sont lin´eairement ind´ependants, car leurs composantes sont ´echelonn´ees. Donc le rang des
vecteurs e
1
, e
2
, e
3
, e
4
est 4 (et donc ils forment une base de F).
3.6.2 Passage d’une base `a un syst`eme d’´equations cart´esiennes.
Le probl`eme : On donne un sous-espace vectoriel F de K
p
par une de ses bases. On va trouver
un syst`eme homog`ene d’´equations lin´eaires dont l’ensemble des solutions est F. Un tel syst`eme
sera appel´e un syst`eme d’´equations cart´esiennes de F.
Exemple : Soit F le sous-espace vectoriel de R
4
engendr´e par les vecteurs u
1
= (1, 1, 2, 1) et
u
2
= (2, 1, 3, 4). On v´erifient que u
1
et u
2
sont non colin´eaires, donc ind´ependants. Ils forment une
base de F. Soit w = (x, y, z, t) ∈ R
4
. Le sous-espace vectoriel Vect ¦w, u
1
, u
2
¦ est de dimension 2
si w ∈ F et il est de dimension 3 si w ∈ F. Donc w ∈ F si et seulement si la famille de vecteurs
u
1
, u
2
, w est de rang 2. Utilisons la m´ethode d´ecrite dans ce chapitre pour calculer le rang d’une
famille de vecteurs. On ´ecrit les trois vecteurs u
1
, u
2
, w en colonnes.
1 2 x
1 1 y
2 3 z
1 4 t
. On prend la premi`ere colonne comme pivot.
1 0 0
1 −1 y −x
2 −1 z −2x
1 2 t −x
. On prend la deuxi`eme
colonne comme pivot.
1 0 0
1 −1 0
2 −1 −x −y +z
1 2 −3x + 2y +t
. Appelons t
1
, t
2
, t
3
les vecteurs qui apparaissent
en colonnes. Comme dans les exemples ci-dessus, t
1
et t
2
sont lin´eairement ind´ependants, car
leurs composantes sont ”´echelonn´ees”. ( Ici on voit que t
1
et t
2
sont non colin´eaires). Si on a
t
3
= 0, alors t
3
et t
2
ne sont pas colin´eaires, puis t
1
n’est pas combinaison lin´eaire de t
3
et t
2
(sinon sa premi`ere composante serait nulle), donc t
1
, t
2
, t
3
sont lin´eairement ind´ependants. Par
cons´equent, si t
3
= 0, alors le rang des trois vecteurs u
1
, u
2
, w est trois. On en d´eduit que w ∈ F
si et seulement si

−x− y+ z = 0
−3x+ 2y+ t = 0
On a trouv´e un syst`eme d’´equations cart´esiennes de F. Remarquons qu’on obtient d’autres
syst`emes d’´equations cart´esiennes de F en multipliant l’une ou l’autre des deux ´equations du
syst`eme ci-dessus par une constante non nulle, ou en formant une ou plusieurs combinaisons
lin´eaires des deux ´equations et en les joignant au syst`eme.
34 CHAPITRE 3. ESPACES VECTORIELS SUR R OU C DE DIMENSION FINIE.
Attention : La m´ethode ci-dessus ne s’applique qu’`a partir d’une base de F et pas de n’importe
quelle partie g´en´eratrice. Si F est donn´e par une partie g´en´eratrice quelconque, il faut d’abord
trouver une base avant de calculer un syst`eme d’´equations cart´esiennes par cette m´ethode.
Chapitre 4
Applications lin´eaires.
Dans cette partie E et F d´esignent deux espaces vectoriels sur K.
4.1 D´efinitions et exemples.
D´efinition 4.1.1 Une application lin´eaire de E dans F est une application f : E → F telle que
(i) x, y ∈ E, f(x +y) = f(x) +f(y)
(ii) x ∈ E, λ ∈ K, f(λx) = λf(x).
Remarque : f est un homomorphisme de groupe du groupe (E, +) dans le groupe (F, +).
Propri´et´es. a) Pour tout u ∈ E, f(0u) = 0f(u) = 0
F
. Donc f(0
E
) = 0
F
.
b)Pour tous n ∈ N

, λ
1
,...,λ
n
∈ K, u
1
,...,u
n
∈ E, f(λ
1
u
1
+... +λ
n
u
n
) = λ
1
f(u
1
) +... +λ
n
f(u
n
).
(D´emonstration par r´ecurrence).
Exemples. a) Soit a ∈ R et f : R → R, x → ax. Alors f est une application lin´eaire.
(Rappel : sa repr´esentation graphique est une droite qui passe par 0. Les applications lin´eaires
de R dans R sont utilis´ees dans les probl`emes de proportionnalit´e.) Montrons que si g : R → R
est une application lin´eaire, alors il existe a ∈ R tel que pour tout x, g(x) = ax. On a g(x) =
g(1x) = xg(1). On pose a = g(1).
b) Si a ∈ R et b ∈ R, b = 0, alors l’application
f : R →R
x → ax +b
n’est pas lin´eaire, car
f(0) = 0.
c) Soit
f : R →R
x → x
2
alors f n’est pas une application lin´eaire. En effet :f(2x) = 4f(x) =
2f(x) si x = 0.
d) E = (
1
(R, R), F = (
0
(R, R). E et F sont des espaces vectoriels sur R car ce sont des sous
-espaces vectoriels de T(R, R). Alors
Ψ : E → F
f → f

est une application lin´eaire de E dans F.
e) Soit F = (
0
(R, R) alors
Φ : E →R
f →

b
a
f(t)dt
est une application lin´eaire de E dans R.
f) Soient n et p des entiers, 1 ≤ p ≤ n alors
H : K
n
→K
p
(x
1
, ..., x
n
) → (x
1
, ..., x
p
)
est une application
lin´eaire.
g) Soit x
0
un r´eel fix´e. L’application
T(R, R) →R
f → f(x
0
)
est lin´eaire.
35
36 CHAPITRE 4. APPLICATIONS LIN
´
EAIRES.
h) Si a ∈ R et b ∈ R, alors
R
2
→R
(x, y) → ax +by
est une application lin´eaire. Si λ ∈ R,
on a f(λ(x, y)) = f(λx, λy) = aλx + bλy = λ(ax + by) = λf((x, y)). et f((x, y) + (x

, y

)) =
f((x +x

, y +y

)) = a(x +x

) +b(y +y

) = ax +ax

+by +by

= f((x, y)) +f((x

, y

)).
Proposition 4.1.2 Soient f : E → F et g : F → G des applications lin´eaires, alors
g ◦ f : E → F → G
est une application lin´eaire.
Preuve : Si u,v ∈ E, (g ◦ f)(u + v) = g(f(u + v)) = g(f(u) + f(v)) = g(f(u)) + g(f(v)) =
g ◦ f(u) +g ◦ f(v). De mˆeme, si λ ∈ K, g ◦ f(λu) = λg ◦ f(u).
Proposition 4.1.3 Soit f : E → F une application lin´eaire bijective. Alors son application
lin´eaire r´eciproque f
−1
: F → G est une application lin´eaire.
Preuve : On sait que si u ∈ E, v ∈ F, (u = f
−1
(v)) ⇔ (v = f(u)). Soient v
1
et v
2
∈ F.
Montrons que f
−1
(v
1
+ v
2
) = f
−1
(v
1
) + f
−1
(v
2
). Soient u
1
et u
2
les ´el´ements de E tels que
f(u
1
) = v
1
et f(u
2
) = v
2
. Comme f est lin´eaire, on a
v
1
+v
2
= f(u
1
) +f(u
2
) = f(u
1
+u
2
).
On pose u = u
1
+u
2
. On a f(u) = v
1
+v
2
, donc u = f
−1
(v
1
+v
2
), c’est `a dire f
−1
(v
1
)+f
−1
(v
2
) =
f
−1
(v
1
+v
2
).
Si λ ∈ K, v ∈ F et u ∈ E, montrons que f
−1
(λv) = λf
−1
(v). Soit u l’´el´ement de E tel que
f(u) = v alors, comme f est lin´eaire, on a f(λu) = λv, donc f
−1
(λv) = λu = λf
−1
(v).
Exemple : Si a ∈ R, a = 0, alors f : R → R, x → ax est une application lin´eaire bijective et
f
−1
: x →
1
a
x.
D´efinition 4.1.4 Soit f : E → F une application lin´eaire bijective. On dit que f est un iso-
morphisme d’espaces vectoriels de E sur F. On dit aussi que l’espace vectoriel E est isomorphe
`a l’espace vectoriel F.
Proposition 4.1.5 Soit la relation binaire 1 d´efinie sur l’ensemble des K-espaces vectoriels
par ”E1F si E est isomorphe `a F”. Alors 1 est une relation d’´equivalence dans l’ensemble des
K-espaces vectoriels.
Preuve : R´eflexive : id : E → E est un isomorphisme. Sym´etrique : si f : E → F est un
isomorphisme, alors f
−1
: F → E est un isomorphisme. Transitive : si f : E → F et g : F → G
sont des isomorphismes, alors g ◦ f : E → G est un isomorphisme.
Exemple fondamental. Si E est un espace vectoriel de dimension n, alors E est isomorphe `a
K
n
.
Preuve : Soit (e
1
, ..., e
n
) une base de E. On d´efinit f : E → K
n
, u → (x
1
, ..., x
n
), o` u x
1
, ..., x
n
sont les coordonn´ees de u dans la base (e
1
, ...., e
n
). On v´erifie que f est une application (si u est
un vecteur de E, existence et unicit´e des coordonn´ees de u). Puis on v´erifie que f est lin´eaire.
Ensuite on d´efinit l’application g par g : K
n
→ E, (x
1
, ..., x
n
) → x
1
e
1
+...+x
n
e
n
. On a g◦f = id
E
et f ◦ g = id
K
n. Donc f est bijective, d’application r´eciproque g.
Vocabulaire. Une application lin´eaire de E dans K s’appelle une forme lin´eaire.
Une application lin´eaire de E dans lui-mˆeme s’appelle un endomorphisme d’espace vectoriel de
E.
Un endomorphisme bijectif de E s’appelle un automorphisme de E.
4.2. IMAGE ET NOYAU. 37
4.2 Image et noyau.
Rappel. Soit f : c → T une application entre deux ensembles c et T. Si ( est une partie
de c, on appelle image de ( l’ensemble des ´el´ements de T de la forme f(x) o` u x ∈ (. On note
cet ensemble f(().
Dans la suite, E et F sont des espaces vectoriels sur K et f : E → F est une application
lin´eaire.
D´efinition 4.2.1 On appelle image de f l’image de E par l’application lin´eaire f.
Notation. Imf.
On a donc Imf = f(E), Imf = ¦f(u); u ∈ E¦, ou encore Imf = ¦v ∈ F, ∃u ∈ E, f(u) = v¦.
Proposition 4.2.2 L’image de f est un sous-espace vectoriel de F.
Preuve : D’abord 0
F
∈ Imf, donc Imf = ∅. Soient v
1
, v
2
∈ Imf. Il existe u
1
, u
2
∈ E,
v
1
= f(u
1
), v
2
= f(u
2
). Alors v
1
+ v
2
= f(u
1
) + f(u
2
) = f(u
1
+ u
2
), donc v
1
+ v
2
∈ Imf. Si
λ ∈ K, alors λv
1
= λf(u
1
) = f(λu
1
), donc λv
1
∈ Imf.
Remarque : L’application lin´eaire f est surjective si et seulement si Imf = F.
D´efinition 4.2.3 On appelle noyau de f l’ensemble des vecteurs de E dont l’image par f est
le vecteur nul de F.
Notation ker f.
On a ker f = ¦u ∈ E, f(u) = 0
F
¦.
Proposition 4.2.4 Le noyau de f est un sous-espace vectoriel de E.
Preuve : On a 0
E
∈ Ker f car f(0
E
) = 0
F
(`a gauche du signe =, 0
E
d´esigne le vecteur nul
de E, `a droite 0
F
d´esigne le vecteur nul de F). Si u et v ∈ Ker f, alors f(u) + f(v) = 0
F
,
or f est lin´eaire, donc f(u + v) = f(u) + f(v) = 0
F
, donc u + v ∈ Ker f. Si λ ∈ K, on a
f(λu) = λf(u) = λ0
F
= 0
F
, donc λu ∈ Ker f.
4.3 Application lin´eaire injective.
Proposition 4.3.1 L’application lin´eaire f est injective si et seulement si Ker f = ¦0
E
¦ (o` u
0
E
d´esigne le vecteur nul de E ).
Preuve : Supposons f injective. Comme on a f(0
E
) = 0
F
, alors le seul vecteur de E dont l’image
est le vecteur nul de F est le vecteur nul de E. Donc Ker f = ¦0
E
¦. Supposons maintenant que
Ker f = ¦0
E
¦. Soient u et v ∈ E tels que f(u) = f(v). Comme f est lin´eaire, alors :
(f(u) = f(v)) ⇔ (f(u −v) = 0
F
).
Donc
(f(u) = f(v)) ⇔ (u −v ∈ Ker f).
Comme Ker f = ¦0
E
¦, alors : (f(u) = f(v)) ⇒ (u = v), donc f est injective.
Exemples f : R
2
→ R (x, y) → 2x + 3y. ker f = ¦(x, −(2/3)x); x ∈ R¦, donc ker f = ¦(0, 0)¦.
f n’est pas injective.
Soit E = (
0
(R, R) et Φ : E → R, f →

π
−π
f(t)dt. Soit f(t) = sin t. On a Φ(f) = 0, et f = 0
E
,
donc Φ n’est pas injective.
Proposition 4.3.2 Si f est injective alors l’image de toute partie libre de E est une partie libre
de F.
38 CHAPITRE 4. APPLICATIONS LIN
´
EAIRES.
Preuve : Soient u
1
,...,u
p
des vecteurs de E lin´eairement ind´ependants. On suppose que f
est injective. Montrons que les vecteurs f(u
1
),...,f(u
p
) sont lin´eairement ind´ependants. Soient
λ
1
,...,λ
p
des scalaires tels que λ
1
f(u
1
) +... +λ
p
f(u
p
) = 0
F
. Comme f est lin´eaire, f(λ
1
u
1
+... +
λ
p
u
p
) = 0
F
. Or f est injective, donc λ
1
u
1
+... +λ
p
u
p
= O
E
. Comme u
1
,...,u
p
sont lin´eairement
ind´ependants, λ
1
= .... = λ
p
= 0.
Remarque : La r´eciproque de cette proposition est vraie (exercice).
4.4 Cas o` u l’espace vectoriel de d´epart est de dimension fi-
nie, image d’une partie g´en´eratrice. Rang d’une application
lin´eaire.
Dans cette partie, f : E → F est une application lin´eaire et E est de dimension finie n.
Proposition 4.4.1 Si ¦g
1
, ..., g
q
¦ est une partie g´en´eratrice de E, alors son image ¦f(g
1
), ..., f(g
q

est une partie g´en´eratrice de Imf.
Preuve : Si v ∈ Imf, alors il existe u ∈ E tel que v = f(u). Il existe des scalaires λ
1
,...,
λ
q
tels que u = λ
1
g
1
+ ... + λ
q
g
q
. Donc v = λ
1
f(g
1
) + ... + λ
q
f(g
q
), ce qui prouve que
Imf ⊂ Vect ¦f(g
1
), ..., f(g
q
)¦. R´eciproquement, on a bien Vect ¦f(g
1
), ..., f(g
q
)¦ ⊂ Imf, car
f(g
1
), ..., f(g
q
) ∈ Imf. Finalement, Imf = Vect ¦f(g
1
), ..., f(g
q
)¦.
Corollaire 4.4.2 Si l’espace vectoriel E est de dimension finie, alors son image par une appli-
cation lin´eaire est un espace vectoriel de dimension finie et dimImf ≤ dimE.
D´efinition 4.4.3 On appelle rang de l’application lin´eaire f la dimension de l’espace vectoriel
Imf.
Remarque 4.4.4 Si (e
1
, ..., e
n
) est une base de E, alors le rang de f est ´egal au rang des
vecteurs f(e
1
),...,f(e
n
).
Th´eor`eme 4.4.5 (du rang). dimE = dimImf + dimKer f.
Preuve : Soit (u
1
,...,u
k
) une base de Ker f et soit (f
1
, ..., f
n
) une base de Imf. Il existe v
1
∈ E
tel que f(v
1
) = f
1
,..., il existe v
n
∈ E tel que f(v
n
) = f
n
. Prouvons que (u
1
, ..., u
k
, v
1
, ..., v
n
) est
une base de E. Prouvons qu’elle engendre E. Soit u ∈ E. On a f(u) ∈ Imf, donc il existe des
scalaires λ
1
,...,λ
n
tels que f(u) = λ
1
f
1
+... +λ
n
f
n
. Ceci donne : f(u−λ
1
v
1
−... −λ
n
v
n
) = 0, donc
u−λ
1
v
1
−... −λ
n
v
n
∈ Ker f. Finalement, il existe des scalaires µ
1
,...,µ
k
tels que u = λ
1
v
1
+... +
λ
n
v
n
+ µ
1
u
1
+ ... + µ
k
u
k
. Donc u
1
, ..., u
k
, v
1
, ..., v
n
engendrent E. Prouvons qu’ils forment une
famille libre. Soient λ
1
,...,λ
n
, µ
1
,...,µ
k
des scalaires tels que λ
1
v
1
+... +λ
n
v
n

1
u
1
+... +µ
k
u
k
=
0
E
. Alors f(λ
1
v
1
+... +λ
n
v
n

1
u
1
+... +µ
k
u
k
) = 0
F
, donc λ
1
f
1
+... +λ
n
f
n
= 0. Or f
1
,...,f
n
sont
lin´eairement ind´ependants, donc λ
1
= ... = λ
n
= 0. On en d´eduit que µ
1
u
1
+... +µ
k
u
k
= 0. Or
u
1
,...,u
k
sont lin´eairement ind´ependants, donc µ
1
= ... = µ
k
= 0. Finalement u
1
, ..., u
k
, v
1
, ..., v
n
engendrent E et forment une famille libre, donc une base de E. La dimension de E est ´egale au
nombre de vecteurs de cette base, n +k, qui est ´egal `a dimImf + dimKer f.
4.5 Isomorphismes.
Th´eor`eme 4.5.1 Soit f : E → F une application lin´eaire. Supposons que E est de dimension
finie. Alors on a l’´equivalence de
(i) f est un isomorphisme de E dans F.
(ii) L’image de toute base de E est une base de F.
(iii) Il existe une base de E dont l’image par f est une base de F.
4.5. ISOMORPHISMES. 39
Preuve : a) Montrons (i) ⇒ (ii). Soit (e
1
, ..., e
n
) une base de E. Comme f est injective alors
¦f(e
1
), ..., f(e
n
)¦ est une partie libre de F. On sait que cette partie engendre Imf, donc c’est
une base de Imf. Or f est surjective, donc Imf = F. Finalement, (f(e
1
), ..., f(e
n
)) est une base
de F.
b) Montrons que (iii) ⇒ (i). Soit (e
1
, ..., e
n
) une base de E telle que (f(e
1
), ..., f(e
n
)) soit
une base de F. Montrons que f est bijective. On voit imm´ediatement que F ⊂ Imf, car
f(e
1
),...,f(e
n
) ∈ Imf. Donc f est surjective. Montrons que f est injective. Soit u ∈ ker f. Il
existe des scalaires λ
1
,...,λ
n
tels que u = λ
1
e
1
+...+λ
n
e
n
. Alors f(λ
1
e
1
+...+λ
n
e
n
) = 0
F
. Comme
f est lin´eaire, λ
1
f(e
1
) + ... + λ
n
f(e
n
) = 0
F
. Or f(e
1
),...,f(e
n
) sont lin´eairement ind´ependants,
donc λ
1
= ... = λ
n
= 0. On en d´eduit que u = 0
E
.
Corollaire 4.5.2 Soient E et F des espaces vectoriels isomorphes. Alors si l’un est de dimen-
sion finie, l’autre aussi et ils ont tous deux la mˆeme dimension.
Th´eor`eme 4.5.3 Supposons que E et F sont de dimension finie et que dimE = dimF. Soit
f : E → F une application lin´eaire. Alors on a l’´equivalence de
(i) f est un isomorphisme de E dans F.
(ii) f est injective.
(iii) f est surjective.
Preuve : Soit (e
1
, ..., e
n
) une base de E.
a) Montrons (ii) ⇒ (i). On suppose que f est injective. Alors ¦f(e
1
), ..., f(e
n
)¦ est une partie
libre de F. Or on sait que F est de dimension n, donc (f(e
1
), ..., f(e
n
)) est une base de F. On
en d´eduit que f est un isomorphisme.
b) Montrons (iii) ⇒ (i). On suppose que f est surjective, donc que Imf = F. On sait
que ¦f(e
1
), ..., f(e
n
)¦ est une partie g´en´eratrice de Imf, donc de F. Or dimF = n, donc
(f(e
1
), ..., f(e
n
)) est une base de F. On en d´eduit que f est un isomorphisme.
Proposition 4.5.4 Soit f : E → F un isomorphisme. Soient u
1
, ...u
p
des vecteurs de E. Alors
le rang de la famille de vecteurs u
1
, ...u
p
est ´egal au rang de la famille de vecteurs f(u
1
), ...f(u
p
).
Preuve : Soit r le rang des vecteurs u
1
, ..., u
p
. Rappelons que le rang est la dimension de
Vect ¦u
1
, ..., u
p
¦. Le rang r est caract´eris´e par le fait qu’il existe r vecteurs lin´eairement ind´ependants
parmi les p vecteurs u
1
, ..., u
p
et que toute sous-famille d’au moins r + 1 vecteurs pris parmi
u
1
, ..., u
p
est li´ee. Supposons que u
1
,...,u
r
sont lin´eairement ind´ependants. Alors, comme f
est injective, f(u
1
), ..., f(u
r
) sont lin´eairement ind´ependants. Appelons r

le rang de la famille
f(u
1
), ..., f(u
p
). On a montr´e que r

≥ r. En faisant le mˆeme raisonnement avec l’isomorphisme
f
−1
, on en d´eduit que r ≥ r

. Donc r = r

.
Corollaire 4.5.5 Soit E un espace vectoriel de dimension n. Soit (e
1
, ..., e
n
) une base de E.
Soient u
1
...u
p
des vecteurs de E. On note (x
1
1
, ..., x
1
n
),...,(x
p
1
, ..., x
p
n
) les coordonn´ees des vecteurs
u
1
,...,u
p
dans la base (e
1
, ..., e
n
). Alors le rang de la famille u
1
,...,u
p
est ´egal au rang de la
famille des p vecteurs de K
n
: (x
1
1
, ..., x
1
n
),...,(x
p
1
, ..., x
p
n
).
Applications. a) Pour calculer le rang de p vecteurs de E, on fixe une base de E et on ´ecrit
les coordonn´ees de ces vecteurs dans la base. On est ramen´e au calcul du rang de p vecteurs de
K
n
, ce qu’on sait faire, par la m´ethode du pivot appliqu´ee aux colonnes.
b) Soit F un sous-espace vectoriel de E. Une base (e
1
, ..., e
n
) de E ´etant fix´ee, on peut calculer
un syst`eme d’´equations cart´esiennes de F dans la base (e
1
, ..., e
n
).
40 CHAPITRE 4. APPLICATIONS LIN
´
EAIRES.
4.6 Exemples : projections vectorielles, sym´etries vectorielles.
I) Soient F et G des sous-espaces vectoriels suppl´ementaires de E. Soit p l’application lin´eaire
d´efinie par
E = F
¸
G → E
u = v +w → v
Alors tout vecteur u de E a bien une image et une seule par p car la d´ecomposition de tout vecteur
u comme somme d’un vecteur de F et d’un vecteur de G existe et est unique. L’application p
est appel´ee la projection vectorielle sur le sous-espace vectoriel F, parall`element au sous-espace
vectoriel G.
Proposition 4.6.1 p est un endomorphisme de E. On a Ker p = G et Imp = F.
II) Soient F et G des sous-espaces vectoriels suppl´ementaires de E. Soit s l’application
lin´eaire d´efinie par
E = F
¸
G → E
u = v +w → v −w
Alors tout vecteur u de E a bien une image et une seule par s car la d´ecomposition de tout vecteur
u comme somme d’un vecteur de F et d’un vecteur de G existe et est unique. L’application s
est appel´ee la sym´etrie vectorielle sur le sous-espace vectoriel F, parall`element au sous-espace
vectoriel G.
Proposition 4.6.2 s est un isomorphisme de E.
III) Exercice Dans E = R
2
, soit F la droite vectorielle engendr´ee par le vecteur (1, 1) et G
la droite vectorielle engendr´ee par (1, −1).
(i) Montrer que E = F
¸
G. (Indication : r´eunir une base de F et une base de G.)
(ii) Soit w = (x, y) un vecteur de R
2
. Trouver les coordonn´ees de p(w) dans la base canonique
de R
2
. (R´eponse : p(w) = (
x+y
2
,
x+y
2
)).
Chapitre 5
Applications lin´eaires en dimension
finie. Matrices
5.1 Matrices. R`egles de calcul.
D´efinition 5.1.1 (Rappel) On appelle matrice `a n lignes et p colonnes, ou matrice n p un
tableau d’´el´ements de K que l’on note

¸
¸
¸
a
1,1
a
1,2
... a
1,p
a
2,1
a
2,2
... a
2,p
.......
a
n,1
a
n,2
... a
n,p
¸

On note en abr´eg´e (a
i,j
)
1 ≤ i ≤ n
1 ≤ j ≤ n
i sera l’indice de ligne et j l’indice de colonne.
Notation : L’ensemble des matrices n p `a coefficients dans K est appel´e ´
n,p
(K). Si n = p,
on le notera ´
n
(K).
Exemple :
A =

1 −1 2
0 1 3

∈ ´
2,3
(R).
La matrice dont tous les coefficients sont nuls est appel´ee la matrice nulle et sera not´ee 0.
D´efinition 5.1.2 (Rappel) Une matrice qui a le mˆeme nombre de lignes et de colonnes est dite
carr´ee. Un matrice carr´ee est dite :
diagonale si a
i,j
= 0 si i = j ;
triangulaire sup´erieure si a
i,j
= 0 pour i > j ;
triangulaire inf´erieure si a
i,j
= 0 pour i > j.
Exemples : Les matrices de la forme :

a 0
0 b

,
a, b ∈ R, sont les matrices diagonales de ´
2
(R).
Les matrices de la forme

a b
0 c

,
a, b, c ∈ R, sont les matrices triangulaires sup´erieures de ´
2
(R).
41
42 CHAPITRE 5. APPLICATIONS LIN
´
EAIRES EN DIMENSION FINIE. MATRICES
D´efinition 5.1.3 Une matrice `a une ligne s’appelle une matrice-ligne. Une matrice `a une co-
lonne s’appelle une matrice-colonne. La i`eme ligne de la matrice (a
i,j
) est la matrice-ligne :
(a
i,1
, a
i,2
, ..., a
i,p
). La j`eme colonne de la matrice (a
i,j
) est la matrice-colonne :

¸
¸
a
1,j
.
.
.
a
n,j
¸

.
D´efinition 5.1.4 Si A = (a
i,j
) ∈ ´
n,p
(K) et λ ∈ K on d´efinit le produit de A par λ par :
λA = (λa
i,j
).
Si B = (b
i,j
) ∈ ´
n,p
(K), on d´efinit la somme des matrices A et B par :
A+B = (a
i,j
+b
i,j
).
Exemples : A =

1 −1 2
0 1 3

∈ ´
2,3
(R). 2A =

2 −2 4
0 2 6

.
B =

0 −1 3
1 1 0

∈ ´
2,3
(R). A+B =

1 −2 5
1 2 3

∈ ´
2,3
(R).
D´efinition 5.1.5 (multiplication d’une matrice-ligne par une matrice-colonne). Si
A = (a
1
, ...., a
p
) ∈ ´
1,p
(R) et B =

¸
¸
b
1
.
.
.
b
p
¸

∈ ´
p,1
(R),
le produit AB est la matrice 1 1 dont l’unique coefficient est :
a
1
b
1
+... +a
p
b
p
.
Attention : le produit d’une matrice-ligne par une matrice-colonne n’est d´efini que si les deux
matrices ont le mˆeme nombre de coefficients.
Exemple : A = (1, −1, 0) et B =

¸
1
2
1
¸

. AB = 1 1 + (−1) 2 + 0 1 = −1.
D´efinition 5.1.6 Soit A ∈ ´
n,p
(K) et B ∈ ´
p,q
(K). Le produit de A par B, not´e AB est la
matrice n q dont le coefficient de la i`eme ligne et j`eme colonne est le produit de la i`eme ligne
de A et de la j`eme colonne de B.
Attention : Le produit de A par B n’est d´efini que si le nombre de colonnes de A est ´egal au
nombre de lignes de B.
Exemple :
A =

¸
¸
¸
1 1 −1
−2 1 3
3 0 1
1 0 0
¸

∈ ´
4,3
(R) et B =

¸
1 2
0 1
1 3
¸

∈ ´
3,2
(R).
Alors
AB =

¸
¸
¸
0 0
1 6
4 9
1 2
¸

∈ ´
4,2
(R).
5.1. MATRICES. R
`
EGLES DE CALCUL. 43
Remarques : Si A ∈ ´
n,p
(K) et si E
j
=

¸
¸
¸
¸
¸
¸
¸
0
.
.
.
1
.
.
.
0
¸

∈ ´
p,1
(K), (1 `a la j`eme place, 0 ailleurs),
alors AE
j
est la j`eme colonne de A.
La i`eme ligne de la matrice AB est ´egale au produit de la i`eme ligne de la matrice A par la
matrice B.
La j`eme colonne de la matrice AB est ´egale au produit de la matrice A par la j`eme colonne de
la matrice B.
R`egles de calcul. Soient A, B, C ∈ ´
n,p
(K) ,λ, µ ∈ K.
En utilisant les d´efinitions de l’addition des matrices et de la multiplication par un scalaire, on
montre que :
A+B = B +A, A−A = 0 (o` u 0 d´esigne la matrice nulle.) A+ 0 = A.
A+ (B +C) = (A+B) +C, on note A+B +C.
λ(A+B) = λA+λB
(λ +µ)A = λA+µA.
(λµ)A = λ(µA).
1A = A.
D´efinition 5.1.7 Pour 0 ≤ k ≤ n et 0 ≤ l ≤ p, on d´efinit la matrice E
k,l
dont le coefficient de
la k`eme ligne et l`eme colonne vaut 1, les autres coefficients ´etant ´egaux `a 0.
Proposition 5.1.8 L’ensemble ´
n,p
(K), muni de l’addition des matrices et de la multiplication
par les scalaires est un espace vectoriel sur K. Les matrices E
k,l
, 0 ≤ k ≤ n et 0 ≤ l ≤ p, forment
une base de ´
n,p
(K).
Preuve : Les r`egles de calcul ci-dessus font que ´
n,p
(K) muni de l’addition et de la multi-
plication par les scalaires est un espace vectoriel sur K. De plus on ´ecrit pour toute matrice
A = (a
i,j
),
A =
n
¸
k=1
p
¸
l=1
a
k,l
E
k,l
,
et si
A =
n
¸
k=1
p
¸
l=1
c
k,l
E
k,l
,
alors a
k,l
= c
k,l
pour 0 ≤ k ≤ n et 0 ≤ l ≤ p. On voit donc que toute matrice de ´
n,p
(K) s’´ecrit
de mani`ere unique comme combinaison lin´eaire des matrices E
k,l
, 0 ≤ k ≤ n, 0 ≤ l ≤ p.
D´efinition 5.1.9 On d´efinit I
n
comme la matrice carr´ee n n, diagonale, dont les coefficients
diagonaux sont tous ´egaux `a 1.
On a les r`egles de calcul suivantes, qui r´esultent des propri´et´es de l’addition et de la mul-
tiplication dans K, ainsi que de la d´efinition de la multiplication des matrices (quand on peut
calculer les produits).
A, b, C ∈ ´
n
(K), λ ∈ K,
I
n
A = AI
n
= A
λ(AC) = (λA)C, on note λAC.
(A+B)C = AC +BC et A(B +C) = AB +AC (double distributivit´e de la multiplication par
rapport `a l’addition.)
44 CHAPITRE 5. APPLICATIONS LIN
´
EAIRES EN DIMENSION FINIE. MATRICES
Remarque : Le produit des matrices n’est pas commutatif. On n’a pas toujours AB = BA,
mˆeme si les produits AB et BA existent tous les deux.
Exemple :
A =

¸
1 2
3 0
1 −1
¸

B =

1 1
0 1

AB existe, BA n’existe pas.
C =

1 2
−1 1

BC et CB existent et BC = CB.
Proposition 5.1.10 Soient A ∈ ´
n,p
(K), B ∈ ´
p,q
(K), C ∈ ´
q,r
(K). Alors A(BC) =
(AB)C.
Preuve : Notons ((AB)C)
i,j
le coefficient de la i`eme ligne et j`eme colonne de la matrice (AB)C.
Alors on a :
((AB)C)
i,j
=( i`eme ligne de AB)( j`eme colonne de C)
= (a
i,1
b
1,1
+... +a
i,p
b
p,1
)c
1,j
+ (a
i,1
b
1,2
+... +a
i,p
b
p,2
)c
2,j
+.... + (a
i,1
b
1,q
+... +a
i,p
b
p,q
)c
q,j
et
(A(BC))
i,j
=( i`eme ligne de A)( j`eme colonne de BC)
= a
i,1
(b
1,1
c
1,j
+... +b
1,q
c
q,j
) +a
i,2
(b
2,1
c
1,j
+... +b
2,q
c
q,j
) +.... +a
i,p
(b
p,1
c
1,j
+... +b
p,q
c
q,j
).
On constate que ((AB)C)
i,j
= (A(BC))
i,j
.
D´efinition 5.1.11 (i) Si A est une matrice-colonne, on appelle transpos´ee de A la matrice-ligne
qui a les mˆemes coefficients que A.
i (ii) Si A ∈ ´
n,p
(K), on appelle transpos´ee de A la matrice de ´
p,n
(K) dont la i`eme ligne est
´egale `a la transpos´ee de la i`eme colonne de A.
La transpos´ee de A sera not´ee A
t
.
Exemple :
A =

¸
1 −1
0 2
1 1
¸

A
t
=

1 0 1
−1 2 1

.
Proposition 5.1.12 Si A, B, C ∈ ´
n
(K) alors
(i) (A
t
)
t
= A.
(ii) (A+B)
t
= A
t
+B
t
.
(iii) (AC)
t
= C
t
A
t
.
Preuve : (i) et (ii) sont faciles `a v´erifier (exercice). Montrons (iii). D’une part on a :
i`eme ligne de (AC)
t
= i`eme colonne de AC
=A (i`eme colonne de C).
D’autre part on a :
i`eme ligne de (C
t
A
t
) = (i`eme ligne de C
t
) A
t
=(i`eme ligne de C
t
1`ere colonne de A
t
, i`eme ligne de C
t
2`eme colonne de A
t
,..., i`eme ligne
de C
t
ni`eme colonne de A
t
)
=(1`ere ligne de A i`eme colonne de C , 2`eme ligne de A i`eme colonne de C ,..., ni`eme ligne
de A i`eme colonne de C)
=A i`eme colonne de C.
5.2. MATRICE D’UNE APPLICATION LIN
´
EAIRE DANS DES BASES. 45
Remarque : Si A = (a
i,j
) ∈ ´
n,p
(K), X =

¸
¸
¸
¸
x
1
x
2
.
.
.
x
p
¸

∈ K
p
et B =

¸
¸
¸
¸
b
1
b
2
.
.
.
b
n
¸

∈ K
n
, on notera
AX = B le syst`eme lin´eaire de matrice A et de second membre B :

a
1,1
x
1
+... +a
1,p
x
p
= b
1
....
a
n,1
x
1
+... +a
n,p
x
p
= b
n
Le syst`eme homog`ene associ´e sera not´e AX = 0, o` u 0 d´esigne le vecteur nul de K
n
.
5.2 Matrice d’une application lin´eaire dans des bases.
D´efinition 5.2.1 Soient E et F des espaces vectoriels sur K de dimensions finies non nulles
et soient (u
1
, ..., u
p
) une base de E et (v
1
, ..., v
n
) une base de F. On appelle matrice de f dans
les bases (u
1
, ..., u
p
) et (v
1
, ..., v
n
) la matrice `a n lignes et p colonnes dont la j`eme colonne est
constitu´ee par les coordonn´ees du vecteur f(u
j
) dans la base (v
1
, ..., v
n
).
5.3 Application lin´eaire de K
p
dans K
n
associ´ee canoniquement
`a une matrice.
Dans cette partie, on note les vecteurs de K
n
et de K
p
en colonnes. Donc si A est une matrice
`a n lignes et p colonnes et si X ∈ K
p
, on sait calculer le produit AX et il donne un ´el´ement de
K
n
.
Proposition 5.3.1 Soit A ∈ ´
n,p
(K). Alors la fonction Φ d´efinie par :
Φ : K
p
→K
n
X → AX
est une application lin´eaire de l’espace vectoriel K
p
dans l’espace vectoriel K
n
et sa matrice dans
les bases canoniques de K
p
et K
n
est A.
Preuve : Prouvons que Φ est une application lin´eaire. Tout vecteur X de K
p
s’´ecrit
X =

¸
¸
¸
¸
x
1
x
2
.
.
.
x
n
¸

. On a :AX =

¸
¸
x
1
a
1,1
+... +x
p
a
1,p
.
.
.
x
1
a
n,1
+... +x
p
a
n,p
¸

.
On v´erifie que si X et Y appartiennent `a K
p
, alors A(X +Y ) = AX +AY et si λ ∈ K, A(λX =
λX. Donc Φ est une application lin´eaire de K
p
dans K
n
. De plus, on a φ(

¸
¸
¸
¸
1
0
.
.
.
0
¸

) = A

¸
¸
¸
¸
1
0
.
.
.
0
¸

,
alors c’est bien la premi`ere colonne de A. De mˆeme
φ(

¸
¸
¸
¸
¸
0
.
1
0
.
¸

) = A

¸
¸
¸
¸
¸
0
.
1
0
.
¸

(1 `a la j`eme place, 0 ailleurs). C’est la j`eme colonne de A.
46 CHAPITRE 5. APPLICATIONS LIN
´
EAIRES EN DIMENSION FINIE. MATRICES
5.4 Calcul des coordonn´ees de l’image d’un vecteur de E.
Proposition 5.4.1 Soit f une application lin´eaire de E dans F. Soit A la matrice de f dans
les bases (u
1
, ..., u
p
) et (v
1
, ..., v
n
). Soit u ∈ E et soit X =

¸
¸
x
1
.
.
.
x
p
¸

la colonne des coordonn´ees
de u dans la base (u
1
, ..., u
p
). Alors la colonne des coordonn´ees de f(u) dans la base (v
1
, ..., v
n
)
est donn´ee par le produit AX.
Preuve : On a u = x
1
u
1
+... +x
p
u
p
. Comme f est lin´eaire, alors
f(u) = f(x
1
u
1
+ ... + x
p
u
p
) = x
1
f(u
1
) + ... + x
p
f(u
p
). Pour j = 1, ..., p, la colonne des
coordonn´ees de f(u
j
) est

¸
¸
a
1,j
.
.
.
a
n,j
¸

donc la colonne des coordonn´ees de f(u) est

¸
¸
x
1
a
1,1
+... +x
p
a
1,p
.
.
.
x
1
a
n,1
+... +x
p
a
n,p
¸

= AX.
Proposition 5.4.2 Soient w
1
,...,w
p
p vecteurs de F. Il existe une application lin´eaire de E
dans F et une seule telle que f(u
1
) = w
1
,...,f(u
p
) = w
p
. Sa matrice dans les bases (u
1
, ..., u
p
)
et (v
1
, ..., v
n
) a sa j`eme colonne form´ee des coordonn´ees du vecteur w
j
dans la base (u
1
, ..., u
p
).
Preuve : a) Montrons d’abord l’unicit´e de f. Si f existe, alors la matrice de f dans les bases
(u
1
, ..., u
p
) et (v
1
, ..., v
n
) est bien la matrice d´ecrite dans l’´enonc´e .
b) Montrons maintenant l’existence de f. Soit A la matrice d´ecrite dans l’´enonc´e de la proposi-
tion. D´efinissons f comme l’application lin´eaire qui au vecteur u de coordonn´ees X dans la base
(u
1
, ..., u
p
) associe le vecteur dont la colonne de coordonn´ees dans la base (v
1
, ..., v
n
) est donn´ee
par le produit AX. Alors on a bien f(u
j
) = w
j
, j = 1, ..., p.
Exemple : Soit E de base (e
1
, e
2
, e
3
) et soit F de base (u
1
, u
2
). Soit f l’application lin´eaire de
E dans F d´efinie par f(e
1
) = u
1
+ u
2
, f(e
2
) = 2u
1
− u
2
et f(e
3
) = u
1
− u
2
. La matrice de f
dans les bases (e
1
, e
2
), e
3
) et (u
1
, u
2
) est
A =

1 2 1
1 −1 −1

u
1
u
2
f(e
1
)f(e
2
)f(e
3
)
Si u a pour coordonn´ees X =

¸
x
y
z
¸

dans la base (e
1
, e
2
, e
3
), alors f(u) a pour coordonn´ees
AX =

x + 2y +z
x −y −z

dans la base (u
1
, u
2
).
C’est `a dire que f(u) est donn´e par f(u) = (x + 2y +z)u
1
+ (x −y −z)u
2
.
Remarque : Des bases de E et F ´etant fix´ees, on calcule Ker f comme si l’on avait une
application lin´eaire de K
p
dans K
n
. Dans l’exemple ci-dessus,
Ker f = ¦u ∈ E; u = xe
1
+ye
2
+ze
3
;

x + 2y +z = 0
x −y −z = 0
¦
En r´esolvant le syst`eme on touve que les vecteurs du noyau sont les vecteurs de E dont les
coordonn´ees dans la base e
1
, e
2
, e
3
, v´erifient :

¸
x
y
z
¸

= z

¸
1/3
−2/3
1
¸

. Le noyau de f est donc
une droite vectorielle qui admet pour base le vecteur u
1
−2u
2
+ 3u
3
.
5.5. OP
´
ERATIONS LIN
´
EAIRES SUR LES APPLICATIONS LIN
´
EAIRES ET LES MATRICES.47
Exemple :
Pour n = 3, p = 2 et K = R, on donne u
1
=

¸
1
3
2
¸

et u
2
=

¸
0
1
3
¸

deux vecteurs de R
3
.
L’unique application lin´eaire φ : R
2
→R
3
telle que
φ(

1
0

) = u
1
et φ(

0
1

) = u
2
est d´efinie par
φ(

x
1
x
2

) =

¸
1 0
3 1
2 3
¸

x
1
x
2

.
autrement dit par :
φ(

x
1
x
2

) =

¸
x
1
3x
1
+x
2
2x
1
+3x
2
¸

.
Notation Si on note B une base de E et B

une base de F et si f : E → F est une application
lin´eaire, alors on notera ´(f, B, B

) la matrice de f dans les bases B et B

. Si f est un endo-
morphisme de E (c’est `a dire si E = F), et si on choisit la mˆeme base B au d´epart et `a l’arriv´ee,
on dira que ´(f, B, B) est la matrice de f dans la base B et on la notera ´(f, B).
Remarque : Soit f = id
E
l’application identit´e de E dans E et soit B une base de E, alors
´(f, B) = I, o` u I est la matrice identit´e. (Ce n’est pas vrai si on prend des bases diff´erentes au
d´epart et `a l’arriv´ee).
5.5 Op´erations lin´eaires sur les applications lin´eaires et les ma-
trices.
Soient f : E → F et g : E → F des applications lin´eaires.
Proposition 5.5.1 Si A est la matrice de f dans les bases B et B

et si B est la matrice de
g dans les mˆemes bases, si λ ∈ K, alors la matrice de λf dans ces mˆemes bases est λA et la
matrice de f +g, dans les mˆemes bases est A+B.
Preuve : Soit u
j
le j`eme vecteur de la base B. La j`eme colonne de la matrice de f +g est form´ee
des coordonn´ees de (f + g)(u
j
) dans la base B

. C’est donc la somme de la j`eme colonne de la
matrice A et de la j`eme colonne de la matrice B. On fait la mˆeme d´emonstration pour λA.
Proposition 5.5.2 Soient E et F des K-espaces vectoriels de dimensions p et n. Soit B une
base de E et B

une base de F. Soit L(E, F) l’ensemble des applications lin´eaires de E dans F.
Alors L(E, F) est un K-espace vectoriel et l’application ´ d´efinie par
´ : L(E, F) → ´
n,p
(K)
f → ´(f, B, B

)
est une application lin´eaire bijective. (Le fait que ´ est une application lin´eaire est un corollaire
de la proposition pr´ec´edente. Il suffit de v´erifier que ´ est bijective.)
48 CHAPITRE 5. APPLICATIONS LIN
´
EAIRES EN DIMENSION FINIE. MATRICES
5.6 Composition des applications lin´eaires et multiplication des
matrices.
Proposition 5.6.1 Soient E, F, G des K−espaces vectoriels de dimensions respectives p, n, q.
On donne les base (u
1
, ..., u
p
) pour E, (u

1
, ..., u

n
) pour F et (u

1
, ..., u

q
) pour G. Soient f : E → F
et g : F → G des applications lin´eaires. Soit A la matrice de f dans les bases (u
1
, ..., u
p
) et
(u

1
, ..., u

n
) et soit B la matrice de g dans les bases (u

1
, ..., u

n
) et (u

1
, ..., u

q
). Alors la matrice
de g ◦ f dans les bases (u
1
, ..., u
p
) et (u

1
, ..., u

q
) est BA.
Preuve : Soit u ∈ E de coordonn´ees X =

¸
¸
x
1
.
.
.
x
p
¸

dans la base (u
1
, ..., u
p
). Alors la colonne
des coordonn´ees de f(u) dans la base (u

1
, ..., u

n
) est AX. La colonne des coordonn´ees de g(f(u))
dans la base (u

1
, ..., u

q
) est donc BAX = (BA)X. Donc la matrice de g ◦ f est BA.
5.7 Matrices carr´ees inversibles.
Cette partie concerne uniquement les matrices carr´ees. Dans toute la suite on donne n ∈ N∗
et les matrices consid´er´ees seront des ´el´ements de ´
n
(K).
D´efinition 5.7.1 Soit A ∈ ´
n
(K). On dit que A est inversible s’il existe une matrice B ∈
´
n
(K) telle que AB = BA = I
n
.
Lemme 5.7.2 Si A est inversible alors il n’existe qu’une seule matrice B telle que AB = BA =
I
n
.
Preuve : Supposons que AB = BA = I
n
et que AC = CA = I
n
. Alors C = CI
n
= CAB =
I
n
B = B.
D´efinition 5.7.3 Si A est inversible, la matrice B telle que AB = BA = I
n
s’appelle l’inverse
de A et est not´ee A
−1
.
Proposition 5.7.4 Si A et C sont inversibles, alors
(i) AC est inversible et (AC)
−1
= C
−1
A
−1
.
(ii) A
t
est inversible et (A
t
)
−1
= (A
−1
)
t
.
Preuve : (i) C
−1
A
−1
AC = C
−1
I
n
C = C
−1
C = I
n
. On montre de mˆeme que ACC
−1
A
−1
= I
n
.
(ii) A
t
(A
−1
)
t
= (A
−1
A)
t
= (I
n
)
t
= I
n
.
Attention : Si A ∈ ´
n,p
(K), n = p, on n’a pas d´efini l’inverse de A et on peut d´emontrer qu’il
n’existe jamais de matrice B ∈ ´
p,n
(K) telle que AB = I
n
et BA = I
p
.
Proposition 5.7.5 On a l’´equivalence de :
(i) A est une matrice carr´ee n n inversible.
(ii) Pour tout B ∈ K
n
le syst`eme lin´eaire AX = B admet une solution unique.
Preuve : a) Montrons que (i) ⇒ (ii). AX = B ⇔ A
−1
AX = A
−1
B ⇔ X = A
−1
B. Le syst`eme
AX = B admet donc une solution et une seule.
b) Montrons que (ii) ⇒ (i). On consid`ere l’endomorphisme de K
n
d´efini par
Φ : K
n
→K
n
X → AX
c’est `a dire l’application lin´eaire de K
n
dans K
n
dont la matrice dans la base canonique de K
n
est A. La propri´et´e (ii) signifie que Φ est bijective. Donc Φ admet une fonction r´eciproque et on
5.7. MATRICES CARR
´
EES INVERSIBLES. 49
sait que la fonction r´eciproque d’une application lin´eaire bijective est une application lin´eaire.
Soit B la matrice de Φ
−1
dans la base canonique de K
n
. Alors AB est la matrice dans la base
canonique de l’application lin´eaire Φ◦ Φ
−1
, c’est `a dire que ABX = Φ◦ Φ
−1
(X). Or Φ◦ Φ
−1
est
l’application identit´e de K
n
: X → X. On sait que la matrice de l’identit´e dans la base canonique
de K
n
est I
n
. Donc AB = I
n
.
De mˆeme, BA est la matrice de l’application lin´eaire Φ
−1
◦ Φ : X → X. Donc BA = I
n
. On a
donc montr´e que A est inversible.
Proposition 5.7.6 Soit A une matrice carr´ee. On a l’´equivalence de :
(i) A est inversible ;
(ii)Le syst`eme lin´eaire homog`ene AX = 0 admet la solution unique X = 0 (ici 0 d´esigne le
vecteur nul de K
n
: 0 =

0
.
.
.

.)
Preuve : (i) ⇒ (ii) est ´evident.
Montrons (ii) ⇒ (i). Soit Φ l’application lin´eaire de K
n
dans K
n
associ´ee canoniquement `a la
matrice A. La propri´et´e (ii) signifie que la noyau de Φ est r´eduit au vecteur nul de K
n
. Cela
implique que Φ est bijective, car Φ est un endomorphisme, donc l’espace vectoriel de d´epart et
d’arriv´ee ont la mˆeme dimension. Donc pour tout vecteur B de K
n
, le syst`eme AX = B admet
une solution unique. On conclut que A est inversible en utilisant la proposition pr´ec´edente.
Corollaire 5.7.7 Consid´erons les n matrices-colonnes de A comme n vecteurs de K
n
. Alors
A est inversible si et seulement si les n colonnes de A sont des vecteurs de K
n
lin´eairement
ind´ependants.
Preuve : Rappelons que si X =

¸
¸
¸
¸
¸
x
1
x
2
.
.
x
n
¸

, alors :
AX = x
1

¸
¸
¸
¸
¸
a
1,1
a
2,1
.
.
a
n,1
¸

+x
2

¸
¸
¸
¸
¸
a
1,2
a
2,2
.
.
a
n,2
¸

+.... +x
n

¸
¸
¸
¸
¸
a
1,n
a
2,n
.
.
a
n,n
¸

.
Dire que le syst`eme AX = 0 admet l’unique solution X = 0 revient donc `a dire que le vec-
teur nul de K
n
s’´ecrit de mani`ere unique comme combinaison lin´eaire des n vecteurs-colonnes
de A, cette mani`ere unique ´etant de prendre les coefficients x
1
= x
2
= ... = x
n
= 0. Par
d´efinition de l’ind´ependance lin´eaire, ceci signifie que les vecteurs-colonnes de A sont lin´eairement
ind´ependants.
Application. Dans ´
2
(K), la matrice

a b
c d

est inversible si et seulement si ad − bc = 0.
Le nombre ad −bc est appel´e le d´eterminant de A.
La notion de d´eterminant se g´en´eralise `a toute dimension n. (Cours d’alg`ebre 2).
Proposition 5.7.8 On a l’´equivalence de
(i) A est inversible
(ii) il existe une matrice B telle que AB = I
n
(iii) il existe une matrice C telle que CA = I
n
.
Preuve : a) Montrons que (ii) ⇒ (i). Pour X ∈ K
n
on (BX = 0) ⇒ (ABX = 0) ⇒ (X = 0).
Donc B est inversible, par la proposition pr´ec´edente. De plus ABB
−1
= B
−1
, donc A = B
−1
.
Donc A est inversible, d’inverse B.
Montrons que (ii) ⇒ (i). (AX = 0) ⇒ (CAX = 0) ⇒ (X = 0). Donc A est inversible.
50 CHAPITRE 5. APPLICATIONS LIN
´
EAIRES EN DIMENSION FINIE. MATRICES
5.8 Matrices carr´ees inversibles et isomorphismes.
Th´eor`eme 5.8.1 Soient E et F deux K-espaces vectoriels de mˆeme dimension n. Soit f : E →
F une application lin´eaire. On a l’´equivalence de
(i) f est un isomorphisme
(ii) Pour toute base B de E et toute base B

de F la matrice carr´ee ´(f, B, B

) est inversible
(iii) Il existe une base B de E et une base B

de F telles que la matrice carr´ee ´(f, B, B

) soit
inversible
Preuve : a) Montrons que (i) ⇒ (ii). Soit f un isomorphisme de E dans F. Soit f
−1
l’applica-
tion lin´eaire r´eciproque de f. La matrice de f ◦f
−1
dans la base B

est le produit des matrices de
f et de f
−1
. Or f ◦ f
−1
= id
F
. Sa matrice dans la base B

est la matrice identit´e I
n
. On a donc
´(f, B, B

)´(f
−1
, B

, B) = I
n
. De mˆeme, f
−1
◦f = id
E
, donc ´(f
−1
, B

, B)´(f, B, B

) =
I
n
. On conclut que ´(f, B, B

) est inversible et que sa matrice inverse est ´(f
−1
, B

, B).
b) Prouvons que (iii) ⇒ (i). Soient B une base de E et B

une base de F telles que la matrice
´(f, B, B

) soit inversible. Notons M cette matrice. Notons M
−1
sa matrice inverse. D´efinissons
l’application lin´eaire g comme ´etant l’application lin´eaire de F dans G dont la matrice dans les
bases B

et B est M
−1
. Alors la matrice de g ◦ f dans la base B est M M
−1
, donc c’est I
n
. On
en d´eduit que g ◦ f = id
E
. La matrice de f ◦ g dans la base B

est M
−1
M, c’est donc aussi
I
n
. On en d´eduit que f ◦ g = id
F
. On conclut que f est bijective.
Exemple : Soit E un R-espace vectoriel de base B = (u
1
, u
2
, u
3
) et soit F un R-espace vectoriel
de base B

= (v
1
, v
2
, v
3
). Soit f : E → F l’application lin´eaire d´efinie par
´(f, B, B

) =

¸
1 0 −1
0 0 2
1 −1 −1
¸

.
On veut savoir si f est un isomorphisme et si oui, calculer l’isomorphisme inverse. On consid`ere
n’importe quel second membre B =

¸
b
1
b
2
b
3
¸

et on cherche `a r´esoudre le syst`eme AX = B :

x
1
−x
3
= b
1
2x
3
= b
2
x
1
−x
2
−x
3
= b
3
Dans ce cas une m´ethode de substitution donne rapidement :

x
3
=
b
2
2
x
1
−x
3
= b
1
x
1
−x
2
−x
3
= b
3
,

x
3
=
b
2
2
x
1
= b
1
+
b
2
2
x
2
= −b
3
+x
1
−x
3
,
donc

x
3
=
b
2
2
x
1
= b
1
+
b
2
2
x
2
= −b
3
+b
1
+
b
2
2

b
2
2
, c’est `a dire :

x
1
= b
1
+
b
2
2
x
2
= b
1
−b
3
x
3
=
b
2
2
Pour tout second membre B on trouve une solution unique, donc f est bijective. On a : X =
´(f
−1
, B

, B)B, donc
´(f
−1
, B

, B) =

¸
1
1
2
0
1 0 −1
0
1
2
0
¸

.
5.9. CALCUL DE LA MATRICE INVERSE. 51
Pour v´erifier qu’il n’y a pas d’erreurs de calcul, on calcule :

¸
1
1
2
0
1 0 −1
0
1
2
0
¸

¸
1 0 −1
0 0 2
1 −1 −1
¸

=

¸
1 0 0
0 1 0
0 0 1
¸

.
Remarquons que pour reconnaˆıtre si f est bijective ou non (sans calculer l’endomorphisme
r´eciproque ´eventuel f
−1
), il suffit de r´esoudre le syst`eme AX = 0. Si on trouve l’unique solution
X = 0, alors le noyau de f est r´eduit au vecteur nul, donc f est injective, donc bijective car
dimE = dimF. Si on trouve un espace vectoriel de solutions de dimension sup´erieure ou ´egale
`a 1, alors f n’est pas injective, donc pas bijective.
5.9 Calcul de la matrice inverse.
On donne une matrice carr´ee A. On veut reconnaˆıtre si A est inversible et si oui calculer son
inverse A
−1
. Par exemple
A =

¸
1 1 2
−1 0 0
2 1 3
¸

Pour cela on r´esoud le syst`eme AX = B, pour B ∈ R
3
.

x +y +2z = b
1
−x = b
2
2x +y +3z = b
3
Pour chaque (b
1
, b
2
, b
3
) on trouve une solution unique qui est :

x = −b
2
y = 3b
1
−b
2
−2b
3
z = −b
1
+b
2
+b
3
.
Donc A est inversible, d’inverse A
−1
=

¸
0 −1 0
3 −1 −2
−1 1 1
¸

. Pour
v´erifier qu’il n’y a pas d’erreurs de calcul, on calcule :

¸
1 1 2
−1 0 0
2 1 3
¸

¸
0 −1 0
3 −1 −2
−1 1 1
¸

=

¸
1 0 0
0 1 0
0 0 1
¸

Remarquons que pour reconnaˆıtre seulement si A est inversible (sans calculer sa matrice inverse
´eventuelle), il suffit de r´esoudre le syst`eme AX = 0. Si on trouve comme unique solution le
vecteur nul de R
3
, alors A est inversible. Sinon, on trouve comme ensemble de solutions un
sous-espace vectoriel de R
3
de dimension 1 ou 2 et A n’est pas inversible.
Proposition 5.9.1 La matrice A est inversible si et seulement si la m´ethode du pivot de Gauss
appliqu´ee aux lignes de la matrice A la transforme en une matrice triangulaire sup´erieure `a
diagonale non nulle. (Rappel : la m´ethode du pivot de Gauss sur les lignes de la matrice A est
la m´ethode qu’on utilise pour r´esoudre les syst`emes lin´eaires de la forme AX = B).
Preuve : La m´ethode du pivot de Gauss transforme la matrice A en une matrice ´echelonn´ee
carr´ee E. Soit cette matrice E est triangulaire sup´erieure `a diagonale non nulle, soit sa ou ses
derni`eres lignes sont nulles. La m´ethode du pivot de Gauss transforme le syst`eme AX = 0 en le
syst`eme ´equivalent EX = 0. Ce dernier syst`eme admet l’unique solution X = 0 si et seulement
si E est triangulaire sup´erieure `a diagonale non nulle.
Remarque : Si on utilise la m´ethode du pivot de Gauss pour ´etudier l’inversibilit´e d’une matrice
A, on a int´erˆet `a transformer en mˆeme temps le second membre B. Ainsi, dans le cas o` u A est
inversible, on pourra lire la matrice inverse A
−1
.
52 CHAPITRE 5. APPLICATIONS LIN
´
EAIRES EN DIMENSION FINIE. MATRICES
Exemple : A =

¸
1 −1 1
2 0 4
1 1 3
¸

. On utilise la m´ethode du pivot de Gauss pour r´esoudre le
syst`eme

x −y +z = b
1
2x +4z = b
2
x +y +3z = b
3
.
. On trouve

x −y +z = b
1
2y +2z = −2b
1
+b
2
2y +2z = −b
1
+b
3
puis

x −y +z = b
1
2y +2z = −2b
1
+b
2
0 = −b
1
+b
2
−b
3
.
Ici, la m´ethode du pivot de Gauss transforme la matrice
A en une matrice ´echelonn´ee dont la derni`ere ligne est nulle : E =

¸
1 −1 1
0 2 2
0 0 0
¸

. Le syst`eme
AX = B a soit aucune solution, soit une infinit´e de solutions, selon la valeur de (b
1
, b
2
, b
3
). Le
syst`eme AX = 0 a une infinit´e de solutions. Donc A n’est pas inversible. (Remarquons que la
transformation du second membre ne sert `a rien ici !)
5.10 Alg`ebre des matrices nn.
Sur l’ensemble des matrices carr´ees nn, on a trois op´erations : l’addition, la multiplication
par les scalaires et la multiplication des matrices. Les propri´et´es de ces op´erations permettent
de dire que
(i) (´
n
(K), +, .) est un K-espace vectoriel (. d´esigne la multiplication d’une matrice par un
scalaire)
(ii) (´
n
(K), +, ) est un anneau ( d´esigne la multiplication des matrices).
On dit que (´
n
(K), +, ) est un anneau car : a) (´
n
(K), +) est un groupe ab´elien ; b) la
multiplication des matrices est associative et doublement distributive par rapport `a l’addition.
(Voir le paragraphe sur les op´erations.) De plus, la matrice I
n
v´erifie : pour toute A ∈ ´
n
(K),
A I
n
= I
n
A = A. On dit que l’anneau (´
n
(K), +, ) est unitaire et que I
n
est l’´el´ement
unit´e.
De plus, on a la propri´et´e suivante :
Si λ ∈ K, (λA) C = λ(AC) = A(λC).
Grace `a toutes ces propri´et´es, on dit que (´
n
(K), +, ., ) est une alg`ebre sur K.
Remarquons qu’on peut faire des calculs portant sur des matrices carr´ees, presque comme s’il
s’agissait de nombres r´eels ou complexes. Mais il y a des diff´erences importantes :
(i) La multiplication des matrices n’est pas commutative ;
(ii) une matrice non nulle n’admet pas forc´ement une matrice inverse. Par exemple dans
´
2
(R) la matrice A =

1 2
1 2

est non nulle et n’est pas inversible.
(iii) Le produit de deux matrices non nulles peut ˆetre nul. (On dit que l’anneau des matrices
carr´ees a des diviseurs de 0.) Exemple B =

0 2
0 0

. On a B = 0 et B
2
= 0.
(iv) On a l’identit´e remarquable :
(A+B)
2
= A
2
+B
2
+AB +BA.
Exercice a) Montrer que (A + B)
2
n’est n’est pas toujours ´egal `a A
2
+ 2AB + B
2
. (Voir par
exemple A =

0 1
0 0

et B =

0 0
0 1

.)
b) Montrer que (A + B)(A − B) = A
2
− B
2
+ BA − AB et que ce n’est pas toujours ´egal `a
A
2
−B
2
.
Chapitre 6
Changements de bases.
6.1 Changement de coordonn´ees. Matrice de passage.
Soit E un K−espace vectoriel de dimension n = 0. Soit (e
1
, ..., e
n
) une base de E, qu’on
notera B. Si u est un vecteur de E on notera en colonne le n−uplet des coordonn´ees de u dans
la base (e
1
, ..., e
n
). On l’appelera la colonne des coordonn´ees de u dans la base (e
1
, ..., e
n
).
Attention : Si u a pour coordonn´ees

¸
¸
¸
x
1
.
.
x
n
¸

dans la base (e
1
, ..., e
n
), on n’´ecrit pas
u =

¸
¸
¸
x
1
.
.
x
n
¸

. En effet, d’abord u est un vecteur de l’espace vectoriel E, qui n’est pas toujours
K
n
. Ensuite si on prend une autre base (e

1
, ..., e

n
) de E, la colonne des coordonn´ees de u dans
cette nouvelle base ne sera pas la mˆeme que dans l’ancienne base (e
1
, ..., e
n
).
Attention : Il y a une exception `a l’avertissement donn´e ci-dessus. Si u est un vecteur de K
n
,
alors c’est un n−uplet d’´el´ements de K, soit u = (x
1
, ..., x
n
). Les coordonn´ees de u dans la base
canonique de K
n
sont exactement ses composantes x
1
,...,x
n
. Dans ce cas (mais seulement dans
ce cas), il n’est pas faux d’´ecrire le vecteur u en colonne, c’est `a dire d’´ecrire : u =

¸
¸
¸
x
1
.
.
x
n
¸

!
Soient e

1
,...,e

n
n vecteurs de E. On se pose la question suivante : `a quelle condition les vecteurs
e

1
,...,e

n
forment-ils une base de E ?
R´eponse : comme ils sont en nombre ´egal `a la dimension de E, ils forment une base de E si et
seulement si ils forment une famille libre.
Appelons C
1
la colonne des coordonn´ees du vecteur e

1
dans la base (e
1
, ..., e
n
) ,... et C
n
la
colonne des coordonn´ees du vecteur e

n
dans la base (e
1
, ..., e
n
). Alors on sait que les vecteurs
e

1
,...,e

n
forment une famille libre de E si et seulement si C
1
,...,C
n
forment une famille libre de
K
n
.
Enfin, on sait que les vecteurs C
1
,...,C
n
forment une famille libre de K
n
si et seulement si la
matrice dont les colonnes sont C
1
,....,C
n
est une matrice n n inversible.
Ceci montre la proposition suivante :
Proposition 6.1.1 Soient e

1
,...,e

n
n vecteurs de E. Soient C
1
,....,C
n
les colonnes des coor-
donn´ees de e

1
,...,e

n
dans la base (e
1
, ..., e
n
). Soit P ∈ ´
n
(K) la matrice dont la j`eme colonne
53
54 CHAPITRE 6. CHANGEMENTS DE BASES.
est C
j
. Alors les vecteurs e

1
,....,e

n
forment une base de E si et seulement si la matrice P est
inversible.
D´efinition 6.1.2 Quand la matrice P d´efinie ci-dessus est inversible, on l’appelle la matrice
de passage de la base (e
1
, ..., e
n
) `a la base (e

1
, ..., e

n
). La base (e
1
, ..., e
n
) sera appel´ee l’ancienne
base et la base (e

1
, ..., e

n
) sera appel´ee la nouvelle base.
Soit u ∈ E et soit X =

¸
¸
x
1
.
.
.
x
n
¸

la colonne des coordonn´ees de u dans la base (e
1
, ..., e
n
).
On se pose la question suivante : comment calculer les coordonn´ees de u dans la nouvelle base
(e

1
, ..., e

n
) ?
Th´eor`eme 6.1.3 Soient (e
1
, ..., e
n
) d’une part et (e

1
, ..., e

n
) d’autre part, deux bases de E. Soit
P la matrice de passage de la base (e
1
, ..., e
n
) `a la base (e

1
, ..., e

n
). Si la colonne des coordonn´ees
du vecteur u dans la base (e
1
, ..., e
n
) est X =

¸
¸
x
1
.
.
.
x
n
¸

, alors la colonne X

de ses coordonn´ees
dans la base (e

1
, ..., e

n
) se d´eduit de la formule : X = PX

.
C’est `a dire :

¸
¸
x
1
.
.
.
x
n
¸

= P

¸
¸
x

1
.
.
.
x

n
¸

.
On a la formule ´equivalente : X

= P
−1
X.
Preuve :
u = x
1
e
1
+... +x
n
e
n
et u = x

1
e

1
+... +x

n
e

n
.
Or on a, par la d´efinition de la matrice P :

e

1
= p
1,1
e
1
+ + p
n,1
e
n
(1`ere colonne de P)
.
.
.
e

n
= p
1,n
e
1
+ + p
n,n
e
n
(ni`eme colonne de P)
On remplace les e

i
par leurs d´ecompositions sur la base des e
j
, dans la deuxi`eme formule donnant
u ci-dessus. On trouve :
u = x

1
(p
1,1
e
1
+p
2,1
e
2
+. . . +p
n,1
e
n
) +. . . +x

n
(p
1,n
e
1
+p
2,n
e
2
+. . . +p
n,n
e
n
),
ce qui donne :
u = (p
1,1
x

1
+p
1,2
x

2
+. . .+p
1,n
x

n
)e
1
+(p
2,1
x

1
+p
2,2
x

2
+. . .+p
2,n
x

n
)e
2
+. . .+(p
n,1
x

1
+p
n,2
x

2
+. . .+p
n,n
x

n
)e
n
.
Or il n’y a qu’une seule d´ecomposition de u sur la base e
1
,...,e
n
. Donc les scalaires qui appa-
raissent comme coefficients des vecteurs e
i
dans la formule ci-dessus sont les coordonn´ees de u
dans la base e
1
,...,e
n
. On a donc :

x
1
= p
1,1
x

1
+ p
1,2
x

2
+ . . . + p
1,n
x

n
x
2
= p
2,1
x

1
+ p
2,2
x

2
+ . . . + p
2,n
x

n
.
.
.
x
n
= p
n,1
x

1
+ p
n,2
x

2
+ . . . + p
n,n
x

n
,
Autrement dit : X = PX

.
6.1. CHANGEMENT DE COORDONN
´
EES. MATRICE DE PASSAGE. 55
Attention : Un vecteur u de E ´etant donn´e, la matrice de passage P permet de calculer les
”anciennes” coordonn´ees de u (ou coordonn´ees de u dans l’ancienne base) en fonction des ”nou-
velles” coordonn´ees de u (ou coordonn´ees de u dans la nouvelle base). Comment s’en souvenir ?
On teste la formule X = PX

sur le premier vecteur de la nouvelle base, e

1
. On sait que la
premi`ere colonne de P est form´ee des coordonn´ees du vecteur e

1
dans la base (e
1
, ..., e
n
). Or on
sait que pour n’importe quelle matrice A, le produit de A par la colonne

¸
¸
¸
¸
1
0
.
.
.
0
¸

est la premi`ere
colonne de A. On a donc
P

¸
¸
¸
¸
1
0
.
.
.
0
¸

= 1`ere colonne de P =

¸
¸
¸
¸
p
1,1
p
2,1
.
.
.
p
n,1
¸

.
Or la colonne

¸
¸
¸
¸
1
0
.
.
.
0
¸

est la colonne des coordonn´ees du vecteur e

1
dans la nouvelle base. La
colonne

¸
¸
¸
¸
p
1,1
p
2,1
.
.
.
p
n,1
¸

est la colonne des coordonn´ees du mˆeme vecteur e

1
dans l’ancienne base. On
a donc bien v´erifi´e la formule X = PX

, quand X et X

sont les colonnes des coordonn´ees du
vecteur e

1
.
Exemple : Soit R
4
muni de la base canonique (e
1
, ..., e
4
). Soient les vecteurs e

1
,...,e

4
de R
4
donn´es par leurs composantes (qui sont aussi leurs coordonn´ees dans la base canonique) :
e

1
=

¸
¸
¸
1
2
0
0
¸

e

2
=

¸
¸
¸
0
1
0
0
¸

e

3
=

¸
¸
¸
0
0
2
1
¸

et e

4
=

¸
¸
¸
0
0
1
2
¸

.
V´erifions que les vecteurs e

1
, e

2
, e

3
, e

4
forment une base de R
4
. On remarque que les coor-
donn´ees de ces vecteurs sont presque ´echelonn´ees. On raisonne suivant la mani`ere habituelle pour
des vecteurs de coordonn´ees ´echelonn´ees. D’abord on voit que e

4
et e

3
ne sont pas colin´eaires,
donc ils sont lin´eairement ind´ependants. Puis on voit que e

2
n’est pas combinaison lin´eaire de e

3
et e

4
, sinon sa deuxi`eme coordonn´ee serait nulle. Comme e

3
et e

4
sont lin´eairement ind´ependants,
cela prouve que e

2
, e

3
, e

4
sont lin´eairement ind´ependants. Alors e

1
,...,e

4
sont li´es si et seulement
si e

1
s’´ecrit comme combinaison lin´eaire de e

2
, e

3
, e

4
. Or e

1
n’est pas combinaison lin´eaire de
ces trois vecteurs, sinon sa premi`ere composante serait nulle. Donc les quatre vecteurs e

1
, e

2
, e

3
,
e

4
sont lin´eairement ind´ependants. Comme leur nombre est 4, ils forment une base de R
4
. Soit
u le vecteur de R
4
donn´e par ses 4 composantes :
u =

¸
¸
¸
1
1
1
1
¸

. La colonne

¸
¸
¸
1
1
1
1
¸

est le vecteur u, mais c’est aussi la colonne des coordonn´ees
du vecteur u dans la base canonique de R
4
. Cherchons les coordonn´ees de u dans la nouvelle
base (e

1
, e

2
, e

3
, e

4
). Ecrivons la matrice de passage P de la base canonique (ancienne base) `a la
nouvelle base.
56 CHAPITRE 6. CHANGEMENTS DE BASES.
P =

¸
¸
¸
1 0 0 0
2 1 0 0
0 0 2 1
0 0 1 2
¸

e
1
e
2
e
3
e
4
e

1
e

2
e

3
e

4
.
Les coordonn´ees X

de u dans la nouvelle base sont donn´ees par la formule X = PX

, c’est
`a dire :

1 = x

1
1 = 2x

1
+x

2
1 = 2x

3
+x

4
1 = x

3
+ 2x

4
Il reste `a r´esoudre ce syst`eme. On trouve

x

1
= 1
x

2
= −1
2x

3
+x

4
= 1
3x

4
= 1
d’o` u

x

1
= 1
x

2
= −1
x

3
= 1/3
x

4
= 1/3
Les nouvelles coordonn´ees de u sont donc donn´ees par la colonne

¸
¸
¸
1
−1
1/3
1/3
¸

Attention : Le vecteur u n’est pas ´egal `a cette colonne. On a seulement : u = e

1
−e

2
+
1
3
e

3
+
1
3
e

4
.
(Formule qu’on peut v´erifier pour d´etecter d’´eventuelles erreurs de calcul).
On aurait pu r´esoudre le probl`eme autrement. D’abord prouver que P est inversible et
calculer P
−1
. Alors le fait que P soit inversible montre que (e

1
, e

2
, e

3
, e

4
) est une base de R
4
.
Puis on calcule les nouvelles coordonn´ees de u par la formule X

= P
−1
X.
6.2 Formule de changement de base pour une application lin´eaire.
Th´eor`eme 6.2.1 Soit f : E → F une application lin´eaire. Soient (u
1
, ..., u
p
) et (u

1
, ..., u

p
) deux
bases de E et soient (v
1
, ..., v
n
) et (v

1
, ..., v

n
) deux bases de F. Soit A la matrice de f dans les
bases (u
1
, ..., u
p
) et (v
1
, ..., v
n
) et soit A

la matrice de f dans les bases (u

1
, ..., u

p
) et (v

1
, ..., v

n
).
Appelons P la matrice de passage de la base (u
1
, ..., u
p
) `a la base (u

1
, ..., u

p
) et Q la matrice de
passage de la base (v
1
, ..., v
n
) `a la base (v

1
, ..., v

n
). Alors on a la formule suivante :
A

= Q
−1
AP.
Preuve : La preuve est `a connaˆıtre, car il faut ˆetre capable de retrouver la formule. On va
donner deux preuves diff´erentes (retenir celle qui semble la plus simple !)
Premi`ere d´emonstration. Montrons que QA

= AP. Pour cela, on calcule de deux mani`eres
la matrice de f dans les bases (u

1
, ..., u

p
) et (v
1
, ..., v
n
). D’une part on ´ecrit : f = id
F
◦ f. La
matrice Q est la matrice de id
F
dans les bases (v

1
, ..., v

n
) et (v
1
, ..., v
n
). La matrice A

est la
matrice de f dans les bases (u

1
, ..., u

p
) et (v

1
, ..., v

n
). Par le th´eor`eme de composition, la matrice
de f = id
F
◦f dans les bases (u

1
, ..., u

p
) et (v
1
, ..., v
n
) est QA

. D’autre part, on ´ecrit : f = id
E
◦f.
La matrice P est la matrice de id
E
dans les bases (u

1
, ..., u

p
) et (u
1
, ..., u
p
). La matrice A est la
matrice de f dans les bases (u
1
, ..., u
p
) et (v
1
, ..., v
n
). Donc la matrice de la fonction compos´ee
f = id
E
◦ f dans les bases (u

1
, ..., u

p
) et (v
1
, ..., v
n
) est AP. On a donc calcul´e la matrice de
f dans les bases (u

1
, ..., u

p
) et (v
1
, ..., v
n
) de deux mani`eres diff´erentes. Comme il n’y a qu’une
seule matrice, on a AP = QA

.
Deuxi`eme d´emonstration. (N´ecessite de connaˆıtre la formule de changement de base pour
les vecteurs). On donne un vecteur u de E. Soit X la colonne de ses coordonn´ees dans la
base (u
1
, ..., u
p
) et X

la colonne de ses coordonn´ees dans la base (u

1
, ..., u

p
). Le vecteur f(u)
appartient `a F. Appelons Y la colonne de ses coordonn´ees dans la base (v
1
, ..., v
n
) et Y

la
colonne de ses coordonn´ees dans la base (v

1
, ..., v

n
). On : Y = AX et Y

= A

X

. Or X = PX

et Y = QY

. On substitue PX

`a X et QY

`a Y dans la formule Y = AX. On trouve QY

=
6.2. FORMULE DE CHANGEMENT DE BASE POUR UNE APPLICATION LIN
´
EAIRE.57
APX

, donc Y

= Q
−1
APX

. Comme cela est vrai pour tout vecteur u de E, on en d´eduit que
A

= Q
−1
AP.
Exemple : Soit
f : R
2
→R
3
(x, y) → (2x + 3y, x, x −y)
. Appelons (e
1
, e
2
) la base canonique de R
2
et
(¯ e
1
, ¯ e
2
, ¯ e
3
) la base canonique de R
3
. La matrice de f dans les bases canoniques de R
2
et R
3
est

¸
2 3
1 0
1 −1
¸

. On donne u
1
= (1, 2) et u
2
= (0, 1) deux vecteurs de R
2
. Ils forment une
base de R
2
car ils ne sont pas colin´eaires. On donne trois vecteurs de R
3
: v
1
= (1, −1, 0),
v
2
= (1, 2, 1) et v
3
= (0, 1, 2). On voit que v
1
et v
2
sont lin´eairement ind´ependants. Donc v
1
,
v
2
, v
3
ne peuvent ˆetre li´es que si v
3
est une combinaison lin´eaire de v
1
et v
2
, c’est `a dire si il
existe des r´eels α et β tels que

0 = α +β
1 = −α + 2β
2 = β
et ce syst`eme n’a pas de solution, donc v
1
,
v
2
, v
3
sont lin´eairement ind´ependants. Ils forment une base de R
3
. La matrice de passage de
la base canonique de R
2
`a la base (u
1
, u
2
) est P =

1 0
2 1

et la matrice de passage de la
base canonique de R
3
`a la base (v
1
, v
2
, v
3
) est Q =

¸
1 1 0
−1 2 1
0 1 2
¸

. On inverse la matrice Q.
On trouve Q
−1
=
1
5

¸
3 −2 1
2 2 −1
−1 −1 3
¸

. Le produit Q
−1
AP donne A

=
1
5

¸
21 8
19 7
−12 −6
¸

. Ceci
signifie que f(u
1
) =
1
5
(21v
1
+ 19v
2
−12v
3
) et f(u
2
) =
1
5
(8v
1
+ 7v
2
−6v
3
).
D´efinition 6.2.2 Soient A et A

deux matrices de ´
n,p
(K). Si il existe deux matrices inver-
sibles P ∈ ´
p
(K) et Q ∈ ´
n
(K) telles que A

= Q
−1
AP, on dit que A et A

sont des matrices
´equivalentes. Si A et A

∈ ´
p
(K) et s’il existe une matrice inversible P ∈ ´
p
(K) telle que
A

= P
−1
AP, on dit que A et A

sont des matrices semblables.
Exercice : La relation 1 d´efinie sur ´
n,p
(K) par ”A1A

s’il existe deux matrices inversibles
P ∈ ´
p
(K) et Q ∈ ´
n
(K) telles que A

= Q
−1
AP” est une relation d’´equivalence.
58 CHAPITRE 6. CHANGEMENTS DE BASES.
Chapitre 7
Rang d’une matrice, retour aux
syst`emes lin´eaires.
7.1 Rang d’une matrice. Rang d’un syst`eme lin´eaire.
D´efinition 7.1.1 Soient n, p ∈ N

et soit A ∈ ´
n,p
(K). On appelle rang de A le rang des p
colonnes de A, consid´er´ees comme des vecteurs de K
n
. (C’est `a dire la dimension du sous-espace
vectoriel de K
n
engendr´e par les p colonnes de A.)
Proposition 7.1.2 Soit (u
1
, ..., u
p
) une base de E, (v
1
, ..., v
n
) une base de F et soit f : E → F
une application lin´eaire. Soit A la matrice de f dans les bases (u
1
, ..., u
p
) et (v
1
, ..., v
n
). Alors le
rang de f est ´egal au rang de A.
Preuve : On a rg (f) = dimImf = dimVect ¦f(u
1
), ..., f(u
p
)¦. Et rg (A) = dimVect ¦C
1
, ..., C
p
¦
o` u C
1
,...,C
p
sont les colonnes de A. Mais on sait que la j`eme colonne C
j
est la colonne des coor-
donn´ees du vecteur f(u
j
) dans la base (v
1
, ..., v
n
). Par cons´equent la famille des vecteurs f(u
1
),
...,f(u
p
) et la famille des vecteurs C
1
,...,C
p
ont le mˆeme rang. Donc rg (f) = rg (A).
Corollaire 7.1.3 Si A et A

sont deux matrices ´equivalentes, alors elles ont le mˆeme rang.
Preuve : Par hypoth`ese il existe deux matrices inversibles P ∈ ´
p
(K) et Q ∈ ´
n
(K) telles
que A

= Q
−1
AP. Soit Φ l’application lin´eaire de K
p
dans K
n
associ´ee canoniquement `a la
matrice A. Soient u
1
,...,u
p
les vecteurs de K
p
constitu´es par les colonnes de P. Alors, comme P
est inversible, (u
1
, ..., u
p
) est une base de K
p
et P est la matrice de passage de la base canonique
de K
p
`a la base (u
1
, ..., u
p
) . De mˆeme on consid`ere les colonnes de Q. Ce sont n vecteurs de K
n
,
appel´es v
1
,...,v
n
, qui forment une base de K
n
et Q est la matrice de passage de la base canonique
de K
n
`a la base (v
1
, ..., v
n
). Par la formule de changement de base, la matrice A

est la matrice de
l’application lin´eaire Φ dans les bases (u
1
, ..., u
p
) et (v
1
, ..., v
n
). Donc rg (A) = rg (Φ) = rg (A

).
Remarque : Soit A une matrice. On connaˆıt deux mani`eres diff´erentes de calculer le rang de
A. La premi`ere m´ethode consiste `a trouver le rang des colonnes de A par la m´ethode expliqu´ee
au Chapitre 3 (page 31) : on applique la m´ethode du pivot de Gauss aux colonnes de A. La
deuxi`eme m´ethode consiste `a trouver la dimension du noyau de Φ, o` u Φ est l’application lin´eaire
associ´ee canoniquement `a A. On utilise ensuite la formule : dimImΦ+dimKer Φ = p, qui donne
rg A = p −dimKer Φ. (En effet, on sait par la proposition ci-dessus que rg A = dimImΦ.)
D´efinition 7.1.4 Soit A ∈ ´
n,p
(K). On consid`ere le syst`eme lin´eaire AX = 0. On dit que les
lignes du syst`eme sont lin´eairement ind´ependantes si les n matrices-lignes de A : (a
1,1
, ..., a
1,p
),....,
(a
n,1
, ..., a
n,p
) (consid´er´ees comme des vecteurs de K
p
) sont lin´eairement ind´ependantes.
59
60 CHAPITRE 7. RANG D’UNE MATRICE, RETOUR AUX SYST
`
EMES LIN
´
EAIRES.
Exemple : On donne le syst`eme lin´eaire homog`ene

2x −y +3z = 0
x −3y +z = 0
Les lignes du syst`eme sont lin´eairement ind´ependantes.
D´efinition 7.1.5 Soit A ∈ ´
n,p
(K). On appelle rang du syst`eme homog`ene AX = 0 le rang
des matrices-lignes de A (consid´er´ees comme des vecteurs de K
p
).
C’est la dimension du sous-espace vectoriel de K
p
engendr´e par les n lignes de A. C’est aussi le
nombre maximal de lignes ind´ependantes parmi les lignes de A. On dit aussi que c’est le nombre
maximal d’´equations ind´ependantes pour le syst`eme AX = 0. On va donner une formule qui lie
le rang du syst`eme homog`ene AX = 0 et la dimension de l’espace vectoriel des solutions.
Le probl`eme : on donne un syst`eme lin´eaire homog`ene `a n lignes et p colonnes, de rang r.
Soit F le sous-espace vectoriel de K
p
form´e par les solutions de ce syst`eme. Trouver la dimension
de F et une base de F.
Exemple : Soit F le sous-espace vectoriel de R
4
form´e par les solutions (x, y, z, t) du syst`eme
lin´eaire homog`ene
(Σ)

2x− y+ 3z+ t = 0
y− z+ t = 0
C’est un syst`eme ´echelonn´e. Il y a deux inconnues principales : x et y et deux inconnues non
principales qu’on prend comme param`etres : z et t. On r´esoud (Σ) par la m´ethode de la remont´ee.
On trouve la solution

x = −z −t
y = z −t
. Donc le vecteur

¸
¸
¸
x
y
z
t
¸

est solution du syst`eme (Σ) si
et seulement si

¸
¸
¸
x
y
z
t
¸

= z

¸
¸
¸
−1
1
1
0
¸

+t

¸
¸
¸
−1
−1
0
1
¸

.
Cela montre que les vecteurs u
1
=

¸
¸
¸
−1
1
1
0
¸

et u
2
=

¸
¸
¸
−1
−1
0
1
¸

engendrent F. Montrons qu’ils
forment une base de F. Il suffit d´emontrer qu’ils sont lin´eairement ind´ependants. On remarque
que si z

¸
¸
¸
−1
1
1
0
¸

+t

¸
¸
¸
−1
−1
0
1
¸

=

¸
¸
¸
0
0
0
0
¸

, alors z = t = 0 car z et t sont des composantes du vec-
teur

¸
¸
¸
0
0
0
0
¸

. Donc u
1
et u
2
forment une base de F et la dimension de F est 2. Par ailleurs le rang
du syst`eme est deux, car du fait qu’il est ´echelonn´e, les lignes sont lin´eairement ind´ependantes.
Dans ce cas, on trouve dimF = p −r.
G´en´eralisons ce r´esultat.
Proposition 7.1.6 Soit le syst`eme lin´eaire homog`ene AX = 0, de dimension n p et de rang
r. La dimension de l’espace vectoriel F des solutions de ce syst`eme est p −r.
La d´emonstration de cette proposition d´ecoule de deux lemmes.
7.1. RANG D’UNE MATRICE. RANG D’UN SYST
`
EME LIN
´
EAIRE. 61
Lemme 7.1.7 Le rang des lignes du syst`eme homog`ene AX = 0 est ´egal au nombre de lignes
non nulles du syst`eme ´echelonn´e ´equivalent EX = 0 obtenu par la m´ethode du pivot de Gauss.
Preuve C’est le raisonnement du chapitre 3, page 31, mais appliqu´e aux lignes de la matrice
A, not´ees L
1
,...,L
n
, consid´er´ees comme des vecteurs de K
p
. On rappelle le principe : si λ
2
,...,λ
n
sont des scalaires, alors le sous-espace vectoriel de K
p
engendr´e par les vecteurs L
1
,...,L
n
est le
mˆeme que les sous-espace vectoriel engendr´e par les vecteurs L
1
, L
2
−λ
2
L
1
,...,L
n
−λ
n
L
1
. Donc
les lignes obtenues apr`es la premi`ere it´eration du pivot de Gauss ont le mˆeme rang que les lignes
L
1
,...,L
n
. On r´eit`ere le proc´ed´e. Une fois termin´ee la m´ethode du pivot de Gauss le rang des n
lignes obtenues est ´egal au rang des lignes L
1
,...,L
n
. Or, `a cause du caract`ere ´echelonn´e, le rang
des n lignes obtenues est le nombre, appel´e r, de lignes non nulles (car on montre facilement que
les r lignes non nulles, ´echelonn´ees, sont lin´eairement ind´ependantes) .
Lemme 7.1.8 Soit un syst`eme lin´eaire ´echelonn´e homog`ene de dimension r p, dont les r
´equations sont non nulles. Alors la dimension de l’espace vectoriel F des solutions de ce syst`eme
est ´egal au nombre d’inconnues non principales, c’est p −r.
Preuve : Rappelons que dans un tel syst`eme, il y a r inconnues principales et p −r inconnues
non principales qu’on prend comme param`etres. Quitte `a r´eindexer les inconnues, appelons
x
1
,...,x
r
les inconnues principales et x
r+1
,..., x
p
les p − r param`etres. Pour chaque valeur du
(p − r)−uplet (x
r+1
, ..., x
p
) on trouve une unique solution du syst`eme par la m´ethode de la
remont´ee. Appelons u
r+1
la solution (x
1
, ..., x
p
) trouv´ee pour (x
r+1
, ..., x
p
) = (1, 0, ...0), u
r+2
la
solution trouv´ee pour (x
r+1
, ..., x
p
) = (0, 1, 0...0),..., u
p
la solution trouv´ee pour (x
r+1
, ..., x
p
) =
(0, ..., 0, 1). Soit le vecteur u d´efini par u = x
r+1
u
r+1
+ ... + x
p
u
p
. Alors u est une solution du
syst`eme comme combinaison lin´eaire de solutions. Les p − r derni`eres composantes du vecteur
u sont x
r+1
,...,x
p
. R´eciproquement, si u = (x
1
, ..., x
p
) est une solution du syst`eme, alors le
vecteur x
r+1
u
r+1
+... +x
p
u
p
est une solution du syst`eme pour les mˆemes valeurs x
r+1
,...,x
p
des
param`etres, donc il est ´egal `a u. L’ensemble des solutions est donc
F = ¦(x
1
, ..., x
p
) = x
r+1
u
r+1
+... +x
p
u
p
; x
r+1
∈ K, ..., x
p
∈ K¦.
Les vecteurs u
r+1
,...,u
p
engendrent donc F. De plus la d´ecomposition de toute solution u comme
combinaison lin´eaire des vecteurs u
r+1
,...,u
p
est unique, puisque les coefficients qui apparaissent
dans la d´ecomposition sont n´ecessairement les p − r derni`eres composantes de u. Les p − r
vecteurs u
r+1
,...,u
p
forment donc une base de F.
Preuve de la proposition 7.1.6 Le rang r des lignes de A se calcule par la m´ethode
du pivot de Gauss appliqu´ee aux lignes de A. Il est ´egal au nombre d’´equations non nulles
dans le syst`eme ´echelonn´e qu’on trouve apr`es l’utilisation de l’algorithme du pivot de Gauss
pour r´esoudre le syst`eme AX = 0. Soit F l’espace vectoriel des solutions du syst`eme homog`ene
AX = 0. C’est aussi l’ensemble des solutions du syst`eme ´echelonn´e `a r lignes non nulles EX = 0,
obtenu par la m´ethode du pivot de Gauss. Donc dimF = p −r.
Proposition 7.1.9 Pour toute matrice, le rang des lignes est ´egal au rang des colonnes.
Preuve : Soit A ∈ ´
n,p
(K). Appelons r le rang des lignes de A, r

le rang de A (c’est `a dire le
rang des colonnes de A) et F l’espace vectoriel des solutions du syst`eme homog`ene AX = 0. On
a vu que dimF = p − r. Soit Φ l’application lin´eaire de K
p
dans K
n
associ´ee canoniquement `a
A. Alors F = Ker Φ. Par ailleurs, r

= dimImΦ. Par le th´eor`eme de la dimension on a
dimK
p
= dimKer Φ + dimImΦ,
donc p = dimF +r

, d’o` u dimF = p −r

. Par cons´equent p −r

= p −r, donc r = r

.
Exemple : A =

2 −4 1
0 −1 1

. Le syst`eme AX = 0 est

2x −4y +z = 0
−y +z = 0.
Le rang des
lignes de A est 2. On v´erifie que le rang des colonnes aussi : C
3
= −C
2

3
2
C
1
. L’espace vectoriel
62 CHAPITRE 7. RANG D’UNE MATRICE, RETOUR AUX SYST
`
EMES LIN
´
EAIRES.
des solutions sera de dimension 3 − 2 = 1. En effet, c’est la droite vectorielle de base

¸
3
2
2
¸

.
Pour la premi`ere ´equation prise s´epar´emment, l’espace vectoriel des solutions est de dimension
3 − 1 = 2 (car le rang est 1), c’est un plan vectoriel. De mˆeme pour la seconde ´equation.
La droite vectorielle F est donc l’intersection de deux plans vectoriels (qu’on repr´esente, dans
l’espace R
3
, comme deux plans qui passent par le point (0, 0)). Donnons des bases de ces deux
plans vectoriels.
(2x −4y +z = 0) ⇔ (z = −2x + 4y) ⇔

¸
x
y
z
¸

= x

¸
1
0
−2
¸

+y

¸
0
1
4
¸

et (−y + z = 0) ⇔ (y = z) ⇔

¸
x
y
z
¸

= x

¸
1
0
0
¸

+ z

¸
0
1
1
¸

. On a donc trouv´e une
base pour chacun des deux plans vectoriels admettant pour ´equation cart´esienne chacune des
´equations du syst`eme.
Proposition 7.1.10 Soit E un espace vectoriel de dimension p.
(i) Le noyau de toute forme lin´eaire non nulle de E est un hyperplan de E.
(ii) Tout hyperplan de E est le noyau d’une forme lin´eaire non nulle.
Rappel : par d´efinition, un hyperplan de l’espace vectoriel E de dimension p est un sous-espace
vectoriel de dimension p −1.
Preuve (i) Soit f une forme lin´eaire non nulle de E. C’est une application lin´eaire non iden-
tiquement nulle de E dans K. Son image est un sous-espace vectoriel de K non r´eduit `a z´ero,
donc Imf = K (car dimK = 1). On a dimKer f + dimImf = dimE, donc dimKer f = p −1.
(ii) Soit H un hyperplan de E. Fixons une base (e
1
, ..., e
p
) de E. On sait que tout sous-espace
vectoriel de E admet un syst`eme d’´equations cart´esiennes dans cette base. C’est vrai en particu-
lier pour H. Si u est un vecteur de E, on appelle X la colonne de ses coordonn´ees dans la base
(e
1
, ..., e
p
). Il existe une matrice A telle que u ∈ H si est seulement si X est solution du syst`eme
lin´eaire AX = 0. Comme dimH = p − 1, le rang du syst`eme lin´eaire AX = 0 est 1. Il existe
donc un syst`eme ´equivalent qui n’a qu’une seule ´equation (c’est le syst`eme ´echelonn´e obtenu
par la m´ethode du pivot). Donc il existe (a
1
, ..., a
p
) = (0, ..., 0) tel que u ∈ H si et seulement si
a
1
x
1
+ ... + a
p
x
p
= 0. Consid´erons La forme lin´eaire f dont la matrice dans la base (e
1
, ..., e
p
)
est (a
1
, ..., a
p
). Alors E = ker f.
Remarque : Soit A ∈ ´
n,p
(K). Le K-espace vectoriel des solutions du syst`eme lin´eaire ho-
mog`ene AX = 0 est l’intersection de n hyperplans de K
p
.
D´efinition 7.1.11 Soit A ∈ ´
n,p
(K). On appelle matrice extraite de A toute matrice A


´

n

,p
(K), 1 ≤ n

≤ n, 1 ≤ p

≤ p, obtenue `a partir de A en rayant n − n

lignes et p − p

colonnes.
Proposition 7.1.12 Soit A ∈ ´
n,p
(K). Soit r le rang de A. Alors il existe une matrice carr´ee
extraite de A, de dimension r r et inversible. C’est le cas pour toute matrice r r extraite de
A en choisissant r lignes lin´eairement ind´ependantes et r colonnes lin´eairement ind´ependantes
et en rayant les autres. De plus, si r

> r, toute matrice carr´ee extraite de A et de dimension
r

r

(s’il en existe) est non inversible.
Preuve : Choisissons r colonnes de A lin´eairement ind´ependantes et r lignes de A lin´eairement
ind´ependantes et rayons toutes les autres lignes et les autres colonnes. On obtient une matrice
carr´ee A

de dimension r r. Montrons que les r lignes de A

sont lin´eairement ind´ependantes.
7.1. RANG D’UNE MATRICE. RANG D’UN SYST
`
EME LIN
´
EAIRE. 63
Supposons, pour simplifier les notations, qu’on a gard´e les r premi`eres lignes et les r premi`eres
colonnes de A.
A =

¸
¸
¸
¸
¸
¸
¸
¸
¸
a
1,1
. . . a
1,r
a
1,r+1
. . . a
1,p
a
2,1
. . . a
2,r
a
2,r+1
. . . a
2,p
.
.
.
a
r,1
. . . a
r,r
a
r,r+1
. . . a
r,p
.
.
.
a
n,1
. . . a
n,r
a
n,r+1
. . . a
n,p
¸

Ecrivons une relation lin´eaire entre les lignes de A

. Soient λ
1
,...,λ
r
∈ K telles que
λ
1
(a
1,1
, ..., a
1,r
) +... +λ
r
(a
r,1
, ..., a
r,r
) = (0, ..., 0).
Il s’agit de prouver que n´ecessairement λ
1
= ... = λ
r
= 0. Dans ce but on va prouver que :
λ
1
(a
1,1
, ..., a
1,p
) +... +λ
r
(a
r,1
, ..., a
r,p
) = (0, ..., 0).
Comme on a suppos´e que les r premi`eres lignes de A sont lin´eairement ind´ependantes, ¸ca
impliquera que λ
1
= ... = λ
r
= 0.
Utilisons le fait que chacune des p −r derni`eres colonnes de A est une combinaison lin´eaire
des r premi`eres colonnes de A. Comme la r + 1 `eme colonne de A est une combinaison lin´eaire
des r premi`eres colonnes de A, il existe des scalaires µ
1
,...,µ
r
tels que

a
1,r+1
= µ
1
a
1,1

2
a
1,2
+... +µ
r
a
1,r
.
.
.
a
r,r+1
= µ
1
a
r,1

2
a
r,2
+... +µ
r
a
r,r
On en d´eduit que :
λ
1
a
1,r+1
+...+λ
r
a
r,r+1
= λ
1

1
a
1,1

2
a
1,2
+...+µ
r
a
1,r
)+. . .+λ
r

1
a
r,1

2
a
r,2
+...+µ
r
a
r,r
).
Or
λ
1

1
a
1,1

2
a
1,2
+... +µ
r
a
1,r
) +. . . +λ
r

1
a
r,1

2
a
r,2
+... +µ
r
a
r,r
)
= µ
1

1
a
1,1

2
a
2,1
+... +λ
r
a
r,1
) +... +µ
r
((λ
1
a
1,r

2
a
2,r
... +λ
r
a
r,r
) = 0.
On trouve donc λ
1
a
1,r+1
+...+λ
r
a
r,r+1
= 0. On fait la mˆeme d´emonstration pour les colonnes
num´eros r + 2,...,p. On trouve λ
1
a
1,r+2
+... +λ
r
a
r,r+2
= 0,....,λ
1
a
1,p
+... +λ
r
a
r,p
= 0. Donc
λ
1
(a
1,1
, ..., a
1,p
) +... +λ
r
(a
r,1
, ..., a
r,p
) = (0, ..., 0) et ¸ca implique que λ
1
= ...λ
r
= 0. Donc les
lignes de A

sont lin´eairement ind´ependantes, donc A

est inversible.
Soit maintenant r

> r et soit A

une matrice extraite de A, carr´ee r

r

. Les lignes de A

sont extraites d’une famille de r

lignes de A, en rayant certaines colonnes. Or toute famille de
r

lignes de A est li´ee c’est `a dire que l’une des r

lignes de A est combinaison lin´eaire des r

−1
autres. Donc ceci est encore vrai pour les lignes de A

. Les lignes de A

ne sont pas lin´eairement
ind´ependantes, donc A

n’est pas de rang maximal, donc n’est pas inversible.
Rappel Si A est une matrice carr´ee inversible, alors pour tout second membre B le syst`eme
lin´eaire AX = B admet une solution unique X = A
−1
B.
D´efinition 7.1.13 Si A est une matrice carr´ee inversible, alors on dit que le syst`eme lin´eaire
AX = B est un syst`eme de Cramer.
D´efinition 7.1.14 Soit un syst`eme lin´eaire de matrice A ∈ ´
n,p
, de second membre B, not´e
AX = B. Soit r le rang de la matrice A. Choisissons une matrice rr extraite de A et inversible.
Les r lignes du syst`emes ainsi choisies sont appel´ees les ´equations principales et les r inconnues
ainsi choisies sont appel´ees les inconnues principales.
Supposons qu’on a d´etermin´e le rang r de la matrice A, qu’on a trouv´e r lignes ind´ependantes
et r colonnes ind´ependantes. Appelons A

la matrice inversible r r ainsi obtenue. Supposons,
pour simplifier, que L
1
,...,L
r
soient des lignes lin´eairement ind´ependantes. Alors les autres lignes
de la matrice A sont des combinaisons lin´eaires de ces r lignes. Si les seconds membres b
r+1
,...,b
n
sont des combinaisons lin´eaires des seconds membres b
1
,...,b
r
avec les mˆemes coefficients, alors
on obtient un syst`eme ´equivalent en supprimant ces n − r ´equations. Sinon le syst`eme n’a pas
64 CHAPITRE 7. RANG D’UNE MATRICE, RETOUR AUX SYST
`
EMES LIN
´
EAIRES.
de solution. Dans le cas o` u on obtient un syst`eme ´equivalent en ne conservant que les ´equations
principales, alors on prend les p −r inconnues non principales comme param`etres et on r´esoud
un syst`eme de Cramer de matrice A

pour calculer les inconnues principales en fonction des
param`etres.
Exemple : A =

2 −4 1
0 −1 1

. Soit le syst`eme AX = B suivant :

2x −4y +z = 1
x −y +z = 2.
Le rang de A est 2. On voit que la matrice extraite de A en rayant la derni`ere colonne est
une matrice inversible. On peut donc prendre x et y comme inconnues principales et z comme
param`etre et on r´esoud le syst`eme de Cramer d’inconnues x et y :

2x −4y = 1 −z
x −y = 2 −z.
7.2 Syst`emes lin´eaires avec second membre. Espaces affines.
Soit A ∈ ´
n,p
(K), soit B ∈ K
n
et soit le syst`eme lin´eaire AX = B. Interpr´etons ce syst`eme
en utilisant l’application lin´eaire de K
p
dans K
n
de matrice A dans les bases canoniques de K
p
et K
n
:
Φ : K
p
→K
n
X → AX.
Proposition 7.2.1 (i) Le syst`eme AX = B admet au moins une solution si et seulement si
B ∈ ImΦ.
(ii) Supposons que B ∈ ImΦ et choisissons X
0
∈ K
p
tel que B = Φ(X
0
) = AX
0
. Alors
l’ensemble des solutions de AX = B est
o = ¦X
0
+Y ; Y ∈ Ker Φ¦. On notera o = X
0
+ Ker Φ.
Preuve : On a (i) de mani`ere ´evidente. Montrons (ii). AX = B ⇔ AX = AX
0
⇔ A(X
0
−X) =
0 ⇔ X −X
0
∈ Ker Φ.
D´efinition 7.2.2 Si X
0
∈ K
p
et si F est un sous-espace vectoriel de K
p
de dimension p

, alors
l’ensemble ¦X
0
+ Y ; Y ∈ F¦, qu’on peut noter X
0
+ F, s’appelle le sous-espace affine de K
p
de direction l’espace vectoriel F et passant par le point X
0
. On d´efinit la dimension de l’espace
affine X
0
+F comme ´etant ´egale `a la dimension de l’espace vectoriel F.
Remarque : Tout sous-espace affine de direction l’espace vectoriel ¦0¦ est r´eduit `a un point.
Un sous-espace affine de R
2
(diff´erent de R
2
lui-mˆeme) est soit un point, soit une droite. Si
c’est un point, sa direction est l’espace vectoriel ¦0¦. Si c’est une droite, alors sa direction est
la droite vectorielle associ´ee, c’est `a dire la droite qui lui est parall`ele et qui passe par le point
(0, 0). Un sous-espace affine de R
3
(diff´erent de R
3
lui-mˆeme) est soit un point, soit une droite,
soit un plan. Les directions associ´ees sont respectivement l’espace vectoriel ¦0¦, ou une droite
vectorielle, ou un plan vectoriel.
Par la proposition ci-dessus on a la discussion suivante, pour l’ensemble des solutions du
syst`eme lin´eaire AX = B. Soit l’ensemble des solutions est vide, soit le syst`eme admet au moins
une solution et alors l’ensemble des solutions est un sous-espace affine de K
p
, dont la direction
est l’espace vectoriel des solutions du syst`eme homog`ene associ´e AX = 0. Dans ce cas, si le
syst`eme AX = 0 n’admet que la solution nulle, l’espace affine des solutions est r´eduit `a un
point. Sinon, l’espace affine des solutions est de dimension 1, ou etc..ou p.
D´efinition 7.2.3 On appelle hyperplan d’un espace affine de dimension p tout sous-espace affine
de dimension p −1.
On peut interpr´eter chaque ligne du syst ` me lin´eaire AX = B comme l’´equation d’un hyper-
plan affine de K
p
. L’ensemble des solutions du syst`eme lin´eaire est l’intersection de n hyperplans
affines.

2

Table des mati`res e
1 R´solution des syst`mes lin´aires. e e e 1.1 Exemples ´l´mentaires (` coefficients r´els). . . . . . . . . . . ee a e 1.2 Syst`mes ` n lignes et p colonnes, syst`mes ´chelonn´s. . . . . e a e e e 1.3 R´solution des syst`mes ´chelonn´s. . . . . . . . . . . . . . . e e e e 1.4 Algorithme du pivot de Gauss. . . . . . . . . . . . . . . . . . 1.5 Principes ` retenir, pour la r´solution des syst`mes lin´aires. a e e e 1.6 Structure de l’ensemble des solutions d’un syst`me lin´aire. . e e 2 Espaces vectoriels sur R ou C. 2.1 Rappel : les vecteurs du plan. . . . . . . . . . . . . . . . . . 2.2 Espaces vectoriels sur R ou C. . . . . . . . . . . . . . . . . . 2.3 Sous-espaces vectoriels. . . . . . . . . . . . . . . . . . . . . . 2.4 Intersection de sous-espaces vectoriels. . . . . . . . . . . . . 2.5 Somme d’un nombre fini de sous-espaces vectoriels. . . . . . 2.6 Somme directe de deux sous-espaces vectoriels. Sous-espaces vectoriels suppl´mentaires. . . . . . . . . . . . e 2.7 Sous-espace vectoriel engendr´ par une famille de vecteurs. e 2.8 D´pendance et ind´pendance lin´aire. . . . . . . . . . . . . e e e 2.9 Bases. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 6 8 9 11 12 15 15 16 18 19 20 21 22 24 25 27 27 27 28 29 31 31 31 33 35 35 37 37 38 38 40

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

3 Espaces vectoriels sur R ou C de dimension finie. 3.1 D´finition d’un espace vectoriel de dimension finie. Exemple d’un espace vectoriel e de dimension infinie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Th´or`me de la base incompl`te. Existence des bases. . . . . . . . . . . . . . . . e e e 3.3 Notion de dimension d’un espace vectoriel. . . . . . . . . . . . . . . . . . . . . . . 3.4 Sous-espaces vectoriels en dimension finie. Tout sous-espace vectoriel admet un suppl´mentaire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . e 3.5 Rang d’une famille de vecteurs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6 Sous-espaces vectoriels de Kp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6.1 Passage d’une partie g´n´ratrice ` une base ; calcul du rang. . . . . . . . . e e a 3.6.2 Passage d’une base ` un syst`me d’´quations cart´siennes. . . . . . . . . . a e e e 4 Applications lin´aires. e 4.1 D´finitions et exemples. . . . . . . . . . . . . . . . . . . . . e 4.2 Image et noyau. . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Application lin´aire injective. . . . . . . . . . . . . . . . . . e 4.4 Cas o` l’espace vectoriel de d´part est de dimension finie, u e g´n´ratrice. Rang d’une application lin´aire. . . . . . . . . . e e e 4.5 Isomorphismes. . . . . . . . . . . . . . . . . . . . . . . . . . 4.6 Exemples : projections vectorielles, sym´tries vectorielles. . e 3 . . . . . . . . . . . . image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . d’une partie . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . e e e 5. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Espaces affines. . . . . . . .2 Syst`mes lin´aires avec second membre. . e 6. . . . . . . . . . . e 7 Rang d’une matrice. . . . . . . . . 5. . . . .4 ` TABLE DES MATIERES 41 41 45 45 46 47 48 48 50 51 52 53 53 56 59 59 64 5 Applications lin´aires en dimension finie. . . . . . . . R`gles de calcul. . . . Matrice de passage. . . . . . . . . . . . . . . . . . . e 5. . . . . . . . . . . . . .2 Formule de changement de base pour une application lin´aire. .9 Calcul de la matrice inverse. . . . e 5.10 Alg`bre des matrices n×n. . . . . . . . . . . . . . . . . . . retour aux syst`mes lin´aires. . .1 Matrices.7 Matrices carr´es inversibles.2 Matrice d’une application lin´aire dans des bases. . e 5. . . Rang d’un syst`me lin´aire. . . . . . .4 Calcul des coordonn´es de l’image d’un vecteur de E. . . . . . . . . . . . . . . Matrices e 5. e e 7. . . . . . . . . . . . . e p dans Kn associ´e canoniquement 5. . . 5. . . . .8 Matrices carr´es inversibles et isomorphismes.3 Application lin´aire de K e e a ` une matrice. . .1 Rang d’une matrice. . . . . . . . . . . . . . . . . . . . . . . . . . 6 Changements de bases. . . . . . . . . . e . . . . . . . . . . . . . . . e e . . . .5 Op´rations lin´aires sur les applications lin´aires et les matrices. . . . . .6 Composition des applications lin´aires et multiplication des matrices. . . e e 7. . . . . . . . . 6. . . . . . . . . . . . . . . . e 5. . . . .1 Changement de coordonn´es. . . e 5. . . . . . . . . . . . . . . . .

1 Exemples ´l´mentaires (` coefficients r´els). y) qui satisfont les deux ´quations du syst`me e (S1 ) 2x + 3y = 7 (L1 ) x−y = 1 (L2 ) Par exemple on retranche 2(L2 ) ` (L1 ). e a e e On conclut que (S1 ) a une solution et une seule : (x. e e e Dans tout ce cours. on trouve x = 2. Deuxi`me exemple. 1). e e e 5 . On obtient le syst`me a e (S2 ) 0 = 8 (L1 ) x − y = 1 (L2 ). e e 1.Chapitre 1 R´solution des syst`mes lin´aires. En effet. La premi`re ligne (L1 ) n’est e e e jamais r´alis´e. On obtient le syst`me a e (S1 ) 5y = 5 (L1 ) x − y = 1 (L2 ) qui a le mˆme ensemble de solutions que (S1 ). e (S2 ) 2x − 2y = 10 (L1 ) x−y = 1 (L2 ) On retranche 2(L2 ) ` (L1 ). y) = (2. ee a e e e Premier exemple. On veut trouver les couples de r´els (x. appel´ corps des scalaires. Les syst`mes (S2 ) et (S2 ) ont donc le mˆme ensemble de solutions. On remarque que le syst`me (S2 ) peut ˆtre retrouv´ ` partir du syst`me (S2 ) car e e ea e (L1 ) = (L1 ) + 2(L2 ). On reporte dans la deuxi`me ´quation. le symbole K d´signe R ou C. on retrouve (S1 ) ` partir de (S1 ) en e a faisant (L1 ) + 2(L2 ) (L2 ) La ligne (L1 ) est ´quivalente ` y = 1. On conclut que le syst`me (S2 ) n’a aucune solution.

p On dit que A est une matrice ` n lignes et p colonnes ` coefficients a a dans K. D´finition 1.2..2 Si b1 = ...1 x1 + . an....  ai. + ai.... On appelle matrice associ´e au syst`me (S) le e e  a1.. e e e Remarquons qu’au lieu de prendre y comme param`tre.... Le syst`me e e e e   a1.j xj + ... On notera toujours par i l’indice de ligne (premier indice) et par j l’indice de colonne (deuxi`me e indice)... On appelle syst`me lin´aire ` n ´quations et p incone nues ` coefficients dans K tout syst`me d’´quations qui s’´crit a e e e   a1...p xp = 0 est appel´ le syst`me homog`ne associ´ ` (S) (on dit aussi le syst`me sans second membre).1 A=  .. (S0 )  an. La premi`re ligne est ´gale ` deux fois la seconde. on peut prendre x...... on dit que le syst`me est homog`ne..    an.j xj + . syst`mes ´chelonn´s..j xj + . y). e (S3 ) ´ ` ´ CHAPITRE 1...1 x1 + ..j ∈ K.1 x1 + . 1. e e e ea e .. + a1. a2. 1 ≤ j ≤ n et bi ∈ u tableau de nombres  a1..p a2. 1 ≤ i ≤ n.2.2 .. + a1. Exemple : Le syst`me (S1 ) a pour matrice e A= 2 3 1 −1 . a1.... + a1.p xp = 0 . y) qui v´rifient l’´quation (S3 ) est e e {(y + 4....2 Syst`mes ` n lignes et p colonnes.. + an. Le mˆme ensemble e e de solutions s‘´crit donc aussi e {(x.. + ai..p xp = bn o` ai.. Le syst`me (S3 ) a donc une infinit´ de solutions.1 x1 + ..j ) 1≤i≤n 1≤j≤n K. + an.. On conclut que le syst`me (S3 ) est ´quivalent e e a e e ` a (S 3) x=y+4 L’ensemble des couples (x.1  a2. On dit qu’on a pris y comme param`tre...... = bn = 0. x ∈ R}..j xj + . + an.. + a1... y ∈ R}.p xp = bi (S)   ....... an.. x − 4). 2x − 2y = 8 (L1 ) x−y = 4 (L2 ).2 .....p    an. RESOLUTION DES SYSTEMES LINEAIRES..1 x1 + ....1 On note A = (ai.. e a e e e e e a e D´finition 1.j xj + . + an.p xp = b1    ...2 ..1 Soient p et n dans N∗ .6 Troisi`me exemple.....

..2. j) tel que i > j.. Exemple : Le syst`me suivant est triangulaire sup´rieur e e   x1 +2x2 −x3   x2 +x3 −x4 x3 −x4    x4 =2 =0 =5 =3 On dit que la diagonale est non nulle si tous les termes diagonaux sont non nuls....jm sont non nuls. < jk ≤ p.. e Exemple : Le syst`me 3 × 5 suivant est ´chelonn´...3 On appelle solution de (S) tout n-uplet (u1 ... a x1 =2 x1 + x2 = 0 et x1 − x2 = 4 x1 − x2 = 4 sont ´quivalents car chacun d’eux a pour unique solution (2......... m = 1.. + a2.1 u1 + .5 On dit qu’un syst`me n × p est carr´ si n = p. Les u k premi`res ´quations sont appel´es les ´quations principales et les inconnues xj1 ...p up = bn 7 D´finition 1.4 Deux syst`mes (S1 ) et (S2 ) sont ´quivalents s’ils ont le mˆme ensemble de e e e e solutions. + a1.  an.2...j = 0 e e e pour tout couple (i...2... un ) de K n tel que e   a1.....p xp = b1    a2.1 u1 + .. c’est ` dire si toute solution de (S1 ) est solution de (S2 ) et vice-versa. + a3. e a D´finition 1...j2 xj2 + ... SYSTEMES A N LIGNES ET P COLONNES... e e e  +x4 + 2x5 = 0  x1 − x2 + −x3 + x4 − x5 = 0  0 =1 .k. Le syst`me e ci-dessus est triangulaire sup´rieur ` diagonale non nulle....... + an....xjk sont e e e e appel´es les inconnues principales... 1 ≤ k ≤ n et tous les am. On dit qu’un syst`me carr´ est triangulaire inf´rieur si ai.p xp = bk      0 = bk+1     . e Exemple : Les syst`mes : e D´finition 1. Exemple : Le syst`me homog`ne associ´ ` (S1 ) est e e ea 2x + 3y = 0 x−y =0 D´finition 1.2... La matrice du syst`me est dite matrice e a e triangulaire sup´rieure ` diagonale non nulle.6 On dit qu’un syst`me n × p est ´chelonn´ s’il est de la forme e e e e   a1.. + ak..... La matrice du syst`me est e e e e alors dite matrice carr´e..... .. j) tel que i < j..` ` ` ´ ´ 1. On dit qu’un syst`me carr´ est triangulaire sup´rieur si ai.......j1 xj1 + ..j = 0 pour e e e e tout couple (i.   0 = bn o` 1 ≤ j1 < j2 < ....j3 xj3 + .p up = b1 .p xp = b2     a3. SYSTEMES ECHELONNES... (S) ak... −2).....p xp = b3    . + a1....2..jk xjk + ....

8

´ ` ´ CHAPITRE 1. RESOLUTION DES SYSTEMES LINEAIRES.

Remarque : Tout syst`me triangulaire sup´rieur de taille n × n ` diagonale non nulle est e e a ´chelonn´ avec k = n et ji = i pour i = 1...n. Un syst`me carr´ est ´chelonn´ si il est : soit e e e e e e triangulaire sup´rieur ` diagonale non nulle, soit triangulaire sup´rieur avec certains termes e a e diagonaux nuls. Dans ce dernier cas, la ou les derni`re lignes ont leurs premiers membres nuls. e Exemple : Le syst`me carr´ 4 × 4 suivant e e  =2  x1 +2x2 −x3   x3 −x4 = 0 x4 = 5    0 =3 est ´chelonn´, triangulaire avec des termes diagonaux nuls. Le premier membre de sa derni`re e e e ligne est nul.

1.3

R´solution des syst`mes ´chelonn´s. e e e e

Proposition 1.3.1 Soit (S) un syst`me triangulaire sup´rieur n × n ` diagonale non nulle. e e a Alors (S) a une solution unique obtenue par la m´thode de la remont´e. e e Preuve : xn =
bn ap,p

, xn−1 =

bn−1 −an−1,n xn , ...., an−1,n−1

x1 =

b1 −a1,2 x2 ....−a1,p xp . a1,1

Remarque : Les syst`mes triangulaires inf´rieurs ` diagonale non nulle peuvent ˆtre r´solus e e a e e par la m´thode de la descente. e e e e e Proposition 1.3.2 Soit (S) le syst`me ´chelonn´ p × n de la d´finition 1.2.6. Supposons k < n. Alors (i) Si l’un des bj , j ∈ {k + 1, ..., n} est non nul, S n’a pas de solution. (ii) Si bk+1 = ... = bn = 0, alors S est ´quivalent ` e a   a1,j1 xj1 + ....................... + a1,p xp = b1    a2,j2 xj2 + ............. + a2,p xp = b2  a3,j3 xj3 + .......... + a3,p xp = b3 (Σ)   ..............    ak,jk xjk + .... + ak,p xp = bk o` 1 ≤ j1 < j2 ... < jk ≤ p et a1,j1 = 0 ,...., ak,jk = 0. Alors on a deux cas. Le premier cas est k = u p (autant d’´quations que d’inconnues pour (Σ)), alors (Σ) est un syst`me triangulaire sup´rieur e e e ` diagonale non nulle, il a une solution unique. Le second cas est k < p (plus d’inconnues que a d’´quations pour (Σ), on prend les inconnues non principales comme param`tres. On obtient e e une infinit´ de solutions, par la m´thode de la remont´e. e e e Remarque : Si k = n, on est plac´ directement dans la situation (ii). e Exemples : 1) Le syst`me 4 × 5 e  x5 = 1  x1 + 2x2   x2 +2x4 − x5 = 2 x5 = 6    0 =8 n’a pas de solutions. 2) Le syst`me 4 × 5 e

 +x5  x1 + 2x2 − x3   x2 + +x4 −x5 x5    0

=1 =2 =6 =0

1.4. ALGORITHME DU PIVOT DE GAUSS.

9

a pour inconnues principales x1 , x2 , x5 . On prend x3 et x4 comme param`tres. On passe x3 et e x4 dans le second membre. On est ramen´ ` un syst`me triangulaire sup´rieur ` diagonale non ea e e a nulle. Par la m´thode de la remont´e, on trouve e e   x5 = 6 x2 = −x4 + 6 + 2 = −x4 + 8  x1 = x3 + 2x4 − 16 − 6 + 1 = x3 + 2x4 − 21 Le syst`me a donc une infinit´ de solutions. L’ensemble des solutions est e e {(x3 + 2x4 − 21, −x4 + 8, x3 , x4 , 6); x3 ∈ R, x4 ∈ R}.

1.4

Algorithme du pivot de Gauss.

L’algorithme du pivot de Gauss sert ` transformer n’importe quel syst`me en un syst`me a e e ´chelonn´ ´quivalent, ` l’aide de transformations ´l´mentaires. e ee a ee Les transformations ´l´mentaires sont : ee (1) ´change de deux lignes du syst`me ; e e (2) multiplication d’une ligne par un scalaire non nul ; (3) ajout d’une ligne ` une autre ligne. a Proposition 1.4.1 Quand on transforme un syst`me en un autre par une succession d’op´rations e e ´l´mentaires, on obtient un syst`me ´quivalent au premier. (Autrement dit, transformer un ee e e syst`me par une succession d’op´rations ´l´mentaires ne change pas l’ensemble des solutions.) e e ee Preuve : Pour l’op´ration (1), c’est ´vident. Pour l’op´ration (2) : on passe de la ligne (Li ) : e e e ai,1 x1 + ... + ai,p xp = bi ` la ligne (Li ) : αai,1 x1 + ... + αai,p xp = αbi en multipliant par le a 1 scalaire non nul α. Alors on passe de (Li ) ` (Li ) en multipliant par α . Pour l’op´ration (3) : On a e remplace la ligne (Li ) par la ligne (Li ) + (Lj ),not´e (Li ), les autres lignes restant inchang´es. e e Dans le syst`me initial les lignes num´ros i et j sont e e ai,1 x1 + .... + ai,p xp = bi (Li ) aj,1 x1 + .... + aj,p xp = bj (Lj ) Dans le syst`me obtenu les lignes num´ros i et j sont e e (ai,1 + aj,1 )x1 +.... +(ai,p + aj,p )xp = bi + bj aj,1 x1 +.... +aj,p xp = bj (Li ) (Lj )

Pour retrouver le syst`me initial, on remplace la ligne (Li ) par (Li ) − (Lj ). e Th´or`me 1.4.2 Tout syst`me est ´quivalent ` un syst`me ´chelonn´. e e e e a e e e La d´monstration repose sur l’algorithme du pivot de Gauss. Montrons-le sur un exemple. e Soit le syst`me e  −x4 = 1 (L1 )  x1 +2x2 2x1 +3x2 +x3 +x4 = 2 (L2 )  x1 −x3 −x4 = 0 (L3 ) La premi`re ´quation est prise comme pivot et reste inchang´e. On remplace les deux derni`res e e e e lignes en leur retranchant un multiple de la premi`re ligne, de mani`re ` supprimer l’inconnue e e a x1 . On obtient le syst`me ´quivalent suivant : e e  −x4 = 1 (L1 )  x1 +2x2 −x2 +x3 +3x4 = 0 (L2 ) = (L2 ) − 2(L1 )  −2x2 −x3 = −1 (L3 ) = (L3 ) − (L1 )

10

´ ` ´ CHAPITRE 1. RESOLUTION DES SYSTEMES LINEAIRES. form´ par la deuxi`me et la troisi`me ´quation. La e e e e −x4 = 1 (L1 ) +3x4 = 0 (L2 )) −6x4 = −1 (L3 ) − 2(L2 )

On r´it`re le proc´d´ pour le syst`me 2 × 3 e e e e e deuxi`me ´quation est prise comme pivot. e e   x1 +2x2 −x2 +x3  −3x3

On a obtenu un syst`me ´chelonn´. Les inconnues principales sont x1 , x2 , x3 . On a une inconnue e e e non principale : x4 . On la prend comme param`tre, puis on utilise la m´thode de la remont´e. e e e   x3 = −2x4 + 1 3 1 x2 = −2x4 + 1 + 3x4 = x4 + 3 3  1 x1 = 1 + x4 − 2(x4 + 1 ) = −x4 + 3 3 L’ensemble des solutions est 1 1 1 {(−x4 + , x4 + , −2x4 + ); x4 ∈ R}. 3 3 3 Remarquons qu’on peut pr´senter l’algorithme du pivot de Gauss sous une forme matricielle. e On fait alors une succession d’op´rations ´l´mentaires sur les lignes de la matrice du syst`me, e ee e sans oublier de faire simultan´ment les mˆmes op´rations sur le second membre. Dans le cas de e e e l’exemple ci-dessus,     1 2 0 −1 1  2 3 1  et le second membre est  2  . 1 la matrice du syst`me est e 1 0 −1 −1 0 En prenant la premi`re ligne comme pivot, on obtient d’abord la matrice et le second membre : e     1 2 0 −1 1  0 −1 1 3  et  0  . 0 −2 −1 0 −1 En r´it´rant le proc´d´, on obtient la matrice et le second membre : e e e e     1 2 0 −1 1  0 −1 1 3  et  0  . 0 0 −3 −6 −1 Algorithme du pivot de Gauss dans le cas g´n´ral. e e Soit (S) un syst`me n × p de matrice A non nulle. Soit j1 l’indice de la premi`re colonne non e e nulle. Premi`re ´tape. On permute ´ventuellement des lignes pour se ramener ` a1,j1 = 0. Apr`s e e e a e cette permutation ´ventuelle, (S) est remplac´ par un syst`me ´quivalent, de matrice e e e e   0 ...0 a1,j1 ......   .. .. A=  . . 0 .....0 an,j1 ....... On permute de la mˆme mani`re les lignes du second membre. e e Deuxi`me ´tape. On fait apparaˆ des 0 dans la colonne j1 , sous le coefficient a1,j1 . Pour e e ıtre cela, on remplace la ligne (Li ), i = 2, ..., p, par (Li ) = (Li ) − ai,j1 (L1 ). a1,j1

11 On n’oublie pas de faire simultan´ment les mˆmes op´rations ´l´mentaires sur le second membre e e e ee du syst`me.. e a Ensuite on ´crit un nouveau syst`me ´quivalent au premier en rempla¸ant l’une des ´quations e e e c e qu’on vient d’utiliser par celle qu’on a obtenue et en gardant toutes les autres. ou quand la matrice du sous-syst`me obtenu a toutes ses lignes nulles.j1 ∗ . e e e e e ee Dans la pratique courante (sans machine !) la m´thode du pivot n’est pas toujours la m´thode e e la plus rapide. 0 ∗ .∗  0 . e e Toute m´thode de r´solution qui utilise successivement l’un ou l’autre de ces deux proc´d´s e e e e est juste.. on a remarque que le nombre d’´quations reste le mˆme).. (L` aussi.5 Principes ` retenir..∗   . e e L’algorithme est programmable et permet de r´soudre des syst`mes lin´aires. par ordinateur. on le transforme en un syst`me ´quivalent et on r´it`re le e e e e e e e proc´d´ jusqu’` obtenir l’ensemble des solutions. il se peut qu’on ait int´rˆt ` proc´der par substitutions. POUR LA RESOLUTION DES SYSTEMES LINEAIRES. PRINCIPES A RETENIR. (Remarquons que le nombre d’´quations reste le mˆme).. e e e e e e ee On multiplie plusieurs ´quations par des nombres non nuls puis on les ajoute membre ` membre.. ee a e Exemple :   2x1 −x2 +x3 = 4 (L1 ) x1 −x3 = 0 (L2 )  x2 +x3 = 0 (L3 ) R´solution par la m´thode du pivot de Gauss : e e  2x1 −x2 +x3 = 4   2x1 −x2 +x3 = 4 x2 −3x3 = −4 2(L2 ) − (L1 ) puis x2 −3x3 = −4   x2 +x3 = 0 +4x3 = 4 (L3 ) − (L2 ) Par la m´thode de la remont´e on obtient la solution unique : e e   x3 = 1 x2 = −4 + 3 = −1  x1 = 1 Reprenons le mˆme syst`me et e e   x1 = x3 x2 = −x3  2x3 + x3 + x3 = 4 r´solvons-le par substitution : e (L2 ) (L3 ) (on substitue x3 ` x1 et −x3 ` x2 dans (L1 )) a a . L’algorithme s’arrˆte au bout d’au plus a e a e e e n − 1 it´rations. Ensuite on e ´crit un nouveau syst`me ´quivalent au premier en gardant l’´quation qui vient de servir et en e e e e rempla¸ant.5. e e Deuxi`me proc´d´ pour obtenir un syst`me ´quivalent : les op´rations ´l´mentaires... On se sert e e e e de l’une des ´quations pour calculer l’une des inconnues en fonction des autres.` ´ ` ´ 1.  . mˆme de tr`s e e e e e grandes dimensions. a e e e Pour r´soudre un syst`me lin´aire.. e ea e e Premier proc´d´ pour obtenir un syst`me ´quivalent : la substitution.. 1. La r´solution par la e e e e e ee e m´thode de la remont´e est un proc´d´ de substitutions r´it´r´es..0 0 ∗ . on obtient le syst`me de matrice e e e ee e   0 . l’inconnue qu’on a calcul´e par son expression en c e e fonction des autres.∗ On recommence ces deux ´tapes pour le syst`me (n − 1) × p constitu´ par les lignes num´ros e e e e 2 ` p du syst`me obtenu ` la fin de la premi`re ´tape.0 a1. La m´thode du pivot de Gauss permet ` coup sˆr de trouver un syst`me ´chelonn´ e a u e e e ´quivalent au syst`me donn´ en proc´dant par op´rations ´l´mentaires. Il y a deux proc´d´s qui permettent de passer e e a e e d’un syst`me donn´ ` un syst`me ´quivalent. Apr`s ces p op´rations ´l´mentaires... pour la r´solution des syst`mes lin´aires. dans toutes les autres ´quations.

1 (x1 − α1 ) + ...1 Soit (S) un syst`me lin´aire et soit (S0 ) le syst`me homog`ne associ´. On a donc : ai. . .. que la ligne num´ro i du syst`me (S) est v´rifi´e par (x1 .. alors la diff´rence (x1 − α1 .6 Structure de l’ensemble des solutions d’un syst`me lin´aire. On pr´sente l’ensemble des solutions sous la forme : e    4 1  1   0   E = {λ   −1  +  1 1 0     .. soit (α1 . . De plus. e e pour tout i = 1. ce qui signifie que la ligne num´ro i du syst`me homog`ne (S0 ) est v´rifi´e par (x1 −α1 .p (xp − αp ) = 0. ..  e e e e e Proposition 1. on ´crit.. Alors E0 n’est jamais l’ensemble vide. On prend x4 comme param`tre et x1 .        4 4 x1 x1 4 1  x2   x2   1   0         Ceci est ´quivalent ` dire que la colonne  e a  x3  est telle que :  x3  = x4  −1  +  1  x4 x4 1 0. Soient E et E0 leurs ensembles de solutions respectifs.. la diff´rence de deux ´l´ments de E est un e ee ´l´ment de E0 . αp ). 1. xp − αp ) est une solution du syst`me homog`ne e e (S0 ). ee Preuve : Si E = ∅.. αp ) une solution de (S)... + ai. ... −1.... + ai.... soit E est l’ensemble de la somme des ´l´ments de E0 et ee ee d’un ´l´ment particulier de E... e e Exemple. Pour le montrer.12 ´ ` ´ CHAPITRE 1.1 α1 + .... donc (x1 − α1 . Soit le syst`me 3 × 4 ` coefficients e a −x4 = 2 (L1 ) +x4 = 0 (L2 ) +x4 = 1 (L3 ) Pr´sentation de l’ensemble des solutions. xp − αp ) est une solution de (S0 ). x2 . 1). Si (x1 . + ai. n.. λ ∈ R}. on obtient : a e ai.1 x1 + ..p αp = bi On soustrait membre ` membre les deux ´quations ci-dessus. xp ) et par e e e e (α1 . xp −αp ). . RESOLUTION DES SYSTEMES LINEAIRES.p xp = bi ai..6. x3 comme inconnues e e e e principales. e e e e e Ceci est vrai pour i = 1. On a donc : soit E = ∅. . xp ) est une autre solution de (S)..... car il contient toujours la solution nulle. n..  (L3 )  x3 = −x4 + 1 x2 = x4 (L2 )  x1 = 2 + 2x4 + x4 − 1 + x4 (on substitue x4 ` x2 et −x4 + 1 ` x3 dans (L1 )) a a   x1  x1 = 4x4 + 1    x2  x2 = x4  qui v´rifient :  e L’ensemble des solutions est l’ensemble des quatre-uplets de r´els  e x3   x3 = −x4 + 1   x4 x =x .. . . On retrouve la solution unique (1. e dans R :   x1 −2x2 +x3 −x2  x3 C’est un syst`me ´chelonn´. ..

. αp ) est une solution de (S) e e e et si (β1 . on montre de la mˆme mani`re que si (α1 .6. . 13 R´ciproquement. Dans l’exemple ci-dessus. βp ) est une solution de (S0 ). . λ ∈ R}. D’apr`s la proposition ci-dessus.... αp + βp ) est une solution de (S). .. les solutions de (S0 ) s’obtiennent e e en retranchant cette solution particuli`re ` toutes les solutions de (S). On a donc e a   4  1   E0 = {λ   −1  . STRUCTURE DE L’ENSEMBLE DES SOLUTIONS D’UN SYSTEME LINEAIRE... remarquons que   est une solution de (S).` ´ 1. obtenue  1  0 pour la valeur 0 du param`tre. alors (α1 + β1 .   1  0  Exemple... . 1 On dira que E0 est un sous-espace vectoriel de R4 .

14 ´ ` ´ CHAPITRE 1. . RESOLUTION DES SYSTEMES LINEAIRES.

e e 15 . ea u1 + u2 = (x1 + x2 . 0) et (0. ou tel que v = λu on dit que les vecteurs u et v e sont colin´aires. Lorsqu’il existe un r´el λ tel que u = λv. u1 = (x1 . 1) sont lin´airement ind´pendants. On sait d´j` ajouter deux vecteurs du plan. Ou encore : les couples de points (A. autrement dit un ´l´ment de R2 . Plus pr´cis´mment. z). e λ. e On ne sait pas multiplier deux vecteurs du plan. On connaˆ depuis le lyc´e u = (x. Un vecteur du plan est caract´ris´ par ses coordonn´es x et y e e e suivant une base de vecteurs (i. λy). µ ∈ R. y).1 Rappel : les vecteurs du plan. y1 ). e Pour nous : un vecteur du plan sera un couple de r´els. Comme la somme de deux vecteurs du plan est un vecteur du plan. on dit que l’addition est une loi interne. Si λ est un nombre r´el et si e e u = (x. Un vecteur du plan est un segment orient´. y).Chapitre 2 Espaces vectoriels sur R ou C. Dans le cas contraire. B ) d´finissent le mˆme vecteur si et seulement e e si le quadrilat`re ABB A est un parall´logramme. 2. on d´finit e λu = (λx. e ee u = (x. u2 = (x2 . ni diviser deux vecteurs du plan. y2 ). B] ∼ [A . On sait multiplier un vecteur du plan par un nombre r´el. λy1 + µy2 ). B ] ⇔ (AB) (A B ) et (AA ) (BB ). ıt e Point de vue g´om´trique. λu1 + µu2 = (λx1 + µx2 . On dit qu’on a effectu´ une combinaison lin´aire des deux vecteurs u1 et u2 avec les coefficients e e λ et µ. on dit qu’ils sont lin´airement ind´pendants. B) et (A . y) est un vecteur du plan. y. On peut combiner la multiplication par un r´el et l’addition. y1 + y2 ). Exemple : e e e (1. soit en colonne. La multiplication est effectu´e par un r´el et non par un vecteur. e e On peut d´finir aussi les vecteurs de l’espace comme les triplets de r´els u = (x. qu’on notera soit en ligne. e e e e e c’est une classe d’´quivalence de segments pour la relation : e [A. e e Point de vue analytique. On dit que la multiplication e e par un r´el est une loi externe. j) fix´e une fois pour toutes.

λ0 = 0. λ(u + v) = λu + λv. µ ∈ K. On pourrait noter u. ee e ee e La multiplication par un scalaire est une loi externe. Alors v + (u + u ) = (v + u) + u = e + u = u . v ∈ E. µ ∈ K. λ0 + λ0 = λ(0 + 0) = λ0 = λ0 + 0 donc λ0 = 0. w . e. On rappelle que K = R ou C est appel´ le corps des scalaires. montrons l’unicit´ de l’´l´ment sym´trique de u pour l’addition. ` ne pas confondre le vecteur 0 (vecteur a nul) avec le scalaire 0. Il existe e ∈ E tel que u + e = u pour tout u de E. on notera u. C’est le contexte qui nous permettra de reconnaˆ ıtre dans quels cas le symbole 0 d´signe le vecteur nul et dans quels cas il d´signe le scalaire nul.2 Espaces vectoriels sur R ou C. pour ne pas ee e le confondre avec le 0 de R ou C. w ∈ E. e e Attention : On prendra garde. e oe Montrons que si u ∈ E. (λµ)u = λ(µu). +) est un groupe ab´lien. Pour u ∈ E.1 Un espace vectoriel sur K est un ensemble non vide E qui est muni de deux e op´rations : la somme et la multiplication par un scalaire. v. Mais e + e = e + e donc e = e . (Remarquons que le 0 ` gauche du signe = est un scalaire et que le 0 ` droite du signe = est un a a ´l´ment de E). v ∈ E. Ces deux op´rations v´rifient les e e e propri´t´s suivantes : ee u. Il suffit d’ajouter le sym´trique de w. de chaque cˆt´. (Remarquons que le 0 ` gauche du signe = et le 0 ` droite du signe = d´signent tous deux le a a e vecteur nul). (λ + µ)u = λu + µu u ∈ E. . λ. λ. Soient u et v e ee e tels que u + u = e et u + v = e. u. Pour tout u ∈ E. e L’addition est une loi interne. Tout ´l´ment de E s’appelle un vecteur. 0u = 0. Les quatre premi`res propri´t´s sont des propri´t´s de l’addie ee ee tion seulement. u. u+(v +w) = (u+v)+w. sera not´ 0. Donc v = u . (on notera λµu). ee 0u + u = 0u + 1u = (0 + 1)u = 1u = u donc 0u + u + u = u + u d’o` 0u = 0. λ ∈ K. w ∈ E. L’´l´ment e est appel´ l’´l´ment neutre e ee e ee pour +. ee Remarques : Ce n’est pas la nature des ´l´ments de E qui fait que E est appel´ un espace ee e vectoriel. u ∈ E. (u + w = v + w) ⇒ (u = v). ee Montrons l’unicit´ de l’´l´ment neutre pour l’addition. ESPACES VECTORIELS SUR R OU C. v.2. On pourrait noter 0. 2. Les ´l´ments u et u sont appel´s des ´l´ments sym´triques pour +. On n’a pas d´fini la multiplication de e deux ´l´ments de E. Notation : L’´l´ment neutre pour l’addition. (L’addition est associative). e D´finition 2. On dit que (E. mais ce sont les op´rations qu’on peut effectuer sur les ´l´ments de E et les propri´t´s e ee ee de ces op´rations. u+v = v +u (l’addition est commutative). e e Montrons que si u. Mais on a aussi v + (u + u ) = v + e = v. tout au long du cours. mais on d´cide de ne pas mettre de fl`ches sur les vecteurs. u ∈ E. il existe u ∈ E tel que u + u = e. On notera u + v + w. e ee e + x = x et e + x = x. alors e + e = e et e + e = e . 1u = u.16 CHAPITRE 2. Soient e et e tels que pour tout u ∈ E. u Montrons que si λ est un scalaire.

. xn ). b...... sera not´ −u... 1xn ) = (x1 .. .... .. La multiplication par un r´el λ est d´finie par : e e λ(x1 .. λxn + µxn ) = (λx1 ... xn ) = (1x1 . .. ... . .. On e prend comme op´rations l’addition et la multiplication dans K.. (a + ib) + (a + ib ) = (a + a ) + i(b + b ). µ ∈ R on a : (λ + µ)(x1 . λµxn ) = (λµ)(x1 . C’est aussi un espace vectoriel sur R. ... Chaque ´l´ment (x1 .. λ(a + ib) = λa + iλb. alors u = 0 (u est le vecteur nul).... (λ + µ)xn ) = (λx1 + µx1 . .. xn )..... .2. Exemples d’espaces vectoriels a) L’ensemble K lui mˆme est un espace vectoriel sur K. a. . . +) ee e est un groupe ab´lien.. xn ).. 0) car (x1 . xn ) = (λx1 . .. yn )) = λ(x1 + y1 . On a u + (−1)u = e e 1u + (−1)u.. ...... xn ) + λ(y1 . pour n = 3.. xn ) + µ(x1 .. Le sym´trique pour l’addition du vecteur u ∈ E.. b ∈ R. ou λ = 0 (λ est le z´ro de R ou C).. C’est ` dire e a a.. xn ) + (0. on e e e trouve les vecteurs de l’espace. d’apr`s a). .. . ESPACES VECTORIELS SUR R OU C. ..... . . xn ) + (y1 .. on trouve les vecteurs du plan ´tudi´s au lyc´e. −xn )......... 0) = (x1 + 0. yn ) = (x1 + y1 . e De plus on a : 1(x1 . Donc (Rn ... 17 Montrons que si u ∈ E et λ ∈ K et si λu = 0. . Donc −u = (−1)u. µxn ) = (λµx1 ...... xn + yn ) = (λ(x1 + y1 ). . La d´monstration est identique ` celle de c). xn ) et λ((x1 . L’addition dans Rn est d´finie par : e (x1 ... . .. On a donc bien montr´ e (λu = 0) ⇒ (λ = 0 ou u = 0). xn )) = λ(µx1 .. c) Si n est un entier sup´rieur ou ´gal ` 2. donc u + (−1)u = (1 + (−1))u = 0u = 0. est un espace vectoriel sur C. xn ) + (y1 . Supposons λ = 0. xn + 0) = (x1 ..... λyn ) = λ(x1 . . µxn ) = λ(x1 . . λxn + λyn ) = (λx1 .. On a (1/λ)(λu) = 0 e Or (1/λ)(λu) = ((1/λ)λ)u = 1u = u. . b. .. λ ∈ R. e e b) C est un espace vectoriel sur C. L’addition dans Rn est commutative.. xn ) de Rn a un sym´trique pour l’addition.. ... a . Pour λ.. donc u = 0. car l’addition dans R l’est. λxn ) + (µx1 .. . λ(xn + yn )) = (λx1 + λy1 . .. e a . λxn ). si on e prend les op´rations suivantes : comme loi interne l’addition dans C et comme loi externe la e mutiplication d’un nombre complexe par un nombre r´el..2. .. ..... .. qui est (−x1 ... . yn ). L’addition dans Rn a un ´l´ment l’addition dans R ee neutre qui est (0.. xn ) = ((λ + µ)x1 . λxn ) + (λy1 .. Soit 1/λ son inverse dans R ou C. λ(µ(x1 ... Cn .. ... l’ensemble Rn des n−uplets de r´els est un espace e e a e vectoriel sur R.. Pour n = 2. u ... xn + yn ). Toutes les propri´t´s ci-dessus e ee sont v´rifi´es. On v´rifie facilement que e n est associative car l’addition dans R l’est.. d) L’ensemble des n−uplets de nombres complexes...

Soit F(I.. donc 1f = f .. R) muni de l’addition et de la multiplication par un scalaire d´finies e e e ci-dessus est un espace vectoriel sur R. On a donc montr´ e e que (F(I. on dit que v est colin´aire ` u1 .. On a d´montr´ que F(I. on a f (x) + g(x) = g(x) + f (x). Montrons que ee l’addition dans F(I.) e . un . donc (λµ)f = λ(µf ). e) L’ensemble Cn est un espace vectoriel sur R pour la somme dans Cn et la multiplication d’un ´l´ment de Cn par un nombre r´el. F(I. . On a ((λµ)f )(x) = (λµ)(f (x)) = λ(µf (x)) = λ((µf )(x)) = (λ(µf ))(x). R) l’ensemble des fonctions de I dans R. 2..3. un . V´rifions les quatre propri´t´s de e ee la loi interne. On conclut que f + g = g + f .. R) est associative. R) est commutative. ` (A gauche du signe=. puisqu’il contient au moins la fonction identiquement nulle : x → 0. D´finition 2. Or par la d´finition e de la fonction g + f .. λ ∈ R. . ` droite du signe= le mˆme symbole e a e d´signe le scalaire nul. donc (λ + µ)f = λf + µf ... On a ((λ + µ)f )(x) = (λ + µ)(f (x)) = λ(f (x)) + µ(f (x)) = (λf )(x) + (µf )(x).1 Soient n ∈ N∗ . R). alors e (i) si il existe λ ∈ K tel que v = λu1 . e Comme l’addition dans R est commutative. E sera un espace vectoriel sur K. On a bien une loi interne et une multiplication par les scalaires. ee e f) Soit I un intervalle de R. (λf )(x) = λ(f (x)). On le munit des op´rations e d´finies par : e (f + g)(x) = f (x) + g(x).. donc λ(f + g) = (λf ) + (λg). qu’on notera −f . on dit que le vecteur v est une combinaison lin´aire des vecteurs u1 . Chaque ´l´ment f a un e e ee sym´trique pour l’addition qui est la fonction x → −f (x). R) = ∅. e Remarque : Le vecteur nul est colin´aire ` tout autre vecteur car e a 0 = 0u. on a g(x) + f (x) = (g + f )(x). pour tout u ∈ E..3 Sous-espaces vectoriels. On a (λ(f + g))(x) = λ((f + g)(x)) = λ(f (x) + g(x)) = λ(f (x)) + λ(g(x)) = (λf )(x) + (λg)(x) = (λf + λg)(x). + λn un . u1 . Dans cette partie. +) est un groupe ab´lien. v ∈ K.18 CHAPITRE 2. On peut montrer de la mˆme mani`re que l’addition dans F(I. ESPACES VECTORIELS SUR R OU C. le symbole 0 d´signe le vecteur nul . Par la d´finition de f +g on a : (f +g)(x) = f (x)+g(x).. λn ∈ K tels que v = λ1 u1 + . e On a : (1f )(x) = 1(f (x)) = f (x). La fonction identiquement nulle est ´l´ment neutre pour l’addition. . e a (ii) si n ≥ 2 et si il existe λ1 .

Proposition 2...3. .... on sait que son sym´trique pour l’addition est a e (−1)u... 0). Prenons n + 1 vecteurs de F . 0. toute combinaison lin´aire de n vecteurs de F appartient ` F . Comme elle est aussi initialis´e ` ee ee a e a l’ordre 2.4 Intersection de sous-espaces vectoriels.3 Tout sous-espace vectoriel de E est un espace vectoriel sur K. Proposition 2. Preuve : On prend comme addition dans F la loi interne de E.0). D´montrons par a e r´currence que (Pn ) est vraie pour tout n ≥ 2. ... (ii) pour tous λ ∈ K. 0) ∈ F . 19 D´finition 2. donc F ∩G = ∅. c) Soit C ∞ (R) l’ensemble des fonctions ind´finiment d´rivables de R dans R. + un ) + un+1 . Montrons que (Pn+1 ) est vraie.0) ∈ F et si λ ∈ K. p} est un sous-espace vectoriel de Kn . e b) Soit n ∈ N. . Preuve : 0 ∈ F ∩G.. alors a) le vecteur nul appartient ` F . on a 0u ∈ F .. On a vu que le vecteur nul de E appartient ` F ... . C’est un sous-espace e e vectoriel de l’espace vectoriel sur R F(R. Si u = (x1 .. La propri´t´ (P2 ) est vraie.) e e e c) Si n ≥ 2.. En effet. R). un sont n vecteurs de F . Il en est de mˆme des quatre derni`res propri´t´s qui d´finissent e e ee e un espace vectoriel.3. La ee propri´t´ (Pn ) est donc bien h´r´ditaire ` partir de l’ordre 2. puis on fait une d´monstration par r´currence e e e sur le nombre de vecteurs). + un+1 = (u1 + .. 0.. Soit 0 ∈ K le scalaire a nul.. u ∈ F . . + un ∈ F . xi ∈ K. . λxp . . La commutativit´ et l’associativit´ de la loi interne sont v´rifi´es a e e e e dans F . INTERSECTION DE SOUS-ESPACES VECTORIELS.. donc il appartient ` F ... 0... alors F ∩ G est un sousespace vectoriel de E. yp . u + v ∈ F . alors λu ∈ F car λu = (λx1 . par le th´or`me de r´currence. . par la propri´t´ ee (Pn ) on a u1 + .. alors u + v ∈ F car u + v = (x1 + y1 .. Or.. 2. On a u1 + ....4.2. Remarques : Si F est un sous-espace vectoriel de E. . alors le vecteur u1 + . Or 0u est le vecteur nul.. On prend comme loi externe sur F la loi externe sur E. + un ) + un+1 ∈ F . xp .. Soit n ≥ 2 tel que (Pn ) soit vraie. 0. Montrons qu’elle est h´r´ditaire ` partir de l’ordre 2... + un ∈ F . .. n ≥ 2 et soit l’espace vectoriel sur K Kn .1 Si F et G sont des sous-espaces vectoriels de E. 0) ∈ F . i = 1. un ∈ F .. C’est l’´l´ment neutre a ee pour l’addition dans F . . . comme F = ∅.2 L’ensemble des solutions d’un syst`me homog`ne n × p est un sous-espace e e vectoriel de Kp .... 0). Remarque : L’intersection d’une famille quelconque de sous-espaces vectoriels de E est un sous-espace vectoriel de E.. Proposition 2. Soit 1 ≤ p ≤ n... Par la propri´t´ (P2 ).. on a donc que (u1 + .. alors u1 + . xp + yp .4.. a b) Si n ≥ 2 et si u1 . On a (0. λu ∈ F .. Si v = (y1 . Alors F = {(x1 . alors elle est vraie pour tout n ≥ 2.4. donc F = ∅. . donc le vecteur nul appartient ` F . Si u. donc la propri´t´ (Pn ) e ee ee est initialis´e ` l’ordre 2. On dit que F est un sous-espace e vectoriel de E si (i) Pour tous u. .. alors λu ∈ F ∩G et u+v ∈ F ∩G. v ∈ F ∩G et λ ∈ K. ((Pn ) ⇒ (Pn+1 )). 0... (Appelons (Pn ) la propri´t´ ”si ee u1 .. c’est ` dire que e a ee a a pour n ≥ 2.. Si u appartient ` F . xp . v ∈ F . Exemples : a) Si E est un espace vectoriel sur K alors {0} est un sous-espace vectoriel de E et E lui-mˆme est un sous-espace vectoriel de E. soit u ∈ F . car elles le sont dans E. (C’est vrai pour e a toute combinaison lin´aire de deux vecteurs de F .. + un appartient ` F ”..2 Soit F un sous-ensemble non vide de E.

.2 F1 + .p xp = 0}..... e e La mˆme d´monstration que pour F1 montre que Fi est un sous-espace vectoriel de Kp ... Preuve : Soient u1 ∈ F1 . Si λ ∈ K. n..p (λxp ) = 0.p xp = 0    .1 Soient n ≥ 2 et F1 . pour i = 2.. 2.5. alors on a a1. vn ∈ Fn .. µ ∈ R}.  ai.. xp ) + (y1 ...1 x1 + . yp ) ∈ F1 .. pour e e i = 2. ESPACES VECTORIELS SUR R OU C. On appelle somme e des sous-espaces vectoriels F1 ... n. + a1.. λ ∈ R}.. + a1... un ∈ Fn }.. F1 est l’ensemble des solutions de (S).1 (x1 + y1 ) + .. . donc c’est un sous-espace vectoriel de Kp .. Soit F3 = {(λ..1 x1 + .. Dans R2 . + Fn est un sous-espace vectoriel de E.. + un ) + (v1 + . alors λ(u1 + ... + un ) = (λu1 ) + .20 CHAPITRE 2. yp ) ∈ F1 .. λ ∈ R}.. λ). + an. Donc F1 + F2 = R2 ..1 (λx1 ) + ..   a1. + a1... Or l’ensemble des solutions de (S) est F1 ∩ ....p yp = 0 En sommant membre ` membre on obtient : a a1....1 x1 + . + (λun ) ∈ F1 + .. .. Proposition 2. .p xp = 0 (S)   .. Ce sont des sousespaces vectoriels de R2 .. + Fn . Si n = 1. 0).. xp ) ∈ Kp . ....1 x1 + . + a1. λ ∈ R} et F2 = {(0.Fn des sous-espaces vectoriels de E.. v1 ∈ F1 . c’est ` dire : e a F1 = {(x1 ...un ∈ Fn . Exemple.. u1 ∈ F1 . ..p xp = 0 a1.5 Somme d’un nombre fini de sous-espaces vectoriels.p xp = 0 Soit F1 l’ensemble des solutions de la premi`re ligne. + vn ) = (u1 + v1 ) + . λ ∈ R. D´finition 2....1 x1 + .... Preuve : 0n rappelle qu’un syst`me homog`ne n × p a n lignes et p inconnues et un second e e membre nul. λ). + Fn = {u1 + . . + a1. .5... xp ) ∈ F1 .. .. ce qui montre que (x1 . ce qui montre que λ(x1 . et on note F1 + . + Fn .. Si λ ∈ K.. En multipliant la premı`re ligne de (S) par λ on obtient e a1.. + a1. D’abord F1 n’est pas vide car il contient (0. + (un + vn ) ∈ F1 + .. + Fn l’ensemble d´fini par e F1 + .. xp ) ∈ F1 et (y1 . C’est l’intersection d’une famille finie de sous-espaces vectoriels de Kp .. 0).... a1... on appelle Fi l’ensemble des solutions de la i`me ligne du syst`me (S). Alors (u1 + . ...    an..... + un ..1 y1 + .Fn . .p (xp + yp ) = 0. + ai.. On a F1 + F2 = {(λ.. Alors F1 + F2 + F3 = R2 . (x1 . Montrons que F1 est un sous-espace vectoriel de Kp .. . Soit F1 = {(λ.. µ).. Si n ≥ 2. Donc F1 est un sous-espace vectoriel de Kp . ∩ Fn . C’est un sous-espace vectoriel de R2 ...

Donc f (x) = 0 pour tout x ∈ R. λ). Or la d´composition de tout vecteur de e F + G comme somme d’un vecteur de F et d’un vecteur de G est unique. o` 0G d´signe la e e u e fonction constante x → 0. b ∈ R}. a ∈ R. Soit u ∈ F + G. R). R). Soit f ∈ F ∩ G. f paire} et G = {g ∈ F(R. R) = F + G et on conclut que F(R. o` v ∈ F et w ∈ G. Alors G = G1 G2 o` G1 est le sous-espace vectoriel des fonctions constantes et G2 est le u sous-espace vectoriel des fonctions lin´aires. R).2 La somme F + G est directe si et seulement si F ∩ G = {0}. on ´crit F e l’exemple ci-dessus la somme F1 + F2 est directe. Sous-espaces vectoriels suppl´mentaires. . (C’est un corollaire de la proposition pr´c´dente). D´finition 2. D´finition 2. ce qui prouve que F ∩ G = {0}.3 On dit que F et G sont suppl´mentaires si tout vecteur de E s’´crit de mani`re e e e e unique comme somme d’un vecteur de F et d’un vecteur de G. Prouvons maintenant que F(R. On note alors E = F G. donc 0 = u. c) Dans E = F(R.6. R). Montrons l’unicit´ de la d´composition. R) = F G. On ´crit : e h(x) = Posons f (x) = h(x)+h(−x) 2 h(x)+h(−x) 2 + h(x)−h(−x) . G ` la place de F + G. Quand la somme est directe. Prouvons d’abord que F ∩ G = {0}. R) = F + G. Soient v ∈ F et w ∈ G tels que e e u = v + w . On v´rifie que G1 ∩ G2 = {0G }.SOUS-ESPACES VECTORIELS SUPPLE 2. Soit u ∈ F ∩ G. 2 et g(x) = h(x)−h(−x) . Alors ils sont suppl´mentaires e si et seulement si E = F + G et F ∩ G = {0}. Alors f est ` la fois a paire et impaire. Dans a Proposition 2. λ ∈ R} et F2 = {(0. 0). 2 Alors f est paire et g est impaire. Le vecteur nul appartient ` F + G et u a on a d’une part 0 = 0 + 0 et d’autre part 0 = u + (−u). λ ∈ R} sont des sous-espaces vectoriels suppl´mentaires. R) = F G. On a donc u = u et v = v . f impaire}. Alors en retranchant membre ` membre les deux d´compositions de u on obtient a e 0 = (u − u ) + (v − v ). e e Exemples : a) Dans R2 F1 = {(λ. Proposition 2. e b) Soit G l’espace vectoriel des fonctions affines de R dans R : G = {x → ax + b.6.6.4 Soient F et G deux sous-espaces vectoriels de E. Supposons maintenant que F ∩ G = {0}. On a donc bien F(R. donc pour tout x ∈ R on a f (−x) = f (x) et f (−x) = −f (x). Tout u de F +G s’´crit de mani`re e e unique u = v + w. R). e Soient F et G deux sous-espaces vectoriels de E. on d´finit e F = {f ∈ F(R. Donc u − u ∈ F ∩ G et v − v ∈ F ∩ G.1 On dit que la somme F + G est une somme directe si tout vecteur de F + G e s’´crit de mani`re unique comme somme d’un vecteur de F et d’un vecteur de G.6. Preuve : Supposons d’abord que la somme F +G est directe. On v´rifie d’abord (exercice) que F et G sont des sous-espaces vectoriels de F(R.´ 2. e e Notation. Il existe v ∈ F et w ∈ G tels que u = v + w. ce qui donne u − u = v − v.6 Somme directe de deux sous-espaces vectoriels. Montrons e que F(R. SOMME DIRECTE DE DEUX SOUS-ESPACES VECTORIELS. Exemple. Or u − u ∈ F et v − v ∈ G. Soit h ∈ F(R.6.

On construit la somme de deux vecteurs par la m´thode du parall´logramme.. p F ={ i=1 λi ei . On dit alors e que Vect S est une droite vectorielle de E.. contenant S signifie que si G est un autre sous-espace vectoriel de E qui contient S. donc F ⊂ G. 1..7. Dire que F est le plus petit sous-espace vectoriel. La multiplication par un scalaire d’une combinaison lin´aire finie e ee e d’´l´ments de S est encore une combinaison lin´aire finie des mˆmes ´l´ments de S (avec les ee e e ee coefficients multipli´s par λ). diff´rente de Vect {e}. R) le R-espace vectoriel des fonctions de R dans R..22 CHAPITRE 2. e Soit S une partie non vide de E. On e e constate sur la figure que Vect {e. Montrons que c’est le e plus petit sous-espace vectoriel.. Soit G un sous-espace vectoriel de E qui contient la partie S. µ ∈ K} est l’ensemble e des sommes des vecteurs de la droite vectorielle Vect {e} et des vecteurs de la droite vectorielle Vect {e }. λi ∈ K.1 L’ensemble F est un sous-espace vectoriel de E et c’est le plus petit sousespace vectoriel de E. Dans ce cas.. pour l’inclusion.. Exemples.7. Vect S est donc l’ensemble des fonctions poe lynˆmes de R dans R.. u = 0 et soit S = {u}.3 Soit u ∈ E. Si E = R2 . λ1 ∈ K. On dit e e que S est une partie g´n´ratrice de F . Cas particulier : si S a un nombre fini d’´l´ments. avec tous les coefficients r´els possibles. e e Notation : F = Vect S.. qui contient S. ... . Alors G contient toutes les combinaisons lin´aires finie d’´l´ments e ee de S (Voir Remarques c)). On dessine Vect {e} dans le plan R2 comme la droite passant par 0 de vecteur directeur e. Donc les ´l´ments de Vect S sont des fonctions polynˆmes de R dans R. Soit e ∈ E. il existe p ∈ N et e1 . . ep des vecteurs de ee E tels que S = {e1 . n ∈ N.7. . Preuve : Le fait que F est un sous-espace vectoriel de E est imm´diat : la somme de deux e combinaisons lin´aires de familles finies d’´l´ments de S est une combinaison lin´aire de la e ee e r´union de ces deux familles ( pour les mˆmes coefficients) donc c’est encore une combinaison e e lin´aire finie d’´l´ments de S.. λ ∈ K}. pour l’inclusion. Soit S le sous-ensemble de E constitu´ des monˆmes x → xk . ep }. Proposition 2. e n F ={ i=1 λi si . On dessine Vect {e } comme une droite passant par 0. de tous les degr´s ee o e possibles... . 2. λp ∈ K}.. Donc F est un sous-espace vectoriel de E. D´finition 2. qui contient tous les vecteurs de la partie S. D´finition 2.. On consid`re toutes les familles finies d’´l´ments de S et e ee on appelle F l’ensemble de toutes les combinaisons lin´aires de toutes les parties finies de S.. e = 0 et soit e ∈ E.. Alors Vect {e. e e o On a donc Vect S = {αn xn + . si ∈ S. Alors Vect S = {λu. + α0 . n}. e } = {λe+µe . α0 . pour l’inclusion. k = 0. a) Soit E = F(R. i = 1..2 On appelle F le sous-espace vectoriel de E engendr´ par la partie S. αn ∈ R}. e ∈ Vect {e}. Le sous-espace vectoriel Vect S e o est par d´finition l’ensemble de toutes les combinaisons lin´aires d’un nombre fini de monˆmes.. o .7 Sous-espace vectoriel engendr´ par une famille de vecteurs. alors F ⊂ G. C’est la droite vectorielle engendr´e par le vecteur e non nul u. ESPACES VECTORIELS SUR R OU C. e } = R2 . λ. n ∈ N.. Exemple.

pour l’inclusion.. appel´ droite vectorielle.. .. 1).. On dit aussi que Donc F est le sous espace vectoriel de R e ces deux vecteurs constituent une partie g´n´ratrice de F .fn ∈ F . 0). fp }. e ee donc u + v ∈ Vect (F ∪ G). .. z) ∈ F ) ⇔ (x = −y) ⇔ (x. 0..gq . z) ∈ R3 .... Donc w ∈ F + G. 0)}.4 F + G est le sous-espace vectoriel de E engendr´ par la partie F ∪ G. e e On a donc bien Vect (F ∪ G) ⊂ F + G. c’est ` dire : e e e e a . y. On va prouver d’abord que E = F + G. qui contient ` la fois les ´l´ments du sous-espace vectoriel F et ceux du sous-espace vectoriel G..7. .7. 1. Soit u ∈ F et v ∈ G. il existe f1 . m ∈ N. e On sait que F est un sous-espace vectoriel de R3 (ensemble des solutions d’un syst`me e homog`ne) et que G est un sous-espace vectoriel de R3 (sous-espace vectoriel engendr´ par un e e vecteur non nul. y. (0. il existe λ1 . e Cela signifie que F + G est le plus petit sous-espace vectoriel.fp .. e e g1 . Soit w ∈ Vect (F ∪ G). Alors u + v est une combinaison lin´aire de deux ´l´ments de F ∪ G.) e e e e Proposition 2. Remarquons qu’en montrant que e e F = Vect {(1. q le vecteur gi s’´crive comme combinaison lin´aire des vecteurs f1 ... avec une seule inconnue principale et deux e e e param`tres..´ 2.5 Si F est le sous-espace vectoriel de E engendr´ par les vecteurs f1 . z) ∈ R3 .µm ∈ K tels que n m w= i=1 λi fi + j=1 µj gj . e        x 1 0  x=x y = 2x+ z ⇔  y  = x  2  + z  1  . 1)}. C’est ` dire qu’il existe n.....6 Soient g1 . (la r´union des parties e e g´n´ratrices est une partie g´n´ratrice de F + G... 1.7.λn ∈ K. 2. Exercice r´solu. Remarquons que cela red´montre que F + G est un sous-espace vectoriel de E. Alors w est une combinaison lin´aire d’un nombre e fini de vecteurs de F ∪ G. Finalement : Vect (F ∪ G) = F + G. alors F + G est le e sous-espace vectoriel de E engendr´ par les vecteurs f1 .. y. fp . F = {(x. 0. Donc F est engendr´ par les deux vecteurs (−1. x + y = 0} et G = V ect{(1.. g1 .. e e 3 engendr´ par ces deux vecteurs.. . 1.... Alors V ect{g1 .espace vectoriel de E engendr´ par les vecteurs g1 . 1). 23 R3 b) Soit F = {(x.. gq . (2x − y + z = 0) ⇔ (y = 2x + z) ⇔  z= z z 0 1 On en d´duit que F est l’ensemble des combinaisons lin´aires des vecteurs (1. Peut-on trouver une partie e e de R3 qui engendre F ? On a un syst`me ´chelonn´. ...fp et e si G est le sous. On a donc bien : F + G ⊂ Vect (F ∪ G). On a e e ((x. Cherchons une partie g´n´ratrice de F . gq et f1 .. gq } ⊂ V ect{f1 . z) = y(−1. fp deux familles de vecteurs de E.. 0.. Prouvons d’abord que F + G ⊂ Vect (F ∪ G).. 0) et (0. 1). il existe µ1 .7. Supposons que pour tout i = 1.gq . .. 2x − y + z = 0}.. e Proposition 2.. Alors F + G est le sous-espace e vectoriel de R3 engendr´ par la r´union des parties g´n´ratrices de F et de G.. 2...) Montrer que R3 = F e G..gm ∈ G...... a ee Preuve : Prouvons que F + G = Vect (F ∪ G).. Or la premi`re somme est un vecteur de F et la deuxi`me est un vecteur de G. On sait que F est un sous-espace vectoriel de (c’est l’ensemble des solutions d’un syst`me homog`ne 1 × 3). 0) et (0.. SOUS-ESPACE VECTORIEL ENGENDRE PAR UNE FAMILLE DE VECTEURS.. Soit E = R3 .. . 1. Montrons maintenant que Vect (F ∪ G) ⊂ F + G. y. 0) + z(0. il existe a g1 .... on a red´montr´ que F est un sous-espace vectoriel de R3 ! e e Proposition 2.

. un e sont dits lin´airement ind´pendants si on a l’implication : e e λ1 . z) = (x + y)(1. alors d’une part il existe λ ∈ R tel que (x... On dit qu’elle est libre si toute sous-famille finie est libre. + 0u2 . Les vecteurs u1 .. e e dans laquelle tous les coefficients sont des scalaires nuls... (λ1 u1 + . = λn = 0). 0) + (1. G1 = {x → ax. . Soient I un ensemble infini et ui . 0) + λ2 (0. 1). 1... 0)..un des vecteurs de E. e u G´n´ralisation. 0) donc λ1 = λ2 = 0. une famille de vecteurs e ee de E.. ESPACES VECTORIELS SUR R OU C. Exercice.. Si (x. . + λn un = 0) ⇒ (λ1 = . Donc x = y = z = 0. u1 .. le vecteur nul s’´crit de plusieurs mani`res comme combinaison lin´aire e e e e des vecteurs 0. 0) + z(0. sera li´e si et seulement il existe un nombre fini e e . z) ∈ R3 .. alors (λ1 .. On a (0. e c) Si n ∈ N∗..8 D´pendance et ind´pendance lin´aire. On ´crit a e (x. + λn un = 0. de e coefficients λ1 . Exemples : a) Dans R2 les vecteurs (1. 0. u1 . ce qui signifie que y = z = 0 et d’autre part x = −z... On dit aussi que {u1 ..8.... F + G = Vect {(−1.. on dit qu’ils forment e e une famille libre. Soit (x...24 CHAPITRE 2. 0) .. car pour n’importe quel scalaire λ on a : 0 = λ0 + 0u1 + . 0) et (0... 1) = (0. Finalement R3 = F G. En effet. e Vocabulaire.λn .un ∈ E. donc le vecteur nul s’´crit au moins de deux mani`res diff´rente comme combie e e naison lin´aire des vecteurs (0.. a ∈ R} .λn sont n scalaires non tous nuls tels que λ1 u1 + e . la famille des ui . 3) et (0. 1) = 0. Cette ´criture est 0 = 0u1 + ... b ∈ R}. Remarques : a) Cette implication signifie qu’il n’y a qu’une seule fa¸on d’´crire le vecteur nul c e comme une combinaison lin´aire des vecteurs u1 . i ∈ I. 1) sont lin´airement ind´pendants. 0)) + z(0.. 0. Par cons´quent. Soit G = {x → ax + b} l’ensemble des fonctions affines sur R. Donc u1 est ”lin´airement e ind´pendant” si et seulement si il est non nul. + 0un ... Prouver que G = G1 G2 . D’o` R3 ⊂ F + G et donc R3 = F + G. 1... 0)... 1).. y. u1 . y. et si λ1 . l’implication devient (λ1 u1 = 0) ⇒ (λ1 = 0). 0)} Montrons que tout vecteur de R3 appartient ` F + G. 3) − e e 3(0. un } est une partie libre. y. (1. e b) Si la partie {u1 . 0.. On dit qu’elle est li´e si elle n’est e pas libre.. 0.. 0.. e e 2. 1). 0.. i ∈ I. b) Si n = 1... u Montrons que F ∩ G = {0}. G2 = {x → b. 1).. 1) ne sont pas lin´airement ind´pendants.un sont lin´airement ind´pendants. et si u1 . y. donc (x. La relation lin´aire ”triviale” est celle o` les coefficients sont tous nuls.λn ∈ K.. 0) + y(−1.. 0. un } est li´e. Attention : Ne pas confondre somme de deux sous-espaces vectoriels et r´union (F + G et e F ∪ G). (0. λ2 ) = (0. e e e D´finition 2. z) ∈ F ∩ G. R).. En effet si e e λ1 (1... On peut d´finir la notion de famille libre ou li´e pour des familles de vecteurs e e e e qui ont une infinit´ d’´l´ments.. 0. y. 1. 3) et (0.un sont des vecteurs de E. b) Dans R2 les vecteurs (0... Sinon. on dit qu’ils forment une famille li´e.. on dit qu’on a une relation lin´aire non triviale entre les vecteurs u1 . Ne pas confondre sous-espaces vectoriels suppl´mentaires et sous-ensembles compl´mentaires. alors 0... a) Si les vecteurs u1 .un . z) = x(1. 0) + y((−1.1 Soit n un entier positif et u1 .un ne sont pas lin´airement e ind´pendants.un .... z) = λ(1.un .... Prouver que G1 et G2 sont des sous-espaces vectoriels de F(R..

. = λn = 0. un . on s’interessera plus e particuli`rement aux familles libres qui ont un nombre fini d’´l´ments et aux parties g´n´ratrices e ee e e qui ont un nombre fini d’´l´ments).. Alors on a : a e n −λi 1 u1 = λ1 (−λ2 u2 − .. donc u1 .. − λn un ).. e e Alors u1 .1 Si il existe des vecteurs u1 . ..+λn un = 0... . e Supposons maintenant que l’un des vecteurs est combinaison lin´aire des autres. . λ1 ... λn non tous nuls e e tels que λ1 u1 + . un . e e Preuve : En exercice... . ..8.λn tels que u = λ1 u1 + .. alors on aurait λ1 u1 +. un des vecteurs de E lin´airement ind´pendants et soit v un vecteur de E.un ne sont pas lin´airement ind´pendants.9.un sont lin´airement ind´pendants.. − λn un . + λn un ... e e donc λ1 = .. la proposition ci-dessus signifie que deux vecteurs sont li´s si et seulee ment si ils sont colin´aires. un forment une famille li´e (autrement dit..2....un sont des vecteurs de E lin´airement ind´pendants..un ne sont pas lin´airement ind´pendants (car le coefficient 1 est = 0).. on en d´duit e que λ1 − λ1 = ...8. 25 de vecteurs pris parmi les ui qui forment une famille li´e. ... les vecteurs u1 . Si on avait µ = 0. Preuve : (i) ⇒ (ii) : soit u un vecteur de E.un engendrent E il existe des scalaires λ1 . e e Preuve : (i) ⇒ (ii) : voir la proposition ci-dessus.4 Si n ≥ 2 Et si u1 .un de E qui sont lin´airement ind´pendants et e qui engendrent E... donc λ1 = λ1 .. − λn un = 0. e e Remarque : Pour n = 2.. = λn − λn = 0. e .... Quitte ` r´indexer... Or u1 .. En soustrayant membre ` membre on trouve 0 = e e e (λ1 − λ1 )u1 + .+λn un = 0... ee Proposition 2.........3 Soit n ∈ N.. ... Donc µ = 0 e et on peut donc diviser par µ..λn tels que u = λ1 u1 + ... λn = λn ..... λn non tous nuls”.... BASES... Donc la d´composition de u comme combinaison lin´aire des vecteurs u1 . + (λn − λn )un .. Th´or`me 2.. ils e ne sont pas lin´airement ind´pendants).2 Les deux propositions suivantes sont ´quivalentes : e e e (i) les vecteurs u1 .... e Preuve : Supposons que les vecteurs u1 .. up sont a e lin´airement ind´pendants.. e a e e Proposition 2. (ii) ⇒ (i) : par (ii) il existe µ....un ...un forment une famille li´e si et seulement si e l’un des vecteurs est combinaison lin´aire des autres. e µ µ Proposition 2.λn des scau e laires tels que u1 = λ2 u2 + .. λ1 .. . Il existe λ2 . Comme u1 ... Comme les vecteurs u1 .... On en d´duit que v = − λ1 − .. Alors il existe des scalaires λ1 .. Alors les deux propositions suivantes sont ´quivalentes : e (i) v est combinaison lin´aire de u1 ... Soient u1 ... e e D´finition 2.. Supposons qu’il existe des scalaires a λ1 .... e (ii) Les n + 1 vecteurs v.un forment une base de E.. En r´indexant e e on peut se ramener au cas o` u1 est combinaison lin´aire de u2 ...9 Bases.9.. donc u1 − λ2 u2 − . u1 . 2. . + λn un .un forment une base de E (ii) tout vecteur de E s’´crit de mani`re unique comme combinaison lin´aire des vecteurs e e e u1 . .. λn ∈ K non tous nuls tels que µv+λ1 u1 +. les vecteurs u1 ....un sont deux ` deux diff´rents et pour tout 1 ≤ p ≤ n.. on peut supposer que λ1 = 0. (c’est ` dire si il existe un scalaire λ tel que u1 = λu2 ou u2 = λu1 ). ce qui contredit l’hypoth`se ”µ.. on dit que u1 .. c’est ` dire que u1 = a i=1 ( λ1 )xj . un sont lin´airement ind´pendants. + λn un = 0. + λn un . (Dans ce cours.....2 Si n ≥ 2.un est unique... . Donc u1 est combinaison lin´aire des vecteurs u2 .......8.un ..9...

n ≥ 2.. 0..un engendrent E... ..26 CHAPITRE 2. y) = a(1.. En effet... Ceci est la d´finition de e e vecteurs lin´airement ind´pendants. .... comme tout vecteur de E s’´crit de mani`re unique comme combinaison lin´aire e e e des vecteurs u1 .. 0) (1 ` la i`me a e place). + xn (0. 1.. ..... + λn en s’appellent les coordonn´es du vecteur u dans la base (e1 .. xn ) de Rn s’´crit comme combinaison lin´aire des vecteurs e1 . y) ∈ R2 ...... 1) et si a et b sont des scalaires tels que (x. Forment-ils une base de R3 ? (Rep.... e e Le vecteur nul.. tout vecteur de R2 s’´crit de mani`re unique comme combinaison lin´aire de (1. les vecteurs e1 = (1. −1).. y) = x(1... ...... + 0un ).. ... xn ) = x1 (1.. 0) + .. e e Exemples : a) Dans R2 . en ). forment une base de Rn . 0.3 Soit (e1 . Soit u = (x1 . 1). b) Pour n ∈ N. les vecteurs (1. ESPACES VECTORIELS SUR R OU C.. 0. −1)... Cette ´criture est unique car si (x1 . Prouvons qu’ils sont lin´airement ind´pendants. en = (0. −1. alors les vecteurs u1 . on notera : (e1 .. Alors les coordonn´es de u e n sont ses composantes x . 1) : soit (x. e e e on ´crit (x. .) Notation Si les vecteurs e1 . 1... c) On donne les vecteurs de R3 : v1 = (1. :Non. 0) + . .. 0) et (0. v3 = (2. 1). e alors a = x et b = y.... 0)... −1. . D´finition 2. . 0).. alors x1 = e a1 . xn ) = a1 (1.. 0. ... appel´e la base canonique.x ..λn ∈ K qui sont e tels que u = λ1 e1 + .. Les scalaires λ1 . 0) et (0.. dans la base canonique de K 1 n . 0) + y(0...... . 1)... Soit u ∈ E.. 1). . 1) forment une base de R2 .. + an (0... . . v2 = (0.. En effet..... ....un ( cette ´criture unique est : 0 = 0u1 + ... ..... (ii) ⇒ (i) : Comme tout vecteur de E s’´crit comme combinaison lin´aire des vecteurs e e u1 . en ) est une base de E.. tout e vecteur (x1 . ... en ) une base de E.. xn ) un vecteur de Kn . 0) + b(0. e Remarque : Si E = Kn .un ....en forment une base de E. 0. 0.9. ei = (0.. en : e e (x1 .xn = an ..

0..Chapitre 3 Espaces vectoriels sur R ou C de dimension finie. e2 . e3 . On suppose E = {0}. Existence des bases. 0) s’´crit au moins de deux mani`res comme combie e naison lin´aire des vecteurs e1 . . up } est alors appel´ une partie g´n´ratrice de E et il peut exister e e e d’autres coefficients µ1 . Soient q et e e e e e 27 ... 0)... pour certains scalaires λ1 .. Par exemple.. e2 . si on a : q = 2. ce qui est absurde.µp tels que u = µ1 u1 + . λ2 ). Exemple e d’un espace vectoriel de dimension infinie. montrons que l’espace vectoriel E sur R des fonctions polynˆmes ` coefficients r´els n’est pas de dimension finie. f1 : x → x2 et f2 : x → x3 + 1.fq qui engendrent E. 1. 0. o e not´ d. + µp up . 0. e4 . 1). 1. e D´finition 3. e2 . e e e4 . o e toute fonction polynˆme s’´crit x → λ1 x2 + λ2 (x3 + 1)...) Alors toute fonction polynˆme est une combinaison lin´aire de f1 .. (Par exemple.. e2 = (0. 3. o e e e a R3 3. e (0. donc tout vecteur de R3 s’´crit comme combinaison lin´aire de e1 . Exemple : Soit l’espace vectoriel sur R E = R3 .. e2 . C’est ` dire s’il existe un sous-ensemble de vecteurs {u1 . on a (1... up } tel ee a que tout vecteur u de E s’´crive u = λ1 u1 + .. Parmi ces fonctions polynˆmes. ce degr´ maximal est e e d = 3. Soit E un espace vectoriel sur K = R ou C. Donc les e e vecteurs e1 . + λp up . e3 . 0) et e4 = (0.2 Th´or`me de la base incompl`te. e4 engendrent R3 mais ne forment pas une base de R3 . Or tout vecteur de est combinaison lin´aire des vecteurs de la base canonique (1. (0. e e e Th´or`me 3. Supposons qu’il existe un nombre fini de fonctions polynˆmes e o f1 .. On dit qu’ils sont de dimension infinie.. Faisons une o a e d´monstration par l’absurde. 0) = e1 − 2e2 + 2e4 . 2. Ces trois vecteurs de la base canonique s’´crivent comme combinaisons lin´aires des e e vecteurs e1 . Remarque : Il existe des espaces vectoriels qui ne sont pas engendr´s par une famille finie de e vecteurs.. 1).1 (Th´or`me de la base incompl`te). 1.fq (dans l’exemple. e Rappel L’ensemble {u1 .. Donc toute o e e fonction polynˆme est de degr´ inf´rieur ou ´gal ` 3. l’une au moins a un degr´ maximal. e3 = (0.. En effet on ´crit : e3 = 1e3 et e3 = e2 − e4 .1 D´finition d’un espace vectoriel de dimension finie.... 0. En effet.2.. 1. Les vecteurs e1 = (1. e3 . .λp .1 On dit que E est un espace vectoriel de dimension finie s’il est engendr´ par e un nombre fini d’´l´ments. On remarque que le vecteur e3 = (0. 0). e4 ..1. 1) engendrent R3 . 0). pour certains r´els λ1 . e3 ..

28 CHAPITRE 3. gn } est libre. gq } tel que les ´l´ments de l’ensemble {f1 .. Premier cas : G ⊂ L ∪ G . .. Proposition 3. q ≥ 1.fp lin´airement e ind´pendants. Supposons que c’est g2 .. . e e Alors toute partie de E contenant plus de q ´l´ments est li´e. ee Preuve : Soit f un vecteur non nul de E et soit G une partie g´n´ratrice de E.. . Commentons l’existence d’une partie G de G de cardinal maximal telle que L ∪ G soit libre. Preuve de cette assertion. Si toutes ces parties sont li´es. donc g s’´crit comme combinaison lin´aire des ´l´ments de e e ee L∪G. Il reste ` prouver qu’elle engendre e a E. Alors il existe un sous-ensemble G de e e l’ensemble {g1 .. Par hypoth`se.. E = {0}. e Corollaire 3.L ∪ {gq }. Elle a un cardinal strictement plus grand que celui de G . de cardinal maximal. non ´gal ` {0} poss`de des bases qui ont un nombre fini d’´l´ments.. fp } ∪ G forment une base de E.2 Tout espace vectoriel de dimension finie. e 3. alors on prend G = {g1 }. ee Le th´or`me dit que si E est de dimension finie et si E = {0}... (On commentera plus tard l’existence d’une telle partie G ). gq }.. Il suffit de prouver que tout ´l´ment g de G est combinaison lin´aire des vecteurs de L ∪ G . Assertion : L ∪ G est une base de E.. Soient e f1 . . En particulier on peut choisir p = 1 et prendre pour f1 n’importe quel vecteur e non nul de E. . On recommence avec les parties L ∪ {g1 .. On recommence ee avec les parties L∪{g1 } et {g2 .3 Notion de dimension d’un espace vectoriel. alors G = ∅. a e Deuxi`me cas : il existe g ∈ G. L ∪ G est libre. p ≥ 1. gq } et L = {f1 . alors de toute partie g´n´ratrice de E on peut extraire une base.. Soit G une partie de G telle que L ∪ G soit libre.. Alors il n’y a rien ` d´montrer... Etc...... puis voir la e e d´monstration ci-dessus. ee e Distinguons deux cas... de cardinal le plus grand possible telle que L ∪ G est libre vient de ”l’axiome du choix”.. .. Il existe des parties G de G telles que L ∪ G soit libre : il y a au moins G = ∅. Supposons que E soit engendr´ par les vecteurs g1 . e a e Corollaire 3. Point de vue ”axiomatique” : l’existence de d’une partie G de G.fp des vecteurs de E lin´airement ind´pendants. Point de vue ”pratique” : on regarde les parties L ∪ {g1 }.2.. gn }... g ∈ G ... On regarde donc les parties L∪{g1 }∪{g2 }...gq .3. Supposons que c’est g1 . ESPACES VECTORIELS SUR R OU C DE DIMENSION FINIE. .. On en d´duit que L ∪ G ∪ {g} e n’est pas libre.... g2 } et {g3 . Consid`rons la partie G ∪ {g} e / / e de G.. Or L ∪ G est libre.. fp }. En particulier. ee e . donc L ∪ G engendre E. tout ´l´ment g de la partie g´n´ratrice G est combinaison lin´aire des ´l´ments de ee e e e ee L ∪ G . gq }.. g ∈ L ∪ G .. Si toutes ces parties sont li´es... e e Preuve : Soit G une partie g´n´ratrice de E et soit f un vecteur non nul de G. . Par le th´or`me e e e e de la base incompl`te il existe une partie G de G telle que {f } ∪ G est une base de E. Sinon il existe un ´l´ment g de G tel e ee que L ∪ {g1 } ∪ {g} est libre. Soit q ∈ N le cardinal de G. e Sinon il existe un ´l´ment g de G tel que L∪{g} est libre. Posons G = {g1 . alors toute partie libre de E e e peut ˆtre compl`t´e en une base de E en lui ajoutant des vecteurs d’une partie g´n´ratrice.1 Soit G un ensemble fini de g´n´rateurs de E. e ee e e Preuve : Remarquons d’abord qu’on peut toujours trouver des vecteurs f1 .. Finalement..L∪{g1 }∪{gq }. n ≤ q tel que L ∪ {g1 ...On arrive ` un nombre n maximal. a On pose G = {g1 .2. p des entiers.3 Si E est un espace vectoriel de dimension finie.

.. Tout sous-espace vectoriel admet un suppl´mentaire. f1 . . Elles ont un nombre fini d’´l´ments car il existe une ee partie g´n´ratrice finie. Soit L = e {f1 . Preuve : Prouvons (i).3.en . on trouverait une base d’au moins n + 1 ´l´ments). Soit n =CardB et n =CardB . gq } est libre... Soit un ´l´ment g de G .4. 0) et (0.... Alors toutes les bases de E sont finies et ont le mˆme nombre d’´l´ments.. ... Alors : e e (i) Toute partie libre a au plus n ´l´ments et toute partie libre de n ´l´ments est une base de E.. Au bout de q fois on obtient ee que L\{f1 . TOUT SOUS-ESPACE VECTORIEL ADMET U Preuve : Posons G = {g1 . gq }.. donc n = n .. 3. La partie L\{f1 . On a G = ∅.... . Soit F un sous-espace vectoriel de E. Comme L est libre. g} est libre. 0) de vecteur directeur e a (2. .. f2 } ∪ {g1 ..3. gq } engendre E. Alors tout vecteur de F s’´crit comme combinaison lin´aire des vecteurs e e e1 . On conclut que cette partie est ` ee a la fois libre et li´e. . Par le th´or`me de ee e e e la base incompl`te. L’hypoth`se de l’existence d’une partie libre d’au moins e e q + 1 ´l´ments est donc fausse. .. Il admet pour base le vecteur (2.. On va faire une d´monstration par l’absurde.. tel que L\{f1 . F est la droite vectorielle engendr´e par le vecteur (2. Montrons qu’elle n’engendre e a e pas E..3..3 Si E est de dimension finie. on peut compl`ter f1 . ce qui est absurde. g = g1 .3. sinon cela donnerait une relation lin´aire non triviale entre les ´l´ments de L. 1) ∈ F et F est de dimension 1. alors cette base est g1 .gq . 1).. Supposons que cet ´l´ment est g1 . E n’admet pas de base). (Si E = {0}.. Si n = q.2 Soit E un espace vectoriel de dimension finie. donc si n = p. dans e le plan rapport´ ` la base canonique. Th´or`me 3.. g2 } ` la place de L\{f1 } ∪ {g1 }.fq } ∪ {g1 . fq+1 . On a ee que L\{f1 } ∪ {g} est libre.4 Soit E = {0} un K-espace vectoriel de dimension n.. comme la droite passant par (0... e Soit E un K-espace vectoriel de dimension n. Supposons que c’est ee g2 .... f2 . Par le th´or`me de la base incompl`te. le nombre d’´l´ments commun ` toutes les bases e ee a de E s’appelle la dimension de E. gq } qui forme une base de E. e ee Montrons (ii).en une base de E.fp en une base de E. Or comme G = {g1 . On est arriv´ ` : L\{f1 } ∪ {g1 } est libre et G engendre E. 1) (on la dessine. Soit e1 ..en . on peut faire ce raisonnement q fois. Nous allons montrer que F est e engendr´ par un nombre fini de vecteurs.4 Sous-espaces vectoriels en dimension finie. ee ee (ii) Toute partie g´n´ratrice a au moins n ´l´ments et toute partie g´n´ratrice de n ´l´ments est e e ee e e ee une base de E. On recommence ee ea avec L\{f1 } ∪ {g1 } ` la place de L. f1 ne peut pas s’´crire comme une combinaison lin´aire d’´l´ments e e ee de L\{f1 }.fq } ∪ {g1 . f2 } ∪ {g1 ... ee Corollaire 3. gq }. Cela e ee prouve que L\{f1 } n’engendre pas E.. en compl`tant. Il a existe donc un ´l´ment g de G. car c’est un sous-ensemble de la base L\{f1 } ∪ G ... ..fp forment e e une base de E (sinon.. Exemple : E = R2 .... Cela donne une relation lin´aire e e e non triviale entre les ´l´ments de L\{f1 .... SOUS-ESPACES VECTORIELS EN DIMENSION FINIE. e ee Preuve : Soit B et B deux bases de E. Il existe un sous-ensemble de {g1 . . le vecteur fq+1 s’´crit comme combinaison lin´aire des vecteurs g1 . il existe une partie e e e G de G telle que L\{f1 } ∪ G est une base de E. 1)).} une partie libre de plus de q ´l´ments. . f2 } ∪ {g1 } est libre et n’engendre pas E. Comme il existe une base de E ` n ´l´ments.. . Donc si f1 . On va utiliser le th´or`me de la base ee e e incompl`te pour arriver ` une absurdit´. qui ne sont peut-ˆtre pas des ´l´ments de la base e e ee e1 .. Comme a L a au moins q + 1 ´l´ments. La partie L\{f1 } est libre.gq .fp forment une partie libre... alors toute partie de plus a ee de n ´l´ments est li´e. e e D´finition 3.. mais les vecteurs ei ne sont pas forc´ment dans F .. On recommence avec la partie libre L\{f1 . Donc n ≤ q.. Alors on a n ≤ n et n ≥ n . Alors (1. alors p ≤ n.... f2 ..

. ESPACES VECTORIELS SUR R OU C DE DIMENSION FINIE. Puis.. .. Comme les vecteurs e1 .. + λp ep et w = λp+1 ep+1 + . Th´or`me 3. Comme f1 ...en sont lin´airement ind´pendants (car ils font partie d’une famille de vecteurs e e ..ep+q d’autre part sont lin´airement ind´pendants. donc la d´composition de u suivant les sous-espaces vectoriels F et G est unique..... les hyperplans sont les sous-espaces vectoriels de dimension 3..fp ne sont pas e e lin´airement ind´pendants car ils constituent une famille de p + 1 vecteurs...en forment une base de E...f1 ... o` λ1 ........1 Si F est un sous-espace vectoriel de E.λp+q ∈ K.. On e appelle hyperplan vectoriel de E tout sous-espace vectoriel de dimension n − 1..ep .ep+1 ...fp e e e e engendrent F . e Preuve : Soit e1 . alors E = F (car tous deux sont ´gaux ` Vect {f1 .λp+q = λp+q ....ep+q e e sont lin´airement ind´pendants et engendrent E..ep+q .. Preuve : Si F = {0} alors dim F = 0 et le th´or`me est d´montr´.. On pose G = V ect{ep+1 ..ep+q est unique....ep+1 ... Soit u ∈ E. e e o` λ1 . Soient f1 .ep . donc c’est vrai aussi pour n + 1 vecteurs de F . Si dim F = dim E.. + λp ep et w = λp+1 ep+1 + ... Comme ils forment aussi une base de F ........ep et w est combinaison e lin´aire des vecteurs ep+1 .λp+q = 0.. Soit u ∈ F .ep+1 . et dim F ≤ n..ep+q forment une base de e E..... on en d´duit que λ1 e1 + .ep+1 ...... + λp+q ep+q = 0. fn }). Les vecteurs ep+1 .. Posons v = λ1 e1 + . on a v = λ1 e1 + ...λp+q ∈ K..ep .4... Or ` gauche du signe ´gal nous avons un vecteur de F et ` droite du signe a e a ´gal un vecteur de G.fp sont e e lin´airement ind´pendants.... Th´or`me 3... Par le th´or`me de la base incompl`te...4 Soit E un espace vectoriel sur K de dimension finie. + λp+q ep+q .en des vecteurs de E tels que les vecteurs e1 .30 CHAPITRE 3.. Si e1 ... Il forme une famille libre. alors F est de dimension finie et e e dim F ≤ dim E....3 Soient F et G des sous-espaces vectoriels de E diff´rents de {0}.ep+q .. Or v est combinaison lin´aire des vecteurs e1 .. + λp ep = 0 et que e e λ1 e1 + ..fp e e p vecteurs de F lin´airement ind´pendants... e a D´finition 3. D’autre e part ´crivons le vecteur nul comme combinaison lin´aire des vecteurs e1 .... + λp ep = −λp+1 ep+1 − ... + λp ep + λp+1 ep+1 + .. Preuve : Supposons que F et G sont suppl´mentaires. alors ils forment une base de e e F ..... Alors λ1 e1 + .2 On appelle plan vectoriel de E tout sous-espace vectoriel de dimension 2.fp ..... donc ils e e forment une base de E.ep+q forment une base de E.ep une base de F ... si u = v + w est une autre d´composition de u sur les sous-espaces e u vectoriels F et G.ep .... Exemple : Si E = R3 les hyperplans sont les plans vectoriels... e 1 ≤ p ≤ n pour lequel on peut trouver p vecteurs de F lin´airement ind´pendants..... e e Supposons maintenant que les vecteurs e1 ...ep+q engendrent E.. Soient e e des scalaires λ1 . alors F = E.. Donc les vecteurs e1 . alors F et G sont des sousespaces vectoriels suppl´mentaires si et seulement si les vecteurs e1 . Proposition 3. Donc il existe un plus grand entier p. alors λ1 = 0.. Donc les vecteurs e1 . .. + λp+q ep+q . − λp+q ep+q ..ep+1 .... Supposons que p = n. + λp+q ep+q .... Comme F ∩ G = {0}. u w ∈ G et u = v + w. Si E = R4 .ep . alors u est combinaison lin´aire de f1 .. On sait que n + 1 vecteurs de E sont li´s. en }..ep e forment une base de F et si ep+1 .. Supposons F = {0}... on peut compl`ter e e e e ces vecteurs pour obtenir une base de E... Alors f1 .....fn sont n vecteurs lin´airement ind´pendants. Remarque : Les droites vectorielles sont les sous-espaces vectoriels de dimension 1.. + λp+q ep+q ..λp+q tels que 0 = λ1 e1 + .. Alors v ∈ F ..... Alors les vecteurs u. On a donc E = F G.4.. Comme de plus ils sont lin´airement ind´pendants.ep d’une part et ep+1 .... Comme la d´composition de u sur la e base e1 ....... Ils forment une base de E.... + λp ep + λp+1 ep+1 + ...ep+1 . alors λ1 = λ1 .. + λp+q ep+q . Alors tout sous-espace e e vectoriel de E admet un sous-espace vectoriel suppl´mentaire. Soient ep+1 . Alors tout vecteur u de E s’´crit de mani`re unique u = λ1 e1 + ..4.. e e e e Soit un vecteur non nul de F .ep+q forment une base de G. e donc u = λ1 e1 + ..4. Il existe v ∈ F et w ∈ G e uniques tels que u = v+w.ep . On en d´duit que f1 .

1 Passage d’une partie g´n´ratrice ` une base .... 3). 0.. On explique la m´thode sur des exemples. u2 = w2 + λ2 w1 . Dans R4 on consid`re le sous-espace vectoriel F engendr´ par les vecteurs e e u1 = (1...uq . On voit que e1 e et e2 sont non colin´aires. On les place en colonnes.wq = uq − λq u1 engendrent F .. En effet. uq }. Montrons que e1 . e e b) par un syst`me d’´quations lin´aires de second membre nul ... e Principe.. On e appelle rang de la famille de vecteurs u1 .. donc E = F G par la proposition ci-dessus.. wq } . Donc les vecteurs e e e ep+1 . 1. .uq ∈ e Vect {w1 ....uq est r. uq }. wq } ⊂ F et d’autre part on peut ´crire u1 = w1 .en forment une base de G.... RANG D’UNE FAMILLE DE VECTEURS. 4.uq qui soit une base de Vect {u1 ..5. 1..e4 sont lin´airement ind´pendants.. G est e une droite vectorielle........ donc F ⊂ Vect {w1 . a ee dans le cas o` r < q..... Un sous-espace vectoriel de Kp peut ˆtre donn´ d’au moins trois mani`res : e e e a) par une partie g´n´ratrice ... c’est ` dire que F = Vect {u1 .. Si λ2 .. −1). 0).. on la prend comme e pivot. u3 = (1.5..6. D´finition 3. alors les vecteurs w1 = u1 .. 2.. 0)... S’ils ´taient li´s... La premi`re ´tape consiste ` remplacer pour tout i ≥ 2 le vecteur ui par un vecteur de la e e a forme ui − λu1 .. e e a Le probl`me : on donne un sous-espace vectoriel F de Kp par des vecteurs u1 . 2. e e e e alors e4 serait combinaison lin´aire de e1 et e2 (car e1 et e2 sont lin´airement ind´pendants).. La r´union d’une base de F et d’une base de G forme une e base de E. Comme la premi`re composante de u1 est non nulle.. .. a 3.. . 0. 1). wq }.. e On va ´crire les vecteurs u1 .. 0. Finalement.uq ) et trouver une base de F .. w2 = u2 − λ2 u1 . donc ils sont lin´airement ind´pendants. Donc e1 .. . Remarque : Si le rang de la famille de vecteurs u1 . toute sous famille de u1 . Or e e e cela implique que la derni`re composante de e4 serait nulle.. donc u1 . 2. 1) et u5 = (4.uq des vecteurs de E.. 1. 3. 1.. e e e c) par une base.1 Soit E un espace vectoriel sur K et soient u1 ... e Premier exemple.... Exemple : Dans R3 on consid`re le sous-espace vectoriel F engendr´ par e1 = (1.. 0).e2 .. u ee e 3.e4 sont e lin´airement ind´pendants. o` le scalaire λ est choisi pour que la premi`re composante du vecteur u e .. 0) et e3 = (1. . F = Vect {w1 . 0. 0).6 Sous-espaces vectoriels de Kp .. donc ils forment une base de R3 .uq la dimension du sous-espace vectoriel engendr´ e par les vecteurs u1 . On veut calculer la dimension de F (encore a appel´e le rang de la famille de vecteurs u1 .. On peut aussi se e poser le probl`me d’extraire une base de F de la famille de vecteurs u1 . u4 = (3...uq . Soit G le sous-espace vectoriel engendr´ par e4 = (0. 31 lin´airement ind´pendants) et ils engendrent G (par la d´finition de G).3..λq sont des scalaires.. . D’autre part. d’une part on a w1 ..uq de plus de r ´l´ments est li´e.5 Rang d’une famille de vecteurs. De plus. Il faut savoir passer d’une description ` l’autre... Cela montre e e 3 =F que R G... u2 = (2. leur nombre est trois.... 13... −1.. e2 = e e (1. donc Vect {w1 . calcul du rang. alors r ≤ q et on peut extraire une sous-famille ` r ´l´ments de la famille u1 ......wq ∈ F . On remarque que e1 +e2 = 2e3 e e e donc F est de dimension 2 et admet une base form´e des vecteurs e1 et e2 ..uq en colonnes et utiliser l’algorithme du pivot de Gauss e appliqu´ aux colonnes u1 . uq qui e l’engendrent.e2 .uq = wq + λq w1 ... wq }.uq . ce qui est faux..

t5 }. On a donc trouv´ que le e rang de la famille des 5 vecteurs u1 . u3 .. u3 . En effet.. u2 .. Dans certains cas.. i = 1. Appelons −1 4 0 2 13 −1 6 1 5 17 1 0 0 1 −1 1 −2 −1 −2 −5 w1 ... ` titre d’exercice. i = 1.. w4 }. . t2 . w3 . t5 }. Puis t2 e e e e n’est pas combinaison lin´aire des vecteurs t4 et t3 . Montrons. 4 s’´crivent comme des combinaisons lin´aires des vecteurs ui .. e e e Comme on sait qu’ils engendrent F . .. Deuxi`me exemple. . w3 ... donc les vecteurs η1 . η3 .. t4 } = F ...η5 de la forme ηi = wi − λi w2 . ` e e a cause du caract`re ´chelonn´ de leurs composantes. Or t5 est nul.η4 sont combinaisons lin´aires de w1 . e e donc t4 ..η4 . u3 ..w4 e et r´ciproquement les vecteurs w1 . t4 }. w5 }.. 1. en mˆme temps qu’une base de F . u5 . u3 . 1 2 1 3 4 1 0 0 0 0 0 1 1 1 2 0 1 1 1 2 ui − λu1 soit nulle.. Puis t1 n’est pas combinaison lin´aire de t4 . 1 0 0 0 0 1 0 0 −1 6 −5 0 1 −2 1 −1/5 0 0 .t5 les colonnes qu’on vient d’obtenir. On recommence le mˆme raisonnement ` la derni`re ´tape.. 5. t2 . .. on le prend comme pivot et on recommence sur les colonnes j. 2.. w4 }.. η5 } = Vect {t1 . t3 .. t3 et t4 sont lin´airement ind´pendants. u4 forment une base de F . 4. Comme le coefficient de la deuxi`me colonne et deuxi`me e e e e e ligne est non nul... t2 . 1... En effet.. 0 0 Appelons t1 . on recommence sur les colonnes 4 et 5. η4 }. w2 . u4 . u2 .. w2 . A l’´tape suie e vante. η4 }. t3 . On cherche la dimension de F . .t2 . η2 . On remarque que w1 . afin d’avoir ` chaque it´ration e e a e un pivot non nul... w5 } = V ect{η1 .. donc toute partie g´n´ratrice de 4 vecteurs est une base de F .. t4 } = Vect {η1 . u4 engendrent donc F . e2 = (1. Alors F = Vect {w1 . .w4 sont combinaisons lin´aires de η1 . on n’a pas intervertit les colonnes.. e3 = (2.. Les vecteurs u1 . t2 . t4 sont lin´airement ind´pendants. i = 1. Par cons´quent Vect {u1 . .η5 les 5 colonnes obtenues. t3 . On ´crit : e 1 0 0 0 0 0 1 0 0 0 Appelons η1 .. Par cons´quent e e e Vect {w1 . e a e e On trouve Vect {t1 ..... e e e w4 ∈ Vect {u1 .. t3 . . 4 s’´crivent comme des combinaisons lin´aires des e e e vecteurs wi . u3 . u5 est 4.. η5 } .. Selon le principe ´nonc´ e e −1 6 −5 4 5 1 −2 1 −1 −1 ci-dessus.32 CHAPITRE 3. w3 .. On ´crit e e .. on peut ˆtre oblig´ d’intervertir les colonnes. De plus les vecteurs t1 . u2 . u4 } et que u1 . d’apr`s le principe ´nonc´ ci-dessus. . u2 . Finalement : Vect {u1 . w4 et w5 les colonnes qu’on vient d’obtenir. 0. u3 . t4 et t3 sont non colin´aires. 2. on a e Vect {η1 ... 1).. t2 sont lin´airement ind´pendants. Or F est de dimension 4. . . u2 . les vecteurs wi .. u2 . 4 et e e r´ciproquement.. sinon sa deuxi`me composante serait nulle.. u3 et u4 forment une base de F . Donc t1 . u4 .w5 les vecteurs obtenus apr`s la premi`re ´tape. u4 } = Vect {t1 . on a Vect {w1 . 2. i = 1. Remarquons qu’au cours de l’utilisation de l’algorithme du pivot de Gauss. que cela implique que a les vecteurs u1 . Dans R4 on consid`re le sous-espace vectoriel F engendr´ par les vece e e teurs e1 = (1..... Donc finalement F = Vect {t1 . e e e sinon sa premi`re composante serait nulle. i = 1. Toujours grace au mˆme principe. u3 . 3. Donc e e les quatre vecteurs u1 . on n’a pas eu besoin d’intervertir l’ordre des colonnes.. 0). . w2 . alors ils forment une base de F ... donc F = Vect {t1 . . 1) et e4 = (0.. w2 . On ´crit : e puis . extraite de la famille u1 . w4 .. u2 . 1.. w4 } = Vect {η1 ... t2 ...... Soient w1 .. w3 . t3 .u4 ∈ Vect {w1 . u2 .. j ≥ 2. 2).... u4 } = Vect {w1 .. les vecteurs ui . . ESPACES VECTORIELS SUR R OU C DE DIMENSION FINIE. t3 . On trouve donc des vecteurs η1 .

4). 1. On intervertit par exemple la deuxi`me colonne avec la derni`re. t3 . Si on a e e e t3 = 0. Remarquons qu’on obtient d’autres e e e e syst`mes d’´quations cart´siennes de F en multipliant l’une ou l’autre des deux ´quations du e e e e syst`me ci-dessus par une constante non nulle. w est de rang 2. e 1 2 x 1 0 0 1 1 y 1 −1 y − x .3. t2 . Soit w = (x.. puis 3 2 −6 −2 3 2 0 −2 1 2 −1 −1 1 2 5 −1 Le troisi`me pivot est nul. t4 sont lin´airement ind´pendants. On obtient : e e e 1 2 3 1 0 0 0 1 0 0 . Donc w ∈ F si et seulement si la famille de vecteurs u1 . ou en formant une ou plusieurs combinaisons e lin´aires des deux ´quations et en les joignant au syst`me. Un tel syst`me e e e e e sera appel´ un syst`me d’´quations cart´siennes de F . On va trouver e un syst`me homog`ne d’´quations lin´aires dont l’ensemble des solutions est F .. w est trois. . e . On prend la deuxi`me e 2 3 z 2 −1 z − 2x 1 4 t 1 2 t−x 1 0 0 1 −1 0 colonne comme pivot. donc t1 . u2 . On prend la premi`re colonne comme pivot. Ils forment une e e e base de F . car e e leurs composantes sont ”´chelonn´es”. Utilisons la m´thode d´crite dans ce chapitre pour calculer le rang d’une e e famille de vecteurs. u2 . On ´crit les trois vecteurs u1 . 3 1 0 2 3 −2 −6 2 1 0 1 2 1 −1 −1 2 le deuxi`me pivot est nul. Comme dans le premier exemple on a F = V ect{t1 . e4 est 4 (et donc ils forment une base de F ). y. 3. alors t3 et t2 ne sont pas colin´aires. donc ind´pendants. 2 −2 0 2 −1 5 Soient t1 . SOUS-ESPACES VECTORIELS DE KP . alors le rang des trois vecteurs u1 . Le sous-espace vectoriel Vect {w. On intervertit la troisi`me colonne et la quatri`me. On v´rifient que u1 et u2 sont non colin´aires.. t) ∈ R4 . car leurs composantes sont ´chelonn´es. Comme dans les exemples ci-dessus. e e e On obtient : 1 0 0 0 1 0 0 0 2 1 −3 0 2 1 0 0 . 2. u2 .t4 ces colonnes . Donc le rang des e e e e vecteurs e1 .. ( Ici on voit que t1 et t2 sont non colin´aires). e3 .. puis t1 n’est pas combinaison lin´aire de t3 et t2 e e (sinon sa premi`re composante serait nulle). e e e e Exemple : Soit F le sous-espace vectoriel de R4 engendr´ par les vecteurs u1 = (1. u2 } est de dimension 2 si w ∈ F et il est de dimension 3 si w ∈ F . t2 . 33 1 1 2 0 1 0 0 0 2 2 1 1 2 0 −3 1 puis .. w en colonnes. e2 . z. Appelons t1 . e e e . 1) et e u2 = (2. a e e e Le probl`me : On donne un sous-espace vectoriel F de Kp par une de ses bases. . 1. Par e e e cons´quent. t1 et t2 sont lin´airement ind´pendants. t2 . t4 } et t1 . t3 sont lin´airement ind´pendants. u1 . 3.6.2 Passage d’une base ` un syst`me d’´quations cart´siennes. t3 les vecteurs qui apparaissent 2 −1 −x − y + z 1 2 −3x + 2y + t en colonnes.6. On en d´duit que w ∈ F e e si et seulement si −x− y+ z = 0 −3x+ 2y+ t = 0 On a trouv´ un syst`me d’´quations cart´siennes de F .. si t3 = 0.

Si F est donn´ par une partie g´n´ratrice quelconque. il faut d’abord e e e e e trouver une base avant de calculer un syst`me d’´quations cart´siennes par cette m´thode. ESPACES VECTORIELS SUR R OU C DE DIMENSION FINIE.34 CHAPITRE 3. Attention : La m´thode ci-dessus ne s’applique qu’` partir d’une base de F et pas de n’importe e a quelle partie g´n´ratrice. e e e e .

e e Exemples.. b = 0. R). f (x + y) = f (x) + f (y) (ii) x ∈ E. e g) Soit x0 un r´el fix´.. +).. y ∈ E. e f → f (x0 ) 35 . e D´finition 4. . e f →f e) Soit F = C 0 (R.. alors l’application n’est pas lin´aire.Chapitre 4 Applications lin´aires. f (0u) = 0f (u) = 0F . Alors f est une application lin´aire.) Montrons que si g : R → R e e e est une application lin´aire.. R).. Donc f (0E ) = 0F . f :R →R alors f n’est pas une application lin´aire.. e Dans cette partie E et F d´signent deux espaces vectoriels sur K. R).1 Une application lin´aire de E dans F est une application f : E → F telle que e e (i) x.λn ∈ K. λ1 . λ ∈ K. Remarque : f est un homomorphisme de groupe du groupe (E. f :R →R b) Si a ∈ R et b ∈ R.. e b f → a f (t)dt H : Kn → Kp est une application (x1 . R) alors Φ:E →R est une application lin´aire de E dans R... e (Rappel : sa repr´sentation graphique est une droite qui passe par 0. 1 ≤ p ≤ n alors lin´aire. alors il existe a ∈ R tel que pour tout x. f (λ1 u1 + ..un ∈ E.. On pose a = g(1). F = C 0 (R. On a g(x) = e g(1x) = xg(1).1.. car e x → ax + b f (0) = 0. e e b)Pour tous n ∈ N . g(x) = ax. +) dans le groupe (F. a) Pour tout u ∈ E. x → ax.1 D´finitions et exemples. Alors est une application lin´aire de E dans F . + λn f (un ). E et F sont des espaces vectoriels sur R car ce sont des sous Ψ:E →F -espaces vectoriels de F(R. .. + λn un ) = λ1 f (u1 ) + . Les applications lin´aires e e de R dans R sont utilis´es dans les probl`mes de proportionnalit´.. En effet :f (2x) = 4f (x) = e x → x2 2f (x) si x = 0. L’application e e F(R.. (D´monstration par r´currence). c) Soit d) E = C 1 (R. xn ) → (x1 . f (λx) = λf (x). e 4. R) → R est lin´aire. Propri´t´s.. u1 . xp ) f) Soient n et p des entiers.. a) Soit a ∈ R et f : R → R.

(g ◦ f )(u + v) = g(f (u + v)) = g(f (u) + f (v)) = g(f (u)) + g(f (v)) = g ◦ f (u) + g ◦ f (v).. a = 0.v ∈ E. y)) = f (λx. c’est ` dire f −1 (v1 )+f −1 (v2 ) = a −1 (v + v ). y + y )) = a(x + x ) + b(y + y ) = ax + ax + by + by = f ((x. alors g ◦ f : E → G est un isomorphisme. on a f (λu) = λv... o` x1 . Transitive : si f : E → F et g : F → G isomorphisme. y) → ax + by on a f (λ(x. Soit u l’´l´ment de E tel que ee f (u) = v alors. Comme f est lin´aire. . On dit aussi que l’espace vectoriel E est isomorphe ` l’espace vectoriel F .36 h) Si a ∈ R et b ∈ R.5 Soit la relation binaire R d´finie sur l’ensemble des K-espaces vectoriels par ”ERF si E est isomorphe ` F ”. on a e v1 + v2 = f (u1 ) + f (u2 ) = f (u1 + u2 ).. y )) = f ((x + x . e Proposition 4. Alors R est une relation d’´quivalence dans l’ensemble des a e K-espaces vectoriels. On dit que f est un isoe e morphisme d’espaces vectoriels de E sur F .1. De mˆme.3 Soit f : E → F une application lin´aire bijective. y)) + f ((x .. Alors son application e −1 : F → G est une application lin´aire. alors E est isomorphe ` a n. donc u = f −1 (v1 +v2 ). Puis on v´rifie que f est lin´aire... alors f : R → R.. . u → (x1 . v ∈ F et u ∈ E. (x1 . v ∈ F . lin´aire r´ciproque f e e e Preuve : On sait que si u ∈ E.. f 1 2 Si λ ∈ K.. alors ´ CHAPITRE 4.1.1. e e e e Ensuite on d´finit l’application g par g : Kn → E... xn ). (u = f −1 (v)) ⇔ (v = f (u)).+xn en . alors f sont des isomorphismes. Si E est un espace vectoriel de dimension n.1. Un endomorphisme bijectif de E s’appelle un automorphisme de E. y) + (x . . montrons que f −1 (λv) = λf −1 (v). x → ax est une application lin´aire bijective et e 1 f −1 : x → a x..4 Soit f : E → F une application lin´aire bijective. . e Proposition 4. On v´rifie que f est une application (si u est e e un vecteur de E. Si λ ∈ R. Montrons que f −1 (v1 + v2 ) = f −1 (v1 ) + f −1 (v2 ). y )). e Exemple : Si a ∈ R. On pose u = u1 +u2 . existence et unicit´ des coordonn´es de u). On a f (u) = v1 +v2 . Soient u1 et u2 les ´l´ments de E tels que ee f (u1 ) = v1 et f (u2 ) = v2 .. . g ◦ f (λu) = λg ◦ f (u).. en ). et f ((x. D´finition 4. Une application lin´aire de E dans K s’appelle une forme lin´aire. Preuve : R´flexive : id : E → E est un isomorphisme. e (x. en ) une base de E.. e Preuve : Si u. a e Proposition 4. Sym´trique : si f : E → F est un e e −1 : F → E est un isomorphisme. d’application r´ciproque g. λy) = aλx + bλy = λ(ax + by) = λf ((x.. .2 Soient f : E → F et g : F → G des applications lin´aires. comme f est lin´aire.. On d´finit f : E → Kn . e e Une application lin´aire de E dans lui-mˆme s’appelle un endomorphisme d’espace vectoriel de e e E. K Preuve : Soit (e1 . On a g◦f = idE e et f ◦ g = idKn . Soient v1 et v2 ∈ F . y)). alors g◦f :E →F →G est une application lin´aire. APPLICATIONS LINEAIRES. si λ ∈ K. Exemple fondamental. xn e u sont les coordonn´es de u dans la base (e1 . Donc f est bijective. e Vocabulaire. donc f −1 (λv) = λu = λf −1 (v). R2 → R est une application lin´aire. xn ) → x1 e1 +.

Si λ ∈ K. alors λv1 = λf (u1 ) = f (λu1 ). −(2/3)x).2. Comme on a f (0E ) = 0F . Soient u et v ∈ E tels que f (u) = f (v). On a ker f = {u ∈ E. Si λ ∈ K. Si u et v ∈ Ker f . donc Im f = ∅.3. Comme f est lin´aire. alors : e (f (u) = f (v)) ⇔ (f (u − v) = 0F ).3 On appelle noyau de f l’ensemble des vecteurs de E dont l’image par f est e le vecteur nul de F . Preuve : D’abord 0F ∈ Im f . E et F sont des espaces vectoriels sur K et f : E → F est une application lin´aire. et f = 0E . IMAGE ET NOYAU.4 Le noyau de f est un sous-espace vectoriel de E. v2 = f (u2 ). e D´finition 4. Proposition 4. donc v1 + v2 ∈ Im f . ` droite 0F d´signe le vecteur nul de F ). Si G est une partie de E. Proposition 4.2. e e u Proposition 4.2 L’image de f est un sous-espace vectoriel de F .2 Si f est injective alors l’image de toute partie libre de E est une partie libre de F . On a donc Im f = f (E). On a Φ(f ) = 0. v2 ∈ Im f . donc λv1 ∈ Im f . Supposons maintenant que Ker f = {0E }. e Preuve : Supposons f injective.1 L’application lin´aire f est injective si et seulement si Ker f = {0E } (o` 0E d´signe le vecteur nul de E ). Dans la suite. donc ker f = {(0. e e Notation. donc f (u + v) = f (u) + f (v) = 0F . R) et Φ : E → R. ou encore Im f = {v ∈ F. Notation ker f . 0E d´signe le vecteur nul a e de E.2. Rappel. donc λu ∈ Ker f . on a e f (λu) = λf (u) = λ0F = 0F . donc u + v ∈ Ker f . Soient v1 . Donc Ker f = {0E }. Soit f : E → F une application entre deux ensembles E et F.1 On appelle image de f l’image de E par l’application lin´aire f .4. On note ee u cet ensemble f (G).2. 0)}. Alors v1 + v2 = f (u1 ) + f (u2 ) = f (u1 + u2 ). Proposition 4. ker f = {(x. f (u) = 0F }. Remarque : L’application lin´aire f est surjective si et seulement si Im f = F .3 Application lin´aire injective. f (u) = v}.3. v1 = f (u1 ). y) → 2x + 3y. ∃u ∈ E. Im f . a e or f est lin´aire. π Soit E = C 0 (R. Comme Ker f = {0E }. alors f (u) + f (v) = 0F .2 Image et noyau.2. 4. . u2 ∈ E. e D´finition 4. alors le seul vecteur de E dont l’image est le vecteur nul de F est le vecteur nul de E. on appelle image de G l’ensemble des ´l´ments de F de la forme f (x) o` x ∈ G. Exemples f : R2 → R (x. Preuve : On a 0E ∈ Ker f car f (0E ) = 0F (` gauche du signe =. f n’est pas injective. alors : (f (u) = f (v)) ⇒ (u = v). Il existe u1 . 37 4. Donc (f (u) = f (v)) ⇔ (u − v ∈ Ker f ). x ∈ R}. u ∈ E}. Soit f (t) = sin t. donc f est injective. donc Φ n’est pas injective. f → −π f (t)dt. Im f = {f (u).

. + µk uk = 0.... donc il existe des scalaires λ1 . Soit u ∈ E. uk .4.. (iii) Il existe une base de E dont l’image par f est une base de F .. Finalement. = µk = 0. alors il existe u ∈ E tel que v = f (u)...... APPLICATIONS LINEAIRES..4. + µk uk . + µk uk = 0E . R´ciproquement.. Ceci donne : f (u−λ1 v1 −.. en ) est une base de E.uk sont lin´airement ind´pendants.λp des scalaires tels que λ1 f (u1 ) + . ce qui prouve que Im f ⊂ Vect {f (g1 ). vn engendrent E.. f (gq )}. λ1 = . Or f est injective.. ..4. car e f (g1 ).. alors son image par une application lin´aire est un espace vectoriel de dimension finie et dim Im f ≤ dim E. uk . Supposons que E est de dimension e e finie. donc λ1 f1 +....1 Si {g1 ... + λq gq .. + e λp up ) = 0F .. Preuve : Soient u1 . ..1 Soit f : E → F une application lin´aire. f (gq )}... . .. alors le rang de f est ´gal au rang des e vecteurs f (e1 ).. f (gq ) ∈ Im f .... Soient λ1 . Remarque 4..... Prouvons qu’elle engendre E.. e D´finition 4.. = λn = 0. donc λ1 u1 + . v1 . alors son image {f (g1 ). Im f = Vect {f (g1 ).. donc une base de E.... Finalement u1 .. + λn vn + µ1 u1 + ..f (up ) sont lin´airement ind´pendants.... qui est ´gal ` dim Im f + dim Ker f .. vn e e engendrent E et forment une famille libre. . ... gq } est une partie g´n´ratrice de E. f (gq )} e e est une partie g´n´ratrice de Im f ....... .. e Th´or`me 4... = λp = 0.up sont lin´airement e ind´pendants.2 Si l’espace vectoriel E est de dimension finie........ e Remarque : La r´ciproque de cette proposition est vraie (exercice)..µk tels que u = λ1 v1 + ... ..up des vecteurs de E lin´airement ind´pendants.λn tels que f (u) = λ1 f1 +........ f (λ1 u1 + . .. Or f1 . Montrons que les vecteurs f (u1 ). Donc v = λ1 f (g1 ) + .. Comme u1 .. n + k....uk ) une base de Ker f et soit (f1 .. (ii) L’image de toute base de E est une base de F ... Alors f (λ1 v1 +.. e 4. Or e e e u1 . .... uk . e Proposition 4. dim E = dim Im f + dim Ker f .... + λp up = OE . La dimension de E est ´gale au e nombre de vecteurs de cette base.4. e e Preuve : Si v ∈ Im f . donc µ1 = . image d’une partie g´n´ratrice.4 Cas o` l’espace vectoriel de d´part est de dimension fiu e nie.....+λn vn +µ1 u1 +.. Corollaire 4.... On suppose que f e e est injective. Alors on a l’´quivalence de e (i) f est un isomorphisme de E dans F ... il existe des scalaires µ1 . µ1 ..... donc λ1 = .λn . Prouvons qu’ils forment une famille libre.. Th´or`me 4. e e Preuve : Soit (u1 .. v1 .µk des scalaires tels que λ1 v1 + ... e Dans cette partie. f (gq )} ⊂ Im f. e a 4.5 Isomorphismes..+λn fn . v1 .. .. vn ) est une base de E. Comme f est lin´aire.f (en )... Finalement.. donc u − λ1 v1 − . + λn vn + µ1 u1 + .. On a f (u) ∈ Im f ... on a bien Vect {f (g1 ).. . . λq tels que u = λ1 g1 + .5.4........ f : E → F est une application lin´aire et E est de dimension finie n. Il existe v1 ∈ E tel que f (v1 ) = f1 ..−λn vn ) = 0.38 ´ CHAPITRE 4.3 On appelle rang de l’application lin´aire f la dimension de l’espace vectoriel e e Im f ..+λn fn = 0. Soient e e λ1 . − λn vn ∈ Ker f . .fn sont lin´airement ind´pendants. Prouvons que (u1 .4 Si (e1 . + λq f (gq )..... fn ) une base de Im f . Il existe des scalaires λ1 .+µk uk ) = 0F . Rang d’une application e e lin´aire.. il existe vn ∈ E tel que f (vn ) = fn .5 (du rang). + λp f (up ) = 0F ... On en d´duit que µ1 u1 + . Donc u1 .

2 Soient E et F des espaces vectoriels isomorphes... En faisant le mˆme raisonnement avec l’isomorphisme e e −1 . e b) Montrons (iii) ⇒ (i). ce qu’on sait faire.. . Alors {f (e1 ). a) Montrons (ii) ⇒ (i).. . donc Im f = F . . l’autre aussi et ils ont tous deux la mˆme dimension. . en ) de E ´tant fix´e.. . . On a montr´ que r ≥ r. On note (x1 ... . . Alors. . ..... 39 Preuve : a) Montrons (i) ⇒ (ii)...up est ´gal au rang de la e famille des p vecteurs de Kn : (x1 .... Rappelons que le rang est la dimension de Vect {u1 .. Soit u ∈ ker f .λn tels que u = λ1 e1 +.. ISOMORPHISMES.ur sont lin´airement ind´pendants..5...... f (en )} est une partie g´n´ratrice de Im f ... . Alors on a l’´quivalence de e e (i) f est un isomorphisme de E dans F . On sait que cette partie engendre Im f . e Proposition 4.. Alors f (λ1 e1 +. f (up ).+λn en ..... donc de F . ...... up }. Soit (e1 .. .... Soit e e f : E → F une application lin´aire.4. comme f e e e est injective.(xp .. en ).. up et que toute sous-famille d’au moins r + 1 vecteurs pris parmi u1 . donc c’est une base de Im f . Alors le rang de la famille de vecteurs u1 . . f (u1 ).. . f (ur ) sont lin´airement ind´pendants. .. xp ) les coordonn´es des vecteurs e n n 1 1 u1 .. Le rang r est caract´ris´ par le fait qu’il existe r vecteurs lin´airement ind´pendants e e e e parmi les p vecteurs u1 ... Il existe des scalaires λ1 ... Montrons que f est bijective. On suppose que f est injective. e e e ... Une base (e1 .. up . Comme f est injective alors {f (e1 ).5. Soit (e1 . Donc r = r ... par la m´thode du pivot appliqu´e aux colonnes.... Finalement. On en d´duit que u = 0E .3 Supposons que E et F sont de dimension finie et que dim E = dim F .f (en ) ∈ Im f..5. (ii) f est injective. on fixe une base de E et on ´crit e les coordonn´es de ces vecteurs dans la base.. en ) une base de E.. f (en )) soit une base de F . f e Corollaire 4. f (en )) est une base de F . . On voit imm´diatement que F ⊂ Im f . . f (en )) est une base de F ... Alors si l’un est de dimension finie. . (f (e1 ).4 Soit f : E → F un isomorphisme. On sait que {f (e1 )... up est li´e.. On en d´duit que f est un isomorphisme.. Comme f est lin´aire....... .. en ).. x1 ).. e Th´or`me 4. Preuve : Soit (e1 .5. e Corollaire 4. on peut calculer e e un syst`me d’´quations cart´siennes de F dans la base (e1 ... donc que Im f = F . b) Montrons que (iii) ⇒ (i). Supposons que u1 . Soit (e1 . e e e donc λ1 = . a) Pour calculer le rang de p vecteurs de E.. = λn = 0...... on en d´duit que r ≥ r . car e f (e1 ).f (up ). On suppose que f est surjective.up des vecteurs de E. f (en )} est une partie libre de F .. xp ). Appelons r le rang de la famille e e f (u1 ). Alors le rang de la famille u1 . Or on sait que F est de dimension n. e e b) Soit F un sous-espace vectoriel de E...5 Soit E un espace vectoriel de dimension n. ... . donc (f (e1 ). Soient u1 . f (en )) est une base de F .. .up est ´gal au rang de la famille de vecteurs f (u1 )...up dans la base (e1 .5.f (en ) sont lin´airement ind´pendants. Soient u1 ..... e Preuve : Soit r le rang des vecteurs u1 .. .. .up des vecteurs de E.. donc e e (f (e1 ). en ) une base de E.. en ) une base de E.. On est ramen´ au calcul du rang de p vecteurs de e e Kn ....(xp .. Donc f est surjective. Or f (e1 )... On en d´duit que f est un isomorphisme. Or dim F = n.. (iii) f est surjective. x1 ). en ) une base de E telle que (f (e1 ). . Or f est surjective. Montrons que f est injective.. λ1 f (e1 ) + .+λn en ) = 0F ... + λn f (en ) = 0F ... n n 1 1 Applications..... f (en )} est une partie libre de F . .....

6 Exemples : projections vectorielles.2 s est un isomorphisme de E. x+y )). y) un vecteur de R e de R2 . III) Exercice Dans E = R2 . (R´ponse : p(w) = ( x+y . (Indication : r´unir une base de F et une base de G. Proposition 4. sym´tries vectorielles. Soit p l’application lin´aire e e d´finie par e E=F G →E u=v+w →v Alors tout vecteur u de E a bien une image et une seule par p car la d´composition de tout vecteur e u comme somme d’un vecteur de F et d’un vecteur de G existe et est unique. On a Ker p = G et Im p = F . L’application s est appel´e la sym´trie vectorielle sur le sous-espace vectoriel F .) e 2 .6. 4.6. −1). II) Soient F et G des sous-espaces vectoriels suppl´mentaires de E. Soit s l’application e lin´aire d´finie par e e E=F G →E u=v+w →v−w Alors tout vecteur u de E a bien une image et une seule par s car la d´composition de tout vecteur e u comme somme d’un vecteur de F et d’un vecteur de G existe et est unique. parall`lement au sous-espace e e e vectoriel G. APPLICATIONS LINEAIRES. Proposition 4. Trouver les coordonn´es de p(w) dans la base canonique (ii) Soit w = (x.40 ´ CHAPITRE 4. soit F la droite vectorielle engendr´e par le vecteur (1. 1) et G e la droite vectorielle engendr´e par (1. e I) Soient F et G des sous-espaces vectoriels suppl´mentaires de E.1 p est un endomorphisme de E. e (i) Montrer que E = F G. e 2 2 . L’application p est appel´e la projection vectorielle sur le sous-espace vectoriel F . parall`lement au sous-espace e e vectoriel G.

b ∈ R.3 (R).p D´finition 5. e triangulaire inf´rieure si ai. triangulaire sup´rieure si ai.. ou matrice n × p un a  . a1...j = 0 si i = j .1. e ` n lignes et p colonnes.j = 0 pour i > j.1 (Rappel) On appelle matrice e tableau d’´l´ments de K que l’on note ee  a1.p .1 an. 1≤i≤n 1≤j≤n Notation : L’ensemble des matrices n × p ` coefficients dans K est appel´ Mn. an.2  a2..p (K)...2   . an.2 (Rappel) Une matrice qui a le mˆme nombre de lignes et de colonnes est dite e e carr´e.2 On note en abr´g´ (ai. 0 1 3 La matrice dont tous les coefficients sont nuls est appel´e la matrice nulle et sera not´e 0.. e e D´finition 5. sont les matrices diagonales de M2 (R).p    . Si n = p.. sont les matrices triangulaires sup´rieures de M2 (R).1 a2.. a e on le notera Mn (K).j = 0 pour i > j .1 Matrices. R`gles de calcul.Chapitre 5 Applications lin´aires en dimension e finie. . e Exemples : Les matrices de la forme : a 0 0 b a.1 a1. b.. Matrices 5.1. a... e 41 . Un matrice carr´e est dite : e e diagonale si ai. Exemple : 1 −1 2 A= ∈ M2. c ∈ R.j ) e e i sera l’indice de ligne et j l’indice de colonne. Les matrices de la forme a b 0 c . a2.

.1.3 (R).p (K)..j  .p (R) et B =  .1.j D´finition 5.4 Si A = (ai. 2A = 1 −2 5 1 2 3 . .j ). 9  2 .2 .1.1 (R). 0) et B = 1 D´finition 5.j ) est la matrice-colonne :  .q (K). Le produit de A par B.1 . ai.. La i`me ligne de la matrice (ai.. MATRICES D´finition 5.j ) ∈ Mn. on d´finit la somme des matrices A et B par : e A + B = (ai. 1 −1 2 0 1 3 2 −2 4 0 2 6 Exemples : A = B= 0 −1 3 1 1 0 ∈ M2.p (K) et B ∈ Mp.3 Une matrice ` une ligne s’appelle une matrice-ligne..6 Soit A ∈ Mn.3 (R).1. Exemple : A = (1. . Attention : le produit d’une matrice-ligne par une matrice-colonne n’est d´fini que si les deux e matrices ont le mˆme nombre de coefficients. bp le produit AB est la matrice 1 × 1 dont l’unique coefficient est : a1 b1 + . AB = 1 × 1 + (−1) × 2 + 0 × 1 = −1.p ).  (ai. A + B = ∈ M2.2 (R). + ap bp .  ∈ Mp.j ).. La j`me colonne de la matrice (ai..3 (R). ai.j ) ∈ Mn. −1.2 (R). Une matrice ` une coe a a lonne s’appelle une matrice-colonne. e . . e   1  2  .p (K) et λ ∈ K on d´finit le produit de A par λ par : e e λA = (λai. Si e   b1  .j + bi. A=  3 0 1  ∈ M4.42 ´ CHAPITRE 5.j ) est la e matrice-ligne :  a1. Exemple :     1 1 −1 1 2  −2 1 3    0 1  ∈ M3. . an.5 (multiplication d’une matrice-ligne par une matrice-colonne).3 (R) et B = 1 3 1 0 0 Alors 0  1 AB =   4 1   0 6   ∈ M4.  A = (a1 . not´ AB est la e e matrice n × q dont le coefficient de la i`me ligne et j`me colonne est le produit de la i`me ligne e e e de A et de la j`me colonne de B. ∈ M2. APPLICATIONS LINEAIRES EN DIMENSION FINIE.. ap ) ∈ M1. D´finition 5.. e Attention : Le produit de A par B n’est d´fini que si le nombre de colonnes de A est ´gal au e e nombre de lignes de B. Si B = (bi.

  .l pour 0 ≤ k ≤ n et 0 ≤ l ≤ p.) A + 0 = A. e e D´finition 5. u e A + (B + C) = (A + B) + C. e La i`me ligne de la matrice AB est ´gale au produit de la i`me ligne de la matrice A par la e e e matrice B. Preuve : Les r`gles de calcul ci-dessus font que Mn. (A + B)C = AC + BC et A(B + C) = AB + AC (double distributivit´ de la multiplication par e rapport ` l’addition.  . n p et si A= ck. C ∈ Mn. qui r´sultent des propri´t´s de l’addition et de la mule e ee tiplication dans K. 1A = A. A − A = 0 (o` 0 d´signe la matrice nulle. dont les coefficients e e e diagonaux sont tous ´gaux ` 1. 0 ≤ k ≤ n. diagonale.j ).7 Pour 0 ≤ k ≤ n et 0 ≤ l ≤ p. B.1. R`gles de calcul. (1 ` la j`me place. on note λAC. muni de l’addition des matrices et de la multiplication par les scalaires est un espace vectoriel sur K.l dont le coefficient de e e la k`me ligne et l`me colonne vaut 1.1.l . 0 ailleurs).l Ek. MATRICES. e En utilisant les d´finitions de l’addition des matrices et de la multiplication par un scalaire. on e montre que : A + B = B + A.p (K) et si Ej =  1  ∈ Mp.l . La j`me colonne de la matrice AB est ´gale au produit de la matrice A par la j`me colonne de e e e la matrice B. Soient A. λ ∈ K.1. REGLES DE CALCUL. µ ∈ K. 0 ≤ k ≤ n et 0 ≤ l ≤ p. On voit donc que toute matrice de Mn. ainsi que de la d´finition de la multiplication des matrices (quand on peut e calculer les produits).8 L’ensemble Mn. n p A= k=1 l=1 ak.p (K).p (K). b. e a On a les r`gles de calcul suivantes. D´finition 5.l Ek.λ. on note A + B + C.    . In A = AIn = A λ(AC) = (λA)C.) a . e e e e a Proposition 5.1. (λµ)A = λ(µA).p (K) s’´crit e de mani`re unique comme combinaison lin´aire des matrices Ek.p (K) muni de l’addition et de la multie plication par les scalaires est un espace vectoriel sur K.   . A.l . 0 ≤ l ≤ p. 0 alors AEj est la j`me colonne de A. C ∈ Mn (K).l = ck. λ(A + B) = λA + λB (λ + µ)A = λA + µA. on d´finit la matrice Ek. k=1 l=1 alors ak.p (K) .` 5.9 On d´finit In comme la matrice carr´e n × n.  a e Remarques : Si A ∈ Mn.  43  0  .   . les autres coefficients ´tant ´gaux ` 0. forment une base de Mn.l . De plus on ´crit pour toute matrice e A = (ai. Les matrices Ek.1 (K).

Alors A(BC) = (AB)C.11 (i) Si A est une matrice-colonne.j et (A(BC))i. e C t×  B= 1 1 0 1 AB existe. + ai...1 (b1.q cq..j + (ai...j = (A(BC))i.. e a e e La transpos´e de A sera not´e At .12 Si A..j ) + ai. C ∈ Mn (K) alors (i) (At )t = A..j . + b1.. D’une part on a : a e i`me ligne de (AC)t = i`me colonne de AC e e =A× (i`me colonne de C).. i`me ligne e e e e t × ni`me colonne de At ) de C e =(1`re ligne de A× i`me colonne de C . mˆme si les produits AB et BA existent tous les deux. + b2.1 + .1.1 c1.1.. On constate que ((AB)C)i.j ). APPLICATIONS LINEAIRES EN DIMENSION FINIE. B ∈ Mp..1 c1. BA n’existe pas..p bp.q cq.2 )c2..2 + . C ∈ Mq.j =( i`me ligne de AB)×( j`me colonne de C) e e = (ai.1 b1.j + . MATRICES Remarque : Le produit des matrices n’est pas commutatif.p (K).n (K) dont la i`me ligne est e e ´gale ` la transpos´e de la i`me colonne de A.q (K).p (bp. 1 2 −1 1 .j + . e e Exemple :   1 −1 1 0 1 A= 0 2  At = .1 c1. on appelle transpos´e de A la matrice-ligne e e qui a les mˆmes coefficients que A. + ai.p bp.1. e D’autre part on a : i`me ligne de (C t At ) = (i`me ligne de C t ) ×At e e =(i`me ligne de e 1`re colonne de At .j + .r (K).. on appelle transpos´e de A la matrice de Mp..p bp. + ai.1 b1. Preuve : (i) et (ii) sont faciles ` v´rifier (exercice). e Exemple :  1 2 A= 3 0  1 −1 C= BC et CB existent et BC = CB.44 ´ CHAPITRE 5.. Montrons (iii).. i`me ligne de C t × 2`me colonne de At . Preuve : Notons ((AB)C)i. (ii) (A + B)t = At + B t ... e i (ii) Si A ∈ Mn. ni`me ligne e e e e e de A× i`me colonne de C) e =A× i`me colonne de C.. e e Alors on a : ((AB)C)i. + bp.10 Soient A ∈ Mn...q cq.q + .1 b1.. + ai. On n’a pas toujours AB = BA.p (K). B. Proposition 5. 2`me ligne de A× i`me colonne de C .j + .2 (b2.j =( i`me ligne de A)×( j`me colonne de BC) e e = ai.1 )c1. + (ai. −1 2 1 1 1 Proposition 5..j le coefficient de la i`me ligne et j`me colonne de la matrice (AB)C.q )cq. D´finition 5. (iii) (AC)t = C t At ..j ) + .

. .   ... e e e e u e 5.    Remarque : Si A = (ai. De mˆme e e     0 0  .2.. on notera  xp AX = B le syst`me lin´aire de matrice A et de second membre B : e e   a1.´ 5. Preuve : Prouvons que Φ est une application lin´aire.. X =  .      0   0  . K Proposition 5... up ) et (v1 . up ) une base de E et (v1 . on note les vecteurs de Kn et de Kp en colonnes.3 Application lin´aire de Kp dans Kn associ´e canoniquement e e ` une matrice. C’est la j`me colonne de A. Tout vecteur X de Kp s’´crit e e     x1 x1 a1. e  .p xp = bn Le syst`me homog`ne associ´ sera not´ AX = 0.j ) ∈ Mn. On a :AX =  . 0 alors c’est bien la premi`re colonne de A. a Dans cette partie. +xp an. On appelle matrice de f dans les bases (u1 .. alors A(X + Y ) = AX + AY  si  ∈ K. .p xn On v´rifie que si X et Y appartiennent ` Kp . .. Donc si A est une matrice ` n lignes et p colonnes et si X ∈ Kp .1 +. . o` 0 d´signe le vecteur nul de Kn .. bn  45      ∈ Kp et B =       ∈ Kn . 0 ailleurs).p (K)..   b1 b2 . vn ). . X =   x1 x2 .p  x2      .. .1 x1 +.. on sait calculer le produit AX et il donne un ´l´ment de a ee n..1 x1 +.. on a φ( . .. MATRICE D’UNE APPLICATION LINEAIRE DANS DES BASES.1 Soient E et F des espaces vectoriels sur K de dimensions finies non nulles e et soient (u1 ..p (K). e e 5. . +a1.      a e e φ( 1 ) = A  1  (1 ` la j`me place..1 Soit A ∈ Mn. .. 0 . ) = A  . Alors la fonction Φ d´finie par : e Φ : Kp → Kn X → AX est une application lin´aire de l’espace vectoriel Kp dans l’espace vectoriel Kn et sa matrice dans e les bases canoniques de Kp et Kn est A.  an.2.  . . vn ) la matrice ` n lignes et p colonnes dont la j`me colonne est a e constitu´e par les coordonn´es du vecteur f (uj ) dans la base (v1 .. ... .   .3. Donc Φ est une application lin´aire de Kp dans Kn . +xp a1. A(λX e a et λ =  1 1  0   0      λX.2 Matrice d’une application lin´aire dans des bases.. . +an.. e D´finition 5. .. x1 an.. . De plus.1 +.   .p xp = b1 .  . vn ) une base de F .

...p   .46 ´ CHAPITRE 5. + xp up ..  e coordonn´es de f (uj ) est  . up ) et (v1 .. up ). e e e Preuve : a) Montrons d’abord l’unicit´ de f . Comme f est lin´aire.. x−y−z C’est ` dire que f (u) est donn´ par f (u) = (x + 2y + z)u1 + (x − y − z)u2 . e3 ) et (u1 . . la colonne des =  a1.. vn ) est donn´e e e par le produit AX. u2 ) est 1 2 1 u1 A= 1 −1 −1 u2 f (e1 )f (e2 )f (e3 )   x Si u a pour coordonn´es X =  y  dans la base (e1 ... e3 ). Soit f l’application lin´aire de e E dans F d´finie par f (e1 ) = u1 + u2 . ... vn ) est bien la matrice d´crite dans l’´nonc´ . e2 .f (up ) = wp .1 +. +xp an..... D´finissons f comme l’application lin´aire qui au vecteur u de coordonn´es X dans la base e e e (u1 ... f (e2 ) = 2u1 − u2 et f (e3 ) = u1 − u2 ..4. a e Remarque : Des bases de E et F ´tant fix´es. . . p. Soit u ∈ E et soit X =  . Soit A la matrice d´crite dans l’´nonc´ de la proposie e e tion.. v´rifient :  y  = z  −2/3 . Pour j = 1. .2 Soient w1 . APPLICATIONS LINEAIRES EN DIMENSION FINIE. an.wp p vecteurs de F . e2 .. MATRICES 5. Sa matrice dans les bases (u1 .. Exemple : Soit E de base (e1 . e2 . . u2 ).. Soit A la matrice de f dans e   x1  ..  la colonne des coordonn´es e .. e Ker f = {u ∈ E. Alors la colonne des coordonn´es de f (u) dans la base (v1 . . +xp a1.. x1 an.. u = xe1 + ye2 + ze3 ... alors la matrice de f dans les bases e (u1 . xp de u dans la base (u1 . e Proposition 5.. alors f (u) a pour coordonn´es e e z x + 2y + z AX = dans la base (u1 .. Si f existe.. + xp f (up )...  donc la colonne des coordonn´es de f (u) est e . Alors on a bien f (uj ) = wj . e Preuve : On a u = x1 u1 + .. Le noyau de f est donc e e 1 z une droite vectorielle qui admet pour base le vecteur u1 − 2u2 + 3u3 .4.  .. e3 ....  = AX.. + xp up )  x1 f (u1 ) + .. up ).. . up ) associe le vecteur dont la colonne de coordonn´es dans la base (v1 . e3 ) et soit F de base (u1 . .... x + 2y + z = 0 } x−y−z =0 En r´solvant le syst`me on touve que les vecteurs  noyau sont les vecteurs de E dont les e e du    1/3 x coordonn´es dans la base e1 . .j  . on calcule Ker f comme si l’on avait une e e application lin´aire de Kp dans Kn .. .p Proposition 5. . vn ) a sa j`me colonne form´e des coordonn´es du vecteur wj dans la base (u1 . . alors e f (u) = f (x1 u1 + . . . e2 ).1 +... j = 1... up ) et (v1 .  les bases (u1 . Il existe une application lin´aire de E e dans F et une seule telle que f (u1 ) = w1 . p...j   x1 a1.4 Calcul des coordonn´es de l’image d’un vecteur de E. e e e b) Montrons maintenant l’existence de f . Dans l’exemple ci-dessus. u2 )... vn ). up ) et (v1 .. vn ) e est donn´e par le produit AX.. La matrice de f e dans les bases (e1 ..1 Soit f une application lin´aire de E dans F ..

o` I est la matrice identit´. a e e a e on dira que M(f. e e e Proposition 5. On fait la mˆme d´monstration pour λA. Soit B une base de E et B une base de F . B. Soit L(E. Pour n = 3.) e e e . C’est donc la somme de la j`me colonne de la e e matrice A et de la j`me colonne de la matrice B. et si on choisit la mˆme base B au d´part et ` l’arriv´e. e Alors L(E. dans les mˆmes bases est A + B. e a e 5. B).5. on donne u1 = 2 3 L’unique application lin´aire φ : R2 → R3 telle que e φ( est d´finie par e φ( autrement dit par : φ( x1 x2 x1 x2 1 0 ) = u1 et φ( 0 1 ) = u2   1 0 )= 3 1  2 3   x1 x2 .5. B) = I. alors la matrice de λf dans ces mˆmes bases est λA et la e e matrice de f + g. Remarque : Soit f = idE l’application identit´ de E dans E et soit B une base de E.´ ´ ´ 5. F ) l’ensemble des applications lin´aires de E dans F . F ) → Mn.p (K) f → M(f. Il suffit de v´rifier que M est bijective.2 Soient E et F des K-espaces vectoriels de dimensions p et n. 2x1 +3x2 Notation Si on note B une base de E et B une base de F et si f : E → F est une application lin´aire. Si f est un endoe morphisme de E (c’est ` dire si E = F ). F ) est un K-espace vectoriel et l’application M d´finie par e M : L(E.5 Op´rations lin´aires sur les applications lin´aires et les mae e e trices. (Le fait que M est une application lin´aire est un corollaire e e de la proposition pr´c´dente. B. e Proposition 5. B ) est une application lin´aire bijective. B. si λ ∈ K. alors e M(f. alors on notera M(f. (Ce n’est pas vrai si on prend des bases diff´rentes au u e e d´part et ` l’arriv´e). p = 2 et K = R. e Preuve : Soit uj le j`me vecteur de la base B. B) est la matrice de f dans la base B et on la notera M(f.1 Si A est la matrice de f dans les bases B et B et si B est la matrice de g dans les mˆmes bases.  x1 ) =  3x1 +x2  .5. B ) la matrice de f dans les bases B et B . Soient f : E → F et g : E → F des applications lin´aires. La j`me colonne de la matrice de f + g est form´e e e e des coordonn´es de (f + g)(uj ) dans la base B .47 Exemple :    1 0  3  et u2 =  1  deux vecteurs de R3 . OPERATIONS LINEAIRES SUR LES APPLICATIONS LINEAIRES ET LES MATRICES.

Preuve : Supposons que AB = BA = In et que AC = CA = In . 5.n (K) telle que AB = In et BA = Ip .4 Si A et C sont inversibles. La propri´t´ (ii) signifie que Φ est bijective. (u1 .. un ) et soit B la matrice de g dans les bases (u1 .7.... .. Alors C = CIn = CAB = In B = B. F .. APPLICATIONS LINEAIRES EN DIMENSION FINIE.. uq ).7 Matrices carr´es inversibles. La colonne des coordonn´es de g(f (u)) e e dans la base (u1 ... .5 On a l’´quivalence de : e (i) A est une matrice carr´e n × n inversible. . (ii) At est inversible et (At )−1 = (A−1 )t ... uq ) est donc BAX = (BA)X. On dit que A est inversible s’il existe une matrice B ∈ e Mn (K) telle que AB = BA = In . un ) est AX.. . AX = B ⇔ A−1 AX = A−1 B ⇔ X = A−1 B. la matrice B telle que AB = BA = In s’appelle l’inverse e de A et est not´e A−1 .2 Si A est inversible alors il n’existe qu’une seule matrice B telle que AB = BA = In . uq ) est BA... . On consid`re l’endomorphisme de Kn d´fini par e e Φ : Kn → Kn X → AX c’est ` dire l’application lin´aire de Kn dans Kn dont la matrice dans la base canonique de Kn a e est A. n = p. Alors la colonne e .. up ).... ee ee D´finition 5. .48 ´ CHAPITRE 5.. q.. Alors la matrice de g ◦ f dans les bases (u1 .. Donc la matrice de g ◦ f est BA.. un ) et (u1 .. Proposition 5. MATRICES 5. ... On montre de mˆme que ACC −1 A−1 = In . un ) pour F et (u1 . uq ) pour G. n. Lemme 5. (ii) A n n Attention : Si A ∈ Mn. up ) pour E. e t (A−1 )t = (A−1 A)t = (I )t = I . Le syst`me e AX = B admet donc une solution et une seule. up ) et e (u1 .7. alors (i) AC est inversible et (AC)−1 = C −1 A−1 .7.  Preuve : Soit u ∈ E de coordonn´es X =  ..3 Si A est inversible. up ) et (u1 .1 Soient E. D´finition 5..p (K).. Preuve : (i) C −1 A−1 AC = C −1 In C = C −1 C = In .   x1  .6. Proposition 5..6 Composition des applications lin´aires et multiplication des e matrices. e Proposition 5.. Dans toute la suite on donne n ∈ N∗ e et les matrices consid´r´es seront des ´l´ments de Mn (K).7. G des K−espaces vectoriels de dimensions respectives p. on n’a pas d´fini l’inverse de A et on peut d´montrer qu’il e e n’existe jamais de matrice B ∈ Mp.. xp des coordonn´es de f (u) dans la base (u1 .. .. . .1 Soit A ∈ Mn (K).. . Donc Φ admet une fonction r´ciproque et on ee e . e e Preuve : a) Montrons que (i) ⇒ (ii). Soient f : E → F et g : F → G des applications lin´aires. Soit A la matrice de f dans les bases (u1 .. e (ii) Pour tout B ∈ Kn le syst`me lin´aire AX = B admet une solution unique.7. e Cette partie concerne uniquement les matrices carr´es.. On donne les base (u1 . b) Montrons que (ii) ⇒ (i).  dans la base (u1 . .

On a e e donc montr´ que A est inversible. Montrons que (ii) ⇒ (i). Dans M2 (K).  + .1 an. e e Corollaire 5.   .1   a2. c d Le nombre ad − bc est appel´ le d´terminant de A. e e e a e Proposition 5.7 Consid´rons les n matrices-colonnes de A comme n vecteurs de Kn . le syst`me AX = B admet d’arriv´e ont la mˆme dimension.7. la matrice est inversible si et seulement si ad − bc = 0. e Proposition 5. e   x1  x2    Preuve : Rappelons que si X =  . donc l’espace vectoriel de d´part et e n . e e Donc A est inversible. alors :    .6 Soit A une matrice carr´e.7. Donc BA = In ..7. + xn  .7.8 On a l’´quivalence de e (i) A est inversible (ii) il existe une matrice B telle que AB = In (iii) il existe une matrice C telle que CA = In . De plus ABB −1 = B −1 . d’inverse B. 49 sait que la fonction r´ciproque d’une application lin´aire bijective est une application lin´aire. Pour X ∈ Kn on (BX = 0) ⇒ (ABX = 0) ⇒ (X = 0). . cette mani`re unique ´tant de prendre les coefficients x1 = x2 = . . par la proposition pr´c´dente. e Montrons (ii) ⇒ (i). Or Φ ◦ Φ−1 est e a n : X → X. Soit Φ l’application lin´aire de Kn dans Kn associ´e canoniquement ` la e e a matrice A. (AX = 0) ⇒ (CAX = 0) ⇒ (X = 0). car Φ est un endomorphisme. MATRICES CARREES INVERSIBLES.´ 5.   . On conclut que A est inversible en utilisant la proposition pr´c´dente. Par e e d´finition de l’ind´pendance lin´aire.n        AX = x1  . BA est la matrice de l’application lin´aire Φ−1 ◦ Φ : X → X. .  an. (Cours d’alg`bre 2).) .  + x2  . e e La notion de d´terminant se g´n´ralise ` toute dimension n. Donc B est inversible.  . La propri´t´ (ii) signifie que la noyau de Φ est r´duit au vecteur nul de Kn . Donc AB = In . Alors AB est la matrice dans la base canonique de l’application lin´aire Φ ◦ Φ−1 . e e e Soit B la matrice de Φ−1 dans la base canonique de Kn . Alors e A est inversible si et seulement si les n colonnes de A sont des vecteurs de Kn lin´airement e ind´pendants. . De mˆme. Cela ee e implique que Φ est bijective.2 an. donc A = B −1 . On sait que la matrice de l’identit´ dans la base canonique l’application identit´ de K e e de Kn est In .        .n  a2.1 a1.  xn       a1.n Dire que le syst`me AX = 0 admet l’unique solution X = 0 revient donc ` dire que le vece a teur nul de Kn s’´crit de mani`re unique comme combinaison lin´aire des n vecteurs-colonnes e e e de A. (ii)Le syst`me lin´aire homog`ne AX = 0 admet la solution unique X = 0 (ici 0 d´signe le e e e e 0 vecteur nul de Kn : 0 = .. c’est ` dire que ABX = Φ ◦ Φ−1 (X).2 a1. Donc pour tout vecteur B de K e e e une solution unique.2   a2. Preuve : (i) ⇒ (ii) est ´vident. On a l’´quivalence de : e e (i) A est inversible ... = xn = 0. Donc A est inversible. ceci signifie que les vecteurs-colonnes de A sont lin´airement e e e e ind´pendants.. Preuve : a) Montrons que (ii) ⇒ (i). e a b Application.

Or f ◦ f −1 = idF . Notons M cette matrice. B ) × M(f −1 .8 Matrices carr´es inversibles et isomorphismes. u3 ) et soit F un R-espace vectoriel de base B = (v1 . B. B) =  1 0 −1  . On a donc e M(f. B . APPLICATIONS LINEAIRES EN DIMENSION FINIE. B . Soit f : E → e e e F une application lin´aire. B). B . On conclut que M(f. On en d´duit que f ◦ g = idF . B. donc c’est In . Soit f un isomorphisme de E dans F . e Th´or`me 5. B ) soit e inversible Preuve : a) Montrons que (i) ⇒ (ii). B. Sa matrice dans la base B est la matrice identit´ In . B. On a l’´quivalence de e e (i) f est un isomorphisme (ii) Pour toute base B de E et toute base B de F la matrice carr´e M(f. B ) = 1 −1 −1 On veut savoir si f est un isomorphisme et oui.1 Soient E et F deux K-espaces vectoriels de mˆme dimension n. On en d´duit que g ◦ f = idE . Notons M −1 sa matrice inverse. v3 ). On a : X = M(f −1 . B. B ) est inversible et que sa matrice inverse est M(f −1 . On consid`re si e  b1 n’importe quel second membre B =  b2  et on cherche ` r´soudre le syst`me AX = B : a e e b3  −x3 = b1  x1 2x3 = b2  x1 −x2 −x3 = b3 Dans ce cas une m´thode de substitution donne rapidement : e   2 2 = b2 x3 = b2  x3  b2 . La matrice de f ◦ f −1 dans la base B est le produit des matrices de e e f et de f −1 . f −1 ◦ f = idE . donc   1 1 2 0 M(f −1 .8. u2 . e Exemple : Soit E un R-espace vectoriel de base B = (u1 . calculer l’isomorphisme inverse. B. B)B. B ) est inversible e (iii) Il existe une base B de E et une base B de F telles que la matrice carr´e M(f. La matrice de f ◦ g dans la base B est M −1 × M . B) × M(f. c’est donc aussi e In . x −x3 = b1 . De mˆme. B . 1 0 2 0 . x = b1 + 2  1  1 x1 −x2 −x3 = b3 x2 = −b3 + x1 − x3 donc  b2  x3 = 2 2 x = b1 + b2  1 x2 = −b3 + b1 +  b2  x1 = b1 + 2 x2 = b1 − b3 . Alors la matrice de g ◦ f dans la base B est M × M −1 . Soient B une base de E et B une base de F telles que la matrice M(f. B . B) = In . B ) soit inversible. MATRICES 5. B. donc f est bijective. D´finissons e l’application lin´aire g comme ´tant l’application lin´aire de F dans G dont la matrice dans les e e e bases B et B est M −1 . M(f. donc M(f −1 . On conclut que f est bijective. Soit f −1 l’application lin´aire r´ciproque de f . Soit f : E → F l’application lin´aire d´finie par e e   1 0 −1  0 0 2 . c’est ` dire : a  2 x3 = b2 b2 2 − b2 2 Pour tout second membre B on trouve une solution unique. v2 . B ) = e In . b) Prouvons que (iii) ⇒ (i).50 ´ CHAPITRE 5.

9. soit sa ou ses e e a derni`res lignes sont nulles. Ainsi.1 La matrice A est inversible si et seulement si la m´thode du pivot de Gauss appliqu´e aux lignes de la matrice A la transforme en une matrice triangulaire sup´rieure ` e e a diagonale non nulle. Pour v´rifier qu’il n’y a pas d’erreurs de calcul. a 5.9 Calcul de la matrice inverse. Sinon. Ce dernier syst`me admet l’unique solution X = 0 si et seulement e e e si E est triangulaire sup´rieure ` diagonale non nulle.5. alors le noyau de f est r´duit au vecteur nul. on trouve comme ensemble de solutions un vecteur nul de R sous-espace vectoriel de R3 de dimension 1 ou 2 et A n’est pas inversible. CALCUL DE LA MATRICE INVERSE. d’inverse A−1 =  z = −b1 + b2 + b3 .9. On donne une matrice carr´e A. e e e e Preuve : La m´thode du pivot de Gauss transforme la matrice A en une matrice ´chelonn´e e e e carr´e E. Si on trouve un espace vectoriel de solutions de dimension sup´rieure ou ´gale e e ` 1. donc f est injective. il suffit de r´soudre le syst`me AX = 0. alors A est inversible. dans le cas o` A est ee a e u inversible. on calcule : e     1 1 2 0 −1 0 1 0  −1 0 0   3 −1 −2  =  0 1 2 1 3 −1 1 1 0 0 Remarquons que pour reconnaˆ seulement si A est inversible (sans calculer sa matrice inverse ıtre ´ventuelle). b2 . il suffit de r´soudre le syst`me AX = 0. Si on trouve comme unique solution le e e e 3 . 1 0 2 0 1 −1 −1 0 0 1 51 Remarquons que pour reconnaˆ ıtre si f est bijective ou non (sans calculer l’endomorphisme r´ciproque ´ventuel f −1 ). v´rifier qu’il n’y a pas d’erreurs de calcul. donc pas bijective. on calcule : e      1 1 2 0 1 0 −1 1 0 0  1 0 −1   0 0 2  =  0 1 0 . = b1 = b2 = b3   0 −1 0  3 −1 −2  . on a int´rˆt ` transformer en mˆme temps le second membre B. Par exemple   1 1 2 A =  −1 0 0  2 1 3 Pour cela on r´soud le syst`me AX = B. e Proposition 5. Soit cette matrice E est triangulaire sup´rieure ` diagonale non nulle. b3 ) on trouve une solution unique qui est :   x = −b2 y = 3b1 − b2 − 2b3 Donc A est inversible. alors f n’est pas injective. pour B e e   x +y +2z −x  2x +y +3z ∈ R3 . e a Remarque : Si on utilise la m´thode du pivot de Gauss pour ´tudier l’inversibilit´ d’une matrice e e e A. On veut reconnaˆ si A est inversible et si oui calculer son e ıtre inverse A−1 . (Rappel : la m´thode du pivot de Gauss sur les lignes de la matrice A est e la m´thode qu’on utilise pour r´soudre les syst`mes lin´aires de la forme AX = B). on pourra lire la matrice inverse A−1 . La m´thode du pivot de Gauss transforme le syst`me AX = 0 en le e e e syst`me ´quivalent EX = 0. donc bijective car e dim E = dim F . Si on trouve l’unique solution e e e e X = 0. Pour −1 1 1  0 0  1 Pour chaque (b1 . .

1 2 (iii) Le produit de deux matrices non nulles peut ˆtre nul. Le e syst`me AX = 0 a une infinit´ de solutions. +) est un groupe ab´lien . APPLICATIONS LINEAIRES EN DIMENSION FINIE. e e A × In = In × A = A. b2 .) Exemple B = e . ×) est un anneau car : a) (Mn (K). +. presque comme s’il e s’agissait de nombres r´els ou complexes. (Remarquons que la e e transformation du second membre ne sert ` rien ici !) a 5. Donc A n’est pas inversible. (λA) × C = λ(A × C) = A × (λC). n’est n’est pas toujours ´gal ` A2 + 2AB + B 2 . soit une infinit´ de solutions. Par exemple dans e 1 2 M2 (R) la matrice A = est non nulle et n’est pas inversible. +. +. on dit que (Mn (K). 2y +2z = −b1 + b3   x −y +z = b1 2y +2z = −2b1 + b2 puis Ici. Les propri´t´s de ces op´rations permettent ee e de dire que (i) (Mn (K). la m´thode du pivot de Gauss transforme la matrice e  0 = −b1 + b2 − b3 . on a la propri´t´ suivante : ee Si λ ∈ K. (Voir par e a 0 . on a trois op´rations : l’addition. On dit que l’anneau (Mn (K). (On dit que l’anneau des matrices e 0 2 carr´es a des diviseurs de 0. Mais il y a des diff´rences importantes : e e (i) La multiplication des matrices n’est pas commutative . e On dit que (Mn (K). +. On utilise la m´thode du pivot de Gauss pour r´soudre le e e 1 1 3    x −y +z = b1  x −y +z = b1 2x +4z = b2 .) est un K-espace vectoriel (. selon la valeur de (b1 .) De plus. b) la e multiplication des matrices est associative et doublement distributive par rapport ` l’addition. b3 ).   1 −1 1 A en une matrice ´chelonn´e dont la derni`re ligne est nulle : E =  0 2 2 . . ×) est unitaire et que In est l’´l´ment ee unit´. d´signe la multiplication d’une matrice par un e scalaire) (ii) (Mn (K). On a B = 0 et B 2 = 0. Le syst`me e e e e 0 0 0 AX = B a soit aucune solution. a ee e Remarquons qu’on peut faire des calculs portant sur des matrices carr´es. a (Voir le paragraphe sur les op´rations. Grace ` toutes ces propri´t´s.) 1 A2 − B 2 + BA − AB et que ce n’est pas toujours ´gal ` e a . e De plus. MATRICES   1 −1 1 Exemple : A =  2 0 4 . e Sur l’ensemble des matrices carr´es n × n. . la matrice In v´rifie : pour toute A ∈ Mn (K). Exercice a) Montrer que (A + B)2 0 1 0 exemple A = et B = 0 0 0 b) Montrer que (A + B)(A − B) = A2 − B 2 . 0 0 (iv) On a l’identit´ remarquable : e (A + B)2 = A2 + B 2 + AB + BA. (ii) une matrice non nulle n’admet pas forc´ment une matrice inverse. la multiplication e e par les scalaires et la multiplication des matrices. ×) est une alg`bre sur K. ×) est un anneau (× d´signe la multiplication des matrices).10 Alg`bre des matrices n×n.. On trouve 2y +2z = −2b1 + b2 syst`me e   x +y +3z = b3 .52 ´ CHAPITRE 5. +.

. Ceci montre la proposition suivante : Proposition 6. en ) de E.en forment-ils une base de E ? R´ponse : comme ils sont en nombre ´gal ` la dimension de E.. . Alors on sait que les vecteurs e e1 . e Attention : Il y a une exception ` l’avertissement donn´ ci-dessus. ...Cn forment une famille libre de Kn ..Cn forment une famille libre de Kn si et seulement si la matrice dont les colonnes sont C1 .1. Soit (e1 .en n vecteurs de E. .en forment une famille libre de E si et seulement si C1 . Si u est un vecteur de Kn . Dans ce cas (mais seulement dans  x1  .. en )....1 Soient e1 . c’est ` dire d’´crire : u =  e a e  .... soit u = (x1 . 6.xn . . et Cn la e colonne des coordonn´es du vecteur en dans la base (e1 ... d’abord u est un vecteur de l’espace vectoriel E. .. Appelons C1 la colonne des coordonn´es du vecteur e1 dans la base (e1 .... e Soit E un K−espace vectoriel de dimension n = 0........ Matrice de passage. en ) une base de E..   ce cas). en ). en ). xn ).   dans la base (e1 .... on sait que les vecteurs C1 ... e   x1  .. Si u est un vecteur de E on notera en colonne le n−uplet des coordonn´es de u dans e la base (e1 . ils forment une base de E si et e e a seulement si ils forment une famille libre... .. On se pose la question suivante : ` quelle condition les vecteurs a e1 . en )...   u=  . a e alors c’est un n−uplet d’´l´ments de K... Ensuite si on prend une autre base (e1 .en dans la base (e1 ... Les coordonn´es de u dans la base ee e canonique de Kn sont exactement ses composantes x1 . ! xn Soient e1 ... il n’est pas faux d’´crire le vecteur u en colonne. On l’appelera la colonne des coordonn´es de u dans la base (e1 . En effet..Chapitre 6 Changements de bases...Cn les colonnes des coore donn´es de e1 .  xn   x1  . ...... Enfin. en ).. qu’on notera B. on n’´crit pas Attention : Si u a pour coordonn´es  e  e ..... en ).. ..... Soit P ∈ Mn (K) la matrice dont la j`me colonne e 53 . .... qui n’est pas toujours xn Kn . .Cn est une matrice n × n inversible... en ) . Soient C1 .........1 Changement de coordonn´es.. la colonne des coordonn´es de u dans e cette nouvelle base ne sera pas la mˆme que dans l’ancienne base (e1 .en n vecteurs de E..

2 x2 + . .  ..  la colonne des coordonn´es de u dans la base (e1 .. On trouve : u = x1 (p1. .1 e1 + p2.2 Quand la matrice P d´finie ci-dessus est inversible. .3 Soient (e1 .... par la d´finition de la matrice P : e   e1 = p1.en . e . ce qui donne : u = (p1. .. .  . deux bases de E... ... . e se d´duit de la formule : X = P X .1 x1 +p1.1 x + p2. dans la deuxi`me formule donnant e e u ci-dessus...n e2 + . CHANGEMENTS DE BASES.2 x + ..2 x2 +. Or il n’y a qu’une seule d´composition de u sur la base e1 .....n e1 + p2.2 x2 +.. . .. . xn xn On a la formule ´quivalente : X = P −1 X.. + xn (p1. . .. La base (e1 .. . .1 en ) + .1.1 x1 + p1.. alors la colonne X de ses coordonn´es . . en ). en ).. xn dans la base (e1 . . en ) est X =  .54 CHAPITRE 6.en forment une base de E si et seulement si la matrice P est inversible. .1...n xn    x2 = p2.. ..n xn .. + p1.2 x2 +... . .. + pn..+(pn.. + xn en .+p1. + xn en et u = x1 e1 + .. On a donc :   x1 = p1. .2 x2 + .   . en ) ` base (e1 . ) e n    x1 x1  . xn On se pose la question suivante : comment calculer les coordonn´es de u dans la nouvelle base e (e1 . en ) d’une part et (e1 ..+p2. en ) ? Th´or`me 6.en .1 x1 +p2.n xn )e2 +. + pn... e   x1  . . Alors les vecteurs e1 . . .. en ). en ) sera appel´e l’ancienne a e base et la base (e1 . .n en (1`re colonne de P ) e (ni`me colonne de P ) e On remplace les ei par leurs d´compositions sur la base des ej . + p2.+pn.. .1 x1 + pn......  . en ) ` la base (e1 .n xn )en . Donc les scalaires qui appae raissent comme coefficients des vecteurs ei dans la formule ci-dessus sont les coordonn´es de u e dans la base e1 .n x n 1 2 . + pn... . Autrement dit : X = P X . en ) d’autre part.n xn )e1 +(p2. Si la colonne des coordonn´es a la e  x1  . est Cj . . en ) sera appel´e la nouvelle base.. .. . D´finition 6. a . Or on a.1 x1 +pn. Soit e e P la matrice de passage de la base (e1 . e Preuve : u = x1 e1 + .  = P  . .. .n e1 + · · · + pn..    xn = pn. .1 en  ... .  Soit u ∈ E et soit X =  . .1 e1 + · · · + pn. .1 e2 + .  en = p1.  e du vecteur u dans la base (e1 . .n en ). on l’appelle la matrice e e de passage de la base (e1 .  C’est ` dire :  .

      e  = 1`re colonne de P =    p1. e2 . e e e e donc ils sont lin´airement ind´pendants. e4 sont lin´airement ind´pendants. quand X et X sont les colonnes des coordonn´es du e e e vecteur e1 ..1 .. On raisonne suivant la mani`re habituelle pour e e e e des vecteurs de coordonn´es ´chelonn´es. e4 forment une base de R4 . Exemple : Soit R4 muni de la base canonique (e1 . e4 ). Comment s’en souvenir ? e e On teste la formule X = P X sur le premier vecteur de la nouvelle base.1... . e2 . pn. mais c’est aussi la colonne des coordonn´es  1   1  1 1 du vecteur u dans la base canonique de R4 . Comme e3 et e4 sont lin´airement ind´pendants. sinon sa premi`re composante serait nulle. On e e . en )..1 p2. D’abord on voit que e4 et e3 ne sont pas colin´aires. On a donc    P     Or la colonne       e  est la colonne des coordonn´es du vecteur e1 dans la nouvelle base.  0   0   2   1  0 0 1 2 V´rifions que les vecteurs e1 . e4 ). CHANGEMENT DE COORDONNEES. Soient les vecteurs e1 . 0 colonne de A. 0 1 0 . Comme leur nombre est 4.1    colonne  .1  p2. sinon sa deuxi`me coordonn´e serait nulle. e4 .  est la colonne des coordonn´es du mˆme vecteur e1 dans l’ancienne base. .´ 6.. e3 .  . 0  . Ecrivons la matrice de passage P de la base canonique (ancienne base) ` la a nouvelle base. Donc les quatre vecteurs e1 .1 a donc bien v´rifi´ la formule X = P X . e3 .  est la premi`re e  . La colonne   est le vecteur u. MATRICE DE PASSAGE... le produit de A par la colonne  .   .e4 sont li´s si et seulement e e e si e1 s’´crit comme combinaison lin´aire de e2 . e e4 sont lin´airement ind´pendants. . . Alors e1 . e e e e cela prouve que e2 . Or on e e e base (e 1  0    sait que pour n’importe quelle matrice A. e1 . On remarque que les coore donn´es de ces vecteurs sont presque ´chelonn´es. la matrice de passage P permet de calculer les e e ”anciennes” coordonn´es de u (ou coordonn´es de u dans l’ancienne base) en fonction des ”noue e velles” coordonn´es de u (ou coordonn´es de u dans la nouvelle base). Soit e e u le vecteur de R4 donn´ par ses composantes : e  4   1 1  1   1  e u =  . . . On sait que la premi`re colonne de P est form´e des coordonn´es du vecteur e1 dans la   1 . Or e1 n’est pas combinaison lin´aire de e e e ces trois vecteurs. ..  p1. e2 .1    . e3 . Cherchons les coordonn´es de u dans la nouvelle e base (e1 . Puis on voit que e2 n’est pas combinaison lin´aire de e3 e e e et e4 .. e3 ... La  1 0 .e4 de R4 donn´s par leurs composantes (qui   e   sont aussi leurs  ees dans la base canonique) : coordonn´   1 0 0 0  2   1   0   0  e1 =   e2 =   e3 =   et e4 =  . 55 Attention : Un vecteur u de E ´tant donn´.. .. e3 . pn. ils forment une base de R4 .

.. up ) et X la colonne de ses coordonn´es dans la base (u1 . . . On donne un vecteur u de E.. .. La matrice P est la matrice de idE dans les bases (u1 .. up ) et (v1 . vn ). .. La matrice A est la matrice de f dans les bases (u1 . up ) deux e e bases de E et soient (v1 .. e2 . up ).. vn ) est QA . Alors on a la formule suivante : a A = Q−1 AP... Soit A la matrice de f dans les bases (u1 .. Donc la matrice de la fonction compos´e e e f = idE ◦ f dans les bases (u1 . up ) et (v1 .56  CHAPITRE 6... . Puis on calcule les nouvelles coordonn´es de u par la formule X = P −1 X. la matrice e e e de f = idF ◦f dans les bases (u1 .. on ´crit : f = idE ◦f . vn ) de deux mani`res diff´rentes... D’autre part. up ) et (v1 .1 Soit f : E → F une application lin´aire. . up ) ` la base (u1 .... vn ) et Y la a e colonne de ses coordonn´es dans la base (v1 ... .. Preuve : La preuve est ` connaˆ a ıtre. up ) et (v1 . up ) et (u1 . ..... . up ) et Q la matrice de a passage de la base (v1 .. Soit X la colonne de ses coordonn´es dans la e base (u1 .. La matrice A est la matrice de f dans les bases (u1 . On trouve a e e  1 = 2x3 + x4  2x3 + x4 = 1  x3 = 1/3       3x4 = 1 x4 = 1/3 1 = x3 + 2x4   1  −1   Les nouvelles coordonn´es de u sont donc donn´es par la colonne  e e  1/3  1/3 1 Attention : Le vecteur u n’est pas ´gal ` cette colonne. . Par le th´or`me de composition. . ....... On substitue P X ` X et QY ` Y dans la formule Y = AX... vn ).. On va e donner deux preuves diff´rentes (retenir celle qui semble la plus simple !) e Premi`re d´monstration. . . up ).. Alors le fait que P soit inversible montre que (e1 ...2. vn ). . up ) et (v1 . ... vn ) ` la base (v1 .... Comme il n’y a qu’une seule matrice. up ) et (v1 .. .. Pour cela.. e4 ) est une base de R4 . ... vn ) et (v1 ... . . . . Les coordonn´es X de u dans la nouvelle base sont donn´es par la formule X = P X .. vn ). D’une part on ´crit : f = idF ◦ f . up ) et (v1 . up ) et (v1 . up ) et (u1 . . vn ) et soit A la matrice de f dans les bases (u1 . vn ) deux bases de F . on calcule de deux mani`res e e e la matrice de f dans les bases (u1 .. on a AP = QA ..... (N´cessite de connaˆ e e e ıtre la formule de changement de base pour les vecteurs). . c’est e e ` dire : a    x1 = 1  1 = x1   x1 = 1       1 = 2x1 + x2 x2 = −1 x2 = −1 d’o` u Il reste ` r´soudre ce syst`me.. vn ) et (v1 .. Montrons que QA = AP ... vn ). On a seulement : u = e1 −e2 + 1 e3 + 3 e4 .... La e matrice Q est la matrice de idF dans les bases (v1 ......... e3 . e a 3 (Formule qu’on peut v´rifier pour d´tecter d’´ventuelles erreurs de calcul).. Soient (u1 .. car il faut ˆtre capable de retrouver la formule. vn ). On trouve QY = a a . vn ) est AP . D’abord prouver que P est inversible et e e calculer P −1 .. ........2 Formule de changement de base pour une application lin´aire.. . On a donc calcul´ la matrice de e e f dans les bases (u1 . e 6.. ........ Le vecteur f (u) e appartient ` F .  e1 1 0 0 0  2 1 0 0  e2  P =  0 0 2 1  e3 0 0 1 2 e4 e1 e2 e3 e4 ... . Appelons P la matrice de passage de la base (u1 . . Appelons Y la colonne de ses coordonn´es dans la base (v1 . Or X = P X e et Y = QY . Deuxi`me d´monstration. e e Th´or`me 6. . CHANGEMENTS DE BASES. e e e On aurait pu r´soudre le probl`me autrement. . ... vn ). On : Y = AX et Y = A X .

Donc v1 . x. On inverse la matrice Q. 2. 1) et v3 = (0. Appelons (e1 . c’est ` dire si il e e e a  0 =α+β  1 = −α + 2β et ce syst`me n’a pas de solution. v3 ne peuvent ˆtre li´s que si v3 est une combinaison lin´aire de v1 et v2 . e2 ) la base canonique de R2 et (x.´ 6. Ceci On trouve Q−1 = 5  2 5 −1 −1 3 −12 −6 1 1 signifie que f (u1 ) = 5 (21v1 + 19v2 − 12v3 ) et f (u2 ) = 5 (8v1 + 7v2 − 6v3 ). e e v2 . 1) deux vecteurs de R2 .p (K) par ”ARA s’il existe deux matrices inversibles e P ∈ Mp (K) et Q ∈ Mn (K) telles que A = Q−1 AP ” est une relation d’´quivalence. La matrice de f dans les bases canoniques de R2 et R3  2 3 est  1 0  . y) → (2x + 3y.2. On donne u1 = (1. v3 ) est Q =  −1 2 1  . La matrice de passage de e e 1 0 la base canonique de R2 ` la base (u1 . e v2 = (1. on dit que A et A sont des matrices ´quivalentes. 2) et u2 = (0. 1. existe des r´els α et β tels que e e  2 =β v2 . Si A et A ∈ Mp (K) et s’il existe une matrice inversible P ∈ Mp (K) telle que e A = P −1 AP . Ils forment une base de R3 . Le produit Q−1 AP donne A = 1  19 7  . Si il existe deux matrices invere sibles P ∈ Mp (K) et Q ∈ Mn (K) telles que A = Q−1 AP . Comme cela est vrai pour tout vecteur u de E. donc v1 . a 0 1 2     3 −2 1 21 8 1 2 −1  .2 Soient A et A deux matrices de Mn. On voit que v1 et v2 sont lin´airement ind´pendants.p (K). f : R2 → R3 Exemple : Soit . 0). On donne trois vecteurs de R3 : v1 = (1.2. e3 ) la base canonique de R3 . on dit que A et A sont des matrices semblables.  . u2 ) est P = a et la matrice de passage de la 2 1   1 1 0 base canonique de R3 ` la base (v1 . e . x − y) e2 (e1 . on en d´duit que e A = Q−1 AP . −1. Ils forment une 1 −1 base de R2 car ils ne sont pas colin´aires. 2). D´finition 6. donc Y = Q−1 AP X . Exercice : La relation R d´finie sur Mn. v2 . v3 sont lin´airement ind´pendants.57 AP X . FORMULE DE CHANGEMENT DE BASE POUR UNE APPLICATION LINEAIRE.

58 CHAPITRE 6. . CHANGEMENTS DE BASES.

on sait par la proposition ci-dessus que rg A = dim Im Φ.1. e Remarque : Soit A une matrice.....p (K). (v1 . (u1 .. . vn )..1 . vn ) une base de F et soit f : E → F une application lin´aire. alors elles ont le mˆme rang..... an.....3 Si A et A sont deux matrices ´quivalentes.1 ... La premi`re m´thode consiste ` trouver le rang des colonnes de A par la m´thode expliqu´e e e a e e au Chapitre 3 (page 31) : on applique la m´thode du pivot de Gauss aux colonnes de A.. e e 7.1 Soient n. On dit que les e e e e lignes du syst`me sont lin´airement ind´pendantes si les n matrices-lignes de A : (a1. up ) est une base de Kp et P est la matrice de passage de la base canonique de Kp ` la base (u1 .. comme P matrice A.. Donc rg (A) = rg (Φ) = rg (A ).Chapitre 7 Rang d’une matrice.. retour aux syst`mes lin´aires... e e D´finition 7. .1 Rang d’une matrice. up ) .2 Soit (u1 .. Soit Φ l’application lin´aire de Kp dans Kn associ´e canoniquement ` la e e a p constitu´s par les colonnes de P .up les vecteurs de K e est inversible.p ) (consid´r´es comme des vecteurs de Kp ) sont lin´airement ind´pendantes..) e Proposition 7.vn . Donc rg (f ) = rg (A).. e e e (an..p ).. . .. up ) et (v1 . e e e e 59 . up ) une base de E. f (up )}. Soient u1 ..Cp ont le mˆme rang.... . On connaˆ deux mani`res diff´rentes de calculer le rang de ıt e e A.. Ce sont n vecteurs de Kn ... Rang d’un syst`me lin´aire. vn ). consid´r´es comme des vecteurs de Kn .1..) D´finition 7. Et rg (A) = dim Vect {C1 . Soit A la matrice de f dans les bases (u1 . e e Preuve : Par hypoth`se il existe deux matrices inversibles P ∈ Mp (K) et Q ∈ Mn (K) telles e que A = Q−1 AP . vn ). Mais on sait que la j`me colonne Cj est la colonne des cooru e donn´es du vecteur f (uj ) dans la base (v1 . On utilise ensuite la formule : dim Im Φ + dim Ker Φ = p.. On consid`re le syst`me lin´aire AX = 0. qui donne e a rg A = p − dim Ker Φ. .Cp sont les colonnes de A. qui forment une base de Kn et Q est la matrice de passage de la base canonique e de Kn ` la base (v1 . (C’est ` dire la dimension du sous-espace e e a vectoriel de Kn engendr´ par les p colonnes de A. a e e appel´s v1 .. up ) et (v1 ... a1.. o` Φ est l’application lin´aire e e a u e associ´e canoniquement ` A.. La e deuxi`me m´thode consiste ` trouver la dimension du noyau de Φ. e Preuve : On a rg (f ) = dim Im f = dim Vect {f (u1 ). Cp } o` C1 .1... p ∈ N et soit A ∈ Mn...f (up ) et la famille des vecteurs C1 ....p (K). vn ). . .... ..... la matrice A est la matrice de a l’application lin´aire Φ dans les bases (u1 .1. . On appelle rang de A le rang des p e colonnes de A. Alors le e rang de f est ´gal au rang de A. De mˆme on consid`re les colonnes de Q. Alors.. . Par cons´quent la famille des vecteurs f (u1 ). . e e ....... Par la formule de changement de base. . . (En effet.. e Corollaire 7..4 Soit A ∈ Mn..

e e   e e x  y  x = −z − t On trouve la solution . Donc u1 et u2 forment une base de F et la dimension de F est 2. C’est aussi le e nombre maximal de lignes ind´pendantes parmi les lignes de A. Par ailleurs le rang  0  0 du syst`me est deux. car du fait qu’il est ´chelonn´.1. e e e e e Dans ce cas. e La d´monstration de cette proposition d´coule de deux lemmes. RETOUR AUX SYSTEMES LINEAIRES.1. Donc le vecteur   est solution du syst`me (Σ) si e  z  y =z−t t       x −1 −1  y   1   −1     et seulement si   = z   z   1  + t  0 . les lignes sont lin´airement ind´pendantes. Il y a deux inconnues principales : x et y et deux inconnues non e e e principales qu’on prend comme param`tres : z et t. e e e Proposition 7. alors z = t = 0 car z et t sont des composantes du vec0 1 0   0  0  teur  . G´n´ralisons ce r´sultat. e e C’est la dimension du sous-espace vectoriel de Kp engendr´ par les n lignes de A. e e e e a Soit F le sous-espace vectoriel de Kp form´ par les solutions de ce syst`me. e e Le probl`me : on donne un syst`me lin´aire homog`ne ` n lignes et p colonnes. On dit aussi que c’est le nombre e maximal d’´quations ind´pendantes pour le syst`me AX = 0.6 Soit le syst`me lin´aire homog`ne AX = 0. Exemple : On donne le syst`me lin´aire homog`ne e e e 2x −y +3z = 0 x −3y +z = 0 Les lignes du syst`me sont lin´airement ind´pendantes. on trouve dim F = p − r. On remarque une  F e  e e   −1 −1 0  1   −1   0       que si z   1  + t  0  =  0 .5 Soit A ∈ Mn. La dimension de l’espace vectoriel F des solutions de ce syst`me est p − r. Trouver la dimension e e de F et une base de F . de rang r. z. t) du syst`me e e lin´aire homog`ne e e (Σ) 2x− y+ 3z+ t = 0 y− z+ t = 0 C’est un syst`me ´chelonn´. t 0 1     −1 −1  1     et u2 =  −1  engendrent F . de dimension n × p et de rang e e e r. e e e D´finition 7. Montrons qu’ils Cela montre que les vecteurs u1 =   1   0  0 1 forment  base de  . On r´soud (Σ) par la m´thode de la remont´e. On appelle rang du syst`me homog`ne AX = 0 le rang e e e des matrices-lignes de A (consid´r´es comme des vecteurs de Kp ). RANG D’UNE MATRICE.p (K). On va donner une formule qui lie e e e le rang du syst`me homog`ne AX = 0 et la dimension de l’espace vectoriel des solutions. Il suffit d´montrer qu’ils sont lin´airement ind´pendants. Exemple : Soit F le sous-espace vectoriel de R4 form´ par les solutions (x. e e . y.60 ` ´ CHAPITRE 7.

.. Les p − r e e e vecteurs ur+1 ..Ln . sont lin´airement ind´pendantes) . Le syst`me AX = 0 est e Le rang des 0 −1 1 −y +z = 0.. . Il est ´gal au nombre d’´quations non nulles e e e dans le syst`me ´chelonn´ qu’on trouve apr`s l’utilisation de l’algorithme du pivot de Gauss e e e e pour r´soudre le syst`me AX = 0.λ A... xp ∈ K}.... .. . On r´it`re le proc´d´. R´ciproquement.. Pour chaque valeur du e (p − r)−uplet (xr+1 . ` ´ RANG D’UNE MATRICE. + xp up .0). alors le e e vecteur xr+1 ur+1 + . Appelons r le rang des lignes de A.1. consid´r´es comme des vecteurs de K e ee 2 n sont des scalaires.. Les p − r derni`res composantes du vecteur e e e u sont xr+1 ... u e 2 −4 1 2x −4y +z = 0 Exemple : A = . appel´ r.. ..xp . si u = (x1 . . alors le sous-espace vectoriel de Kp engendr´ par les vecteurs L1 .Ln − λn L1 . not´es L1 . Par cons´quent p − r = p − r.. Or... il y a r inconnues principales et p − r inconnues e non principales qu’on prend comme param`tres.. Par le th´or`me de la dimension on a e e dim Kp = dim Ker Φ + dim Im Φ.. e Proposition 7.1. xp ) trouv´e pour (xr+1 .. + xp up est une solution du syst`me pour les mˆmes valeurs xr+1 . appelons e a e x1 ... xp ) = xr+1 ur+1 + .. On e e a vu que dim F = p − r....... puisque les coefficients qui apparaissent e dans la d´composition sont n´cessairement les p − r derni`res composantes de u... mais appliqu´ aux lignes de la matrice e p .. xp ) est une solution du syst`me. Preuve de la proposition 7. Soit F l’espace vectoriel des solutions du syst`me homog`ne e e e e AX = 0. xp ) = (0. donc p = dim F + r ...up est unique.. c’est p − r. On v´rifie que le rang des colonnes aussi : C3 = −C2 − 2 C1 .. Soit le vecteur u d´fini par u = xr+1 ur+1 + ...6 Le rang r des lignes de A se calcule par la m´thode e du pivot de Gauss appliqu´e aux lignes de A..1. e Preuve : Soit A ∈ Mn.. .0).. ` cause du caract`re ´chelonn´.1. le rang des lignes est ´gal au rang des colonnes........ . Une fois termin´e la m´thode du pivot de Gauss le rang des n e e e e e e lignes obtenues est ´gal au rang des lignes L1 .Ln ...up forment donc une base de F .7 Le rang des lignes du syst`me homog`ne AX = 0 est ´gal au nombre de lignes e e e non nulles du syst`me ´chelonn´ ´quivalent EX = 0 obtenu par la m´thode du pivot de Gauss.p (K)... dont les r e e e e e ´quations sont non nulles. L’espace vectoriel e .. 61 Lemme 7. Donc e e les lignes obtenues apr`s la premi`re it´ration du pivot de Gauss ont le mˆme rang que les lignes e e e e L1 ...... RANG D’UN SYSTEME LINEAIRE. xp les p − r param`tres.. Quitte ` r´indexer les inconnues... xp ) = e e (0. page 31.. .. le rang e a e e e des n lignes obtenues est le nombre. 0. 0. C’est aussi l’ensemble des solutions du syst`me ´chelonn´ ` r lignes non nulles EX = 0... donc r = r .. 1... L2 − λ2 L1 . Les vecteurs ur+1 .. xr+1 ∈ K. e e e e Lemme 7.xp des e e param`tres. L’ensemble des solutions est donc e e a F = {(x1 ..9 Pour toute matrice. ´chelonn´es. 0. r le rang de A (c’est ` dire le a rang des colonnes de A) et F l’espace vectoriel des solutions du syst`me homog`ne AX = 0. Donc dim F = p − r. d’o` dim F = p − r .. + xp up . up la solution trouv´e pour (xr+1 ... r = dim Im Φ. donc il est ´gal ` u..Ln .7.. xp ) on trouve une unique solution du syst`me par la m´thode de la e e remont´e. Alors u est une solution du e syst`me comme combinaison lin´aire de solutions. Alors F = Ker Φ..xr les inconnues principales et xr+1 . 3 lignes de A est 2. e e ee e Preuve C’est le raisonnement du chapitre 3...... Soit Φ l’application lin´aire de Kp dans Kn associ´e canoniquement ` e e a A. Par ailleurs..... Appelons ur+1 la solution (x1 . e Preuve : Rappelons que dans un tel syst`me.. On rappelle le principe : si λ . de lignes non nulles (car on montre facilement que e les r lignes non nulles..up engendrent donc F .Ln est le e mˆme que les sous-espace vectoriel engendr´ par les vecteurs L1 .. xp ) = (1. .8 Soit un syst`me lin´aire ´chelonn´ homog`ne de dimension r × p. e e ea obtenu par la m´thode du pivot de Gauss.1... .. 1). Alors la dimension de l’espace vectoriel F des solutions de ce syst`me e e est ´gal au nombre d’inconnues non principales. De plus la d´composition de toute solution u comme e combinaison lin´aire des vecteurs ur+1 . ur+2 la e e solution trouv´e pour (xr+1 .

En effet. Alors il existe une matrice carr´e e extraite de A.62 ` ´ CHAPITRE 7... . dans e l’espace R3 .1.. De mˆme pour la seconde ´quation.. toute matrice carr´e extraite de A et de dimension e r × r (s’il en existe) est non inversible. ep ) e e est (a1 . RETOUR AUX SYSTEMES LINEAIRES. RANG D’UNE MATRICE. De plus. comme deux plans qui passent par le point (0.. un hyperplan de l’espace vectoriel E de dimension p est un sous-espace e vectoriel de dimension p − 1. Il existe une matrice A telle que u ∈ H si est seulement si X est solution du syst`me e lin´aire AX = 0.. 2 Pour la premi`re ´quation prise s´par´mment. ap ) = (0. C’est le cas pour toute matrice r × r extraite de A en choisissant r lignes lin´airement ind´pendantes et r colonnes lin´airement ind´pendantes e e e e et en rayant les autres. Il existe e e e donc un syst`me ´quivalent qui n’a qu’une seule ´quation (c’est le syst`me ´chelonn´ obtenu e e e e e e par la m´thode du pivot). e e La droite vectorielle F est donc l’intersection de deux plans vectoriels (qu’on repr´sente. . de dimension r × r et inversible. (i) Le noyau de toute forme lin´aire non nulle de E est un hyperplan de E. 0) tel que u ∈ H si et seulement si e a1 x1 + . e Rappel : par d´finition. On a donc trouv´ une e z 0 1 base pour chacun des deux plans vectoriels admettant pour ´quation cart´sienne chacune des e e ´quations du syst`me.11 Soit A ∈ Mn. Comme dim H = p − 1. On appelle matrice extraite de A toute matrice A ∈ e a M n . . e (ii) Tout hyperplan de E est le noyau d’une forme lin´aire non nulle. 1 ≤ n ≤ n. Proposition 7..10 Soit E un espace vectoriel de dimension p.. Donc il existe (a1 . l’espace vectoriel des solutions est de dimension e e e e 3 − 1 = 2 (car le rang est 1).p (K).   3 des solutions sera de dimension 3 − 2 = 1.. donc dim Ker f = p − 1. .12 Soit A ∈ Mn.. ep ). Le K-espace vectoriel des solutions du syst`me lin´aire hoe e mog`ne AX = 0 est l’intersection de n hyperplans de Kp . Consid´rons La forme lin´aire f dont la matrice dans la base (e1 .. Alors E = ker f .1. .. Fixons une base (e1 . le rang du syst`me lin´aire AX = 0 est 1.. Montrons que les r lignes de A sont lin´airement ind´pendantes. c’est un plan vectoriel. on appelle X la colonne de ses coordonn´es dans la base e (e1 . Preuve (i) Soit f une forme lin´aire non nulle de E. Son image est un sous-espace vectoriel de K non r´duit ` z´ro... C’est vrai en particue e e lier pour H. + ap xp = 0.p (K). ap ). C’est une application lin´aire non idene e tiquement nulle de E dans K. e e Proposition 7.p (K).. (ii) Soit H un hyperplan de E. e e e .. 1 ≤ p ≤ p. On sait que tout sous-espace vectoriel de E admet un syst`me d’´quations cart´siennes dans cette base. Donnons des bases de ces deux plans vectoriels.. Soit r le rang de A. si r > r. Preuve : Choisissons r colonnes de A lin´airement ind´pendantes et r lignes de A lin´airement e e e ind´pendantes et rayons toutes les autres lignes et les autres colonnes.       x 1 0 (2x − 4y + z = 0) ⇔ (z = −2x + 4y) ⇔  y  = x  0  + y  1  z −2 4       x 1 0 et (−y + z = 0) ⇔ (y = z) ⇔  y  = x  0  + z  1  .1. On obtient une matrice e carr´e A de dimension r × r. On a dim Ker f + dim Im f = dim E. . 0)). c’est la droite vectorielle de base  2  . obtenue ` partir de A en rayant n − n lignes et p − p colonnes.. e a e donc Im f = K (car dim K = 1).p (K).. ep ) de E. Remarque : Soit A ∈ Mn. Si u est un vecteur de E. e D´finition 7.

ar.. a1.14 Soit un syst`me lin´aire de matrice A ∈ Mn. e Rappel Si A est une matrice carr´e inversible. lin´aire AX = B admet une solution unique X = A e e e e D´finition 7.. a2.+λr ar.1 ..r ) = µ1 (λ1 a1... + µr ar. .r ) = (0.+λr (µ1 ar. a1... + µr a1. ar.1 +µ2 ar.. an.. .p a2. an. ...1 . .+λr ar. an. . . On trouve λ1 a1. .7..1 ) + .r+1 = 0.r   .r+1 = λ1 (µ1 a1. que L1 .λ1 a1.. ar. e D´finition 7.. .2 +. + λr ar.. .1 + λ2 a2. .1 + µ2 a1.r+2 = 0.... Les r lignes du syst`mes ainsi choisies sont appel´es les ´quations principales et les r inconnues e e e ainsi choisies sont appel´es les inconnues principales..r . .1 .. . alors pour tout second membre B le syst`me e e −1 B.br avec les mˆmes coefficients.µr tels que e a1. qu’on a trouv´ r lignes ind´pendantes e e e e et r colonnes ind´pendantes. ....+µr a1. Utilisons le fait que chacune des p − r derni`res colonnes de A est une combinaison lin´aire e e des r premi`res colonnes de A... + λr (µ1 ar. .13 Si A est une matrice carr´e inversible. Choisissons une matrice r×r extraite de A et inversible... Il s’agit de prouver que n´cessairement λ1 = .... + λr ar.. ar. Sinon le syst`me n’a pas e e e e .+µr ar. .1 + .. ar. Supposons.. + λr ar.r ) + .1 +µ2 a1.p     an. + λr ar. il existe des scalaires µ1 . 0). ..2 + . .. .. = λr = 0.p Ecrivons une relation lin´aire entre les lignes de A .p = 0.. Donc ceci est encore vrai pour les lignes de A . qu’on a colonnes de A.r ) + . Comme on a suppos´ que les r premi`res lignes de A sont lin´airement ind´pendantes. .. 63 Supposons..r+1 ..r gard´ les r premi`res lignes et les r premi`res e e e  a1. + µr a1.1 .. alors on dit que le syst`me lin´aire e AX = B est un syst`me de Cramer..1 + µ2 a1.. ....   ar. . Si les seconds membres br+1 . .. a1. e e Soit maintenant r > r et soit A une matrice extraite de A. 0).p ) = (0. a1.p ) + . alors e e on obtient un syst`me ´quivalent en supprimant ces n − r ´quations.r  a2. Or λ1 (µ1 a1. donc A n’est pas de rang maximal.. Les lignes de A ne sont pas lin´airement e ind´pendantes.p .r+1 = µ1 ar. + µr ((λ1 a1. Donc les c lignes de A sont lin´airement ind´pendantes.2 + . not´ e e e e AX = B.r + λ2 a2.p + ..bn e sont des combinaisons lin´aires des seconds membres b1 .r+1 = µ1 a1. . ` ´ RANG D’UNE MATRICE.2 +.r   ..1 .......1 + µ2 ar. . RANG D’UN SYSTEME LINEAIRE.λr = 0.. ¸a e e e e c impliquera que λ1 = ... .... e Supposons qu’on a d´termin´ le rang r de la matrice A.r+2 + ..r+1 ..1 . + λr (ar.. Or toute famille de r lignes de A est li´e c’est ` dire que l’une des r lignes de A est combinaison lin´aire des r − 1 e a e autres.r+1 +..r )+.1. On trouve donc λ1 a1.r   .. e pour simplifier. Appelons A la matrice inversible r × r ainsi obtenue. .. pour simplifier les notations. Soit r le rang de la matrice A.1 . donc A est inversible.2 + . Les lignes de A e sont extraites d’une famille de r lignes de A.r+1 ....Lr soient des lignes lin´airement ind´pendantes.r ) = 0.. = λr = 0..  a1. ..r+1 . . donc n’est pas inversible.. + λr (ar. en rayant certaines colonnes. de second membre B.1 + µ2 ar. carr´e r × r . .r On en d´duit que : e λ1 a1. On fait la mˆme d´monstration pour les colonnes e e num´ros r + 2.  A= ar. a2. Donc e λ1 (a1...  .1 ..r ). . . 0) et ¸a implique que λ1 = ...  . Soient λ1 . + λr (ar.p.1... Comme la r + 1 `me colonne de A est une combinaison lin´aire e e e r des  premi`res colonnes de A.p ) = (0.1 . a1...1 .p      ar.2 + .. Dans ce but on va prouver que : e λ1 (a1....r+1 +..1.. Alors les autres lignes e e de la matrice A sont des combinaisons lin´aires de ces r lignes...p ) + . . . + µr ar...λr ∈ K telles que e λ1 (a1.

. e e Soit A ∈ Mn. Proposition 7. Le rang de A est 2. c’est ` dire la droite qui lui est parall`le et qui passe par le point e a e (0. On peut donc prendre x et y comme inconnues principales et z comme 2x −4y = 1 − z param`tre et on r´soud le syst`me de Cramer d’inconnues x et y : e e e x −y = 2 − z.1 (i) Le syst`me AX = B admet au moins une solution si et seulement si e B ∈ Im Φ.2. D´finition 7. Preuve : On a (i) de mani`re ´vidente.. l’espace affine des solutions est r´duit ` un e e a point. Soit l’ensemble des solutions est vide. On peut interpr´ter chaque ligne du systme lin´aire AX = B comme l’´quation d’un hypere ` e e plan affine de Kp .2. alors sa direction est la droite vectorielle associ´e. On notera S = X0 + Ker Φ. Espaces affines. Soit le syst`me AX = B suivant : e 0 −1 1 x −y +z = 2. l’espace affine des solutions est de dimension 1. RANG D’UNE MATRICE. Sinon. AX = B ⇔ AX = AX0 ⇔ A(X0 − X) = e e 0 ⇔ X − X0 ∈ Ker Φ. D´finition 7. e a Un sous-espace affine de R2 (diff´rent de R2 lui-mˆme) est soit un point. Dans ce cas. Un sous-espace affine de R3 (diff´rent de R3 lui-mˆme) est soit un point. ou un plan vectoriel. Dans le cas o` on obtient un syst`me ´quivalent en ne conservant que les ´quations u e e e principales.2. Si e e c’est un point. alors e l’ensemble {X0 + Y .3 On appelle hyperplan d’un espace affine de dimension p tout sous-espace affine e de dimension p − 1. On d´finit la dimension de l’espace e affine X0 + F comme ´tant ´gale ` la dimension de l’espace vectoriel F . alors on prend les p − r inconnues non principales comme param`tres et on r´soud e e un syst`me de Cramer de matrice A pour calculer les inconnues principales en fonction des e param`tres. sa direction est l’espace vectoriel {0}.p (K). Y ∈ F }. ou etc. (ii) Supposons que B ∈ Im Φ et choisissons X0 ∈ Kp tel que B = Φ(X0 ) = AX0 . soit une droite. 7. Par la proposition ci-dessus on a la discussion suivante.2 Si X0 ∈ Kp et si F est un sous-espace vectoriel de Kp de dimension p . ou une droite e vectorielle. Montrons (ii). Y ∈ Ker Φ}.64 ` ´ CHAPITRE 7. pour l’ensemble des solutions du syst`me lin´aire AX = B. dont la direction est l’espace vectoriel des solutions du syst`me homog`ne associ´ AX = 0. si le e e e syst`me AX = 0 n’admet que la solution nulle. de solution. qu’on peut noter X0 + F . Les directions associ´es sont respectivement l’espace vectoriel {0}. 0). e e a Remarque : Tout sous-espace affine de direction l’espace vectoriel {0} est r´duit ` un point. Si c’est une droite. On voit que la matrice extraite de A en rayant la derni`re colonne est e une matrice inversible. L’ensemble des solutions du syst`me lin´aire est l’intersection de n hyperplans e e affines. soit B ∈ Kn et soit le syst`me lin´aire AX = B. e 2 −4 1 2x −4y +z = 1 Exemple : A = .2 Syst`mes lin´aires avec second membre. e e soit un plan. Alors l’ensemble des solutions de AX = B est S = {X0 + Y . s’appelle le sous-espace affine de Kp de direction l’espace vectoriel F et passant par le point X0 .ou p. soit le syst`me admet au moins e e e une solution et alors l’ensemble des solutions est un sous-espace affine de Kp . RETOUR AUX SYSTEMES LINEAIRES. soit une droite. Interpr´tons ce syst`me e e e e p dans Kn de matrice A dans les bases canoniques de Kp en utilisant l’application lin´aire de K e p → Kn n : Φ:K et K X → AX.

Sign up to vote on this title
UsefulNot useful