You are on page 1of 43

Université Mohammed V

Faculté des Sciences


Département de Mathématiques

ALGÈBRE 2

SMPC - S2

2014 - 2015

A. EL Abdllaoui, A. Hajji, M. EL Kadiri et M. Ziani

exosup.com page facebook


FACULTÉ DES S CIENCES – R ABAT

www.fsr.ac.ma

Année universitaire : 2014 - 2015

exosup.com page facebook


Table des matières

1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1 Structure d’espace vectoriel 5
1.2 Structure de sous-espace vectoriel 7
1.3 Dépendance et indépendance linéaires 10
1.4 Bases et dimension d’un espace vectoriel 11
1.5 Somme de sous-espaces vectoriels 13
1.6 Rang d’un système de vecteurs 14

2 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1 Définitions et propriétés 17
2.2 Noyau et image d’une application linéaire 18

3 Calcul matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.1 Définitions 23
3.2 Opérations sur les matrices 25
3.2.1 Addition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2.2 Produit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2.3 Opérations élémentaires sur une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.4 Application pour déterminer l’inverse d’une matrice carrée inversible . . . . 27
3.2.5 Puissances d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3 Matrice d’une application linéaire 28
3.3.1 Matrice de la composée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.4 Changement de bases 31
3.4.1 Matrice de passage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.4.2 Effet d’un changement de base pour une application linéaire . . . . . . . . . . 32

exosup.com page facebook


3.5 Rang d’une matrice 33

4 Déterminant d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35


4.1 Déterminant d’ordre 2 35
4.2 Déterminant d’ordre 3 35
4.3 Déterminant d’ordre n 36
4.4 Propriétés 36
4.5 Applications 37
4.5.1 Calcul de l’inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.5.2 Systèmes de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

5 Réduction des matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39


5.1 Polynôme caractéristique et éléments propres d’une matrice carrée 39
5.2 Diagonalisation des matrices 41
5.3 Théorème de Cayley-Hamilton 43
5.4 Réduction des endomorphismes 43

exosup.com page facebook


Structure d’espace vectoriel
Structure de sous-espace vectoriel
Dépendance et indépendance linéaires
Bases et dimension d’un espace vectoriel
Somme de sous-espaces vectoriels
Rang d’un système de vecteurs

1. Espaces vectoriels

Dans tout ce chapitre, K désigne R ou C.

1.1 Structure d’espace vectoriel


Définition 1.1.1 Soit E un ensemble.
– Une loi de composition interne ’+’ dans E est une application de E × E dans E :

(u, v) ∈ E × E 7→ u + v ∈ E.

– Une loi de composition externe ’.’ sur E est une application de K × E dans E :

(α, u) ∈ K × E 7→ α.u ∈ E.

Exemples
1. Dans E = {0, 1} l’application définie par
aT b = 1 − ab
est une loi de composition interne de E.
2. Soit E = R3 . L’application notée ’.’ de R × R3 dans R3 définie par
α.(x, y, z) = (αx, αy, αz)
est une loi de composition externe.

Définition 1.1.2 On appelle espace vectoriel sur K, ou K-espace vectoriel, un ensemble non
vide E muni d’une loi (de composition interne) notée 0 +0 et d’une autre loi (de composition
externe) notée 0 .0 telles que
1. La loi + est associative : ∀u, v, w ∈ E, (u + v) + w = u + (v + w)
2. E possède un élément neutre 0E pour + : ∀u ∈ E, u + 0E = 0E + u = u
3. Tout élément de E admet un symétrique : ∀u ∈ E, ∃v ∈ E, u + v = v + u = 0E
4. La loi + est commutative : ∀u, v ∈ E, u + v = v + u
5. ∀α, β ∈ K, ∀u ∈ E, α.(β .u) = (αβ ).u
6. ∀α, β ∈ K, ∀u ∈ E, (α + β ).u = α.u + β .u
7. ∀α ∈ K, ∀u, v ∈ E, α.(u + v) = α.u + α.v

exosup.com page facebook


6 Chapitre 1. Espaces vectoriels

8. ∀u ∈ E, 1.u = u

Le K-espace vectoriel E muni des deux lois 0 +0 et 0 .0 sera noté (E, +, .). Les éléments de K sont
appelés scalaires et ceux de E sont appelés vecteurs. Le symétrique v d’un élément u de E pour
+ est noté −u.

Exemples
1. Pour tout n ∈ N∗ , l’ensemble Kn est un K-espace vectoriel pour les lois
(x1 , ..., xn ) + (y1 , ..., yn ) = (x1 + y1 , ..., xn + yn )
λ .(x1 , ..., xn ) = (λ x1 , ..., λ xn ).
2. Soit E un K-espace vectoriel et A un ensemble quelconque non vide. L’ensemble E A des
applications de A dans E est un K-espace vectoriel pour les lois
f +g : A → E
x 7→ ( f + g)(x) = f (x) + g(x)
et
λ.f : A → E
x 7→ (λ . f )(x) = λ . f (x).
Par exemple, RN l’ensemble des suites réelles est un R-espace vectoriel pour les lois
usuelles.
3. L’ensemble Rn [X] des polynômes de degré inférieur ou égal à n ∈ N (à coefficients réels)
est un R-espace vectoriel pour les lois
n n n
∑ ak X k + ∑ bk X k = ∑ (ak + bk )X k
k=0 k=0 k=0
n n
k
λ . ∑ ak X = ∑ (λ ak )X k , λ ∈ K.
k=0 k=0

Proposition 1.1.1 Soit E un K-espace vectoriel. Alors ∀(α, β ) ∈ K2 , ∀(u, v) ∈ E 2 , on a


1. α.u = 0E ⇔ (α = 0 ou u = 0E )
2. (α − β ).u = α.u − β .u
3. α.(u − v) = α.u − α.v.

Démonstration. Ces propriétés se déduisent facilement de la définition d’un K-espace vectoriel.


Donnons, par exemple, la preuve de la propriété 1.
Supposons λ .u = 0E et λ 6= 0. Il existe un scalaire λ −1 de K tel que λ −1 λ = 1, d’où
u = 1.u = (λ −1 λ ).u = λ −1 .(λ .u) = λ −1 .0E = 0E .


Exercice 1.1.
Soit E un K-espace vectoriel. Montrer que ∀α ∈ K, ∀u ∈ E on a
(−α).u = α.(−u) = −(α.u).

R Afin d’alléger les écritures, nous convenons, dans tout ce qui suit, de l’abus suivant : pour
tout scalaire α de K et pour tout vecteur u de E, on note αu le vecteur α.u de E.

exosup.com page facebook


A. EL A BDLLAOUI , A. H AJJI , M. EL K ADIRI ET M. Z IANI 7

1.2 Structure de sous-espace vectoriel


Définition 1.2.1 Soit (E, +, .) un K-espace vectoriel. Une partie F de E est un sous-espace
vectoriel de E si
– F est non vide,
– (F, +, .) est un K-espace vectoriel.

Théorème 1.2.1 Soit (E, +, .) un K-espace vectoriel. Une partie F de E est un sous-espace
vectoriel de E si et seulement si
– F est non vide
– F est stable pour la loi + : ∀(u, v) ∈ F 2 , u + v ∈ F
– F est stable pour la loi . : ∀λ ∈ K, ∀u ∈ F, λ u ∈ F.

Démonstration. – Par hypothèse F est non vide. Soit λ ∈ K, (u, v) ∈ F 2 . Comme F est un
K-espace vectoriel on a u + v ∈ F et λ u ∈ F.
– Pour montrer l’implication inverse, les seuls points à vérifier sont les points 3) et 4) de la
loi interne + (voir définition 1.1.2).
Prenons λ = 0 et u ∈ F, alors λ u = 0E ∈ F et donc F possède un élément neutre pour la
loi +.
Soit u ∈ F, par définition il existe v ∈ E tel que u + v = v + u = 0E , donc v = −u =
(−1)u ∈ F.
Comme F est non vide, (F, +, .) est un K-espace vectoriel et donc F est un sous espace
vectoriel de E.


On peut résumer le théorème précédent sous la forme suivante


Corollaire 1.2.2 Soit (E, +, .) un K-espace vectoriel. Une partie F de E est un sous-espace
vectoriel de E si et seulement si
– F est non vide
– ∀(λ , µ) ∈ K2 , ∀(u, v) ∈ F 2 , λ u + µv ∈ F.
Exemples
1. Soit E un K-espace vectoriel. Alors le singleton {0E } et E sont des sous-espaces vectoriels
de E.
2. L’ensemble F = {(x, −x, 0)/ x ∈ R} est un sous-espace vectoriel de R3 .
3. L’ensemble des fonctions continues de R dans R est un sous-espace vectoriel de F (R, R).
4. L’ensemble des polynômes de K[X] de degré inférieur ou égal à un entier naturel n
( )
n
Kn [X] = ∑ ak X k / a0 , . . . , an ∈ K
k=0

est un sous-espace vectoriel de K[X].

Proposition 1.2.3 Soient F et G deux sous-espaces vectoriels d’un K-espace vectoriel E.


Alors
1. F ∩ G est un sous-espace vectoriel de E,
2. F ∪ G n’est pas en général un sous-espace vectoriel de E.
3. Le complémentaire dans E, d’un sous-espace vectoriel F n’est pas un sous-espace
vectoriel de E.

exosup.com page facebook


8 Chapitre 1. Espaces vectoriels

Démonstration. 1. Facile.
2. Considérons les deux sous-espaces F1 et F2 de l’espace produit R2 définis par

F1 = R × {0} = {(x, 0)/ x ∈ R}


F2 = {0} × R = {(0, y)/ y ∈ R}.

L’ensemble F1 ∪ F2 n’est pas un sous-espace de R2 puisque (1, 0) ∈ F1 , (0, 1) ∈ F2 et


(1, 0) + (0, 1) = (1, 1) ∈
/ F1 ∪ F2 .
3. Il suffit de remarquer que 0E ∈ / CE (F).


Exercice 1.2.
Soient F = {(x, y, z) ∈ R3 , x − z = 0} et G = {(x, y, z) ∈ R3 , −x − y + z = 0}.
1. Montrer que F et G sont des sous-espaces vectoriels de R3 .
2. Déterminer F ∩ G.

Définition 1.2.2 Soit S = {u1 , . . . , u p } une famille de vecteurs d’un K-espace vectoriel E.
Une combinaison linéaire des éléments de S est tout élément u de E de la forme
p
u = λ1 u1 + λ2 u2 + . . . + λ p u p = ∑ λi ui , (λ1 , . . . , λ p ) ∈ K p .
i=1

Les scalaires λ1 , . . . , λ p de K sont appelés coefficients de la combinaison linéaire.

Exemples
1. Tout vecteur x = (x1 , x2 , x3 ) de K3 est combinaison linéaire de la famille F = (ei )1≤i≤3
où e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1), car

x = (x1 , x2 , x3 ) = (x1 , 0, 0) + (0, x2 , 0) + (0, 0, x3 )


= x1 (1, 0, 0) + x2 (0, 1, 0) + x3 (0, 0, 1) = x1 e1 + x2 e2 + x3 e3 .

Les coefficients de la combinaison linéaire sont x1 , x2 et x3 .


2. Dans R3 , le vecteur (2, 1, 0) est une combinaison linéaire des deux vecteurs (1, 0, 0) et
(0, 1, 0). En effet,
(2, 0, 1) = 2 (1, 0, 0) + (0, 0, 1).
3. Dans Rn [X], tout polynôme est une combinaison linéaire des éléments de la famille
(1, X, X 2 , . . . , X n ).

Définition 1.2.3 Soient E un K-espace vectoriel et S une partie finie de E. On appelle sous-
espace engendré par S, noté Vect(S), l’ensemble des combinaisons linéaires des éléments
de S. La famille S est dite génératrice du sous-espace Vect(S).

Théorème 1.2.4 Le sous-espace engendré par une famille S d’un K-espace vectoriel E est
un sous-espace vectoriel de E. C’est le plus petit sous-espace vectoriel de E (au sens de
l’inclusion) contenant S.

Démonstration. Il suffit d’utiliser le théorème 1.2.1 . 

exosup.com page facebook


A. EL A BDLLAOUI , A. H AJJI , M. EL K ADIRI ET M. Z IANI 9

R Si S = {u1 , . . . , u p }, alors
Vect(S) = λ1 u1 + . . . + λ p u p / (λ1 , . . . , λ p ) ∈ K p ,


ou encore
u ∈ Vect(S) ⇔ ∃(λ1 , . . . , λ p ) ∈ K p / u = λ1 u1 + . . . + λ p u p .

Exemples
1. Si u est un vecteur d’un K-espace vectoriel E alors
Vect({u}) = {αu/ α ∈ K} = Ku.
Donc Vect({0E }) = {0E } (cas où u = 0E ) et si u 6= 0E alors Vect({u}) est la droite
vectorielle engendrée par u.
2. Dans R3 , soit v1 = (1, 0, 0) et v2 = (0, 1, 1), alors
Vect(v1 , v2 ) = {αv1 + β v2 / α, β ∈ R}
= {(α, 0, 0) + (0, β , β )/ α, β ∈ R}
= {(α, β , β )/ α, β ∈ R}

Exercice 1.3.
Montrer que Vect({1, X, X 2 }) = R2 [X].

Proposition 1.2.5 Soient E un K-espace vectoriel et u1 , . . . , u p , u p+1 des vecteurs de E.


– Si u p+1 est combinaison linéaire des p autres vecteurs u1 , . . . , u p alors

Vect(u1 , . . . , u p , v p+1 ) = Vect(u1 , . . . , u p ).

– En particulier,
Vect(u1 , . . . , u p , 0E ) = Vect(u1 , . . . , u p ).

Exemple. Considérons dans R4 les trois vecteurs v1 = (1, 1, 0, −1), v2 = (1, 2, 1, 0) et v3 =


(3, 5, 2, −1). On a v3 = v1 + 2v2 . Le vecteur v3 est ainsi combinaison linéaire des deux vecteurs
v1 et v2 . Donc
Vect(v1 , v2 , v3 ) = Vect(v1 , v2 ).
De manière équivalente, on écrit
Vect(v1 , v2 , v3 ) = Vect(v1 , v2 , v3 − (v1 + 2v2 ))
= Vect(v1 , v2 , 0R4 )
= Vect(v1 , v2 ).

R Une méthode pour démontrer qu’une partie non vide F d’un espace vectoriel E est un
sous-espace vectoriel de E est de montrer que F est égal à l’ensemble des combinaisons
linéaires d’un nombre fini de vecteurs de E.

Exemple. Soit F = {(x, y, z) ∈ R3 / x − y − z = 0}. Un triplet u = (x, y, z) ∈ R3 est un élément


de F si, et seulement si, x − y − z = 0, c’est-à-dire si, et seulement si, x = y + z.
Donc u ∈ F si, et seulement si, u peut s’écrire u = (y + z, y, z). Or, on a l’égalité
(y + z, y, z) = y(1, 1, 0) + z(1, 0, 1).
Donc F est l’ensemble des combinaisons linéaires de la famille S = {(1, 1, 0), (1, 0, 1)}. Ainsi
F = Vect(S ) et F est un sous-espace vectoriel de R3 .

exosup.com page facebook


10 Chapitre 1. Espaces vectoriels

1.3 Dépendance et indépendance linéaires


Définition 1.3.1 Soit S = {u1 , u2 , . . . , u p } une famille finie de vecteurs d’un K-espace vecto-
riel E.
– La famille S est dite liée si l’on peut trouver des scalaires α1 , α2 , . . . , α p appartenant à
K, dont un au moins est non nul a tels que

α1 u1 + α2 u2 + . . . + α p u p = 0E . (1.1)

On dit également que les vecteurs u1 , u2 , . . . , u p sont linéairement dépendants.


– Si la famille n’est pas liée, on dit qu’elle est libre (ou que les vecteurs sont linéairement
indépendants).
a. On dit non tous nuls et on écrit (α1 , α2 , . . . , α p ) 6= (0, 0, . . . , 0)

En d’autres termes, on dit qu’une famille finie S = {u1 , u2 , . . . , u p } est libre si la seule possibilité
pour que la combinaison linéaire α1 u1 + α2 u2 + . . . + α p u p soit nulle, est que les coefficients
α1 , α2 , . . . , α p soient tous nuls. En pratique, pour montrer que la famille S = {u1 , u2 , . . . , u p } est
libre, on montre que la relation (1.1) entraîne nécessairement que

α1 = α2 = . . . = α p = 0.

R Soit E un K-espace vectoriel, alors la famille {0E } est liée.

Exemples
1. Dans C4 , les vecteurs v1 = (1, 0, 1, 1), v2 = (0, 2, 2i, 6) et v3 = (1, i, 0, 1 + 3i), où i2 = −1
sont liés puisque
i
v1 + v2 − v3 = 0C4 .
2
2. Dans R3 , les vecteurs v1 = (1, 1, −1), v2 = (0, 2, 1) et v3 = (0, 0, 5) sont linéairement
indépendants.
3. Soit f1 , f2 et f3 trois fonctions de R dans R définies comme suit

∀x ∈ R, f1 (x) = cos2 (x), f2 (x) = cos(2x), f3 (x) = 1.

La relation cos(2x) = 2 cos2 (x) − 1 implique que la famille { f1 , f2 , f3 } est une famille liée
dans le R-espace vectoriel F (R, R).

Proposition 1.3.1 Soit E un K-espace vectoriel.


– Soit v un vecteur de E. La famille {v} est libre si et seulement si v 6= 0E .
– Une famille contenue dans une famille libre est libre.
– Une famille qui contient une famille liée est liée. En particulier toute famille qui contient
0E est liée.

La proposition suivante donne une caractérisation d’une famille liée.

Proposition 1.3.2 Soit E un K-espace vectoriel et p ≥ 2 un entier. Une famille S = {u1 , u2 , . . . , u p }


de vecteurs de E est liée si et seulement si l’un de ses vecteurs, soit ui , est combinaison linéaire
des éléments de la famille {u1 , u2 , . . . , ui−1 , ui+1 , . . . , u p }.

exosup.com page facebook


A. EL A BDLLAOUI , A. H AJJI , M. EL K ADIRI ET M. Z IANI 11

Démonstration. – Supposons que la famille S est liée, il existe des scalaires α1 , . . . , α p non
tous nuls tels que
α1 u1 + . . . + α p u p = 0E .
Soit i tel que αi 6= 0. Alors
α1 αi−1 αi+1 αp
ui = − u1 − . . . − ui−1 − ui+1 − . . . − u p .
αi αi αi αi
Le vecteur ui est donc une combinaison linéaire des éléments de la famille

{u1 , u2 , . . . , ui−1 , ui+1 , . . . , u p }.

– Supposons qu’un vecteur ui s’écrit

ui = α1 u1 + . . . + αi−1 ui−1 + αi+1 ui+1 + . . . + α p u p .

Alors
α1 u1 + . . . + αi−1 ui−1 − ui + αi+1 ui+1 + . . . + α p u p = 0E .
Ceci implique que la famille S est liée.


Exemples
1. Dans R3 , soit les vecteurs v1 = (1, 0, −1), v2 = (1, 1, 1) et v3 = (5, 3, 1). On a v3 = 2v1 +
3v2 , et donc la famille {v1 , v2 , v3 } est liée.
2. Considérons les polynômes P1 = X + 1, P2 = −1 + 2X + 3X 2 et P3 = X + X 2 . On a
P1 + P2 − 3P3 = 0, ce qui implique que la famille {P1 , P2 , P3 } est liée.

Proposition 1.3.3 Soit V = {v1 , v2 , . . . , v p } une famille libre d’un K-espace vectoriel E. Si x
est un vecteur quelconque de Vect(V ), alors la décomposition de x sur les vi , i = 1, . . . , p est
unique.

Démonstration. Si x = α1 v1 + . . . + α p v p = λ1 v1 + . . . + λ p v p , alors

(α1 − λ1 )v1 + . . . + (α p − λ p )v p = 0.

Ceci implique que αi = λi car la famille V est libre. 

1.4 Bases et dimension d’un espace vectoriel


Définition 1.4.1 Soit E un K-espace vectoriel. On dit que E est de dimension finie s’il existe
une famille finie V = {v1 , . . . , vn } de vecteurs de E telle que E = Vect(V ).

Exemples
1. Pour tout entier n ∈ N∗ , le K-espace vectoriel Kn est de dimension finie. Il est engendré
par la famille (e1 , e2 , . . . , en ) où ei = (0, . . . , 0, 1, 0, . . . , 0) ( 1 est dans la ième position).
2. L’espace vectoriel K[X] n’est pas de dimension finie.

Définition 1.4.2 Soit E un K-espace vectoriel de dimension finie. On appelle base de E toute
famille de vecteurs de E qui est libre et génératrice.

exosup.com page facebook


12 Chapitre 1. Espaces vectoriels

Proposition 1.4.1 Soit E un K-espace vectoriel de dimension finie. La famille V = {v1 , . . . , vn }


est une base de E si, et seulement si,

∀x ∈ E, ∃!(α1 , . . . , αn ) ∈ Kn : x = α1 v1 + . . . + αn vn .

Théorème 1.4.2 Soit E un K-espace vectoriel de dimension finie. Alors toutes les bases de
E ont le même cardinal.

Définition 1.4.3 Soit E un K-espace vectoriel de dimension finie. Le cardinal d’une base
de E s’appelle la dimension de E. La dimension d’un sous-espace vectoriel de E est sa
dimension en tant que K-espace vectoriel.

R Par convention la dimension du sous-espace vectoriel {0E } est égale à 0.

Exemples
1. Soit E = K2 , e1 = (1, 0) et e2 = (0, 1). La famille B = {e1 , e2 } est génératrice de E
puisque tout vecteur v = (x1 , x2 ) ∈ E s’écrit v = x1 e1 + x2 e2 . De plus on vérifie aisément
que B est libre. C’est donc une base de E.
2. Tout polynôme P de Kn [X] s’écrit sous la forme

P = a0 + a1 X + . . . + an X n .

La famille B = (X i )0≤i≤n = (1, X, X 2 , . . . , X n ) est alors génératrice. De plus, cette dé-


composition est unique, et par conséquent la famille finie B est une base de Kn [X] et
dimKn [X] = n + 1. On l’appelle base canonique de Kn [X]. Les éléments a0 , a1 , . . . , an de
K sont les coordonnées de P par rapport à cette base.
3. Tout vecteur x = (x1 , . . . , xn ) du K-espace vectoriel Kn s’écrit

x = x1 e1 + . . . + xn en ,

avec
e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1).
La famille B = (e1 , . . . , en ) est ainsi génératrice de Kn . De plus, cette famille est libre. Par
conséquent la famille B est une base de Kn et dimKn = n. On l’appelle base canonique
de Kn . Par conséquent x1 , . . . , xn sont les coordonnées du vecteur x de Kn dans cette base.
4. Soit F = {(x, y, z) ∈ R3 / 2x + y + 3z = 0}. On a F est un sous-espace vectoriel de R3 , et

u = (x, y, z) ∈ F ⇔ y = −2x − 3z.

Donc u ∈ F si, et seulement si, u = (x, −2x − 3z, z) = x(1, −2, 0) + z(0, −3, 1). Ceci
implique que les deux vecteurs v1 = (1, −2, 0) et v2 = (0, −3, 1) engendrent F. On vérifie
qu’ils forment une famille libre, donc c’est une base de F.

Exercice 1.4.
Dans R3 muni de sa structure de R-espace vectoriel, on considère les quatre vecteurs v1 = (1, 1, 2),
v2 = (1, −1, 0), v3 = (0, 0, −1) et x = (1, 1, 1).
1. Quelles sont les coordonnées de x dans la base canonique de R3 ?
2. Montrer que les vecteurs v1 , v2 et v3 forment une base de R3 .

exosup.com page facebook


A. EL A BDLLAOUI , A. H AJJI , M. EL K ADIRI ET M. Z IANI 13

3. Déterminer les coordonnées du vecteur x dans cette nouvelle base.

Théorème 1.4.3 Un K-espace vectoriel E 6= {0E } de dimension finie possède au moins une
base finie.
Une autre version du théorème précédent est le suivant

Théorème 1.4.4 Soit E 6= {0E } un K-espace vectoriel de dimension finie. Alors


1. De toute famille génératrice de E on peut extraire une base pour E.
2. (Théorème de la base incomplète) Toute famille libre de E peut être complétée pour
former une base de E.
La proposition suivante donne le lien entre le cardinal d’une famille génératrice ou libre et
celle d’une base.
Proposition 1.4.5 Soit E un K-espace vectoriel de dimension finie n.
1. Toute famille G génératrice de E vérifie card(G ) ≥ n. En particulier, toute famille
génératrice constituée de n vecteurs est une base de E.
2. Toute famille L libre de E vérifie card(L ) ≤ n. En particulier, toute famille libre
constituée de n vecteurs est une base de E.

Proposition 1.4.6 Soit E un K-espace vectoriel de dimension n et F un sous-espace vectoriel


de E. Alors F est de dimension finie et dim(F) ≤ dim(E). En particulier, si dim(F) = dim(E)
alors E = F.

Démonstration. Soit B une base de F. La famille B est libre dans E. Par le théorème de la base
incomplète, elle est contenue dans une base de E. Donc dim(F) ≤ dim(E).
Supposons que dim(F) = dim(E) et soit B une base de F. La famille B est libre de E qui
contient n éléments. Elle est donc une base de E. D’où E = F. 

Exercice 1.5.
On considère dans R3 [X] les polynômes P1 = 1 + X 3 , P2 = 1 − X 2 et P3 = 1.
1. La famille {P1 , P2 , P3 } est-elle libre ?
2. Déterminer un polynôme P4 tel que la famille {P1 , P2 , P3 , P4 } soit une base de R3 [X].

1.5 Somme de sous-espaces vectoriels


Définition 1.5.1 Soient E un K-espace vectoriel et F, G deux sous-espaces vectoriels de E.
1. La somme de F et G est le sous-espace de E, noté F + G, défini par

F + G = {w = u + v/ u ∈ F, v ∈ G}.

2. En particulier, la somme de F et G est dite directe si

∀w ∈ F + G, ∃! u ∈ F, ∃! v ∈ G, w = u + v.

Les vecteurs u et v sont alors appelés les composantes du vecteur w respectivement


dans F et dans G, et le sous-espace F + G se note F ⊕ G.

exosup.com page facebook


14 Chapitre 1. Espaces vectoriels

3. On dit que F et G sont supplémentaires dans E si

E = F ⊕ G.

Théorème 1.5.1 Soient E un K-espace vectoriel et F, G deux sous espaces vectoriels de E.


Une condition nécessaire et suffisante pour que la somme de F et G soit directe est que leur
intersection soit réduite au vecteur nul, c’est-à-dire

F ∩ G = {0E }.

R
1. On peut montrer, en utilisant le théorème de la base incomplète, que tout sous-espace
vectoriel d’un K-espace possède au moins un supplémentaire dans E.

Théorème 1.5.2 Soit E un K-espace vectoriel. Si F et G sont deux sous espaces vectoriels
de E alors F + G et F ⊕ G sont des sous-espaces vectoriels de E.

Démonstration. Facile. 

Théorème 1.5.3 — Grassmann. Soit E un K-espace vectoriel et F, G des sous-espaces


vectoriels de E. Alors

dim(F + G) = dim(F) + dim(G) − dim(F ∩ G).

Les propositions suivantes présentent les conditions que deux sous-espaces vectoriels doivent
remplir pour qu’ils soient supplémentaires.

Proposition 1.5.4 Soient E un K-espace vectoriel et F, G deux sous-espaces de E. Alors

(E = F ⊕ G) ⇔ (E = F + G et F ∩ G = {0E }) .

Proposition 1.5.5 Soit E un K-espace vectoriel et F, G des sous-espaces vectoriels de E.


Alors E = F ⊕ G si, et seulement si, pour toute base B1 de F et pour toute base B2 de G,
B1 ∪ B2 est une base de E.

Théorème 1.5.6 Soit E un K-espace vectoriel et F, G des sous-espaces vectoriels de E. Alors

(E = F ⊕ G) ⇔ (F ∩ G = {0E } et dim(F) + dim(G) = dim(E)) .

Exemples
1. Soit E = R3 , F = Vect(1, 1, 1) et G = Vect{(1, 0, −1), (0, 1, −1)}. Alors E = F ⊕ G. En
effet, F ∩ G = {0E } et dimF + dimG = 1 + 2 = 3.
2. Soit E = R3 [X], F = R et G = {XP/ P ∈ R2 [X]}. Alors E = F ⊕ G.

1.6 Rang d’un système de vecteurs


Définition 1.6.1 Le rang d’un ensemble fini de vecteurs S = {u1 , u2 , . . . , u p } d’un K-espace
vectoriel est égal au plus grand nombre de vecteurs linéairement indépendants que l’on peut
extraire de S (donc il est égal à la dimension du sous-espace vectoriel engendré par S). On le

exosup.com page facebook


A. EL A BDLLAOUI , A. H AJJI , M. EL K ADIRI ET M. Z IANI 15

note rg(S).

Proposition 1.6.1 Soit {u1 , . . . , u p } une famille de vecteurs d’un K-espace vectoriel E.
1. rg({u1 , . . . , u p }) ≤ p
2. rg({u1 , . . . , u p }) = p ⇔ {u1 , . . . , u p } libre.

Exemple
Considérons dans R4 les vecteurs u = (1, −1, 1, 0), v = (1, 1, , 0, 1) et w = (2, 0, 1, 1). On a alors
rg({u, v, w}) ≤ 3. Or w = u + v, donc w ∈ Vect({u, v}) et rg({u, v, w}) = rg({u, v}) = 2 car la
famille {u, v} est libre.

exosup.com page facebook


exosup.com page facebook
Définitions et propriétés
Noyau et image d’une application linéaire

2. Applications linéaires

2.1 Définitions et propriétés

Définition 2.1.1 Soit E et F deux K-espaces vectoriels.


1. Une application f de E dans F est dite linéaire si, et seulement si,
i. ∀(u, v) ∈ E 2 , f (u + v) = f (u) + f (v),
ii. ∀α ∈ K, ∀u ∈ E, f (α u) = α f (u).
Les deux relations i) et ii) peuvent s’écrire sous la forme unique suivante

∀(α, β ) ∈ K2 , ∀(u, v) ∈ E 2 , f (αu + β v) = α f (u) + β f (v).

On dit aussi que f est un morphisme d’espaces vectoriels.


2. Un endomorphisme de E est une application linéaire de E dans E.
3. Un isomorphisme de E sur F est un morphisme d’espaces vectoriels bijectif.
4. Un automorphisme de E est un endomorphisme bijectif de E.

Notations
1. L’ensemble des applications linéaires de E dans F est noté L (E, F). L’ensemble des
endomorphismes de E est simplement noté L (E).
2. L’ensemble des isomorphismes de E sur F est noté Isom(E, F).
3. L’ensemble des automorphismes de E est noté GL(E).
Exemples
1. L’application f définie par

f: R3 → R2
(x, y, z) 7→ (x + 2y, x − z),

est linéaire.
2. L’application f définie par
f : K[X] → K[X]
P 7→ P0 ,

où P0 est la dérivée de P, est un endomorphisme.

exosup.com page facebook


18 Chapitre 2. Applications linéaires

3. L’application f définie par


f: R3 → R3
(x, y, z) 7→ (x + y + z, x − y + z, x + y − z),
est un isomorphisme.
4. L’application idE définie par
idE : E → E
u 7→ u,
est un automorphisme.

Propriétés
Soit E et F deux K-espaces vectoriels.
1. Si f ∈ L (E, F) alors f (0E ) = 0F ,
2. Si f ∈ L (E, F) alors ∀u ∈ E, f (−u) = − f (u).
3. Soient f , g ∈ L (E, F) et λ ∈ K. Les applications f + g et λ f définies par

∀x ∈ E, ( f + g)(x) = f (x) + g(x) et (λ f )(x) = λ f (x),

sont des éléments de L (E, F). Muni de ces deux lois, L (E, F) est un K-espace vectoriel.

Proposition 2.1.1 Soit E et F deux K-espaces vectoriels de dimension respectives n et m.


Soient B = {e1 , . . . , en } une base de E, et f ∈ L (E, F). Alors f est entièrement déterminée
par les images f (ei ), i = 1, . . . , n.

Démonstration. Tout vecteur x de E se décompose d’une manière unique dans la base B sous
la forme
x = x1 e1 + x2 e2 + . . . + xn en ,
où x1 , . . . , xn appartenant à K sont les coordonnées de x dans la base B. Puisque f est linéaire,
alors
f (x) = f (x1 e1 + x2 e2 + . . . + xn en )
= x1 f (e1 ) + x2 f (e2 ) + . . . + xn f (en ).

Exemple. Soient B = {e1 , e2 , e3 } la base canonique de R3 et l’application f : R3 7→ R3 définie


par
f (e1 ) = e1 + e2
f (e2 ) = e1 − e2
f (e3 ) = e1 + e3 .
On montre facilement que f est l’application linéaire de R3 dans R3 définie par

∀x = (x1 , x2 , x3 ) ∈ R3 , f (x) = (x1 + x2 + x3 , x1 − x2 , x3 ).

2.2 Noyau et image d’une application linéaire


Définition 2.2.1 Soit E et F deux K-espaces vectoriels et soit f ∈ L (E, F).
– On appelle noyau de f et on note Ker f l’ensemble des éléments de E dont l’image est
0F
Ker f = {u ∈ E/ f (u) = 0F }.
– On appelle image de f et on note Im f l’ensemble des éléments de F qui sont l’image

exosup.com page facebook


A. EL A BDLLAOUI , A. H AJJI , M. EL K ADIRI ET M. Z IANI 19
d’au moins un élément de E

Im f = {v ∈ F/ ∃u ∈ E, f (u) = v} = f (E).

Proposition 2.2.1 Soit E et F deux K-espaces vectoriels de dimension finie et soit f ∈


L (E, F). Si E = Vect{e1 , . . . , en } alors Im f = Vect{ f (e1 ), . . . , f (en )}.

Démonstration. Soit v ∈ Im f . Alors il existe u ∈ E tel que f (u) = v. Puisque E = Vect{e1 , . . . , en }


alors il existe des scalaires α1 , . . . , αn appartenant à K tels que u = α1 u1 + . . . + αn un . Ceci im-
plique
v = f (u) = α1 f (u1 ) + . . . + αn f (un ),
car f est linéaire. Par conséquent Im f = Vect{ f (e1 ), . . . , f (en )}.

Exemples
1. Soit f : R3 → R2 l’application linéaire définie par f (x, y, z) = (x + 2y, x − z).

Ker f = (x, y, z) ∈ R3 / (x + 2y, x − z) = (0, 0) = 0R2




= (x, y, z) ∈ R3 / x = −2y et x = z
= {(−2y, y, −2y)/ y ∈ R}
= Vect{(−2, 1, −2)},

et dim(Ker f ) = 1.

Im f = f (R3 ) (par définition)


= f (Vect{e1 , e2 , e2 }) , ({e1 , e2 , e3 } étant la base canonique de R3 )
= Vect { f (e1 ), f (e2 ), f (e3 )} , (car f est linéaire)
= Vect {(1, 1), (2, 0), (0, −1)} ,

et dim(Im f ) = 2.
2. Soit f : R2 [X] 7→ R3 l’application linéaire définie par f (P) = (P(0), P(1), P(2)).

Ker f = P = a0 + a1 X + a2 X 2 ∈ R2 [X], (a0 , a1 , a2 ) ∈ R3 / (P(0), P(1), P(2)) = 0R3




= {0R2 [X] },

et dim(Ker f ) = 0.

Im f = f (R2 [X])
= f (Vect{1, X, X 2 })
= Vect{ f (1), f (X), f (X 2 )}
= Vect{(1, 1, 1), (0, 1, 2), (0, 1, 4)},

et dim(Im f ) = 3.

Proposition 2.2.2 Soit E et F deux K-espaces vectoriels et soit f ∈ L (E, F). Alors
1. Ker f est un sous-espace vectoriel de E,
2. Im f est un sous-espace vectoriel de F.

Démonstration. Facile

exosup.com page facebook


20 Chapitre 2. Applications linéaires

Théorème 2.2.3 Soit E et F deux K-espaces vectoriels et soit f ∈ L (E, F). Alors
1. f est injective ⇔ Ker f = {0E }.
2. f est surjective ⇔ Im f = F.

Démonstration.
1. Rappelons que f est injective si, et seulement si, ∀u, v ∈ E on a

f (u) = f (v) ⇒ u = v.

– Supposons que f est injective. Considérons un vecteur u de Ker f , alors f (u) = 0F .


Puisque f (0E ) = 0F , on aura f (u) = f (0E ). Or f est injective, donc u = 0E et par
conséquent Ker f = {0E }.
– Supposons que Ker f = {0E } et soit u, v ∈ E tels que f (u) = f (v). Comme f est linéaire,
on a
f (u − v) = f (u) − f (v) = 0F .
Ceci implique que u − v = 0E et u = v. D’où f est injective.
2. f est surjective si, et seulement si, pour tout v ∈ F il existe u ∈ E tel que f (u) = v. D’où f
est surjective si, et seulement si, Im f = F.

Exemple. Soit f l’application linéaire qui à tout polynôme P de R2 [X] lui associe le vecteur
f (P) = (P(−1), P(0), P(1)) de R3 .
– Soit P = aX 2 + bX + c ∈ Ker f , où a, b, c ∈ R. Alors f (P) = (a −b + c, c, a + b + c) = 0R3 .
Ceci implique que a = b = c = 0, et P = 0R2 [X] . Ainsi, Ker f = 0R2 [X] . Par conséquent,
f est injective.
– Puisque R2 [X] = Vect(1, X, X 2 ) et f est une application linéaire, alors

Im f = Vect( f (1), f (X), f (X 2 ))


= Vect(v1 , v2 , v3 ),

où v1 = (1, 1, 1), v2 = (−1, 0, 1) et v3 = (1, 0, 1). On vérifie facilement que la famille


{v1 , v2 , v3 } est une base de R3 , et donc dim(Im f ) = 3 = dim(R3 ). Puisque Im f est un
sous-espace vectoriel de R3 alors Im f = R3 . Par conséquent, f est surjective.

Exercice 2.1.
Soit f l’application linéaire qui à tout polynôme P de R2 [X] lui associe

f (P) = 2(X + 1)P − (X 2 − 2X + 1)P0 .

Déterminer Im f , Ker f et la dimension de chacun de ces deux espaces.

Proposition 2.2.4 Soit E, F deux K-espaces vectoriels, {v1 , v2 , . . . , vn } une famille libre dans
E et f ∈ L (E, F). Si f est injective alors { f (v1 ), f (v2 ), . . . , f (vn )} est une famille libre de
F.
Démonstration. Soit α1 , α2 , . . . , αn des scalaires appartenant à K tels que

α1 f (v1 ) + α2 f (v2 ) + . . . + αn f (vn ) = 0F .

exosup.com page facebook


A. EL A BDLLAOUI , A. H AJJI , M. EL K ADIRI ET M. Z IANI 21

Puisque 0F = f (0E ) et f est linéaire, alors

f (α1 v1 + α2 v2 + . . . + αn vn ) = f (0E ).

Or f est injective, ainsi


α1 v1 + α2 v2 + . . . + αn vn = 0E .
Ceci implique
α1 = α2 = . . . = αn = 0K ,
car la famille {v1 , v2 , . . . , vn } est libre. Par conséquent, la famille { f (v1 ), f (v2 ), . . . , f (vn )} est
libre.

Exemple. Reprenons l’application linéaire f définie dans l’exemple précédent. La famille


{1, X − 1, X 2 + 1} est libre. Puisque f est injective alors la famille { f (1), f (X − 1), f (X 2 + 1)}
est libre dans R3 .
Définition 2.2.2 Soit E et F deux K-espaces vectoriels de dimension finie et soit f ∈
L (E, F). On appelle rang de f et on note rg f la dimension du sous-espace vectoriel Im f

rg f = dim(Im f ).

Théorème 2.2.5 — du rang. Soit E et F deux K-espaces vectoriels de dimensions finies.


Pour toute application f ∈ L (E, F), on a

dimE = rg f + dim(Ker f ).

Exemple. Soit f l’endomorphisme de R3 défini par

f (x, y, z) = (x − y, z, 0).

Soit B = {e1 , e2 , e3 } la base canonique de R3 . On a Ker f = Vect{(1, 1, 0)}, donc rg f = 2. De


plus f (e1 ) = e1 , f (e2 ) = −e1 et f (e3 ) = e2 . Ceci implique que e1 ∈ Im f et e2 ∈ Im f . Comme
{e1 , e2 } est libre, on aura Im f = Vect{e1 , e2 }.

Proposition 2.2.6 Soit E, F deux K-espaces vectoriels de dimensions finies et f ∈ L (E, F).
On a alors les équivalences suivantes
1. f est surjective ⇔ rg f = dimF,
2. f est injective ⇔ rg f = dimE,
3. f est bijective ⇔ rg f = dimE = dimF.

Corollaire 2.2.7 Soit E, F deux K-espaces vectoriels de dimensions finies et f ∈ L (E, F). Si
dimE = dimF alors

f est bijective ⇔ f est injective ⇔ f est surjective.

Définition 2.2.3 Soit E, F et G trois K-espaces vectoriels. Soit f ∈ L (E, F) et g ∈ L (F, G).
On appelle composée de ces deux applications g et f l’application linéaire notée go f de E
dans G et qui est définie par

∀u ∈ E, (go f )(u) = g( f (u)).

exosup.com page facebook


22 Chapitre 2. Applications linéaires

Exemple. Soit les deux applications linéaires

f: R3 → R2
(x, y, z) 7→ (x − 3y, y + 2z),

et
g: R2 → R3
(x, y) 7→ (3y, x, 0).
Alors l’application composée go f est donnée par

go f : R3 → R3
(x, y, z) 7→ (3y + 6z, x − 3y, 0).

Exercice 2.2.
Soient E un K-espace vectoriel tel que dimE = 3 muni d’une base B = {u, v, w} et p un
endomorphisme de E défini par
1 1
p(u) = u + v + w, p(v) = − (u + v + w), p(w) = (u + v + w).
2 2
Montrer que p est un projecteur de E (c.-à.d. pop = p), puis caractériser Imp et Kerp.

exosup.com page facebook


Définitions
Opérations sur les matrices
Addition
Produit
Opérations élémentaires sur une matrice
Application pour déterminer l’inverse
d’une matrice carrée inversible
Puissances d’une matrice
Matrice d’une application linéaire
Matrice de la composée
Changement de bases
Matrice de passage
Effet d’un changement de base pour
une application linéaire
Rang d’une matrice

3. Calcul matriciel

Dans tout ce qui suit, K désigne R ou C, m et n sont deux entiers naturels non nuls.

3.1 Définitions
Définition 3.1.1 Un tableau rectangulaire de nombres (∈ K), de la forme
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
A= ,
 
.. .. ..
 . . . 
am1 am2 . . . amn

est appelé matrice d’ordre (m, n) ou de type (m, n) (m lignes et n colonnes).


– Le nombre ai j , 1 ≤ i ≤ m, 1 ≤ j ≤ n s’appelle coefficient de la matrice A.
– Dans la notation ai j , 1 ≤ i ≤ m, 1 ≤ j ≤ n, i désigne le numéro de la ligne, et j celui
de la colonne.

Définition 3.1.2 Deux matrices A = (ai j ) et B = (bi j ) de même ordre (m, n) sont égales si et
seulement si ai j = bi j , pour tout (i, j) ∈ {1, . . . , m} × {1, . . . , n}.

Exemples  
3 5 −1
1. A = est une matrice d’ordre (2, 3).
0 1 4
 
0 1
2. B =  2 −1  est une matrice d’ordre (3, 2).
5 3
Notations. L’ensemble des matrices d’ordre (m, n) à coefficients dans K est noté Mm,n (K).
Lorsque m = n on note cet ensemble par Mn (K).

Quelques types de matrices

exosup.com page facebook


24 Chapitre 3. Calcul matriciel

– Matrice uniligne : C’est une matrice d’ordre (1, n) (matrice qui admet une seule ligne).
– Matrice unicolonne : C’est une matrice d’ordre (m, 1) ( matrice qui admet une seule
colonne).
– Matrice carrée : C’est une matrice dont le nombre de lignes est égal au nombre de
colonnes (m = n). Elle est dite matrice carrée d’ordre n ou tout simplement matrice
d’ordre n.  
a11 a12 . . . a1n
 a21 a22 . . . a2n 
 
A= 
.

 
an1 an2 . . . ann
Les éléments aii , sont appelés éléments diagonaux de A.
Les éléments ai j pour i 6= j, sont appelés éléments hors-diagonaux de A.
L’ensemble des éléments diagonaux constitue la diagonale principale de A
– Matrice identité. On appelle matrice identité d’ordre n ∈ N∗ , la matrice carrée notée
In telle que In = (δi j )1≤i, j≤n , où δi j est le symbole de Kronecker δi j = 0 si i 6= j et
δii = 1, ∀i, j ∈ {1, .., n}.  
1 0 0
Par exemple la matrice identité d’ordre 3 s’écrit I3 =  0 1 0 .
0 0 1
– Matrice diagonale. C’est une matrice carrée telle que ai j = 0, ∀i 6= j.
 
a11 0 0 . . . 0
 0 a22 0 . . . 0 
 
A= 


 
0 0 . . . . ann
On la note A = diag(aii ) = diag(a11 , a22 , . . . , ann ).
– Matrice triangulaire supérieure. C’est une matrice carrée vérifiant : ai j = 0, pour i > j.
 
a11 a12 a13 . . . a1n
 0 a22 a23 . . . a2n 
 
 . . 
 .
 . . 
 
 . . 
0 . . . . . ann
– Matrice triangulaire inférieure. C’est une matrice carrée vérifiant : ai j = 0, pour i < j.
 
a11 0 . . . . 0
 a21 a22 0
 .. . 0  
 . . 
 .
 . . 
 
 . . 
an1 an2 an3 . . . ann
– Matrice nulle. C’est la matrice vérifiant : ai j = 0, ∀i, j ∈ [|1, m|] × [|1, n|]. On la note
0Mm,n (K) , ou simplement 0 (si aucune confusion n’est à craindre).
– Transposée d’une matrice. Étant donné une matrice A ∈ Mm,n (R). La transposée de la
matrice A est la matrice notée t A de type (n, m), obtenue en échangeant (dans l’ordre) les
lignes de A pour devenir les colonnes de t A.

exosup.com page facebook


A. EL A BDLLAOUI , A. H AJJI , M. EL K ADIRI ET M. Z IANI 25

Exemple  
  3 1
3 1 0
A= ,tA =  1 1 .
1 1 6
0 6

Définition 3.1.3 Si A = (ai j )1≤i≤m,1≤ j≤n et t A = (bi j )1≤i≤n,1≤ j≤m , alors on a bi j = a ji , ∀i, j.
– Une matrice carrée A est dite symétrique ⇔t A = A (i.e. ai j = a ji , ∀i, j).
– Une matrice carrée A est dite antisymétrique ⇔t A = −A (i.e. ai j = −a ji , ∀i, j).

3.2 Opérations sur les matrices


3.2.1 Addition
La somme de deux matrices A et B de même type (m, n) est la matrice C de même type (m, n)
 tout (i,j) ∈ [|1, m|] × [|1,
= ai j + bi j , pour
ayant pour éléments ci j   n|].  
2 1 3 1 −1 0 3 0 3
Exemple. Soient A = et B = . Alors C = .
−1 0 1 0 1 −1 −1 1 0
Propriétés. L’addition des matrices satisfait les propriétés suivantes :
1. A + B = B + A,
2. (A + B) +C = A + (B +C) = A + B +C,
3. A + 0 = 0 + A = A, où 0 est la matrice nulle
4. A + (−A) = (−A) + A = 0, où −A = (−ai j ).

3.2.2 Produit
– Soit A = (ai j ) une matrice de type (m, n) et soit λ ∈ K. On définit la matrice λ A de type
(m, n) par :
 
λ a11 λ a12 . . . λ a1n
 . . 
 
 . . 
λ A = (λ ai j ) = 
 
 . . 

 . . 
λ am1 λ am2 . . . λ amn
   
2 1 3 4 2 6
Exemple. Soient A = et λ = 2. Alors λ A = .
−1 0 1 −2 0 2
Propriétés.
– λ (A + B) = λ A + λ B,
– (λ + µ)A = λ A + µA,
– λ (µA) = (λ µ)A.

R Mm,n (K, +, .) est un K -espace vectoriel.

– Soit A = (ai j ) une matrice (m, n) et B = (bkl ) une matrice (r, p). Le produit AB (dans cet
ordre) n’est défini que si n = r et AB = C = (cil ) de type (m, p) dont les éléments sont
donnés par : cil = ∑nj=1 ai j b jl , pour tout (i, l) ∈ [|1, m|] × [|1, p|].
Exemple.  
  1 2 0
1 −1 0
A= , B =  −1 1 1 .
0 1 −1
0 1 0

exosup.com page facebook


26 Chapitre 3. Calcul matriciel

A est une matrice (2, 3) et B est une matrice (3, 3). D’où, le produit AB est possible et
 
1 × 1 + (−1) × (−1) + 0 × 0 1 × 2 + (−1) × 1 + 0 × 1 1 × 0 + (−1) × 1 + 0 × 0
AB =
0 × 1 + 1 × (−1) + (−1) × 0 0 × 2 + 1 × 1 + (−1) × 1 0 × 0 + 1 × 1 + (−1) × 0
 
2 1 −1
AB = .
−1 0 1
AB est une matrice du type (2, 3).

R Le produit BA n’est pas possible car le nombre de colonnes de B est différent du


nombre de lignes de A.

Propriétés. Le produit matriciel vérifie les propriétés suivantes :


– λ (AB) = (λ A)B,
– A(BC) = (AB)C,
– (A + B)C = AC + BC,
– C(A + B) = CA +CB.

R
– Le produit de matrices n’est pas commutatif
– AB = 0 n’implique pas que A = 0 ou B = 0.

Exemple.
       
1 0 0 1 0 1 0 0
– A= ,B= , alors AB = et BA = . Donc,
0 1 1 0 0 0 1 0
AB 6=BA.     
1 1 −1 1 0 0
– A= ,B= , alors AB = et pourtant A 6= 0 et B 6= 0.
2 2 1 −1 0 0

3.2.3 Opérations élémentaires sur une matrice


Soit A une matrice quelconque. On appelle opération élémentaire sur la matrice A l’une des
transformations suivantes
1. Ajouter à une ligne (resp. à une colonne) de A une autre ligne (resp. colonne) multipliée
par un scalaire : L j ←− L j + λ Li ou C j ←− C j + µCi , i 6= j.
2. Multiplier une ligne (resp. une colonne) de A par un scalaire non nul : L j ←− λ L j ou
C j ←− µC j , où λ , µ ∈ K∗ .
3. Permuter les lignes (resp. les colonnes) de A : Li ←→ L j ou Ci ←→ C j .

Exercice 3.1.
Soit I la matrice identité d’ordre 3
 
1 0 0
I= 0 1 0 
0 0 1

1. Permuter les lignes L2 et L3 .


2. Remplacer les ligne L2 par −6L2 .
3. Remplacer la ligne L3 par −4L1 + L3 .

Réponse.

exosup.com page facebook


A. EL A BDLLAOUI , A. H AJJI , M. EL K ADIRI ET M. Z IANI 27
 
1 0 0
1.  0 0 1 .
0 1 0
 
1 0 0
2.  0 −6 0 .
0 0 1
 
1 0 0
3.  0 1 0 .
−4 0 1

Définition 3.2.1 Une matrice A d’ordre n, est dite inversible (ou régulière) s’il existe une
matrice B telle que AB = BA = In , où In est la matrice identité d’ordre n.
B est dite matrice inverse de A, et on la note A−1 .
Si la matrice inverse existe, elle est unique. Dans le cas contraire, on dit que A est non
inversible ou que A est une matrice singulière.

3.2.4 Application pour déterminer l’inverse d’une matrice carrée inversible


Exercice 3.2.  
1 0 2
Trouver l’inverse de la matrice A =  2 −1 3 .
4 1 8

Réponse.
Pour déterminer l’inverse A−1 d’une matrice inversible, on place la matrice unité du même ordre,
à droite de A, puis on applique les mêmes opérations élémentaires sur A et I jusqu’à ce qu’on
obtienne la matrice I à gauche de A.
 
1 0 2 | 1 0 0
(A|I) =  2 −1 3 | 0 1 0 
4 1 8 | 0 0 1

L2 ←− L2 − 2L1 , L3 ←− L3 − 4L1
 
1 0 2 | 1 0 0
=  0 −1 −1 | −2 1 0 
0 1 0 | −4 0 1

L2 ←→ L3  
1 0 2 | 1 0 0
 0 1 0 | −4 0 1 
0 −1 −1 | −2 1 0
L3 ←− L3 + L2  
1 0 2 | 1 0 0
=  0 1 0 | −4 0 1 
0 0 −1 | −6 1 1
L1 ←− L1 + 2L3 , L3 ←− −L3
 
1 0 0 | −11 2 2
(I|A−1 ) =  0 1 0 | −4 0 1 
0 0 1 | 6 −1 −1

exosup.com page facebook


28 Chapitre 3. Calcul matriciel

Donc,  
−11 2 2
A−1 =  −4 0 1 
6 −1 −1
Pour calculer l’inverse de A, on peut aussi utiliser la méthode suivante dite, méthode des
coefficients indétermiés.
 On cherche
 une
 matrice B = (bi j ) telle que AB = In .
1 1 a b
Exemple. Soient A = ,B = telle que AB = I2 .
1 0 c d
    
1 1 a b 1 0
= .
1 0 c d 0 1
 
0 1
On trouve que A−1 =
1 −1

Proposition 3.2.1 Soient A et B deux matrices inversibles de même ordre, alors


– AB est une matrice inversible et on : (AB)−1 = B−1 A−1 .
– t A est une matrice inversible et on a : (t A)−1 =t A−1 .

3.2.5 Puissances d’une matrice


Puissances positives d’une matrice
Définition 3.2.2 Soit A une matrice d’ordre n. On définit les puissances p−ièmes (p ∈ N) de
A, par
A0 = In (A 6= 0), A p = A.A . . . A, ∀p ∈ N∗ .
Le produit est effectué p fois.
Ainsi : A2 = A.A, A3 = A.A.A, . . . etc

Propriétés. Soit A une matrice carrée, m et n deux entiers naturels non nuls, on a
1. An .Am = An+m .
2. (An )m = Anm .

Formule des binômes de Newton


Soient A et B, deux matrices carrées de même ordre telles que AB = BA, alors :
n
(A + B)n = ∑ Cnk Ak Bn−k .
k=0

– Matrice nilpotente.
p
Une matrice  n est dite nilpotente s’il existe un entier p tel que A = 0.
 A d’ordre
0 0
La matrice A = est une matrice nilpotente (A2 = 0).
1 0

Puissances négatives d’une matrice.


Soit A une matrice inversible. On définit les puissances négatives de A de la manière suivante :

A−p = (A−1 ) p , ∀p ∈ N.

3.3 Matrice d’une application linéaire


Soit E, F deux K-espaces vectoriels de dimensions finies et f ∈ L (E, F). On suppose que
dimE = n et dimF = p. Soit B = {e1 , e2 , . . . , en } une base de E et soit C = {ε1 , ε2 , . . . , ε p } une

exosup.com page facebook


A. EL A BDLLAOUI , A. H AJJI , M. EL K ADIRI ET M. Z IANI 29

base de F.
Chacun des vecteurs f (e1 ), f (e2 ), . . . , f (en ) de F se décompose d’une manière unique dans la
base C . On écrit 

 f (e1 ) = a11 ε1 + a21 ε2 + . . . + a p1 ε p
 f (e2 ) = a12 ε1 + a22 ε2 + . . . + a p2 ε p

.. ..


 . .
f (en ) = a1n ε1 + a2n ε2 + . . . + a pn ε p ,

avec a1 j , a2 j , . . . , a p j sont les coordonnées du vecteur f (e j ) dans la base C . On appelle matrice


associée à f relativement aux bases B et C et on note MatB,C ( f ) la matrice de taille p × n dont
la jème colonne est constituée par les coordonnées du vecteur f (e j ) vecteur de la base B dans la
base C  
a11 a12 . . . a1n
 a21 a22 . . . a2n 
MatB,C ( f ) =  .
 
.. .. .. 
 .. . . . 
a p1 a p2 . . . a pn
Exemples
1. Soit l’application linéaire
f: R2 → R3
(x, y) 7→ (x + 3y, 3x, 2y).

Soit B = {e1 , e2 } la base canonique de R2 et C = {ε1 , ε2 , ε3 } la base canonique de R3 .


Alors la matrice de f relativement aux bases B et C est
 
1 3
MatB,C ( f ) =  3 0  .
0 2

2. Soit B = {1, X, X 2 } la base canonique de R2 [X]. On considère l’endomorphisme de R2 [X]


défini par
f : R2 [X] → R2 [X]
P 7→ XP0 .
La matrice de f relativement à la base B est
 
0 0 0
MatB ( f ) =  0 1 0  .
0 0 2

Soit E un K-espace vectoriel de dimension n, muni d’une base B = {e1 , . . . , en } et F un


K-espace vectoriel de dimension p, muni d’une base C = {ε1 , . . . , ε p }. Soient f ∈ L (E, F) et
A = MatB,C ( f ). Soit u un vecteur représenté dans E par u = x1 e1 + . . . + xn en . Notons
 
x1
X =  ... 
 

xn
le vecteur des coordonnées de u dans B, et
 
y1
Y =  ... 
 

yp

exosup.com page facebook


30 Chapitre 3. Calcul matriciel

le vecteur des coordonnées de f (u) dans C . Alors on a

Y = AX.
 
3 −1 1
 Exemple 3.1 Soit et soit f l’application linéaire associée à A relativement
1 1 2
 
1
aux bases canoniques B = {e1 , e2 , e3 } de R et C = {ε1 , ε2 } de R . Soit u =
3 2  2  ∈ R3 .
3
Alors  
1  
4
f (u) = Au = A  2  =
9
3


3.3.1 Matrice de la composée


Soient E, F, G trois K-espace vectoriels et B, B 0 , B 00 leur base respectivement.

Théorème 3.3.1 ∀ f ∈ L (E, F) et ∀g ∈ L (F, G), g ◦ f ∈ L (E, F) et on a

MBB00 (g ◦ f ) = MB0 B00 (g)MBB0 ( f ).

Exemple. Soient f et g les deux applications linéaires définies par

f: R2 → R3
(x, y) 7→ (x + y, x − y, 2x + 4y),

g: R3 → R3
(x, y, z) 7→ (x + y + 3z, −x + y + 2z, 2x + y + 3z).

Alors, relativement aux bases canoniques B1 de R2 et B2 de R3 , on a


 
1 1
MB1 ,B2 ( f ) =  1 −1  .
2 4

et  
1 1 3
MB2 (g) =  −1 1 2  .
2 1 3
On montre facilement que

g ◦ f : R2 → R3
(x, y) 7→ (8x + 12y, 4x + 6y, 9x + 13y),

D’où,  
8 12
MB1 ,B2 (g ◦ f ) =  4 6  .
9 13
MB1 ,B2 (g ◦ f ) = MB2 (g)MB1 ,B2 ( f ).

exosup.com page facebook


A. EL A BDLLAOUI , A. H AJJI , M. EL K ADIRI ET M. Z IANI 31

R Soient f ∈ L (E) et B une base de E. Alors

MB ( f 2 ) = MB ( f ◦ f ) = (MB ( f ))2 .

D’une manière générale, on a :

∀n ∈ N, MB ( f n ) = MB ( f ◦ f ◦ · · · ◦ f ) = (MB ( f ))n .

Conséquence(matrice d’un endomorphisme)


Si dim(E) = dim(F) = n, alors f ∈ Isom(E, F) ⇐⇒ MBB0 ( f ) est inversible et l’on a alors
MB0 B ( f −1 ) = (MBB0 ( f ))−1 .
En effet, d’une part on a :

MB ( f −1 ◦ f ) = MB0 B ( f −1 )MBB0 ( f ) = MB (IdE )) = In ,

D’autre part,
MB0 ( f ◦ f −1 ) = MBB0 ( f )MB0 B ( f −1 ) = MB0 (IdF )) = In .
Donc, MBB0 ( f ) est inversible et (MBB0 ( f ))−1 = MB0 B ( f −1 ).

3.4 Changement de bases


3.4.1 Matrice de passage
Définition Soit E un espace vectoriel de dimension n et soient B1 = {e1 , . . . , en } et
n 3.4.1 o
0 0
B2 = e1 , . . . , en deux bases de E.
La matrice de changement de bases ou matrice de passage de la base B1 à la base B2 notée
PB1 B2 , est la matrice de Mn (K) définie par

PB1 B2 = MB2 B1 (idE ).

De plus,
n
0
PB1 B2 = (pi j )1≤i, j≤n ⇐⇒ e j = ∑ pi j ei , ∀ j ∈ [|1, n|].
i=1

Exemple B1 = (e1 , e2 , e3 ) est la base canonique de R3 . Soit B2= (e01 , e02 , e03 ), 0 0
où e1 = (1, 1, 0), e2 =
1 1 0
(1, 0, 1), e3 = (0, 1, 1). La matrice de passage de B1 à B2 est
0  1 0 1 
0 1 1
Propriétés
– La matrice de passage PB1 B2 est la matrice dont la jième colonne est constituée par les
composantes de e0j dans la base B1 .
−1
– PB1 B2 est une matrice inversible et PB 1 B2
= PB2 B1
 Exemple 3.2 Soient B = (e1 , e2 ) la base canonique de R2 et B 0 = (e01 , e02 ) une famille de
deux vecteurs de R2 tels que

e01 = 2e1 + 3e2 , e02 = e1 + e2 .

On peut vérifier facilement que B 0 est une base de R2 . La matrice de passage de B à B 0 est
 
2 1
PBB0 =
3 1

exosup.com page facebook


32 Chapitre 3. Calcul matriciel
−1
La matrice de passage est une matrice inversible, donc PBB 0 existe. De plus, pour déterminer
−1
PBB0 il suffit d’écrire les éléments de B en fonction des éléments de B 0 . En effet, (e01 =
2e1 + 3e2 , e02 = e1 + e2 ) ⇐⇒ (e1 = −e01 + 3e02 , e2 = e01 − 2e02 ). Par conséquent
 
−1 1
PB0 B =
3 −2


3.4.2 Effet d’un changement de base pour une application linéaire


Théorème 3.4.1 Soient E un K-espace vectoriel muni de deux bases B1 et C1 , F un K-
espace vectoriel muni de deux bases B2 et C2 et f ∈ L (E, F). Alors les deux matrices
A1 = MatB1 B2 ( f ) et A2 = MatC1 C2 ( f ) vérifient

A2 = Q−1 A1 P,

où P = PB1 C1 et Q = PB2 C2 . Les matrices A1 et A2 sont dites matrices équivalentes.

Théorème 3.4.2 Soient E un K-espace vectoriel muni de deux bases B et C et f ∈ L (E).


Alors les deux matrices A1 = MatB ( f ) et A2 = MatC ( f ) vérifient

A2 = P−1 A1 P,

où P = PBC . Les matrices A1 et A2 sont dites matrices semblables.

 Exemple 3.3 Soit B = {e1 , e2 , e3 } la base canonique de R3 et soit C = {u1 , u2 , u3 } une base
de R3 avec u1 = (2, 0, −1), u2 = (−8, 1, 0) et u3 = (0, 1, −5). Soit f ∈ L (R3 ) où
∀(x, y, z) ∈ R3 , f (x, y, z) = (2x − 2y, −x + 3y + z, 2x + y + z).
La matrice de passage de la base B à la base C est donnée par
 
2 −8 0
P = PBC =  0 1 1 .
−1 0 −5
On vérifie facilement que
 
5 40 8
1
P−1 = PC B =  1 10 2  .
2
−1 −8 −2
La matrice de f dans la base B est donnée par
 
2 0 −2
A = MatB ( f ) =  −1 3 1  .
2 1 1
Donc, par la formule de changement de base, on trouve la matrice de f dans la base C :
 
−33 120 −31
B = MatC ( f ) = P−1 AP =  −9 32 −9  .
6 −21 7


exosup.com page facebook


A. EL A BDLLAOUI , A. H AJJI , M. EL K ADIRI ET M. Z IANI 33

3.5 Rang d’une matrice


Définition 3.5.1 Soit A ∈ Mm,n (K). Le rang de A est le rang dans Kn , de ses n vecteurs
colonnes. On le note rg(A).

Propriétés.
– Si f ∈ L (Kn , Km ), alors le rang de f est égal au rang de sa matrice.
– rg(A) ≤ min(m, n).
– Une matrice A d’ordre n est inversible ssi rg(A) = n.
– Soit A ∈ Mm,n (K). Alors, rg(A) = rg(t A).
– A, B ∈ Mm,n (K) sont équivalentes ssi rg(A) = rg(B).

Exemple.
   
1 1 −1 3 5 −1
A= , rg(A) = 2. B = , rg(B) = 2.
2 1 0 2 3 0
 
  1 1 0
1 1
A et B sont équivalentes. En effet, si on pose R = , S =  0 1 0  , alors R et S
0 1
0 0 1
sont inversibles. De plus, B = RAS.

exosup.com page facebook


exosup.com page facebook
Déterminant d’ordre 2
Déterminant d’ordre 3
Déterminant d’ordre n
Propriétés
Applications
Calcul de l’inverse d’une matrice
Systèmes de Cramer

4. Déterminant d’une matrice

Toutes les matrices considérées dans ce chapitre sont des matrices carrées.

4.1 Déterminant d’ordre 2


Considérons la matrice  
a11 a12
A= ∈ M2 (K).
a21 a22
On appelle déterminant de A et on note

a11 a12
det(A) = ,
a21 a22

la valeur det(A) = a11 a22 − a21 a12 .

Exemples.  
1 2 1 2
– Soit A = . Alors det(A) = = −2.
3 4 3 4
 
π a π a
– Soit B = , avec a, x ∈ R. Alors det(B) = = πx − 2a.
2 x 2 x

4.2 Déterminant d’ordre 3


Considérons la matrice
 
a11 a12 a13
A =  a21 a22 a23  ∈ M3 (K).
a31 a32 a33

On définit le déterminant de A comme suit (développement, par exemple, suivant la 1ère ligne) :

a11 a12 a13


a22 a23 a21 a23 a21 a22
det(A) = a21 a22 a23 = a11 − a12 + a13 .
a32 a33 a31 a33 a31 a32
a31 a32 a33

exosup.com page facebook


36 Chapitre 4. Déterminant d’une matrice

Donc

det(A) = a11 a22 a33 − a11 a32 a23 − a12 a21 a33 + a12 a31 a23 + a13 a32 a23 − a13 a31 a22 .

Définition 4.2.1 – Le mineur de ai j , noté mi j , est égal au déterminant de la matrice


obtenue en enlevant la ligne i et la colonne j de A.
– On appelle cofacteur de ai j , noté Ci j , l’élément (−1)i+ j mi j .

R En développant suivant la 1ère ligne de A on obtient

det(A) = a11C11 + a12C12 + a13C13 .

Mais on peut aussi développer suivant n’importe quelle autre ligne ou colonne. Par exemple,
suivant la 2ème colonne, on aura

det(A) = a12C12 + a22C22 + a32C32 .

4.3 Déterminant d’ordre n


On peut développer selon la j-ème colonne :
n n
det(A) = ∑ (−1)i+ j ai j mi j = ∑ ai jCi j ,
i=1 i=1

ou développer selon la i-ème ligne


n
det(A) = ∑ ai jCi j .
j=1

Proposition 4.3.1 Si T = (ti j ), 1 ≤ i, j ≤ n est une matrice triangulaire, alors

det(T ) = t11t22 . . .tnn .

4.4 Propriétés
Propriété 1. Si tous les éléments d’une même ligne (resp. colonne) sont nuls alors le
déterminant est nul.
Propriété 2. Si l’on permute deux lignes (resp. colonnes) alors le déterminant change de
signe.
Propriété 3. Si l’on multiplie par α ∈ K tous les éléments d’une ligne (resp.colonne) alors
le déterminant est multiplié par α. Par exemple,

12 4 4 3 1 1 1 1 1
3 1 0 =4 3 1 0 = 4×3 1 1 0 .
3 0 1 3 0 1 1 0 1

En particulier,
∀α ∈ K, ∀A ∈ Mn (K), det(A) = α n det(A).

exosup.com page facebook


A. EL A BDLLAOUI , A. H AJJI , M. EL K ADIRI ET M. Z IANI 37

Propriété 4. Si une ligne (resp. colonne) s’écrit comme une combinaison linéaire des autres
lignes (resp. colonnes) alors le déterminant est nul. En particulier, si deux lignes (resp. colonnes)
sont égales alors le déterminant est nul.
Propriété 5. Le déterminant ne change pas si l’on rajoute à une ligne (resp. colonne) une
combinaison linéaire des autres lignes (resp. colonnes). Par exemple,

sin2 (α) sin2 (β ) sin2 (γ) 1 1 1


cos2 (α) cos2 (β ) cos2 (γ) = cos2 (α) cos2 (β ) cos2 (γ) = 0.
1 1 1 1 1 1

Proposition 4.4.1 Soit n ∈ N∗ et soient A et B deux matrices carrées d’ordre n. Alors


– En général, det(A + B) 6= det(A) + det(B).
– A est inversible si et seulement si det(A) 6= 0. Si A est inversible alors

1
det(A−1 ) = .
det(A)

– det(AB) = det(BA).
– Si A et B sont semblables alors det(A) = det(B).
– det(AT ) = det(A).

4.5 Applications
4.5.1 Calcul de l’inverse d’une matrice
Définition 4.5.1 Soit A ∈ Mn (K). La matrice des cofacteurs (Ci j ) des éléments (ai j ) de A,
notée Adj(A) ou Com(A), est appelée matrice adjointe de A ou co-matrice de A.

Adj(A) = Com(A) = [Ci j ] = [(−1)i+ j mi j ], 1 ≤ i, j ≤ n.

Théorème 4.5.1 Soit A ∈ Mn (K). Alors


– Si det(A) = 0 alors A n’est pas inversible.
– Si det(A) 6= 0 alors A est inversible, et on a

1
A−1 = (Com(A))T .
det(A)

4.5.2 Systèmes de Cramer


Soit (S) le système linéaire à n équations et n inconnues

 a11 x1 + . . . + a1n xn = b1

(S) .. ..
 . .
an1 x1 + . . . + ann xn = bn

Le système (S) s’écrit aussi sous la forme

AX = b,

exosup.com page facebook


38 Chapitre 4. Déterminant d’une matrice
 
a11 . . . a1n
où A =  ... ..  est appelée la matrice associée au système (S), b = (b , . . . , b )T

.  1 n
an1 . . . ann
est appelé le second membre de (S), et X = (x1 , . . . , xn )T est l’inconnue du système.

Proposition 4.5.2 Si A est inversible, alors la solution X̄ de (S) est donnée par

X̄ = A−1 b.

Lorsque la matrice A est inversible alors le système (S) est dit de Cramer. Un système de Cramer
possède une et une seule solution.

Proposition 4.5.3 Notons ∆ = det(A) et

b1 a12 . . . a1n a11 b1 . . . a1n a11 . . . a1,n−1 b1


.
∆1 = .. .
.. . .
.. , ∆2 = .. .
.. .. , . . . , ∆n = ...
. .. .. .
. .
bn an2 . . . ann an1 bn . . . ann an1 . . . an,n−1 bn

Si A est inversible alors les coordonnées x̄1 , . . . , x̄n de l’unique solution X̄ de (S) sont données
par
∆1 ∆2 ∆n
x̄1 = , x̄2 = , . . . , x̄n = .
∆ ∆ ∆

exosup.com page facebook


Polynôme caractéristique et éléments
propres d’une matrice carrée
Diagonalisation des matrices
Théorème de Cayley-Hamilton
Réduction des endomorphismes

5. Réduction des matrices carrées

Dans tout ce qui suit, K désigne R ou C.

5.1 Polynôme caractéristique et éléments propres d’une matrice carrée


Soit n un entier ≥ 1. On note Mn (K) l’espace des matrices carrées d’ordre n à entrées dans
K. Soit A = (ai j ) ∈ Mn (K). On peut montrer par une récurrence facile sur n que

a11 − x a12 ... a1n


a21 a22 − x ... a2n
det(A − xIn ) =
. . ... .
an1 an2 .... ann − x

est un polynôme en x de degré n.

Définition 5.1.1 Soit A ∈ Mn (K). Le polynôme caractéristique PA (x) de A est le polynôme


en x défini par
PA (x) = det(A − xIn ).
Le coefficient du terme de plus haut degré de PA (x) est égal à (−1)n et PA (0) = det A, donc

PA (x) = (−1)n xn + ... + det(A).

 
1 2
 Exemple 5.1 Soit A = . On a
−1 3

1−x 2
PA (x) = = x2 − 4x + 5.
−1 3 − x

exosup.com page facebook


40 Chapitre 5. Réduction des matrices carrées


1 1 1
 Exemple 5.2 Soit A =  1 1 1  . On a
1 1 1

1−x 1 1 3−x 1 1
PA (x) = 1 1−x 1 = 3−x 1−x 1
1 1 1−x 3−x 1 1−x
1 1 1 1 1 1
= (3 − x) 1 1 − x 1 = (3 − x) 0 −x 0
1 1 1−x 1 1 1−x
1 1
= −x(3 − x)
1 1−x
= x2 (3 − x).

Définition 5.1.2 Soit A ∈ Mn (K). Les racines du polynôme caractéristique PA (x) de A sont
appelées les valeurs propres de A.

 Exemple 5.3 Les valeurs propres de la matrice A de l’exemple 5.2 précédent sont λ1 = 0

(double) et λ2 = 3 (simple). 

Théorème 5.1.1 Soit A ∈ Mn (K) et soit λ ∈ K. Les conditions suivantes sont équivalentes :
1. λ ∈ K est une valeur propre de A.
2. Ker (A − λ In ) 6= 0.
3. Il existe v ∈ Kn , v 6= 0, tel que (A − λ In )v = 0.

Démonstration. On a λ v.p. de A ⇐⇒ PA (λ ) = 0 ⇐⇒ det(A−λ In ) = 0 ⇐⇒ Ker(A−λ In ) 6=


{0} ⇐⇒ (∃v ∈ K n , v 6= 0 et (A − λ In )v = 0).

R La matrice A est inversible si et seulement si 0 n’est pas v.p. de A.

Définition 5.1.3 Soit A ∈ Mn (K) et soit λ une v.p. de A. Le sous-espace Eλ = Ker(A − λ In )


de Kn est appelé le s.e. propre associé à la v.p. λ .

 Exemple 5.4 Soit la matrice réelle


 
1 1 1
A =  1 1 1 .
1 1 1

On a vu que les v.p. de A sont λ1 = 0 et λ2 = 3. Déterminons les s.e. propres de A :


i. Le s.e propre
 E0      
x 1 1 1 x 0
On a v =  y  ∈ E0 ⇐⇒ Av = 0 ⇐⇒  1 1 1   y  =  0  ⇐⇒
z 1 1 1 z 0

exosup.com page facebook


A. EL A BDLLAOUI , A. H AJJI , M. EL K ADIRI ET M. Z IANI 41
  
 x+y+z = 0 x
x + y + z = 0 ⇐⇒ x + y + z = 0 ⇐⇒ z = −x − y ⇐⇒ v =  y  ⇐⇒
x+y+z = 0 −x − y

       
1 0  1 0 
v = x  0  + y  1  . Donc E0 = Vect  0  ,  1 
−1 −1 −1 −1
 
ii. Le s.e propre
  E3     
x −2 1 1 x 0
On a v = y ∈ E3 ⇐⇒ (A−3I3 )v = 0 ⇐⇒
   1 −2 1   y = 0  ⇐⇒
z 1 1 −2 z 0

 −2x + y + z = 0
x − 2y + z = 0
x + y − 2z = 0

 
 x + y − 2z = 0  x + y − 2z = 0 
x + y − 2z = 0
⇐⇒ −2x + y + z = 0 ⇐⇒ 3y − 3z = 0 ⇐⇒
3y − 3z = 0
x − 2y + z = 0 −3y + 3z = 0
 

     
x 1  1 
⇐⇒ x = y = z ⇐⇒ v =  x  ⇐⇒ v = x  1  . Donc E3 = Vect  1  .
x 1 1
 


R On a 1 ≤ dim(Eλ ) ≤ multiplicite de λ .

Théorème 5.1.2 Soient M, N ∈ Mn (K) deux matrices semblables. Alors M et N ont les
mêmes polynômes caractéristiques, et donc les mêmes v.p. et les mêmes s.e. propres.

Démonstration. Soit P ∈ Mn (K) une matrice inversible telle que M = PNP−1 . On a PM (x) =
det(N − xIn ) = det(PMP−1 − xIn ) = det P(M − xIn )P−1 = det(M − xIn ).

5.2 Diagonalisation des matrices


Définition 5.2.1 On dit qu’un polynôme non constant p(x) ∈ K[x] est scindé dans K[x] si on
peut l’écrire sous la forme

p(x) = an (x − x1 )α1 ...(x − xk )αk ,

où x1 , ..., xk sont les racines 2 à 2 distinctes de p(x) et α1 , ..., αk sont leur multiplicités
respectives.

 Exemple 5.5 – Le polynôme p(x) = x3 − 2x2 + x est scindé dans R[x]. En effet, on a

p(x) = x(x − 1)2 .

– Tout polynôme p(x) ∈ C[x] est scindé.




exosup.com page facebook


42 Chapitre 5. Réduction des matrices carrées

Définition 5.2.2 Soit M ∈ Mn (K). On dit que M est diagonalisable si on peut trouver une
matrice diagonale D ∈ Mn (K) et une matrice inversible P ∈ Mn (K) telles que

M = PDP−1 .

On dit alors que la matrice P diagonalise M.

Théorème 5.2.1 Soient M ∈ Mn (K) et P ∈ Mn (K) une matrice inversible. Si M est diago-
nalisable, alors P−1 MP est diagonalisable.

Théorème 5.2.2 Soit M ∈ Mn (K). Alors les conditions suivantes sont équivalentes :
1. La matrice M est diagonalisable.
2. Il existe une base de Kn formée de vecteurs propres de M.

Théorème 5.2.3 Soit M ∈ Mn (K). Alors les conditions suivantes sont équivalentes :
1. La matrice M est diagonalisable.
2. Le polynôme caractéristique pM (x) de M est scindé et la dimension de chaque sous-
espace propre Eλ de M est égale à la multiplicité de λ .

Pour diagonaliser une matrice, on procède de la façon suivante. On calcule le polynôme caracté-
ristique de M, on détermine les v.p. et les s.e. propres de M. Si la condition 2 de ce théorème est
satisfaite, voici comment on forme les matrices P et D :
1. La matrice D : c’est la matrice diagonale obtenue en mettant les valeurs propres λi de M
sur la diagonale, chacune un nombre de fois égal à sa multiplicité, dans l’ordre λ1 , ..., λk .
2. La matrice P : Après avoir construit la matrice D, on construit P en colonnes les compo-
santes (dans la base canonique de Kn ) des vecteurs de bases des s.e. propres Eλ1 , ..., Eλk
dans cet ordre.
On ne calcule pas P−1 sauf pour les applications, par exemple pour le calcul de M n =
PDn P−1 , où on a vraiment besoin de connaitre P−1 .
 
1 1 1
 Exemple 5.6 Revenons à la matrice réelle A =  1 1 1  de l’exemple 5.2. On a vu que
1 1 1
PA (x) = x2 (3 − x), qui est scindé
 dans R[x].
  Les v.p.
 A sont λ
de 1= 0 (double)
 λ2 = 3 (simple).
 1 0   1 
Les s.e. de A sont E0 = Vect  0  ,  1  et E3 =  1  . On a dim(E0 ) = 2
−1 −1 1
   
 
0 0 0
et dim(E3 ) = 1, donc A est diagonalisable et on a A = PDP−1 , où D =  0 0 0  et P =
0 0 3
 
1 0 1
 0 −1 1  . 

−1 1 1

exosup.com page facebook


A. EL A BDLLAOUI , A. H AJJI , M. EL K ADIRI ET M. Z IANI 43

5.3 Théorème de Cayley-Hamilton


Soit p(x) = an xn + ... + a0 ∈ K[x]. Pour toute matrice A ∈ Mn (K) on pose

p(A) = an An + ... + a0 In .

Théorème 5.3.1 — Cayley-Hamilton. Soit A ∈ Mn (K), et pA (x) le polynôme caractéris-


tique de A. Alors on a pA (A) = 0.

 
1 1 1
 Exemple 5.7 Soit M =  1 1 1  . On a pM (x) = x2 (3 − x) = −x3 + 3x2 . Donc, d’après
1 1 1
le théorème de Cayley-Hamilton, on a pM (M) = 0, soit

−M 3 + 3M 2 = 0.

Il en résulte que M 3 = 3M 2 . On endéduit que M n = 3n−1 M 2 pour tout n ≥ 3. Un calcul simple


donne M 2 = 3M, d’où M n = 3n M. 

5.4 Réduction des endomorphismes


Définition 5.4.1 Soit f ∈ L (E). On dit que λ ∈ K est une v.p. de f si Ker( f − λ 1E ) 6= {0},
autrement dit si f − λ 1E n’est pas injectif.

Théorème 5.4.1 Soient f ∈ L (E) et B une base de E. Alors les conditions suivantes sont
équivalentes :
1. λ ∈ K est une v.p. de f .
2. λ est une v.p. de la matrice M de f dans B.

Démonstration. En effet, on a λ v.p. de f ⇐⇒ Ker( f − λ 1E ) 6= {0} ⇐⇒ det(M − λ In ) =


0 ⇐⇒ pM (λ ) = 0 ⇐⇒ λ v.p. de M

Définition 5.4.2 Un endomorphisme f de E est dit diagonalisable si sa matrice dans une


base de E est diagonalisable.

exosup.com page facebook

You might also like