Professional Documents
Culture Documents
Résumé Alg Lin
Résumé Alg Lin
et compléments
∀(λ, µ) ∈ K2 , ∀(x, y) ∈ E2 , (1) λ(x + y) = λx + λy (2) (λ + µ)x = λx + µx (3) λ(µx) = (λµ)x (4) 1.x = x.
2) Structure de K-algèbre.
Soit (E, +, .) un K espace vectoriel muni d’une autre l.d.c.i. notée ×.
(E, +, ., ×) est une K algèbre ⇔ (E, +, ×) est un anneau (c’est-à-dire que × est associative, distributive sur + et possède
un élément neutre souvent noté 1 ou e ou In ou IdE ...) et de plus . et × vérifient l’axiome :
L’algèbre est dite commutative quand × est commutative. La dimension de l’algèbre est la dimension de l’espace
vectoriel (E, +, .).
3) Exemples de K-espaces vectoriels ou de K-algèbres supposés connus.
(Dans les exemples qui suivent les opérations ne sont pas citées et sont toujours les opérations usuelles dans les
ensembles considérés.)
a) K-espaces vectoriels
1. (C, +, .) est un R-espace de dimension 2 (les nombres ou scalaires sont les réels et les vecteurs sont les complexes).
(C, +, .) est un C-espace de dimension 1 (les nombres ou scalaires sont les complexes et les vecteurs sont
les complexes).
2. (Kn , +, .) sur K (modèle de l’espace de dimension n sur K, tout espace de dimension n sur K est isomorphe
à Kn ).
3. KN , +, . est un K-espace de dimension infinie (suites à coefficients dans K) (les vecteurs sont les suites).
4. (K[X], +, .) est un K-espace de dimension infinie (polynômes à coefficients dans K).
5. (K(X), +, .) est un K-espace de dimension infinie (fractions rationnelles).
6. RR , +, . est un R-espace de dimension infinie (applications de R dans R) et plus généralement FA , +, . où A
L’existence d’un supplémentaire est démontrée en dimension finie mais ne peut pas être utilisée en dimension infinie.
Un sous-espace admet le plus souvent une infinité de supplémentaires et on ne doit donc pas dire « le supplémentaire
... » mais on doit dire « un supplémentaire de F ».
Exemples. CR = P ⊕ I (décomposition d’une fonction f en somme d’une fonction paire et d’une fonction impaire :
1 1
pour tout x de R, f(x) = (f(x) + f(−x)) + (f(x) − f(−x)))).
2 2
Mn (K) = Sn ⊕ An (décomposition d’une matrice carrée M en somme d’une matrice symétrique et d’une matrice
1 1
anti-symétrique : M = (M + t M) + (M − t M)).
2 2
b) Cas général d’un nombre fini de sous espaces
p
M
Dans ce cas, la somme F1 + . . . + Fp s’écrit F1 ⊕ . . . ⊕ Fp ou Fi . La somme directe F1 ⊕ ... ⊕ Fp est isomorphe à
i=1
F1 × ... × Fp . Un isomorphisme de F1 × ... × Fp sur F1 ⊕ ... ⊕ Fp est (x1 , . . . , xp ) 7→ x1 + . . . + xp .
X
Danger. Il est faux de croire que Fi est directe ⇔ ∀i 6= j, Fi ∩ Fj = {0} (⇒ vraie bien sûr).
Le cas de trois droites vectorielles de R2 deux à deux distinctes fournit un contre exemple usuel.
6) Projections et symétries.
Soient F et G deux sev supplémentaires de E. Soient p la projection sur F parallèlement à G, q la projection sur G
parallèlement à F et s la symétrie par rapport à F parallèlement à G.
Soit x = x1 + x2 la décomposition d’un vecteur quelconque x de E associée à la décomposition E = F ⊕ G. Alors par
définition p(x) = x1 et s(x) = x1 − x2 .
a) • ∀x ∈ E, p(x) = x1 et q(x) = x2 .
• p ∈ L (E), p ◦ p = p, p ◦ q = q ◦ p = 0, p + q = IdE .
• F = Im(p) = Ker(q) = Ker(Id − p) = {invariants par p} et G = Ker(p) = Im(q) = Im(Id − p).
• p/Imp = Id/Imp et p/Kerp = 0/Kerp .
Th : Réciproquement, si p est un endomorphisme vérifiant p ◦ p = p alors Im(p) et Ker(p) sont supplémentaires puis
p est la projection sur Imp parallèlement à Kerp.
b) • ∀x ∈ E, s(x) = x1 − x2
• s ∈ GL(E), s ◦ s = Id
• F = Ker(s − Id) = {invariants par s} et G = Ker(s + Id) = {x/s(x) = −x}
1
• s = 2p − Id = Id − 2q et p = (Id + s)
2
Réciproquement si s est un endomorphisme de E vérifiant s◦s = Id alors Ker(s−Id) et Ker(s+id) sont supplémentaires
puis s est la symétrie par rapport à Ker(s − Id) parallèlement à Ker(s + Id).
7) Combinaisons linéaires et sous-espace engendré par une famille ou une partie de E
a) Combinaisons linéaires
Soit (λi )i∈I une famille non vide de scalaires. Cette famille est dite à support fini si et seulement si l’ensemble des
indices i tels que λi est non nul est fini (éventuellement vide).
Soient (xi )i∈I une famille de vecteurs de E et y un vecteur de E.
X
y est combinaison linéaires de la famille (xi )i∈I ⇔ ∃ (λi )i∈I ∈ KI à support fini telle que y = λi xi . Si I = J1, pK,
i∈I
une combinaison linéaire de la famille (xi )16i6n
Soient X une partie de E et y un vecteur de E. X
y est combinaison linéaire des vecteurs de X ⇔ ∃(λx )x∈X ∈ KX à support fini telle que y = λx x
X x∈X
(Convention : si X est vide, λx x = 0).
b) Sous espace engendré par une famille ou une partie
Approche externe. Soit X une famille (resp. une partie) (éventuellement vide) de vecteurs de E (resp.de E). Il existe
un et un seul plus petit sous-espace vectoriel de E (pour l’inclusion) contenant X. Il est noté Vect(X). C’est l’intersection
de tous les sous-espaces vectoriels de E contenant X (et donc Vect(∅) = {0}).
Approche interne. Vect(X) est l’ensemble
des combinaisons linéaires d’éléments de X. En particulier, Vect(0) = {0},
Vect(u) = {λu, λ ∈ K}, Vect(u, v) = λu + µv, (λ, µ) ∈ K2 , ...
c) Propriétés.
X
• Vect(xi ) = {C.L. des xi } = λi xi , (λi ) à support fini = plus petit sev de E contenant (xi ).
• A ⊂ Vect(A).
• A = Vect(A) ⇔ A sev de E.
• A ⊂ B ⇒ Vect(A) ⊂ Vect(B) (réciproque fausse).
• Vect(Vect(A)) = Vect(A), Vect(A ∪ B) = Vect(A) + Vect(B), Vect(A + B) = Vect(A) + Vect(B),
Vect(A ∩ B) ⊂ Vect(A) ∩ Vect(B).
• Montrer que F est l’espace engendré par une certaine famille de vecteurs (F = Vect −
→ ).
ui i∈I
• Montrer que F est l’orthogonal d’une partie A de E pour un certain produit scalaire (F = A⊥ ).
• En dimension finie n ∈ N∗ (la dimension est donc supposée connue), si une famille B est libre de
cardinal n, alors B est une base de E et si B est libre de cardinal n, alors B est une base.
• Si E est de dimension finie n ∈ N∗ , si B0 est une base connue de E et si B est une famille de n
vecteurs, alors B est une base de E si et seulement si detB0 (B) 6= 0 (souvent le plus efficace).
• Si F est une famille de p vecteurs, F est libre si et seulement si le rang r de F est égal au
cardinal p de la famille. Si de plus dim(E) = n, F est une base de E si et seulement si r = p = n.
• Si B est une famille d’un espace E ′ qui est l’image d’une base B0 de E par un isomorphisme, alors
B est une base de E ′ .
• Si E est muni d’un produit scalaire, une famille orthogonale de vecteurs tous non nuls est libre
et en particulier une famille orthonormale est libre.
Théorème de la base incomplète. Soit L libre dans E (dimE < +∞), L peut être complétée en une base de E.
Si dimE < +∞, E admet des bases. Si dimE < +∞, de toute partie ou famille génératrice de E on peut extraire une
base.
3) Sous espaces
Théorème. Soit n = dimE < +∞ et soit F sev de E alors (dimF 6 n et dimF = n ⇔ F = E) (faux en dimension
infinie).
Théorème. (Supplémentaires) Soit n = dimE < +∞ et F sev de E. F admet au moins un supplémentaire. Tout
supplémentaire a pour dimension : dimE − dimF.
Plus généralement, dim(F ⊕ G) = dimF + dimG.
Théorème. Soient F et G sev de E.
(E = F ⊕ G) ⇔ F ∩ G = {0} et dimF + dimG = dimE) ⇔ (F + G = E et dimF + dimG = dimE)
X
Théorème. F1 , . . . , Fp sev de E tels que la somme Fi est directe. dim(F1 ⊕ ... ⊕ Fp ) = dimF1 + ... + dimFp .
Théorème. F1 , . . . , Fp sev de E. dim (F1 + ... + Fp ) 6 dim (F1 ) + ... + dim (Fp ) avec égalité si et seulement si la somme
est directe. [ [
Si E = F1 ⊕ ... ⊕ Fp et si Bi est une base de Fi alors B = Bi est une base de E et réciproquement, si B = Bi est
i i
une base de E alors les Fi = Vect (Bi ) sont supplémentaires dans E.
4) Rang
a) d’une famille de vecteurs
Soit X = (xi )16i6p une famille de p vecteurs de E. rg (xi )16i6p = dimVect (xi )16i6p = maximum du cardinal d’une
sous-famille libre de (xi )16i6p .
Si X est une famille de vecteurs de E de rang r et si A est une sous-famille de S : si A est libre alors card(A) 6 r ou
encore si card(A) > r, A est liée.
Soient n = dim(E), r = rg (xi )16i6p (et p = card (xi )16i6p ).
• r 6 p et (r = p ⇔ (xi )16i6p est libre.
• r 6 n et (r = n ⇔ (xi )16i6p est génératrice de E.
• (xi )16i6p base de E ⇔ r = p = n.
b) d’une application linéaire
Soit f ∈ L (E, F). rg(f) = dim(Im(f)). Si dim(E) = n < +∞ et (ei )16i6n est une base quelconque de E, rg(f) =
rg (f (ei ))16i6n .
V. Sous-espaces affines
− −
Soit E un K-espace vectoriel. Un sous-espace affine de E est un sous-ensemble de la forme F = A+F = A + →
u, →u ∈F
où A est un point de E (ou encore un élément de E) et F est un sev de E. Dans ce cas, F est uniquement défini (mais
pas A) et s’appelle la direction du sous-espace affine F .
La dimension du sous-espace affine F est la dimension de sa direction F.
Théorème. L’intersection de deux sous-espaces affines F et G , de directions respectives F et G, est soit vide, soit un
sous-espace affine de direction F ∩ G.
Si E est de dimension finie n et R = (O, B) = O, (ei )16i6n est un repère de E, un hyperplan affine a une
équation de la forme a1 x1 + . . . + an xn = b, (a1 , . . . , an ) 6= (0, . . . , 0), et réciproquement un sous-ensemble d’équation
a1 x1 + . . . + an xn = b, (a1 , . . . , an ) 6= (0, . . . , 0), est un hyperplan affine de direction l’hyperplan vectoriel d’équation
a1 x1 + . . . + an xn = 0 dans B.
Plus généralement, un sous-espace affine de dimension n − p admet un système d’équation de la forme
a1,1 x1 + . . . + a1,n xn = b1
.
ap,1 x1 + . . . + ap,n xn = bp
a1,1 x1 + . . . + a1,n xn = b1
Inversement, l’ensemble des solutions d’un système de la forme est soit vide, soit un
ap,1 x1 + . . . + ap,n xn = bp
sous-espace affine de dimension n − r où r est le rang du système et en particulier de dimension supérieure ou égale à
n − p.
Dans le cas des matrices non carrées, ce produit n’est pas une loi interne.
Il est « associatif », non « commutatif » en général et « distributif sur l’addition ».
Théorème. (Mn (K), +, ×) est un anneau, non commutatif pour n > 2.
(Mn (K), +, ., ×) est une K-algèbre non commutative pour n > 2.
L’ensemble des matrices inversibles pour × est noté GLn (K) (GL=groupe linéaire). (GLn (K), ×) est un groupe, non
commutatif pour n > 2.
Dangers principaux.
• L’égalité AB = AC n’entraine pas en général B = C mais, si A est inversible, A est simplifiable.
• Pour des matrices carrées, l’identité (A + B)2 = A2 + 2AB + B2 , plus généralement la formule du binôme de
Xp
p
Newton (A + B) = p
Ak Bp−k , et l’identité A2 − B2 = (A − B)(A + B) et plus généralement Ap − Bp =
k
k=0
p−1
X
(A − B) Ap−1−k Bk , sont vraies quand A et B commutent (et souvent fausses sinon).
k=0
• Si A et B commutent et sont carrées, (AB)p = Ap Bp (souvent faux sinon).
• L’égalité AB = 0 n’entraine pas en général A = 0 ou B = 0.
• Si les formats sont adaptés aux deux produits, AB = 0 6⇒ BA = 0 (alors que AB = In ⇒ BA = In ).
• La somme de 2 matrices inversibles n’est en général pas inversible ou encore GLn (K) n’est pas stable pour +.
Théorème. Soit A un élément de Mn (K). Les propriétés suivantes sont équivalentes :
1) A est inversible
2) A est inversible à droite
3) A est inversible à gauche
4) det(A) 6= 0
5) A est simplifiable à droite
6) A est simplifiable à gauche
7) A est simplifiable à gauche
8) rg(A) = n
9) KerA = {0} (KerA est l’ensemble des vecteurs colonnes X tels que AX = 0)
10) ImA = Mn,1 (K) (ImA est l’ensemble des vecteurs colonnes de la forme AX où X ∈ Mn,1 (K)).
11) Pour tout vecteur colonne B, le système AX = B, d’inconnue le vecteur colonne X, admet une unique solution.
(X est alors fourni par les formules de Cramer).
12) A est la matrice d’une base dans une base.
13) A est la matrice d’un automorphisme dans une base.
Théorème. Sn (K) et An (K) sont des sous-espaces vectoriels de Mn (K). Mn (K) = Sn (K) ⊕ An (K).
n(n + 1) n(n − 1)
dim (Sn (K)) = et dim (An (K)) = .
2 2
Démonstration. Soit t l’endomorphisme de Mn (K) qui à une matrice associe
sa transposée. t−IdMn (K) et t+IdMn (K)
sont des endomorphismes de Mn (K). Donc, Sn (K) = Ker t − IdMn (K) et An (K) = Ker t + IdMn (K) sont des sev
de Mn (K). t est un endomorphisme
involutif de Mn (K) et donc t est une symétrie. On sait alors que
Mn (K) = Ker t − IdMn (K) ⊕ Ker t + IdMn (K) = Sn (K) ⊕ Sn (K).
1 1
(L’écriture d’une matrice carrée M associée à cette décomposition est alors : M = (M + t M) + (M − t M).)
2 2
II. Matrice d’une famille de vecteurs dans une base
Soient E un K-espace vectoriel de dimension n et B = (ei )16i6n une base donnée de E.
Soit (xj )16j6p une famille de p vecteurs de E.
La matrice de la famille (xj )16j6p dans la base B, notée MatB (xj )16j6p , est la matrice de format (n, p) dont le
coefficient ligne i, colonne j, vaut la i-ème coordonnée de xj dans B (la j-ème colonne « est » xj ).
Y = AX.
p p
n n
! n
X X X X X
Démonstration. f(x) = xj f(ej ) = xj ai,j ei′ = ai,j xj ei′ et donc, pour i ∈ J1, pK,
j=1 j=1 i=1 i=1 j=1
n
X
yi = ai,j xj qui est bien le coefficient ligne i de AX.
j=1
X = PX ′ .
(anciennes coordonnées en fonction des nouvelles.)
!
n
X n
X n
X n
X n
X
Démonstration. x = xj′ ej′ = xj′ pi,j ei = pi,j xj′ ei puis, pour i élément de J1, pK,
j=1 j=1 i=1 i=1 j=1
Xn
xi = pi,j xj′ ,
j=1
′
qui est bien le coefficient ligne i de PX .
3) Changements de base et applications linéaires
a) Cas général.
Données.
E un espace de dimension n muni de deux bases B et B ′ et P la matrice de passage de B à B ′ .
F un espace de dimension p muni de deux bases B1 et B1′ et Q la matrice de passage de B1 à B1′ .
f une application linéaire de E vers F.
A (resp. B) la matrice de f relativement aux bases B et B1 (resp. B ′ et B1′ ). Alors
B = Q−1 AP.
B = P−1 AP.
2) Opérations élémentaires.
Description des opérations élémentaires. On utilise les trois opérations élémentaires sur les colonnes ou sur les
lignes suivantes :
1. Echange de deux colonnes (resp.de deux lignes). Codage : Ci ↔ Cj (resp. Li ↔ Lj )
2. Multiplication d’une colonne (resp.d’une ligne ) par λ scalaire non nul. Codage : Cj ← λCj (resp. Li ← λLi ).
3. Ajout de la colonne (resp.ligne) j à la colonne (resp.ligne) i avec i 6= j. Codage : Ci ↔ Ci +Cj (resp. Li ← Li +Lj ).
En combinant ces transformations élémentaires, on obtient des transformations plus sophistiquées :
4. Permutation des colonnes (resp. des lignes) d’une matrice
5. ajout à une colonne (resp. ligne) d’une combinaison linéaire des autres colonnes (resp. lignes)
3) Opérations élémentaires et rang.
Théorème. Les opérations élémentaires ne modifient pas le rang.
4) Interprétation matricielle des opérations élémentaires.
a) Produit d’une matrice par une matrice élémentaire.
On considère A = (ai,j ) une matrice rectangulaire de format (n, p).
Calculons le produit de A par une matrice élémentaire Ei,j de format p à droite ou de format n à gauche.
Soient i et j deux éléments de J1, pK (non nécessairement distincts).
!
X X X
AEi,j = ak,l Ek,l Ei,j = ak,l Ek,l Ei,j = ak,l δi,l Ek,j
k,l k,l k,l
X
= ak,i Ek,j
k
c’est-à-dire
0 ... 0 a1,i 0 ... 0
0 ... 0 a2,i 0 ... 0
.. .. .. .. ..
. . . . .
.. .. .. .. ..
AEi,j = . . . . .
.. .. .. .. ..
. . . . .
.. .. .. .. ..
. . . . .
0 ... 0 an,i 0 ... 0
De même ,
!
X X X
Ei,j A = Ei,j ak,l Ek,l = ak,l Ei,j Ek,l = ak,l δj,k Ei,l
k,l k,l k,l
X
= aj,l Ei,l
l
c’est-à-dire
0 0 ... ... ... ... 0
.. ..
. .
0 0 ... ... ... ... 0
Ei,j A =
j ème ligne de A
aj,1 aj,2 . . . . . . . . . . . . aj,n
en i ème ligne
0 0 ... ... ... ... 0
. ..
..
.
0 0 ... ... ... ... 0
b) Multiplication d’une colonne (ou d’une ligne) par un scalaire λ non nul : Ci ← λCi .
Soient i un élément de J1, pK (ou J1, nK) puis λ un scalaire non nul.
Soit Λi (λ) la matrice carrée de format p (resp. n) définie par :
Λi (λ) = Ip + (λ − 1)Ei,i .
D’après le calcul préliminaire , il est clair que AΛi (λ) se déduit de A par multiplication par λ de la colonne i et que
Λi (λ)A se déduit de A par multiplication de la ligne i par λ.
Théorème. Si λ 6= 0, Λi (λ) est inversible .
c) Ajout d’une colonne à une autre colonne (d’une ligne à une autre ligne) : Ci ← Ci + Cj
Soient i et j deux éléments de de J1, pK (ou J1, nK) distincts.
Soit Λi,j = Ip + Ej,i (resp. In + Ei,j ). D’après le calcul préliminaire , il est clair que AΛj,i se déduit de A en ajoutant
Ci à Cj et que Λi,j A se déduit de A en ajoutant Lj à Li .
Théorème. Λi,j est inversible .
5) Méthode du Pivot de Gauss
Lemme du Pivot de Gauss. Soit A une matrice de format (n, p) dont la première ligne est non nulle.
A peut être transformée par opérations élémentaires sur les colonnes en une matrice A1 de même format de la forme :
1 0 ... 0
×
A′ = .
..
′
A1
×
où rgA = rgA ′ = 1 + rg(A1′ ).
Le même travail est valable en ligne en supposant non nulle la première colonne.
Démonstration. Si a1,1 = 0, il existe j > 1 tel que a1,j soit non nul. On échange alors la colonne Cj et la colonne
C1 pour obtenir une matrice de même rang que A et dont le coefficient ligne 1, colonne 1, est non nul.
(car δσ ′ (1),σ(1) ...δσ ′ (n),σ(n) = 1 ⇔ ∀k ∈ J1, nK, σ(k) = σ (k) ⇔ σ = σ ′ et sinon δσ ′ (1),σ(1) ...δσ ′ (n),σ(n) = 0).
′
2) Propriétés.
Théorème. La trace est une forme linéaire sur Mn (K) :
L’étude de la comatrice sera rappelée dans le chapitre « déterminant » et les calculs de puissance de matrices ou
d’inverses de matrices seront étudiés dans le chapitre « réduction des endomorphismes ».
Exemple. Un produit scalaire est bilinéaire. Dans R3 euclidien orienté, f : R3 × R3 est bilinéaire.
(x, y) →
7 x∧y
Si E1 = ... = En = E et F = K, on obtient les formes n-linéaires sur E.
2/ Formes symétriques , antisymétriques , alternées.
Définition. Soit f une forme n-linéaire sur E.
1) f est symétrique ⇔ ∀(x1 , ..., xn ) ∈ En , ∀σ ∈ Sn , f(xσ(1) , ..., xσ(n) ) = f(x1 , ..., xn ).
2) f est antisymétrique ⇔ ∀(x1 , ..., xn ) ∈ En , ∀σ ∈ Sn , f(xσ(1) , ..., xσ(n) ) = ε(σ)f(x1 , ..., xn ).
3) f est alternée ⇔ ∀(x1 , ..., xn ) ∈ En , [(∃(i, j) ∈ J1, nK2 / i 6= j et xi = xj ) ⇒ f(x1 , ..., xn ) = 0].
Théorème. f est antisymétrique ⇔ ∀(x1 , ..., xn ) ∈ En , ∀τ transposition de J1, nK, f(xτ(1) , ..., xτ(n) ) = −f(x1 , ..., xn ).
Démonstration. Soit σ ∈ Sn , on écrit σ = τ1 ◦ ... ◦ τk où les τi sont des transpositions et on sait que ε(σ) = (−1)k .
Théorème. Soient E un K-espace vectoriel (K sous-corps de C) puis f une forme n-linéaire sur E.
f alternée ⇔ f antisymétrique.
Démonstration.
⇒ / Soit (x1 , ..., xn ) ∈ En . Soient i 6= j puis τ = τi,j .
Donc pour tout (x1 , ..., xn ) ∈ En , pour toute transposition τ, f(xτ(1) , ..., xτ(n) ) = −f(x1 , ..., xn ) et f est antisymétrique.
⇐ / Soit (x1 , ..., xn ) ∈ En tel qu’il existe i 6= j tel que xi = xj = x.
L’égalité f(x1 , ..., xi , ..., xj , ...xn ) = −f(x1 , ..., xj , ..., xi , ...xn ) s’écrit encore f(x1 , ..., x, ..., x, ...xn ) = −f(x1 , ..., x, ..., x, ...xn )
ou encore 2f(x1 , ..., x, .., x, ...xn ) = 0 ou enfin f(x1 , ..., x, .., x, ...xn ) = 0.
X X
ϕ(x1 , ..., xi , ..., xj , ..., xn ) = xσ(1),1 ...xσ(n),n − xστ(1),1 ...xστ(n),n
σ∈An σ∈An
X X
= xσ(1),1 ...xσ(i),i . . . xσ(j),j . . . xσ(n),n − xσ(1),1 ...xσ(j),i . . . xσ(i),j . . . xσ(n),n
σ∈An σ∈An
X X
= xσ(1),1 ...xσ(i),i . . . xσ(j),j . . . xσ(n),n − xσ(1),1 ...xσ(j),j . . . xσ(i),i . . . xσ(n),n (car xi = xj )
σ∈An σ∈An
= 0.
Finalement, Λ∗n (E) = Vect(ϕ) avec ϕ 6= 0 et Λ∗n (E) est un K-espace vectoriel de dimension 1.
On a vu que ϕ(B) = 1 et que si f ∈ Λ∗n (E), f = f(B)ϕ. Par suite, f(B) = 1 ⇔ f = ϕ.
2) Propriétés.
Théorème.
1) detB (B) = 1.
2) detB ′ = detB ′ (B)detB .
3) detB (B ′ ) × detB ′ (B) = 1.
4) detB (B ′ ) × detB ′ (B ′′ ) = detB (B ′′ ).
Démonstration. On applique : ∀f ∈ Λ∗n (E), f = f(B)detB .
3) Applications.
a) Théorème. Soit B une base de E de dimension finie n > 1 et B ′ une famille de n vecteurs de E. B ′ est une base
de E si et seulement si detB (B ′ ) 6= 0.
Démonstration. Si B ′ est une base, detB (B ′ ) × detB ′ (B) = 1 et en particulier detB (B ′ ) 6= 0.
Si B ′ n’est pas une base, puisque card(B) = n, B ′ est liée. Par suite, l’un des vecteurs de B ′ est combinaison linéaire
des autres vecteurs de B ′ . Par n linéarité de detB et puisque detB est alternée, on a bien detB (B ′ ) = 0.
b) Orientation.
Soient B et B ′ deux bases de E 6= {0}. On définit la relation : « B ′ a même orientation que B ⇔ detB (B ′ ) > 0 ».
La relation précédente est une relation d’équivalence à deux classes. On appelle arbitrairement l’une des deux classes,
classe des bases directes et l’autre, classe des bases indirectes. L’espace E est alors orienté.
X X
det(t A) = ε(σ)a1,σ(1) ...an,σ(n) = ε(σ)aσ−1 (1),1 . . . aσ−1 (n),n
σ∈Sn σ∈Sn
X X
= ε(σ−1 )aσ−1 (1),1 . . . aσ−1 (n),n = ε(σ ′ )aσ ′ (1),1 . . . aσ ′ (n),n
σ∈Sn σ ′ ∈Sn
= det(A)
car l’application σ 7→ σ−1 est une permutation de Sn (puisque application involutive de Sn dans lui-même).
IV - Calculs de déterminants
1) Transposition. detA = det(t A) et donc toutes les règles portant sur les colonnes sont encore valables sur les
lignes.
2) Matrices triangulaires. Le déterminant d’une matrice triangulaire est égal au produit de ses coefficients diago-
naux. En particulier, le déterminant d’une matrice diagonale est le produit de ses coefficients diagonaux.
3) Opérations élémentaires.
a) ∀σ ∈ Sn , det(Cσ(1) , ..., Cσ(n) ) = ε(σ)det(C1 , ..., Cn ). Quand on permute des colonnes, le déterminant est multiplié
par la signature de la permutation. (et de même pour les lignes)
b) Si on ajoute à une colonne une combinaison linéaire des autres colonnes, le déterminant garde la même valeur. (et
de même pour les lignes)
c) det est n-linéaire et donc det(C1 , ..., Ci + Ci′ , ..., Cn ) = det(C1 , ..., Ci , ..., Cn ) + det(C1 , ..., Ci′ , ..., Cn ) et
det(C1 , ..., λCi , ..., Cn ) = λdet(C1 , ..., Cn ).
Danger. det(A + B) 6= detA + detB en général et det(λA) = det(λC1 , ..., λCi , ..., λCn ) = λn det(C1 , ..., Cn ) = λn detA.
4) Calculs par blocs.
A1 × ... ×
. ..
. . . ..
0 .
Théorème. Si les Ai sont des matrices carrées, det ..
= det (A1 ) × det (A2 ) × ... × det (Ap ).
.. ..
. . . ×
0 . . . 0 Ap
5) Développement suivant une ligne ou une colonne.
Théorème. Soient mi,j le mineur de ai,j et Ai,j = (−1)i+j mi,j = cofacteur de ai,j . Alors, ∀(i, j) ∈ J1, nK2 ,
n
X
det(A) = ai,k Ai,k (développement suivant la ligne i)
k=1
Xn
= ak,j Ak,j (développement suivant la colonne j)
k=1
Démonstration. Il suffit de démontrer la formule de développement suivant une colonne car detA = det(t A).