You are on page 1of 69

M205 : ALGÈBRE BILINÉAIRE

Notes de cours de Clément BOULONNE
<clembou@gmail.com>
Université des Sciences et Technologies de Lille
U.F.R. de Mathématiques Pures et Appliquées
L2 Mathématiques
ii
Table des matières
Chapitre I Rappels 1
I.1 Théorème de la base incomplète . . . . . . . . . . . . . . . . . . . . . . 1
I.2 Sous-espace vectoriel engendrée par une partie . . . . . . . . . . . . . . 1
I.3 Quotient d’espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . 2
Chapitre II Dualité 5
II.1 Ensemble des applications linéaires . . . . . . . . . . . . . . . . . . . . . 5
II.2 Espace dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
II.3 Transposée d’une applicaion linéaire . . . . . . . . . . . . . . . . . . . . 6
II.4 Base duale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
II.5 Bidual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
II.6 Relations d’orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Chapitre III Formes bilinéaires 15
III.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
III.2 Écriture matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
III.3 Formes bilinéaires non dégénérées . . . . . . . . . . . . . . . . . . . . . 19
III.4 Formes bilinéaires symétriques . . . . . . . . . . . . . . . . . . . . . . . 19
III.5 Formes quadratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
III.6 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Chapitre IV Espaces euclidiens 25
IV.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
IV.2 Adjoint d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . 27
IV.3 Automorphismes orthogonaux . . . . . . . . . . . . . . . . . . . . . . . 30
IV.4 Décomposition canonique d’une forme quadratique . . . . . . . . . . . . 31
IV.5 Classification des isométries . . . . . . . . . . . . . . . . . . . . . . . . . 36
Chapitre V Formes hermitiennes 41
V.1 Formes et espaces hermetiens . . . . . . . . . . . . . . . . . . . . . . . . 41
V.2 Automorphismes unitaires . . . . . . . . . . . . . . . . . . . . . . . . . . 51
iii
iv TABLE DES MATIÈRES
Chapitre VI Complexification d’un espace euclidien 53
VI.1 Complexifié d’un espace vectoriel réel . . . . . . . . . . . . . . . . . . . 53
VI.2 Complefixiée d’une forme bilinéaire symétrique . . . . . . . . . . . . . . 57
VI.3 Complexifié d’un espace euclidien . . . . . . . . . . . . . . . . . . . . . . 57
VI.4 Orientation d’un espace vectoriel réel et angle de rotation . . . . . . . . 60
CHAPITRE I
RAPPELS
La première étape de ce cours sera de démontrer le théorème suivant :
Théorème I.1. Soit K un corps, A ∈ M
n,m
(K). On note la transposée de A, A
T
(si
(1)
K = R). Alors rg A = rg A
T
.
Mais avant de commencer à travailler, on n’échappe pas à quelques rappels d’algèbre
linéaire.
I.1 Théorème de la base incomplète
Théorème I.2 (Théorème de la base incomplète). Soient I, J ⊂ N deux ensembles d’in-
dices, (e
i
)
i∈I
un système libre de vecteurs d’un espace vectoriel V et (f
j
)
j∈J
un système
générateur de V alors il existe J

⊂ J tel que le système (e
i
)
i∈I
∪ (f
k
)
k∈J
soit une base de
V.
Exemple I.3. Soit V = R
3
. On se fixe e
1
= (1, 1, 1), f
1
= (1, 0, 0), f
2
= (0, 0, 1), f
3
=
(0, 0, 1) et f
4
= (1, 2, 3). Une base de V serait (e
1
, f
1
, f
2
) ou encore (e
1
, f
1
, f
4
).
Corollaire I.4. Tout espace vectoriel admet une base. On prend, dans le théorème I.2,
C = ∅.
Théorème I.5. Toutes les bases d’un espace vectoriel V ont le même cardinal.
I.2 Sous-espace vectoriel engendrée par une partie
Soit V un espace vectoriel sur le corps K et S ⊂ V.
Proposition I.6. Une intersection de sous-espaces vectoriels est un sous-espace vectoriel.
Proposition I.7. Il existe un plus petit sous-espace V contenant S qu’on note 'S` (ou
Vect(S)). Ce sous-espace admet les descriptions suivantes :
(1)
On verra, par la suite, comment on nomme la transposée d’une matrice quand K = C
1
2 CHAPITRE I. RAPPELS
(i) 'S` =
¸
W sous-espace
vectoriel, S⊂W
W,
(ii) 'S` =

¸
i∈I finie
λ
i
v
i
, λ
i
∈ K, v
i
∈ S

.
I.3 Quotient d’espaces vectoriels
Soient V un K-espace vectoriel et W ⊂ V un sous-espace vectoriel.
Théorème I.8. L’ensemble V/W est muni d’une structure de K-espace vectoriel tel le que
la surjection canonique s : V → V/W est linéaire et vérifie pour tout K-espace vectoriel V

et toute application linéaire fV → V

, s’il existe
˜
f : V/W → V

linéaire tel que
˜
f ◦ s = f
alors W ⊂ Ker f.
V
f

s

D
D
D
D
D
D
D
D
V

V/W
˜
f

De plus,
1.
˜
f est surjective ⇒ f est surjective,
2.
˜
f est injective ⇒ Ker f = W.
On peut ainsi définir une relation d’équivalence sur V.
Définition I.9. Soit v, v

∈ V. On dit que v est équivalent à v

si et seulement si v

−v ∈ W,
c’est-à-dire :
v, v

∈ V, v ∼ v

⇐⇒ v

−v ∈ W.
On montre que la relation d’équivalence de la définition I.9 en est bien une :
Démonstration. (i) ∼ est reflexive : ∀v, v ∼ v,
(ii) ∼ est symétrique : v ∼ v

⇒ v

∼ v,
(iii) ∼ est transitive : v ∼ v

et v

∼ v

⇒ v ∼ v

. Cela veut dire :
v

−v ∈ W et v

−v

∈ W =⇒ v

−v

. .. .
0
+v

−v ∈ W.
V admet une partition en classes d’équivalence, c’est-à-dire que l’ensemble des classes
d’équivalence constitue une partition de V (tout élément de V appartient à un et à un seul
des éléments d’une partie de V). On définit :
cl(V) = ¦v

∈ V, v

= v¦ = ¦v

∈ V, v

−v ∈ W¦ = v + W.
I.3. QUOTIENT D’ESPACES VECTORIELS 3
Fig. I.1 – Interprétation géométrique de l’ensemble v + W
Ainsi, V/W est l’ensemble des classes d’équivalence.
Soit l’application
s : V → V/W
v → cl(v) = v + W
.
On va maintenant définir la somme et le produit scalaire d’éléments de V/W.
Définition I.10 (Somme et produit scalaire d’éléments de V/W). On définit l’addition
d’éléments de V/W :
(v + W) + (v

+ W) = (v + v

) + W
et le produit scalaire d’éléments de V/W :
λ ∈ K, λ(v + W) = (λv) + W.
On vérifie que cela ne dépend pas des représentants choisis.
Démonstration. On a :
s(v + v

) = s(v) + s(v

)
et
s(λv) = λs(v).
Supposons qu’il existe
˜
f : V/W → V linéaire et tel que
˜
f ◦ s = f.
V
f

s

D
D
D
D
D
D
D
D
V

V/W
˜
f

v ∈ W, f(v) =
˜
f(s(v)) =
˜
f(0
V/W
) = 0
V
=⇒ v ∈ Ker(f).
Réciproquement, si W ⊂ Ker(f) et si v ∼ v

, c’est-à-dire si v − v

∈ alors f(v − v

) =
0
V
⇒ f(v) = f(v

). On définit
˜
f(v + W) =
˜
f(cl(v)) =
˜
f(s(v)). Mais
˜
f(v + W) = f(v)
(cela ne dépend pas du représentant). On peut alors vérifier que
˜
f est linéaire.
v → cl(v) = v + W.
4 CHAPITRE I. RAPPELS
Proposition I.11. Soit W un sous-espace vectoriel de V, et W
1
un supplémentaire dans
V tel que V = W⊕W
1
. Alors la restriction s[
W
1
de la surjection canonique à W
1
(W
1

V/W) est un isomorphisme.
Démonstration. On montre que s[
W
1
est bijective. Soit v ∈ W et soient w ∈ W et w
1
∈ W
1
tel que v = w + w
1
. On a :
s(v) = v + W = w
1
+ v + W = w
1
+ W = s(w
1
).
Donc : s[
W
1
: W
1
→ V/W
1
est surjective et comme
Ker(s[
W
1
) = Ker(s) ∩ W
1
= W∩ W
1
= ¦0
V
¦,
on a s[
W
1
est injective et donc bijective.
CHAPITRE II
DUALITÉ
II.1 Ensemble des applications linéaires
Définition II.1 (Ensemble des applications linéaires). Soient U et V deux K-espaces
vectoriels. On note L(U, V), l’ensemble des applications linéaires de U dans V. On sait
alors que L(U, V) a une structure de K-espace vectoriel.
1. ∀f, g ∈ L(U, V), (f + g)(u) = f(u) + g(u),
2. ∀f ∈ L(U, V), ∀λ ∈ K, (λf)(u) = λf(u).
Remarque II.2. On peut donner une interprétation matricielle à la II.1. Soit (e
j
)
j∈J
une
base de U et (f
i
)
i∈I
une base de V. Alors :
f(e
j
) =
¸
i∈I
a
ij
f
i
.
Soit la matrice représentant f dans les bases choisies :
A = (a
ij
)
i∈I, j∈J
,
où i est l’indice de ligne et j, l’indice de colonne. Maintenant, si on considère B = (b
ij
)
i∈I,j∈J
alors A + B = C = (c
ij
)
i∈I,j∈J
avec :
c
ij
= a
ij
+ b
ij
,
et pour λ ∈ K :
λA = (λa
ij
)
i∈I,j∈J
.
On a aussi mat(f + g) = mat(f) + mat(g) et mat(λf) = λmat(f).
II.2 Espace dual
Proposition II.3. On suppose que dimU = n et dimV = n tel que n + m < +∞. Alors
L(U, V,) est isomorphe au K-espace vectoriel M
m,n
(K) des matrices à coefficients dans
K à m lignes et n colonnes.
5
6 CHAPITRE II. DUALITÉ
Soit
φ : L(U, V) → M
m,n
(K)
f → A(f)
avec A(f) la matrice représentant f dans les bases choisies. D’après la proposition II.3, φ
est un isomorphisme.
Corollaire II.4. On a dim
K
(U, V) = mn.
Remarque II.5. On va prendre un cas particulier du corollaire II.4. Soit V = K et
dimK = 1 alors
dim
K
L(U, K) = dimU.
Ainsi, on a la caractérisation d’un nouvel espace qui va nous servir tout au long de ce
cours.
Définition II.6 (Espace dual). L’ espace dual de U noté U

est L(U, K) = U

. Cet espace
est de dimension dimU

= dimU.
II.3 Transposée d’une applicaion linéaire
Définition II.7. Soit f : U → V une application lin »aire, on associe à f une application
linéaire f

: V

→ U

, appelée transposée de f, définie par :
∀ϕ ∈ V

, f

(ϕ) = ϕ ◦ f.
La définition II.7 se résume en le diagramme suivant :
U
f

ϕ◦f∈U

V
ϕ
.·~
~
~
~
~
~
~
K
Proposition II.8. (i) Soient U, V, W des espaces de dimensions finies et soient f : U →
V et g : V → W des applications linéaires. Alors :
(g ◦ f)

= f

◦ g

,
(ii) L’application
φ : L(U, V) → L(V

, U

)
f → f

est un isomorphisme de K-espaces vectoriels.
Avant de démontrer cette proposition, on a besoin d’un lemme :
Lemme II.9. Soit V un K-espace vectoriel et v ∈ V. Si ∀ϕ ∈ V

, ϕ(v) = 0 alors v = 0
V
.
II.3. TRANSPOSÉE D’UNE APPLICAION LINÉAIRE 7
Démonstration du lemme II.9. On montre la contraposée du lemme II.9. C’est-à-dire si
∀v ∈ V, v = 0 alors il existe ϕ ∈ V

tel que ϕ(v) = 0. Si v = 0 alors Vect(v) est libre.
D’après le théorème de la base incomplète, il existe une base (e
1
, . . . , e
n
) avec e
1
= v tel
que tout vecteur w de V s’écrit :
w = λ
1
e
1
+ λ
2
e
2
+ + λ
n
e
n
.
On a alors que :
ϕ : V → K
w → λ
1
est une forme linéaire. Ainsi ϕ(w) = ϕ(e
1
) = 1. Pour finir la démonstration, on remarque
que v = e
1
et donc ϕ(e
1
) = 1 = ϕ(v).
Démonstration de la proposition II.8. (i) On a le diagramme suivant :
U
f

(g◦f)(ψ)=ψ◦(g◦f)=(ψ◦g)◦f=f

(g

(ψ))
V
g

ψ◦g=g

(ψ)

2
2
2
2
2
2
2
2
2
2
2
2
2
W
ψ∈W

K
(ii) Soient f
1
, f
2
∈ L(U, V,), on montre alors que (f
1
+ f
2
)(u) = f
1
(u) + f
2
(u) et
(λf
1
)(u) = λf
1
(u). Soit ϕ ∈ V

, on a :
(f
1
+ f
2
)

(ϕ) = ϕ ◦ (f
1
+ f
2
) = ϕ ◦ f
1
+ ϕ ◦ f
2
= f

1
(ϕ) + f

2
(ϕ).
U

V

ϕ

K
On peut aussi montrer de la même manière que (λf)

= λf

. Donc : f → f

est
linéaire. Or dimU = dimU

= n et dimV = dimV

= m. Donc :
dimL(U, V) = mn = dimL(V

, U

).
Il suffit de montrer que f → f

est injective, autrement dit, il faut vérifier que f

=
0 ⇒ f = 0. Supposons alors que f

= 0, pour tout ϕ ∈ V

, on a : f

(ϕ) = ϕ◦ f = 0.
Ainsi
∀ϕ ∈ V

, ∀u ∈ U, ϕ(f(u)) = 0. (II.1)
D’après le lemme II.9, l’égalité (II.1) que pour tout u ∈ U, f(u) = 0. Donc f = 0, ce
qui achève la preuve.
8 CHAPITRE II. DUALITÉ
II.4 Base duale
Soient V un espace vectoriel et n = dim
K
(V) < +∞. On a alors
dim
K
(V

) = dim
K
(V) = n
.
Définition II.10. Soit (e
1
, . . . , e
n
) une base de V. On définit e

i
∈ V de la façon suivante :
e

i
(e
j
) = δ
ij
=

0 si i = j
1 si i = j
où δ
ij
représente le symbole de Kronecker. Ainsi, (e

1
, . . . , e

n
) forme une base de V

et est
appelé la base duale de la base (e
1
, . . . , e
n
).
Démonstration. On démontrer que (e

1
, . . . , e

n
) est une base de V

. Pour cela, il suffit de
montrer que (e

1
, . . . , e

n
) est un système libre. On considère donc l’égalité :
λ
1
e

1
+ λ
2
e

2
+ + λ
n
e

n
= 0,
où les λ
j
∈ K. Alors pour tout v ∈ V :
0 = (λ
1
e

1
+ λ
2
e

2
+ + λ
n
e

n
)(v)
= λ
1
e

1
(v) + λ
2
e

2
(v) + + λ
n
e

n
(v)
En particulier, si v = e
j
alors
n
¸
i=1
λ
i
e

i
= 0 = λ
i
e

i
(e
i
) = λ
i
= 0.
On a montré alors que si
λ
1
e

1
+ λ
2
e

2
+ + λ
n
e

n
= 0
V

alors pour tout i, λ
i
= 0.
Proposition II.11. Soient U et V deux K-espaces vectoriels avec m = dim
K
U et n =
dim
K
V, E = (e
1
, . . . , e
m
) une base de U et F = (f
1
, . . . , f
n
) une base de V. Soient
f : U → V une application linéaire et A la matrice de f dans les bases E et F :
1 ≤ j ≤ m, f(e
j
) =
n
¸
i=1
a
ij
f
i
.
A est alors une matrice à n lignes et m colonnes et a
ij
correspond à l’élément de la i
e
ligne
et de la j
e
colonne.
U
f

f

(ϕ)=ϕ◦f

C
C
C
C
C
C
C
C
V
ϕ

K
U

V

f

II.5. BIDUAL 9
Soit E

= (e

1
, . . . , e

m
) et F

= (f

1
, . . . , f

n
) alors la matrice de f

dans les bases F

et
E

est la transposée de f dans les bases E et F.
Démonstration. On a l’identité suivante :
f

(f

) = f

◦ f =
n
¸
k=1
b
k
e

k
.
On cherche alors les b
k
. Comme f

∈ V

, on a f

(f
j
) ∈ U

. Donc :
f

(f

)(e
k
) = f

(f(e
k
)) =
n
¸
i=1
f

(a
ij
f
i
) = a
k
f

(f

) = a
k
.
Mais aussi :
f

(f

)(e
k
) =

¸
n
¸
p=1
b
p
e

p
¸

(e
k
) =
n
¸
p=1
b
p
e

p
(e
k
) = b
k
e

k
(e
k
) = b
k
.
On a alors : b
k
= a
k
.
II.5 Bidual
Définition II.12. Soit V un K-espace vectoriel. Le bidual de V est défini comme V
∗∗
=
(V

)

(le dual du dual).
Remarque II.13. On définit pour tout v ∈ V, un élément de v
∗∗
de V
∗∗
de la façon
suivante :
∀ϕ ∈ V

, v
∗∗
(ϕ) = ϕ(v).
On a alors que v
∗∗
est une forme linéaire sur V

,
1. ∀ϕ
1
, ϕ
2
∈ V

, v
∗∗

1
+ ϕ
2
) = v
∗∗

1
) + v
∗∗

2
),
2. ∀λ ∈ K, ∀ϕ ∈ V

, v
∗∗
(λϕ) = λv
∗∗
(ϕ).
De plus, l’application
V → V
∗∗
v → v
∗∗
est linéaire.
Proposition II.14. L’application
V → V
∗∗
v → v
∗∗
est injective.
10 CHAPITRE II. DUALITÉ
Démonstration. On va montrer que le noyau de cette application linéaire est réduit au
vecteur nul. Soit v ∈ V tel que v
∗∗
= 0 et que pour tout ϕ ∈ V

, v
∗∗
(ϕ) = ϕ(v) = 0. v
vérifie alors pour tout ϕ ∈ V

:
ϕ(v) = 0 ⇒ v = 0
, d’après le lemme II.9.
Corollaire II.15. Si dimV < +∞ alors l’application
V → V
∗∗
v → v
∗∗
est un isomorphisme d’espaces vectoriels.
Démonstration. On sait que dimV

= dimV et dimV
∗∗
= dim(V

)

= dimV

alors
dimV = dimV

= dimV
∗∗
et d’après la proposition II.14, v → v
∗∗
est lin »aire et injective.
Cela implique donc que l’application v → v
∗∗
est un isomorphisme.
Remarque II.16. Soient V un espace vectoriel de dimension n et E = (e
1
, . . . , e
n
) est une
base de V. E

= (e

1
, . . . , e

n
) une base de V

et (E

)

= ((e

1
)

, . . . , (e

n
)

) la base duale de
E

. On peut montrer alors que :
∀i, (e

i
)

= e

i

II.6 Relations d’orthogonalité
Soient V un espace vectoriel et V

son dual. Soient v ∈ V et ϕ ∈ V

. On note 'v, ϕ` =
ϕ(v).
Proposition II.17. ', ` a les propriétés suivantes :
(i) 'v
1
+ v
2
, ϕ` = 'v
1
, ϕ` +'v
2
, ϕ`,
(ii) 'λv, ϕ` = λ'v, ϕ`,
(iii) 'v, ϕ
1
+ ϕ
2
` = 'v, ϕ
1
` +'v, ϕ
2
`,
(iv) 'v, λϕ` = λ'v, ϕ`.
Définitions II.18. 1. Soit U ⊂ V un espace vectoriel. L’ orthogonal de U, noté U

,
est :
U

= ¦ϕ ∈ V

, ∀v ∈ U, 'v, ϕ` = 0¦ = ¦ϕ ∈ V

, ∀v ∈ U, ϕ(v) = 0¦ ⊂ U

.
2. Soit U

⊂ V un sous-espace du dual. L’ orthogonal de U

:
U


= ¦v ∈ V, ∀ϕ ∈ U

, 'v, ϕ` = 0¦ = ¦v ∈ V, ∀ϕ ∈ U

, ϕ(v) = 0¦ =
¸
ϕ∈U

Ker(f).
Théorème II.19. Soit U ⊂ V et U

⊂ V

des sous-espaces. Alors :
(i) (U

)

= U,
(ii) (U

)

= U

.
Proposition II.20. Soit U ⊂ V un sous-espace vectoriel de V. Alors U

et V

/U

sont
isomorphes
(1)
.
(1)
C’est-à-dire qu’il existe un isomorphisme de U

dans V

/U

.
II.6. RELATIONS D’ORTHOGONALITÉ 11
Démonstration de la proposition II.20. Une application de restriction naturelle :
r : V

→ U

ϕ → ϕ[
U
est une application linéaire.
U
ϕ|
U
@
@
@
@
@
@
@
V
ϕ

K
où U ⊂ V
On a alors :
1. ϕ
1
+ ϕ
2
[
U
= ϕ
1
[
U
+ ϕ
2
[
U
,
2. (λϕ
1
)[
U
= λ[
ϕ
1
U.
De plus, Ker(r) ⊂ V avec Ker(r) = ¦ϕ ∈ V

, ϕ[
U
= 0¦.
V

r

s

U

V

/ Ker(r) = V

/U

A
Ù
˜ r

m
m
m
m
m
m
m
m
m
m
m
m
m
où s est une application linéaire surjective et ˜ r une application linéaire injective. De plus,
r est surjective. Si ψ ∈ U

, soit U

un supplémentaire de U dans V, alors V = U ⊕U

. On
définit ϕ : V → K avec ϕ[
U
= ψ et ϕ[
U

= 0. On sait que ϕ existe et est unique. On a alors
r(ϕ) = ψ et donc r est surjective.
En conclusion, ˜ r est bijective et donc ˜ r est un isomorphisme.
Corollaire II.21. Soit V un espace vectoriel de dimension finie et U ⊂ V un sous-espace
alors dimU + dimU

= dimV.
Démonstration. On a démontré que dimU = dimU

. Or, d’après la proposition II.20, on
a U

= V

/U

. Donc :
dimU

= dim(V

/U

) = dimV

−dimU

= dimV −dimU

= dimU.
Démonstration du théorème II.19. On a U ⊂ (U

)

car pour tout u ∈ U et pour tout
ϕ ∈ U

, on a ϕ(u) = 0. Or,
dimU

+ dim(U

)

= dimV, (II.2)
et
dimU + dimU

= dimV

. (II.3)
Si on fait (II.2) −(II.3), on trouve :
dimU

−dimU

+ dim(U

)

−dimU = 0.
Donc : dimU = dim(U

)

, d’où U = (U

)

.
12 CHAPITRE II. DUALITÉ
Remarque II.22. Concretement :
(i) Soit u
1
, . . . , u
k
∈ V et u ∈ Vect(u
1
, . . . , u
k
) si et seulement ∀ϕ ∈ V

,
ϕ(u
1
) = ϕ(u
2
) = = ϕ(u
k
) = 0 =⇒ ϕ(u) = 0.
(ii) Soit ϕ
1
, . . . , ϕ
k
∈ V

, on a alors ϕ ∈ Vect(ϕ
1
, . . . , ϕ
k
) si et seulement si
¸
1≤i≤k
Ker ϕ
i
⊂ Ker ϕ.
Démonstration. On montre que la remarque II.22 est une traduction du théorème II.19.
(i) Soient U = Vect(u
1
, . . . , u
k
) et u ∈ V. Alors u ∈ U ⇒ u ∈ (U

)

.
U

= ¦ϕ ∈ V

, ∀j, 1 ≤ j ≤ k, ϕ(u
j
) = 0¦.
(ii) Soit U

= Vect(ϕ
1
, . . . , ϕ
k
) ⊂ V

, alors :
U


=
¸
1≤i≤k
Ker ϕ
i
.
Théorème II.23. Soient U et V deux K-espaces vectoriels tel que dimU < +∞et dimV <
+∞. Soit f : U → V et f

: V

→ U

deux applications linéaires, l’une transposée de
l’autre. Alors rg(f) = rg(f

).
Démonstration. On a :
Ker(f

) = ¦ϕ ∈ V

, f

(ϕ) = 0¦ = ¦ϕ ∈ V

, ϕ ◦ f = 0¦
= ¦ϕ ∈ V

, ∀u ∈ U, ϕ(f(u)) = 0¦ = Im(f)

.
De plus, dimImf

+ dimKer f

= dimV

. On a alors
dimImf

+ dim(Imf)

= dimV

=⇒ dimV = dimImf + dim(Imf)

=⇒ dimV

= dimImf

+ dim(Imf)

.
On en déduit que :
dim(Imf) = dim(Imf

).
Corollaire II.24 (Rappel du théorème I.1). Soit A une matrice de dimension m n à
coefficients dans un corps K. Alors rg(A

) = rg(A).
Proposition II.25. Soit U un K-espace vectoriel de dimension finie.
II.6. RELATIONS D’ORTHOGONALITÉ 13
(i) Soient u
1
, . . . , u
d
∈ U et u ∈ U alors on a équivalence entre
∀ϕ ∈ U

, ϕ(u
1
) = = ϕ(u
d
) = 0 ⇒ ϕ(u) = 0 (II.4)
et u = Vect(u
1
, . . . , u
d
).
(ii) Soient ϕ
1
, . . . , ϕ
d
∈ U

et soit ϕ ∈ U

alors :
¸
1≤i≤k
Ker ϕ
i
⊂ Ker ϕ ⇐⇒ ϕ = Vect(ϕ
1
, . . . , ϕ
k
).
Démonstration. (i) Soit W = Vect(u
1
, . . . , u
d
) alors :
ϕ(u
1
) = = ϕ(u
d
) ⇐⇒ ϕ ∈ W

.
Ainsi,
(II.4) ⇐⇒ ∀ϕ ∈ W

, ϕ(u) = 0 ⇐⇒ u ∈ (W

)

⇐⇒ u ∈ W.
(ii) La démonstration est similiaire à (i).
Exemple II.26 (Exemple pour l’assertion (ii) de la proposition II.25). Soit u ∈ R
4
. On
définit :
ϕ
1
(x
1
, x
2
, x
3
, x
4
) = x
1
−x
2
,
ϕ
2
(x
1
, x
2
, x
3
, x
4
) = x
3
−x
4
,
ϕ
3
(x
1
, x
2
, x
3
, x
4
) = x
1
+ x
2
+ x
3
+ x
4
,
et U

⊃ W

= Vect(ϕ
1
, ϕ
2
, ϕ
3
).
a) On cherche à déterminer W


(qui est inclu dans U).
W


= ¦(x
1
, x
2
, x
3
, x
4
) ; (S)¦ .
avec

x
1
−x
2
= 0
x
3
−x
4
= 0
x
1
+ x
2
+ x
3
+ x
4
= 0
(S)
Ainsi,
(x
1
, x
2
, x
3
, x
4
) ∈ W


⇐⇒

x
1
= x
2
x
3
= x
4
x
1
+ x
2
+ x
3
+ x
4
= 0
⇐⇒

x
1
= x
2
x
3
= −x
1
x
4
= −x
1
et donc : W


= Vect(1, 1, −1, −1).
b) Soit ϕ(x
1
, x
2
, x
3
, x
4
) = 2x
1
− 3x
2
+ x
3
− 2x
4
. On cherche à déterminer si ϕ ∈ W

(ou
encore ϕ ∈ (W


)

).
ϕ ∈ (W


)

⇐⇒ ϕ(1, 1, −1, −1) = 0.
c) (ϕ
1
, ϕ
2
, ϕ
3
) est libre. En effet dim(W


) = 1 et dimW

+dimW


= 4 donc dimW

= 3.
14 CHAPITRE II. DUALITÉ
CHAPITRE III
FORMES BILINÉAIRES
III.1 Définitions
Définition III.1. Soient U, V, W trois K-espaces vectoriels et f : U V → W, une
application. On dit que f est bilinéaire si f est linéaire par rapport à la première et à la
seconde variable séparement. C’est-à-dire :
1. ∀u ∈ U, ∀v
1
, v
2
∈ V, ∀λ
1
, λ
2
∈ K,
f(u, λ
1
v
1
+ λ
2
v
2
) = λ
1
f(u, v
1
) + λ
2
f(u, v
2
),
2. ∀v ∈ V, ∀u
1
, u
2
∈ U, ∀λ
1
, λ
2
∈ K,
f(λ
1
u
1
+ λ
2
u
2
, v) = λ
1
f(u
1
, v) + λ
2
f(u
2
, v).
On a, par conséquence,
f(λ
1
u
1

2
u
2
, µ
1
v
1

2
v
2
) = λ
1
µ
1
f(u
1
, v
1
) +λ
1
µ
2
f(u
1
, v
2
) +λ
2
µ
1
f(u
2
, v
1
) +λ
2
µ
2
f(u
2
, v
2
).
Exemples III.2. 1. Soient U = V = W = K et f l’application suivante :
f : KK → K
(u, v) → uv
.
f est une application bilinéaire.
2. Soient U = V = R
2
et W = R. On pose u = (x
1
, x
2
), v = (y
1
, y
2
). L’application
f(u, v) = x
1
y
1
−3x
1
y
2
+ x
2
y
1
+ 4x
2
y
2
est une application bilinéaire.
On note L
2
(U, V; W), l’ensemble des applications bilinéaires de U V vers W.
Remarque III.3. Si U, V et W sont trois K-espaces vectoriels alors L
2
(U, V; W) est un
K-espace vectoriel.
Définition III.4. Si W = K, une application bilinéaire f : U V → Kest appelée une
forme bilinéaire.
15
16 CHAPITRE III. FORMES BILINÉAIRES
Soit f ∈ L
2
(U, V; K). On définit les applications
f
(1)
: U → V

u → f
(1)
(u)
et
f
(2)
: V → U

v → f
(2)
,
tels que f
(1)
(u)(v) = f(u, v) et f
(2)
(v)(u) = f(u, v).
Proposition III.5. (i) Les applications f
(1)
et f
(2)
sont linéaires.
(ii) Inversement, si g : U → V

est une application linéaire, l’application F : UV →K
définie par F(u, v) = g(u)(v) est bilinéaire. De même avec une application linéaire
h : V → U

.
Démonstration. (i) On veut montrer que f
(1)
est linéaire. On a pour tout v ∈ V,
f
(1)
(u
1
+ u
2
)(v) = f(u
1
+ u
2
, v) = f(u
1
+ v) + f(u
2
, v) = f
(1)
(u
1
)(v).
Donc : f
(1)
(u
1
+ u
2
) = f
(1)
(u
1
) + f
(1)
(u
2
). Soit λ ∈ K, on veut montrer ensuite que
f
(1)
(λu) = λf
(1)
(u). Pour tout v ∈ V,
f
(1)
(λu)(v) = f(λu, v) = λf(u, v) = λf
(1)
(u)(v).
Donc : f
(1)
(λu) = λf
(1)
(u) et on a montré ainsi que f
(1)
est linéaire. On fait la même
démonstration pour montrer que f
(2)
est une application linéaire.
(ii) Soient g : U → V

une application linéaire et F : U → V →K une application telle
que F(u, v) = g(u)(v). On montre que F est une application bilinéaire. On a, pour
u ∈ U :
F(u, λ
1
v
1
+ λ
2
v
2
) = g(u)(λ
1
v
1
+ λ
2
v
2
) = λ
1
g(u)(v
1
) = λ
2
g(u)(v
2
)
= λ
1
F(u)(v
1
) + λ
2
F(u, v
2
),
et pour v ∈ V,
F(λ
1
u
1
+ λ
2
u
2
, v) = g(λ
1
u
1
+ λ
2
u
2
)(v)
= λ
1
g(u
1
)(v) + λ
2
g(u
2
)(v) = λ
1
F(u
1
, v) + λ
2
F(u
2
, v).
Exemple III.6. Soient U = V = R
2
, u = (x
1
, x
2
) et v = (y
1
, y
2
). Soit l’application
bilinéaire
f(u, v) = x
1
y
1
+ x
2
y
1
+ x
1
y
2
+ 2x
2
y
2
,
alors l’application f
(1)
(u) = ¦(y
1
, y
2
) → y
1
(x
1
−x
2
) + y
2
(x
1
+ 2x
2
)¦.
Remarque III.7 (Cas particulier). Si dimU = m et dimV = n alors L
2
(U, V; W) ·
L(U, V

). Ainsi, comme dimV

= dimV = n et dimL(U, V

) = mn, on a :
dimL
2
(U, V; K) = mn.
III.2. ÉCRITURE MATRICIELLE 17
III.2 Écriture matricielle
Soient U et V deux K-espaces vectoriels tels que dimU = m et dimV = n. On considère
(e
1
, . . . , e
m
) base de U et (f
1
, . . . , f
n
) une base de V.
Définition III.8. La matrice de f ∈ L
2
(U, V; K) par rapport à ces bases est, par défini-
tion, la matrice :
A = (f(e
i
, f
j
))
1≤i≤m,1≤j≤n
,
où i est l’indice de ligne et j est l’indice de colonne.
Proposition III.9. Soient f ∈ L
2
(U, V; K), f
(1)
∈ L(U, V

) et f
(2)
∈ L(V, U

).
Si (f

1
, . . . , f

n
) est la base duale de (f
1
, . . . , f
n
), la matrice de f
(1)
dans (e
1
, . . . , e
m
) et
(f

1
, . . . , f

n
) est :
f
(1)
(e
j
) =
n
¸
i=1
b
ij
f

i
,
f
(1)
(e
j
)(f
i
) = b
ij
= f(e
j
, e
i
).
On a montré que la matrice de f
(1)
dans les bases (e
1
, . . . , e
m
) et (f

1
, . . . , f

m
) est la transpo-
sée de la matrice de f dans les bases (e
1
, . . . , e
m
) et (f
1
, . . . , f
n
) et la matrice de f
(2)
, dans
les bases (f
1
, . . . , f
n
) et (e

1
, . . . , e

m
) est égale à la matrice de f dans les bases (e
1
, . . . , e
m
)
et (f
1
, . . . , f
n
).
Proposition III.10. Soit u = x
1
e
1
+ +x
m
e
m
et v = y
1
f
1
+ +y
n
f
n
. On définit alors
les vecteurs :
X =

¸
¸
¸
¸
¸
x
1
x
2
.
.
.
x
m
¸

, Y =

¸
¸
¸
¸
¸
y
1
y
2
.
.
.
y
n
¸

.
On a ainsi f(u, v) = X
T
AY avec A matrice de f.
Exemple III.11. Soient U = R
2
et V = R
3
, u = (x
1
, x
2
) et v = (y
1
, y
2
, y
3
). Soient (e
1
, e
2
)
la base canonique de R
2
et (f
1
, f
2
, f
3
) la base canonique de R
3
. On définit :

f(e
1
, f
1
) f(e
1
, f
2
) f(e
1
, f
3
)
f(e
2
, f
1
) f(e
2
, f
2
) f(e
2
, f
3
)

=

1 0 0
0 −1 2

.
On a ainsi :
f(u, v) =

x
1
x
2

1 0 0
0 −1 2

¸
¸
y
1
y
2
y
3
¸

.
18 CHAPITRE III. FORMES BILINÉAIRES
Démonstration de la proposition III.10. On a :
f(x
1
e
1
+ + x
m
e
m
, y
1
f
1
+ + y
n
f
n
) =
m
¸
i=1
n
¸
j=1
x
i
y
j
f(e
i
, f
j
)
=
m
¸
i=1
x
i

¸
n
¸
j=1
f(e
i
, f
j
)y
j
¸

= X
T
AY.
Proposition III.12 (Changement de bases). Soient (e
1
, . . . , e
m
) et (e

1
, . . . , e
m
) des bases
de U, (f
1
, . . . , f
n
) et (f

1
, . . . , f

n
) des bases de V. On considère P (resp. Q) matrice de
changement de base pour U (resp. pour V). Soient u = x
1
e
1
+ +x
m
e
m
= x

1
e

1
+ +x

m
e

m
et v = y
1
f
1
+ + y
n
f
n
= y

1
f

1
+ + y

n
f

n
avec :
X =

¸
¸
¸
x
1
.
.
.
x
m
¸

, X

=

¸
¸
¸
x

1
.
.
.
x

m
¸

et Y =

¸
¸
¸
y
1
.
.
.
y

n
¸

, Y

=

¸
¸
¸
y

1
.
.
.
y

n
¸

.
On a ainsi X = PX

, Y

= QY

et
f(u, v) = X
T
AY = X

T
(P
T
AQ)Y

= X

T
AY

,
avec A matrice de f dans (e
1
, . . . , e
m
) et (f
1
, . . . , f
n
) et A

matrice de f dans (e

1
, . . . , e

m
)
et (f

1
, . . . , f

n
) tel que A

= P
T
AQ.
Corollaire III.13. On a les égalités suivantes :
rg f
(1)
= rg f
(2)
= rg(A).
Démonstration. On a vu que la matrice de f
(2)
= A et la matrice de f
(1)
= A
T
. Donc :
rg(f
(1)
) = rg(A
T
) = rg(A) = rg(f
(2)
).
Définition III.14. Soit f ∈ L
2
(U, V; K). On appel le noyau à gauche de f, Ker f
(1)
⊂ U
et noyau à droite de f, Ker f
(2)
⊂ V.
Si f
(1)
: U → V

et f
(2)
: V → U

, on a alors les propriétés suivantes :
dim(U) = dimKer f
(1)
+ rg(f),
dim(V) = dimKer f
(2)
= rg(f).
Et ainsi :
dim(U) −dimKer(f
(1)
) = dimV −dimKer f
(2)
.
Remarque III.15 (Cas particulier). Si dimU = dimV alors dimKer f
(1)
= dimKer f
(2)
.
III.3. FORMES BILINÉAIRES NON DÉGÉNÉRÉES 19
III.3 Formes bilinéaires non dégénérées
Soient U et V deux K-espaces vectoriels de dimensions finies.
Définition III.16. On dit que la forme bilinéaire f : U V → K est non dégénérée
si Ker f
(1)
= ¦0¦ (ce qui équivaut à Ker f
(2)
= ¦0¦). Autrement dit f
(1)
: U → V

et
f
(2)
: V → U

sont des isomorphismes.
III.4 Formes bilinéaires symétriques
Soit U un K-espace vectoriel.
Définition III.17. On dit que l’application bilinéaire f : U U → K est symétrique si
pour tout u, v ∈ U, f(u, v) = f(v, u).
Définition III.18. On dit que l’application bilinéaire f : UU →K est anti-symétrique
si pour tout u, v ∈ U, f(u, v) = −f(v, u).
Proposition III.19. Soient dimU = m < +∞ et soit A la matrice de la forme bilinéaire
dans une base de U.
(i) f est symétrique si et seulement si A
T
= A,
(ii) f est anti-symétrique si et seulement si A
T
= −A.
Démonstration. Soit A = (a
ij
) tel que a
ij
= f(e
i
, e
j
).
(i) Si f est symétrique alors f(e
i
, e
j
) = f(e
j
, e
i
) et donc : a
ij
= a
ji
. Inversement, si
A
T
= A alors :
f(u, v) = X
T
AY = Y
T
A
T
X = Y
T
AX = f(v, u).
(ii) La démonstration du (ii) est la même que (i).
Remarque III.20. Soient f ∈ L
2
(U, V; K), f
(1)
∈ L(U, V

) et f
(2)
∈ L(V, U

). f est
symétrique si et seulement f
(1)
= f
(2)
.
Définition III.21. Si U est un K-espace vectoriel muni d’une forme bilinéaire symétrique
non dégénérée f, soit V ⊂ U un sous-espace de U, on appel le orthogonal de V par rapport
à U, le sous-espace V

de U défini par :
V

= ¦u ∈ U, ∀v ∈ V, f(u, v) = 0¦.
C’est un sous-espace de U.
Proposition III.22. Sous les hypothèses de la définition III.21, f
(1)

V

est un isomor-
phisme de V

(⊂ U) vers V

(⊂ U

).
20 CHAPITRE III. FORMES BILINÉAIRES
On rappelle que :
V

= ¦ϕ ∈ U

, ∀v ∈ V, ϕ(v) = 0¦.
Démonstration. Soit l’application
U → U

u → f
(1)
(u) ◦ v → f(u, v)
.
On a ainsi :
V

= ¦u ∈ U, ∀v ∈ V, f
(1)
(u)(v) = 0¦ = ¦u ∈ U, f
(1)
(u) ∈ V

¦ = f
(1)
−1
(V

).
Corollaire III.23. On a les égalites suivantes :
dimV

= dimV

= dimU −dimV.
Exemples III.24. Soient U = R
2
et x, y ∈ U tel que x = (x
1
, x
2
) et y = (y
1
, y
2
).
1. L’application bilinéaire f(x, y) = x
1
x
2
+ 2x
1
y
2
+ 2y
1
x
2
+ y
1
y
2
est symétrique.
2. L’application bilinéaire g(x, y) = x
1
y
2
−x
2
y
1
est anti-symétrique.
Proposition III.25. Si le corps K est de caractéristique
(1)
= 2 (par exemple, Q, R, C,
Z/pZ avec p = 2), toute forme bilinéaire f est un K-espace vectoriel U s’écrit de façon
unique :
f = f
+
+ f

avec f
+
(resp. f

) une application bilinéaire symétrique (resp. anti-symétrique).
Soit L
+
2
(U, K) (resp. L

2
(U, K)) l’ensemble des formes bilinéaires symétriques (resp.
anti-symétriques) sur U alors
L
2
(U, K) = L
+
2
(U, K) ⊕L

2
(U, K).
Démonstration. Soit f ∈ L
2
(U, K). On a :
f(u, v) + f(v, u) = g(u, v) ∈ L
+
2
(U, K) (III.1)
et
f(u, v) −f(v, u) = h(u, v) ∈ L

2
(U, K) (III.2)
Si on fait (III.1) + (III.2), on obtient :
g(u, v) + h(u, v) = 2f(u, v).
Or, 2 est inversible sur le corps K considéré dans la proposition III.25 et donc :
f(u, v) =
1
2
g(u, v) +
1
2
h(u, v).
(1)
Soit p ∈ N. On dit qu’un corps K est de caractéristique p si p est inversbile dans le corps K
III.5. FORMES QUADRATIQUES 21
Proposition III.26. Soit U muni d’une forme bilinéaire symétrique non dégénéré, on
suppose que dimU = n < +∞. Soient (e
1
, . . . , e
n
) une base de U et a
1
, . . . , a
n
∈ K. Alors
il existe un unique u ∈ U tel que pour tout 1 ≤ i ≤ n, f(u, e
i
) = a
i
.
Démonstration. On a l’équivalence suivante :
f(u, e
i
) = a
i
⇐⇒ f
(1)
(u)(e
i
) = a
i
.
Il existe une unique application linéaire ϕ : U →K tel que ϕ(e
i
) = a
i
. Par ailleurs, il existe
un unique u ∈ U tel que f
(1)
(u) = ϕ.
III.5 Formes quadratiques
Soit K un corps de caractéristique = 2.
Proposition III.27. Soit U un K-espace vectoriel de dimension finie et f, f

∈ L
+
2
(U, K).
Si pour tout u, f(u, u) = f

(u, u) alors f = f

.
Démonstration. Posons q(u) = f(u, u) et q

(u) = f

(u, u) alors on a,
q(u + v) = f(u + v, u + v) = f(u, u) + f(u, v) + f(v, u) + f(v, v)
Or f est symétrique donc
= q(u) + 2f(u, v) + q(v)
On fait de même pour f

:
q

(u + v) = q

(u) + 2f

(u, v) + q

(v).
L’hypothèse est que q = q

donc si, pour tout u, v ∈ U, on a 2f(u, v) = 2f

(u, v), cela
entraîne que pour tout u, v ∈ U, f(u, v) = f

(u, v). De plus, on a :
f(u, v) =
1
2
(q(u + v) −q(u) −q(v)).
Définition III.28. q(u) = f(u, u) est la forme quadratique associée à la forme bilinéaire
symétrique f et f est appelée la forme polaire de la forme quadratique q.
Proposition III.29 (Écriture matricielle). Soient (e
1
, . . . , e
n
) une base de U et A la ma-
trice de f dans cette base. A s’écrit alors A = (f(e
i
, e
j
))
1≤i≤n,1≤j≤n
= (a
ij
) avec a
ij
= a
ji
.
Soient u = x
1
e
1
+ + x
n
e
n
et v = y
1
e
1
+ + y
n
e
n
avec
X =

¸
¸
¸
x
1
.
.
.
x
n
¸

et Y =

¸
¸
¸
y
1
.
.
.
y
n
¸

.
22 CHAPITRE III. FORMES BILINÉAIRES
On a f(u, v) = Y
T
AX = X
T
AY. Donc (q(u)) = X
T
AX, c’est-à-dire
q(u) =
n
¸
i=1
a
ii
x
2
i
+ 2
¸
i<j
a
ij
x
i
x
j
= Q(x
1
, x
2
, . . . , x
n
),
avec Q(x
1
, x
2
, . . . , x
n
) est un polynôme homogène de degré 2.
Remarque III.30 (Comment retrouver la forme polaire f ?). Soit
f(u, v) =
¸
1≤i≤n
a
i
x
i
y
i
+
¸
i<j
a
ij
(x
i
y
j
+ y
j
x
i
).
On peut montrer que
f(u, u) =
1
2

x
1
∂Q
∂x
1
(y
1
, . . . , y
n
) + +
∂Q
∂x
n
(y
1
, . . . , y
n
)

.
III.6 Produit scalaire
On considère K = R.
Définition III.31. Soit U un R-espace vectoriel et q une forme quadratique. On dit que q
est positive si pour tout u ∈ U, q(u) ≥ 0. On dit q est définie positive si pour tout u ∈ U,
q(u) > 0.
Proposition III.32. Soit q une forme quadratique positive et f sa forme polaire. Si f est
non dégénéré alors q est définie positive.
Théorème III.33. Si q est une forme quadratique positive et f sa forme polaire alors :
[f(u, v)[ ≤

q(u)q(v). (III.3)
Démonstration. L’équivalence entre (III.3) et
∀u, v ∈ V, f(u, v)
2
= q(u)q(v) (III.4)
est évidente. Comme q est une forme quadratique positive alors pour tout t ∈ R, q(u+tv) ≥
0. Or :
Q(t) = q(u + tv) = q(u) + 2tf(u, v) + t
2
≥ 0.
Le déterminant du polynome Q(t) est
∆ = f(u, v)
2
−q(u)q(v) ≤ 0
et entraîne la relation (III.4).
Démonstration de la proposition III.32. U ∈ Ker(f) si et seulement si pour tout u ∈ V,
f(u, v) = 0, si et seulement si q(u) = 0. De plus, f est non dégénérée si et seulement si
Ker(f) = ¦0¦ et si et seulement si q(u) = 0 ⇐⇒ u = 0.
III.6. PRODUIT SCALAIRE 23
Définition III.34. Une forme bilinéaire symétrique f sur un espace vectoriel réel U de
dimension finie, dont la forme quadratique associée est définie positive, est un produit
scalaire.
Exemples III.35. Soient U = R
2
et u, v ∈ R
2
tel que u = (x
1
, x
2
) et v = (y
1
, y
2
).
1. f(u, v) = x
1
y
1
+ x
2
y
2
est un produit scalaire car q(u) = x
2
1
+ y
2
1
.
2. Soit f

(u, v) = x
1
y
1
− x
1
y
2
− x
2
y
1
+ x
2
y
2
dont sa forme quadratique est q

(u) =
x
2
1
− 2x
1
x
2
+ x
2
2
= (x
1
− x
2
)
2
≥ 0. q

est positive mais pas définie positive car
q

(u) = 0 ⇐⇒ x
1
= x
2
. On a ainsi que f

est dégénéré et
Ker(f

) = ¦(x
1
, x
2
) ∈ R
2
, y
1
(x
1
−x
2
) +y
2
(x
2
−x
1
) = 0¦ = ¦(x
1
, x
2
) ∈ R
2
, x
1
= x
2
¦.
24 CHAPITRE III. FORMES BILINÉAIRES
CHAPITRE IV
ESPACES EUCLIDIENS
IV.1 Généralités
Définition IV.1. Un R-espace vectoriel U de dimension finie et muni d’un produit scalaire
est un espace euclidien.
On notera le produit scalaire :
U U → R
(u, v) → 'u, v`
,
alors q(u) = 'u, u`.
Définition IV.2. On définit la norme |u| de u, la quantité

q(u) =

'u, u`.
Proposition IV.3. La norme |u| de u vérifie les quatre propriétés suivantes :
(i) ∀u, v ∈ U, |u + v| ≤ |u| +|v|,
(ii) |u| ≥ 0,
(iii) |u| = 0 ⇐⇒ u = 0,
(iv) |λu| = [λ[|u|.
Démonstration. On montre la propriété (i) et on peut faire de même pour les propriétés
(ii), (iii) et (iv).
|u + v| ≤ |u| +|v| ⇐⇒ |u + v|
2
≤ |u|
2
+|v|
2
+ 2|u||v|
⇐⇒ q(u) + q(v) + 2'u, v` = q(u + v) ≤ q(u) + q(v) + 2

q(u)q(v)
⇐⇒ 'u, v` =

q(u)q(v).
Par conséquence, on peut alors définir une distance induite par la norme.
Définition IV.4. Soit U un espace euclidien muni d’une distance d définie par d(u, v) =
|v −u| ≥ 0. Cette distance vérifie les trois propriétés suivantes :
25
26 CHAPITRE IV. ESPACES EUCLIDIENS
1. d(u, v) = d(v, u),
2. d(u, v) = 0 ⇐⇒ u = v,
3. d(u, w) ≤ d(u, v) + d(v, w).
Lemme IV.5. Soit U un espace euclidien et soit V ⊂ U un sous-espace de U. Alors :
V ⊕V

= U.
Démonstration. On montre tout d’abord que V ∩ V

= ¦0¦. Soit u ∈ V ∩ V

alors u ∈ V
et u ∈ V

.
u ∈ V

, ∀v ∈ V, 'u, v` = 0.
En particulier : q(u) = 'u, u` = 0 implique que u = 0.
De plus, dimV

= dimU − dimV et donc dim(V ⊕ V

) = dimV + dimV

= dimV.
Ainsi : V ⊕V

= U.
Définitions IV.6. Soit (u
1
, . . . , u
m
) un système de vecteurs de l’espace euclidien U.
1. (u
1
, . . . , u
m
) est orthogonal si pour tout i, j tel que i = j, on a : 'u
i
, u
j
` = 0,
2. (u
1
, . . . , u
m
) est orthonormal s’il est orthogonal et |u
i
| = 1, pour tout i tel que
1 ≤ i ≤ n.
3. (u
1
, . . . , u
m
) est une base orthonormale si, de plus, (u
1
, . . . , u
m
) forme une base.
Théorème IV.7. Tout espace euclidien U admet une base orthonormale.
Démonstration. La démonstration se fait par réccurence sur dimU.
Initialisation Soient dimU = 1 et u ∈ U tel que u = 0. On considère
u
1
=
u
|u|
.
Donc |u
1
| = 1.
Hérédité Supposons la propriété vraie pour tout espace de dimension < n. Soit U eucli-
dien tel que dimU = n. Soit V un sous-espace de U de dimension n−1. A l’espace V,
', ` restreint à V associe une structure d’espace euclidien sur V. D’après l’hypothèse
de réccurence, il existe une base (e
1
, . . . , e
n−1
) orthonormal de V tel que 'e
i
, e
j
` = 0
pour tout i = j et |e
i
| = 1 pour tout 1 ≤ i ≤ n − 1. Comme dimV = n − 1 alors
dimV

= 1. On choisit u = 0, u ∈ V

. On pose :
e
n
=
u
|u|
.
Alors (e
1
, . . . , e
n−1
, e
n
) forme un système de vecteurs orthonormal de U car on a,
'e
j
, e
n
` = 0, pour tout j < n (car e
n
∈ V

) et |e
n
| = 1. Il faut vérifier que (e
1
, . . . , e
n
)
forme une base de U. Or (e
1
, . . . , e
n−1
) est une base de V et (e
n
) est une base de V

.
D’après le lemme , on a :
V ⊕V

= U.
Donc (e
1
, . . . , e
n
) est une base de U.
IV.2. ADJOINT D’UN ENDOMORPHISME 27
IV.2 Adjoint d’un endomorphisme
Soit U un espace euclidien et f ∈ L(U, U,) une application linéaire de U dans U.
Proposition IV.8. Il existe une unique application linéaire f

: U → U tel que :
∀u, v ∈ U, 'u, f(v)` = 'f

(u), v`. (IV.1)
Définition IV.9. Dans la proposition IV.8, f

est appelé l’ adjoint de f.
Démonstration. Au produit scalaire ', ` est associé un isomorphisme α : U → U

tel que
α(u)(v) = 'u, v`. On a :
'u, f(v)` = α(u)(f(v)) = f

(α(u))(v)
et
'f

(u), v` = α(f

(u))(v).
U
f

f

(α(u))

@
@
@
@
@
@
@
U
α(u)

R
Ainsi :
(IV.1) ⇐⇒ ∀u, v ∈ U, f

(α(u))(v) = α(f

(u))(v)
⇐⇒ ∀u ∈ U, f

(α(u)) = α(f

(u))
⇐⇒ f

◦ α = α ◦ f

⇐⇒ f

= α
−1
◦ f

◦ α.
Pour bien comprendre la situation et pour en finir avec la démonstration,
U
α


f

U

f

U
α


U

Proposition IV.10. Soient (e
1
, . . . , e
n
) une base orthonormée et A la matrice de f dans
cette base alors la matrice de f

est A

.
Démonstration. Soit A = (a
ij
)
1≤i≤n,1≤j≤n
matrice de f dans la base (e
1
, . . . , e
n
) :
f(e
j
) =
n
¸
i=1
a
ij
e
i
.
28 CHAPITRE IV. ESPACES EUCLIDIENS
On a alors :
'f(e
j
), e
i
` = 'e
j
, f

(e
i
)` =

n
¸
k=1
a
kj
e
k
, e
i
¸
= a
ij
.
La matrice de f

est B = (b
ij
) :
'e
i
, f

(e
j
)` = 'f

(e
i
), e
j
` = b
ji
.
Ainsi, pour tout i et j, a
ij
= b
ji
et donc B = A

.
Définition IV.11. Soient U un espace euclidien muni d’un produit scalaire ', ` et f :
U → U. On dit que f est autoadjoint si f = f

.
Corollaire IV.12. f est autoadjoint si et seulement si sa matrice dans une base ortho-
normale est symétrique.
Proposition IV.13. Soit U un espace euclidien muni d’un produit scalaire ', `.
(i) Soit f : U → U linéaire alors l’application
U U → K
(u, v) → 'f(u), v`
est bilinéaire.
(ii) Tout forme bilinéaire sur U est de ce type. Précisement, si ϕ ∈ L
2
(U, K), il existe
une application linéaire unique f : U → U tel que :
∀u, v ∈ U, ϕ(u, v) = 'f(u), v`.
(iii) (u, v) → 'f(u), v` est symétrique si et seulement si f est autoadjoint.
(iv) (u, v) → 'f(u), v` est non dégénérée si et seulement si Ker(f) = ¦0¦.
Démonstration. (i) On pose ϕ(u, v) = 'f(u), v` avec f : U → U linéaire et on montre
que ϕ est une application bilinéaire.
ϕ(λu + λ

u

, v) = 'f(λu + λ

u

), v` = 'λf(u) + λ

f(u

), v`
= λ'f(u), v` + λ

'f(u

), v` = λϕ(u, v) + λ

ϕ(u

, v).
ϕ(u, µv + µ

v

) = 'f(u), µv + µ

v

` = µ'f(u), v` + µ

'f(u), v

`
= µϕ(u, v) + µ

ϕ(u, v

).
(ii) On se donne ϕ ∈ L
2
(U, R) tel que :
ϕ
(1)
: U → U

u → (v → ϕ(u, v))
.
IV.2. ADJOINT D’UN ENDOMORPHISME 29
Par ailleurs, on associe ', ` à
α : U → U

u → (v → 'u, v`)
.
On a alors α(u)(v) = 'u, v` et ϕ
(1)
(u)(v) = ϕ(u, v). On cherche f : U → U tel que
∀u, v ∈ U, 'f(u), v` = ϕ(u, v). (IV.2)
Ainsi :
(IV.2) ⇐⇒ ∀u, v, α(f(u))(v) = ϕ
(1)
(u)(v)
⇐⇒ ∀u ∈ U, α(f(u)) = ϕ
(1)
(u)
⇐⇒ α ◦ f = ϕ
(1)
⇐⇒ f = α
−1
◦ ϕ
(1)
.
On a ainsi le diagramme suivant :
U
f

ϕ
(1)

U
α

U

.
Autre méthode pour démontrer (ii). On cherche la matrice de f dans une base or-
thonormale. La matrice de f est égale à la matrice de ϕ. Soit u = x
1
e
1
+ + x
n
e
n
et v = y
1
e
1
+ + y
n
e
n
avec :
X =

¸
¸
¸
x
1
.
.
.
x
n
¸

et Y =

¸
¸
¸
y
1
.
.
.
y
n
¸

On a ainsi : 'u, v` = Y

X et ϕ(u, v) = Y

AX = Y

X

où A est la matrice de ϕ dans
la base (e
1
, . . . , e
n
) et avec X

= AX. Donc : v

= x

1
e
1
+ + x

n
e
n
= f(u) avec :
X

=

¸
¸
¸
x

1
.
.
.
x

n
¸

(iii) En exercice.
(iv) En exercice.
30 CHAPITRE IV. ESPACES EUCLIDIENS
IV.3 Automorphismes orthogonaux
Définition IV.14. Soit U un espace euclidien muni d’un produit scalaire ', `. Une appli-
cation linéaire f : U → U est dite orthogonale si et seulent si :
∀u, v ∈ U, 'f(u), f(v)` = 'u, v`.
Proposition IV.15. (i) f est orthogonale si et seulement si pour tout u ∈ U, |f(u)| =
|u|.
(ii) Si f est orthogonale, f est un automorphisme de U.
(iii) f est orthogonale si et seulement si f ◦ f

= id
U
= f

◦ f.
Démonstration. (i) Supposons que pour tout u ∈ U, q(f(u)) = q(u), où q(u) = 'u, u`.
On veut montrer que pour tout u, v ∈ U, q(f(u + v)) = q(u + v). On a alors
q(u + v) = q(u) + q(v) + 2'u, v`, (IV.3)
et :
q(f(u, v)) = q(f(u) + f(v)) = q(f(u)) + q(f(v)) + 2'f(u), f(v)`. (IV.4)
Or q(f(u)) = q(u), donc
(IV.3) = (IV.4) ⇐⇒ 'f(u), f(v)` = 'u, v`.
(ii) Conséquence de (iii).
(iii) Pour tout u, v ∈ U, on a :
'f(u), f(v)` = 'u, f

(f(v))` = 'u, v` ⇐⇒ 'u, (f

◦ f)(v) −v` = 0
⇐⇒ ∀u ∈ U, f

◦ f(v) = v ⇐⇒ f

◦ f = id
U
.
Proposition IV.16. Soit f un automorphisme orthogonal.
(i) Si (e
1
, . . . , e
n
) est une base orthonormale de U, il en est de même de
(f(e
1
), . . . , f(e
n
)).
(ii) Si (e
1
, . . . , e
n
) et (f
1
, . . . , f
n
) sont des bases orthonormales, il existe une unique ap-
plication f : U → U tel que f(e
i
) = f
i
pour tout 1 ≤ i ≤ n. De plus, f est un
automorphisme orthogonal.
Démonstration. (i) Comme on a 'e
i
, e
j
` = δ
ij
et 'f(e
i
), f(e
j
)` = 'e
i
, e
j
`, l’assertion est
évidente.
IV.4. DÉCOMPOSITION CANONIQUE D’UNE FORME QUADRATIQUE 31
(ii) Soit f définie par f(e
i
) = f
i
. Soient u = x
1
e
1
+ +x
n
e
n
et v = y
1
e
1
+ +y
n
e
n
.
On a alors :
f(u) = x
1
f(e
1
) + + x
n
f(e
n
) = x
1
f
1
+ + x
n
f
n
,
f(v) = y
1
f(e
1
) + + x
n
f(e
n
) = y
1
f
1
+ + y
n
f
n
.
Donc :
'f(u), f(v)` =
n
¸
i=1
x
i
y
i
= 'u, v`.
On rappelle que si ϕ : U U →R est bilinéaire et si (e
1
, . . . , e
n
), (f
1
, . . . , f
n
) sont des
bases de U, P est la matrice de passage :
B = P
T
AP,
avec A (resp. B) matrice de ϕ dans la première (resp. seconde) base.
Remarque IV.17. Si (e
1
, . . . , e
n
) et (f
1
, . . . , f
n
) sont deux bases orthogonales. P, la ma-
trice de passage est une matrice orthogonale (represantant un automorphisme orthogonal
dans une base orthogonale ⇐⇒ P

P = I) :
B = P
T
AP = P
−1
AP.
IV.4 Décomposition canonique d’une forme quadratique
Théorème IV.18. Soit U un espace vectoriel réel de dimension n. Alors toute forme
quadratique q sur U s’écrit sous la forme :
∀u ∈ U, q(u) = ϕ
1
(u)
2
+ + ϕ
r
(u)
2
−(ψ(u)
2
+ + ψ
s
(u)
2
),
où les ϕ
i
, ψ
j
∈ U

, (ϕ
1
, . . . , ϕ
r
, ψ
1
, , ψ
s
) forme un système indépendant. De plus r et s
ne dépendant que de q et r + s est le rang de la forme polaire associée.
Démonstration. Pour montrer l’existence des ϕ
i
et ψ
j
, on aura besoin du théorème IV.19.
Comme q est quadratique, on peut lui associer ϕ une forme polaire symétrique. Il existe
une unique application linéaire f : U → U tel que
∀u, v ∈ U, ϕ(u, v) = 'f(u), v`.
ϕ est symétrique ⇔ f est autoadjoint. Il existe donc une base orthonormale (e
1
, . . . , e
n
) de
U formée de vecteurs propres de f :
∀i, 1 ≤ i ≤ n, f(e
i
) = λ
i
e
i
.
32 CHAPITRE IV. ESPACES EUCLIDIENS
Soient u = x
1
e
1
+ x
n
e
n
et v = y
1
e
1
+ + y
n
e
n
. Alors :
ϕ(u, v) = 'f(u), v` = 'x
1
λ
i
e
i
+ x
n
λ
n
e
n
, y
1
e
1
+ + y
n
e
n
`
= λ
1
x
1
y
1
+ λ
2
x
2
y
2
+ + λ
n
x
n
y
n
.
Ainsi, pour x
i
= y
i
,
q(u) = λ
1
x
2
1
+ + λ
n
x
2
n
, λ
i
∈ R. (IV.5)
Quitte à réordonner la base, on peut supposer que λ
1
, . . . , λ
r
> 0, λ
r+1
, . . . , λ
r+s
< 0
et λr + s + 1 = = λ
n
= 0. On pose pour 1 ≤ i ≤ r, λ
i
= µ
2
i
, pour r ≤ j ≤ r + s,
λ
j
= ν
2
j−r
. Alors :
µ
1
x
1
= ϕ
1
(u)
.
.
.
µ
r
x
r
= ϕ
r
(u)
ν
1
x
r+1
= ψ
1
(u)
.
.
.
ν
s
x
r+s
= ψ
s
(u).
Ainsi, (IV.5) s’écrit
q(u) == ϕ
1
(u)
2
+ + ϕ
r
(u)
2
−(ψ(u)
2
+ ψ
s
(u)
2
).
Maintenant, on montre l’unicité de r et s. Si ϕ est non dégénérée. On note :
U
+
= ¦u ∈ U, ϕ
1
(u) = = ϕ
r
(u) = 0¦,
U

= ¦u ∈ U, ψ
1
(u) = = ψ
s
(u) = 0¦,
tel que U
+
∩ U

= Ker(ϕ). En effet :
ϕ(u, v) = ϕ
1
(u)ϕ
1
(v) + + ϕ
r
(u)ϕ
r
(v) −ψ
1
(u)ψ(v) − −ψ
s
(u)ψ
s
(v).
Donc : U
+
∩ U

= ¦0¦. On a alors : U
+
⊕U

= U. En effet,
U
+
∩ U

= Vect(ϕ
1
, . . . , ϕ
r
, ψ
1
, . . . , ψ
s
)

= ¦0¦.
Donc : Vect(ϕ
1
, . . . , ϕ
r
, ψ
1
, . . . , ψ
s
) = U

. Or :
U
+
= Vect(ϕ
1
, . . . , ϕ
r
)

,
U

= Vect(ψ
1
, . . . , ψ
s
)

.
et ainsi :
U
+
+ U

= (Vect(ϕ
1
, . . . , ϕ
r
) ∩ Vect(ψ
1
, . . . , ψ
r
))

= ¦0¦

= U.
IV.4. DÉCOMPOSITION CANONIQUE D’UNE FORME QUADRATIQUE 33
On a alors que r + s = n. Supposons qu’on ait deux décompositions :
q(u) = ϕ(u)
2
+ + ϕ
r
(u)
2
−(ψ
1
(u)
2
+ + ψ
s
(u)
2
)
= ϕ

(u)
2
+ + ϕ

r
(u)
2
−(ψ

1
(u) + + ψ

s
(u)
2
).
On veut montrer que r = r

et s = s

. Soit U = U
+
⊕U

= U

+
⊕U


. Comme q[
U

+
, q[
U
+
sont définies positives et q[
U


et q[
U

est définie négative, d’après le lemme IV.20,
U

+
∩ U

= ¦0¦.
On a dimU

= n −s et dimU

+
= n −r

. On a ainsi que
n −s + n −r

≥ n ⇐⇒ s + r ≥ n = s + r
⇐⇒ r

≥ r.
De même, r ≥ r

donc r = r

et s = s

.
Enfin, on montre l’unicité dans le cas général, c’est-à-dire r + s ≤ dimU

. Soit f la
forme bilinéiare symétrique polaire de q.
f(u, v) = ϕ
1
(u)ϕ
1
(v) + + ϕ
r
(u)ϕ
r
(v) −ψ
1
(u)ψ
1
(v) − −ψ
s
(u)ψ
s
(v).
Ainsi,
Ker(f) = ¦u ∈ U, ∀u ∈ U, f(u, v) = 0¦
= ¦u ∈ U, ∀v ∈ U, ϕ
1
(u)ϕ
1
(v) + + ϕ
r
(u)ϕ
r
(v)
−ψ
1
(u)ψ
1
(v) − −ψ
s
(u)ψ
s
(v)¦
= ¦u ∈ U, ϕ
1
(u)ϕ
1
+ + ϕ
r
(u)ϕ
r
−ψ
1
(u)ψ − −ψ
s
(u)ψ
s
¦
= ¦u ∈ U, ϕ
1
(u) = = ϕ
r
(u) = ψ
1
(u) = = ψ
s
(u)¦
=

r
¸
i=1
Ker ϕ
i

¸
s
¸
j=1
Ker ψ
j
¸

.
Le diagramme suivant
U
ϕ
i

ψ
j

s

M
M
M
M
M
M
M
M
M
M
M R
˜
U = U/ Ker(f)
˜ ϕ
i

˜
ψ
j

˜ ϕ
i
◦ s = ϕ
i
.
nous dit que Ker(f) ⊂ Ker(ϕ
i
) ⇔
˜
ψ
i
existe et Ker(f) ⊂ Ker(ψ
j
) ⇔
˜
ψ
j
existe. On définit
˜
f :
˜
U
˜
U →R,
˜
f(˜ u, ˜ v) = ˜ ϕ
1
(˜ u) ˜ ϕ
1
(˜ v) + + ˜ ϕ
r
(˜ u) ˜ ϕ
r
(˜ v) −
˜
ψ
1
(˜ u)
˜
ψ
1
(˜ v) − −
˜
ψ
s
(˜ u)
˜
ψ
s
(˜ v)
˜ q(˜ u) = ˜ ϕ
1
(˜ u)
2
+ + ˜ ϕ
r
(˜ u)
2

˜
ψ
1
(u)
2
− −
˜
ψ
s
(˜ u)
2
.
34 CHAPITRE IV. ESPACES EUCLIDIENS
˜
f est non dégénérée car
Ker(
˜
f) =

r
¸
i=1
Ker ˜ ϕ
i

¸
s
¸
j=1
Ker
˜
ψ
j
¸

= s(X) = ¦
˜
0¦,
où X =

(
¸
r
i=1
Ker ϕ
i
) ∩

¸
s
j=1
Ker ψ
j

. Soit k = dimKer(f) et m− k = rg(f). Comme
(r, s) ne dépendant que de ˜ q et que
B = ( ˜ ϕ
1
, . . . , ˜ ϕ
r
,
˜
ψ
1
, . . . ,
˜
ψ
s
)
est une base de U

, on a :
Vect(B)

=

r
¸
i=1
Ker( ˜ ϕ
i
)

¸
s
¸
j=1
Ker(
˜
ψ
j
)
¸

= ¦
˜

et donc Vect(B) =
˜
U

et
r + s = dim
˜
U

= dim
˜
U = dimU −dimKer(f) = m−k.
Donc : r + s = rg(f).
Théorème IV.19. Soit U un espace euclidien et f : U → U, il existe une base orthogonale
dans laquelle la matrice de f est diagonale.
Démonstration. Admis pour l’instant.
Lemme IV.20. Soient U
1
et U
2
deux sous-espace de U tel que q[
U
1
est définie positive et
q[
U
2
est définie négative alors U
1
∩ U
2
= ¦0¦.
Démonstration. Soit u ∈ U
1
∩ U
2
. Si u = 0, alors q(u) > 0 (car u ∈ U
1
) et q(u) < 0 (car
u ∈ U
2
). Ce qui est absurde !
Définition IV.21. (r, s) est la signature de la forme quadratique.
Exemple IV.22. Soient U = R
3
et q(x, y, z) = x
2
+ (x + y − z)
2
+ (z − y)
2
. La forme
polaire associée est :
f((x, y, z), (x

, y

, z

)) = xx

+ (x + y −z)(x

+ y

−z

) + (z −y)(z

−y

)
= x(2x

+ y

−z

) + y(x

+ 2y

−2z

) + z(−x

−2y + 2z

).
Ainsi, la matrice A de f s’écrit :
A =

¸
¸
2 1 −1
1 2 −2
−1 −2 1
¸

IV.4. DÉCOMPOSITION CANONIQUE D’UNE FORME QUADRATIQUE 35
q(x, y, z) = 2x
2
+ 2y
2
+ 2z
2
+ 2xy −2xz −4xz
En laissant le lecteur faire les calculs,
= 2

x +
1
2
y −
1
2
z

2
+
3
2
(y −z)
2
.
La signature est donc (2, 0) = (r, s) et r + s = rg(f) = 2.
Exemple IV.23. Soit q(x, y, z) = 2(xy + yz + zx). On change les variables :

x = X + Y
y = X −Y
z = Z
⇐⇒

X =
1
2
(x + y)
Y =
1
2
(x −y)
Z = z
q(X, Y, Z) = 2((X + Y)(X −Y) + (X −Y)Z + (X + Y)Z)
= 2(X
2
−Y
2
+ 2XY)
= 2((X + Y)
2
−Z
2
−Y
2
).
Donc : rg(f) = 3 et la signature (r, s) = (1, 2). Soit A la matrice de q dans les bases
canonique de R
3
.
A =

¸
¸
0 1 1
1 0 1
1 1 0
¸

On cherche les valauers propres de A :
A −λI =

¸
¸
−λ 1 1
1 −λ 1
1 1 −λ
¸

Le polynôme caratéristique de A est P(λ) = −(λ+1)
2
(λ−2) (car pour λ = −1, rg(A+I) = 1
donc dimKer(A+I) et tr(A) = 0 = −1−1+2). Il existe donc P une matrice de changement
de base orthogonale inversible pour le produit scalaire usuel tel que :
B = P
−1
AP =

¸
¸
−1 0 0
0 −1 0
0 0 2
¸

Comme on a : P
−1
= P

, B = P

AP est la matrice de la forme bilinéaire f dans la nouvelle
base (f
1
, f
2
, f
3
) consitutée de vecteurs propres. Soit u = xe
1
+ye
2
+ze
3
= Xf
1
+Yf
2
+Zf
3
,
alors :
f(u, u

) =

x y z

A

¸
¸
x

y

z

¸

=

X Y Z

B

¸
¸
X

Y

Z

¸

=

X Y Z

¸
¸
−1 0 0
0 1 0
0 0 2
¸

¸
¸
X

Y

Z

¸

= XX

−YY

+ 2ZZ

36 CHAPITRE IV. ESPACES EUCLIDIENS
et donc si on considère q la forme quadratique :
q(u) = f(u, u) = X
2
−Y
2
+ 2Z
2
= ϕ
1
(u)
2
−ϕ
2
(u)
2
+ 2ϕ
3
(u)
2
.
IV.5 Classification des isométries
Soit V un espace euclidien, ', ` un produit scalaire. On rappelle que f est orthogonal
si et seulement si pour tout u, v ∈ V, 'u, v` = 'f(u), f(v)`.
Théorème IV.24. Soit f : V → V un automorphisme orthogonal.
(i) Les valeurs propres de f sont des nombres complexes λ avec [λ[ = 1. En particulier,
les seules valeurs propres réelles sont +1 ou −1.
(ii) Soient V
1
= Ker(f − id) et V
−1
= Ker(f + id). On note m
+
= dimV
1
et m

=
dimV
−1
. Il existe une base orthogonale
B = (e
1
, . . . , e
m
+
, e
m
+
+ 1, . . . , e
m
+
+m

, e
m
+
+m

+1
, . . . , e
m
),
où m = dimV, dans laquelle la matrice de f s’écrit

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
1
.
.
.
1
−1
.
.
.
−1
A
1
.
.
.
A
k
¸

avec :
∀1 ≤ i ≤ k, A
i
=

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
cos θ
i
−sin θ
i
sin θ
i
cos θ
i
.
.
.
.
.
.
.
.
.
.
.
.
cos θ
i
−sin θ
i
sin θ
i
cos θ
i
¸

.
Ainsi, (e
1
, . . . , e
m
+
) est une base de V
+
et e
m
+
+1
, . . . , e
m
+
+m

est une base de V

.
Définition IV.25. On dit que f est une isométrie vectorielle si f est un automorphisme
orthogonal.
IV.5. CLASSIFICATION DES ISOMÉTRIES 37
Définitions IV.26. 1. Si m = m

+ m
+
, f est la symétrie orthogonale par rapport à
V
1
(et V
−1
= V
1

). Ainsi,
V = V
1
⊕V
−1
et pour tout u ∈ V, il existe un unique u
1
∈ V
1
et un unique u
−1
∈ V
−1
tel que
u = u
1
+ u
−1
et f(u) = u
1
−u
−1
.
2. Si m
+
= n −1 et m

= 1, f est un retournement par rapport à l’hyperplan V
1
.
3. Si m
+
= n−2 et m

= 0 alors f est la rotation autour de V
1
d’angle θ et la matrice
de f s’écrit :

¸
¸
¸
¸
¸
¸
¸
¸
1
.
.
.
1
cos θ −sin θ
sin θ cos θ
¸

.
Remarques IV.27. 1. Il résulte du théorème que det(f) = (−1)
n
.
2. f est dit isométrie directe ou déplacement si det(f) = 1.
3. f est dit isométrie indirecte ou anti-déplacement si det(f) = −1.
4. On peut montrer que toute rotation est produit de deux retournements et en déduire
que toute isométrie de dimension n est produit d’au plus n retournements.
Définition IV.28. On note O(V), l’ensemble des isométries de V et SO(V), le groupe
spécial orthogonal, l’ensemble des isométries directes de V.
Soit U un espace euclidien de dimension n = 2, on va classifier les isométries.
Proposition IV.29. (i) Si m
+
= 2 et m

= 0 alors la matrice de f s’écrit :
A =

1 0
0 1

f est donc une rotation d’angle 0.
(ii) Si m
+
= 0 et m

= 2 alors la matrice de f s’écrit :
A =

−1 0
0 −1

f est donc une rotation d’angle
π
2
.
(iii) Si m
+
= m

= 1 alors la matrice de f s’écrit :
A =

1 0
0 −1

f est donc une symétrie indirecte.
38 CHAPITRE IV. ESPACES EUCLIDIENS
(iv) Si m
+
= m

= 0 alors la matrice de f s’écrit :
A =

cos θ −sin θ
sin θ cos θ

f est donc une rotation d’angle quelconque.
On fait de même pour un espace euclidien U de dimension n = 3.
Proposition IV.30. (i) Si m
+
+ m

= 3,
a) Si m
+
= 3 alors f = id et :
A =

¸
¸
1 0 0
0 1 0
0 0 1
¸

.
b) Si m

= 3 alors f = −id et :
A =

¸
¸
−1 0 0
0 −1 0
0 0 −1
¸

.
c) Si m
+
= 1 et m

= 2, f est une symétrie orthogonale par rapport à la droite V
1
ou une rotation d’axe V
1
et d’angle
π
2
.
A =

¸
¸
1 0 0
0 −1 0
0 0 −1
¸

d) Si m
+
= 2 et m
1
= 1, on a :
A =

¸
¸
1 0 0
0 1 0
0 0 −1
¸

(ii) Si m
+
+ m

= 1 alors
a) si m
+
= 1 et m

= 0 alors f est une rotation d’axe V
1
et d’angle θ.
A =

¸
¸
1 0 0
0 cos θ −sin θ
0 sin θ cos θ
¸

b) Si m
+
= 0 et m

= 1 alors

¸
¸
−1 0 0
0 cos θ −sin θ
0 sin θ cos θ
¸

=

¸
¸
−1 0 0
0 1 0
0 0 1
¸

¸
¸
1 0 0
0 cos θ −sin θ
0 sin θ cos θ
¸

Ainsi f est la composée d’une symétrie et d’une rotation.
IV.5. CLASSIFICATION DES ISOMÉTRIES 39
θ
v
Fig. IV.1 – Toute rotation est le produit de deux retournements
On montre maintenant que toute rotation est le produit de deux retournements.
Démonstration. On peut tout d’abord voir une illustration de la proposition par la figure
IV.1. Soient U un espace euclidien de dimension 2, f une rotation d’angle θ et (e
1
, e
2
) une
base orthogonale dans laquelle la matrice f est :

cos θ −sin θ
sin θ cos θ

.
Soit u unitaire et arbitraire et v l’image de u par la rotation
θ
2
. On considère g
u
(resp. g
v
)
les retournements par rapport aux droites vecteurs (resp. Vect(v)). Ainsi : f = g
u
◦ g
v
.
Remarque IV.31. Si dimV = 2, SO(V) est commutatif.En effet, si on pose :
A(θ) =

cos θ −sin θ
sin θ cos θ

,
on a : A(θ
1
)A(θ
2
) = A(θ
2
)A(θ
1
) = A(θ
1
) + A(θ
2
), c’est-à-dire, en terme de matrices :

cos θ
1
−sin θ
1
sin θ
1
cos θ
1

cos θ
2
−sin θ
2
sin θ
2
cos θ
2

=

cos θ
2
−sin θ
2
sin θ
2
cos θ
2

cos θ
1
−sin θ
1
sin θ
1
cos θ
1

=

cos(θ
1
+ θ
2
) −sin(θ
1
+ θ
2
)
sin(θ
1
+ θ
2
) cos(θ
1
+ θ
2
)

Soit f, g des isométries directes, il existe (e
1
, e
2
) une base orthonormale telle que f =
A(θ
1
) et il existe (e

1
, e

2
) une base orthonormale telle que la matrice de g = A(θ
2
). On peut
40 CHAPITRE IV. ESPACES EUCLIDIENS
supposer que det
(e
1
,e
2
)
(e

1
, e

2
) > 0, c’est-à-dire que la matrice de passage est de la forme
A(α). La matrice de g dans la base (e
1
, e
2
) est aussi A(θ
2
). f et g sont représenté par A(θ
1
)
et A(θ
2
) dans la même, ainsi g ◦ f est représentée par A(θ
1
) ◦ A(θ
2
) = A(θ
1
+ θ
2
) et f ◦ g
par A(θ
2
) ◦ A(θ
1
) = A(θ
1
+ θ
2
).
CHAPITRE V
FORMES HERMITIENNES
V.1 Formes et espaces hermetiens
Soit K = C et V un C-espace vectoriel.
Définition V.1. Une forme hermitienne sur V est la donnée d’une application VV →C
telle que :
1. la forme est linéaire par rapport à la première variable,
2. pour tout (u, v) ∈ V V, on a : f(v, u) = f(u, v).
Par conséquent,
Proposition V.2. (i) f(u, v
1
+ v
2
) = f(v
1
, u) + f(v
2
, u) = f(u, v
1
) + f(u, v
2
).
(ii) f(u, λv) = λf(u, v).
Démonstration. – (i)
f(u, v
1
+ v
2
) = f(v
1
, u) + f(v
2
, u) = f(u, v
1
) + f(u, v
2
).
– (ii)
f(u, λv) = f(λv, u) = λf(v, u) = λ f(v, u) = λf(u, v)
Proposition V.3. Pour tout u ∈ V, f(u, u) ∈ R.
Démonstration. En effet, f(u, u) = f(u, u).
Définition V.4. q(u) = f(u, u) est appelée la forme quadratique assoicée à la forme
hermitienne de f.
Proposition V.5. Soient f et g deux formes hermitiennes. Si f(u, u) = g(u, u) pour tout
u ∈ V alors f = g.
Définition V.6. Soit f une forme hermitienne et q sa forme quadratique tel le que q(u) =
f(u, u). On dit alors que f est la forme polaire de q.
41
42 CHAPITRE V. FORMES HERMITIENNES
Exemple V.7. Soient ϕ
1
, ϕ
2
, . . . , ϕ
k
des formes linéaires sur V. On a alors :
f(u, v) =
k
¸
i=1
ϕ
i
(u)ϕ
i
(v)
est une forme linéaire.
Exemple V.8. Soit V un C-espace vectoriel tel que dimV = n. Soient (e
1
, . . . , e
n
) une
base de V et (e

1
, . . . , e

n
) sa base duale. f, définie comme suit :
f(u, v) :
n
¸
i=1
e

i
(u)e

i
(v)
est une forme hermtienne. Plus explicitement, soit u = x
1
e
1
+ +x
n
e
n
et v = y
1
e
1
+ +
y
n
e
n
. On a :
f(u, v) =
n
¸
i=1
x
i
y
i
et
q(u) = f(u, u) =
n
¸
i=1
x
i
x
i
=
n
¸
i=1
x
2
i
.
On va maintenant décrire l’écriture matricielle d’une forme hermitienne f.
Définition V.9. Soient V un C-espace vectoriel tel que dimV = n et (e
1
, . . . , e
n
) une base
de V. Soient u = x
1
e
1
+ + x
n
e
n
et v = y
1
e
1
+ + y
n
e
n
avec :
X =

¸
¸
¸
x
1
.
.
.
x
n
¸

et Y =

¸
¸
¸
y
1
.
.
.
y
n
¸

.
Soit f une forme hermitienne alors sa matrice dans la base (e
1
, . . . , e
n
) est
A = (f(e
i
, e
j
))
1≤i≤n,1≤j≤n
.
Remarque V.10. D’après la définition V.1-2, on a f(e
j
, e
i
) = f(e
i
, e
j
) et donc : A
T
= A.
Proposition V.11. On a :
(f(u, v)) = X
T
AY.
Démonstration. La démonstration se résume en un simple calcul :
f(u, v) = f

¸
n
¸
i=1
x
i
e
i
,
n
¸
j=1
y
j
e
j
¸

=
n
¸
i=1
n
¸
j=1
x
i
y
j
f(e
i
, e
j
).
V.1. FORMES ET ESPACES HERMETIENS 43
Corollaire V.12. De plus, comme f(u, u) = q(u), on a alors :
(q(u)) = X
T
AX.
Proposition V.13 (Changement de base). Soit P une matrice de passage tel que :
X

= PX et Y

= PY.
Soient A matrice de f dans la base (e
1
, . . . , e
n
) et A

matrice de f dans la base (e

1
, . . . , e

n
).
On a :
f(u, v) = X
T
AY = X

T
AY

= X
T
P
T
A

PY.
Ainsi, A = P
T
A

P
Proposition V.14. Soit f une forme hermitienne alors l’ orthogonal de V :
V

= ¦u ∈ V, ∀v ∈ V, f(u, v) = 0¦ = ¦u ∈ V, ∀v ∈ V, f(v, u) = 0¦
est un espace vectoriel de V.
Définition V.15. Comme f(v, u) = f(u, v), alors :
f(v, u) = 0 ⇐⇒ f(u, v) = 0.
Définition V.16. Une forme hermitienne non dégénérée est une forme dont le noyau est
nul.
Exemple V.17. Soient ϕ
1
, . . . , ϕ
k
∈ V

et
f(u, v) =
n
¸
j=1
ϕ
j
(u)ϕ
j
(v).
On suppose que ϕ
1
, . . . , ϕ
k
sont indépendantes. Soit u ∈ Ker(f) alors pour tout v ∈ V,
k
¸
j=1
ϕ
j
(v)ϕ
j
(u) = 0 ⇐⇒
k
¸
j=1
ϕ
j
(u)ϕ
j
= 0
V

⇐⇒ ∀j, 1 ≤ j ≤ k, ϕ
j
(u) = 0 ⇐⇒ u ∈
¸
1≤j≤k
Ker(ϕ
j
).
Donc : f est non dégénérée si et seulement si :
¸
1≤i≤k
Ker ϕ
i
= ¦0¦ = Vect(ϕ
1
, . . . , ϕ
k
)

⇐⇒ Vect(ϕ
1
, . . . , ϕ
k
) = V

⇐⇒ (ϕ
i
, . . . , ϕ
k
) est une base de V

⇐⇒ k = dimV.
44 CHAPITRE V. FORMES HERMITIENNES
Définition V.18. Soit f une forme hermitienne et W ⊂ V un sous-espace vectoriel de V.
On définit l’ orthogonal par rapport à V, l’ensemble
W

= ¦u ∈ V, ∀v ∈ W, f(u, v) = 0¦ = ¦u ∈ V, ∀v ∈ W, f(v, u) = 0¦.
C’est un sous-espace de V.
Proposition V.19. On suppose que f est non dégénérée alors :
dimW + dimW

= dimV.
Remarque V.20. Soient (e
1
, . . . , e
n
) une base de V, f hermitienne. Soient A la matrice
de f dans la base (e
1
, . . . , e
n
) et u ∈ V tel que u = x
1
e
1
+ + x
n
e
n
. Alors :
u ∈ Ker(f) ⇐⇒ AX =

¸
¸
¸
0
.
.
.
0
¸

.
En effet,
u ∈ Ker f ⇐⇒ ∀v ∈ V, f(v, u) = 0
⇐⇒ ∀Y =

¸
¸
¸
y
1
.
.
.
y
n
¸

, Y
T
AX =

0

⇐⇒ AX =

¸
¸
¸
0
.
.
.
0
¸

.
En l’occurence, f est non dégénérée si et seulement si A est inversible.
Démonstration. Soit u ∈ W

. Par définition, pour tout v ∈ W, on a :
f(u, v) = 0 = Y
T
AX. (V.1)
On pose v = y
1
e
1
+ + y
n
e
n
tel que :
Y =

¸
¸
¸
y
1
.
.
.
y
n
¸

et AX =

¸
¸
¸
x

1
.
.
.
x

n
¸

.
On a ainsi pour tout v ∈ W :
(V.1) ⇐⇒ Y
T
AX =

y
1
y
n

¸
¸
¸
x

1
.
.
.
x

n
¸

= 0
⇐⇒ y
1
x

1
+ + y
n
x

n
= 0
Donc : u ∈ W

⇔ AX ∈ W

. Mais comme f est supposée non dégénérée, A est inversible
et on a ainsi :
dimW

= dimV −dimV =⇒ dim(A
−1
W

) = dimW

= dimW

.
V.1. FORMES ET ESPACES HERMETIENS 45
Définition V.21. Soient f une forme hermitienne et q sa forme quadratique associée.
1. On dit q est une forme quadratique positive si pour tout u ∈ V, q(v) ≥ 0.
2. On dit q est une forme quadratique définie positive si pour tout u ∈ V, q(u) > 0 et
q(u) = 0 ⇔ u = 0.
Proposition V.22. Soit f une forme hermitienne. On suppose que q(u) = f(u, u) est
positive. Alors :
∀u, v ∈ V, [f(u, v)[ ≤

q(u)q(v).
Démonstration. Soient u, v ∈ V et λ ∈ C avec [λ[ = 1 et tel que λf(u, v) ≥ 0. Pour tout
t ∈ R, on a :
q(u + tλv) = f(u + tλv, u + tλv)
= q(u) + t
2
q(v) + tλf(u, v) + tλf(u, v)
= q(u) + t
2
q(v) + 2t(f(u, v)).
Comme le polynôme est toujours positive (à cause de la positivité de f), on a alors que le
discriminant est négative. Ainsi :
[f(u, v)[
2
−q(u)q(v) ≤ 0 ⇐⇒ [f(u, v)[ ≤

q(u)q(v).
Corollaire V.23. Sous les hypothèses de la proposition V.22, f est non dégénérée si et
seulement si q est définie positive.
Démonstration. (⇒) On veut montrer que f non dégénérée implique q définie positive.
Supposons que q(u) = 0, alors d’après la proposition V.22 :
∀u ∈ V, [f(u, v)[ = 0.
Donc :
∀v ∈ V, f(u, v) = 0 =⇒ u = 0.
(⇐) On veut montrer enfin que q définie positive implique que f est non dégénérée.
Soit u ∈ V alors
∀v ∈ V, f(u, v) = 0.
En particulier, si u = v, on a :
q(u) = f(u, u) = 0 =⇒ u = 0.
Définition V.24. Une forme hermitienne dont la forme quadratique associée est définie
positive est un produit scalaire hermitien.
46 CHAPITRE V. FORMES HERMITIENNES
Définition V.25. On dit que ϕ est hermitienne ou auto-adjointe si et seulement si
'ϕ(u), v` = 'u, ϕ(v)`.
Proposition V.26. Soit V un C-espace vectoriel de dimension finie, muni d’un produit
scalaire hermitien ', `.
(i) Soit ϕ : V → V linéaire hermitienne alors f(u, v) = 'ϕ(u), v` est hermitienne.
(ii) Soit f : V V → C une forme hermitienne alors il existe une unique V → V
hermitienne (ou auto-adjointe) tel que :
∀u, v, f(u, v) = 'ϕ(u), v`.
De plus, f est non dégénérée si et seulement si Ker ϕ = ¦0
V
¦.
Démonstration. (i) On vérifie que f est hermitienne.
a)
'ϕ(λu + λu

), v` = 'λϕ(u) + λ

ϕ(u

), v`
= λ'ϕ(u), v` + λ

'ϕ(u

), v`
= λf(u, v) + λ

f(u

, v).
b) On a :
f(v, u) = 'ϕ(u), v` = 'v, ϕ(u)` = ϕ(u), v = f(u, v).
(ii) On se donne f : VV →C hermitienne. On cherche ϕ : V → V tel que f(u, v) =
'ϕ(u), v`. On choisit donc une base (e
1
, . . . , e
n
) orthonormale de V, u = x
1
e
1
+ x
n
e
n
et v = y
1
e
1
+ + y
n
e
n
tel que :
X =

¸
¸
¸
x
1
.
.
.
x
n
¸

et Y =

¸
¸
¸
y
1
.
.
.
y
n
¸

.
On a donc l’écriture matricielle suivante :
(f(u, v)) = X
T
AY = (X
T
A)Y = Y
T
,
avec X

T
= X
T
A (donc X

= AX
T
). On définit ϕ comme l’application linéaire V → V
dont la matrice par rapport à la base (e
1
, . . . , e
n
) est A
T
. Si u

= x

1
e
1
+ + x

n
e
n
avec
X

=

¸
¸
¸
x

1
.
.
.
x

n
¸

,
on a : ϕ(u) = u

,
(f(u, v)) = X

T
Y,
V.1. FORMES ET ESPACES HERMETIENS 47
et :
'ϕ(u), v` = 'x

1
, e
1
+ + x

n
e
n
, y
1
e
1
+ + y
n
e
n
`
=
n
¸
i=1
x

i
y
i
= X

T
Y = f(u, v).
On montre maintenant l’unicité de ϕ. Soient ϕ
1
et ϕ
2
tel que 'ϕ
1
(u), v` = 'ϕ
2
(u), v`.
Alors pour tout u, v, on a :

1
(u) −ϕ
2
(u), v` = 0.
À cause de la non-dégénérence de ϕ
1
et ϕ
2
, pour tout u ∈ V, ϕ
1
(u) = ϕ
2
(u) implique
que ϕ
1
= ϕ
2
. Donc on a bien unicité de ϕ et :
f(u, v) = 'ϕ(u), v`.
On a :
f(v, u) = 'ϕ(v), u` = f(u, v) = 'ϕ(u), v` = 'v, ϕ(u)`.
Donc :
∀u, v, 'ϕ(u), v` = 'v, ϕ(u)`.
On a bien ϕ auto-adjointe et :
Ker f = ¦u ∈ V, ∀v ∈ V, f(u, v) = 0¦
= ¦u ∈ V, ∀v ∈ V, 'ϕ(u), v` = 0¦
= ¦u ∈ V, ϕ(u) = 0¦ = Ker ϕ.
Proposition V.27. Soit V un C-espace vectoriel muni d’un produit scalaire ', `. Soit
ϕ : V → V linéaire. Il existe une unique application ϕ

: V → V linéaire tel le que :
∀u, v, 'ϕ(u), v` = 'u, ϕ

(u)`.
Définition V.28. Dans la proposition V.27, l’application ϕ

est appelée l’ adjoint de ϕ.
Définition V.29. ϕ est dite hermitienne ou auto-adjointe si ϕ

= ϕ.
Démonstration. On se fixe une base (e
1
, . . . , e
n
) orthonormale. Soit A la matrice de ϕ dans
cette base. Soient u = x
1
e
1
+ + x
n
e
n
, ϕ(u) = x

1
e
1
+ + x

n
e
n
et v = y
1
e
1
+ + y
n
e
n
avec :
X =

¸
¸
¸
x
1
.
.
.
x
n
¸

, Y =

¸
¸
¸
y
1
.
.
.
y
n
¸

, et X

=

¸
¸
¸
x

1
.
.
.
x

n
¸

.
48 CHAPITRE V. FORMES HERMITIENNES
On a ainsi :
'ϕ(u), v` =
n
¸
i=1
x

i
y
i
= X

T
Y = X
T
A
T
Y = X
T
(A
T
Y)
On pose A

= A
T
. Soit ϕ

l’application linéaire dont la matrice est A

dans la base
(e
1
, . . . , e
n
). Alors :
= X
T
A
T
Y) = X
T
(A

Y) = 'u, ϕ

(v)`.
On peut aussi montrer l’unicité de ϕ de la même façon que dans la démonstration
précédente.
Proposition V.30. Soient V un C-espace vectoriel muni d’un produit scalaire hermitien
', ` et une application ϕ : V → V linéaire. ϕ est hermitienne (ou auto-adjointe) si et
seulement si pour tout u ∈ V, 'ϕ(u), u` ∈ R.
Avant de démontrer la proposition, on aura besoin de ce lemme :
Lemme V.31. Soit ϕ : V → V une application linéaire. On a :
'ϕ(u + v), u + v` −'ϕ(u −v), u −v` = 2('ϕ(u), v` +'ϕ(v), u`).
Démonstration du lemme V.31. On se sert essentiellement de la bilinéarité du produit sca-
laire.
'ϕ(u + v), u + v` −'ϕ(u −v), u −v` = 'ϕ(u), u` +'ϕ(u), v` +'ϕ(v), u` +'ϕ(v), v`
−('ϕ(u), u` −'ϕ(u), v` −'ϕ(v), u` +'ϕ(v), v`)
= 2('ϕ(u), v` +'ϕ(v), u`)
De cela, on en déduit un corollaire :
Corollaire V.32. Si une application ϕ : V → V linéaire vérifie : ∀u, v ∈ V, 'ϕ(u), v` = 0
alors ϕ ≡ 0.
Démonstration du corollaire V.32. D’après le lemme V.31,
'ϕ(u), v` = −'ϕ(v), u` ⇐⇒ 'ϕ(iu), v` = −'ϕ(v), iu`
⇐⇒ i'ϕ(u), v` = i'ϕ(v), u` ⇐⇒ 'ϕ(u), v` = ''v`, u`.
DOnc si pour tout u, v ∈ V, 'ϕ(u), v` = 0 alors pour tout u ∈ V, ϕ(u) = 0. Cela implique
que ϕ ≡ 0.
Passons maintenant à la démonstration de la proposition V.30.
V.1. FORMES ET ESPACES HERMETIENS 49
Démonstration de la proposition V.30. a) Si ϕ = ϕ

, on a alors pour tout u, v ∈ V :
'ϕ(u), v` = 'u, ϕ(v)`.
En particulier,
'ϕ(u), v` = 'u, ϕ(u)` = 'ϕ(u), u` =⇒ 'ϕ(u), u` ∈ R.
b) Supposons maintenant que pour tout u ∈ V, 'ϕ(u), u` ∈ R. Alors, pour tout u, v ∈ V,
'ϕ(u), v` = 'u, ϕ

(v)` =⇒ 'ϕ(u), u` = 'u, ϕ

(u)` = 'ϕ

(u), u` ∈ R.
Ainsi, pour tout u ∈ V, 'ϕ(u) −ϕ

(u), u` =⇒ ϕ = ϕ

.
Proposition V.33. Soit V un C-espace vectoriel muni d’un produit scalaire hermitien
', ` de dimension finie (dimV = n). Soit W un sous-espace vectoriel de V. On a alors :
dimW + dimW

= dimV.
Démonstration. Voir la démonstration de la proposition V.19. La proposition reste valable
pour tout forme hermitienne non dégénérée. En particulier : V = W⊕W

.
Théorème V.34. Un espace V muni d’un produit scalaire hermitien de dimension finie
admet une base orthonormée.
Démonstration. La démonstration se fait par réccurence sur la dimension de V. On rappelle
que la norme d’un vecteur v est |v| =

'v, v`.
Initialisation Soient dimV = 1 et e ∈ V tel que e = 0. On définit :
e
1
=
e

'e, e`
=
e
|e|
qui est bien de norme 1.
Hérédité Supposons que tout espace de dimension ≤ n − 1 muni d’un produit scalaire
admet une base orthonormale. Soit e
1
∈ V tel que |e
1
| = 1. On considère W =
Vect(e
1
). Comme V = dimW⊕dimW

, on a bien : dimW

= n −1. La restriction
de ', ` à W

est un produit scalaire ', `
W
sur W

, c’est-à-dire pour u, v ∈ W

, on
a :
'u, v`
W
= 'u, v`. (V.2)
De plus :
'λu + λ

u, v`
W
= 'λu + λ

u, v`
= λ'u, v` + λ

'u

, v`
= λ'u, v`
W
+ λ

'u

, v`
W
,
et
'v, u`
W
= 'v, u` = 'u, v` = 'u, v`
W

50 CHAPITRE V. FORMES HERMITIENNES
De part la propriété (V.2), on a les propriétés suivantes, pour tout u, v ∈ V, :
'u, v`
W
= 'u, v` ≥ 0 et 'u, v`
W
= 0 ⇐⇒ 'u, v` = 0.
Par hypothèse de réccurence, il existe (e
2
, . . . , e
n
) base orthogonale de W

. Alors la base
(e
1
, . . . , e
n
) est une base orthogonale de V. On remarque qu’elle est aussi orthonormée car
on a prit |e
i
| = 1.
Définition V.35. Un espace hermitien est un C-espace vectoriel de dimension finie et
muni d’un produit scalaire hermitien.
Théorème V.36. Soit V un espace hermitien et ϕ : V → V une application linéaire
hermitienne.
(i) Les valeurs propres de ϕ sont réel les.
(ii) Si λ, µ sont des valeur propres tels que µ = λ et si V
λ
= Ker(ϕ − λid) et V
µ
=
Ker(ϕ −µid) alors :
∀u, v, u ∈ V
λ
, v ∈ V
µ
, 'u, v` = 0.
(iii) Si W ⊂ V est stable par ϕ (c’est-à-dire ϕ(W) ⊂ W) alors W

est stable par ϕ.
(iv) ϕ est diagonalisable dans une base orthonormale.
Démonstration. (i) Comme ϕ est hermitienne, c’est-à-dire que A est inversible, il existe
u ∈ V, u = 0 tel que ϕ(u) = λu. Ainsi,
'ϕ(u), u` = 'λu, u` = λ'u, u`.
Comme 'ϕ(u), u` ∈ R et 'u, u` = 0 car u = 0, on a ainsi : λ ∈ R.
(ii) Soient λ = µ deux valeurs propres disctintes, u ∈ V
λ
(c’est-à-dire ϕ(u) = λu) et
v ∈ V
µ
(c’est-à-dire ϕ(v) = µv). On a :
λ'u, v` = 'ϕ(u), v` = 'u, ϕ(v)` = 'u, µv` = µ'u, v` = µ'u, v`.
Donc :
(λ −µ)'u, v` = 0.
Or, comme on avait λ = µ, cela implique que 'u, v` = 0.
(iii) On suppose que ϕ(W) ⊂ W. Soit v ∈ W

. Alors pour tout u ∈ W :
'ϕ(v), u` = 'v, ϕ(u)` = 0.
Or comme v ∈ W

et ϕ(u) ∈ W, on a : ϕ(v) ∈ W

.
V.2. AUTOMORPHISMES UNITAIRES 51
(iv) Le polynôme caractéristique de ϕ se décompose totalement sur C. Soit λ
1
une
valeur propre et :
V
λ
1
= Ker(ϕ −λ
1
id) = ¦0¦.
On a ainsi V
λ
1

est un espace supplémentaire de V
λ
1
et dimV
λ
1

< dimV. Par
réccurence sur la dimension, on pose p = dimV
λ
1
, q = dimV
λ
1

et n = p+q = dimV,
il existe une base orthonormale de V
λ
1

, (e
1
, . . . , e
q
) formée de ecteur propres, c’est-
à-dire pour tout 1 ≤ j ≤ q, ϕ(e
j
) = µ
j
e
j
. Il existe aussi une base (f
1
, . . . , f
p
)
orthonormale de V
λ
1
tel que ϕ(f
i
) = λ
i
f
i
. Ainsi, (f
1
, . . . , f
p
, e
1
, . . . , e
q
) forme une
base orthonormale de V. La matrice de ϕ dans cette base est :

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
λ
1
.
.
.
λ
p
µ
1
.
.
.
µ
q
¸

.
Corollaire V.37. Soit V un espace hermitien et f : V V →C une forme hermitienne.
Alors il existe une base (e
1
, . . . , e
n
) orthonormale pour le produit scalaire tel que f s’exprime
de la façon suivante :
f(u, v) =
n
¸
j=1
λ
j
x
j
y
j
avec u = x
1
e
1
+ + x
n
e
n
et v = y
1
e
1
+ + y
n
e
n
.
Démonstration. Il existe ϕ autoadjoint tel que pour tout u, v ∈ V, f(u, v) = 'ϕ(u), v`. Il
existe une base orthonormale (e
1
, . . . , e
n
) tel que ϕ(e
j
) = λ
j
e
j
. Soit : u = x
1
e
1
+ +x
n
e
n
et v = y
1
e
1
+ + y
n
e
n
. On a ainsi :
f(u, v) = 'x
1
λ
1
e
1
+ + x
n
λ
n
e
n
, y
1
e
1
+ + y
n
e
n
` =
n
¸
j=1
λ
j
x
j
y
j
.
V.2 Automorphismes unitaires
Définition V.38. Soit U un espace hermitien, f : U → U un endomorphisme. f est
unitaire si et seulement si pour tout u, v ∈ U, 'f(u), f(v)` = 'u, v`.
Remarque V.39. Cela implique que pour tout u ∈ U,
|f(u)|
2
= 'f(u), f(u)` = 'u, u` = |u|
2
.
Un endomorphisme unitaire conserve la norme.
52 CHAPITRE V. FORMES HERMITIENNES
Lemme V.40. Un endomorphisme unitaire est un automorphisme.
Démonstration. Si u ∈ U tel que f(u) = 0, on a :
0 = |f(u)| = |u| =⇒ u = 0.
Ainsi, Ker(f) = ¦0¦ donc f est une application linéaire U → U injective donc, comme U
est de dimension finie, bijective.
Théorème V.41. Soit f : U → U un automorphisme unitaire :
(i) Les valeurs propres de f sont des nombres complexes de module 1.
(ii) Si λ et µ sont deux valeurs propres distinctes de f alors U
λ
et U
µ
sont en somme
directe.
(iii) Si V ⊂ U tel que f(V) ⊂ V alors f(V

) ⊂ V

.
(iv) Il existe une base orthonormale de U formée de vecteurs propres.
Démonstration. (i) Si λ est une valeur propre de f alors il existe u ∈ U, u = 0 tel que
f(u) = λu. On a alors :
'f(u), f(u)` = 'u, u` ⇐⇒ 'λu, λu` = 'u, u`
⇐⇒ λλ'u, u` = 'u, u` ⇐⇒ λλ = 1.
– (ii) Soient λ et µ deux valeurs propres distinctes. Il existe donc u = 0 tel que f(u) =
λu et v = 0 tel que f(v) = µv. On a :
'f(u), f(v)` = 'u, v` ⇐⇒ 'λu, µv` = 'u, v`
⇐⇒ λµ'u, v` = 'u, v`
Comme λ = µ alors λµ
−1
= 1 donc :
⇐⇒ 'u, v`(1 −λµ) = 0 ⇐⇒ 'u, v` = 0.
(iii) Soit V ⊂ U. Si f(V) ⊂ V alors f(V) = V. Soient u ∈ V

et w ∈ V = f(u). Donc
il existe v ∈ V tel que f(v) = w. On a ainsi :
'f(u), w` = 'f(u), f(v)` = 'u, v` = 0.
Or, comme u ∈ V

et v ∈ V, on a bien : f(u) ∈ V

.
(iv) La démonstration se fait par réccurence sur les dimensions en utilisant les pro-
priétés (ii) et (iii). Soient λ
1
une valeur propre et U
λ
1
= Ker(f − λ
1
id). Comme
U = U
λ
1
⊕ U

λ
1
, on a : f(U
λ
1
) = U
λ
1
=⇒ f(U

λ
1
) = U

λ
1
. On considère g = f[
U

λ
1
est
un automorphisme unitaire. On applique finalement l’hypothèse de réccurence à g et
U

λ
1
(dimU

λ
1
= dimU −dimU
λ
1
< dimU).
CHAPITRE VI
COMPLEXIFICATION D’UN ESPACE EUCLIDIEN
VI.1 Complexifié d’un espace vectoriel réel
On considère C comme un R-espace vectoriel de dimension 2 et de base (1, i). C’est-à-
dire que tout nombre complexe s’écrit de façon unique comme x + iy avec x, y ∈ R.
Maintenant soit U un R-espace vectoriel, on considère L
R
(U, C). On a ainsi :
dim
R
L
R
(U, C) = 2 dim
R
U.
On montre que L
R
(U, C) est un C-espace vectoriel. Soit λ ∈ C et f : U →C, R-linéaire.
On veut savoir si λf ∈ L
R
(U, C). Soit α ∈ R :
(λf)(αu) = λf(αu) = λαf(u) = α(λf(u)) = α(λf)(u).
Lemme VI.1. On a :
dim
C
L
R
(U, C) = dim
R
U.
Précisément, soit (e
1
, . . . , e
n
) une base de U sur R et (e

1
, . . . , e

n
) ∈ L
R
(U, C) définie
par e

i
(e
j
) = δ
ij
. On a (e

1
, . . . , e

n
) est une base de L
R
(U, C).
Démonstration. 1. On montre que (e

1
, . . . , e

n
) est une partie génératrice de L
R
(U, C).
Soit ϕ ∈ L
R
(U, C) et λ
i
= ϕ(e
i
) ∈ C. Alors :
ϕ = λ
1
e

1
+ + λ
n
e

n
.
2. On montre enfin que (e

1
, . . . , e

n
) est une famille libre de L
R
(U, C). On suppose que :
λ
1
e

1
+ + λ
n
e

n
= 0.
Alors, soit 1 ≤ i ≤ n, l’image de e
i
s’exprime :
λ
1
e

1
(e
i
) + + λ
i−1
e

i−1
(e
i
) + λ
i
e

i
(e
i
) + λ
i+1
e

i+1
(e
i
) + + λ
n
e

n
(e
i
) = 0
implique que λ
i
e

i
(e
i
) = 0 et implique ainsi que λ
i
= 0. Ce qui fait que (e

1
, . . . , e

n
)
est une famille libre de L
R
(U, C).
53
54 CHAPITRE VI. COMPLEXIFICATION D’UN ESPACE EUCLIDIEN
Définition VI.2. Soit U un R-espace vectoriel. On appel le le complexifié de U :
U
C
= (L
R
(U, C))

C
.
U
C
est un C-espace vectoriel de même dimension que U.
Définition VI.3. On définit l’application :
∗∗ : U → U
C
u → u
∗∗
telle que pour tout ϕ ∈ L
R
(U, C,),
u
∗∗
(ϕ) = ϕ(u).
Théorème VI.4. (i) L’application
∗∗ : U → U
C
u → u
∗∗
est R-linéaire et injective. De plus, l’image d’un système libre de R est un système
libre sur C. En particulier, si (e
1
, . . . , e
n
) est une base de U sur R, (e
∗∗
1
, . . . , e
∗∗
n
) est
une base de U
C
sur C.
(ii) Tout vecteur de U
C
s’écrit de façon unique : u
∗∗
+ iv
∗∗
avec u, v ∈ C.
(iii) Pour tout C-espace vectoriel W et toute application R-linéaire f : U → W, il existe
une une application C-linéaire
˜
f : U
C
→ W tel que le diagramme suivant est com-
mutatif :
U
f

∗∗

W
U
C
˜
f

{
{
{
{
{
{
{
{
.
(iv) Soit f : U → V une application R-linéaire où U et V sont des espaces vectoriels réels
de dimension finie sur R, il existe alors une unique application C-linéaire f
C
: U
C

V
C
tel que :
U
f

∗∗

V
∗∗

U
C
f
C

V
C
Démonstration. (i) Soient α, β ∈ R et u, v ∈ U. On montre que (αu + βv)


= αu
∗∗
+
βv
∗∗
. On a, par définition, si ϕ ∈ L
R
(U, C,) :
(αu + βv)
∗∗
(ϕ) = ϕ(αu + βv) = αϕ(u) + βϕ(v) = αu
∗∗
(ϕ) + βv
∗∗
(ϕ).
VI.1. COMPLEXIFIÉ D’UN ESPACE VECTORIEL RÉEL 55
Ainsi, ∗∗ est R-linéaire. Soient (e
1
, . . . , e
n
) un système libre sur R et λ
1
, . . . , λ
k
∈ C :
λ
1
e

1

+ + λ
k
e

k

= 0.
On pose λ
j
= α
j
+ iβ
j
avec α
j
, β
j
∈ R. Alors pour tout L
R
(U, C),
λ
1
ϕ(e
1
) + + λ
k
ϕ(e
k
) = 0 =⇒ (α
1
+ iβ
1
)ϕ(e
1
) + + (α
k
+ iβ
k
)ϕ(e
k
) = 0
=⇒ α
1
ϕ(e
1
) + + α
k
ϕ(e
k
) + i(β
1
ϕ(e
1
) + + β
k
ϕ(e
k
)).
On a alors, pour tout ϕ ∈ U

:
ϕ(α
1
e
1
+ + α
k
e
k
) = 0
ϕ(beta
1
e
1
+ + β
k
e
k
) = 0.
Ainsi,

α
1
e
1
+ + α
k
e
k
= 0
β
1
e
1
+ + β
k
e
k
= 0
=⇒

α
1
= α
2
= = α
k
= 0
β
1
= β
2
= = β
k
= 0
.
Cela implique que pour tout j, λ
j
= 0.
(ii) Soient w ∈ U
C
= (L
R
(U, C))

C
et (e
1
, . . . , e
n
) une base de U sur R. Il existe
λ
1
, . . . , λ
n
∈ C tel que :
w = λ
1
e

1

+ + λ
n
e

n

.
On pose λ
j
= α
j
+ iβ
j
, α
j
, β
j
∈ R.
w = (α
1
+ iβ
1
)e

1

+ + (α
n
+ iβ
n
)e

n

= (α
1
e

1

+ + α
n
e

n

) + i(β
1
e

1

+ + β
n
e

n

)
= u
∗∗
+ iv
∗∗
,
avec u = α
1
e
1
+ + α
n
e
n
et v = β
1
e
1
+ + β
k
e
k
∈ U. On montre maintenant
l’unicité de l’écriture . Soit u
∗∗
+iv
∗∗
= 0 dans U
C
avec u, v ∈ U alors u = v = 0. En
effet, pour tout ϕ ∈ L
R
(U, C) :
(u
∗∗
+ iv
∗∗
)(ϕ) = 0 =⇒ ϕ(u) + iϕ(v) = 0.
En particulier, pour tout ϕ ∈ U

,
ϕ(u) + iϕ(v) = 0 =⇒ ϕ(u) = ϕ(v) = 0 =⇒ u = v = 0.
(iii) Nécessairement :
˜
f(u
∗∗
) = f(u). On définit
˜
f par les relations :
∀u, v,
˜
f(u
∗∗
+ iv
∗∗
) = f(u) + if(v).
˜
f ainsi définie est bien C-linéaire.
56 CHAPITRE VI. COMPLEXIFICATION D’UN ESPACE EUCLIDIEN
(iv) Soit g définie par le diagramme suivant :
U
f

g

D
D
D
D
D
D
D
D
V

U
C

V
C
.
On a ainsi g R-linéaire.
Remarque VI.5. Pour (iv), si on a f
1
: U → V et f
2
: V → W R-linéaire. On a :
(f
2
◦ f
1
)
C
→ (f
2
)
C
◦ (f
1
)
C
.
U

f
1

E
E
E
E
E
E
E
E
E
f
2
◦f
1

W

V
f
2

y
y
y
y
y
y
y
y
y

V
C
f
2C

D
D
D
D
D
D
D
D
U
C
(f
1
)
C
◦(f
2
)
C
=(f
2
◦f
1
)
C

f
1C

{
{
{
{
{
{
{
{
W
C
Remarque VI.6. Si (e
1
, . . . , e
n
) est une base de U et (f
1
, . . . , f
n
) est une base de V. Soit
A la matrice de f : U → V dans ces bases. La matrice de f
C
dans les bases (e

1

, . . . , e

n

)
et (f

1

, . . . , f

n

) est encore A.
Démonstration. On a :
f(e
j
) =
n
¸
i=1
a
ij
f
i
, a
ij
∈ R,
f
C
(e

j

) = f(e
j
)
∗∗
=

n
¸
i=1
a
ij
f

i

=
n
¸
i=1
a
ij
f

i

.
Dans la suite, on identifiera U et son image dans U
C
.
U → U
C
u → u
∗∗
On posera u
C
= u. Tout vecteur de U
C
s’écrit de façon unique u + iv avec u, v ∈ U.
VI.2. COMPLEFIXIÉE D’UNE FORME BILINÉAIRE SYMÉTRIQUE 57
VI.2 Complefixiée d’une forme bilinéaire symétrique
Proposition VI.7. Soit f : UU →R bilinéaire symétrique alors il existe une unique f
C
une forme hermitienne qui va de U
C
U
C
→C qui prolonge f, c’est-à-dire ∀u, v ∈ U ⊂ U
C
qui prolonge f, c’est-à-dire pour tout u, v ∈ U ⊂ U
C
, f
C
(u, v) = f(u, v).
Démonstration. Si g : U
C
U
C
→ C est auto-adjointe et vérifiant g(u, v) = f(u, v) pour
u, v ∈ U. Nécessairement,
g(u + iu

, v + iv

) = g(u, v) −ig(u, v

) + ig(u

, v) + g(v, v

)
= f(u, v) −if(u, v

) + if(u

, v) + f(u

, v)
Donc on a unicité. Inversement on vérifie que cette formule définie bien une forme hermi-
tienne qui répond à la question.
Proposition VI.8. Soit (e
1
, . . . , e
n
) une base de U, f bilinéaire symétrique U U →R.
(i) La matrice de f
C
dans la base (e
1
, . . . , e
n
) de U
C
est égale à la matrice de f dans la
base (e
1
, . . . , e
n
) de U.
(ii) rg(f
C
) = rg(f). En particulier, f
C
est non dégénérée ⇔ f est non dégénérée.
(iii) q
C
est positive si et seulement si q est positive et q
C
est définie positive si et seulmenet
si q est définie positive.
Démonstration. (i) La matrice de f
C
est caractérisée par (f
C
(e
i
, e
j
)) mais d’après la
proposition VI.7, pour tout 1 ≤ i, j ≤ n, f
C
(e
i
, e
j
) = f(e
i
, e
j
). Donc : (f
C
(e
i
, e
j
)) =
(f(e
i
, e
j
)). C’est donc égale à A la matrice de f.
(ii) On a alors rg f
C
= rg(A) = rg(f). Si le rang est maximal alors Ker f = Ker f
C
= 0.
(iii)
q
C
(u + iu

) = f
C
(u + iu

, u + iu

) = f
C
(u, u) −if
C
(u, u

) + if
C
(u

, u) + f
C
(u

, u

)
= f(u, u) −if(u, u

) + if(u

, u) + f(u

, u

) = q(u) + q(u

).
VI.3 Complexifié d’un espace euclidien
Soit U un espace euclidien muni de son produit scalaire ', `. On note ', `
C
la forme
hermitienne associée à ', `. D’après la proposition VI.8, ', `
C
est un produit scalaire
hermitien. On a que (U
C
, ', `
C
) est un produit scalaire hermitien.
Proposition VI.9. Soit V ⊂ U un sous-espace de l’espace euclidien. On considère
(V

)
C
⊂ U
C
.
(i) (V

U
)
C
= V

U
C
C
.
58 CHAPITRE VI. COMPLEXIFICATION D’UN ESPACE EUCLIDIEN
(ii) Si (e
1
, . . . , e
n
) est une base orthonormale de U alors (e
1
, . . . , e
n
) une base orthonor-
male de U
C
.
Démonstration. Soit u, v ∈ U alors on a : 'u, v`
C
= 'u, v`. En particulier, u ⊥ v ∈ U ⇔
u ⊥ v ∈ U
C
.
Proposition VI.10. Soient U un espace euclidien et f : U → U une application.
f

C
= (f
C
)

,
avec f

l’autoadjoint de f. Les propositions suivantes sont équivalentes :
(i) f auto-adjoint,
(ii) f
C
auto-adjoint,
(iii) f = f

,
(iv) f
C
= (f

)
C
= (f
C
)

.
Démonstration. Pour tout u, v ∈ U,
'f(u), v` = 'u, f

(v)` ⇐⇒ 'f(u), v`
C
= 'u, f

(v)`
C
⇐⇒ 'f
C
(u + iu

), v + iv

`
C
= 'u + iu

, (f

)
C
(v + iv

)`
C
,
et ceci pour tout u + iu

et v + iv

. Cela implique que (f

)
C
= (f
C
)

.
Proposition VI.11. Soient U un espace euclidien et f : U → U auto-adjoint. On lui
associe f
C
: U
C
→ U
C
auto-adjoint (d’après la proposition VI.10). Soient (λ
1
, . . . , λ
r
) des
valeurs réelles propres de f
C
, W et pour tout 1 ≤ i ≤ r, W
i
= Ker(f
C
− λ
i
id) ⊂ f
C
,
V
i
= Ker(f − λ
i
id) ⊂ U. Alors pour tout 1 ≤ i ≤ n, W
i
est engendré par V
i
. On a de
plus :
1. dim
C
W
i
= dim
R
V
i
,
2. U =
¸
1≤i≤r
V
i
est en somme directe orthogonale,
3. f est diagonalisable dans une base orthogonale de U.
Démonstration. On a tout d’abord V
j
⊂ W
j
. Soit u + iv ∈ W
j
:
f(u + iv)
. .. .

j
(u+iv)
= f(u) + if(v)
. .. .

j
u+iλ
j
v
.
Cela implique que f(u) = λ
j
u et f(v) = λ
j
v. Donc pour tout u, v ∈ V, W
j
est bien
engendré sur C par V
j
.
Soit (e
1
, . . . , e
k
) une base de V
j
sur R alors (e
1
, . . . , e
k
) est un système générateur de
W
j
sur C. (e
i
, . . . , e
k
) est libre dans U implique que (e
1
, . . . , e
k
) est libre dans U
C
. On
a alors (e
1
, . . . , e
k
) est une base de W
j
sur C. Donc k = dim
R
V
j
= dim
C
W
j
. Comme
U
C
= ⊕
1≤i≤r
W
j
est en somme directe orthogonale, on a alors :
dim
C
U
C
=
¸
1≤j≤r
dim
C
W
j
= dim
R
U =
¸
1≤j≤r
dim
R
V
j
.
VI.3. COMPLEXIFIÉ D’UN ESPACE EUCLIDIEN 59
Proposition VI.12. Soit U un espace euclidien, f : U → U. f est orthogonale si et
seulement f
C
est unitaire.
Démonstration. f est orthogonale si et seulement si f ◦ f

= id
U
⇔ f
C
= (f
C
)

si et
seulement si f
C
est unitaire.
Proposition VI.13. Soient f : U → U automorphisme orthogonale et λ = e

∈ C tel que
λ
2
= 1 une valeur propre de f
C
. Soit w = u + iv ∈ f
C
un vecteur propre de f
C
pour λ.
Alors :
(i) (u, v) est un système libre dans U et 'u, v` = 0.
(ii) Vect
U
(u, v) est stable par f et la matrice de f dans la base (u, v) de Vect(u, v) est :

cos θ sin θ
−sin θ cos θ

.
Démonstration. (i) Soit λ une valeur propre de f
C
et w ∈ f
C
tel que f
C
(w) = λw. On
pose w = u + iv. On a alors :
f
C
(w) = λw = f
C
(w.
Si λ
2
= 1, cela voudrait dire que λ = λ. On a alors 'w, w`
C
= 0.
'u + iv, u −iv`
C
= 'u, u` + iu, v + iv, u −'v, v`
= 'u, u` −'v, v` + 2i'u, v` = 0
Cela implique donc que 'u, v` et |u| = |v|. D’autre part, Vect
U
C
(w, w) est engendré
sur C par v et v. Cela entraine que (u, v) est un système libre.
(ii)
f(u) = f

w + w
2

=
1
2
(f
C
(w) + w
C
) =
1
2
(λw + λw).
Comme [λ[ = 1, on peut écrire λ = cos θ + i sin θ et :
λw = λ(u + iv) = (cos θ + i sin θ)(u + iv)
= ucos θ −v sin θ + i(v cos θ + usin θ).
On a ainsi :
f(u) = ucos θ −v sin θ,
f(v) = v sin θ + v cos θ
et la matrice de f dans la base (u, v) de Vect(u, v) est :

cos θ sin θ
−sin θ cos θ

60 CHAPITRE VI. COMPLEXIFICATION D’UN ESPACE EUCLIDIEN
Théorème VI.14. Soient U un espace euclidien, f : U → U orthogonal. Alors U peut se
décomposer en somme directe orthogonale :
U =

θ
i
U
θ
i
⊕U
1
⊕U
−1
,
avec
U
1
= Ker(f −id), U
−1
= Ker(f + id),
et pour tout i, dimU
θ
i
= 2r
i
est paire. De plus, pour tout i, il existe une base orthonormale
de U
θ
i
dans laquelle la matrice f s’écrit

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
1
.
.
.
1
−1
.
.
.
−1
B
1
.
.
.
B
n
¸

tel que, pour tout 1 ≤ i ≤ n :
B
i
=

¸
¸
¸
¸
¸
A(θ
i
)
A(θ
i
)
.
.
.
A(θ
i
)
¸

et dimB
i
= 2r
i
2r
i
.
Démonstration. On considère le complexifié de f, f
C
. Soient p = dimKer(f
C
−id) et q =
dimker(f
C
+ id). Soient λ
1
, . . . , λ
r
des valeurs propres de f
C
tel que, pour tout 1 ≤ i ≤ r,
λ
i
= 1, on définit :
W
λ
j
= Ker(f −λ
j
id) et k
j
= dim
C
W
λ
j
.
On choisit une base orthonormale (w
1
, . . . , w
k
j
) de W
λ
j
. On a ainsi W = W
λ
j
⊕W
λ
j
tel que
λ
j
= λ
j
. Une base de cet espace est (w
1
, . . . , w
k
j
, w
1
, . . . , w
k
j
). Si on considère w
0
= u
0
+iv
0
alors la base précédente devient (u
1
, v
1
, u
2
, v
2
, . . . , u
k
j
, v
k
j
) et le matrice de f dans cette base
est B
j
.
VI.4 Orientation d’un espace vectoriel réel et angle de rotation
Soient U un espace vectoriel réel tel que dim
R
U = n et (e
1
, . . . , e
n
), (e

1
, . . . , e

n
) deux
bases de U. On définit la relation ∼ d’équivalence suivante :
(e
1
, . . . , e
n
) ∼ (e

1
, . . . , e

n
) ⇐⇒ det
(e
1
,...,e
n
)
(e

1
, . . . , e

n
) > 0.
VI.4. ORIENTATION D’UN ESPACE VECTORIEL RÉEL ET ANGLE DE ROTATION61
Définition VI.15. On a deux classes d’équivalence pour ∼. Si on choisit une de ces deux
classes, on définit une ortientation dans l’espace U. Si on se limite à des bases orthogonales
alors :
det
(e
1
,...,e
n
)
(e

1
, . . . , e

n
) = ±1.
On dit que l’orientation choisit est directe si
det
(e
1
,...,e
n
)
(e

1
, . . . , e

n
) = 1,
et indirecte si
det
(e
1
,...,e
n
)
(e

1
, . . . , e

n
) = −1.
Si (e
1
, . . . , e
n
), (e

1
, . . . , e
n
) sont deux bases orthonormales, on redéfinira la relation ∼
d’équivalence précédente par :
(e
1
, . . . , e
n
) ∼ (e

1
, . . . , e

n
) = det
(e

1
,...,e

n
)
(e
1
, . . . , e
n
) = 1.
Définition VI.16. Une orientation étant choisie, on définit le produit mixte de n vecteurs
(v
1
, . . . , v
n
) comme étant :
[v
1
, . . . , v
n
] = det
(e
1
,...,e
n
)
(v
1
, . . . , v
n
).
où (e
1
, . . . , e
n
) est une base orthonormale directe.
Remarques VI.17. 1. Si (e

1
, . . . , e

n
) est une autre base orthonormale directe alors :
det
(e

1
,...,e

n
)
(v
1
, . . . , v
n
) = det
(e

1
,...,e

n
)
(e
1
, . . . , e
n
)
. .. .
1
det
(e
1
,...,e
n
)
(v
1
, . . . , v
n
) = dim
(e
1
,...,e
n
)
(v
1
, . . . , v
n
).
On a l’équivalence suivante :
(v
1
, . . . , v
n
) libre ⇐⇒ [v
1
, . . . , v
n
] = 0.
Proposition VI.18. Soit v
1
, . . . , v
n−1
∈ U et dimU = n. Il existe un unique vecteur
v
1
∧ v
2
∧ ∧ v
n−1
∈ U tel que pour tout u ∈ U :
'v
1
∧ v
2
∧ ∧ v
n−1
, u` = [v
1
, . . . , v
n−1
, u].
De plus, on a l’équivalence suivante :
v
1
∧ ∧ v
n−1
= 0 ⇐⇒ (v
1
, . . . , v
n−1
) est un système de vecteurs liés.
62 CHAPITRE VI. COMPLEXIFICATION D’UN ESPACE EUCLIDIEN
v
1
e
1
v
2
e
2
θ
Fig. VI.1 – Angle θ de v
1
et v
2
Exemple VI.19. Soit U = R
3
et v
1
, v
2
deux vecteurs dans R
3
. On prend e
1
tel que
v
1
= |v
1
|e
1
, e
2
tel que (e
1
, e
2
) est une base orthonormale de Vect(v
1
, v
2
) et e
3
tel que
(e
1
, e
2
, e
3
) soit une base orthonormale directe. L’angle θ de (v
1
, v
2
) est tel que :
v
2
= |v
2
|(cos θe
1
+ sin θe
2
).
On a ainsi :
v
1
∧ v
2
= |v
1
||v
2
|e
1
∧ (e
1
cos θ + e
2
sin θ) = |v
1
||v
2
|(e
1
∧ e
2
) sin θ. (VI.1)
e
1
∧ e
2
= e
3
car :
1. e
1
∧ e
2
∈ Vect(v
1
, v
2
)

= Vect(e
1
, e
2
), 'e
1
∧ e
2
` = [e
1
, e
2
, e
1
] = 0 et 'e
1
∧ e
2
, e
2
` =
[e
1
, e
2
, e
2
] = 0.
2. [e
1
, e
2
, e
1
∧ e
2
] = 'e
1
∧ e
2
, e
1
∧ e
2
` = 1 ⇔ (e
1
, e
2
, e
1
∧ e
2
) est une base orthonormale
directe.
Donc :
(VI.1) ⇐⇒ v
1
∧ v
2
= |v
1
||v
2
|e
3
sin θ.
Remarque VI.20 (Angle d’une rotation). Soient V un espace euclidien de dimension 2
et (u, v) une base orthonormale directe de V. Si f est une rotation alors la matrice de f
dans (u, v) est
A
+
=

cos θ −sin θ
sin θ cos θ

.
VI.4. ORIENTATION D’UN ESPACE VECTORIEL RÉEL ET ANGLE DE ROTATION63
u
f(u)
v
−v
θ
Fig. VI.2 – Angle entre u et f(u)
On appelle θ l’angle de la rotation mais cela dépend de l’orientation. Si (u, v) est directe
alors (u, −v) est indirecte. La matrice de f dans (u, −v) est :
A

=

cos θ sin θ
−sin θ cos θ

Si (u, v) et (u

, v

) sont deux bases orthonormales directes et f une rotation alors A
+
(u,v)
=
A
+
(u

,v

)
.
Index
adjoint, 27, 47
anti-déplacement, 37
application
bilinéaire, 15
anti-symétrique, 19
symétrique, 19
linéaire
orthogonale, 30
auto-adjointe (ou hermitienne), 46
autoadjoint, 28
automorphisme
unitaire, 51
base duale, 8
bidual, 9
complexifié, 54
déplacement, 37
espace
dual, 6
euclidien, 25
hermitien, 50
forme
bilinéaire, 15
non dégénérée, 19
hermitienne, 41
non dégénérée, 43
polaire
euclidienne, 21
hermitienne, 41
quadratique
définie positive, 22, 45
euclidienne, 21
hermitienne, 41
positive, 22, 45
signature, 34
forme polaire
rang, 31
groupe
spécial orthogonal, 37
isométrie
directe, 37
indirecte, 37
vectorielle, 36
noyau
à droite, 18
à gauche, 18
orientation
d’un espace euclidien, 61
directe, 61
indirecte, 61
orthogonal, 43
d’un sous-espace, 10
du dual, 10
par rapport à un espace, 19, 44
produit
mixte, 61
produit scalaire, 23
hermitien, 45
relation
d’équivalence, 2
retournement, 37
rotation, 37
symétrie orthogonale, 37
symbole
64
INDEX 65
Kronecker, 8
système de vecteurs
base orthonormale, 26
orthogonal, 26
orthonormale, 26
théorème
de la base incomplète, 1
transposée, 6