Professional Documents
Culture Documents
Analvs Numerique Matricielle: Jean Piene 0 Edieu
Analvs Numerique Matricielle: Jean Piene 0 Edieu
ANALVS NUMERIQUE
MATRICIELLE
I'- Cours
• Exercices
Ill- Corrigés détaillés
Luca Amadei
,Jean-Piene 0 edieu
1
•Baccllus2008 ~ - Prot~sion
_
EnJtux ., , dlttoe-nt
~srate91es el
1 1. De la
.ora11<:1uts d.-M <ont~~
--,·-
-'"-
Jati1iere -= cha-n.~emen1 a _ . , . . ... Del
'>ilMl'li('(lle f3dlM
ceraro Rotti.
........ ..
Jean-Pierre -
Coi.ot<e. Mtf'lt L!id'IJl l(uttyQ
. . . .
. -,_
Har'11A.
-
F~nçols
----
GHautMe. ~
Ellenne
.. ...
l.1ontaima
·=·"'"· ·--
- 1
xtJ6rMnctt.1 •IO
....ru!,.fu1>:1r
tJS'f'CfkllOQledu
·~·
Cl fJlmlf:"W
r artklla<:lf
- '
'TlOJons .et
YvanPaquel.
Pascal l.egrP
Elisabelh
Rosnel.
Stéphane
Ru.....
-0
0
c
::J
0
CX)
0
0
N
@
~
..c
OI
·c
>-
Cl.
0
u
,
ANALYSE NUMERIQUE
MATRICIELLE
Cours et exercices corrigés
Luca Amadei
Maître de conférences à l'Institut
de Mathématiques de Toulouse
Jean-Pierre Oedieu
Professeur à l'Institut
de Mathématiques de Toulouse
-0
0
c
::J
0
OO
0
0
N
@
......
..c
en
ï::::
>-
a.
0
u
DU NOD
Série« Mathématiques pour le Master/SMAI »
Ce livre est issu des cours d'analyse numérique matricielle que nous avons ensei-
gnés pendant plusieurs années en licence de mathématique et en licence d'ingénierie
mathématique. Il s'adresse aux étudiants de licence, à ceux de mastère ou préparant
l'agrégation, aux élèves ingénieurs et aux chercheurs confirmés.
Cet ouvrage s'articule autour de quatre thèmes principaux qui sont:
À vrai dire, cette division est informelle et plusieurs thèmes peuvent être abordés au
sein d'un même chapitre.
En rédigeant ce manuscrit, nous avons adopté le point de vue d'un numéricien :
..... pour chaque problème étudié nous décrivons :
-0 ~
0 "O
c c
0
::J ::l
.....
</)
• Les résultats théoriques qui y sont associés,
V
OO V
0 'V
0
N
</)
·;::: • Les problèmes de robustesse et de sensibilité,
@
8
::l
...... ro
..c c
0
• L'algorithmique et les problèmes de complexité,
en c
ï:::: V
>-
a. ·o..
0
• La stabilité des algorithmes.
0 (.)
u 0
0
..c:
o.. Par robustesse et sensibilité nous entendons l'étude locale de la fonction problème -
ro
.....J
1
solution c'est-à-dire l'étude des variations de la solution d'un problème en fonction des
"O
0 variations des données. Elle conduit au concept de conditionnement d'un problème qui
c
::l
0
est un des concepts clé de l'analyse numérique. Le conditionnement est une mesure
@ de la difficulté intrinsèque d'un problème.
vi Avant-propos
Le problème de la stabilité est, quant à lui, lié à l'utilisation d' une arithmétique
de précision finie au lieu de l'arithmétique des nombres réels. Les erreurs que l'on
commet pour calculer la solution d' un problème dépendent alors de l'algorithme
choisi pour mener ce calcul : des algorithmes différents peuvent donner des solutions
(approchées) différentes. La recherche d'algorithmes stables est un souci majeur de
l'analyse numérique.
Nous définissons la complexité d'un algorithme par le nombre d'opérations arithmé-
tiques sur le corps des nombres réels (ou des nombres complexes) que requiert l'algo-
rithme considéré. Un tel modèle continu (modèle Blum-Shub-Smale par exemple) est
cohérent avec l'usage de l'arithmétique virgule flottante.
Nous nous écartons du calcul formel sur ces deux derniers points. En effet, l'usage
de l'arithmétique (exacte) des nombres entiers rend inutile l'étude de la stabilité des
algorithmes, quant aux problèmes de complexité sur des modèles discrets ils font
aussi intervenir la taille des entiers considérés alors que, dans notre modèle, chaque
opération sur les nombres réels compte pour une unité quelle que soit la taille des
nombres ou la nature de l'opération.
Ce livre débute par un chapitre de rappels. Il sert à fixer les notations utilisées
et il contient l'énoncé de théorèmes fondamentaux de l' algèbre linéaire. Les quatre
chapitres suivants (2 à 5) sont consacrés aux normes matricielles, à l'arithmétique
virgule flottante, au conditionnement et au problème des erreurs. On passe ensuite
aux décompositions matricielles : LU, QR, Cholesky, SVD, à leur application à la
résolution des systèmes et au problème des moindres carrés (chapitres 6 à 9). Les deux
chapitres suivants étudient les méthodes itératives pour la résolution des systèmes.
Elles sont fondées soit sur un schéma de type approximations successives (chapitre 10)
soit sur des méthodes de projections sur des espaces de Krylov (chapitre 11). Les
chapitres 12 à 15 sont consacrés aux problèmes de sensibilité des problèmes de valeurs
propres, à leur calcul et à celui des sous-espaces invariants. Les chapitres 16 et 17
présentent des exemples de matrices et de problèmes d'algèbre linéaire : matrices
-0
c
0 classiques, systèmes obtenus via l'approximation d'équations aux dérivées partielles,
::J
0 problèmes industriels et assimilation des données.
CX)
0
0
Chaque chapitre se termine par un paragraphe d' exercices. Certains sont de simples
N
@
applications numériques, d' autres de véritables prolongements du cours. Ces exercices
~
..c
sont corrigés en fin d'ouvrage.
O'I
·c
>-
Cl.
0 Luca Amodei, Jean-Pierre Dedieu, Toulouse, juillet 2007.
u
Table des matières
AVANT-PROPOS v
3.2 Rayon spectral.. . .... .. ..... . ... . . . . . ... ... . . . ......... . . ... . 35
5.5 Le cas des systèmes linéaires : erreurs inverses ... . ...... . ...... 64
Table des matières ix
11.3 La méthode GMRES. . .... .. .... . .. . . .... . .. .. . ... . . . ... . .... 185
11.5 Analyse d'erreur ......... . .... . ... .. ........ . .... . .... . ...... 195
11.6 Notes et références. .... .... . . ...... . ...... . . .... .. . ... .. .... 199
EXERCICES ....................................................... 201
13.2 Forme réduite... . .... .... .... . ...... . .. . . .... .... . ...... . . . . 216
13.3 Équation de Sylvester . . .... . .. . .... . ... . .. . .... . .. . . . .... ... . 217
13.4 Diagonalisation par blocs d'une matrice . . . . . . . . . . . . . . . . . . . . . . 220
EXERCICES .... . ......... . ... . .... .. ........ .. ... . .... .. ........ . . 222
....
~
-0
0 "O CHAPITRE 14 •LE CALCUL DES VALEURS PROPRES...... . ......... . ......... 225
c i::
;:::s
::J
....
0
CX)
""'
~ 14.1 La méthode de la puissance...... . .. . . .... . . .. . ...... . . . ..... 225
~
0 '~
0
N ""'
·c::
0
14.2 Itération de sous-espaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
@ 'ro='
~
..c i::
0
14.3 La méthode QR.. ........ . ......... .. ......... . ........ .. .... 236
O'I i::
·c ~
>-
Cl. ·s.. 14.4 Le cas des matrices réelles... . . . . .. . ... . . . ... . .... . . . .. . . .... . 241
0 0
(.)
u ....00
..c:
14.5 L'utilisation de la forme Hessenberg . . . . . . . . . . . . . . . . . . . . . . . . . . 242
o..
ro
......l 14.6 La stratégie du décalage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
1
"O
0
i::
;:::s
14. 7 Remarques finales.. . . .. . . . . .. . ...... . .. . . .. . . . . .. . ...... . . . . 246
Q
@ 14.8 Notes et références. .. . . ... .... . ....... . .... ... .... . ....... . . 247
xii Table des matières
INDEX 313
Chapitre 1
1.1 NOTATIONS
Ce paragraphe a pour but de fi xer les notations qui sont utilisées tout au long de ce
livre.
• L' espace des matrices complexes (resp. réelles) à m lignes et n colonnes est
noté C/1!XI! (resp. JRl1!Xll). Pour une matrice A = (aij ) E cmxn , i est l'indice de
la ligne et j celui de la colonne.
1. Suivant un usage déjà ancien les mots composés vecteur-colonne, vecteur-ligne, matrice-colonne,
matrice-ligne sont unis par un trait d' union ; ils font leur pluriel en vecteurs-colonne . .. sur le modèle de
timbres-posle.
2 1 • Rappels d'algèbre linéaire
• Une matrice diagonale D est notée D diag(di) où les di sont les entrées
diagonales .
• GL11 (C) (resp. GL11 (1R.)) ou plus simplement GL11 est l'ensemble des matrices
A E C 11Xn (resp. A E JR.nXn ) qui sont inversibles. C'est un groupe pour la
multiplication des matrices appelé groupe linéaire. Les notations A -T et A -*
(inverse de la transposée et inverse de l'adjointe) ne sont pas ambigües parce
que (A T) - 1 = (A- 1)r, de même pour A * .
t
0
0
N
@
~
..c lm A = { Ax : x E IC"} = { x;a; : x E IC" } .
OI
·c
>-
Cl.
0
u C'est un sous-espace vectoriel de cm engendré par les vecteurs-colonne de A. Sa
dimension est le rang de A. Le rang de A est donc le nombre maximum de vecteurs-
colonne indépendants de A.
Une caractérisation utile du rang est la suivante : rang A = r si et seulement
s'il existe dans A une sous-matrice carrée r x r de déterminant non nul et si toute
sous-matrice carrée s x s avec s > r a un déterminant égal à O.
1.3 Déterminant 3
Ker A = {x E <C11 : Ax = 0} .
rang A+ dimKer A = n.
1.3 DÉTERMINANT
• Le déterminant d'une matrice A E <C11 xn est une forme multilinéaire alternée
des colonnes de A, on le note <let A.
• det / 11 = 1,
• detA = detA T,
1
• A est inversible si et seulement si <let A -=/= 0, dans ce cas det(A - ) = 1/ <let A ,
.... • Si deux matrices sont semblables elles ont même déterm inant.
-0 ~
0 "O
c i::
;:::s
::J
0 ....
CX)
""'
~
~
1.4 VALEURS PROPRES ET VECTEURS PROPRES
0 '~
0
N ""'
·c::
@
0 • On appelle valeur propre d' une matrice A E <C11 x 11 toute racine du polynôme
'ro='
~
..c i::
caractéristique
0
O'I i::
·c ~ PA(À) = det(A - A/ 11) = O.
>-
Cl. ·s..
0
0 (.)
u ....00 La multiplicité algébrique d'une valeur propre est sa multiplicité en tant que
..c:
o.. racine de l'équation caractéristique. Lorsque l'on parle de multiplicité d' une
ro
......l valeur propre c'est de la multiplicité algébrique dont il s'agit.
1
"O
0
i::
;:::s
Q
• L'ensemble des valeurs propres de A est appelé le spectre de A et se note
@ spec A .
4 1 • Rappels d'algèbre linéaire
À tout polynôme complexe P(z) = ao + a1z + ... + adzd et à toute matrice A E <C11 on
associe le polynôme matriciel
.... q
-0 ~ PA(À) = det(A - Àln) = IT(Ài - Ayn;
0 "O
c i::
;:::s i = .1
::J
0 ....
CX)
""'
~
~
0
0
'~ où les valeurs propres Àï, 1 ~ i ~ q, sont deux à deux distinctes, de multiplicité
""'
·c::
N
0 algébrique mi avec m 1 + ... + mq = n. Les sous-espaces caractéristiques de A sont
@ 'ro='
~
..c i::
les ensembles
0
O'I
·c i::
~
Ei = Ker (Ai In - A)111i .
>-
Cl. ·s..
0
0
u
(.)
Théorème 1.5 (Décomposition de Jordan) Pour toute matrice A E cnxn, il existe une
matrice P E GlLn(C) et une matrice J E cn x n telles que A = P J p - i et où J a la
structure diagonale par blocs suivante :
] =
1.7 TRACE
• La trace d' une matrice carrée A E cnxn est la somme de ses entrées diago-
-0
c
0 nales: Il
::J
0
CX)
0
trace A = L aii·
0 i= L
N
@ • Pour deux matrices M E cmxn et N E cn xm on a
~
..c
O'I
·c trace (MN) = trace ( N M)
>-
Cl.
0
u de sorte que, pour toute matrice A E cnxn et P E GlL11 ,
E= e 11
, (x, y) = L Xi Yi·
i =I
(x,y)=y*x
-0
c
0 (x, y)= L XiYi·
::J i= l
0
CX)
0
0
Avec les notation matricielles, x et y sont des vecteurs-colonne et
N
@
~
..c
O'I
·c
>-
Cl.
en identifiant la matrice yr x E lR 1x 1 au scalaire correspondant.
0
u l
• Lorsque (x, y) est un produit scalaire sur E , llx Il = (x, x) 2 est une norme sur
E et
(x, y) ~ llxllllYll
1 1
""'
·c::
0
• une matrice V E en
X Il est unitaire si et seulement si V * V = V V * = In .
....
0
0
..c:
e
tuent une base orthonormée de 11 pour le produit hermitien canonique.
o..
ro
......l • Les valeurs propres d'une matrice unitaire sont des nombres complexes de
1
"O
0
module 1. Le déterminant d'une telle matrice est aussi un nombre complexe de
i::
;:::s module 1. Les matrices unitaires dont le déterminant est égal à 1 constituent un
Q
@ sous-groupe de lUn appelé groupe spécial unitaire. Il est noté §1U11 •
10 1 • Rappels d'algèbre linéaire
• Les valeurs propres d'une matrice orthogonale sont des nombres complexes de
module 1. Le déterminant d'une telle matrice est égal à 1 ou - 1. Les matrices
orthogonales dont le déterminant est égal à 1 constituent un sous-groupe de ((])11
appelé groupe spécial orthogonal ou groupe des rotations. Il est noté §((])n ·
Les matrices hermitiennes, les matrices unitaires, les matrices réelles et antisy-
métriques (AT = - A) sont des matrices normales.
E = F œG avec F = lm p , G = Ker p.
De plus
p(y) =y pour tout y E F ,
p(y ) = 0 pour tout y E G.
On dit aussi que p est la projection sur F parallèlement à G.
p op = pet p * = p ,
E= F œG avec F = lm p et G = F ..L .
....
-0 ~
"O
c
0
i::
p est appelé la projection orthogonale de E sur F et noté p = IlF
;:::s
::J
0 ....
CX)
""'
~
0
~
'~ • Pour tout x E E la projection orthogonale de x sur F est l' unique vecteur
0
N ""'
·c::
0 y E F qui rende minimum la distance de x à F:
@ 'ro='
~
..c i::
O'I
·c
0
i::
~
y E F et llx - Yll = min llx -
zE F
zll -
>-
Cl. ·s..
0
0 (.)
u ....00
..c:
o.. • Lorsque E = <C11 et que F est le sous-espace vectoriel engendré par r vecteurs
ro
......l indépendants Yi, 1 ~ i ~ r , la matrice de Ilp est égale à Y(Y * Y)- 1Y* avec
Y = (y 1 ... Yp ) (l'inversibilité de la matrice Y* Y est prouvée au théorème
1
"O
0
i::
Q
;:::s 7 .2, voir aussi la remarque 7 .1). Si les vecteurs Yi sont orthonormés, alors
@ IlF = YY * .
12 1 • Rappels d'algèbre linéaire
• Toutes les matrices d'une même ligne (Mij avec 1 ~ j ~ n) ont le même
nombre de lignes,
• Toutes les matrices d'une même colonne (Mij avec 1 ~ i ~ m) ont le même
nombre de colonnes.
Ainsi, il existe des nombres entiers mi et n j tels que Mij E cm; Xllj .
On étend aux matrices par blocs les concepts de matrice diagonale, de matrice
triangulaire supérieure ou de matrice triangulaire inférieure :
-0
0
c
::J
0
CX)
0
Tous les produits Mik Nkz sont bien définis et Mik Nkl E cm; X Pt . Le produit par blocs
0
N des matrices M et N est défini par :
@
~ Il
..c
OI
·c
>-
Cl.
MN= ((MN)u), 1 ~ i ~ m, 1 ~ l ~ p avec (MN)u = L MikNkz ·
0 k= I
u
La propriété essentielle de ce produit est qu'il coïncide avec le produit usuel; c'est
la raison pour laquelle on les note tous deux de la même manière. Toutefois, il faut
prendre garde à la non-commutativité du produit MikNkz et respecter l'ordre de ces
facteurs.
Etudions un exemple : prenons
1.14 Matrices par blocs 13
• M = ( ~ ~ n ~n = ( où A = ( ~ ~ ) E ~2 x 2 et où l'on
note par 0 le scalaire 0 E ~ dans M , la matrice ( ~ ) E ~2 x 1 et la matrice
( 0 0 ) E lR 1 x 2 dans la description de M par blocs,
( 3 3) ElR1x2.
MN = ( A 0 ) ( li )
O 1 B
= ( Ali+ OB
O/i + 1B
) = ( AB ) = ( ~ ~) .
3 3
MN = ( ~~~
001
)( 33
~~ ) ( ~3 ~3 )
1.14.3 Matrices t riangulaires par blocs
M11 0 0
.... 0
-0 ~
M 21 M22
c
0 "O
i::
M=
;:::s
::J
0 ....
CX)
""'
~
~
M 111 M11 2 M 1111
0 '~
0
N ""'
·c::
0 on a :
@ 'ro='
~
..c i::
0
1. Le déterminant de M est le produit des déterminants des matrices Mii :
O'I i::
·c
>-
Cl.
0
u
~
·s..
0
(.)
....00
det M = II det Mii,
l ~ i ~n
..c:
o..
ro
......l 2. Le polynôme caractéristique de M est le produit des polynômes caractéristiques
1
"O des matrices Mii :
Q
0
i::
;:::s PM(À) = II
PM;;(À) ,
@ l ~ i ~n
14 1 • Rappels d'algèbre linéaire
Démonstration. La propriété sur les spectres découle de celle sur les poly-
nômes caractéristiques qui est elle-même une conséquence de la formule
donnant le déterminant. Pour prouver cette dernière il suffit de l'établir pour
n = 2 puis de raisonner par récun·ence. Traitons donc le cas
M = (~ )( ) ( v~1 l~, )
0 T 0
1112 M 11 V M 12
v-1
Comme les matrices ( ~ 0
1 112
) et ( 0
°)
1112
sont inverses l' une de
l'autre on a
detM = det (
M 11
T
V
0
)
M 22
M = (~ ~)
1.15 Décomposition de Schur 15
)(~ )
0
D - CA- 1 B
De plus
det(M) = det(A)det(D - CA- 1 B).
....
-0
0
~
"O 1.15 DÉCOMPOSITION DE SCHUR
c i::
;:::s
::J
0 ....
CX)
""'
~
~
Théorème 1.12 Pour toute matrice A E cn x n il existe une matrice unitaire U E UJ 11
0 '~
0
N ""'
·c::
0
et une matrice triangulaire supérieure R telles que
@ 'ro='
~
..c
O'I
i::
0 A = URU*.
i::
·c ~
>-
Cl. ·s..
0 0
(.) Cette décomposition est appelée décomposition de Schur de A. Pour une matrice
u ....00
..c:
réelle, la décomposition de Schur est réelle si et seulement si les valeurs propres de A
o..
ro sont réelles.
......l
1
"O
0 Démonstration. Par récurrence sur n. Le cas n = 1 est immédiat. Suppo-
i::
Q
;:::s
sons que le théorème soit vrai pour des matrices de taille n - 1 x n - 1.
@ 1Soit À une valeur propre de A et soit x E C 11 un vecteur propre associé avec
16 1 • Rappels d'algèbre linéaire
x* ) ( x* Ax x*AZ )
V * A V = ( Z* A ( x Z )= Z*Ax Z *AZ .
* ( A x* AZ )
V AV= 0 Z *AZ .
V ' AV = ( ~ x * AZ ) = ( l
WTW* 0 W
0 )("' x* AZW)(l
0 T 0
R = ( ~ x* AÇW ) et u= v( b ~ ).
R=
1.16 Notes et références 17
chaque bloc diagonal Rii est soit de taille 1 X 1 soit de taille 2 X 2 avec un spectre
constitué de deux valeurs propres complexes conjuguées.
c'est-à-dire
A(x y) = (x y) ( ~{3 !)
Notons que x +iy et x -iy sont linéairement indépendants parce qu'associés
aux valeurs propres distinctes a ± i f3. On en déduit que x et y sont aussi
linéairement indépendants. Soit (q 1, q2 ) une base orthonormée de l'espace
.... engendré par x et y et soit B E JR 2 x 2 telles que (q 1 q 2 )B = (x y). On a
-0 ~
0 "O
c i::
;:::s
::J
0 ....
CX)
""'
~
~
0 '~
0
N ""'
·c::
@
0
On construit Q en prenant pour colonnes q 1 et q2 complétés par n - 2
'ro='
~
..c i:: autres vecteurs pour en faire une base orthonormée (qï) de JRn. On obtient
)
0
~ 1 !~~
O'I i::
·c ~
>-
Cl. ·s.. Qr A Q = ( avec les propriétés souhaitées.
0 0
(.)
u ....00
..c:
o..
ro
......l
1 1.16 NOTES ET RÉFÉRENCES
"O
0
i::
Q
;:::s
Le terme matrice qui est au cœur du sujet de ce livre est utilisé pour la première fois
@ par le mathématicien anglais James-Joseph Sylvester (18 14-1897) en 1850 dans un
18 1 • Rappels d'algèbre linéaire
texte intitulé Sur une nouvelle classe de théorèmes. Ce mot provient de la racine indo-
européenne m-a qui désigne la mère et qui a donné les mots latins mater (mère) et
matrix : femelle reproductrice, puis l'organe qui sert de réceptacle au f œtus (l'utérus)
et, par extension de sens, au moule (fonderie, sculpture), au contenant, à un registre
(la matrice des impôts).
La notion de matrice est définie de manière générale par Arthur Cayley (1821-1895)
dans son traité Mémoire sur la théorie des matrices (1858).
Il est difficile de recommander un ouvrage d 'algèbre linéaire générale tant ce sujet
a fait l'objet de publications. Osons toutefois le« Cours d ' algèbre » de R. Godement
[12] et« Algèbre linéaire» de notre collègue J. Grifone [16].
-0
0
c
::J
0
CX)
0
0
N
@
~
..c
O'I
·c
>-
Cl.
0
u
Exercices 19
EXERCICES
an-1 Ü Û 1
a11 0 0 0 1
"O
1
matrice diagonale D E c 2 x 2 telles que
0
i::
;:::s
Q
a b) = U DU*.
@ ( -b a
20 1 • Rappels d'algèbre linéaire
Exercice 1.4
Soient a et f3 deux nombres réels. Calculer une matrice orthogonale 0 E 0 2 et une
matrice diagonale D E R2 telles que
1+ a2 af3 ) T
( af3 l + /3 2 = ODO .
Exercice 1.5
Soient a et b E Rn non nuls. Calculer les valeurs propres et les sous-espaces propres
de la matrice 2n x 2n suivante :
(1 + llall;)l,z baT .)
( abT (1 + llbll;)J,, .
Exercice 1.6
Soit A E ccmxn et soient X E CC11 et y E ccrn tels que y* Ax i= O. Posons
B =A_ Axy* A
y*Ax
Montrer que :
1. lm B C lm A C lm B +CC Ax,
2. Ker A C Ker B,
3. x E Ker B et x ~ Ker A .
4. En déduire que rang B = rang A - l.
-0
0
c
::J
0 Exercice 1. 7 Matrice compagnon
CX)
0
0 Étant donnés n nombres complexes a0 , ... , a,, _ 1, la matrice
N
@
~
..c
0 0 0 - ao
OI
·c 1 0 0 -a1
>-
Cl. 0 1 0 - a2
0 A=
u
0 0 1 - an-1
Exercice 1.8
Soit la matrice par blocs :
M = (~ ~)
avec A E C 11 x 11 , D E cmxm, B E cnxm et C E cm x n. Montrer que M est inversible
si et seulement si A et D sont inversibles. Calculer alors l'inverse de M à l' aide de A,
B et D. Donner 1' inverse de la matrice
M = ( ~ ~)
Exercice 1.9
Soit M = ( ~ ~ ) avec A E C""', D E cmxm, B E C'"m et C E cmx".
/~) ( ~
1
ln 0 ) ( 111 A- B )
M = ( CA - 1 D - CA - i B 0 lm .
0
0
~
'~ En déduire que det(M) = det(D)det(A - BD - 1 C). Montrer que si de plus
N ""'
·c::
0 n = met BD = DB , alors det(M) = det(D A - BC).
@ 'ro='
~
..c i::
0
3. On suppose que A et D - C A - 1 B sont inversibles. À l'aide de la question 1
O'I
·c i::
~ donner une expression de M - 1 utilisant A - J et ( D - C A - 1 B)- 1 .
>-
Cl. ·s..
0
0
u
(.)
Exercice 1.10
Soient A et B E C 11 xn. Montrer que
Exercice 1.11
Soit la matrice par blocs :
Montrer que
M-1( A - B
B)M = (A+iB
A 0 A - zB
o _ )·
En déduire que
-0
det ( _AB !) = det(A + i B) det(A - i B) = ldet(A + i B) l
2
.
0
c Si de plus AB= BA on a
::J
0
CX)
0
0
N
det ( _AB !) 2
= det(A + B
2
)
@
~
..c
O'I
·c Exercice 1.12
>-
Cl.
0 Utiliser le complément de Schur pour déterminer l'inverse de la matrice 5 x 5
u
suivante:
1 0 0 1 2
0 1 0 2 1
0 0 1 3 2
4 1 0 1 2
1 0 1 0 1
Exercices 23
Exercice 1.13
Soit A E en xn tridiagonale
a b 0 0
c a b
A(a ,b, c) = 0 0
c a b
0 0 c a
où a, b , c E <C avec be -:/= O. Nous allons calculer les valeurs propres et les vecteurs
propres de A(a , b , c).
1. On commence par traiter le cas des matrices A(O, b , c). Montrer que pour tout
:7
p = 1 ... n , le vecteur v <P) = (v ip), ... , v~p)l où Vkp) = ( Jt) k sin est un
vecteur propre de A(O, b, c) relatif à une valeur propre À p que l'on précisera.
Montrer que ces valeurs propres sont distinctes et que les vecteurs v<P) sont
indépendants.
2. Déterminer les valeurs propres et les vecteurs propres de A(a , b, c).
Exercice 1.14
Soit A E <C11 xn antihermitienne, c'est-à-dire telle que A*= -A.
l . Montrer que les valeurs propres de A sont des nombres complexes imaginaires
purs.
2. Montrer que 111 - A est inversible.
.... 3. Montrer que Q =Un - A) - 1(111 +A) (connue sous le nom de transformation de
-0 ~
c
0 "O
i::
Cayley) est unitaire et que - 1 tj. spec Q.
;:::s
::J
0 ....
CX)
""'
~
~
0 '~
0
N ""'
·c:: Exercice 1.15
0
@ 'ro=' Soient X et y deux vecteurs linéairement indépendants de <C11 • On considère la
~
..c
O'I
i::
0
i::
matrice A = xy * + yx* E <C11 xn.
·c ~
>-
Cl. ·s..
0
1. Montrer que A est hermitienne, de rang 2 et déterminer lm A.
0 (.)
u ....
0
2. Déte1miner les valeurs propres de A ainsi que les sous-espaces propres associés
0
..c:
o.. (utiliser la décomposition <C11 = Im A EB (lm A)-1 ). Préciser le cas x, y E JR11 •
ro
......l
"O
1 3. Étudier par la même méthode le cas de la matrice B = xy* - yx * E cnxn .
0
i::
;:::s Montrer qu'elle est antihermitienne, c' est-à-dire telle que B* = - B , de rang 2,
Q
@
déterminer ses valeurs propres, ses vecteurs propres et préciser le cas x, y E JR11 •
"O
0
c
:J
0
OO
0
0
N
@
~
..c
O'I
·;::::
>-
0..
0
u
Chapit re 2
Dans ce chapitre nous allons étudier l'arithmétique« virgule flottante » puisque c'est
elle (ou l'une de ses versions) que le calcul scientifique utilise en machine au lieu
de celle du corps IR. des nombres réels. Il faut bien avoir conscience du fait que cela
introduit des erreurs d'arrondi et qu'à force d'empiler de telles erreurs on peut aboutir
à des résultats sans signification. Nous allons définir les nombres flottants, le concept
d'arrondi, les opérations sur les flottants et nous étudierons le problème du calcul d'un
produit scalaire.
-0
0
Définition 2.1 Donnons-nous quatre nombres entiers : /3 > 1, t ): 1, emin E -N et
c
::J emax E N. Les nombres flottants qui leur sont associés sont les nombres réels suivants
0
CX)
0
0 y= ±m X 13e-t
N
@
~
..c
O'I
f3 est la base, en général f3 = 2, 10 ou 16,
·c
>-
Cl.
0 t est la précision,
u
e est l'exposant, c'est un entier qui vérifie emin ~ e ~ emax ; emin est l'exposant
minimum et emax est l'exposant maximum,
_± (dl/3 + 132
y -
d2 + . . . + 131dt ) /3e
avec emin ( e ( emax et 0 ( di ( /3 - 1. On utilise plutôt la notation suivante :
Le choix des nombres flottants normalisés privilégie l'écriture .1234 1o- 6 plutôt
que .01234 10- 5 .
2.2 ARRONDIS
-0
0 fl: IR ~ lF
c
::J
0
CX)
0
qui associe à un nombre réel x le flottant f l(x) le plus proche de x.
0
N
@ Cette définition n'est pas complètement déterministe. Il y a plusieurs stratégies
~
..c possibles pour définir l' anondi de x lorsque celui-ci est équidistant de deux flottants.
O'I
·c Par exemple on peut prendre le flottant le plus éloigné de O.
>-
Cl.
0
u Définition 2.4 Les concepts d'overflow et d'underfiow pour un nombre réel x sont
définis par les inégalités lxl > maxyElF IYI et 0 < lxl < minyEIF, y=fO IYI·
Définition 2.5 L'unité d'arrondi est
131-t
U= - -
2 .
2.2 Arrondis 27
L'énoncé suivant prouve que, dans le changement d' un nombre réel par son arrondi,
on commet une erreur relative constante : c'est la propriété fondamentale des nombres
flottants.
mm y, max
[yEIF, y>O yEIF, y>O
y] ,
il existe un autre nombre réel ô, lôl < u, tel que
fl(x) = x (l + ô)
ou bien
fl(x) - X
( u.
X
Remarque 2.3. Le fait que les en-eurs d' an·ondi soient relativement constantes
n'est pas sans conséquences lorsque ce sont les erreurs absolues qui importent.
Voici un calcul effectué à l'aide de Maple (/3 = 10, t = 10):
xoy = f l(x o y)
pour tous x et y réels.
Notons, en vertu du théorème 2.6, qu'il existe o, loi < u, tel que
xoy = (x 0 y)(l + ô).
En général, x et y sont eux-mêmes flottants mais il n'y a aucune raison pour que
-0
0
1'opération x o y fournisse un résultat dans F. Reprenons l'exemple des flottants de
c l'exercice 2.1.
::J
0
CX)
0
0
• .99-î-.099 = fl(l.089) = 1.1
N
@
~
•. 02 x 9.9 = J zc.198) = .20,
..c
O'I
·c
>- • 9.9:.02 = fl(495) = overflow.
Cl.
0
u
2 .4 EXEMPLE : LE CALCUL DU PRODUIT SCALAIRE
Le calcul d'un produit scalaire est une opération essentielle que l' on retrouve lors
d'un produit matrice-vecteur ou matrice-matrice. Nous allons analyser ce qui se passe
lorsqu' un tel produit est calculé en arithmétique flottante.
2.4 Exemple : le calcul du produit scalaire 29
- -
• s, = Pi = X1Y1(l + 81) ,
-
• S2 =
-
f l(Si - o
+ P2) = (xi Yi (1 + 1) + X2Y20 + 82))(1 + 03),
o
avec les notations suivantes : tous les vérifient 181< u et une expression du type
(1+0)11 est écrite pour un produit (1 + oi) ... (1 + o,i). Ils ont la propriété suivante :
.... Alors
-0
0
~
"O Il?=!(1 + ôi) = 1 + 811
c i::
;:::s
::J
0 .... pour un réel 811 qui vérifie l'inégalité 1811 1 < 'Yn·
CX)
""'
~
~
0 '~
0
N ""'
·c:: Dans le cas du produit scalaire nous avons obtenu :
0
@ 'ro='
~
..c
O'I
i::
0 • S,1 = XtYL + · · · +XnYn
i::
·c ~
>-
Cl. ·s..
0 0
(.)
u ....00
..c:
o..
ro
À ce stade de notre analyse nous avons deux interprétations possibles de ce résultat.
......l
1
La première est de constater que l' on a obtenu une estimation de l'erreur absolue
"O
0 commise dans ce calcul :
i::
;:::s
Q
@
30 2 • L'arithmétique «virgule flottante »
Remarquons que cette en-eur dépend de l'ordre dans lequel on effectue les calculs, un
ordre pour lequel
n
ISn - S,i l ~ Yn L lxiYi I·
i= l
autrement dit S11 peut être vu comme le produit scalaire exact de deux vecteurs proches
des vecteurs de données : x' = (x 1 , ••• , x 11 ) et y' = (y 1(1 + 8,i), . .. , YnCl + 82)). Le
choix fait de x' et y' n'est bien sûr pas unique, toute mixture x' = (a 1x 1 , ••• , a 11 x,i)
et y' = (/31 Yt, ... , {3 11 y,z) avec a1 /31 = (1 + Bn) et cetera est acceptable.
Cette interprétation, introduite par Givens et Wilkinson, est connue sous le nom de
« backward en-or analysis » ou « analyse rétrograde des en-eurs ». Sa signification est
importante pour un numéricien. Si 1'on suppose que les vecteurs x et y sont donnés de
façon approchée (soit résultant de calculs approchés, soit donnés expérimentalement),
le calcul flottant du produit scalaire (x , y) qui nous a conduit à S'n = (x', y') sera tout
à fait acceptable si les vecteurs x' et y' sont dans les tolérances du problème.
Insistons sur le fait que ces deux points de vue sur l'analyse des en-eurs peuvent
être transposés à tout calcul approché : une analyse directe fournit une estimation de
-0 la taille de l'erreur commise, une analyse rétrograde donne au calcul sa signification.
0
c
::J
0
CX) 2.4.2 Calcul en éventail
0
0
N
@
La stratégie du calcul en éventail consiste à effectuer tous les produits xi Yi puis,
~
..c
pour les additionner, à les séparer en deux sous-ensembles, à sommer chacun d'eux
O'I
·c et enfin à additionner ces deux sommes. Cette procédure s'applique aussi aux sous-
>-
Cl.
0
ensembles en question puis aux sous-sous-ensembles et ainsi de suite ... ce qui conduit
u au schéma :
2.5 Notes et références 31
X1Y1
'\,
X ) YI+ X2Y2
/ '\,
X2Y2
x3y3
'\, /
X3y3 + X4y4
/
X4y4
Ainsi
.... Il
-0
c
0
~
"O
i::
;:::s
IS11 - Sn l ~ 'YN L lxiYi l
i= l
::J
0 ....
CX)
""'
~
~
et la borne obtenue pour cette erreur abso1ue est bien moindre que pour le calcul en
0 '~
0
N ""'
·c:: série.
0
@ 'ro='
~
..c i::
0
O'I
·c
>-
i::
~
·s..
2.5 NOTES ET RÉFÉRENCES
Cl.
0 0
(.)
u ....00 Le lecteur voulant en savoir plus peut consulter le livre de J.-M. Muller « Arithmétique
..c:
o..
ro
des ordinateurs» [25] qui est téléchargeable gratuitement via le site
......l
1 http://prunel.ccsd.cnrs.fr/ensl-00086707
"O
0
i::
;:::s
ou bien l' ouvrage plus récent de J.-C. Bajard et J.-M. Muller « Calcul et arithmétique
Q des ordinateurs » [4].
@
32 2 • L'arithmétique «virgule flottante »
EXERCICES
Exercice 2.1
Quels sont les nombres flottants normalisés correspondant aux paramètres /3 = 10,
t = 2, emin = - 1, emax = 1.
Exercice 2.2
Montrer que le plus grand des nombres flottants normalisés positif est 13em•x (l -13-t )
et le plus petit 13em;n- 1.
Exercice 2.3
Dans le système des nombres flottants de l' exercice 2.1 calculer l' expression
3(4/3 - 1) - 1 en suivant le schéma
Effectuer ce même calcul sur votre calculette ou bien à l'aide de Maple en prenant
«Digits := 20 » .
Exercice 2.4
Prouver la proposition 2.8.
-0
0
c
::J
0
CX)
0
0
N
@
~
..c
O'I
·c
>-
Cl.
0
u
Chapitre 3
Un espace de matrices tel que ffi.m XII ou cm XII étant un espace vectoriel de dimension
finie on peut lui associer toutes so11es de normes qui, rappelons le, sont toutes équiva-
lentes, c'est-à-dire définissent la même topologie. Mais toutes ces normes possibles
n'ont pas forcément un bon comportement vis-à-vis de la multiplication des matrices
ou des produits matrice-vecteur, à la différence des normes matricielles que nous
introduisons ici.
Définition 3.1 Une norme surcn xn est multiplicative si llABll ( llAll llBll quelles
que soient les matrices A et B E C11 xn.
-0
0
c
::J Définition 3.2 Une norme sur cmxn est consistante avec des normes 11 -llm sur cm
et 11-lln sur C11 si llAxllm ( Il A 11 llx1111 pour toute matrice A
0
CX) E cm Xn et tout vecteur
0
0
N
XE C11 •
@
~ Étant donné deux espaces vectoriels normés de dimension finie E et F, nous notons
..c
O'I
·c par .C(E , F) l'espace des applications linéaires L: E---+ F .
>-
Cl.
0
u Définition 3.3 La norme d'opérateur sur l'espace .C(E, F) est définie par
Remarquons que dans cette définition nous notons de la même manière la norme de
E, celle de F et celle de .C(E, F). Le contexte permet de s' y retrouver.
34 3 •Normes sur les espaces de matrices
Par définition du supremum (le plus petit des majorants) llLll est la plus petite des
constantes C E IR qui vérifient
llL(x)ll ~ C llxll
pour tout x E E. D'autres caractérisations des normes d'endomorphisme sont données
à l'exercice 3.1.
Exemple 3.1 :
1. La norme d'opérateur d 'une matrice A E cmxn associée à la norme
-0
0
c Il
::J
0
CX)
0
llxll1 = L lxi l
0 .i = l
N
@
~
..c sur C.11 et
O'I m
·c
>-
Cl.
0
llYll1= L IYd
u i= l
sur C11 et
Le rayon spectral d' une matrice joue un rôle central dans l'analyse de nombreux
phénomènes et il est important de pouvoir le calculer. Voici deux résultats en ce sens :
....
IAI = IAI llxll = llAx ll = llAxll:::;; llAll llxll = llAll -
-0 ~
0 "O
c i::
::J ;:::s
.... Théorème 3.7 (Théorème de Gelfand) Pour toute matrice A E C 11 xn et pour toute
0
CX)
""'
~
~
norme sur cnxn
0 '~
0
N ""'
·c::
0
p(A) = lim
p-+oo
llAP ll'/P_
@ 'ro='
~
i::
Démonstration. Montrons tout d'abord que la valeur de la limite est indé-
..c
O'I
·c
0
i::
~
pendante de la norme choisie. Notons 11-11 a une norme sur en x 11
pour laquelle
>-
Cl. ·s..
0
0
u
(.)
-0
0
llxll/ = L lxi l2·
i= J
c
::J
0 Théorème 3.9 La norme spectrale d'une ma,trice A E cmxn est égale à la racine
CX)
0
0
carrée du rayon spectral de A * A :
N
@
~
..c
llAll; = p(A *A)
O'I
·c
>- et, lorsque A est hermitienne,
Cl.
0
u l All2 = p(A).
Démonstration. Remarquons que A * A est une matrice hermitienne et que
ses valeurs propres sont ~ O. En effet (A*A)* = A * A ** = A * A et si
A * Ax = Àx avec x -/= 0 on obtient, en multipliant à gauche par x *,
Remarque 3.1. La norme spectrale d' une matrice-colonne a E cmx 1 est égale
à sa norme en tant que vecteur de cm :
l alli = J2:;1~ 1 la; 2. La notation llall2
1
....
Proposition 3.10 Quelles que soient la matrice A E cm xn et les matrices unitaires
-0 ~
"O
V E Dm et V E Un, on a
0
c
::J
i::
;:::s
.... ll VAV l!i = l All2 ·
0
""'
~
CX)
0
0
~
'~ Démonstration. ll VAV ll; = p(V* A* U * UAV) = p(V* A * AV) =
""'
·c::
N
@
0 p(A * A) = IlA Il; . La première égalité vient du théorème 3.9, la seconde
'ro='
~
..c i::
a lieu parce que V est unitaire et la troisième parce que V * A* A V et A * A
0
O'I
·c i::
~
sont semblables.
>-
Cl. ·s..
0
0 (.)
u ....00
..c:
o.. 3.4 LA NORME DE FROBENIUS
ro
......l
1
"O
0
i::
;:::s
Définition 3.11 Étant donné deux matrices A ' B E cm XII posons
Q
@ (A , B ) F = trace (B * A).
38 3 •Normes sur les espaces de matrices
1 ~ i ~ Ill
1 ~ j ~Il
ll A ll ~ = trace (A *A) =
1 ~ i ~ Ill
1 ~ j ~Il
Proposition 3.12
1. Elle est multiplicative : pour tout A E cm X Il et B E C 11 X p
Proposition 3.13 Quelles que soient les matrices A E cm X II et les matrices unitaires
U E 1Um et V E lU11 on a
3.5 Le théorème de perturbation de Neumann 39
Proposition 3.14 Notons 11 ·11 une norme multiplicative sur<C11 x 11 • Si l alors llAll <
/ 11 - A est inversible et son inverse est la somme de la série absolument convergente
OO
U11 - A) - ) = L Ak.
k=O
De plus
1
l Un- A)- ' li ~ 1- llAll.
Démonstration. La série est absolument convergente parce que ~ l Ak ll
llAllk qui est le terme général d'une série convergente. Pour calculer sa
somme on passe à la limite dans l' identité
p
/
11
- A p+I = (/11 - A) L Ak
k=O
.... en remarquant que AP+l ---+ 0 puisque c' est le terme général d' une série
-0 ~
"O
convergente. On a enfin
0
c i::
;:::s OO OO
::J
....
li Un - A)- l 11 = L ~ L llAllk = 1 _ ~I A l .
0
CX)
""'
~
~ Ak
0 '~
0
N ""'
·c:: k=O k=O
0
@ 'ro='
~
..c
O'I
i::
0
i::
Coroll aire 3. 15 Notons li .li une norme multiplicative sur<C 11
x 11 et soit BE GIL11 • Si
·c
>-
Cl.
0
~
·s..
0
llAll < l B- 1
11-L alors B - A est inversible.
(.)
u ....00
..c:
o..
Démonstration. On écrit B -A = B(/11 - B - 1 A) et on note que Il s - 1 A Il ~
ro
......l 1 11 s - 1 1111A 11 < l. On applique alors la proposition précédente.
1
"O
0
1
Ce corollaire signifie que la boule ouverte de centre B et de rayon 11s- 1 11 - est
i::
;:::s
Q
@ contenue dans GIL11 • Ceci prouve que cet ensemble est ouvert.
40 3 •Normes sur les espaces de matrices
-0
0
c
::J
0
CX)
0
0
N
@
~
..c
O'I
·c
>-
Cl.
0
u
Exercices 41
EXERCICES
Exercice 3.1
Montrer que les quantités suivantes sont égales
1. l Lll = supxEE, x fO 111t~llll '
2· supllxll ~ 1, xfO 111t~lll ,
3. supllxll= l llLxll ,
4. sup llx ll ~ J llLxll ,
Exercice 3.2
Démontrer les affirmations contenues dans l' exemple 3.1.
Exercice 3.3
Montrer que les valeurs propres de A E cnxn sont contenues dans le disque de
centre 0 et de rayon max 1 ~J ~11
1
2:;
=1 laiJI·
Exercice 3.4
....
-0 ~
Soit A E C 11 x 11 • Montrer que si p(A) < 1 alors / 11 - A est inversible .
0 "O
c i::
;:::s
::J
0 ....
CX)
""'
~
~
Exercice 3.5
0 '~
0
N ""'
·c::
0
Prouver le cas général du théorème 3.7. Raisonner de façon similaire mais au lieu de
@
~
'ro=' la forme diagonalisée A = PD p - J utiliser la décomposition de Jordan (théorème 1.5)
A = P J p - 1• Remarquer que J s' écrit J = D + N avec D diagonale, N nilpotente
..c i::
0
O'I i::
·c ~
>-
Cl. ·s.. (N 11 = 0) et ND = DN pour calculer J P.
0 0
(.)
u ....00
..c:
o..
ro
......l
1
"O
0
i::
;:::s
Q 1. Max imum, minimum, supremum et infimum font leur pluriel soit en ums comme dans minimums soit
@ en ma comme dans minima.
42 3 •Normes sur les espaces de matrices
Exercice 3.6
Soient a, b, c, d quatre nombres réels. Calculer les normes spectrale et de Frobenius
de la matrice ( b ~ ic b : ic ) .
Exercice 3. 7
Calculer la norme de 111 pour les no1mes li .li 1, 11. 112, 11 .11oo ' 11 ·li F •
Exercice 3.8
Montrer que 11U11 2 = 1 et 11U11 F = .jii. pour toute matrice unitaire U E Un.
Exercice 3.9
Exercice 3.11
Soient A E cnx n et B > O. Montrer qu'il existe une norme matricielle multiplicative
N telle que:
N(A) ~ p(A) + e.
-0
On procède de la façon suivante : notons a = p(A) + e. D'après le théorème de
c
0 Gelfand il existe un entier p > 0 tel que
::J
0
CX)
0
0
N On pose alors
@ p- 1
~
..c
O'I
·c
N(x) = L ap-i-1 llAixll2
>-
Cl.
i= O
0
u pour tout X E <('. 11
•
Exercice 3.12
Soient x, y E <C 11 • Montrer que llxy* 11 2 llxy*llF
llx 111 llYllCX) et que llxy* llCX) = llx llCX) llY111 ·
Exercice 3.13
Soient A E GL,1 et H E <C11 x 11 • Montrer, en utilisant le théorème de perturbation de
Neumann, que
Cette identité montre que l'application Inv : A E <GL11 ----+ A- 1 E <GL11 est dif-
férentiable et en donne la différentielle en A dans la direction H : D'Inv(A)H =
- A - 1HA- 1•
Le but de cet exercice est d' établir quelques propriétés de l'exponentielle. Montrer
que:
1. Cette série est absolument convergente et que, pour toute norme multiplicative,
llexp(A)ll :::;; exp (llAll),
2. ex p(O) = l n,
....
-0 ~
"O
3. Si AB = BA alors exp( A + B) =exp( A) exp(B) ,
0
c i::
;:::s
::J
.... 4. ex p(A) est inversible, calculer son inverse,
0
""'
~
1
CX)
0
~
'~
5. Si A = P op - I avec P E <GLn alors exp(A) = P exp(D)P - ,
0
N ""'
·c::
@
0 6. En déduire que les valeurs propres de ex p( A) sont les exponentielles des valeurs
'ro='
~
..c i:: propres de A,
0
O'I i::
·c
>-
~
·s.. 7. detexp(A) = exp(trace A),
Cl.
0 0
u
(.)
Q
;:::s
9. Soient X' y E <C11 distincts de zéro. Calculer exp(xy*) (distinguer les cas x* y =/:- 0
@ etx *y= O).
44 3 •Normes sur les espaces de matrices
Exercice 3.15
Soit A E cm X Il. Montrer que
Exercice 3.16
Montrer que pour toute matrice A E cnxn on a llAll 1 = llA*lloo · En déduire que
llAll2 ~ VllAll1 ll A Jloo·
Exercice 3.17
Un cané magique est une matrice C E JR11 xiz dont les entrées sont les entiers de 1 à
n 2 rangés de telle sorte que la somme des termes d'une même ligne ou d ' une même
colonne soit la même. Par exemple
-0
c
0 est un carré magique 3 x 3. Montrer que dans un carré magique C d'ordre n la somme
des lignes vaut n(n2 + 1)/ 2 et que ce nombre est aussi égal à llC l!i-
::J
0
CX)
0
0
N
@
~
Exercice 3.18 Matrices à diagonale strictement dominante
..c
O'I
·c
Une mattice A E cnxn est à diagonale strictement dominante lorsque
>-
Cl.
0
u
la ul > L laij l
j =/=i
pour tout i . Montrer qu'une telle matrice est inversible (utiliser le corollaire 3.15 et la
norme 11- 1100 de l'exercice 3.2).
Exercices 45
Exercice 3.19
Calculer la norme spectrale de la matrice n + 1 x n + l suivante :
0 1 1
l 0 0
1 0 0
Exercice 3.20
Montrer que pour toute matrice M E e,mxn on a:
-0
0
c
::J
0
CX)
0
0
N
@
~
..c
O'I
·c
>-
Cl.
0
u
"O
0
c
:J
0
OO
0
0
N
@
~
..c
O'I
·;::::
>-
0..
0
u
Chapitre 4
La décomposition en valeurs
singulières
4.1 DÉFINITION
Nous avons vu, au chapitre précédent, que la norme spectrale d' une matrice A E cmxn
est égale à la racine catTée de la plus grande valeur propre de A* A. Plus généralement,
posons :
Définition 4.1 Les valeurs singulières de A E cm XII sont les racines carrées des
valeurs propres positives(> 0) de A* A.
Remarque 4.1.
-0
c
0 1. Nous avons démontré au cours de la preuve du théorème 3.9 que les valeurs
::J
0 propres de A * A sont positives ou nulles. Il est donc loisible d'en considérer
CX)
0 les racines carrées.
0
N
@ 2. On trouve ça et là une définition des valeurs singulières qui acce pte 0 : ce
~
..c sont alors les racines catTées des valeurs propres de A * A. Nous ne trouvons
O'I
·c aucun avantage à cette définition.
>-
Cl.
0
u 3. Les valeurs propres positives de A * A et A A * sont les mêmes. Il n 'y a donc
pas des valeurs singulières « à gauche » et des valeurs singulières « à droite »
(voir l'exercice 4.1).
4. Si 1'on note <.T 1 ~ •.• ~ <.Tr > 0 les valeurs singulières de A alors
et
llAIl} = uf + ... + u; = trace (A* A ).
~ *,
A = V "'"V ~~ = ( D
O Û
O) , DE ~
lTllrXr
, D = d iag(u1
. , ... , u ,. )
(}"2
l
u 2,.
U * A * AU =
0
Remarque 4.2.
1. Il n'y a pas unicité de la décomposition en valeurs singulières. Par exemple
/ 11 = U InU* pour toute matrice unitaire U E Un . C'est donc un abus que
d' utiliser l ' article défini « la » !
4.2 Calcul des valeurs singulières 49
A = V,. DU,: ,
c'est la décomposition en valeurs singulières réduite.
3. Lorsque A est une matrice réelle, on peut prendre pour V et V des matrices
orthogonales.
4. La démonstration du théorème 4 .2 montre que l'image par A de la sphère
unité dans l'orthogonal du noyau de A (ensemble des vecteurs x E (Ker A).L
de norme 1) est l 'ellipsoïde dans le sous-espace lm A c cm dont les axes
sont portés par les vecteurs vi, 1 ~ i ~ r, et la longueur des demi-axes u i :
. ~r ~r 12 ~,.
s1 x = L..,i = J xiui avec L..,i = l lxi = 1 alors Ax = L..,i = l uixi Vf et
-0
0
~
....
"O
Les valeurs propres non nulles de la matrice ( 1. ~ ) E IC(m+n)x(m+n) sont ±u ;,
c i::
;:::s 1~i ~ r.
::J
0 ....
CX)
""'
~
~
0 '~
0
N ""'
·c::
0 4.3 NOTES ET RÉFÉRENCES
@ 'ro='
~
..c i::
O'I
0
i::
La décomposition en valeurs singulières a été introduite par Eugenio Beltrami (1873)
·c
>-
~
·s.. et indépendamment par Camille Jordan (1874) à propos de leurs études sur les formes
Cl.
0
0
u
(.)
quadratiques. On doit à Jordan la forme normale du même nom (théorème 1.5).
....00
..c:
o.. La décomposition en valeurs singulières est un outil important de l ' algèbre linéaire.
ro
......l Elle joue un rôle essentiel en statistique (analyse en composantes principales), com-
1
"O
0
pression des données (approximation d' une matrice par une matrice de rang donné),
i::
;:::s traitement du signal, reconnaissance des formes, linguistique (analyse sémantique
Q
@ latente) et cetera.
50 4 • La décomposition en valeurs singulières
EXERCICES
Exercice 4.1
Montrer que si A E cm XII et si B E C 11 Xm alors les valeurs propres non nulles de
AB et de BA sont les mêmes. Montrer que lorsque m = n les valeurs propres de AB
et de BA sont les mêmes.
Exercice 4.2
Calculer une décomposition en valeurs singulières de la matrice A
(11 J2 J20) .
0
Exercice 4.3
Calculer les valeurs singulières ainsi que toutes les décompositions en valeurs
singulières d' une matrice colonne.
Exercice 4.4
Déterminer la décomposition en valeurs singulières d'une matrice hermitienne en
fonction de ses éléments propres.
Exercice 4.5
Démontrer la proposition 4.3. On procèdera de la façon suivante:
-0 1. Soit À une valeur propre non nulle de la mau·ice augmentée :
0
c
::J
0
CX)
0
0
N
@
2
~
..c avec x ou y non nul. Alors x et y sont tous deux non nuls et A * A y = À y.
O'I
·c
>-
Cl.
2. Réciproquement, si A * A y = À 2 y avec y # 0, montrer que ±À sont valeurs
0
u propres de la matrice augmentée.
Exercice 4.6
Montrer que le rayon specu·al d' une matrice est plus petit que la plus grande de ses
valeurs singulières.
Exercices 51
Exercice 4. 7
Montrer que, pour tout A E GLn, les valeurs propres de A- 1 sont les inverses des
valeurs propres de A et que les valeurs singulières de A - J sont les inverses des valeurs
singulières de A.
Exercice 4.8
Étant donnés n nombres complexes z 1 , ••• , z11 calculer le polynôme caractéristique
et les valeurs singulières de la matrice
1
ZJ 1
Z=
Zn 1
Exercice 4.9
Donner la décomposition en valeurs singulières de la matrice
1 0
0 a
Z=
/3 0
0 /3
-0
0
c
::J
0
CX)
0
0
N
@
~
..c
OI
·c
>-
Cl.
0
u
"O
0
c
:J
0
OO
0
0
N
@
~
..c
O'I
·;::::
>-
0..
0
u
Chapitre 5
5.1 INTRODUCTION
Nous allons analyser à partir de quelques exemples modèles le problème des en-eurs
en analyse numérique. Mais au juste, pourquoi fait-on des erreurs? Trois causes
principales peuvent être envisagées :
Ja + h - va =_h_
2yla
+ O(h 2 ).
Dans ces deux cas, l'expression h / 2yla fait intervenir l'erreur h d'une part et un
facteur multiplicateur indépendant de cette erreur : l / 2yla. Ce facteur ne dépend
que du problème (ici le calcul des racines carrées) et d' une instance de ce problème
(le nombre a). Il conduit au concept de conditionnement du problème. Dans notre
exemple on pose
1
cond(V., a) = G
2ya
-0
qui est un nombre indépendant de la pe1turbation h, de sorte que, au premier ordre
0
c
::J
0
CX)
0
lra+Ti -val ( cond(V.,a) lhl .
0
N
@ 5.1.3 Les erreurs de calcul
~
..c
O'I
·c Une fois le problème posé, vient le moment d'introduire un alg01ithme pour en calcu-
>-
Cl. ler la solution. Cet algorithme va être une source d'erreurs pour trois raisons princi-
0
u pales:
1. Les processus limites sont arrêtés après un nombre fini d'étapes,
2. Les nombres irrationnels, les fonctions transcendantes sont remplacés par des
approximations,
3. L'utilisation d'une arithmétique de précision finie (virgule flottante par exemple).
5.2 Concepts généraux 55
_ L'effet de ces e1Teurs est de remplacer la solution S(a) par une solution approchée
S(a) qui dépend du problème, de l'instance a de ce problème et de l'algorithme utilisé.
Pour analyser ce type d' en-eur, il est d'usage de procéder en deux étapes :
1. L'estimation de .l' erreur S(a) - S(a) proprement dite,
2. L' ana.lyse rétrograde de cette erreur.
a,
Qu'est-ce que cela signifie? Il s'agit de d~terminer le (ou un) paramètre le plus
proche possible de a, pour lequel S(a) = S(a), autrement dit, étudier le problème de
minimisation
in( llii - all -
sca>=S<a>
La valeur de ce minimum est l'erreur rétrograde ou erreur inverse du problème : elle
permet de valider l'algorithme choisi dans la mesure où cette en-eur rétrograde est du
même ordre que la précision des données.
Dans le cas des racines carrées, supposons que l' on ait calculé Va + e au lieu de
-fo. Si e est suffisamment petit pour que Va+ e > 0 on a
JQ+e =v'a
avec
â = a + e2 + 2e Ja.
a- a = e2 + 2eJQ ~ 2e Va
au premier ordre. Si la précision avec laqueJle a est donné est du même ordre que
....
-0 ~ 2e fa nous pouvons estimer que le calcul a été effectué avec une précision suffisante .
0 "O
c i::
;:::s Nous voyons, sur cet exemple, que l'erreur inverse est le produit de l'erreur e
::J
0 ....
CX)
""'
~ par le coefficient multiplicateur 2-fo indépendant de cette erreur que nous appelons
~
0
0
'~
""'
·c::
conditionnement inverse du problème.
N
0
@ 'ro='
~
..c i::
0
O'I
·c i::
~
5.2 CONCEPTS GÉNÉRAUX
>-
Cl. ·s..
0
0
u
(.)
Q
;:::s
IE est l'espace des instances du problème, lF est l' espace des solutions du problème et
@ S est l'application « solution» . Voici quelques exemples de telles situations:
56 5 • Le problème des erreurs
mif!. lla - a Il
S (êi)=S(a)
R: IF --+ lE.
(!, g) = t (~ )_,
k=O
akbk
avec f(z) = ~~=O akzk et g(z) = ~~=O bkzk. Soit x E C donné. Notons
et
D2F(f , z) = J'(z).
Donnons-nous f et x tels que f (x) = O. Le théorème des fonctions implicites ne
s'applique que si D2 F(f, x) est un isomorphisme c'est-à-dire, dans ce contexte, si
f' (x) =F O. Cela signifie que x est une racine simple de f. Sous cette hypothèse, il
existe une application solution S définie dans un voisinage de f, à valeurs dans un
voisinage de x, telle que S(f) = x et g(S(g)) = 0 pour tout polynôme g dans ce
voisinage. On a, au premier ordre, c' est-à-dire à un terme en o(f - g) près,
c'est-à-dire
S( ) ~ _ (g - f )(x)
g X f'(x)
de sorte que
Noter que ce conditionnement est d'autant plus« mauvais» (c'est-à-dire grand) que
f'(x) est petit c'est-à-dire lorsque x est« presque» une racine double .
....
-0 ~
c
0 "O
i::
5.3.2 Exemple numérique
;:::s
::J
0 ....
CX)
""'
~
~
Considérons le polynôme de Pochhammer : ses racines sont les entiers 1, 2, . . . , 20,
0 '~
0
""'
·c::
N
@
0 f(x) = (x - l)(x - 2) ... (x - 20).
~
'ro='
..c i::
O'I
0
i::
La figure 5.1 montre les valeurs du conditionnement cond(/, x) pour les différentes
·c ~
>-
Cl. ·s.. racines. On remarque des valeurs importantes du conditionnement (valeurs del' ordre
0
0
u
(.)
Q
;:::s
bations, on observe une modification importante des racines proches de 16 dont le
@ conditionnement est élevé.
60 5 • Le problème des erreurs
1
X 10 0
4.5
0
0
0
0
3.5
0 0 0
0
2.5 0
0 0000000 0
0 0
0
-2 0
15
-4 0
0
0 -6
0
0.5
0 0
0 ------- - - -"
) 0
-8
0 - - - - 5 - - - - iO 15 20 0 10 15 20 25 30
g E Hx et 1
Il! - gll = hmin
EH x'
Il! - hll
-0
0
c
::J lorsque g est la projection orthogonale de f sur Hx' . La décomposition orthogonale
0
OO de f est alors
0
0
{~~'.j2 )d (1 + X' d
N
@
......
f (z) = Ap, ,(z) + g(z) = (1 + g(z).
..c
en
ï::::
>-
a. Cela résulte de l' égalité
0
u
On en déduit que
If (x')I
5.4 Le cas des systèmes linéaires : conditionnement d'une matrice 61
L'application R: C---+ Pd(C ) qui à x' associe la solution optimale g est égale à
l!'Cx) I
llDR(x) ll = (1 + lx l2)d/ 2.
de sorte que
....
-0 ~
0 "O Ce résultat signifie que .l'erreur absolue faite sur x est bornée par celJe faite sur la
c i::
;:::s
::J
0 .... donnée b multipliée par le facteur d' amplification ll A-' 11 · Ce nombre est appelé
CX)
""'
~
~ conditionnement absolu du système Ax = b. Comme
0 '~
0
N ""'
·c::
0
@ 'ro=' IJbll ( llAllllx ll
~
..c i::
0
O'I i::
·c ~ on a aussi
>- ·s..
Cl.
0 0
(.)
llx' - x ll ~ llAllll A- Jll llb' - b ll
u ....00 llx Il "' llb ll '
..c:
o..
ro l' eITeur relative faite sur x est bornée par l' eITeur relative faite sur b multipliée par le
......l
1 facteur d'amplification ll AllllA- 1 Il ·
"O
0
i::
Q
;:::s
Définition 5.2 On appelle conditionnement d'une matrice A E GlL11 le nombre
@ cond(A) = ll Allll A- 1 li · Ce conditionnement dépend de la norme considérée sur
62 5 • Le problème des erreurs
Supposons maintenant que l'on commette à la fois une erreur sur le second membre
b mais aussi sur la matrice A d'un système, quelle erreur commet-on sur sa solution?
Une réponse
. est donnée par
. le théorème suivant :
e
Théorème 5.3 Etant donné des matrices A et E E 11 xn, A inversible, avec
Il A - 1 11 11E Il < 1, soient b et b' E en et soient X et x' E e n tels que
Ax = b et (A + E)x' = b'.
Sous ces hypothèses
llx' - x Il 1 ( llb' - b ll
~
1 )
llx ll l-llA- 1 llllE ll llb ll cond(A)+ llA- ll llE ll .
Démonstration. Notons que, par le corollaire 3.15, la matrice A+ E est
inversible de sorte que x' existe bel et bien. On écrit que
de sorte que
-0
Définition 5.5 On dit qu'une matrice est mal conditionnée lorsque son conditionne-
ment est grand, bien conditionnée lorsque son conditionnement est petit.
Le conditionnement d' une matrice a une interprétation géométrique que nous allons
décrire:
""'
·c:: AA- 1 *A- 1 ( A - 1X )* A- 1 0
N
0 B(A - l
X
)
= X - xz X = X - X IlA - 1X Il~ X =
@ 'ro='
~
..c i::
0
O'I
·c i::
~
alors que A - 1x =/= O. On en déduit que
>-
Cl. ·s..
0
0 (.)
u ....00
..c:
o..
ro
......l
1
"O
0
i::
;:::s
Q
Le résultat précédent signifie que les matrices mal conditionnées sont celles qui
@ sont proches des matrices singulières.
64 5 • Le problème des erreurs
mm
E E cnxn
(A+ E)x' = b
-0
0 Ce théorème prouve que l' eneur inverse commise est égale à
c
::J
0
Les matrices C et D sont appelées matrices de préconditionnement. Dans tous les cas,
on cherche à diminuer la valeur du conditionnement :
""'
·c::
5.7 NOTES ET RÉFÉRENCES
N
0
@ 'ro='
~
i::
Deux articles fondent véritablement le sujet abordé dans ce chapitre dans l'immédiat
..c 0
O'I
·c i:: après-guerre. Ce sont: « Numerical lnverting of Matrices of High Order (1947) » [13]
~
>-
Cl. ·s..
0
par H. Goldstine (1913-2004) etJ. Von Neumann (1903-1957) et «Rounding-off errors
0 (.)
u ....00 in matrix processes (1948) » [35] par A. Turing (1912-1954). Mais c'est à J. Wilkinson
..c:
o.. (1919-1986), qui fut assistant de Turing, que l'on doit d'avoir approfondi cette question
ro
......l dans les deux ouvrages: Rounding Errors in Algebraic Processes (1963) [36] et The
1
"O
0 Algebraic Eigenvalue Problem (1965) [37]. Nous recommandons la lecture du livre de
i::
;:::s
Q
Stewart-Sun Matrix Perturbation Theory [34] qui est désormais un classique! Parmi
@ les ouvrages récents citons ceux de F. Chaitin-Chatelin et V. Frayssé Lectures on Finite
66 5 • Le problème des erreurs
-0
0
c
::J
0
CX)
0
0
N
@
~
..c
O'I
·c
>-
Cl.
0
u
Exercices 67
EXERCICES
Exercice 5.1
Calculer la solution des systèmes suivants A X = B 1 et A X = B2 où :
Exercice 5.2
Montrer que pour toutes matrices A et B E en X Il' A inversible et B # A- 1
' on a
Exercice 5.3
Soit A E enxn une matrice hermitienne définie positive. On va montrer que, pour
tout X E en, X # 0,
2
< Ax ,x >< A - 1x,x > ((cond2A) 112 +(cond2A) - 112)
1~ ~ ------------
< x , x >2 4
(inégalité de Kantorovitch).
l. Notons A1 ) A2... ) A,1 > 0 les valeurs propres de A. Montrer que l'on peut
.... écrire
~ 1
< Ax,x >< A- x , x > = (~ a i Ài) (~a;)
-0
0 "O
c i::
;:::s
::J
0 .... <X X >2 L L À· 1
CX)
""'
~
~
' i=I i=.I
0
0
N
'~
""'
·c:: pour des ai ) 0 tels que L: a; = 1. Indication: diagonaliser A en base ortho-
0
@ 'ro=' normée.
~
..c i::
O'I
0
i::
2. Montrer que
·c
>-
Cl.
~
·s.. 1
--- ~
~ ai
L - ~
À1 + Àn
-------
- L: aiÀi
0
u
0
(.)
Exercice 5.4
Soit
1 1/ 2 1/ 3 )
A = 1/ 2 1/ 3 1/ 4 .
(
1/ 3 1/ 4 1/ 5
Donner un minorant du conditionnement de A à l'aide de l'inégalité de Kantorovitch.
On prendrax = ( ~).
Exercice 5.5
Calculer cond2 A(a, b, c) avec a E ~etc = b, et où A(a , b, c) est la matrice décrite
à l'exercice 1.13.
-0
0
c
::J
0
CX)
0
0
N
@
~
..c
O'I
·c
>-
Cl.
0
u
Chapitre 6
a1n - 1 a111
a211-I azn
0 0 0 a,m bn
se résout de la façon suivante (la notation i = n - 1 : - 1 : 1 indique que l'indice i
-0
0 décroît den - 1 à 1 avec un pas égal à - 1):
c
::J
0
CX)
0 Algorithme de résolution d'un système triangulaire
0
N
@
~
X11 = b11/a,111
..c
O'I
·c
pour i = n - 1 : - 1 : 1
>-
Cl. Xi= b;
0
u pour k = i + 1 : n
Xi = Xi - GjkXk
fin
xi= x;/au
fin
70 6 •Pivot de Gauss et décomposition LU
Cette méthode requiert n 2 opérations arithmétiques. Noter que les erreurs commises
à une étape du calcul se propagent aux étapes suivantes.
3xi + 2x2 + x3 1,
x, + 3x2 + 2x3 2,
2x, + 4x2 + 6x3 3.
pour i = 1 : n - 1
pour j = i + 1 : n
a ji = 0
b·J = bJ· - '!.il
a;; t
b.
pour k = i + l : n
aï
a J.k = a .l.k. - '.a::1!...a.k
;; i
fin
fin
fin
6.3 DÉCOMPOSITION LU
Le calcul de base du procédé d'élimination de Gauss est l'addition à une ligne de A
d'une autre ligne multipliée par un scalaire. Cette opération peut se décrire comme un
produit matriciel.
Définition 6.1 Étant donnés deux entiers distincts l ::; i , j ::; net un scalaire À E C,
la matrice élémentaire E(i , j, À) E cnxn a pour coefficients ekk = 1 pour tout
k = 1 . .. n, ei.i = À et ekz = 0 pour les autres entrées de la matrice.
....
-0 ~ 1
0 "O
c i::
;:::s
::J
0 ....
CX)
""'
~
0
~
'~ 1
0
N ""'
·c::
@
0 E(i , j , À) =
'ro='
~
..c i::
0
À 1
O'I i::
·c ~
>-
Cl. ·s..
0
0
u
(.)
....00 0 1
..c:
o..
ro
......l
1
"O
0
i::
;:::s Les propriétés attendues des matrices élémentaires sont données par la proposition
Q
@ suivante dont la démonstration est laissée à titre d'exercice:
72 6 •Pivot de Gauss et décomposition LU
Proposition 6.2
1. Pour toute matrice A E cnxn dont les lignes sont notées L h 1 ( k ( n, les
lignes de la matrice E(i, j , A)A sont L k si k -/= i, Li+ AL j si k = i,
2. Notons Ch 1 ( k ( n, les colonnes de A. Les colonnes de la matrice A E(i , j , A)
sont Ck si k -/= j, C j +AC si k = j,
3. Lorsque i > j la matrice E(i , j, À) est triangulaire inférieure,
1
4. E (i, j , À) est inversible, son déterminant est égal à 1 et E(i , j, À) -
E(i , j , - A).
pour i = 1:n - 1
pour j = i+1:n
. i ' - a.;;
A = E( ], a ..
)A
/.1
b = E(. i - c.!J.i. )b
J' ' a;;
fin
fin
1
-0
0
c
::J
0 1
CX)
0
E(n, i , A11 ) ••• E(i + 1, i , À i+i ) =
0
N
@
~
..c
O'I
·c
1
>-
Cl.
0
u Définition 6.3 La matrice précédente est appelée matrice d'élimination. Elle se note
Proposition 6.4
6.3 Décomposition LU 73
pour i = 1:n - 1
A = E(i _a; + i ; .. . -~ )A
' a; ; ' ' a;;
b = E(i _ a;+ 1; . . . _ a,,; )b
' a;; ' ' a;;
fin
Pour obtenir cette décomposition nous avons effectué un certain nombre d'opé-
rations du type a1ifaii. Nous devons nous assurer que nous ne divisons pas par 0 !
L'algorithme serait alors en défaut comme par exemple pour la matrice
....
-0 ~
0 "O
c i::
;:::s
::J
0 ....
CX)
""'
~
~
0 '~
0
""'
·c:: Il « se bloque » juste après la première étape puisque l'on obtient la matrice
N
0
@ 'ro='
~
..c i:: 1 1
0
O'I
·c i::
~
0 0
>-
Cl. ·s..
0
( 0 - )
0 (.)
u ....00
..c:
o.. dont le coefficient a22 est nul. De façon plus précise :
ro
......l
"O
1
Théorème 6.6 Pour toute matrice A E <GL,1
0
Q
i::
;:::s
1. Une décomposition LU de A existe si et seulement si det A(l : k , 1 : k) =I 0 pour
@ tout k = 1 ... n.
74 6 •Pivot de Gauss et décomposition LU
UJ k U 1 k+ l U1n
0 Ukk Ukk+l
A=L
0 Û Vk+I k+l
0 0 Vn k+l
UJJ UJk UJ k +l
-0
de sorte que detA(l : k + 1, 1 : k + 1) = u 11 .. . ukkvk+ l. k+l · Comme
c
0
det A(l : k + 1, 1 : k + 1) i= 0 il en est de même pour Vk+L k+I ·
::J
0
CX)
Reste à prouver que la décomposition LU est unique. Si A= L 1 U1 = L 2 U2 ,
0
0 puisque A est inversible les matrices L i et Ui le sont aussi et L 2 1L 1 =
U2 u,- 1. On reconnaît à gauche une matrice triangulaire inférieure à diago-
N
@
~
.c nale unité et à droite une matrice triangulaire supérieure; la seule matrice
ayant ces deux vertus est / 11 d'où L 1 = L 2 et U1 = U2.
O'I
·c
>-
Cl.
0
u
6.4 PIVOT PARTIEL, PIVOT TOTAL
La première étape de la méthode d'élimination de Gauss fait jouer un rôle particulier
au coefficient a 11 de la matrice A. On l'appelle pivot de la méthode et, pour cette
raison, on parle souvent de la méthode du pivot de Gauss. Le choix de a 11 comme
6.4 Pivot partiel, pivot total 75
pivot n' est pas le seul possible: on obtient un système équivalent en permutant entre-
elles les différentes équations ou bien en prenant les inconnues dans un ordre différent
et, à ces nouveaux systèmes, on peut aussi appliquer la méthode du pivot de Gauss.
Ces différentes stratégies ne sont pas sans influence du point de vue du calcul des
erreurs.
{ X+ lOy
b2
10- 3x + y
= b1
=
~
.... B = (id-3 110 ) , U(B) =( ~ 01g9 )
-0
c
0 "O
i::
Le troisième système conduit de même aux matrices
;:::s
::J
....
~ -0.~99 )
0 1
CX)
0
0
N
""'
~
~
'~
""'
·c::
C = ( 1° 1d-
3 ) ' U(C) = (
0
@ 'ro=' Quoique tous ces systèmes soient équivalents ils ont des comportements très différents
~
..c i::
0
quant au conditionnement. En effet :
O'I i::
·c
>-
Cl.
~
·s..
0
cond2 (A) = cond2 (B) = cond2 (C) = 103.0205972,
0 (.)
u ....00 cond2 (U(A)) = 990001.0100,
..c:
o..
ro cond2 (U(B)) = 103.0004933,
......l
"O
1
cond2 (U(C)) = 102.0203000.
0
i::
Q
;:::s
Dans le passage de A à U(A) on constate que le conditionnement de A a été détruit,
@ restauré avec U (B) et amélioré avec U (C).
76 6 •Pivot de Gauss et décomposition LU
matrice dont les entrées sont Pkk = 1 lorsque k i= i et k i= j, Pij = P.ii = 1, Pkl = 0
dans les autres cas. Cette matrice est appelée matrice de transposition.
l J
0 1 l
P(i , j) =
1 0 J
Ces matrices servent à permuter deux lignes ou deux colonnes dans une matrice
donnée. De façon plus précise, on a :
Proposition 6.8
1. P(i , j) est orthogonale et symétrique,
2. P(i , j)A est la matrice dont les lignes sont celles de A, les lignes i et j étant
-0
0
permutées, les autres inchangées,
c
::J
0 3. AP(i , j) est la matrice dont les colonnes sont celles de A, les colonnes i et j
CX)
0 étant permutées, les autres inchangées.
0
N
@ Définition 6.9 On appelle matrice de permutation un produit de matrices de transpo-
~
..c sition.
O'I
·c
>-
Cl.
0
u
Si P est une telle matrice, PA (resp. A P) est une matrice dont les lignes (resp.
des colonnes) sont celles de A prises dans un ordre différent. Noter que toutes les
permutations possibles des lignes (resp. des colonnes) peuvent être ainsi obtenues
parce que toute permutation est un produit de transpositions.
6.4 Pivot partiel, pivot total 77
Notons que ail i= 0 puisque l'on a supposé que A est inversible. On pourra donc
diviser par a; 1• On obtient un nouveau système en permutant dans A les lignes l et
i et en laissant les autres inchangées. Puis on applique une étape d'élimination à ce
nouveau système. En termes de produits mat1iciels on a commencé par multiplier A à
gauche par la matrice de transposition P(l , i) puis par une matrice d'élimination:
a21 a111 .)
E(l , - - , . . . , - - )P(l, z A
a;1 ail
que l' on note plus simplement E 1P 1A. Les autres étapes sont identiques à la première :
recherche d' un nouveau pivot puis élimination pour obtenir
On doit donc permuter les lignes 1 et i ainsi que les colonnes 1 et j . Ceci revient à
.... considérer la matrice P(l, i)AP(l , j) au lieu de A. Le système à résoudre est donc
-0
0
~
"O P (l, i)A P (l , j)y = P(J , i)b avec y = P(l , j)x au lieu de Ax = b puis on effectue
c i::
::J ;:::s
.... une étape d'élimination. Après n - 1 telles opérations on a :
0
CX)
""'
~
~
0 '~
0
N ""'
·c::
0
@ 'ro='
~
i::
où V est triangulaire supérieure.
..c 0
O'I i::
·c ~
>-
Cl. ·s..
0 6.4.5 Une justification
0 (.)
u ....00
..c:
o.. Le choix de ces stratégies est motivé par l'analyse que l'on fait des erreurs dans une
ro
......l division ou dans le calcul de l'inverse d'un nombre réel. Soient x eth E ffi. avec x et
1
"O
0
x +hi= O. On a, au premier ordre,
i::
;:::s
Q 1 1 h
@ -- --~--
X+ h X x2
78 6 •Pivot de Gauss et décomposition LU
ce qui prouve que l'erreur commise dans le calcul de l'inverse est d'autant plus grande
que le nombre par lequel on divise est petit et d'autant plus petite que le diviseur
est grand. Les choix du pivot partie] et celui du pivot total sont motivés par ces
considérations : on minimise les erreurs d'arrondi en divisant par le pivot de plus
grand module.
avec E~ = Pn-1 Pn-2 ... Pk+1 Ek Pk+l ... Pn-2 Pn-1 et P = P11-1 Pn-2 . .. P1
(noter que P? = 111 pour toute matrice de transposition). Il faut, pour
conclure, se convaincre que les matrices E~ sont encore des matrices
d'élimination (examiner le cas Pk+ 1E k Pk+ 1 et continuer par récurrence).
6.4 Pivot partiel, pivot total 79
Une autre possibilité est de rechercher le premier pivot dans la première ligne de A,
ce gui revient à multiplier A à droite par une matrice de permutation, puis à effectuer
une étape d'élimination de Gauss. La nouvelle matrice est du type E 1AP1 et, après
n - 1 telles étapes, on obtient
On a prouvé que :
Définition 6.12 Une matrice E E cm xn, E =/= 0, est échelonnée lorsqu'il existe des
entiers 1 ~ r ~ min(m , n) et 1 ~ n 1 < n1 < ... < nr ~ n tels que:
1. Les lignes 1 à r de E ont la structure suivante: pour 1 ~ i ~ r et 1 ~ j < ni on a
eij = 0 et ein; =/= 0,
2. Les lignes r + 1 à m sont nulles : pour r + l ~ i ~ m et l ~ j ~ n on a eij = O.
Un système linéaire est échelonné lorsque c 'est le cas de la matrice de ce système.
n,.
.... X X X
-0 ~
0 ... 0 =/= 0 X X
0 "O
c i::
;:::s
0 0 0
::J
0 .... E=
CX)
""'
~
~
=/= Ü X X
0
0
'~
""'
·c::
0 0 0
N
0
@ 'ro='
~
..c
O'I
i::
0 0 0 0 0 0 0 0 0
i::
·c ~
>-
Cl. ·s..
0 0
(.) Remarque 6.1.
u ....00
..c:
o.. 1. Les entrées ein; =!= 0, 1 ~ i ~ r , sont appelées les pivots de la matrice E .
ro
......l
1
2. Le nombrer de pivots est égal au rang de E .
"O
0
i::
Q
;:::s
Le calcul de la forme échelonnée d' une matrice B E cm XII se mène par la méthode
@ du pivot partiel. Si B = ( 0 . . . 0 B 1 ) où la première colonne non nulle de B
80 6 •Pivot de Gauss et décomposition LU
est b111 (c'est aussi la première colonne de B 1), par multiplication par une matrice de
transposition P1 puis par une matrice d'élimination E 1, on obtient
0 0 #0 X X X
0 0
0 0 0 0
6.5 COMPLEXITÉ
Chaque étape d'élimination requiert le calcul den - i divisions, (n - i)2 additions et
(n - i) 2 multiplications avec 1 ~ i ~ n - 1. Pour l' ensemble des étapes on obtient:
n(n - 1) d...
• 1 + ... + n - l = 1v1s10ns,
2
n(n - 1)(2n - 1) ..
• 12 + . . . + (n - 1)2 = add1t10ns,
6
n(n - 1)(2n - 1) .
-0
• 12 + ... + (n - 1)2 = multiplications,
0 6
c
::J
0 donc un total de
CX)
0 n(n - 1)(2n - 1) n(n - 1) 2n 3
0 ------- + ~ -
N
3 2 3
@
~
..c
opérations arithmétiques.
O'I
·c Nous n'avons pas tenu compte des opérations sur le second membre b du système
>-
Cl.
0 Ax = b. Leur ordre de grandeur est O(n).
u
On déduit de ce compte que
être évité dans la plupart des expressions utilisant la matrice inverse comme par
exemple le scalaire a * A - 1b où a et b sont des vecteurs. Dans ce cas A - 1b est
obtenu en résolvant un seul système linéaire sans calcul explicite de la matrice
A - 1.
Il faut rapprocher ces résultats de complexité avec ceux que l'on obtient en utilisant
les formules de Cramer. Un déterminant y est décrit comme une somme de n ! monômes
(chacun d'eux de degré n en les entrées de la matrice) d'où une complexité en O(n ! x n)
pour un calcul brutal !
Par le théorème 6.6 c'est une bijection entre .Cn x Ç}U11 et .CU. La bijection inverse
associe à A E .CU les matrices L E .C" et U E Ç}U11 telles que A =(ln+ L)U. On note
et
U: .CU ~ Ç}U11 , U(A) = U.
On équipe l 'espace des applications linéaires M : cnxn ~ cnxn de la norme
llM(B)llF
llMllFF = sup
B E c11 xn llBllF
B =/= 0
et
-0
0
c
::J
0 Démonstration. Les étapes principales de cette démonstration sont les sui-
CX)
0
0
vantes. Nous laissons le lecteur en vérifier les détails à titre d'exercice.
N
@ 1. .CU est ouvert dans cnxn (par le théorème 6.6) et Ç}U11 est ouvert dans U11
~
..c (par le corollaire 3.15) .
O'I
·c
>-
Cl.
2. L'application Pest de classe C CX) et sa dérivée en (L, U) E .Cn x Ç}Un est
0
u donnée par:
x U11 ~ <C x
11 11
DP(L , U): .C11 , DP(L , U)(M , V) = Un+ L )V +MU.
et où, pour toute matrice M E CC11 X Il' II L:11 ( M) et Ilu/I (M) sont les parties
triangulaires inférieure stricte et supérieure de M .
5. On calcule les normes de ces dérivées.
6. 7 NOTES ET RÉFÉRENCES
....
-0 ~
"O
LU vient de l'anglais Lower-Upper (triangular matrices).
0
c i::
::J ;:::s
.... Une idée récurrente pour résoudre un système d'équations linéaires est de se rame-
0
CX)
""'
~
~
ner via une décomposition matricielle adaptée à un système triangulaire, celui-ci étant
0 '~
0
N ""'
·c:: facile à résoudre. Les décompositions LU, QR et de Cholesky permettent d ' y arriver.
0
@ 'ro=' La décomposition LU, due à Gauss, est la plus célèbre et la plus ancienne de ces
~
..c
O'I
i::
0 méthodes. Gauss naquit à Brunswick en 1777 et mourut à Gottingen en 1855.
i::
·c ~
>-
Cl. ·s.. Un des intérêts de la décomposition LU, pour une matrice à coefficients dans un
0 0
u
(.)
....00 anneau commutatif quelconque, est que cette décomposition s'effectue dans le corps
..c:
o..
des fractions associé. Ceci en fait un outil de choix pour le calcul formel.
ro
......l Le livre de Stewart [32] est extrêmement documenté sur l'algorithmique de la
1
"O
0
décomposition LU. Pour l 'étude de la stabilité de l'élimination de Gauss nous ren-
i::
;:::s voyons aux ouvrages de Wilkinson [36] et [37] ainsi qu' à celui de Higham [18].
Q
@
84 6 •Pivot de Gauss et décomposition LU
EXERCICES
Exercice 6.1
On suppose que A E Gll....11 admet une décomposition LU. En calculant formellement
le produit A = LU, donner un algorithme de calcul des coefficients uij de U et lij de L
à partir des coefficients aij de A (algorithme de Crout et Doolittle). Indication: calculer
la première ligne de U puis la première colonne de L et ainsi de suite. Application
numérique : donner la décomposition LU de la matrice
1 2 0 0
1 3 2 0
0 1 3 2
0 0 1 3
Exercice 6.2
On utfüse la méthode d' élimination de Gauss pour trianguler le système;
4
(S) { 10- x +y = 1
x+ y= 2
1. Calculer le conditionnement associé à la norme Il · lloo
de la matrice A de ce
système et de la matrice U 1 du système triangulaire obtenu par la décomposition
LU.
2. Même question si l'on permute d'abord les deux lignes de A.
-0
0 Exercice 6.3
c
::J
0 Une matrice d'élimination E(i, Ài+J, ... , À11 ) s'écrit sous la forme
CX)
0
0
N
@
~
..c où l = (0, ... , 0, Àï+ I , ... , A11 )1' est un vecteur dont les i premières coordonnées sont
O'I
·c
>-
nulles et ei est le i-ième vecteur de la base canonique de ffi.11 •
Cl.
0
u 1. Pour i <j , calculer le produit de deux matrices d' élimination E(i , Ài+J, . . . , Àn )
E(j , A)+i' ... , A:,). Généraliser le résultat au produit de k matrices d' élimination
ordonnées par ordre croissant d'indice i 1 < i 2 < ... < ik.
2. Soit A inversible admettant la décomposition LU. Déduire du calcul précédent
l' expression de la matrice L à partir des matrices d'élimination E(i, Ài+ I , ... , Àn)
intervenant dans l'algorithme d'élimination de Gauss.
Exercices 85
Exercice 6.4
On considère deux vecteurs x, y E en, la matrice M = / 11 + x y* et l'on suppose
que 8 k = 1 + 2:7=,
Xt Y t f= 0, pour tout k = 0, ... , n (par convention, 8 0 = 1).
l. Montrer que det(M) = 8 11 •
2. Montrer que M admet une décomposition LU.
3. Montrer, par récurrence, l'égalité
Lk
XzYz
Ôt Ôt-1
l= l
pourtoutk = l , .. . ,n.
4. On décompose M sous la forme M = D+ E + F, avec D diagonale, E triangulaire
strictement inférieure et F triangulaire strictement supérieure. On considère les
matrices diagonales ~ = diag(ô 1 , ... , ôn), ~+ = diag(l , 8 1 , ... , Ôn _ 1) et les
matrices triangulaires L = ( E + Ll)~ - J et U = Ll-; 1(F + Ll). Montrer que
M = LU (calculer les coefficients de la matrice LU, considérer pour cela les
cas i < j, i > j et i = j).
5. Soit A E GLn et u , V E en . On suppose que la matrice A admet une décomposi-
tion A = LU. Donner une condition suffisante portant sur u , v, Let U pour que
la matrice B = A+ uv* possède une décomposition LU. Utiliser les résultats
précédents pour exprimer la décomposition LU de B à partir de la décomposition
LU de A (formule de mise à jour de la décomposition LU).
Exercice 6.5
-0 Soit A E enxn une matrice bande inversible de largeur 2p + 1 c'est-à-dire telle que
a ij = 0pour 1 i - j I> p. On suppose que A admet une décomposition LU. Montrer
0
c
::J
0
CX)
que les matrices L et U ont également une structure bande de largeur 2p + 1.
0
0
N
@
~
..c
O'I
·c
>-
Cl.
0
u
"O
0
c
:J
0
OO
0
0
N
@
~
..c
O'I
·;::::
>-
0..
0
u
Chapitre 7
-0
c
0
(x, y) A = y * Ax = L aijXjYi·
::J i , j=l
0
CX)
0
0
11 est facile de voir que ]a forme(., .) A est Un produit hermitien SU( ccn
SÏ et seulement
N
@
si A est une matrice définie positive. D'autres caractérisations des matrices définies
~
..c
positives sont données par le théorème suivant :
O'I
·c
>-
Cl.
Théorème 7.2 Pour une matrice A E CC11 x 11 , il y a équivalence entre:
0
u 1. A est défmie positive,
2. Il existe un espace hermitien IE et n vecteurs indépendants ei E IE tels que
aij = (ej , ei) E;
3. A est hermitienne et ses valeurs propres sont positives,
4. Il existe une matrice M E ccm xn de rang n telle que A = M * M.
88 7 • Matrices définies positives et décomposition de Cholesky
JE
x * Ax = x * M * Mx = llMx ll; ~ O.
Si cette quantité était nulle, cela signifierait que Mx = 0 avec x =f. O. Les
n colonnes de M senùent donc dépendantes et M ne senùt pas de rang n.
Ainsi x* Ax = llMxll; > 0 et A est définie positive.
Remarque 7.1.
1. Une matrice du type ((e1, ei)JE) est appelée matrice de Gram du système de
-0 vecteurs (ei). Toute matrice semi-définie positive est une matrice de Gram
0
c
::J
(théorème 7.3). Une matrice de Gram est inversible si et seulement si les
0 vecteurs qui la définissent sont indépendants (théorème 7 .2).
CX)
0
0
N
2. Soit A E lR" x n une matrice définie positive. L'ensemble
@
~
..c
O'I
[A = {x E JRn : x *Ax = 1}
·c
>-
Cl.
0
u est un ellipsoide. Dans une base orthonormée (ui) de vecteurs propres de A
son équation est
Hn =(-. i+1-l
~ ) ..
l,j =
1. .. Il
qui peut être vu comme le produit scalaire des monômes (linéairement indépendants)
xi- 1 , i = 1, ... , n, pour le produit scalaire
(f ,g) = l f(x)g(x)dx
Les matrices semi-définies positives ont une caractérisation similaire. Nous n'en
donnons pas la preuve qui est, mutatis mutandis, similaire à la précédente :
Théorème 7.3 Pour une matrice A E r,cnxn il y a équivalence entre
l. A est semi-définie positive,
2. Il existe un espace hermitien IE et n vecteurs ei E IE tels que aij = \e j, ei )JE,
3. A est hermitienne et ses valeurs propres sont positives ou nulles,
4. Il existe une matrice M E r,cmxn telle que A = M * M .
A=( A(l: n - 1, 1 : n - 1)
a*
a ) avec a =
a11n
Notons que
;) ( A(l : n - l , l : n - l)
u*C*
Cu
u*u + af3
)
de sorte que
A = ( ~ 0 ) ( C* u )
u"' a 0 /3
si l'on prend Cu = a c'est-à-dire u = c- 1a et u*u + af3 = a 11n. On aura
prouvé que A est définie positive si l'on peut prendre a = f3 > 0 (appliquer
-0
c
0 le théorème 7.2-4). Il reste donc à prouver que af3 > O. L'égalité ci-dessus
::J
0 prouve que
2
CX)
0 det A= det Ca detC* /3 = ldetC l af3;
0
N
@ comme, par hypothèse, det A> 0 on a bien af3 >O.
~
..c
O'I
·c Corollaire 7.6 Toute matrice dé.finie positive possède une décomposition LU.
>-
Cl.
0
u 1 Démonstration. C'est une conséquence des théorèmes 6.6 et 7.5.
À 1 ~ ... ~ Àn ·
Théorème 7. 7
2. Si b ~ lm A alors
....
Au, =
À1u1 et ll u1 Ili=
1 de sorte que
-0 ~
2l µ 2u r1 Au 1 - 21 µ 2À 1 -
0 "O T T
c i::
;:::s q (µu 1) = µb u 1 + a = µb u 1 + a --+ oo
::J
0 ....
CX)
""'
~
0
0
~
'~ lorsqueµ--+ oo. De la même manière, prenons un vecteur propre unitaire
N ""'
·c::
0 Un associé à À,1 :
@ 'ro='
~
i::
ll µ 2 Àn -
..c 0 T
O'I
·c i::
~
q(µu n) = µb Un+ ll' --+ - OO .
>-
Cl. ·s..
0
0 (.)
u ....00 2. Puisque A est symétrique on a Ker A = (lm A)..l. En effet, six E Ker A
..c:
o..
ro on a Ax = 0 d'où ( Ax , u) = 0 pour tout u E ~n et, puisque A est symé-
......l
1 trique, \x, Au ) = 0 pour tout u c'est-à-dire x E (ImA)..l. On a prouvé
"O
0
i::
l'inclusion Ker A c (lm A)..l . Il y a égalité parce que
;:::s
Q
@ dimKer A= n - dimlm A= dim(Im A)..l .
92 7 • Matrices définies positives et décomposition de Cholesky
Supposons désormais que Ker A c b1-. On a donc (lm A )1- c b1- et par
passage aux orthogonaux
ce qui est contraire à l'hypothèse. Ceci prouve qu' il existe x E Ker A tel
que brx -=!= O. On a alors
1 7 1
q(x) = -(x
2 - xl A(x - x) +a - -x
2 Ax .
1 r T r lr lr
q(x) = Ï(U (x-x)) DU (x-x)+a- x Ax = y Dy+/3 = Q(y )
2 2
-0
avec y= U T(x - x) et /3 =a - !xT Ax. Remarquons que
0
c
::J
0 inf Q(y) = inf q(x)
CX) yEIR" xEIR11
0
0
N
@ et que si y est un minimum pour Q(y ) alors x = Uy + x est un minimum
~
..c
O'I
pour q(x). Idem pour le sup et les maxima. On remarque maintenant que
·c
>-
Cl.
1 n
0
u Q(y ) = 2YT Dy+ /3 = L ÀiYl + /3.
i= I
Remarque 7.2.
1 1
-0
0
c
::J
0
CX)
0
0
N
@
~
1 1
..c
OI
·c
>-
Cl.
0
u Tableau 7.3 Paraboloïde hyperbolique d'équation z= 3x2 - 2y2 .
Théorème 7.8 Pour toute matrice semi-défi.nie positive A E cnxn il existe une et
une seule matrice B E C 11 xn qui soit semi-définie positive et qui vérifie 8 2 = A. On
l'appelle la racine carrée de A et on la note A 112 .
UDU* = VDV *
ou encore
(V * U)D(V* U)* = D
Q
;:::s
colonnes w 1 , ••• , w 111 de W constituent une base orthonormée de l'espace
@ engendré par les vecteurs e 1 .• • , e111 de la base canonique de C 11 • Idem pour
96 7 • Matrices définies positives et décomposition de Cholesky
w11 1+1 , ... , w ,+ et cretera. Ainsi W est une matrice unitaire diagonale par
11 112
Corollaire 7.9 Pour toute matrice A E Gll..n il existe des matrices U E lU11 et P
définie positive telles que A = PU. Cette décomposition est unique et s'appelle la
décomposition polaire de A.
Théorème 7.10 Soit A E cnxn une matrice définie positive. Il existe une unique
matrice L E <C" xn triangulaire inférieure telle que lii > 0 pour tout i et A = LL *
(décomposition de Cholesky).
A=(
OI
·c A11 - I
>- a ) avec a =
Cl.
0 a* a11n
u
A=( ~) ( L~0- I ;)
7.5 Complexité de la décomposition 97
On obtient:
z, , = y'all
pour j = 2: n
....
-0 ~
lj t = aji/l11
"O
c
0
i::
;:::s
fin
::J
0 .... pour i = 2: n
""'
~
CX)
0
0
~
'~
""'
·c::
zu = v,_a_ii--2-:~:-1,-1-zi-k-12
N
0
@ 'ro=' pour j = i +1:n
(aji - 2:~:', zjklik) / lu
~
..c i::
O'I
·c
0
i:: lJi =
~
>-
Cl. ·s..
0
fin
0 (.)
u ....
0 fin
0
..c:
o..
ro
......l
1
"O
0
Chaque étape de cet algorithme requiert (2i - l)(n - i + 1) opérations arithmétiques:
+, - , x, /, 1.12 et ..J.· Puisque 1 ~ i ~ n, le compte total est de (n - l)n(n + 1)/ 3 ~
i::
;:::s
Q
@ n 3 / 3 opérations arithmétiques soit moitié moins que pour la décomposition LU.
98 7 • Matrices définies positives et décomposition de Cholesky
• .C,. l' espace vectoriel des matrices L E cn x n qui sont triangulaires inférieures
et qui ont une diagonale réelle,
l M(B)llF
llM llFF = sup
-0
0 B E Hn llBllF
c
::J
0
B -/= 0
CX)
0
0
N
@
Nous allons voir que l' application « Cholesky » est différentiable et nous allons
~
..c estimer la norme de sa dérivée. On a :
O'I
·c
>-
Cl.
Théorème 7 .11 L'application « Cholesky » C : PHn --+ P .C,. est de classe C(X) et,
0
u pour toute matrice A E PH 11 ,
1 cond2 (A)
IlDC(A)llFF :::; V2 llA11~/2
Démonstration. Nous n'en déc1ivons que les étapes principales, laissant au
1lecteur le soin d' en compléter les détails à titre d' exercice.
7.6 Conditionnement de la décomposition de Cholesky 99
3. DP(L) : .C,. --+ H 11 est un isomorphisme (comme ces deux espaces ont
même dimension il suffit de prouver que DP(L) est injective. Pour ce
faire on écrira que LM* + ML* = 0 et on considèrera la première colonne
de cette matrice).
4. Par le théorème de dérivation des fonctions inverses, C est aussi de classe
C(X) et si L E P .C,. est la décomposition de Cholesky de A E PH11 alors
DC(A) = DP(L)- 1 •
1 2 1 2 11 1 2
ll L - M+M*L- *ll F = 2llL - M llF +2'°' Il m··
L.,1• = l 1z-:-: li l :::::::
::;;,.--
-0
0
c
::J
0
CX)
0
0
N
@
~
..c
O'I
·c
>-
Cl.
0
u
Exercices 101
EXERCICES
Exercice 7 .1
On considère la matrice A 11 = (aij ) E JR11 x n défi nie par aij = min(i , j).
l. Montrer que pour tout n, det(A,1 ) = 1. En déduire que A 11 est définie positive.
2. Une autre façon de prouver que A,1 est défin ie positive utilise un argument
d' analyse. Posons x~ = 1 si x ): 0 et 0 sinon. Montrer que
min(i , j) = [ '" (i - y )z (j - y )z d y
Exercice 7 .2
Soit A E CC11 x 11 défin ie positive, A = LU sa décomposition LU et soit D =
diag(uii ).
1. Montrer que u ii > 0 et que ( L D 112 )* = D - 1! 2 u. En déduire que
( LD 112 ) (LD 112 ) * est la décomposition de Cholesky de A.
2. On considère la matrice B = A +xx * où x E ccnest donné. En utilisant l' exercice
.... 6.4 donner la décomposition de Cholesky de la matrice B à l'aide de celle de A .
-0 ~
0 "O
c i::
;:::s
::J
0 .... Exercice 7 .3 Matrice de Cauchy
CX)
""'
~
~
0
0
'~
Soit ai E CC, i = 1, . . . , n , tels que R(ai ) > 0 pour tout i . La matrice
N ""'
·c::
0
@ 'ro='
~
..c i::
0 Ca = ( 1- )
O'I i::
·c ~ ai +a j i ,j= l.. .n
>-
Cl. ·s..
0
0 (.)
u ....00 est appelée matrice de Cauchy. La matrice de Hilbert H,1 considérée au paragraphe
..c:
o.. 7 .1 est ainsi une matrice de Cauchy (prendre ai = i - ~ ) . On considère les fonctions
ro
......l
1
'Pi(x) = x a;- L L' espace des fonctions de carré intégrable sur JO, 1[ est équipé du
"O
produit hermitien
l
0
i::
;:::s
Q
@ (f, g) = f(x) g (x )dx.
102 7 • Matrices définies positives et décomposition de Cholesky
1. Montrer que, pour tout i, les fonctions 'Pi sont de carré intégrable sur ]0, l[ et
que
pour tout entier k = 0, ... , n - 1. En déduire que les coefficients ai sont tous
nuls et que, lorsque les ai sont distincts, la matrice Ca est définie positive.
Exercice 7.4
Montrer que l'application exponentielle (exercice 3.14) est une bijection des
matrices he1mitiennes sur les matrices défi nies positives. Pour prouver l'injectivité on
raisonnera comme dans la démonstration du théorème 7.8.
Exercice 7.5
Résoudre par la méthode de Cholesky le système :
~~ : 26~ : ~ ~
-0
39
0
86
c
::J
0
CX)
{ 3x + 6y + 3z 27
0
0
N
@
~
..c
Exercice 7.6
O'I
·c Résoudre via la décomposition de Cholesky le système linéaire Ax = b avec
>-
Cl.
0
u
4 -2 2 0 6
-2 2 -2 1 -4
A= b=
2 -2 6 3 ' 8
0 1 3 6 3
Exercices 103
Exercice 7. 7
Soit A = ( ~ !) E JR2 x 2 non nécessairement symétrique.
AE P <;:::;> QA QTE P
LAL 7 = V
.... avec V E P triangulaire supérieure .
-0 ~
0 "O
c i::
;:::s 5. a) Montrer que toute matrice A E P se décompose sous la forme A = M V M T
::J
0 ....
CX)
""'
~ avec M E [, 1 et V E P, triangulaire supérieure et que cette décomposition
~
0
0
'~ est unique.
N ""'
·c::
0
@ 'ro=' b) Lorsque A est définie positive, montrer que l'on retrouve la décomposition
~
..c
O'I
i::
0 de Cholesk:y.
i::
·c ~
>-
Cl. ·s..
0
0 (.)
u ....00 Exercice 7.8 Calcul de la racine carrée d'une matrice définie posi-
..c:
o.. tive
ro
......l
"O
1 1. Montrer que pour tout nombre réel a > 0 la suite définie par
0
i::
~2 (x
;:::s
Q
@ xo = 1, x p+ 1 = P + !!:.__. ) ,
Xp
104 7 • Matrices définies positives et décomposition de Cholesky
converge vers fa. Cette méthode est attribuée à Héron d'Alexandrie (premier
siècle de notre ère).
2. On se donne maintenant une matrice A E en XII définie positive. Montrer que la
suite de matrices définie par
1 ( X p + A X P-l)
X o = l n, X p +1 = 2
Exercice 7.10
On veut calculer l'inverse de la matrice définie positive A2 E JRnxn
2 - 1
- 1 2 - 1
Az =
- ] 2 - ]
-1 2
1 - 1
- 1 2 - 1
B2 =
- 1 2 - 1
-1 2
(7.1)
""'
·c::
A2 1 = (min(i , )) - _!j_)
n+l
N
0
@ 'ro='
~
i::
en utilisant la formule de Sherman-Morrison-Woodbury (exercice 1.9).
..c 0
O'I i::
·c ~
>-
Cl. ·s..
0
u
0
(.) Exercice 7.11
....00
..c:
o..
Soit A une matrice définie positive ayant une structure bande de largeur 2p + 1.
ro Montrer que la matrice L triangulaire inférieure donnée par la décomposition de
......l
"O
1
Cholesky possède la même structure bande. On a vu que cette même propriété est
0
i::
;:::s aussj vérifiée pour la décomposition LU (exercice 6.5).
Q
@
"O
0
c
:J
0
OO
0
0
N
@
~
..c
O'I
·;::::
>-
0..
0
u
Chapitre 8
La décomposition QR
Remarque 8.1. Une matrice unitaire est une matrice de Stiefel carrée: §t1111 =
-0
0 lUn .
c
::J
0
CX)
0 Proposition 8.2 S E cm x n est une matrice de Stiefel si et seulement si S* S =
111 • Dans ce cas, SS* est la projection orthogonale de cm sur le sous-espace lm S
0
N
@
~
engendré par les vecteurs-colonne de S.
..c
O'I
·c
>-
Cl. Démonstration. La première assertion est évidente : S* S est en effet la
0
u matri.ce dont les entrées sont les produits scalaires (s j, si) où les si sont les
colonnes de S. Pour prouver la seconde assertion (voir paragraphe 1.13 sur
les projections orthogonales) on note que SS*si = si pour toute colonne
si de S et que SS*x = 0 pour tout x E (lm S)1-. En effet cette dernière
condition est équivalente à S* x = O.
108 8 • La décomposition QR
8.2 DÉCOMPOSITION QR
Dans tout ce chapitre nous supposons que m ) n.
Définition 8.3 On appelle décomposition QR d'une matrice A E e,mxn avec m ) n
une identité A = QR où Q E §tmn est une matrice de Stiefel et où R E C 11 xn est
triangulaire supérieure.
Nous allons maintenant décrire plusieurs procédés pour calculer cette décomposi-
tion.
Algorithme de Gram-Schmidt
q1 = aif lla1112
pour i = 1 : n - 1
.... Pi+I = ai+I - 'L:~= I (ai+J, qk) qk
-0
0
~
"O qi+I = Pi+I /Il Pi+1 ll2
c i::
;:::s fin
::J
0 ....
CX)
""'
~
~
0 '~
0
N ""'
·c::
0
@ 'ro='
~
..c i::
Ce procédé est à la base de la construction des polynômes orthogonaux. Notons que
0
O'I
·c i::
~
la base orthonormée obtenue dépend de l'ordre dans lequel sont pris les vecteurs ai.
>-
Cl. ·s..
0 Voir l' exercice 8.9 pour un procédé d'orthonormalisation indépendant de l'ordre des
0 (.)
u ....00 ai .
..c:
o..
ro
......l Soit A = (a1 ... a11 ) E cmxn une matrice de rang n dont les ai sont ses vecteurs-
1
"O
0 colonne. L'orthonormalisation de Gram-Schmidt appliquée aux ai donne la matrice
Q = (q1 ... qn) E §tm11 et la matrice R E C 11 XII triangulaire supérieure à diagonale
i::
;:::s
Q
@ positive telles que A = QR par l' algorithme qui suit:
110 8 • La décomposition QR
r 11 = ll a1 112
q1 = a1 / lla 1 Ili
pour i = 1 : n - 1
Pi+I = ai+l
pour k = 1 : i
rk i+I = \ai+I, qk)
Pi+l = Pi+l - r ki+I qk
fin
ri+I i+ I = llPi+l 112
qi+J = Pi+1 / ri+li+I·
fin
montre que Pi+J - ai+I E lm Qi et que Pi+I E (lm Q i)..l, autrement dit Pi+l est la
projection orthogonale de ai+J sur (lm Q i )..l. Ainsi
q1 =a, / lla1112
CX)
0
0
N pour i = 1 : n - 1
@
~ Pi+I = Pi a i+l
..c
O'I
·c qi+l = Pi+I / llPi+l 112
>-
Cl. fin
0
u
• 2m pour le calcul de r 11 ,
• m pour le calcul de q 1,
On obtient un total de
11-J
3m + L(4mi + 3m) ~ 2mn2 opérations arithmétiques.
i= I
-
cinq décimales. On obtient: q 1 = a 1, (a2, q 1 ) = 1.0004, p2 = (- 0.00004, 0.00003)T
ce qui conduit à un angle (q 1 , p 2 ) = 66.4 degrés bien loin des 90 degrés souhaités.
112 8 • La décomposition QR
-0
• norme de l'erreur llx - xll2 = 0.0970.
0
c
::J
0 L'orthogonalité des vecteurs est mieux satisfaite que par l' algorithme de Gram-
CX)
0
0
Schmidt et la solution du système meilleure, bien qu ' encore assez médiocre. On
N
verra au paragraphe 8.5.3 que la décomposition QR obtenue grâce à la méthode de
@
~ Householder donne de meilleurs résultats.
..c
O'I
·c
>-
Cl.
0 8.3.6 Procédé de réorthogonalisation
u
Une autre méthode fréquemment utilisée pour améliorer 1'01thogonalité des colonnes
de Q consiste à appliquer une seconde fois 1' algorithme de Gram-Schmidt à la matrice
Q que l' on vient de calculer et dont on a vu qu'elle ne vérifiait qu'imparfaitement
l' égalité Q* Q = 111 • On obtient la décomposition Q = Q' R' et donc A = Q'(R' R).
La matrice R' R est triangulaire supérieure et Q' est la matrice de Stiefel de cette
8.4 Rotations de Givens 113
.... 1
-0 ~
c
0 "O
i::
cos() sin()
;:::s
::J
0 .... 1
CX)
""'
~
0
0
~
'~ G(i , j , 8) =
N ""'
·c::
0
@ 1
'ro='
~
..c i::
0
- sin() cos() - - - -- - - .!
O'I i::
·c ~ 1
>-
Cl. ·s..
0
0 (.)
u ....00
..c:
o.. 1
ro
......l
1 c'est-à-dire
"O
0
i::
Xk k =f. i , j,
;:::s
Q xi cos () + x.i sin () k = i,
@
-xi sin()+ Xj cos() k = j.
114 8 • La décomposition QR
Il est clair qu'il s'agit là d'une transformation orthogonale. On peut forcer Yj à être
nul en prenant
X·1 X·
1
cos () = et sin () =
V+ x?1 x}2
j x~ + x
l
2
}
.
Une succession de telles rotations permet d'appliquer un vecteur a E ffi. 111 sur le vecteur
± llall2
0
pour i = m : - 1 :2
r = ja? 1 +a~1- l
ai-J = r
-0
ai = 0
c
0 fin
::J
0
CX)
0
0
N
@
Notons enfin que l'on peut contrôler le signe de la première coordonnée ± llall 2 en
~
..c
remplaçant () par 'TT + ().
O'I
·c Pour obtenir la décomposition QR d'une matrice A E ffi.m x n on applique la méthode
>-
Cl.
0 précédente aux différentes colonnes de A comme indiqué dans le schéma suivant :
u
X X X X X X X X
X X G(3 ,4) X X G(2 ,3) X X G(l ,2) Ü X G (3,4)
---+ ---+ ---+ ---+
X X X X Ü X Ü X
X X Ü X Ü X Ü X
8.4 Rotations de Givens 115
X X X X
Ü X G(2 ,3) Ü X
--7
Ü X 0 0
0 0 0 0
Noter que l'ordre choisi dans la composition des rotations de Givens ne perturbe pas
les zéros déjà acquis. L' algorithme correspondant est le suivant :
Algorithme de Givens
pour j n- 1
= 1:
pour i = m : - 1 : j - 1
r = Vfa2 ,_ 1 ./. +a?.
11
c = ai- .1.i/r
s = aij / r
ai- 1 j = r
aiJ = 0
pour k = j + 1 : n
ai - t k = cai- 1k + saik
aik = - sai-1 k + caik
fin
fin
fin
"O
1
L(6(n - j) + 6)(m - j + 2) ~ 3mn 2 - n3.
0
i::
;:::s J= I
Q
@
116 8 • La décomposition QR
Hw = lm - 2ww*.
Hw = {u E cm : (u, w) = 0} .
Elle est hermitienne et unitaire : H 111= H1~ = H;;; 1 •
Démonstration. H 111 (w) = Um - 2ww*)w =
w - 2w(w *w ) = - w parce
que w*w = 1. De plus, pour tout u E H w, H 111 (u) = Um - 2ww*)u =
u - 2w(w*u) = u puisque w *u = \u, w) =
O. Ceci prouve que Hw est
bien la symétrie orthogonale par rapport à l'hyperplan H w. Notons enfin que
H; = Um- 2ww*)* = lm- 2ww* = Hw et a ; Hw = Um - 2ww*)2 =
l m - 4ww* + 4ww*ww* = lm parce que w *w = 1. Ceci prouve que
la symétrie orthogonale par rapport à l'hyperplan H w est hermitienne et
unitaire.
Étant donné deux vecteurs dans JRm de même longueur, on peut les rabattre l'un
sur l'autre par une symétrie orthogonale. En termes plus imagés, l'un est« l'image
-0 miroir» de l'autre. Pour des vecteurs complexes cela n'est vrai qu'à un changement
0
c
::J
d' argument près :
0
CX)
0
0
Théorème 8.8 Soient u 1 et U2 E cm
de mêmes normes et indépendants. Tl existe
N w E Cm, unitaire, et un nombre complexe 8 de module 1 tels que
@
~
..c
OI
·c
>-
Cl.
0
u Démonstration. On prend
et
Ut - 8u2
w= - - - - -
llul - 8u2ll2.
8.5 La méthode de Householder 117
de sorte que
I I
k1 a,2 a,11
0
H1A =
A,
0
0
k·J
0
A·J
0 0
-0
0
À la matrice de Householder Hj+l E c<m-j)x(m-j) nous associons la matrice
c
::J
0
H j+I E cmxm donnée par
CX)
0
0
N
@
~
-
0
H .i+l )
..c
O'I
·c
>- Il est facile de voir que lorsque H j+J est la matrice de Householder associée
Cl.
0
u au vecteur w cm-E .i, H .i+l est la matrice de Householder associée au
vecteur w E cm tel que
0
w=
0
w
8.5 La méthode de Householder 119
0 0
Le processus s'arrête après n telles étapes. On obtient alors une matrice tri-
angulaire supérieure H11 • • • H 1 A = R d'où A= QR avec Q = H 1 ••• H11 •
Lorsque m = n la dernière étape n'est plus nécessaire parce que la matrice
A 11 est de taille 1 x 1 donc déjà triangulaire supérieure; n - 1 matrices de
Householder suffisent.
Remarque 8.4. Par construction des matrices de Householder H.i, les diffé-
rentes colonnes q.i de la matrice Q = H 1 ... H11 sont données par q.i = Qe.i =
H1 ... H.ie.i.
pour j = 1 : n
a 2 -_ '\' m 1 12
L..Ji = j+ I aiJ
si a =/: 0
/3 =
V/lan.· 12 + a 2
Wj = a j j - f3
pour i = j + 1 : m
Wi = ai)
fin
WW T
H = l m- j + I - 2- -2
llwll2
A(j : m , j : n) = H A(j : m , j : n)
fin
fin
requiert~ 2mn2 - ~n 3 opérations arithmétiques, mais il suppose que l'on stocke les
matrices H1 . . . Hn.
Une dernière possibilité consiste à effectuer le produit Q* = Hn . . . H 1 ce qui évite
de conserver les différentes matrices de Householder mises en oeuvre. Cette stratégie
coûte~ 4(m 2 n - mn 2 + n 3 / 3) opérations arithmétiques.
Définition 8.13 Une matrice H E C 11 XII est dite de Hessenberg lorsque hij = 0 pour
tout i > j + 1.
Une matrice de Hessenberg H est de la forme
X X
H = (8.1)
....
-0 ~
0 "O
c i::
;:::s
X X
::J
0 ....
CX)
""'
~
~ On va montrer que toute matrice A est unitairement semblable à une matrice de
0 '~
0
N ""'
·c::
0
Hessenberg. Cette décomposition peut être obtenue grâce aux matrices de Househol-
@ 'ro=' der et de Givens déjà considérées pour la décomposition QR. Nous donnons ici la
~
..c i::
O'I
0
i::
décomposition par les matrices de Householder.
·c ~
>-
Cl. ·s..
0 0
(.) Théorème 8.14 Étant donné une matrice A E C" x n, il existe une matrice unitaire Q
u ....00
..c:
produit d'au plus n - 2 matrices de Householder telle que Q* A Q soit une matrice de
o..
ro Hessenberg.
......l
1
"O
0 Démonstration. Si la première colonne a 1 de A est du type
i::
Q
;:::s
a, = (a 11 , a11 , 0, ... , Ol alors on pose H2 = In. Sinon, les vec-
@ 1 teurs, a- 2 -- (a 21 , . . . , a111 )T et e- 1 -(1
- , Ü, • . . , O)T E rr<n- . d'
\\._, l 'sont rn ependants
122 8 • La décomposition QR
On pose
qui, comme nous l'avons vu, est aussi une matrice de Householder. On a
0
-0
0
c On recommence ce même procédé sur la matrice A 1 et après n - 2 étapes
::J
0
CX) on obtient
0
0
N
@
~
..c
O'I
·c
où H est de Hessenberg (à ne pas confondre avec les matrices de Househol-
>-
Cl. der Hj). Il suffit de poser Q = Hi ... H,7_ 1 = H 2 . . . H11 -1 pour avoir la
0
u décomposition de Hessenberg A = QHQ*.
La forme algorithmique du théorème 8.14 est donnée ici pour des matrices réelles:
8.6 Réduction à la forme de Hessenberg 123
pour j = 1:n- 2
~Il
a 2 -- Lti 1 12
= j+2 aij
si a i= 0
(3 = Vla.i+l .i 12 + a 2
Wj+ l = (3
a j +I j -
pour i = j + 2 : n
Wi = aij
fin
WWT
H = ! 11 _ .i - 2- -2
llwlb
A(j + 1 : n , j : n) = H A(j + 1 : n, j : n)
A(l : n , j + 1 : n) = A(l : n , j + 1 : n)H
fin
fin
Théorème 8.1 6 Étant donné une matrice A E e,n x n hermitienne, il existe une matrice
unitaire Q produit d'au plus n - 2 matrices de Householder telle que QA Q* soit une
matrice tridiagonale hermitienne.
H2A = 0
Ai
0
a11 k1 0 .. . 0
k1
H2A H; = 0
-
A1
-0
0
0
c
::J - -
0 où A 1 est elle-même hermitienne. On recommence avec A 1 ce qui vient
CX)
0
0
d'être fait avec A et après n - 2 telles étapes on a :
N
@
~
..c
OI
·c
>-
Cl.
tridiagonale hermitienne. Il suffit de poser Q = H2 ... H,~_ 2 = H2 ... H11 -2
0
u pour avoir la décomposition A = QT Q*.
1. D'après la définjtion générale (voir exercice 6.5) une matrice tridiagonale est une matrice bande de
largeur 3.
8.8 L'algorithme d'Arnoldi 125
• dimR <Cnxn = 2n 2 ,
....
-0 ~
0 "O
c i::
;:::s on a donc h 2 1q2 = Aq 1 - h 11 q 1. La condition d'orthogonalité (q 1 , q2 ) = 0 permet de
::J
0 .... déterminer
CX)
""'
~
~
0
0
'~ h11 = (Aq1 , q1) = q t Aq1.
N ""'
·c::
0
@
~
'ro=' Par ailleurs, la condition llq2 l 2 = l implique
..c i::
0
O'I i::
·c ~
>-
Cl. ·s..
0
0 (.)
u ....00 Si Aq 1 - h 11 q 1 =!= 0 est distinct de zéro, on peut alors choisir
..c:
o..
ro
......l
1
"O
0
i::
;:::s
2. Il s'agit là de la dimension de lU" en tant que sous-variété différentiable de ~2" • Nous admettons ici
2
Q
@ que les relations d'orthonormalité Q* Q = 111 sont indépendantes.
126 8 • La décomposition QR
et
On aurait pu tout aussi bien prendre h11 = z llAq1 - h 11q 1 112 avec z E C de module 1.
Supposons avoir construit les j premières colonnes de Q et de H avec les conditions
requises. La relation (8.2) appliquée à la colonne j donne
j+l
Aqj = L hi_;qi
i=l
et l'on obtient
j
-0
0 et
c
::J
0 .i
CX)
0 qj+I = (Aq_; - L hijqi)/hj+ I j·
0
N i=l
@
pour j = 1 : n - 1
z = Aq.i
PJ+I = z
pour i = 1 : j
hiJ = qtz
P.i+J = P.i+l - h;.iqi
fin
h j +I j = Il PJ+1 ll2
Si h j+I j = Ü
k= j
stop
fin
qj+I = p J+ifh.i+l j
fin
k=n
pour i = 1 : n
h;11 = qt Aq11
fin
Q
;:::s
Proposition 8.17 L'algorithme d'Arnoldi calcule un entier k ~ n, une matrice de
@ Stiefel Qk E §t11 k et une matrice de Hessenberg Hk E <ekxk telles que A Qk = QkHk
128 8 • La décomposition QR
-
AQ1 = Q 1+1 H1
AQJ = Q 1H1 +h1+1JqJ+1e) (8.4)
Q j AQ J = H1
où P1 = (111 - Q 1 Qj) et Q,; = (q1 ... q 1 ) E §t11,;. Le projecteur orthogonal P,; admet
la décomposition
et les matrices (111 - q;qt) commutent entre elles. Nous obtenons ainsi l'algorithme
d' Amoldi modifié.
-0
0
c
::J
0
CX)
0
0
N
@
~
..c
OI
·c
>-
Cl.
0
u
8.9 L'algorithme de Lanczos 129
pour j = 1 : n - 1
z = Aq.i
pour i = 1 : j
hi1·=q~
.! z
z= z- hijqi
fin
h j+I j = llzll2
Si hj+I j = Ü
k= j
stop
fin
qj+l = zjh j+I j
fin
k=n
pour i = 1 : n
hin = q;* Aqn
fin
Définition 8.18 Une matrice de Hessenberg H dont les coefficients h j+I .i sont dis-
.... tincts de zéro est dite non réduite. La matrice H k donnée par l'algorithme d'Arnoldi
-0 ~
c
0 "O
i::
en est un exemple.
;:::s
::J
0 ....
CX)
""'
~
~
La complexité de l'algorithme d' Arnoldi est celle de l'algorithme de Gram-Schmidt
0 '~
0
N ""'
·c:: auquel il faut ajouter le coût des produits Aq.i , j = 1, ... , k. Chaque produit néces-
0
@ 'ro=' site 2n 2 opérations. L'algorithme d' Arnoldi requiert donc~ 2nk2 + 2n 2 k opérations
~
..c
O'I
i::
0
i::
arithmétiques.
·c ~
>-
Cl. ·s..
0
0 (.)
u ....00
..c:
8.9 L'ALGORITHME DE LANCZOS
o..
ro
......l
1
Lorsque la matrice A est hermitienne, la décomposition de Hessenberg A = QH Q*
"O
0
i::
montre que la matrice H est également hermitienne et donc tridiagonale. Notons T
;:::s
Q
@
130 8 • La décomposition QR
cette matrice
T =
/311 - 2 an-1 f3n- I
/311-1 a n
Nous allons suivre la même démarche qu' au paragraphe précédent en considérant
les relations existant entre les vecteurs-colonne des matrices A et Q déduites de la
relation
AQ = TQ (8.5)
et les propriétés d' orthogonalité des colonnes de Q.
On suppose que le vecteur unitaire q 1 est donné. La première colonne de l' égalité
(8.5) donne
A q 1 = a 1q1 + f3 1q2
que l'on écrit sous forme d' une récurrence à trois termes :
-0
0
c
::J
0 (8.6)
CX)
0
0
N
Supposons que les vecteurs qi, i = 1, ... , j soient orthonormés et que f3 j - I E lR
@
~ vérifie /3 j -l = q j Aqj - l = q j _ 1 Aqj . Le produit scalaire par q j des deux membres
..c
OI
·c de l' égalité (8.6) donne a j = q j Aq.i. Le produit par q j-l donne /3 j-J = q j_ 1Aqj
>-
Cl. qui est déjà vérifié par hypothèse. En considérant la norme, on obtient
0
u
lf3j l = ll Aq.i - /3 .i - lqj - 1 - a .iq .i ll2-
Cette égalité donne en outre /3,; = qj+i Aq,; = qj Aq,;+l · On poursuit ainsi le calcul
tant que f3 .i est distinct de zéro.
De cette récun-ence, nous déduisons l'algorithme de Lanczos qui calcule les vecteurs
q,; à partir d' une vecteur q 1.
Algorithme de Lanczos
pour j = 1 : n - 1
z= Aq,;
a ,;= qj z
z = z - a ,;q,; - /3,;-1q,;-1
!3,; = llzll2
si {3,; = 0
k= j
stop
fin
q,;+1 =z/ /3,;
fin
k= n
an= q,7Aqn
fin
....
-0 ~
0 "O
c i::
::J ;:::s
.... La complexité de l' algorithme de Lanczos est dominée par les produits
0
CX)
""'
~
~
Aq,;, j = 1, . . . , k ce qui donne ~ 2n 2 k opérations.
0 '~
0
N ""'
·c::
0
@ 'ro=' Remarque 8.6. Une récun-ence à trois termes se rencontre aussi dans la
~
..c i::
0
construction des polynômes orthogonaux tels que, par exemple, les polynômes
O'I i::
·c ~ de Legendre, de Chebyshev ou de Jacobi utilisés dans les formules de
>-
Cl. ·s..
0 0
(.) quadrature de Gauss. L' orthogonalité des polynômes y est donnée au sens du
u ....00
..c:
produit scalaire
o..
ro
......l
1
(f,g) = /, f(t )g (t )w(t )dt,
"O
0
i::
;:::s
Q où I est un intervalle et w : I ---+ ]0, +oo[ une fonction poids.
@
132 8 • La décomposition QR
Tx V = Ker DF(x ).
0
0
~
'~
""'
·c::
Df (x)i = :t f oy(t) l1=0, lorsque i = :t y(t) lr=O.
N
0
@ 'ro='
~
..c i:: Définition 8.22 (Dérivée-2) Soient V C IR 11 et W C IRm deux sous-variétés de classe
0
Ck et soit f : V ---+ W de classe C 1 (au sens de la définition précédente). Il est
O'I i::
·c ~
>- ·s..
Cl.
0 0
(.)
clair que Df(x)i E TJ(x) W pour tout i E Tt V. La dérivée de f en x est donc une
u ....00
..c:
application
o..
ro Df(x ): Tx V ---+ T_rcx) W.
......l
1
"O
0 Bien souvent f admet un prolongement naturel g défini sur un voisinage ouvert
i::
Q
;:::s
de V dans IR11 • Par exemple l'application ( Q, R) ---+ QR est définie quel que soit la
@ paire (Q , R) et pas seulement lorsque Q est orthogonale et R triangulaire supérieure.
134 8 • La décomposition QR
De plus
et
Q
;:::s
et antisymétiique ce qui implique V = 0 et R = O. Ainsi Ker DP(Q , R) =
@ 0 et DP(Q , R) est un isomorphisme et on peut donc appliquer le théorème
136 8 • La décomposition QR
1
DQR(A) : IR11 x 11 ---+ T Q([JJ11 x U11 , DQR(A) = DP(Q , R) - .
c'est-à-dire si
. . .
QR+ QR = A.
Posons Q= QV avec V 7 = - V on a
Il en résulte que
Prouvons les inégalités sur les normes. En utilisant les propositions 3.10,
3.12 et 3.1 3 on a:
7
11Q11F = 11QIIas ( Q Â R -J) 11 F = 11IIas ( Q T ÂR- J) 11F ~ J2 lI Q T ÂR - 111F
-0
0
c
::J
0
CX)
L'inégalité sur l i? llFse prouve de la même manière.
0
0
N
@ Remarque 8.8. Ce théorème, que l'on peut reformuler en
~
..c
O'I
·c
>-
Cl.
0
u
-0
0
c
::J
0
CX)
0
0
N
@
~
..c
O'I
·c
>-
Cl.
0
u
138 8 • La décomposition QR
EXERCICES
Exercice 8.1
Donner la décomposition Q R à diagonale positive de la matrice
A=u ~ n
en utilisant les méthodes de Gram-Schmjdt, Givens et Householder.
Exercice 8.2
Résoudre le système linéaire sujvant en calculant au préalable la décomposition QR
de la matrice du système via la méthode de Householder :
2x1+x2+2x3 = 1
XJ+ X2 + 2x3 = 1
{
2x1+x2+x3 = l
Exercice 8.3
Même question que précédemment avec :
70 X + 121 y + 71 Z 525
-40 x + 80y + 70z 330
{ - 40 X ] 72 y 47 Z -525
Exercice 8.4
-0
0 Quelles sont les valeurs propres d'une matrice de Householder, d ' une rotation de
c
::J
0
Givens?
CX)
0
0
N
@
Exercice 8.5
~
..c Soit A une matrice orthogonale, A E On . Montrer qu 'il existe des entiers 0 ~
OI
·c p, q, r ~ n, des réels 8 1 , ... , 8,. et une matrice orthogonale Q tels que:
>-
Cl.
0
u lp 0 0 0 0
0 - Iq 0 0 0
0 0 Ai 0 0
sin eei ) .
0 0 0 A2 0 cos i
0 0 0 0
Exercices 139
Exercice 8.6
Montrer que toute transformation orthogonale dans Rn est le produit d'au plus
n symétries orthogonales. Utiliser la méthode de Householder à la matrice A de la
transformation.
Exercice 8. 7
Montrer que toute transformation orthogonale dans Rn est le produit d'au plus n - 1
rotations et d ' une symétrie orthogonale.
"O
1
2. Montrer que l'ensemble des vecteurs qi, 1 ( i ( n, est indépendant de l'ordre
0
i::
;:::s dans lequel on a rangé les vecteurs a i (montrer que pour toute matrice de permu-
Q
@
tation P E cnxn on a Q AP = Q AP).
"O
0
c
:J
0
OO
0
0
N
@
~
..c
O'I
·;::::
>-
0..
0
u
Chapit re 9
Inverses généralisés
et moindres carrés
(Lmi.;)l.
y
-l
( L :K~l L-)- )
JE lF LmL
et
Q
;:::s L t o L o L t o L o P = L * o P * o L * o L t* o L t o L f* o L * o P * o L * =
@ 1 L * o L t* o L t o L f* o L * = L t o L o L t o L o L t = L t o L o L t = L t .
144 9 • Inverses généralisés et moindres carrés
Proposition 9.5
J. (L*)t = (L t)*,
2. (Lt)t = L ,
3. Lorsque Lest injective, c'est-à-dire si rang L = dim JE, on a L t = (L * o L)- 1 o
L *,
4. Lorsque L est surjective, c 'est-à-dire si rang L = dim lF, on a L t = L * o (L o
L *)- 1.
L-(-
D
Om -r,r
0,. ,n -
Om-r ,11-r
r
D = diag( lT 1' ••• ' lT r ) E ffi_1" X r et où lT 1 ;;:;: •. . ;;:;: lT r > 0 sont les valeurs singulières
de A. Sous ces hypothèses
0,. ,m -
011 - r ,m - r
r
)
Démonstration. L'égalité At = uI.t V * est une conséquence de la propo-
sition 9.6 et le calcul de L t se mène à partir de la définition de l'inverse
e
généralisé : soit y E 111 ; projeter y sur lm I. revient à annuler ses m - r
dernières coordonnées
Yt
Yr
IIrm :l.(Y) =
0
-0 ~
.... Les préimages de ce vecteur sont les X E e 11
qui s'écrivent
0 "O
c i::
;:::s
::J
0 ....
CX)
""'
~
~
0 '~
0
""'
·c::
N
@
0
X=
y,./ u ,.
'ro='
~
..c i:: Xr+l
0
O'I i::
·c ~
>-
Cl. ·s..
0
0 (.)
u ....00
..c:
o..
ro De plus
......l
"O
1 Ker k = {X E e 11
Xl = .. . = x,. = 0}
0
i::
Q
;:::s
et
@ (KerL)..l = {x E en Xr+I = . .. = Xn = O} .
146 9 • Inverses généralisés et moindres carrés
On voit donc que la seule préimage de I11m k(y) dans (Ker I)_L est
Y 1/ u1 YI
( v -'
It(y) = Yr/ u ,.
0 - Ûn-r ,r
Û,. ,m- r
Ûn-r ,m-r ) y,.
Yr+ .1
0 Yn
• Celui des systèmes surdéterminés (m > n) : le nombre d' équations est plus
grand que celui des indéterminées. De tels systèmes se rencontrent dans les pro-
blèmes d' identification de paramètres, d'assimilation de données, en géodésie
et cetera. En général, un système surdéterminé n'a pas de solution.
La méthode des moindres carrés consiste à rechercher, parmi les x E C.11 , celui ou
-0 ceux qui minimisent la quantité
0
c
::J
0
CX)
f (x) = ll Ax - bll;
0
0
N
@
appelée fonction résidu. La valeur de cet infimum (on verra que c'est un minimum)
~
..c
OI
·c
>-
m = inf llAx -
xEC"
bll;
Cl.
0
u
est appelé le résidu minimum et tout vecteur x E R 11 qui le réalise, c'est-à-dire pour
lequel f (x) = m , est appelé solution au sens des moindres carrés du système Ax = b.
Exemple 9.1 : barycentre. Un exemple simplissime de système surdéterminé
est donné par
X = bi, 1 ~ i ~ m.
9.2 Moindres carrés 147
x E JR . Lorsque les bi ne sont pas tous égaux, ce qui est toujours le cas pour
des mesures faites en précision finie, la solution au sens des moindres carrés
Xt 1 Yi
X2 1 Y2
.... A= b=
'
-0 ~
0 "O
c i::
;:::s
Xm 1 Ym
::J
0 ....
""'
~
~
CX)
~
0 '~
0
N ""'
·c:: le vecteur des inconnues étant ( ). La droite obtenue d'équation y = œx +(3
0
@ 'ro=' s'appelle droite de régression.
~
..c i::
0
O'I i::
·c ~ La figure 9.2 montre une droite de régression obtenue à partir d' un nuage de 100
>-
Cl. ·s..
0
u
0
(.) points (xi , Yi ) Pour chaque abscisse Xi la valeur correspondante Yi a été calculée
....00
..c: suivant l' égalité
o..
ro
......l
Yi = 2xi + 1 + ei
1
"O
0 où ei est une variable aléatoire gaussienne de moyenne nulle et d'écart-type 0.25 .
i::
;:::s
Q
Suivant la théorie statistique, en supposant que les variables aléatoires ei sont indépen-
@ dantes, la droite des moindres carrés est « proche » de la droite d'équation y = 2x + l .
148 9 • Inverses généralisés et moindres carrés
*
*
3
* ** *
* *
*
2.5
**
* * **
* ** * * * I' * *" ** *
*
* *
2 * ** *
#
*
*
* **
*
1.5
* * ** * "'* * *
* ** *
* * * * *
1 * *
***#* *
0.5
0 0.1 0.2 0.3 0.4 0.5 0.6 0 .7 0.8 0.9
Figure 9.2 Droite de régression . Les points (x;, y;) sont notés *
supposer que
Il
-0
c
0
::J
0
Yi = L a .i x( + f3
CX)
J= I
0
0
N
ce qui conduit au problème des moindres carrés
@
~ m
..c
OI
·c inf ~ (a 1x/ + ... œnxf1 + /3 - Yi )2.
>- (a,,8)ElR xlR
11
~
Cl. 1= !
0
u
Exemple 9.4: erreurs rétrog rades. Nous avons rencontré cet exemple. au para-
en,
'
d' un système linéaire du type (A+ E)x' = b. Il s'agit là d'un problème sous-
déterminé : il an équations, n 2 inconnues (les entrées de la matrice E) et il
possède une infinité de solutions. Nous en avons, au théorème 5.7, sélectionné
une en considérant le problème d'optimisation
mm ll Ell2-
E E cnxn
(A+ E)x' = b
Cet exemple n' entre pas exactement dans notre cadre d'étude: la norme spec-
trale Il E 112 ne se déduisant pas d'un produit scalaire (voir exercice 9.10).
inf
xEC11
llAx - bll;
possède au moins une solution.
2. Ces solutions sont caractérisées par :
A*Ax = A*b
appelée équation normale.
3. Six et x' sont deux solutions alors Ax = Ax'. La solution est donc unique si la
matrice A est de rang n.
.... 4. La solution de norme minimale
-0 ~
0 "O
c i::
....00 inf
yEim A
llY - bll;
..c:
o..
ro
......l
1
possède une et une seule solution y E lm A qui est la projection orthogonale
"O
0 de b sur lm A. Elle est caractérisée par (voir paragraphe 1.13)
i::
;:::s
Q
@ y E lm A et (y - b, y) = 0 pour tout y E lm A .
150 9 • Inverses généralisés et moindres carrés
S = {x E e 11
: Ax = y} .
Ceci prouve l'existence d'une solution et le fait que Ax = Ax' = y pour
deux telles solutions (assertions 1 et 3). Soit :X E S de sorte que Ax = y .
L'équation qui caractérise y peut aussi s'écrire
( Ax - b,Az ) = o
9.3 Problèmes surdéterminés 151
pour tout z E E. Le calcul effectif d'une solution est obtenu à l'aide d' une base
s
(s1 ' ... 'Sk ) de E. Notons = (s, . . . Sk) E cnxk la matrice dont les vecteurs-
colonne sont les si. Ainsi x E E si et seulement s'il existe y E «:::k tel que
x = Sy. Un vecteur x = Sy est solution du problème si et seulement si
(ASy - b , ASy) =0
pour tout y E «:::k. On obtient ainsi l'équation normale par rapport à y
S* A * ASy = S* A *b.
Théorème 9.9 Soient A E cmxn, rang A = net b E cm. Le problème des moindres
carrés
inf
xE<C"
l Ax - bll;
possède une unique solution
....
-0 ~ Démonstration. Comme rang A = n la matrice A * A est inversible et
0 "O
c i::
;:::s l'équation normale donne x = (A* A) - 1 A *b. On reconnaît là l'inverse
::J
....
0
CX)
0
""'
~
~
'~
1généralisé At de A (proposition 9.5).
0
N ""'
·c::
@
0
Exemple 9.5: Reprenons l' exemple 9.2. L'équation normale s'écrit
~
'ro='
..c i::
0
O'I
·c i::
~
YI
>-
Cl. ·s..
0 Y2
0 (.)
u ....00
..c:
o..
ro Ym
......l
1
"O
0
i:: c'est-à-dire
)(~ )
;:::s
Q
@
( )
152 9 • Inverses généralisés et moindres carrés
f (x , y) _ _
a = ) , f3 = y - ax ,
u 2 (x
où
1 m ] m
2 2
u (x) = - " (xi - x) , f(x , y) = ...:_ "(xi - x)(Yi - y).
m L..J m L..J
i=I i= I
b) Via QR
Lorsque l'on dispose d' une décomposition QR de la matrice A, c'est-à-dire lorsque
m ~ net A = QR avec Q E §tm 11 et R E cn x n triangulaire supérieure, l'équation
normale A* Ax = A* b devient R* Q* Q Rx = R* Q * b. Comme Q E §tm 11 , on a
Q * Q = ! 11 et comme A est de rang n, R est inversible de sorte que l'équation normale
est
Rx = Q * b, (9.1)
Soient b et b' E C 11, notons X = At b et x' = A t b' les solutions des problèmes de
moindres carrés associés aux systèmes Ax = b et Ax' = b'. On a
théorème est établi. L'inégalité sur les erreurs relatives est une conséquence
de
llx' -x ll2= llAt(b' -b) ll2~ ll Atll2llb' -bll2
et de l ' inégalité
-0
0
c
::J
0
9.4 ETUDE D'UN EXEMPLE : L'ÉQUATION AX = 8
CX)
0
0
N
Étant données des matrices A E cmX n et B E cm
X p' existe-t-il une matrice X E
~
..c
O'I
de X) et mp équations scalaires. Un tel problème n 'a pas nécessairement de solution
·c et, s 'il en existe, elle n'est pas nécessairement unique. Nous notons
>-
Cl.
0
u
Proposition 9.12 Une condition nécessaire et suffisante pour qu'il existe une matrice
X E cnxp telle que AX = B est que lm B c lm A. Dans ce cas X 0 = B est At
solution du problème.
9.5 Notes et références 155
inf llAX - B ll ~
XE<C 11 XJJ
est
A * AX = A * B.
EXERCICES
Exercice 9.1
1. Calculer l'inverse généralisé de la matrice L = (a , b) E JR 1x 2 où a et b sont
deux réels donnés tels que a 2 + b2 =f O.
Exercice 9.2
Calculer l'inverse généralisé d'une matrice-colonne.
Exercice 9.3
Soient x et y E C'\ non nuls. Montrer que l'inverse généralisé de la matrice
A = xy* est
t _ _yx*
__
A - 2 2.
llxll2 llYll2
Exercice 9.4
Montrer que pour toute matrice A E cm xn on a ( AA *)T = (A *)î A t .
Exercice 9.5
Soit A E C 11 x 11 • Montrer qu' en général (Ak)t =f (A t)k, mais que l'égalité a lieu
lorsque A est une matrice normale.
-0
0
c
::J
0 Exercice 9.6
CX)
0
0 Soit A E cnxn . Les valeurs propres non nulles de At sont-elles les inverses des
N
@ valeurs propres non nulles de A ?
~
..c
O'I
·c
>-
Cl.
Exercice 9. 7
0
u 1. Montrer que pour toute matrice A E cmxn et t E C, t =f 0, et suffi samment
petit, les matrices t / 11 + A * A et t / 111 + AA * sont inversibles.
2. En déduire que
1
At = lim (t 111 + A * A ) - 1 A * = li m A * ( t l m + A A *) - .
t--+O t--+O
Exercices 157
Exercice 9.8
Soit A = ( ~ ~ ) . Résoudre Ax = b par la méthode des moindres carrés et
A = o~n eth=(;)
Calculer
1. lm A, Ker A, (Ker A)1-,
2. La projection orthogonale b de b sur lm A,
3. L'ensemble des solutions du système Ax = b,
4. La solution du système Ax = b qui est dans (Ker A)1- (solution au sens des
moindres carrés).
5. Obtenir ce même résultat via l'inverse généralisé de A et via l'équation normale
Ar Ax = A rb.
Exercice 9.10
Donnons nous une matrice A E GLn, un vecteur b E en' la solution X = A - 1b du
système Ax = b et une approximation x' # 0 de x. Montrer que
....
-0 ~ mm llEll = llA(x' - x)ll2
c
0 "O
i::
;:::s E E e11xn F llx' ll2
::J
0 ....
CX)
""'
~ (A+ E)x' = b
~
0 '~
0
N ""'
·c::
0
et que le minimum est atteint pour
@ 'ro='
~
i::
A(x - x' )x'*
..c 0 E =----
llx'll~
O'I i::
·c ~
>-
Cl. ·s..
0
0 (.)
u ....00
..c: Exercice 9. 11
o..
ro
......l Soit S E enxn une matrice définie positive. On note (., .)s le produit scalaire sur
"O
0
1
e 11
défini par
i::
;:::s (x, Y)s = (x, Sy) =y* Sx
Q
@ et par li -lis la norme qui lui est associée.
158 9 • Inverses généralisés et moindres carrés
Étant donnés une matrice A E Gl..n et un vecteur b E C 11 ' montrer que le problème
des moindres carrés pondérés
inf
xE<C11
11Ax - b Il~·
possède au moins une solution et qu'elles sont données par l'équation normale
A*SAx=A*Sb.
Exercice 9.12
Soit A E cmxn de rang n. On considère le système
( ~": ~ ) ( : ) = ( ~) . (9.2)
@ inf l Ax - b l l ~ + Pl l xll~ -
~ xE<C"'
..c
OI
·c
>-
Cl.
8 1. Écrire Pp sous forme d' un problème des moindres carrés standard, donner l'équa-
tion normale du problème et montrer qu'il possède une solution unique Xp (mon-
trer que A * A+ p/11 est inversible).
2. Soient p et p' tels que 0 < p ~ p'. Montrer que llxP 112 ~ llxp' 112
et que
llAxp - bll2 :::;; llAxp' - bll2 (on pourra utiliser les propriétés d'optimalité de Xp
etxp' etmontrerque ll <A * A+p'ln)- 1(A* A+pl11) ll2 ~ 1).
Exercices 159
Exercice 9.14
Soit A E cm X Il de rang p ( n et p > O. On considère le système
lm A
( A* - pin ) C) U) (9.3)
-0
0
c
::J
0
CX)
0
0
N
@
~
..c
O'I
·c
>-
Cl.
0
u
"O
0
c
:J
0
OO
0
0
N
@
~
..c
O'I
·;::::
>-
0..
0
u
Chapitre 10
Méthodes itératives
Dans les chapitres précédents nous avons étudié des décompositions matricielles (LU,
Cholesky, QR) qui permettent de ramener la résolution de systèmes linéaires à celJe
de systèmes triangulaires. Ces méthodes sont qualifiées de directes parce que le calcul
de la solution est obtenu après un nombre fini d' opérations.
Les méthodes .itératives suivent une autre approche : elles calculent une suite d' ap-
proximations successives de la solution du problème. En théorie ce processus est infini,
en pratique le calcul d'une solution approchée est arrêté dès que l' on estime avoir
atteint une précision suffisante. Les méthodes itératives sont utilisées pour résoudre des
systèmes de grande taille et à matrices creuses 1 • Cette approche est en effet plus natu-
relle dans ces cas-là puisqu' il n'est pas nécessaire comme dans les méthodes directes
de porter à terme le calcul d' une décomposition de la matrice qui serait extrêmement
-0
c
0 coûteux.
::J
0
CX)
0
La méthode des approximations successives pour la résolution de l'équation de
0
N point fixe x = f (x ) est donnée par le schéma itératif Xk+ I = f (xk) où le point initial
@
~
xo est donné. Si la suite (xk) converge vers x et si f est continue en ce point alors
..c
O'I f (x) = x et les xk constituent autant d' approximations du point fixe x . On transforme
·c
>-
Cl.
un système linéaire Ax = b en une équation de point fixe en « cassant » la matrice A
0
u en A = M - N où M est inversible et « facile à inverser ». Le système devient
1. On dit qu' une matrice est creuse lorsqu'elle a« beaucoup» de coeffic ients nuls. C' est le cas notamment
des systèmes obtenus par discrétisation d'équations aux dérivées partielles (voir le chapitre 16).
162 10 •Méthodes itératives
où B E e 11
XI!' cE e 11
.
Définition 10.1
1. On dit que cette méthode itérative est consistante si 111 - B est inversible et si
A - 1b = (/11 - B )- 1C.
2. On dit qu'elle est convergente si pour tout Xo E en la suite (xk) définie ci-dessus
est convergente.
Par le théorème 3.7 cette limite est égale à p(B) < 1 et donc le critère de
d'Alembert est vérifié.
Lorsque ces conditions sont satisfaites, la somme de la série se calcule via
l'identité
k-1
Un - B) L Bi = In - Bk
i=O
et un passage à la limite.
Q
;:::s
x) ---+ 0 pour tout x 0 ; en prenant pour x 0 - x un vecteur propre unitaire de
@ B cela prouve que p(B) < 1.
164 10 •Méthodes itératives
pour le premier et
pour le second.
Il faut noter que le premier test peut n' être jamais satisfait même si la méthode
converge. Il se peut, en effet, que les erreurs d'arrondis dues à l'usage d' une arith-
métique de précision finie soient du même ordre que le gain de précision obtenu à
l'itération en cours.
Le second test est plus réaliste. On arrête l'itération lorsqu'elle ne produit plus de
gain significatif de précision. Il se peut qu'alors la quantité ll Axk - bll soit significati-
vement grande.
Le test idéal (mais irréaliste) est bien sûr lié à la distance à la solution :
-0
0
Ces trois quantités sont reliées par :
c
::J
0
CX)
Proposition 10.4 Donnons-nous des normes li·li sur C/
et li·li sur cnxn consistante
1
,
0
0
avec la précédente. Étant donné une méthode itérative consistante Xk+l = Bxk + c
N
associée au système linéaire Ax = b on a :
@
~
..c
O'I
1. Si llAxk - bll ( e alors
·c
>-
Cl.
0
u
Un des intérêts des méthodes itératives convergentes est dû à l'absence d ' accum u-
lation des erreurs d' arrondis : que l'on utilise l'itéré xk ou une valeur voisine xk on a
quand même affaire à deux points initiaux pour une méthode convergente. Le résultat
suivant précise les propriétés des schémas itératifs approchés :
Ona
pour tout k ~ O.
k- 1
....
llxk - xll ( Àk llxo - xll + e L Ài .
-0 ~ i= O
0 "O
c i::
;:::s
::J
0 .... L' inégalité en résulte puisque L::~·,:~ Ai ( 1/ (1 - A). Pour k = 0 il n'y a
CX)
""'
~
0
0
~
'~ rien à démontrer. Le passage de k à k + 1 se fait ainsi :
N ""'
·c::
0
@ 'ro='
~
..c i::
0
llxk+L- xll ( llxk+J - (Bxk +c)ll+ll(Bxk +c) - (Bx +c)ll ( e+À llxk - xll
O'I i::
·c ~
>-
Cl. ·s..
0
0 (.)
u ....00
..c:
o..
ro
......l
1
"O
0
i::
;:::s
Q
Cette proposition prouve que la suite (xk) «converge» vers la boule de centre x et
@ de rayon L~A . Ce rayon mesure la précision maximum que l'on peut obtenir.
166 10 •Méthodes itératives
A= D- E- F
avec
d'où
-0
0
c
::J
0
CX)
0
0
10.3.2 Méthode de Gauss-Seidel
N
@ Cette méthode utilise la décomposition A = ( D - E) - F. La matrice D - E est
~
..c triangulaire inférieure donc facile à inverser. On obtient
O'I
·c
>-
Cl.
0
u
d'où
l (
xk+ l ,i =~ -
11
L
i- 1
aijXk+l ,j - L n
aijXk ,j + bi
)
, 1~ i ~ n.
j= I j = i+I
10.3 Exemples de méthodes itératives 167
d'où le schéma
1 ( i-1
~ i ~ n.
Il )
Xk+l ,i = -;;; - w L aijXk+l,j + (1 - w)aiixk,i - w L aijxk,j + wbi , 1
li j=l j=i+l
Nous verrons que l'on choisit toujours w E]O, 2[. Le cas w = 1 correspond à la
méthode de Gauss-Seidel. La dénomination SOR vient de l'anglais Successive Over
Relaxation.
.... avec
-0 ~
"O
Sw = (D - wF) - 1 ((1 - w)D + wE) (D - wE) - 1 ((1 - w)D + wF).
0
c i::
;:::s
::J
0 ....
CX)
""'
~
~
0 '~
0
N ""'
·c:: 10.3.5 Méthodes par blocs
0
@ 'ro='
~
i::
Supposons que la matrice A s'écrive de la façon suivante :
..c 0
O'I i::
·c ~
>-
Cl. ·s..
0
A1 1 A1 2 A 1p
0 (.)
u ....00 A 11 A 12 A 2p
..c: A =
o..
ro
......l
1 Apt Ap2 App
"O
0
i::
Q
;:::s
où les blocs Aii E C 11 ; xn; sont inversibles. On peut générer des méthodes de Jacobi,
@ Gauss-Seidel, SOR, SSOR par blocs en utilisant les mêmes formules, la décomposition
168 10 •Méthodes itératives
On procède de même pour les autres méthodes. Il faut bien sûr prendre garde à la non
commutativité des produits de matrices.
Nous avons rencontré ces matrices à l'exercice 3.18 où nous avons vu qu' une telle
matrice est inversible.
-0
0
Théorème 10.7 Si A est à diagonale strictement dominante, les méthodes de Jacobi
c
::J et de Gauss-Seidel convergent.
0
CX)
0
0
Démonstration. Avec les notations introduites aux paragraphes consacrés à
N
ces méthodes on a J = v- 1 (E + F), G = (D - E)- 1 F et l' on doit prouver
@
~
..c
(théorème 10.3) que p(J) et p(G) < l.
OI
·c
>-
Pour la méthode de Jacobi, on a : l ;j = 0 si i = j et -aij / aii si i =f. j donc
Cl.
1
llJll = m~x L IJij l = max -a -.. L laijl < 1
0
u
00
1 1
j 1 Zl 1 j #;i
(voir l'exemple 3.1 pour la définition de 111 1100 ) puisque A est à diagonale
strictement dominante. On conclut à l'aide de la proposition 3.6:
p(J) ~ Il 1 lloo < l.
10.4 Convergence des méthodes itératives 169
Àall a1 2 a 111
Àa21 Àa22 a 2n
-F+ A(D -E) =
ce qm prouve que
L IÀai.i l < L iai.i l
.i>i j>i
ce qm prouve que
Il - wl ~ p(Gw)·
Pour que la méthode converge il faut que p(Gw) < 1 d'où Il - wl < 1
c' est-à-dire 0 < w < 2.
llxll~ = x* Ax = \ Ax,x )
c'est-à-dire
Remarque 10.3. Ce résultat s'étend à la méthode de Jacobi par blocs mais alors
D est la diagonale par blocs de la matrice A.
Corollaire 10.12 Lorsque la matrice A est définie positive et que 0 < w < 2, la
méthode de relaxation symétrique est convergente.
et
10.5 Exemples 173
La convergence de SSOR est donc deux fois plus rapide que celle de SOR. Mais
une itération SSOR correspond à deux itérations SOR ... ce gain est bien sûr
illusoire!
10.5 EXEMPLES
On considère le système Ax = b où A est la matrice tridiagonale définie positive
donnée au paragraphe 16.1 :
2 - 1
- 1 2 - 1
A=
- 1 2 - 1
- 1 2
On compare les normes des erreurs llekll 2 où ek = xk - x, obtenues par les méthodes
itératives de Jacobi et de Gauss-Seidel tout au long des itérations. Pour tout schéma
itératif Xk+J = Bxk + c, la no1me de l' erreur vérifie l' inégalité
et donc
llek ll / lleo ll ( ll Bkll-
D'après le théorème 3.7 la suite (li Bk Il ) est asymptotiquement équivalente à la suite
(p(B)k). Ceci permet de déterminer approximativement le nombre d'itérations né-
cessaires pour majorer le rapport des erreurs llekll / lleoll par une valeur fixée a ,
.... 0 < a < 1. Il suffit pour cela de considérer l'égalité p(BY = a, de laquelle on déduit
-0
0
~
"O r = log(a)/ log(p(B)), et on prend k = 1r l le plus petit entier supérieur où égal à r.
c i::
;:::s
::J
0 ....
CX)
""'
~ Pour la méthode de Jacobi, le rayon spectral p(J) s' obtient facilement à partir du
~
0
0
'~ spectre de A (voir paragraphe 16.l) :
N ""'
·c::
0
@ 'ro=' 7T
~
..c i:: p(J) = cos(- ),
O'I
0
i::
n+ 1
·c ~
>-
Cl. ·s..
0 où n est la dimension de la matrice. Pour la méthode de Gauss-Seidel, nous avons
0 (.)
u ....00 que p(G 1) = p(J)2 car la matrice A est tridiagonale à valeurs constantes sur chaque
..c:
o.. djagonale (voir exercice 10.5).
ro
......l
1
"O
0 En prenant n = 100 et a= 1/ 10 (c' est-à-dire pour diviser l'erreur par 10) il faut
i::
Q
;:::s
ln(0.1) / ln(cos( 1~ 1 )) ~ 4759 itérations dans le cas de la méthode de Jacobi et deux
@ fois moins dans le cas de la méthode de Gauss-Seidel. C'est ce que l'on observe sur la
174 10 •Méthodes itératives
figure 10.1. Plus précisemment, on voit que le logarithme de la norme de l' erreur dans
le cas de la méthode de Jacobi suit approximativement la droite de pente ln(p(J)) :
' ... .
........
', , <
' '
.. ·'
''
..;,
:'
... .......... ........ ......... .. ' . . ... ......... ..... . .... .......... . . ..
... ................ ... ....... . .. ....
... .......... ........ .......... .......' ·' · ... . .... .......... .... . ..... ......... .......... .... .
5 ... ......... ·, . .. ......... .. ' ...... · , .... .......... .... . ..... ......... .......... .... .
~ ... ~ . , ..
~ ... .......... ........ ....... ; .. ......... ..... . ..~ . . . . ........ .... . ..... ......... .......... .... .
Q)
"O ' '
Q) ''
E ' >-,, , , ,
0c ' '
- - Jacobi ''
''
- - - - Gauss- Seidel
-0
0
c
::J
0
CX)
0
0
N
@
~
..c
O'I
·c
>-
Cl.
0
u
176 10 •Méthodes itératives
EXERCICES
Les matrices des méthodes de Jacobi, Gauss-Seidel et SOR sont définies respective-
ment aux paragraphes 10.3. l, 10.3.2 et 10.3.3.
Exercice 10.1
Soient A E JR2 X 2 et b E 1R2 . La solution du système Ax = b s'interprète géométri-
quement comme le point d'intersection des deux droites
Exercice 10.2
-0
c
0 Calculer les rayons spectraux des matrices des méthodes de Jacobi et de Gauss-
::J
0 Seidel des matrices :
CX)
0
0
N
@
~
..c
O'I
·c
>-
(i
2
1
2
-n (
et
2 - 1 1 )
2 2 2
- 1 - 1 2
.
Cl.
0
u Exercice 10.3
Soient
1 0 -1 / 4 -1 / 4 1
A=
0 1
- 1/ 4 - 1/ 4
-1 / 4 -1 / 4
1 0 =( f2
K
K
h ) 1
et b = -
2
1
1
-1 / 4 -1/ 4 0 1 1
Exercices 177
A2 -
(2 (1 - w) + w
4
2) À+ (1 - w) = O.
2
Exercice 10.4
1. Soit B E e 211 x 2 n de la forme :
où Bi et B2 E enxn .
0
0
N
~
'~
""'
·c::
2. Soit A E e 211 x 211 de la forme
0
@ 'ro='
~
..c
O'I
·c
i::
0
i::
~
( D~2 D: 1
)
>- ·s..
Cl.
0
u
0
(.) où D 1 et D2 E e 11
xn sont inversibles et où A 1 et A2 E e 11
XII.
....
0
0
..c:
o..
a) On considère la matrice de la méthode de Jacobi par blocs:
ro
......l
"O
0
i::
1
;:::s
J = ( Di
0
0
D2
)-J ( 0 A1 )
A2 0
Q
@ Calculer p(J).
178 10 •Méthodes itératives
Exercice 10.5
a, b etµ désignant des nombres complexes et n étant un entier supérieur ou égal à
2, on considère les matrices tridiagonales C,1 (a , b) = (cij) E cn x n définies par:
Cij =a pour i = j - 1 et 2 ~ j ~ n,
Cij = b pour i = j + 1 et 1 ~ j ~ n - 1,
Cij = Ü sinon.
2. Soit maintenant s > 0 fixé ; on cherche à résoudre par des méthodes itératives le
système:
A 11 (s , a , b)X = f.
A A
p(G) = p(Î)2 .
Méthodes de projection
sur des sous-espaces de Krylov
Les méthodes de projection sur des sous-espaces de Krylov fournissent une autre
famille importante de méthodes itératives. Leur développement est plus récent que
les méthodes itératives classiques et date des années 1970-80. Ce sont en partie les
besoins créés par les applications industrielles et en particulier la nécessité de résoudre
des systèmes de grande dimension qui ont motivé leur essor. D' autre part, les pro-
grès constants réalisés en informatique ont permis d' accroître considérablement les
capacités de calcul et de stockage des données et ont rendu possible la mise en œuvre
effective de ces nouveaux algorithmes. Actuellement, ces méthodes font encore l' objet
de recherches mathématiques actives.
-0 Dans ce chapitre, nous nous limiterons à 1' étude de deux méthodes parmi les plus
0
c représentatives : la méthode GMRES (en anglais Generalized Minimum RESsidual)
::J
0
CX)
pour des systèmes généraux et la méthode du gradient conjugué pour des systèmes à
0
0 matrice défini e positive.
N
@ On verra au chapitre 15 que les méthodes de projection sont également utilisées pour
~
..c
O'I
calculer les valeurs propres et vecteurs propres de matrices de grande taille. Donnons
·c tout d'abord le cadre général d' une méthode de projection pour le calcul de la solution
>-
Cl.
0
u d'un système linéai re.
182 11 • Méthodes de projection sur des sous-espaces de Krylov
et
b - Axk 1- [,k·
La condition d'orthogonalité est dite condition de Petrov-Galerkin. Elle permet de
définir de manière unique Xk dans le sous-espace affine x 0 + Kk·
Les sous-espaces [,k et Kk ne sont pas nécessairement identiques. On dit que la
méthode de projection est orthogonale si [,k = Kk et oblique sinon. Les sous-espaces
sont généralement emboîtés : Kk c Kk+l et [,k c Lk+I ·
Pour toutes les méthodes considérées on a toujours x,1 = x la solution du système.
Sous certaines hypothèses, le vecteur xk est une bonne approximation de cette solution.
On souhaite bien sûr arrêter l'algorithme pour des valeurs de k petites devant n.
Les espaces d'approximation Kk que nous allons considérer sont des sous-espaces
de Krylov. Le paragraphe suivant présente les propriétés de ces sous-espaces et leur
relation avec les algorithmes de réduction de Hessenberg de la matrice A, en particulier
l'algorithme d' Arnoldi et l'algorithme de Lanczos.
-0
11.2 ESPACES DE KRYLOV ET RÉDUCTION DE HESSENBERG
0
c
::J
0
Soit A E <C11 X 11 une matrice inversible et V E <C11 , V =f. O.
CX)
0
0 Définition 11 .1 Le sous-espace de Krylov d'ordre k associé à la matrice A et au
N
@ vecteur v, noté Kk(A, v ), est le sous-espace vectoriel généré par les k vecteurs
~
..c
OI
·c v , A v , A 2 v, . . . ) Ak- 1v .
>-
Cl.
0
u On le note Kk lorsqu'il n'y a pas de risque d'ambiguïté et on convient que K 0 (A, v) =
{O}.
Proposition 11 .2 Pour tout k, les sous-espaces Kk(A, v) vérifient les propriétés sui-
vantes dont la démonstration est laissée au lecteur :
11.2 Espaces de Krylov et réduction de Hessenberg 183
2. A Kk(A, v) c Kk+i(A , v) ,
3. Le sous-espace Kk(A, v) est invariant par A (autrement dit AKk(A, v) C
Kk(A , v), voir chapitre 13) si et seulement si Kt(A , v ) = Kk(A , v) pour tout
l ~ k,
4. K 11 (A, v) = K,i+ 1(A, v),
5. Kk(A , av)= Kk(A , v) pour tout scalaire a f= O.
Proposition 11.3 Si Hk est non réduite (définition 8.18), alors les vecteurs q 1 ,
qk ••• ,
constituent une base de l'espace de Krylov Kk(A , qi). En outre, Kk = QkRk pour une
matrice triangulaire supérieure Rk E <Ckxk_ Si k < n et hk+ Ik = 0, alors l'espace
Kk(A, qi) est invariant par A .
....
-0 ~
c
0 "O
i::
Démonstration. Par construction, les vecteurs q.i sont orthonormés. Mon-
;:::s
::J
0 .... trons que qj = Pj- i(A)q 1 , où Pj - I est un polynôme de degré j - 1. Pour
""'
~
CX)
0
~
'~
j = 1 on a q 1 = po(A)q 1 avec Po = 1. Supposons la proptiété vraie jusqu'à
0
N ""'
·c::
0 l'ordre j. De la relation A Q = QH on déduit l'égalité pour la colonne j
@ 'ro='
~
(voir l'équation (8.3))
..c i::
0
O'I
·c i:: j+I
~
>-
Cl. ·s..
0 Aq.i = L hijqi ,
0 (.)
u ....00 i= l
..c:
o..
ro
......l et donc
1
"O j
0
i::
;:::s h.i+l j qj+I = Aq.i - L hijqi. (11.1)
Q
@ i= l
184 11 • Méthodes de projection sur des sous-espaces de Krylov
et
Proposition 11 .4
1. Pour tout k ~ n, Xk est définie par la solution unique du problème des moindres
carrés
min llAz - bll~ · (11.2)
zExo+X:k(A ,ro)
11.3.2 Algorithmique
L'algorithme associé à la méthode consiste à détermjner la solution xk décrite précé-
demment à l'aide de la base 01thonormée (q 1, ... , qn) de Kk obtenue par l'algorithme
d 'Arnoldi avec q1 = ro/llroll2·
Proposition 11.5 L'itéré Xk obtenu par la méthode GMRES est donné par Xk = x 0 +
QkYk où Yk E Ck est la solution du problème des moindres carrés
(11.3)
avec e 1 = (1, 0 , ... , Ol E «:::k+ I et où Qk et fJ.k sont les matrices déterminées par
l'algorithme d'Arnoldi (paragraphe 8.8).
Démonstration. En utilisant la base orthonormée (q 1 , ... , qk) on a z - x 0 E
Kk si et seulement si z = xo + Qky pour un y E Ck . Des égalités A Qk =
-0
0
c
::J
0 Qk+l Hk (équation 8.4) et puisque ro = llro ll2q1 = llroll2Qk+I e1 on obtient
CX)
0
0
N
Az - b = AQky - ro = Qk+1(Hky - llro ll2e1)
@
~
..c
de sorte que, puisque Qk+J est Stiefel,
O'I
·c
>-
Cl.
0
u
L'algorithme GMRES est donc ramené au calcul de la solution d 'un problème de
moindres carrés associé à une matrice ih E c<k+l)xk de Hessenberg. Afin de résoudre
ce dernier problème nous utilisons une décomposition Q R de Hk (paragraphe b).
- -
1. la matrice Hk est obtenue en complétant la matrice Hk- 1 par une k-ième colonne,
2. Hk est de Hessenberg.
La décomposition QR de la matrice Hk de Hessenberg peut être calculée par k - 1
rotations de Givens (paragraphe 8.4).
- - -
Supposons avoir calculé GHk- 1 = G k-z ... G 1H k- J = U k-J où les Gi sont des
rotations de Givens, Ük- 1 E Ck x (k - l ) est triangulaire supérieure
u- k- 1 = ( U k- 1 ) ,
0
- -
avec h k = Ghk · Par une rotation convenable de Givens G k- J on annule le terme hk+I k
-
de Hk (coeffici ent k + 1 de h k) sans changer la structure triangulaire supérieure déjà
acqmse.
....
-0 ~
0 "O
c i::
;:::s
::J
....
0
CX)
""'
~ 4. Calculer g = (GT ... Gk_ 1)e 1 E Ck+ I ,
~
0 '~
0
N ""'
·c:: 5. Résoudre le système triangulaire
0
@ 'ro='
~
..c i::
0
O'I i::
·c ~
>-
Cl. ·s..
0
0
u
(.)
Démonstration.
1. Le problème de minimisation
(A(x - xk), v) =0
pour tout v E K k(A , ro) c'est-à-dire
(11.7)
L = ( L k-1 0 )
k X 1 '
et
u, = ( u~_ , : ) ,
où L k- I et Uk- 1 sont les matrices de la décomposition LU de Tk- I ·
Les matrices inverses de U k et L k sont données par
et
L"k' = ( Ls!, n.
....
u,-' = (
u - 1
k- 1
0 :)
-0 ~
On a donc
0 "O
c i::
;:::s
::J
.... u -1
0 k- 1
""'
~
(
CX)
0
~
'~
0
0
N ""'
·c::
0
@ 'ro=' et
LS!, ~ ) llroll2e1= L;!, ~:ollie, ) .
~
i::
..c
O'I
·c
0
i::
z, = ( (
~
>-
Cl. ·s..
0
0
u
(.)
....00 Il faut noter dans cette dernière égalité que le vecteur de base e 1 a successi-
..c:
o..
vement la dimension k et k - l .
ro
......l
1 Nous pouvons déduire de ce lemme une récurrence sur xk :
"O
0
i::
;:::s
Q
@
192 11 • Méthodes de projection sur des sous-espaces de Krylov
et donc
(11.8)
(11.9)
Lemme 11.10 On a
(11.10)
(11.11)
puisque ôk -::f. O. La proposition 11.8 montre que les vecteurs qk et r k-J sont
colinéaires. Le vecteur Pk est donc une combinaison linéaire des vecteurs
r k- 1 et Pk- 1. On peut écrire cette relation sous la forme Pk = r k- 1 + µ kPk- 1
après multiplication des vecteurs Pk par des coefficients appropriés. Nous
allons conserver la même notation pour ces nouveaux vecteurs. Il faut noter
que la transformation des vecteurs Pk ne modifie pas la forme des récurrences
sur Xk et r k (équations (11.8) et (11.9)).
-0
0
c Nous avons obtenu pour XkJ r k et Pk trois récurrences (11.8), (11.9) et (11.10). Le
::J
0 calcul des coefficients v k et µ k se fait grâce aux propriétés d'orthogonalité des vecteurs
CX)
0 r k et d'orthogonalité pour le produit scalaire associé à la matrice A des vecteurs Pk·
0
N
@
~
Proposition 11.11 On a \ Api, p j) = 0, pour tout i , j , i i= j.
..c
O'I
·c Démonstration. Il suffit de donner la démonstration pour les vecteurs Pi
>-
Cl.
0 « d'origine » . On a
u
1 1 1
P k* APk = u-
k * Q k* AQk u k- = u-
k * ,..,.,
Lk u k- = u-
k * L k u k u k- = u-
k * L k·
Les vecteurs rk colinéaires à qk+J sont orthogonaux entre eux puisque les vecteurs
qk satisfont cette propriété. On est maintenant en mesure de déterminer les coefficients
vk et µ k.
Lemme 11 .12 On a
(rk-1, rk-1)
vk = _(_A_p_k_, -P-k)- '
et
On a donc
k = 0, x 0 E C 11, E > 0,
r0 = b - Axo, p 1 = ro,
Pk+J = rk + µ k+I P k
fin
• 3 produits scalaires,
• 3 sommes,
• 2 divisions.
-0 La complexité de chaque itération est dominée par le produit Apki ce qui donne ;: : : : 2n 2
0
c opérations.
::J
0
CX)
0 Remarque 11.3. L'algorithme du gradient conjugué fait partie des outils actuels
0
N les plus performants, robustes et simples à mettre en œuvre pour résoudre des
@
~
systèmes de grande dimension à matrice définie positive.
..c
O'I
·c
>-
Cl. Remarque 11.4. D 'un point de vue pratique, les méthodes de projection dans
0
u des sous-espaces de Krylov présentent une particularité importante. La matrice
A du système intervient uniquement par son action sur des vecteurs. On dit que
A est donnée en évaluation. Contrairement aux méthodes itératives classiques
qui requièrent la représentation explicite de tous les coefficients de la matrice
A on se contente ici d'utiliser l' information globale donnée par les images Av
calculées pour différents vecteurs v. On a ainsi un processus de type « boîte
11.5 Analyse d'erreur 195
noire » qui calcule l' image A v d' un vecteur v donné en entrée. Cette situation
se rencontre dans la plupart des cas où A est « définie » par un programme
informatique ou une suite de programmes info rmatiques qui s'enchaînent les
uns à la suite des autres. Il n'est pas nécessaire alors de calculer et stocker les
différents coefficients de la matrice. Ce mode opératoire rend ces méthodes
bien adaptées aux grands systèmes pour lesquels le calcul de l'ensemble des
coefficients de la matrice est souvent rédhibitoire. De plus, lorsque la structure
de la matrice est creuse (voir par exemple le système des éléments finis et le
problème de l' assimilation des données aux chapitres 16 et 17), ces méthodes
tirent parti de la faible complexité de chaque opération Av ( O(n) opérations
pour des matrices bande à la place des O(n 2 ) usuelles).
Remarque 11.6. Dans le cas des grands systèmes que l'on résout à l' aide des
méthodes GMRES ou du gradient conjugué, on cherche à préconditionner la
matrice du système afin de limiter le nombre d' itérations. Au paragraphe 10.6
nous avons donné des exemples de matrices de préconditionnement tirées des
méthodes itératives classiques. Il existe d' autres approches pour définir des
matrices de préconditionnement. On peut citer les méthodes de fact01isation LU
incomplète ou de Cholesky incomplète lorsque A est défine positive qui sont
utilisées dans le cas de matrices creuses. Nous renvoyons le lecteur intéressé
aux ouvrages plus spécialisés comme par exemple [29] .
....
-0 ~
0 "O
c i::
::J
0
;:::s
.... 11.5 ANALYSE D'ERREUR
CX)
""'
~
~
0 '~
0
""'
·c:: En arithmétique exacte les méthodes de projection que nous avons étudiées aboutissent
N
0
@ 'ro=' en au plus n itérations. En ce sens, on ne peut pas les qualifier de méthodes itératives
~
..c i::
0
puisqu' elles calculent la solution en un nombre fini d'étapes. Cependant, lorsqu'on
O'I i::
·c ~ les utilise pour résoudre de grands systèmes, le nombre d' itérations que l'on effectue
>-
Cl. ·s..
0 0
(.) est dans la plupart des cas bien inférieur à la dimension du problème. C'est cet usage
u ....00
..c:
particulier qui les fait considérer comme des méthodes itératives .
o..
ro
......l
Nous avons vu que la méthode GMRES minimise la norme du résidu llb - Axk ll2
"O
1
tandis que la méthode du gradient conjugué minimise la norme de l' erreur llx - xk Il A .
0
i::
;:::s L' analyse des erreurs se fonde sur ces propriétés d'optimalité.
Q
@
196 11 • Méthodes de projection sur des sous-espaces de Krylov
Proposition 11.13 On a
Pour majorer la quantité minq EQk llq(A)eollA nous allons utiliser un résultat clas-
sique de la théo1ie de l'approximation (voir par exemple P.-J. Laurent [23]). Rappelons
que les polynômes de Chebyshev sont défini s par Tk(x) =cos k(J et x =cos fJ, k ) O.
Ils vérifient la relation de récmTence Tk+2(x) + Tk(x) = 2x Tk+ 1(x) .
llek llA ~ 2
( Jcond2 (A) -
Jcond (A) + 1
1) k
lleo llA·
2
Démonstration. Puisque la matrice A est symétrique définie positive, elle
est diagonalisable: A = QAQ* avec Q unitaire, A = diag(A 1, ••• , A,i) et
À1 ~ ... ~ À 11 > O. On a
llq(A)eo l l ~ = eôq(A)* Aq(A)eo = eôq(QAQ* )* QAQ* q(QAQ*)eo
= eô Qq(A)* Q * QAQ* Qq(A)Q* eo = y * q(A)* Aq(A)y
11.13, on a
llek llA = min llq(A)eollA·
qEQk
lleollA
....
-0 ~
0 "O
c i::
;:::s
::J
0 .... Pour tout t tel que lt l > 1, on sait que les polynômes de Chebyshev Tk
CX)
""'
~
~ satisfont l'égalité
0 '~
0
N ""'
·c::
0
@ 'ro='
~
..c i::
0
O'I i::
·c
>-
Cl.
~
·s.. et donc pour t > 1
0 0
(.)
u ....00
..c:
o.. Tk(t) ~ ~ (t + Vt 2 - 1) k .
ro
......l
1
"O
0
Posonsµ: = À,1 / (A 1 - A,J. Nous obtenons
i::
;:::s
Q
@
198 11 • Méthodes de projection sur des sous-espaces de Krylov
(11.13)
' - - - - GMRES
'
- - gradient conjugué
' \
"
'
'I
10-
16
~-~-~--~-~-~--~-~--~-~-~
0 20 40 60 80 100 120 140 160 180 200
itération
On trouvera dans l 'ouvrage de Saad [29] une étude plus approfondie de la conver-
gence de la méthode du gradient conj ugué et de la méthode GMRES.
Nous nous sommes limités dans ce chapitre à considérer les deux plus importantes
méthodes de projection sur des sous-espaces de Krylov. À partir des années 1980
et 1990 ont été développées de nombreuses autres variantes de cette grande famille
permettant de traiter des systèmes non hermitiens. Parmi celles-ci on peut citer la
-0
c
0 méthode de bi-orthogonalisation BiCG (en anglais BiConjugate Gradient) qui utilise
::J
0 deux espaces de Krylov, l'un associé à A et l'autre à A* : xk E x 0 + Kk(A , r 0 ) et
OO
0 b - Axk J_ Kk(A *' so) avec So E C 11 tel que (uo, so) # O. Cette méthode fait intervenir
0
N des récurrences «courtes» du même type que le gradient conjugué.
@
......
..c
en
ï::::
>-
a.
0
u
Exercices 201
EXERCICES
1. Calculer la valeur du pas optimal Pk· Montrer que Pk est également solution du
problème
minq(xk - p(Axk - b)),
pE lR
et que
Exercice 11.2
Cet exercice présente l'algorithme du gradient conj ugué comme une généralisation
de la méthode du gradient à pas optimal. Les notations utilisées sont celles del' exercice
précédent, A E JR12 xn est définie positive.
On définit une suite de vecteurs (xk) par la récurrence Xk+ .t = xk + gk où gk est
solution du problème
min q(xk + g)
gEGk
1. Donner les conditions nécessaires et suffisantes d' optimalité du problème d' op-
timisation précédent. En déduire que \\i'q(xk+i ) , V'q(xj)) = 0 , pour tout j =
0, ... , k.
2. On suppose que \i'q(xj) f. 0 , pour tout j = 0 , ... , k. Montrer que Gj =
JC j+ t (A, r 0 ) pour tout j = 0 , . .. , k. En déduire que (xk) est la suite donnée par
l'algorithme du gradient conjugué.
-0
0
c
::J
0
CX)
0
0
N
@
~
..c
O'I
·c
>-
Cl.
0
u
Chapitre 12
Ce chapitre est consacré aux valeurs propres d' une matrice A considérées comme
fonctions des entrées de cette matrice. Ce n'est pas une question facile parce que
la définition des valeurs propres est donnée implicitement : ce sont les racines du
polynôme caractéristique
Les questions que l'on se pose sont liées à leur localisation dans le plan complexe, à
leur continuité et leur dérivabilité. C'est ce quel' on appelle étude de sensibilité.
de sorte que
Remarque 12.1. Pour une matlice réelle, !<let A 1est le volume du parallélotope
de R 11 constrnit sur les vecteurs ai. L'inégalité de Hadamard dit que ce volume
est majoré par le produit des longueurs de ces vecteurs et qu'il y a égalité si et
seulement si ce parallélotope est rectangle.
au lieu de hd(A , A'). Supposons que le maximum soit attei nt pour la valeur
.... propre À 11 de A'. Soit X [ l • • . 'X11 une base orthonormée de telle que en
-0
0
~
"O
A'x 1 = A" x 1 et enfin soit U E U 11 une matrice unitaire telle que U ei = Xi
c i::
;:::s où les ei désignent les vecteurs de la base canonique de <C11 • On a :
::J
0 ....
""'
~
CX)
0
0
N
~
'~
""'
·c::
0
max min
A' Espec A' AEspec A
IA - A' l ~
11
Il IA - A" I = ldet(A - A" /,J I =
@ À
~
'ro='
..c i::
0
O'I
·c i:: ldet((A - A" ln)U) I .
~
>-
Cl. ·s..
0 0
(.) Par l'i négalité de Hadamard, cette dernière quantité vérifie
u ....00
..c:
o..
ro
......l
1
"O
0
Il ll(A - Il ll(A -
i::
;:::s 11 11
Q À ln)Xi112 = ll(A - A')x1112 À ln)Xi 112 ·
@
i#l
206 12 • Valeurs propres: sensibilité
On majore alors
llCA - A" l n)xd l2 (llA - A" In112llxi112= llA - A" 111 ll2(
Remarque 12.2. Le théorème 12.3 montre que l' applicati.on «valeur propre »
est hôldérienne d' exposant 1/ n ce qui est une propriété un peu décevante.
L'exemple de la matrice n x n
0 1
0 1
e 0
avec e > 0, montre que c'est un mal nécessai re ! A s est une perturbation de A 0 .
Cette dernière a pour valeur propre À = 0 de multi.plicité n et A s a pour valeurs
propres À~= e 1111 w b 1 ( k ( n, où les w k sont les racines n-ièmes de l'unité.
On a ici
-0
0
c
::J
0
CX)
0
0
12.3 SENSIBILITÉ VIA LE TH ÉORÈME DES FONCTIONS
N
@
IMPLICITES
~
..c
O'I
·c
Tout au long de ce paragraphe, nous allons supposer que A E enxn est une matrice
>-
Cl. hermitienne, de s01te que ses valeurs propres Àj, 1 ( i ( n, sont réelles et qu' il existe
0
u une base orthonormée Xi E en' 1 ( i ( n, de vecteurs propres de A.
Le calcul des éléments propres peut se formuler comme la recherche des zéros du
système
(Al11 A)x )
t) .
-
F (A, ., .) : e 11
x R - t e x R, F( A ,x, À) = ( ~
11
(llxll; -
12.3 Sensibilité via le théorème des fonctions implicites 207
Lorsque F (A, x, À) = 0 c'est que À est une valeur propre de A et que x est un vecteur
propre unitaire associé à cette valeur propre.
Nous allons appliquer le théorème des fonctions implicites dans ce contexte pour
prouver l'existence d'une fonction matrice---+ (vecteur propre, valeur propre) qui soit
définie et C 00 dans un voisinage de A puis nous calculerons sa dérivée.
Théorème 12.5 Soit A E ccnxn une matrice hermitienne; supposons que À soit une
valeur propre simple de A et que x soit un vecteur propre unitaire associé. Alors
1. Il existe un voisinage ouvert V A de A dans CC.11 xn et une unique application C 00
(et même analytique réelle)
telle que:
a) X(A) = x et A(A) = À,
maxllÂll ~ 1 IDA(A)A I = 1.
b) llDA(A)ll =
2
.... Remarque 12.3.
-0 ~
0 "O
c i::
;:::s 1. Quoique nous ayons supposé que A soit hermitienne, les fonctions X et A
::J
0 ....
CX)
""'
~ sont définies sur un voisinage de A dans ccnxii et non pas dans le sous-espace
~
0
0
'~
""'
·c::
des matrices hermitiennes. Autrement dit, nous considérons des perturbations
N
0
@ 'ro=' non hermitiennes d'une matrice hermitienne.
~
..c i::
O'I
0
i::
2. L'énoncé 3.b. signifie que le calcul des valeurs propres d'une matrice hermi-
·c
>-
Cl.
~
·s.. tienne est toujours bien conditionné. On a au premier ordre
0 0
(.)
u ....00
..c:
o.. IA(A) - A(B)I ~l llA - Bll2 .
ro
......l
1
"O
0 3. L'énoncé 3.a. donne le conditionnement du calcul des vecteurs propres: un
i::
Q
;:::s
bon conditionnement correspond à des valeurs propres bien séparées, un
@ mauvais conditionnement à des valeurs propres proches.
208 12 • Valeurs propres: sensibilité
By =µy, (y - x, x) = O.
Notons que
Ker (Àl11 - A) = <Cx
et que
lm (À/11 - A) = x .L .
La première égalité a lieu parce que À est une valeur propre simple de A et la
seconde parce que x 1- est le sous-espace engendré .rar les vecteurs propres
x 2 , ... , x11 • Tout ceci prouve que (A/11 - A)x et Àx sont les projections
orthogonales de Âx sur x .L et sur <Cx. Ainsi
....
-0 ~
c
0 "O
i::
(A/11 - A)x = Ilx.L Âx ,
;:::s
::J
0 .... Âx = IIcxÂx ,
""'
~
CX)
0
~
'~
.X E x.L
0
N ""'
·c::
0
@ 'ro=' de sorte que
~
..c
O'I
i::
0
i::
.X E Ker (A/11 - A).L ,
·c
>-
Cl.
~
·s.. ~Àln - ~).X = II1m (,\/11 -A) Âx,
0 0
u
(.)
....00 À = x* Ax.
..c:
o.. donc, par définition de l' inverse généralisé,
ro
......l
x. -- (À/11 A) t Ax
. .
1
"O
0 -
i::
;:::s
Q
@ Ceci prouve la seconde assertion.
210 12 • Valeurs propres: sensibilité
Lorsque 11 A11 2 ( 1, puisque 11x 112 = 1, il n'est pas trop difficile de voir que
les vecteurs Ax décrivent la boule unité dans C 11 • On a donc
~
c
m~x 1À i -
1
µd ( 11 A - B 11 2 ·
::J
0
oo
0
Une démonstration de ce résultat est donnée à l'exercice 12.3.
0
N
@
EXERCICES
Exercice 12.1
Montrer que la distance de Hausdorff (définition 12.2) est bien définie et vérifie les
axiomes des distances sur l' ensemble lC(IE) des parties compactes et non vides de IE.
Exercice 12.2
Le but de cet exercice est de prouver le théorème suivant dû à E. Fisher (1905) :
soient A E e,nxn une matrice hermitienne et A1 ~ ••• ~ À11 ses valeurs propres
rangées par ordre décroissant. Alors
Ài = max min x * Ax
XE<G11,i xE§x
où le maximum est pris sur l'ensemble <G11 ,i des sous-espaces vectoriels de dimension
i de C.11 et le minimum sur l'ensemble § x des vecteurs de norme 1 dans X (autrement
dit la sphère unité dans X). Pour x "# 0 quelconque, le quotient
x* Ax
x* x
est appelé quotient de Rayleigh. Six E §x alors x * Ax est un quotient de Rayleigh.
1. Montrer qu'il existe XE §x tel que x * Ax ~ x * Ax pour tout XE §x .
2. On pose A = V DU* avec V unitaire et D = diag(Ài). Montrer que
Q
;:::s
Dans cet exercice nous allons prouver le théorème suivant (H. Weyl, 1912) : soient
@ A , B , E E e,nxn trois matrices hermitiennes avec B =A+ E. Notons Àt ~ . . . ~ À 11
212 12 • Valeurs propres: sensibilité
µi ~ x * (A + E)x
-0
0
c
::J
0
CX)
0
0
N
@
~
..c
O'I
·c
>-
Cl.
0
u
Chapitre 13
Sous-espaces invariants
Ils sont dits invariants par A. Les sous-espaces invariants d'une matrice A jouent un
rôle important dans le calcul de ses valeurs propres ainsi que, nous l'avons déjà vu,
-0
dans l'étude des méthodes de projection sur des sous-espaces de Krylov.
0
c
::J
0
CX)
Définition 13.1 Un sous-espace vectoriel X c e 11
est dit invariant par A E en X II si
0
0
N
@ AXcX.
~
..c
O'I
·c Un autre exemple est fourni par la décomposition de Schur (théorème 1.12) ou la
>-
Cl.
0 décomposition de Jordan (théorème 1.5) de A. Dans ces deux cas
u
1
A = PRP -
A lx: X--+ X.
Définition 13.2 On appelle valeur propre de A dans X les valeurs propres de cette
restriction et on note leur ensemble
où les valeurs propres Ài sont deux à deux distinctes et où les m ; sont leurs
m ultiplicités (donc m 1 + . . . + mq = n) et que
où les Ài, l ~ i ~ p, sont les valeurs propres de A lx· Nous allons utiliser
la décomposition en sous-espaces caractérisques (théorème 1.4) :
II (Ai In - II (AJn -
i::
;:::s
Q X = Ker A)'1 et Y = Ker A)'1.
@
A; E S À;E T
216 13 • Sous-espaces invariants
P1(A) = II (À; - À)
11
et P 2 (A) = II (Ài - A)'1 .
A;ES À;ET
Q 1(A)P1(A) + Qz(A)P2(A) = 1.
Les polynômes matriciels correspondants vérifient donc
On en déduit que
polynômes matriciels en une même matrice tels que P 1(A) , P2 (A) et Q 1(A)
commutent entre eux de sorte que
Proposition 13.6 Pour toute matrice X E cnxk dont les vecteurs-colonne constituent
une base de X, il existe une unique matrice L E Ckxk telle que
AX = XL .
De plus
spec (A, X) = spec (L).
Soit X E §tnk une matrice dont les vecteurs-colonne constituent une base orthonor-
mée de X et soit L E Ckxk telle que AX = XL. Complétons les vecteurs-colonne de
X en une base orthonormée de C 11 : on obtient ainsi une matrice unitaire (X Y) E U11 •
Dans cette base la matrice A s' éc1it sous fo1me d' une matrice triangulaire supérieure
par blocs :
Proposition 13.7 Soit X E §t11k de rang k telle que AX = XL. Pour toute matrice
Y E cnx(n - k) telle que (X Y) E cnxn soit unitaire, on a la forme réduite
~ ~
0
c i::
::J
0
;:::s
.... (X Y) * A(X Y) = ( ) et A lm Y c lm Y.
CX)
""'
~
~
0 '~
0
N ""'
·c::
0 Lorsque X est un sous-espace invariant simple, un changement de base va nous
@ 'ro='
~
i::
permettre de décomposer A sous-forme d'une matrice diagonale par blocs. Cette
..c 0
O'I
·c i:: construction utilise 1'équation de Sylvester que nous étudions ci-dessous.
~
>-
Cl. ·s..
0
0 (.)
u ....00
..c:
o.. 13.3 ÉQUATION DE SYLVESTER
ro
......l
1
"O
0
Définition 13.8 Soient A E cnxn , B E cmxm et C E cnxm . L'équation matricielle
i::
;:::s
Q
@ AQ - QB = C (13.2)
218 13 • Sous-espaces invariants
spec A n spec B = 0.
-0
0
A(QV) - (QV)T = CV.
c
::J
0
CX)
Posons P = Q V et D = CV. Il s'agit de résoudre le système
0
0
N
@
AP - PT = D , (13.3)
~
..c
O'I
·c où Test une matrice triangulaire supérieure. Notons Pi (respectivement di)
>-
Cl.
0
les colonnes de P (respectivement de D) et tij les coefficients de T. La
u première colonne de ce système est égale à
d'où
k- 1
Corollaire 13.10 Quelles que soient les matrices A E C11 XII et B E cm xm, les valeurs
propres de l'opérateur de Sylvester S sont À- µ où À E spec A et µ E spec B.
Démonstration. Dans la première partie de la démonstration du théorème
précédent on a montré que À - µoù À E spec A etµ E spec B est une
valeur propre S.
Réciproquement, soient Q =1- 0 et u E C tels que S Q = u Q. On a donc
(A - u In) Q - Q B = 0 c'est-à-dire que le noyau de ce dernier opérateur de
Sylvester n'est pas réduit à O. Le théorème montre que cela n'est possible
que s'il existe À E spec A etµ E spec B tels que À - u = µ.Ceci prouve
que u = À - µ.
Remarque 13.2.
1. La démonstration du théorème précédent donne un procédé de construction
de la solution Q del' équation de Sylvester :
....
-0 ~ a) On calcule une décomposition de Schur de B,
0 "O
c i::
;:::s
::J
0 .... b) On résout les systèmes linéaires
CX)
""'
~
~
0 '~
0
""'
·c:: k-1
N
@
~
0
'ro='
i::
(A - tkk l,.J pk = L tik Pi + db k = 1, ... , m.
..c 0 i=l
O'I i::
·c ~
>-
Cl. ·s..
0 Ce procédé est numériquement coûteux : chaque résolution nécessite O(n 3 )
0 (.)
u ....
0
0 opérations arithmétiques .
..c:
o.. 1
ro
......l
2. Une méthode plus performante est celle de Bartels et Stewart.
1
"O
0
i::
;:::s
Q
@ 1. Méthode publiée en 1972 dans Communications of the ACM.
220 13 • Sous-espaces invariants
SR - RT = D ,
où R = U*QV , et D = U*CV.
c) Comme dans la démonstration précédente les colonnes ri de R sont obte-
nues en résolvant les systèmes
k-J
(S - tkk ln)rk = L tikri + Jki k = 1, .. . , m ,
i= I
AQ+QA*= D
est une forme particulière d'équation de Sylvester. Elle est utilisée en théorie
du contrôle et permet de caractériser la stabilité de tels systèmes. Le théorème
précédent permet de montrer que, si la matrice A est stable (c'est-à-dire si
~(À) < 0 pour toute valeur propre À de A), il existe une solution unique de
cette équation (exercice 13.4).
-0
13.4 DIAGONALISATION PAR BLOCS D'UNE MATRICE
0
c
::J
0 Théorème 13.1 1 Soit X 1 un sous-espace invariant simple de A et soit X 1 E §t11k une
CX)
0
0 matrice dont les vecteurs-colonne constituent une base orthonormée de X1. Complé-
N
@
tons X 1 en une matrice unitaire (X 1 Y2 ) E lU11 et considérons la forme réduite
~
..c
~ ~
O'I
·c (X , Y2)* A(X 1Y2) = ( )
>-
Cl.
0
u
Soit Q la solution de l'équation de Sylvester L 1 Q - Q L 2 =- H et soient
X2 = Y2 + X1Q
Y1 = X1 - Y2Q*.
Sous ces hypothèses
13.4 Diagonalisation par blocs d'une matrice 221
2. (X 1 X2)*A(Y1 Yi)= ( ~1 ~2 ) ,
(~ -Q ) ( L1
ln-k 0
et
( ~ ,,,: ) ( ~1)
ce qui prouve l'égalité 2. On a Xi œX2 = <C11 parce que la matrice (X 1 X2)
est inversible et AX2 c X 2 parce que AX2 = X 2 L 2 . Enfin, X 2 est un sous-
espace simple parce que les spectres de A 1x . et de A 1x 2 , égaux aux spectres
de L 1 et L 2 , sont disjoints.
-g Corollaire 13.12 Avec les hypothèses et les notations du théorème 13.11, X 1.l et X2.l
c
::J sont deux sous-espaces invariants complémentaires de A*.
0
CX)
g La démonstration est laissée en exercice au lecteur.
N
@
~
..c
O'I
·c
>-
Cl.
0
u
222 13 • Sous-espaces invariants
EXERCICES
Exercice 13.1
Déterminer les sous-espaces invariants d'une rotation de Givens. Quels sont ceux
qui sont simples ?
Exercice 13.2
Démontrer le corollaire 13.12.
Exercice 13.3
Soient A E cnxn, B E cm x m et C E cnxm _ On considère l'équation de Sylvester
AQ - QB = C.
Exercice 13.4
Soient A , D , Q E cnxn . On considère l' équation de Lyapunov
AQ+QA* = D
-0
c
0
::J
et l'on suppose que A est stable c' est-à-dire que R(A) < 0 pour toute valeur propre À
0 de A.
CX)
0
0
N
l. Montrer que cette équation admet une solution unique Q.
@ 2. Montrer que l' intégrale
~
..c
O'I
·c
>-
Cl.
0
fo°" exp(t A) D exp(t A ' ) dt
u
b) M.ontrer que Q = Z y- 1 •
-0
0
c
::J
0
CX)
0
0
N
@
~
..c
O'I
·c
>-
Cl.
0
u
"O
0
c
:J
0
OO
0
0
N
@
~
..c
O'I
·;::::
>-
0..
0
u
Chapitre 14
Puisque les valeurs propres d'une matrice sont les racines du polynôme caractéristique,
on doit s'attendre à ce que le calcul des valeurs propres soit aussi compliqué que la
recherche des racines d' un polynôme. Ces deux problèmes sont même équivalents
puisque tout polynôme est le polynôme caractéristique de sa matrice compagnon (voir
l' exercice 1.7). Pourtant, la recherche des valeurs propres ne se fait pas par le biais des
zéros des polynômes. On préfère une approche plus géométrique comme nous aUons
le voir.
2.
du v = 1- l(u,v)I2 ) 4
p( ' ) ( . llull; llvll; '
3. dp est unitairement invariante: dp(Qu , Qv) = dp(u , v) pour toute transforma-
tion unitaire Q E 1U11 ,
4. dp est une distance sur l'ensemble des droites vectorielles de <C11 (leur ensemble
est noté IP'n-J (<C) et s 'appelle l'espace project~f complexe associé à <C 11 .)
Remarque 14.1.
1. On définit de la même manière une distance sur l'ensemble des droites
vectorielles de JRll. Dans ce contexte, la distance dp(u,v) est le sinus de
l'angle fait par les droites JRu et JRv.
2. dp(u , v) ~ 1 et= 1 pour des vecteurs u et v orthogonaux.
Ainsi
(u ,v) V Il 4
dp(u, v) = ll u - M 2 l-
2
l(u,v) l )
-0
llull2 ( llull; llvll;
0
c
::J
0 La première propriété en découle, l'invariance unitaire aussi. Prouvons que
CX)
0 c'est une distance. La symétrie (dp(u, v) = dp(v , u)) est immédiate ainsi
0
N que dp(u, u) = O. Si dp(u, v) = 0, c'est que u est sa propre projection sur
@
~
la droite <Cv. Ceci prouve l'égalité <Cu = Cv. L'inégalité du triangle est
..c
O'I délicate à démontrer. Nous ne le ferons pas ici (exercice 14.3).
·c
>-
Cl.
0
u
Revenons à la méthode de la puissance. Elle est donnée par l'algorithme suivant :
14.1 La méthode de la puissance 227
Méthode de la puissance
Théorème 14.3 Supposons que les valeurs propres de A E C11 XI! vérifient
Démonstration. Afin d'établir les propriétés de ces suites nous allons utili-
ser la décomposition de Jordan de A :
A = PJP- 1
où J = diag(J1 , ... , lp) est une matrice diagonale par blocs constituée de
....
-0 ~
blocs de Jordan: Ji = Àn)n, E C 111 xn; ou Ji = A11 Jn 1 + Nn , (notations du
"O
c
0
i::
;:::s
théorème 1.5) et où n 1 + . . . + np = n . Notons que cette écriture suppose
::J
0 .... que les valeurs propres suivantes sont égales
CX)
""'
~
~
0 '~
0
N ""'
·c::
0
@ 'ro='
~
..c
O'I
i::
0
i::
i 2, . . . , p. Comme A1 est une valeur propre simple on peut supposer
·c
>-
Cl.
~
·s.. que le premier bloc de Jordan est 11 = (À1) E C 1X 1. Notons X1 ' . . . ' X11 les
0
0
u
(.)
Akz
Zk = llAkzll2.
C 'est vrai pour k = 0 et sil' égalité a lieu à l'ordre k on a :
Ak+lz
11 Ak+ 1z112 .
A1(a1x1 + ek).
De plus, Jt = À~; 111; ou bien, dans le cas nilpotent,
(2k) À k-2
Il;
k ) À k-n;+I
( 11; -I 11;
(k)1 À k - 1
Il;
k ) À k - n;+2
( ll; - 2 Il;
lim ( k) À~; =0
k-+oo m A1
0
0
~
'~ ) = 0
N ""'
·c::
0
(
œn ,+ .. .+n;
@ 'ro='
~
..c i::
O'I
·c
0
i:: Ceci prouve notre assertion et le théorème.
~
>-
Cl. ·s..
0
0 (.)
u ....00
..c:
o..
Remarque 14.2.
ro
......l l. Nous disons qu'une propriété P(a), qui est vraie ou non suivant la valeur
1
"O
0 du paramètre a E <CP, a lieu de façon générique lorsque l'ensemble des
i::
Q
;:::s
a E <CP pour lesquels la propriété P(a) est vraie contient un ensemble ouvert
@ et dense de <CP.
230 14 • le calcul des valeurs propres
Les valeurs propres de A - 1 sont les inverses des valeurs propres de A et ces
deux matrices se diagonalisent dans la même base de vecteurs propres.
-0
0
c
::J La figure 14.1 illustre la convergence de la suite (zk) dans le cas d'une matrice
0
CX) symétrique 3 x 3. Les points sont sur la sphère unité de JR3 .
0
0
N
@
~
..c 14.2 ITÉRATION DE SOUS-ESPACES
O'I
·c
>-
Cl. La méthode de la puissance est en défaut pour une matrice A qui possède deux
0
u valeurs propres de plus grand module (exercice 14.1). Mais dans un tel cas et sous
des hypothèses raisonnables la suite des plans Pk+ 1 = APb où Po est un plan donné,
« converge » vers le plan P défini par les vecteurs propres associés à ces deux valeurs
propres. C'est pourquoi on étend la méthode de la puissance au cas d'une itération
de sous-espaces. On entend par là toute suite définie par Xk+I = AXk où X 0 est un
sous-espace de dimension p de <C11 • Cette suite se stabilise-t-elle vers un sous-espace
14.2 Itération de sous-espaces 231
Méthode de la puissance
vecteur initial
-1
- 0.5
de en? En général la réponse est oui : la suite (Xk) converge vers le « sous-espace
invariant dominant » de dimension p.
Quelle structure de données choisir pour décrire un sous-espace de dimension
p de <C11 ? Et bien tout simplement une matrice X E cnxp de rang p. Ses
colonnes engendrent un sous-espace de dimension p : le sous-espace image
.... lm X = {Xu : u E CP}. Un tel choix n'est pas unique:
-0 ~
"O
c
0
i::
Lemme 14.4 Quelles que soient les matrices de rang p: X , Y E cnxp on a lm X=
;:::s
::J
0 .... lm Y si et seulement s'il existe G E <GlLp telle que Y = XG.
CX)
""'
~
~
0 '~
0
N ""'
·c:: Démonstration. La condition est suffisante : si Y = X G alors Y v = X Gv
0
@ 'ro=' pour tout v E <CP de sorte que lm Y c Im X. L'autre inclusion s'obtient
~
..c
O'I
i::
0
i::
via l'égalité X = Y c-
i.. La condition est nécessaire : si lm X = lm Y les
·c
>-
~
·s.. colonnes de Y sont des combinaisons linéaires de celles de X ce qui prouve
Cl.
0
0
u
(.) l'existence de GE ([PXP telle que Y= XG. Si G n'était pas inversible, il
....00
..c: existerait v E <CP, v =!= 0, avec Gv = O. On aurait alors dim(Im X G) ~ p-1
o..
ro
......l
et Y ne serait pas de rang p.
1
"O
0
i::
Q
;:::s
A toute matrice Z E C 11 x P de rang p on peut associer une unique décomposition
@ Z = QR avec Q E §t11p et R E ([PXP triangulaire supérieure à diagonale positive
232 14 • le calcul des valeurs propres
Proposition 14.6
. llu - vlli
1. dc(U , V) = max mm
uEU ,u~O v EV
Il U Il ,
2
2. da(U , V) = llIIv.L o IIu 11 2 où IIx désigne la projection orthogonale dans C 11
sur le sous-espace X ,
3. de est une distance sur G 11p .
4. de est unitairement invariante: dc(Q(U), Q(V)) = de(U , V) pour toute matrice
unitaire Q dans e 11 •
-0
0
L'itération de sous-espaces est décrite par l'algorithme suivant:
c
::J
0 Itération de sous-espaces
CX)
0
0
N
@
Entrée: z E e11 Xp' de rang p
~
..c
Zo = Q(Z),
O'I
·c pour k = 1 : ...
>-
Cl.
0
Zk = Q(AZk-1)
u fin
Théorème 14.7 Soit A E enxn une matrice diagonalisable dont les valeurs propres
vérifient
14.2 Itération de sous-espaces 233
et soit x 1, ... , x 11 une base de vecteurs propres de A (x; associé à ,\J Notons X
et Y les sous-espaces de <C11 engendrés par les vecteurs x 1 , ... , Xp pour X et par
Xp+t, . . . , Xn pour Y.
Pour toute matrice Z E cnxp de rang pet telle que
(lm Z) n Y = { o} ,
A = UDU*
avec
U = (x1 ... x 11 ) = (X Y)
0
~
'~ Q(Z) = Zo = U Qo = U ( )
0
N ""'
·c::
0
@ 'ro='
~
avec Vo E (CPXP et Wo E c<n-p)xp _L'hypothèse
..c i::
0
O'I i::
·c ~
>-
Cl. ·s..
0
(lm Z) n Y = {O}
0 (.)
u ....00
..c:
o.. qui s'écrit aussi
ro
......l (lm Z 0 ) n (lm Y) = {O}
1
"O
0
i::
;:::s
devient donc
Q 0
@ ) = {O} .
ln - p
234 14 • le calcul des valeurs propres
Puisque l'on a supposé que Z (et donc Q 0 ) est de rang p, cette dernière
identité signifie que Vo est inversible (supposons que Vou = O. L'hypothèse
implique alors Wou = 0 c 'est-à-dire Qou = O. Comme rang Q o = p on a
u = 0 et donc V0 est inversible.)
Nous allons maintenant montrer que rang Z k = p pour tout k. Par construc-
tion Zk = Q(AZk_ i) c' est-à-dire que
On notera
z, = u ( ~ ) = u Q,
avec Vi E f:,PXP et Wk E e,cn-p) x p de sorte que
ce qui prouve, par récurrence, que Vk est inversible pour tout k (D 1 est
elle-même inversible) et donc que rang zk = p pour tout k.
Nous devons maintenant estimer la distance dc (Im Z k, X). En vertu de
l'invariance unitaire de de (proposition 14.6-4), elle est égale à
-0
c
0
::J
Les projections orthogonales sur lm Q, et sur (1m ( ~ )) 1- sont don-
0
CX)
nées par les matrices
0
0
N
@
~
..c
O'I
·c
>-
Cl.
0
u de sorte que, par la proposition 14.6-2,
14.2 Itération de sous-espaces 235
1 12
° °)
( 0 111 - p
° °)
QkQZQk Q; ( 0 1
11 - p 2
= 1 wkw:11~12 = 1 Wkl '2,
quantité que nous allons estimer. L' égalité QkRk = DQk- I donne, par
récmTence,
c' est-à-dire
Remarque 14.3.
1. L' hypothèse (lm Z) n Y = {O} du théorème 14.7 est satisfaite de façon
générique suivant le sens donné à ce terme dans la remarque 14.2.
2. Le calcul précédent montre que, dans le cas hermitien,
k
. Àp+ l
dc (lm Zki X) ~ C -
Àp
....
-0 ~
pour une constante C > 0 convenable. La convergence de la suite (lm Zk) est
c
0 "O
i::
;:::s
donc linéaire et la vitesse de convergence donnée par le quotient IAp+J / Àp < 1
::J
0 .... l.
CX)
""'
~
~
0
0
'~
""'
·c::
3. L'hypothèse A diagonalisable n'est pas vraiment nécessaire. Elle nous per-
N
0
@ 'ro=' met ici d' éviter de parler de paire complémentaire de sous-espaces invariants
~
..c i::
0
(les sous-espaces X et Y du théorème).
O'I i::
·c
>-
Cl.
~
·s.. 4. La démonstration du cas général ( A non diagonalisable) utilise le même
0
0
u
(.)
....00 argument que dans le cas hermitien mais est techniquement beaucoup plus
..c:
o..
compliquée. Dans ce cas aussi la vitesse de convergence est linéai re et donnée
ro
......l asymptotiquement par le quotient 1Àp+ 1 / Àp 1< 1.
1
"O
0 5. Lorsque les valeurs propres de A ont des modules distincts, on peut montrer
i::
Q
;:::s
que l' itération de sous-espaces converge vers un sous-espace invariant quel
@ que soit le sous-espace initial choisi.
236 14 • le calcul des valeurs propres
Zo = .C(Z),
pour k = 1 : ...
Z k = .C(AZk-1)
fin
-0
0
c
::J
0
CX)
0
0
14.3 LA M ÉTHODE QR
N
@ Cette méthode permet le calcul de toutes les valeurs propres d'une matrice. Soit
~
..c A E <C11 xn et soit U E {[]11 une matrice unitaire. L' itération QR est donnée par
O'I
·c
>-
Cl.
l'algorithme suivant:
0
u
14.3 La méthode QR 237
Itération QR
Entrée: A E cn x n, U E U11
Ao =
U * AU = QoRo ,
pour k = 0: . . .
A k+l = RkQk = Q k+l Rk+I
fin
lm U ( 1 : n , 1 : i) n lm Q( 1 : n , i + 1 : n) = { 0}
.... pour tout i (pour la notation U(l : n, 1 : i) voir le premier paragraphe du chapitre de
-0 ~ rappels).
0 "O
c i::
::J ;:::s
.... Sous ces hypothèses :
0
CX)
""'
~
0
~
'~ 1. La suite (Ak) ci-dessus est unitairement semblable à A,
0
N ""'
·c::
@
0 2. Il existe des matrices Tk E Un diagonales et Bk E cn x n telles que
~
'ro='
..c i::
0
O'I i::
·c ~
>-
Cl. ·s..
0
0 (.)
u ....00
..c:
Remarque 14.4.
o..
ro 1. L'hypothèse faite sur U est satisfaite de façon générique suivant le sens
......l
"O
1
donné à ce terme dans la remarque 14.2.
0
i::
Q
;:::s
2. Lorsque les valeurs propres sont de modules distincts, pour tout U E Un , la
@ suite Ak converge (au sens décrit dans le théorème 14.8) vers une matrice
238 14 • le calcul des valeurs propres
4. Un point un peu délicat: les limües précédentes et le fait que les matrices
Pk et Q sont unitaires impliquent l'existence d ' une suite de matrices Tk
unitaires et diagonales telles que
14.3 La méthode QR 239
Comme
2- 2~ (8k, l Pk ,1 , Q1 )---+ 0
et ainsi
lim ek )1 pk' 1 = Q 1 •
k ->OO
....
-0 ~
"O
Supposons maintenant avoir prouvé qu' il existe des suites (8k ,j )k. 1 :( j :( i,
0
c i::
;:::s de scalaires de module 1, telles que
::J
0 ....
CX)
""'
~
~
0 '~
0
N ""'
·c::
0
@ 'ro='
~
..c i:: Nous allons utiliser le fait que
0
O'I i::
·c ~
>-
Cl. ·s..
0 lim dc (Im Pk(l : n, 1 : i + 1), lm Q(l : n , 1 : i + 1)) = O.
0 (.) k ->oo
u ....
0
0
..c:
o..
ro
Cela signifie que
......l
f3 j Q j Il
1
= l Œj p k , j -
"O " ""i+I
D "ij +I
0
i::
;:::s
~x~n
Il . L..,j = I
2
--+ Ü
Q
@ CXj {3 j Il""î+I
J=I a 1. p k ,J·Il
L..,
2
240 14 • le calcul des valeurs propres
ce qui donne
i+I
mm Pk,i+l - L/3 j Q j ---? O.
f3 j
j=I 2
Ce minimum est atteint en la projection orthogonale de P k,i+ I sur l' espace
lm Q(l : n, 1 : i + 1) c'est-à-dire pour
lim
k~oo
Pk,i+I - ( Pk,i+J, Qi+I) Qi+l = Ü
-0
0
c par la proposition 14.2. On prouve l'existence d'une suite (8k ,i+i)k de sca-
::J
0
CX)
laires de module 1 telle que
0
0
N
@
lim ek,i +I Pk,i +I = Qi+I
k -+oo
~
..c
O'I
·c
par l' argument développé pour i = 1.
>-
Cl.
0
5. Conclusion :
u
avec
lorsque k ---? oo .
14.4 Le cas des matrices réelles 241
R emarque 14.5.
1. La démonstration précédente montre que la suite des sous-espaces
Ak (lm P0 (1 : n , 1 : i)) = lm Pk(l : n , 1 : i) converge vers le sous-espace
lm Q(l : n, 1 : i) pour tout i , 1 ( i ( n. Une suite de sous-espaces emboîtés
:F = (F1 c F2 . . . c :F,1 ) avec dim :F, = i est appelé drapeau de en.
L'itération QR peut être interprétée comme la méthode des approximations
successives associée à l'action de A sur la variété des drapeaux.
2. Un drapeau peut être décrit à l'aide d ' une matrice F E GIL11 en définissant
Fi comme le sous-espace engendré par les i premières colonnes de F ; dans
notre cas, F = Pk et :F, = l m Pk(l : n , 1 : i). La quatrième partie de la
démonstration précédente donne une interprétation en termes matriciels de
la convergence d ' une suite de drapeaux.
3. En ve1tu du théorème 14.7 la suite lm Pk(l : n, 1 : i) converge vers lm Q(l :
n , 1 : i). Cette convergence est linéaire et sa vitesse est donnée par le quotient
1Ài+1/ À i I· On en déduit que la vitesse de convergence de l'algorithme QR est
linéaire en max1 ~i ~n- 1 IAi+ t/ Ad . Notons que ce maximum est< 1 puisque
les valeurs propres sont rangées par module décroissant.
Ao = U * AU = QoRo,
pour k = 0: ...
Ak+l = RkQk = Qk+t Rk+I
fin
....
-0 ~
0 "O
c i::
;:::s
::J
0 .... où Ak = QkRk est une décomposition QR avec Qk orthogonale et Rk triangulaire
CX)
""'
~
0
~
'~
supérieure réelle ne saurait « révéler » une décomposition de Schur de A : A =
0
N ""'
·c::
0 Q R Q* avec Q unitaire et R triangulaire supérieure parce que cette décomposition fait
@ 'ro='
~
intervenir des matrices complexes dès que A possède des valeurs propres complexes
..c i::
O'I
0
i:: alors que l' algorithme ci-dessus ne calcule que des matrices réelles.
·c ~
>-
Cl. ·s..
0
Les propriétés de la méthode de QR réelle sont résumées dans le théorème suivant
0 (.)
u ....
0 que nous ne démontrons pas. Il fait appel à la décomposition de Schur réelle d'une
0
..c:
o.. matrice réelle :
ro
......l
"O
1
Théorème 14.9 Soit A E JR11 xn qui possède des valeurs propres réelles Àk E JR,
1 ( k ( p, et complexes conjuguées œ.i ± i{3.i E <C, 1 ( j ( q, de modules IAkl et
0
i::
;:::s
Q
@ Ja] +f3] distincts. Pour toute matrice orthogonale U E ([))/!> la suite (A k) définie par
242 14 • le calcul des valeurs propres
telle que Les blocs correspondants A k,iJ dans A k vérifient l.imk~oo A k,iJ = 0 si i >j
et que les valeurs propres du bloc diagonal Ak ,i i convergent vers celles de Rii.
Ceci prouve que la forme Hessenberg est conservée tout au long de l'itération QR
d'où un gain en complexité et en erreurs d'anondis.
X X X X
G(3 ,4) 0 X X X
--7
0 0 X X
0 0 0 X
14.6 La stratégie du décalage 243
Entrée: Ho = H E C 11 x 11 de Hessenberg
pour k = 0: ...
Hk - µ kln = QkRk
Hk+l = Rk Qk + µ k 111
fin
où les µ k sont des scalaires donnés ; l' itération QR décrite précédemment c01Tespond
à µk = O. Les matrices ainsi définies sont unitairement semblables à H (et donc aussi
à A) puisque :
alors, sous des hypothèses convenables, la suite (Hk) converge suivant le sens donné
au théorème 14.8. La convergence est linéaire en
IAi+I - µ I
max
l~.i~n - 1 IAi - µI .
On a donc intérêt à choisirµ de façon à rendre max 1 ~i~n - t l~l:'._-:ÎI aussi petit que
possible. Mais comment faire ?
X X X X
-0
0 Ü X X X
c
::J
0
CX)
0
0
N 0 a b
@ 0 0 8 0
~
..c
O'I
·c La dernière rotation de Givens appliquée au produit précédent
>-
Cl.
0
u
1
Gn- 1n = 1
a
14.6 La stratégie du décalage 245
X
Jaz + e 2 ab
va2+e2
-be
0 Ja2+e2
et la matrice orthogonale
a
0 ... 0
RQ + hn11 I11 =
0 0
*
Cette analyse prouve que, si s est petit devant a, le terme hk ,n 11 _ 1 de la matrice itérée
.... est d'ordre s 2 d'où une convergence quadratique de ce terme vers O.
-0 ~
0 "O
c i::
;:::s
::J
0 ....
CX)
""'
~ 14.6.3 Déflation
~
0 '~
0
N ""'
·c::
0
L'analyse précédente montre que le coefficient hk,n 11 _ 1 converge vers 0 très rapidement.
@ 'ro=' Lorsque, à 1' itération k, le coefficient h k n n- I est jugé suffisamment petit, on supprime
~
..c i:: ' '
O'I
0
i::
la n-ième ligne et la n-ième colonne de la matrice Hk et on continue la méthode
·c ~
>-
Cl. ·s.. QR avec la matrice de Hessenberg réduite Hk(l : n - 1, l : n - 1) et le décalage
0 0
u
(.)
....00 hk ,n- ln - I . Ainsi de suite jusqu'à obtenir une matrice réduite 1x1. On appe11e déflation
..c:
o.. ce processus de réduction de la dimension du problème .
ro
......l La figure suivante montre la norme de la sous-diagonale de la matrice de Hessenberg
1
"O
0 Hk en fonction de k dans le cas des algorithmes QR simple et QR avec décalage simple
i::
Q
;:::s
et déflation. On a choisi une matrice de Hessenberg H de taille 100 x 100 à coefficients
@ aléatoires.
246 14 • Le calcul des valeurs propres
100
90
80
- - - - QR simple
<(
... 70
Q) _ _ QR avec décalalage
't:> simple et déflation
Q)
(ij
c
0
60
O>
al
'51
(/)
~
50
0
(/)
.!!!
Q) 40
't:>
Q)
E
0
c 30
20
10
0
0 100 200 300 400 500 600
itérations
fin
14.8 Notes et références 247
h k ,n - . l 11 - l
( hk ,1111-l
Entrée : A E C 11 XII
pour k = 0: ...
Ak = LkUk
Ak+I = UkLk
fin
3. L' itération de Cholesky. On part d' une matrice A E C 11 xn définie positive dont
la décomposition de Cholesky (théorème 7.10) est notée A = LL *.L'itération
de Cholesky est donnée par l'algorithme
Itération de Cholesky
....
-0 ~
"O
où Ak = LkLk est la décomposition de Cholesky de A k.
0
c i::
::J ;:::s
.... 4. L'itération QR pour des matrices hermitiennes. Pour une telle matrice, la forme
0
CX)
""'
~
~
Hessenberg est donnée par une matrice tridiagonale hermitienne (théorème 8.16)
0 '~
0
N ""'
·c:: et cette forme est conservée au cours de l'algorithme (voir l'exercice 14.4). Les
0
@ 'ro=' stratégies de décalage utilisent des décalages réels puisque le spectre d'une
~
i::
..c
O'I
0
i::
matrice herm itienne est réel.
·c ~
>-
Cl. ·s..
0
0 (.)
u ....00
..c:
14.8 NOTES ET RÉFÉRENCES
o..
ro
......l La méthode de la puissance pour le calcul de la valeur propre domfoante d'une matrice
1
"O
0 apparaît explicitement en 1913 dans une note de C. Müntz aux Comptes Rendus de
i::
Q
;:::s
l'Académie des Sciences [26]. Cette méthode connaît un regain d' intérêt auj ourd'hui
@ puisqu'elle est utilisée par Google pour ses recherches de pages-web.
248 14 • le calcul des valeurs propres
-0
0
c
::J
0
CX)
0
0
N
@
~
..c
O'I
·c
>-
Cl.
0
u
Exercices 249
EXERCICES
Exercice 14.1
Etudier la méthode de la puissance lorsque A est la matrice 2 x 2 d'une rotation
plane d' angle e.
Exercice 14.2
On suppose que les valeurs propres de A E cnxn vérifient:
vérifie :
1. Elle est bien définie,
2. Il existe un vecteur propre x de A tel que limk- oo dp(Zki x) = O.
Exercice 14.3
Le but de cet exercice est d'établir les propriétés principales de la distance da
(définition 14.5) sur la grassmannienne <G11p . Nous généralisons ici la définition de
.... cette « distance » en posant
-0 ~
0 "O
c i::
::J ;:::s
.... . llv - wll2
0
CX)
""'
~
~
d(V , W) = sup mf
vE V ,v#O wE W
IlV Il2
0 '~
0
N ""'
·c::
0
@ 'ro=' où V et W sont des sous-espaces vectoriels de <C11 qui n'ont pas nécessairement la
~
..c
O'I
i::
0 même dimension. Notons IIv la projection orthogonale sur V. Montrer que:
i::
·c
>-
~
·s.. . llv-wll2
Cl.
0
u
0
(.) 1. d(V, W) = max mm
vEV,v#O wEW
IlV Il ,
....00 2
..c:
o..
ro
2. d(V, W) = llIIwj_ o Ilvll2,
......l
1 3. d(V , W) = d(W1- , V1-) ,
"O
d(V n (V n W)J_ ' w
0
i::
;:::s 4. d(V , W) = n (V n W)J_ ),
Q
@ 5. 0 ~ d (V , W) ~ 1,
250 14 • le calcul des valeurs propres
6. d(V , W) = 0 si et seulement si V c W,
7. d(V , W) < 1 si et seulement si V n W..l = {O},
8. d(Vi, V3) ( d(V1 , V2) + d(V2, V3),
9. Si Vi c V2 alors d(Vi , W) ( d(V2, W) et si W1 c W2 alors d(V , W2) (
d(V , W1),
10. d(V , W1 + W2) ( min(d(V , W1),d(V, W2)) ,
11. Si V1 et V2 sont orthogonaux alors d(Vi EB V2, W) ( d(Vi, W) + d(V2, W) et
d(Vi EB V2, W) ( J2 max(d(V1, W), d(V2, W)),
12. d(Q(U), Q(V)) = d(U, V) pour toute matrke unitaire Q dans en,
13. Si dim V = dim W alors d(V, W) = d(W, V) (on utilisera une transformation
unitaire Q dans en
qui vérifie Q 2 = id11 et QV = W),
14. d(V, W) est une distance sur l'ensemble <G11 p des sous-espaces vectoriels de
dimension p de en .
Exercice 14.4
Soient T E enxn tridiagonale hermitienne, µ, E ffi. et T - µ,ln = QR la décompo-
sition QR de T - µ,ln. Montrer que T+ = R Q + µ,/11 est tridiagonale hermitienne et
unitairement semblable à T.
Exercice 14.5
Soient A une matrice 2 x 2, µ, une valeur propre de A et A - µ,fi = Q R la
décomposition QR de A - µ,]z. Calculer explicitement Q et R en fonction des entrées
de A et de µ, et montrer que
'g
::J
RQ+µ/i = (~ !)
0
~ pour des scalaires a et f3 que l'on précisera.
0
N
@
~
..c
O'I
·c
>-
Cl.
0
u
Chapitre 15
Les méthodes de projection sont également appliquées au calcul des valeurs et vecteurs
propres de matrices. Elles sont généralement utilisées pour des matrices creuses de
grande taille. On se limite alors à calculer certaines parties du spectre de la mattice et
les vecteurs propres associés. Les sous-espaces d'approximation des vecteurs propres
quel' on utilise sont des sous-espaces de Krylov.
min
HE CkXk
llAQ - QHll}. (15.3)
15.2 Méthode de projection sur des sous-espaces de Krylov 253
(15.4)
(15.5)
Q
;:::s
polynômes de degré ~ k - 1). Par ailleurs l' égalité qk = Pk- i(A)v où
@ Pk-I E Pk-I (voir la démonstration de la proposition 11.3) montre que
254 15 • Méthodes de projection pour le problème des valeurs propres
et don c le résultat.
Les propriétés d' invariance du sous-espace de Krylov Kk(A , v) sont liées aux pro-
priétés de v par le résultat suivant
14. L' algorithme de Lanczos est utilisé dans le cas particulier où A est hermitienne et
la matrice réduite Tk = Q k A Q k est alors tridiagonale hermitienne.
La figure 15.1 montre l'évolution des valeurs de Ritz d' une matiice A à coefficients
aléatoires de dimension 8. On a utilisé l' algorithme d' Arnoldi pour le calcul de Qk·
Le vecteur v qui définit le sous-espace de Krylov a aussi été choisi aléatoirement.
dimension k. = 1 dîmensioo k = 2 dimension k =3 dinensbn k =- 4
0 0 0 0
0
0
0
•o 0
to 0
0
0 0 0 0 0 0 0 0 0 0 c • 0
"
-1 0 -1 0 -1 0 -1 0
0 .o
-2 -2 -2 "° ·2 ..
0
0 0 0 0
-.() -.() -3 -3
-2 -1 0 -2 -1 0 -2 -1 0 -2 -1 0
1 *
0 . 0
* o~ 0 0 li() 0 ()< 0 •
-1 0
0
-1 0
0
-1 p 0
-1
• e
-2 -2 -2 -2
n •n
-.()
-2 -1 0
-.()
-2 -1
0
0
-.()
-2 -1 0
-.()
-2 -1
"'
0
Figure 15.1 Convergence des valeurs de Rit z. Les valeurs propres de A sont notés un rond o et
les valeurs de Ritz par une étoile * .
La figure 15.2 montre la convergence des 8 valeurs dominantes de Ritz vers les
valeurs propres dominantes de la matrice de raideur K considérée au paragraphe 16.3.
La matrice Q k est obtenue grâce à l'algorithme de Lanczos puisque K est définie
positive. L' abscisse représente la dimension k de l'espace de Krylov Kk (A , v). Le
vecteur v est choisi de manière aléatoire et la dimension n de A est égale à 517.
-0
0
c
::J
0
CX)
0
0
N
@
~
..c
O'I
·c
>-
Cl.
0
u
256 15 • Méthodes de projection pour le problème des valeurs propres
111
110.5
110
t!
ëë
<Il
"O
~ 109.5
::::>
<Il
~
109
108 .5
1 oa ~~~~~~~~~~~~~~~~~~~~~~~
0 5 10 15 20 25 30 35 40
dimension k
Figure 15.2 Convergence des 8 valeu rs de Ritz dom inantes de la matrice de raideur K (n = 517).
EXERCICES
Exercice 15.1
Soit Qk E § t 11 k telle que lm Qk = K k(A , v). Soit v E C 11, v =/= 0, et Pk = QkQk le
projecteur orthogonal sur K k(A , v ).
1. Montrer que pour tout j ( k on a Pk A j v = ( Pk A Pk)j v. En déduire que
Pkp(A)v = p(PkAPk)v pour tout polynôme de Pk·
2. Soit Pk le polynôme caractéristique de la matrice Q'k A Qk. Déduire
de la question précédente et du théorème de Cayley-Hamilton que
PkPk (A)v = QkPk( QZAQk)QZv = O.
3. Montrer que (pk(A) v, u) = 0 pour tout u E Kk(A , v) . En déduire que (- l)kPk
est solution du problème
mi!l ll p(A)v l l ~
pEP k
-0
0
c
::J
0
CX)
0
0
N
@
~
..c
O'I
·c
>-
Cl.
0
u
"O
0
c
:J
0
OO
0
0
N
@
~
..c
O'I
·;::::
>-
0..
0
u
Chapitre 16
où la fonction f est donnée et où u : [O, 1] ---? ~est deux fois continûment dérivable.
-0
c
0 Les valeurs u(O) = u( l) = 0 aux extrémités de l'intervalle [O, l] sont fixées.
::J
0
CX)
0
La solution u de cette équation est unique et donnée par deux quadratures. Elle
0
N s'exprime aussi à l'aide du noyau de Green G :
@
l
~
..c
O'I
·c
>-
Cl.
u(x) = G(x , y)f(y)dy, (16.2)
0
u
où G(x, y ) est défi ni par
G(x , Y) = { x (1 - y) si x ~ y,
y (1 - X) Si X ~ y .
260 16 •Exemples de systèmes linéaires
Nous allons suivre une autre voie pour calculer une approximation de la solution. Pour
cela, nous choisissons la méthode d' approximation par d~fférences finies, certainement
une des plus anciennes et des plus naturelles.
Pour poser l'équation discrète, il faut définir une approximation de la dérivée seconde
u" aux points xi. Nous commençons par définir une approximation de la dérivée u' :
On l' appelle différence .finie centrée. L'approximation de la dérivée seconde u"(x;) est
obtenue en appliquant deux fois la différence finie centrée :
2
u"(x;)"" 8 u(x;) = 8 ôu(x;) = ~ ( ôu ( x; + ~) - ôu ( x; - ~))
1
= h2 (u (xi+1)- 2u (xi)+u(xi - i))
(différence.finie d'ordre deux) . On obtient l'équation (16.1) discrétisée
1
- h 2 ( u i + 1 - 2u i + u i - t) = fi , pour i = 1, ... , n, (16.3)
1
= h2 (ui+lj +Uij+! +ui - lj +Uij - 1 - 4Uij) .
Le calcul du laplacien discrétisé au point (xi , Yj ) est obtenu par le schéma en croix
suivant
....
-0 ~
0 "O
c i::
;:::s
::J
0 ....
CX)
""'
~
~
0 '~
0
N ""'
·c::
0
@ 'ro='
~
..c i::
0
O'I i::
·c
>-
Cl.
~
·s.. L'équation discrétisée a pour inconnue le vecteur de dimension n 2
0 0
(.)
u ....00
..c:
o..
u = (u11, . . . 'UnJ, u12 , ... ' Unz , ... ' U111 ... ' U1111)T '
ro
......l
1 obtenu en prenant colonne après colonne les valeurs du tableau UiJ. De même, en
"O
0
i::
notant fiJ = f (xi, y J), on a le vecteur des données
;:::s
Q
@ f = (f11 , ... 'f;i1' fù, ... '.f~12, . . . ' /111 . . . 'f111l.
262 16 • Exemples de systèmes linéaires
- du = f , sur fi (16.10)
{ u = 0 ' sur la frontière de n
peut également être discrétisé en utilisant les éléments finis. Pour cela, il faut considérer
-0
c
0 une formulation variationnelle du problème : on multiplie les deux membres de
::J
0 l' équation (16.10) par une fonction test v appartenant à un espace V de fonctions
CX)
0 régulières qui s' annulent à la frontière du domaine fi et on intègre sur fi. Grâce à la
0
N fo rmule de Green et à la propriété des fonctions tests, on obtient
@
Pour discrétiser le problème mis sous forme variationnelle on considère des sous-
espaces V,1 de dimension finie, V, 1 c V , par exemple des espaces de fonctions conti-
nues affines par morceaux. Pour cela on subdivise le domaine fi du plan en triangles,
16.3 Le problème de Poisson discrétisé par éléments finis 263
chacun des triangles admettant soit une intersection vide avec un autre triangle, soit
un sommet commun, soit une arête commune. On parle de maillage de n ; chaque
sommet du maillage est appelé nœud du maillage. Un exemple de maillage est montré
à la figure 16. l. Sur chaque triangle, les fonctions V de vil sont des fonctions affines
v(x , y ) = a + bx + cy où les coefficients a , b, c sont définis de manière unique par la
valeur de vaux sommets du triangle. Noter que pour une telle fonction \i'v est défini
presque partout sur n et que l'intégrale (16.11) a un sens. Une base de l'espace V,1 est
constituée par les fonctions affines par morceaux cf>i valant 1 au nœud i du maillage
et 0 aux les autres nœuds. La dimension de cet espace est égale au nombre de nœuds
internes du maillage.
Le problème variationnel (16.11) est alors formulé dans l'espace de dimension finie
V, 1 : u et les fonctions test v appartiennent à Vn. En exprimant u dans la base { cf>i},
u = ~;,'= 1 ci c/>i, on obtient un système linéaire vérifié par les coefficients ci :
te, Jlnr
=
1 1
< Y'c/> j, \i'cf>i > dxdy = Jlnr f c/>i dxdy, pour i = 1, . . . , n.
(16.12)
La matrice du système K = (kij ), où kij = J fn < V' c/>i , V' cf> j > dx dy , est appelée
matrice de raideur.
0
~
'~ respectivement sous forme de courbes de niveaux et de surface ombrée.
0
N ""'
·c::
0
@ 'ro=' Remarque 16.1. On peut aussi discrétiser par éléments finis le problème de
~
..c i::
O'I
0
i::
Poisson en dimension 1 défini sur le segment ]O, l[. Si l'on prend pour espace
·c ~
>-
Cl. ·s.. de discrétisation V,1 l' espace des fonction continues affines par morceaux et un
0 0
u
(.)
....00 maillage constitué de points équidistants avec un pas h = 1/ (n+ 1), on obtient la
..c: base { c/>i } des fonctions-chapeau, chaque chapeau c/>i valant l au nœud xi = i h
o..
ro
......l
1
et 0 aux autres nœuds. La matrice de rigidité de ce système est égale à A 2 où *
"O
0
A 2 est la matrice déjà considérée pour le problème discrétisé par différences
i::
;:::s finies.
Q
@
264 16 •Exemples de systèmes linéaires
•.t,
: .
:. · r- · •· •;. :.:. :.
. ,
Figure 16.1 Maillage du doma ine fi . Figure 16.2 Matrice de raideur K. Les points
représentent les entrées non nulles de K.
0.14
0.12
0.1
0.08
02
0.06
0.15
0.1
0.04
o.os
0.02
-0
0
c --0.8 -0.6 --0.4 --0.2 0.2 0.4 0.6 0.8
::J
0
CX)
0 Figure 16.3 Solution u. lsocontours espacés de
Figure 16.4 Surface u(x , y ) .
0
N 0.02 en partant de 0 à la frontière du domaine n.
@
~
..c
O'I
·c
>- 16.4 LA MATRICE DE VANDERMONDE
Cl.
0
u
Cette matrice intervient pour l'évaluation d'un polynôme sur un ensemble fini de
points et en interpolation polynomfale.
Soit p(x) = ~';:6 CjXj un polynôme de degré inférieur ou égal à n - 1 et
xo , ... , x11 - 1, n points de C. La matrice de Vandermonde V E C 11 x 11 associée à ces
16.5 La matrice de Fourier 265
1 x'0
1 x'1
V= (16.13)
l 11 - I
1 xn-1 x,,_1
<let V = ITcx1 - Xj ) .
J>i
Ve = v
'
où le vecteur v = (p(x 0), . . . , p (x11 _ 1)) T est donné. Ce problème a une solution unique
si les points x J sont distincts .
.... Le conditionnement de la matrice de Vandermonde dépend de la répartition des
-0 ~
0 "O points Xj .
c i::
;:::s
::J
0 ....
CX)
""'
~
~
0 '~
0
N ""'
·c:: 16.5 LA MATRICE DE FOURIER
0
@ 'ro='
~
..c i:: La matrice de Fourier est une matrice de Vandermonde particulière. Cette matrice joue
0
O'I
·c i::
~
un rôle important dans le calcul de la transformée de Fourier discrète (TFD) d ' une
>-
Cl. ·s..
0 suite finie de nombres complexes.
0 (.)
u ....00
..c:
o.. Soit UJ = exp(-~i 7T) une racine primitive n -ième de l'unité. La matrice de Fourier <P
ro
......l
1
est la matrice de Vandermonde associée au points UJo, UJ 1 , ... , UJn- J. Les coefficients
"O
0 cf> Jk de la matrice de Fourier <P sont donc définis par
i::
;:::s
Q
@ A- . -
'f"Jk- lù
(j - l)(k - 1) , pour1"k-
, - 1, . . . ,n .
266 16 •Exemples de systèmes linéaires
Proposition 16.1 Lei matrice <l> E cnxn est symétrique et n<I:>- 1 =<P.
n n- 1 11- l
(<P<P)jk = 2:::: <P.il<Ptk = 2:::: lù(j-l )l (ùl(k-1) = 2:::: w'(j-k).
l= l l= O l= O
- 1-w"(j - k)
Si j ":/= k, on a (<l><P)jk = l - wj - k = 0 car wn· = · -
1, smon (<l><l>)jj = n.
-0
0
En résumé, notant fk = f (~ ), et les vecteurs f = (fo, ... , J,z-1l, = J
c
::J (Îo, ... , f~z _ 1)7 , le vecteur des coefficients de Fourier discrets f est obtenu par le
0
CX)
produit
0
0
N l = ~<Pf.
n
@
~
..c
O'I
·c
Lorsque n est une puissance de 2, le produit matrice vecteur <Pf peut être réalisé en
>-
Cl. O(n log2 (n)) multiplications au lieu de O(n2 ) multiplications normalement requises.
0
u L'algorithme qui réalise cette opération, que nous n'allons pas décrire ici, est appelé
transformée de Fourier rapide (en anglais FFf pour Fast Fourier Transform). Cet
algorithme permet d'accélérer les calculs de la transformée de Fourier discrète et en
particulier peut être utilisé pour des vecteurs de très grande dimension. On l'utilise
dans plusieurs domaines d'application comme par exemple le traitement du signal,
l'approximation d'EDP par des méthodes spectrales etc.
16.6 Système linéaire associé à la spline cubique d'interpolation 267
Un problème d'interpolation
0
~
'~ 11 X - X; X;+ 1. - X
0
""'
·c:: a- (x) = Z;+1 Ll + z; ô ,
N
0 X; Xi
@ 'ro='
~
..c i::
0
en notant Llx; = X;+ 1 - x;. Si l'on intègre deux fois cette expression et que l' on
O'I
utilise les deux conditions d'interpolation u(x;) =y;, u(x;+ 1) = Yi+J, nous obtenons
i::
·c ~
>-
Cl. ·s..
0 0
(.) l'expression de u dans l' intervalle [x;,X;+i]:
u ....00
..c:
o.. (x - X;) 3 (Xi+ I - x) 3
ro
......l u(x) =z;+1 Llx; + z; Llx; +B;(x -x; )+A; , (16.15)
1 6 6
"O
0
i::
;:::s
avec
Q
@
268 16 •Exemples de systèmes linéaires
et pour i = n - l
.ÔXn-2 (.ÔXn-2 .ÔXn-1) _ .ÔYn-1 .ÔYn-2
Zn - 2 + + Zn - 1 - A
6 3 3 .uXn- J .ÔXn - 2
1
6
.ÔXn-3 2.ÔXn-3 + 2.ÔXn-2 .ÔXn-2
.ÔX 11 - 2 2.ÔX11 - 2 + 2.ÔX11 - J
(16.16
Cette matrice est tridiagonale et définie positive. Le problème d'interpolation dans S 3
-0 admet une solution unique.
0
c La spline cubique naturelle possède une propriété remarquable : elle minimise
::J
0
CX) l'intégrale fab u" (x )2 dx sur l'ensemble des fonctions u (suffisamment régulières) qui
0
0
N
vérifient les conditions d'interpolation u(x; ) = Yi.
@ La figure (16.5) montre une fonction spline cubique naturelle d'interpolation obte-
~
..c
OI
nue à partir de dix points d'interpolation. La représentation de courbes et surfaces par
·c
>- fonctions splines est couramment utilisée en modélisation géométrique et en CAO.
Cl.
0
u
16. 7 NOTES ET RÉFÉRENCES
L'algorithme de transformation de Fourier rapide FFT est présenté dans un article
célèbre de W. Cooley et John W. Tukey paru en 1965 [9] . Il semble cependant que cet
algorithme était déjà connu de C. Lanczos dès 1942.
16.7 Notes et références 269
1.5
0.5
- 0.5
-1
- 1.5 ~-~-~--~-~--~-~--~-~--~-~
Figu re 16.5 Spline cubique naturelle d'interpolation. Les points d'interpolation (x;, y;) sont notés
avec le symbole o.
Les méthodes de discrétisation par différences finies et par éléments finis sont
largement utilisées dans l'industrie.
On trouve de nombreux logiciels mettant en œuvre la méthode des éléments finis. On
peut citer un logiciel gratuit FreeFem++ et un gros logiciel professionnel NASTRAN
qui représente plusieurs milliers de lignes de code.
.... Les illustrations numériques ont été faites en utilisant le logiciel MATLAB .
-0 ~
0 "O
c i::
;:::s
::J
0 ....
CX)
""'
~
~
0 '~
0
N ""'
·c::
0
@ 'ro='
~
..c i::
0
O'I i::
·c ~
>-
Cl. ·s..
0
0 (.)
u ....00
..c:
o..
ro
......l
1
"O
0
i::
;:::s
Q
@
270 16 •Exemples de systèmes linéaires
EXERCICES
Exercice 16.1
On considère u = (u 1, ••• , u l
11 la solution discrète de l'équation de Poisson (16.4).
1. Déterminer l'expression de u à partir de la matrice A21 calculée à l'exercice
7.10.
2. Calculer une approximation de la valeur de la solution exacte du problème de
Poisson aux points xi = n~ 1 , i = 1, . . . , n , à l'aide de la formule intégrale
(formule du noyau de Green (16.2)) que l'on discrétise par la méthode des tra-
pèzes et en prenant pour subdivision de l'intervalle (0, 1] les points équidistants
Yj = 11 { 1 , j = 0, ... , n + l. Comparer avec la solution discrète obtenue à la
question précédente.
Cn - 1 Co CJ Cn - 2
C=
C2 Cn - 1 Co C1
C1 C2 C11- I Co
Gauss-Newton
et l'assimilation des données
L'algorithme de Gauss-Newton est une des méthodes les plus performantes pour
résoudre les problèmes des moindres carrés non-linéaires. Ce chapitre illustre une
application de cette méthode pour résoudre le problème d'assimilation des données
considéré en météorologie et en océanographje.
min G(x )
x EIR.11
où G est une fonction scalaire G : IRn ---+ IR. En effet, une solution x du problème est
obtenue comme zéro du gradient de G: \7G (x ) = O. L'itération de Newton est dans
ce cas donnée par
2 1
Xk+J = Xk - \7 G(xk)- \7G(x k) ,
où \72 G(xk ) est la matrice hessienne de G en Xk .
(17.1)
0
0
~
'~ x' (t) = f (x(t)) , (17.4)
N ""'
·c::
0
@ 'ro='
~
..c i::
0
que l'on doit intégrer à partir d'une valeur initiale x(to) = x 0 . On note t ~ x(t; x 0 )
O'I i::
·c ~ la trajectoire (appelée aussi vecteur d'état dans le langage du contrôle optimal) issue
>-
Cl. ·s..
0 0
(.) de la valeur initiale xo . Le vecteur d 'état x(t; xo) décrit les variables météorologiques
u ....00
..c: fondamentales sur l'ensemble des points de discrétisation du modèle. Il s'agit des trois
o..
ro
......l
composantes de la vitesse du vent (u , v , w), de la pression p, de la température Tet
1 de l'humidité q. Avec les besoins actuels de précision des modèles, on est amené à
"O
0
i::
;:::s
Q
@
274 17 ·Gauss-Newton et l'assimilation des données
)
-0
0
c
::J
0
CX)
0
0
N
La fonction quadratique G s'écrit donc
@
= 1cxo - T -1 1 T -1
~
..c G(xo) xb) B (xo - xb ) + cH xo - zo) R (H xo - zo) .
O'I
·c
>-
2 2
Cl.
0
u La valeur optimale i 0 est celle qui minimise G. Le calcul du gradient de G au point
xo donne
'VG(xo) = s - 1(xo - Xb) + H T R - 1(Hxo - zo).
On cherche donc x0 solution de \7 G(io) = O. Le système à résoudre est donc
(17.5)
17.3 Le problème de l'assimilation des données 275
Cette méthode d' assimilation est appelée 3D-Var, le suffixe Var pour Variationnel
et le préfixe 3D pour exprimer qu'il s'agit d'une analyse qui ne prend en compte que
l'information présente à un seul instant, donc uniquement spatiale, par opposition
à une analyse plus complète qui considère également la dimension temporelle (le
4D-Var) et quel' on va considérer dans la suite.
Le princi.pe de l'assimilation 4D-Var est de considérer non plus une image instanta-
née de l'atmosphère à l'instant t0 , mais un ensemble d'observations z;, i = 0 , ... , m,
obtenues à différents instants t; d'une fenêtre temporelle [t0 , tm] fixée. Ces valeurs Zi
sont comparées avec le vecteur d'état x(ti; xo) solution du modèle de prévision (17.4)
aux différents instants t; .
....
-0 ~
0 "O
c i::
;:::s Remarque 17.2. Il faut considérer que les instants sont des ins-
t 0 , ... , tm - I
::J
0 ....
CX)
""'
~ tants passés et t 111 l'instant présent, à partir duquel une nouvelle prévision sera
~
0 '~
0
""'
·c:: effectuée au terme de la phase d ' assimilation.
N
0
@ 'ro='
~
..c i::
O'I
0
i::
Le problème de l'assimilation des données s 'exprime à nouveau sous forme d'un
·c
>-
Cl.
~
·s.. problème de moindres carrés. La fonction g est donnée par
0 0
(.)
u ....00
..c:
g(xo) = (xo - Xb , Hox(to; xo) - zo, . . . , Hmx(tm; xo) - Zm)
o..
ro
......l
1 1. En pratique, sachant qu'il n'est possible d'effectuer qu'un nombre très limité d' itérations vue la taille
"O
0
i::
du problème, on utilise pour accélérer la convergence différents types de préconditionnements de ce
;:::s
Q système.
@ 2. Démontrer cette égalité en exercice.
276 17 ·Gauss-Newton et l'assimilation des données
S=~
2
R m-1
Il est naturel de considérer que les opérateurs Hi et Ri dépendent des instants ti.
La fonction des moindres carrés G s'écrit donc
Remarque 17.3. À partir de la valeur optimale obtenue io, la solution x(tm; io)
calculée à l'instant tm fournit la nouvelle condition initiale pour une prévision
effective initiée à l' instant tm.
Soit R(t , t') la résolvante 3 associée au système différentiel linéaire (17 .7). On a
min G(ôxo).
ôxo
VG(8x0 ) = O.
....
~
-0
0 "O La matrice M du système
c i::
;:::s
::J
0 ....
CX)
""'
~
~
0 '~
0
N ""'
·c::
0
@ 'ro='
~
..c i:: est définie positive. Dans ce cas également, la méthode la plus appropriée pour résoudre
0
O'I
·c i::
~
numériquement ce système est la méthode du gradient conjugué.
>-
Cl. ·s..
0
0 (.)
u ....00 Afin de pouvoir effectuer le produit matrice vecteur M ôx0 , pour tout vecteur ôx0 ,
..c:
o.. il est donc nécessaire d'interpréter les opérateurs qui définissent M. L'opérateur résol-
ro
......l
1
vant R(ti, t0 ) correspond à l'intégration de l'équation linéaire entre les instants t0 et
"O
0
i::
;:::s
Q 3. La résolvante associée à un système différen tiel linéaire est l'opérateur linéaire R (t , 11 ) tel que
1 1
@ y(t) = R(t , t )y(1 ) où y est solution du système différentiel considéré.
278 17 ·Gauss-Newton et l'assimilation des données
ti. Qu'en est-il de l 'opérateur R(ti, t0)T? On introduit pour cela le système adjoint
associé au système linéaire ( 17.7) :
d
dt (ôx(t) , p(t)) (ôx' (t ), p(t)) + (ôx (t) , p'(t))
Le calcul du gradient que nous avons présenté est un outil classique de la théorie
du contrôle optimal. Il est utilisé ici pour résoudre numériquement ce problème des
moindres canés non-linéaires de très grande dimension. Il est clair que dans la pratique
le système différentiel (17.4) est aussi discrétisé suivant la variable t. Les étapes de
calcul du gradient de la fonctionnelle G(x0 ) sont analogues à celles présentées ici.
Actuellement, plusieurs centres météorologiques utilisent cette approche pour ini-
tialiser les modèles de prévision numérique.
-0
0
c
::J
0
CX)
0
0
N
@
~
..c
O'I
·c
>-
Cl.
0
u
"O
0
c
:J
0
OO
0
0
N
@
~
..c
O'I
·;::::
>-
0..
0
u
Corrigés des exercices
Exercice 1.2. 1. Les colonnes de uv* sont viu, 1 !( i !( n, elles sont donc propor-
tionelles. L'une d'elles est i= 0 donc rang (uv * ) = 1. Réciproquement, si l'espace
image lm A est de dimension 1, les colonnes de A qui en forment une base sont
proportionnelles et l' une d'elles est non nulle. 2. (uv * )x = 0 pour tout x E u l. qui est
.... de dimension n - 1 et (uv * )u = (u , v) u. 3. Lorsque (u , v) i= 0 une base de u l. et u
~
-0
0 "O constituent une base de vecteurs propres de uv* qui est donc diagonalisable. Lorsque
c
(u , v) = 0, la seule valeur propre est 0 et comme uv* i= 0 cette matrice n'est pas
i::
;:::s
::J
0 ....
CX)
""'
~
diagonalisable.
c
~
0 '~
0
N ""'
·c::
~ib a~ ib ) Ji ( )
0
@ a b 1 1 l
~
..c
O'I
'ro='
i::
0
i::
Exercice 1.3. (
-b a ) =Ji - l
) ( a
1 - l
·c ~
>- ·s.. 2
af3
Cl.
0
u
0
(.)
....00
..c:
o..
Exercice 1.4. ( 1 +aaf3 1+132 )=
ro
0) j
......l
"O
0
i::
1 1+a2+ 132
0 1
1
a 2 + 132
(af3 -f3)
a ·
;:::s
Q
@
282 Corrigés des exercices
Exercice 1.5. Les valeurs propres et vecteurs propres associés sont 1 + llbll; et ( ~ ) ,
xy* A ) y* Au
Bu = A (u - u = Au - Ax .
y* Ax y* A x
4. Par 1., rang A - 1 ~ rang B ~ rang A. Si rang B = rang A alors dim Ker B =
djm Ker A, impossible par 3.
Exercice 1.15.1. Pour tout u E <Cn , Au = (y*u)x +(x*u )y donc lm A est de dimension
2 engendré par x et y . 2. Si u E (Im A)..l c'est-à-dire si x * u = y* u = 0 on a Au = 0
donc 0 est valeur propre et (lm A)..l est le sous-espace propre associé. Si u E lm A ,
u = ax + f3y, le système Au = Àu s'écrit
(x, y) - À llYll; ) ( a ) = ( 0 )
( llxll; (x,y)- À f3 0
Les valeurs propres À sont données par l'équation du second degré A2 - 2R (x, y) À+
2
1(x,y)1 - llx Il; Ily 11; = 0 qui possède deux racines réelles d'où À puis a et f3. Lorsque
2
x , y E R 11 cette équation s'écrit À2 - 2 (x , y) À+ l(x, y) l - llxll; llYll; = 0 et les
valeurs propres sont À = (x , y) ± llx 11 llYll - Des vecteurs propres correspondant sont
u = llYll x ± llx ll y. 3. lm Best le sous-espace engendré par x et y, sa dimension est
2, c'est un sous-espace invariant de <C11 par B. Les valeurs propres À de B 1rm 8 sont
2
données par l'équation caracté1istique A2 - 2i<;S (x, y) À - l(x, y) l + llxll; llYll; = O.
.... Les autres valeurs propres sont À = 0 associées au sous-espace propre (lm B)J... .
2
-0
0
~
"O Lorsquex ety sont réels on obtient À = ±i (llxll; llY ll; - l(x ,y) l ) 112 .
c i::
;:::s
::J
0 ....
CX)
""'
~ Exercice 2.1. Les flottants positifs sont :
~
0 '~
0
N ""'
·c::
0
@ 'ro='
~
..c i::
0
O'I i::
·c
>-
Cl.
~
·s.. avec e = - 1, 0 ou 1, 1 ~ d1 ~ 9 et 0 ~ d2 ~ 9. On obtient 270 nombres qui sont, en
0 0
u
(.)
Noter que ces nombres ne sont pas régulièrement espacés mais que leur espacement
est constant entre deux puissances consécutives de f3 = 10.
Exercice 2.3. On trouve O. Pour Maple, l ' instruction > evalf (3 . * (4. / 3. - l.) - l.);
donne - .uo- 18 . Noter la syntaxe : on a écrit 3. et non pas 3 de façon à ce que ces
nombres soient traités avec l'arithmétique flottante et non pas avec l ' arithmétique des
entiers.
max1 ~J ~11 E; = 1 l aiJ I · Ceci montre que llAll1 ;?: max1 ~ J ~11 E; = 1 laiJ I e t donc
1 1
llAxll oo ~ max1 ~i ~11 E ; = I laiJ I max1 ~J ~11 lx1 I = max1 ~i ~11 E ; = l laiJ I llxll oo ·
Corrigés des exercices 285
Ceci montre que llA 1100 ( max1 ~i ~n I:~=J lai.i I· Soit k un indice tel que
°"'n °"'11 ~
'-'j=l akj l - max 1~î~n'-'j=l 1aij l· Defimssons
1 - . le vecteur x -- (x1 , ... ,xn)T
tel que Xj = 1 si akj = 0 et Xj = lakj l/ akj si akj # O. On a llx lloo = 1
et I:~=J akjXj = I:~=t lakj l = max1 ~i~n I:~=J laij l· Ceci montre que
llAlloo ~ max1 ~i ~n I:~ = I lai.i l et donc l'égalité.
Exercice 3.3. Pour toute valeur propre À de A et tout vecteur propre associé x, x # 0,
on a Ax = Àx et donc llAx ll1 = l.A I llx ll1- On en déduit que et l.AI = llAx ll1 / llx li 1 (
llAllt · On obtient le résultat grâce à l'égalité llAll1 = max 1~j~n I:;'=t lai.i l (voir
exercice 3.2) .
Exercice 3.5. La matrice J donnée par la décomposition de Jordan (voir théorème 1.5)
a une structure diagonale par blocs. Chaque bloc J k est soit de la forme Jk = À k l 11k,
soit de la forme J k = Àk l 11k + N11k où N 11k E C"kxnk est la matrice nilpotente
0 l
0 1
0
1
0
Considérons la limite 1( J {)iJ l1I P lorsque p ~ oo. Pour les coefficients diago-
naux on a 1( J{)id 1I P = 1Àk1 et leur limite est égale à 1À k I· Les autres coefficients
l/p
non nuls sont de la forme (
f À:-
)
1
• Leur limite est égale à 1Àk1 puisque
1/p
limp- oo (
j )
= 1 et que limp- oo IAkl(p - l)/ p = IAkl· On conclut en utilisant la
propriété maxk,i ,J Iimp-oo = limp-oo maxk,i ,J .
Exercice 3.6. On a
Exercice 3.7. Les normes 11 -111, 11 -112, 11· lIoo sont des normes d'opérateur. Pour celles-ci
on a
Il l 11(X ) Il = 1
ll I11 li = sup
x E<C", x ;éO llxll .
-0
0
c
::J
Pour la no1me de Frobenius on a 11 In Il F = fa .
0
CX)
0
0
Exercice 3.8. La proposition 3.10 donne ll V ll2 = llV Inll2 = ll l nll2 = 1. Pour la
N
norme de Frobenius on a llVllF =y/trace (V*V) =y/trace Un)= Vn·
@
~
..c
OI Exercice 3.9. La matrice A est he1mitienne. Les valeurs de cette matr.ice tridiagonale
·c
>-
Cl.
sont égales à
0
u 4 + 2 cos(p1T / 4)
avec p = 1, 2 , 3 (voir exercice 1.13). Donc llAllz = p(A) = 4+2cos(7T/ 4) = 4+vl2.
Pour la norme de Frobenius on obtient llV llF = V 4 + 3 16 = J52.
Exercice 3.10. Si A est diagonale il est évident que les coefficients de sa diago-
nale sont ses valeurs propres. Réciproquement: supposons que A symétrique ait ses
Corrigés des exercices 287
Exercice 3.11. 1. On a N(x ) = a P- ' llxll2 + aP- 2llAxll2 + ... + l AP- 1xll2- Il est
évident que N (x) est une norme. 2. et 3. Par définition N (A) = supx=l=O NJt~) . On
vérifie que N(Ax ) = a N(x ) - a P llx112 +liA Px 112· D' autre part, pour tout x -:/= 0, on a
Exercice 3.12. On a llxy* 112 = J p(yx* xy * ) = llxll2 J p(yy* ). Par l'exercice 1.2 on
sait que l'unique valeur propre non nulle de la matrice de rang un yy* est égale à
(y, y) = li YIli -On conclut que llxy* 112 = llxll2 llYll2- Pour la norme de Frobenius on
a llxy* llF = J L:i L:1lxi YJl 2 = J L:i L:j lxd 2IY1 12 = ..JL:i lxd 2J L:j IY1 12 =
llxll2 llYll2- L'exercice 3.2 montre que
....
-0
0
~
"O et que
c i::
;:::s
::J
0 ....
""'
~ n n
CX)
0
0
N
~
'~
""'
·c:: llxy*ll =00 max L lxi YJ I = max lxd L. IYjl = max lxd llYll1 = llxlloo llY llt-
l ~i~n . l ~i~n l~i~n
@
0
'ro=' .1 =1 .1 =l
~
..c i::
0
O'I i::
·c ~
>-
Cl. ·s..
0 Exercice 3.13. Prenons H E <C11 xn tel que llHll < l / llA-'11 - On a alors
0 (.)
u ....
0
0
..c:
IlA - l H Il ~ 11A - 1111 H11< 1. Le théorème de pe1turbation de Neumann (proposition
o..
ro 3.14) montre que (/11 + A- 1H ) est inversible et donc aussi (A+ H) = A (111 +A - 1 H).
De Un + A- 1H)- 1 = L:~ 0 ( - l)k (A - 1 H)k = In - A- 1 H + (A- 1H)2 + ...
......l
1
Exercice 3.14. 1. Cette série est absolument convergente du fait que pour toute norme
multiplicative on a Il Ak/ k! Il :( Il A llk/ k! qui est le terme général d'une série conver-
gente. On a ainsi
OO Ak OO llA llk
~ - < ~ -= exp(ll A ll).
~ k! ---;: ~ k!
k= O k= O
Ai B j
Sk(A+B) = L -., -.,J.
l.
i+j ~ k
et
~ Ai Bj
~ ., J.., .
l .
k + 1 :( i + j :( 2k
l :(i , j:(k
On obtient la majoration
I: .1
l.
.1
l·
k + 1 :( i + .i :( 2k
l:(i , j:(k
-0
c
0 Le majorant est égal
::J
0
~~ ~M - ~ (llA ll + ll B ll)
1
CX)
0
0
N ~ i! ~ i! ~ l!
@ i=O i=O l=O
~
..c
O'I
·c et il converge vers zéro lorsque k ---+ oo en vertu de l'égalité exp( 11A11) exp( 11 B 11) =
>-
Cl. exp( llA ll + ll B ll). 4. La matrice - A commute avec la matrice A. On a d' une part
0
u exp(A +(- A)) = exp(A) exp(- A) et d'autre part exp(O) = ln d'où le résultat.
5. De l'égalité Ak = (PDP - 1)k = PDkp- i on déduit Sk(A) = PSk(D) P- 1
et le résultat par passage à la limite. 6. La décomposition de Jordan de la matrice
A , A = P J p - 1, montre que exp(A) = P exp(J)P- 1. La matrice exp(J) est tri-
angulaire supérieure et a pour coefficients diagonaux :Z:~o À i /i ! = exp(À), où À
est une valeur propre de A . 7. La décomposition de Jordan de la matrice A donne
Corrigés des exercices 289
. exp(hA) - 111
1I l l = A.
h-->O h
1
Exercice 3.15. Posons M = ( Q :. ) . On a M ' M lm
( A*
A
A * A+ l n
)
.
Considérons À une valeur propre de M * M. On a
X+ Ay = ÀX
{ A * X + (A*A + 111 )y = Ày
0
0
~
'~ inve rsible. Ainsi, l 'égalité précéde nte donne A * Ay = ((A2 - 2À + I ) / À) y. On
""'
·c::
N
0 observe également que y =!= 0 car sinon on aurait À = 1. On a ainsi (A2 - 2À +
@ 'ro='
~ l) / À = a.2 , où u est une valeur singulière de A. À est donc la solution positive
..c
O'I
·c
>-
i::
0
i::
~
·s..
de l'équation A2 - (2 + u 2 )A + l = 0 : À = (2 + u 2 + uv
u 2 + 4) / 2. La fonction
Cl.
0 0 s t---t (2 + x + x V + 4) / 2 est croissante sur IR+ . En considérant u max la plus grande
2
x2
J
(.)
u ....
0
valeur singulière de A et sachant que (2 + lT~ax + u max u~ax + 4) / 2 ~ 1, on a dans
0
..c:
o..
ro J
tous les cas (2 + u~ax + u max u~ax + 4) / 2 ~ À pour toute valeur propre de M * M
......l
1
d' où le résultat puisque IlA 112 = ( j max.
"O
0
i::
Q
;:::s
Exercice 3.16. Des égalités (voir exercice 3.2) llA ll1 = max1 ~j ~n E~r~ 1 laij l et
@
llA lloo = max1 ~i~m E ; = I laij l on déduit llA* lloo = max1 ~i~m L~ = l laji l = llAll 1·
290 Corrigés des exercices
Exercice 3.18. Considérons D la matrice diagonale obtenue à pai1ir des te1mes diago-
naux de A : D = diag(a 11 , ... , a11n)· On décompose A = D - M où - M est la matrice
des termes extra-diagonaux de A . On a A = D Un - D- 1M) et llD- 1 Miloc < l. Le
lemme de Neumann (proposition 3.14) montre alors que ln - v - 1 M est .inversible et
donc la matrice A également.
n 0 0
0 1 1
A2 =
0 1 1
est diagonale par blocs. Ses blocs sont le scalaire net la matrice n x n de rang l uur
où u = (1 , ... , ll. Les valeurs propres de cette matrice sont 0 et ur u = n (voir
exercice 1.2). On obtient donc llAll2= yfp(A* A) = .JP(A2) = n.
Exercice 3.20. Les valeurs propres de In + M*M sont égales à l + Ài où À i sont les
-0
valeurs propres (réelles et positives) de M * M. On a det(/n + M * M) =
1
= 1(1 +À;) fT
et llMll} = trace (M* M) = 'L:~ = 1 Ai· Considérons les réels positifs ai = 1 + Àï, i =
1
0
c
::J
0 1, ... , n. L' inégalité entre les moyennes géométriques et arithmétiques
CX)
0
0
N
@
~ (
IJ ai
Il ) 1/ Il
~
"'"'"
D i=l
n
ai
..c i =l
O'I
·c
>-
Cl.
0
(qui se démontre facilement à partir de la concavité de la fonction logarithme) donne
u le résultat.
Exercice 4.1. Soit À une valeur propre non nulle de AB. Il existe donc un vecteur x
non nul tel que ABx = Àx. On note que le vecteur Bx est distinct de zéro car sinon on
aurait À = O. En multipliant par B les deux membres de l'égalité on a BAB x = ABx.
Cette égalité montre que À est une valeur propre de BA et que Bx est un vecteur
propre associé. L'inclusion opposée s' obtient de manière identique. Lorsque m = n
on utilise l'égalité det(AB) = det(BA) = det(A) det(B) qui montre que si zéro est
valeur propre de AB alors c'est aussi une valeur propre de BA.
llAll2= O"max où O"max est la plus grande valeur singulière de A. La proposition 3.6
montre que p(A) ::;; llAll2-
Exercice 4.7. De l'égalité Ax = Àx avec À # 0 et x # 0 on déduit que x = AA - 1x
et donc le premier résultat. De même, l'égalité A * A x = u 2 x avec u # 0 et x f 0
montre que x = u 2 A - 1A-* x. 1/ u 2 est donc valeur propre de A - 1 A - * qui a même
spectre que A-* A - 1 .
1 + L;'=l lzi 1 Z1
2
Zn
Z1 1
Z *Z =
Zn 1
Z' Z = ( l +/ a2 ~ /32 ) .
Exercice 5.5. Les valeurs singulières de cette matrice hermitienne sont égales à a P =
la + 2lbl cos,~:; 1, l ( p ( n, en vertu de l'exercice 1.13 et cond2 A(a , b, b) =
(maxP a p)/ (min p a p).
Ui = ( 0.0001 1 ) U ( 1 1 )
0 9999 et 2 = 0 0.9999
Exercice 6.3. 1. L'inverse d' une matrice d'élimination est donné par
1
E(i , Ài+J , .. . , À,i)- = E(i , - À;+ 1 , ••• , - A,i). Le produit de k telles matrices
est la matrice triangulaire inférieure obtenue à partir de / 11 en y substituant
aux colonnes i 1 ... ik la colonne i 1 de E(i 1) .. . la colonne i k de E(ik) . 2. Si
E(ik) ... E(i 1)A = U alors A = LU avec L = E (i 1) - 1 ••• E (ik) - 1 qui s'obtient sans
calcul.
""'
·c::
u l.i = 0 puis, avec j = l et i > p , on obtient : li 1 = 0 et ainsi de suite.
N
0
@ 'ro='
~
..c i::
Exercice 7.1. 3. c;1 = l si j ( i, 0 sinon. La matrice c- 1 = (dij ) est donnée
0
O'I
·c i::
~
par dii = 1, d; i _ 1 = - 1 et 0 sinon. On obtient la matrice tridiagonale symétrique
>-
Cl. ·s..
0 A - J = (bij ) : bii = 2, bi+I i = b; i+ I = - 1 pour i = 1, .. . , n - 1 et b1111 = 1.
0 (.)
u ....00
..c:
o.. Exercice 7.2.1. Par récurrence : u, 1 =a, 1 > O. Si A = L U alors An-1 = L n- 1Un-1
ro
......l où les matrices An- J, Ln- J et U11 _ 1 sont obtenues à partir de A , L et U en supprimant
1
"O
0 la dernière ligne et la dernière colonne. Comme uii > 0 pour i = 1 ... n - 1 par
i::
Q
;:::s
l'hypothèse de recurrence, on a u 1111 > 0 parce que det A = u1 1 . . . u,1, 1 > O. On a
@ A = LU = A * = U *L * = (U *D - 1)(DL*) d'où L = U *D - 1 par unicité de la
294 Corrigés des exercices
2. Avec les notations del' exercice 6.4, la décomposition LU de B est donnée par L 8 =
L(E + a)a- 1 et UB = a; 1(F + a)U. On a DB = a ; 1dD et donc la décomposition
de Cholesky de B est donnée par
= L(E + a)d- 1(d ; 1dD) 112 = cA(D- 112(E + d)d- 112a ; 11 D 112 ).
2
cB
Exercice 7.3. 2. Si I:~=l ak'Pk(x) = 0 pour tout x E ]O, 1[ alors I:~=l akxak+P = 0,
p = 1/ 2 + n. Par dérivations successives et passage à la limite pour x ---+ 1 on obtient
I:~=I ak = I:~=l ak(ak + p) = . . . = I:~=l ak(ak + p) . . . (ak + p - n + 1) = 0 d'où
I:~=l akak = 0, l = 0 ... n - 1. Le déterminant de la matrice de ce système en les
ak est un déterminant de Vandermonde qui est non nul parce que les ak sont distincts.
Donc ak = 0 pour tout k et les fonctions 'Pk sont indépendantes.
Exercice 7.9. 1. Il faut montrer que f0 llexp(- t B)H exp(-t B) llz dt converge. Cette
00
0
exp(- 2tA,z)dt converge. 2.
Noter que P1t 11 est un ouvert de 1t11 • C est une application polynomiale donc C 00
et DC(B)H = lim ((B +eH)2 - B 2 ) / e = BH + HB. 3. C'est une conséquence
du théorème des fonctions inverses. Il faut prouver que DC(B) est un isomorphisme.
Si DC(B)H = BH + H B = 0, par diagonalisation de B = U DU* (D diagonale,
U unitaire) on se ramène à DK + K D = 0 avec K = U * HU. On a kij(Ài + Àj ) =
0 pour tout i et j d'où K = O. Ainsi DC(B) : 1t11 --+ 1t11 est injective et c'est
.... un isomorphisme. 4. Pour tout K E 7t11 on a D ( ~ K = (DC(B))- 1 K d'où
-0
c
0
~
"O
i::
DC(B)H = B H + H B = K . Pour prouver que H = J0
exp(- t B)K exp(- t B)dt il
::J
0
;:::s
.... faut montrer que cette intégrale satisfait à l'équation B H + H B = K. Comme
CX)
""'
~
0
~
'~ d
0
N ""'
·c:: B exp(-t B)K exp(-t B) + exp(- t B)K exp(-t B)B = - dt (ex p(-t B)K exp(-t B))
0
@ 'ro='
~
..c i:: on obtient
J.
0
O'I i::
·c ~
00
>-
Cl. ·s..
0 BH + H B = B exp( - 1B)K exp( - 1B) +exp( - 1B)K exp(- 1B)B =
0 (.)
u ....
0
0
..c:
o..
ro - exp(- t B)K exp(- t B) I~~~ = K.
......l
"O
1 Comme nous l'avons déjà vu,
f'
0
i::
Exercice 7.10. 1. Par développement par rapport aux dernières lignes et colonnes
on obtient det B2,11 = 2 det B2,11 -1 - det B2,n-2, det B2, 1 = 1 et det B 2,2 = 1 d'où
det B 2 ,11 = 1 pour tout n ~ 1.
1 1
- 1 1 0 1 1 0
C = c- I = 1 1 1
'
0
- 1 1 1 1 1
Exercice 8.5. Par récurrence sur n. Soit À une valeur propre de A et z, llzll 2 = 1, un
0
N
@
~
vecteur propre associé. Premier cas: À = ± 1 et z E ~n. Notons Q 1 = ( z Q 2 )
..c
O'I
·c
une matrice orthogonale dont la première colonne est z de sorte que QI z = O. On
>- ( ZT Az ZT A Qz )
Cl.
0
u
. T
aQ 1 AQ1 = QfA z Q{AQz = ( 0À A110_ 1 ) ouA11-
'
1estn- .1 xn-
1 orthogonale. En effet : zTAz = zT Az = À llzIl; = À, QI Az = Qf Az = 0,
(zT A Q2)r = QI A Tz = QI A- 1z = QI Az = O. Il suffit d'utiliser l'hypothèse
de récurrence pour conclure. Deuxième cas : A = exp(i 8), () =!= 0 et 'TT, z E <C'1 •
Posons z = x + iy ; on a Ax = x cos() - y sin 8 et Ay = y cos 8 + x sin 8. Noter
que x et y =!= 0 sont linéairement indépendants parce que sin 8 =f. O. Dans une base
Corrigés des exercices 297
/ du plan 0 xy on a A ( u
orthonormee v ) = ( u v ) ( _cos
sin8 sin 8 ) . S01t
cos .
8 8
Q1 = ( u v Q2 ) une matrice orthogonale obtenue en complétant la base (u , v).
On a: Qf AQi =
A~-1
cos 8 sin 8 )
(u v)TA(u v) ( u V )T A Q2 ) ( ( - sin 8 cos 8
( Q{ A ( u V ) QfAQ2 0 )
p 1ei81 p 3ei83 )
Exercice 8.8. 1. U = ( ï ; avec p; ~ 0, PT + p~ = p~ + p~ = l
p2e 82 p4e 84
....
-0 ~ et p 1p 3 ei(e , -B 3 ) + p2p4ei<B2 -B 4 ) = O. Cette dernière équation impose PtP3 = p2p4
0 "O
c i::
;:::s et 82 - 84 = 83 - 81 modulo (21T). Prenons p 1 = cos a, p 2 = sin a, p3 = sin /3,
::J
....
0
CX)
""'
~ p4 =cos f3 avec 0 ~ a, f3 ~ 1T / 2. Comme P1P3 = P2P4 on a a = {3. La condition sur
~
0
0
'~ les Bi permet d'obtenir 84 = 82 + 83 - 8 1 - 1T (modulo 27T). On prend donc 8 1 = u ,
N ""'
·c::
@
0 82 = r +'TT, 83 = v, 84 = r + v - u. 2. U E §UJ11 lorsque <let U = ei(T+v) = 1
'ro='
~
..c i:: c'est-à-dire lorsque v = - r.
0
O'I i::
·c ~
>-
Cl. ·s..
0
0 (.)
u ....00
..c:
o..
ro
......l
1
"O
0
i::
;:::s
Q
@
298 Corrigés des exercices
T
Exercice 9.2. Si L = x ( X1 . . . x 11 ) =!= 0 alors (cas injectif)
L t = (L* L)- 1 L * = x* / llxll; .
Exercice 9.3. A est un opérateur de rang 1, (Ker A)1- = Cy et lm A = Cx . Soit z E
C11 ; sa projection orthogonale sur lm A est II1m AZ = x \z,x) / llxll;. On recherche
l_ t l A - II 0 bt. t - (z,x)y -
u E (Ker A) e que u - lm AZ· n ° yx*z
ien u - llxll~llYll~ - llxll~ ll Y ll~ ·
Exercice 9.7. 1. Puisque les valeurs propres de A* A sont en nombre fini, il existe
un disque centré en 0 qui ne contient pas de valeurs propres sauf éventuellement O.
Ajnsi t !11 +A* A est inversible pour tout t =!= 0 dans ce disque. Idem pour AA *. 2. Par
une décomposition en valeurs singulières A = Vl.U * on obtient (t l n + A * A )- 1 A* =
U(t In+ l.*l.)- 1l.*V *. Un calcul direct montre que lim1_ 0 (t In+ l.*l.)- 1l.* = l.t .
Exercice 9.9. lm A
Ker A {x E JR3 :
{ x1 ( 1
x 1 = x 2 = 0 },
1 0 ) T + x2
(Ker A)1-
( 1 0 1 ) T : x,, x 2 E 1R ,
{x E JR3 : x3 = 0 ,
1
-0
2b l + b2 + b3 )
c
0 b = ~ b 1 + 2b2 - b3 , les solutions du sytème Ax = b sont x
::J ( b, - b2 + 2b3
0
CX)
0
0
b 1 + 2b2 - b3 )
N ~ b 1 - b2 + 2b3 et la solution de norme mjnimale correspond à x 3 = O.
@ (
~ X3
..c
O'I
·c
>-
Cl.
Exercice 9.10. L'identité (A+ E)x' = b donne A(x -x') = Ex' d'où llA(x - x')ll 2 :(
0
u IlEllFllx'll 2. On prend ensuite E = A(x - x')x'* / llx'll; et l'on vérifie facilement que
(A+ E)x' = b et que llEllF = l A(x' - x)ll2 / llx'll2·
-0 ~
.... Exercice 9.13. 1. infxEC" Il Ax - b 11; + p llx11; = infxEC" ( ~!,. ) X - ( ~ ) :
c
0 "O
i::
;:::s
L'équation normale de ce dernie r problème est (A * A + pl,i)x = A *b d ' où Xp =
::J
0 .... (A* A+ p/11 ) - 1 A * b. Noter que les valeurs propres de A * A+ pl11 sont <rÎ + p > 0 où
""'
~
<TT ~ ... ~ <r~ ~ 0 sont les valeurs propres de A * A. 2. ll Axp - bll~ + p l lxP ll ~ (
CX)
~
0 '~
0
""'
·c::
llAxp' - b ll ~ + P llxp Il~ ( llAxp bll~ + p' llxp I l~ . D 'autre part Xp = (A * A +
N
0 1 1 - 1 1
@ 'ro='
~
..c i::
p' l ,i)- 1( A * A+ pl11 )xp . Les valeurs singulières de cette matri.ce sont (<rÎ + p )/ (<rÎ +
0
O'I
·c i::
~
p') ( 1, 1 ( k ( n , donc llxp' 11 2 ( llxPll 2 et llA xp - bll 2 ( ll A xp' - b ll2 . 3.
>-
Cl. ·s..
0 limp-+OXp = limp-+o(A * A+ p/11 ) - 1 A * b = At b = x 0 par l' exercice 9.7.
0 (.)
u ....00
..c:
o.. Exercice 9.14. Raisonner comme dans l' exercice 9.12.
ro
......l
1
"O
0
Exercice 10.1. 1. La matrice J de la méthode de Jacobi est égale à
i::
;:::s
Q J _ ( 0 - a12 / a1 1 )
@
- -a2if a22 0
300 Corrigés des exercices
J = ( - K
0 -K)
0 '
-K)
K2
et
0 ) ( (1 - UJ)h
/2 0 ) = (
Xk 3 + Xk 4 1
-0
0 Xk+ 1,i = ' ' +l
c
::J
4
0
CX)
0
pour i = 1, 2, et
0 Xk, I + Xk,2 1
N
@
Xk+ l ,i = 4
+l
~
..c
O'I
·c
pour i = 3, 4. Sachant que xo,i = 0, on obtient xk ,i = I::=l (1 /2Y = (1 - (1 /2i) pour
>-
Cl. toutes les coordonnées i. Pour la méthode de Gauss-Seidel, les coordonnées i = 1, 2
0
u suivent la récurrence
Xk 3 + Xk 4 }
Xk+l,i = ' ' +-
4 2
et les coordonnées i = 3, 4 la récurrence
Xk 3+ Xk 4 3
Xk+l ,i = ' S ' +-
4
Corrigés des exercices 301
Exercice 10.4. 1.a Évident à partir de l'égalité Bx = Àx. 1.b La question précédente
montre que { À 2 , À E spec (B)} c spec (B 1B2 ) , et ainsi p(B)2 ~ p(B 1B2 ). 1.c
Réciproquement, soitµ E spec (8 18 2 ) , µ # 0 et À tel que À2 = µ.Il existe x # 0 tel
que B 1 B2x = µ x . Définissons y = (1 / À) B2x. On a y # 0 et B 1y = (1 / À) B 1 B2x =
Àx. À vérifie donc B2x = Ày et B 1 y = Àx. On voit que À est valeur propre de B. On
a donc p(B 1B 2 ) c p(B)2 . 2.a On a
....
-0 ~
0 "O
c i::
;:::s
::J
0 .... J = (
CX)
""'
~
~
0 '~
0
N ""'
·c::
et donc p(J) = Jp(D i 1 A 1D2 1 A 2 ) d ' après la question précédente. 2.b Par identifi-
0
@ 'ro='
~
..c
O'I
i::
0 cation on obtient facilement l' expression de l'inverse :
i::
·c ~
>-
Cl. ·s..
D~' )
0 0
(.)
u ....00
..c:
o..
ro
......l
1 On obtient
"O
0
i::
;:::s
Q
@
302 Corrigés des exercices
2.c Pour w = 1 on a
Exercice 10.6. 1. L'itération s'écrit Xk+J = (111 - aA)xk +ab. Notons A1 ~ ••• ~
À 11 > 0 les valeurs propres de A. Les valeurs propres de la matrice Ba = Un - aA)
sont de la forme 1 - aÀi pour tout i = 1, ... , n. Le graphe des différentes fonctions
a f--7 l1- aÀi 1 montre que pour a E]O, 2/ A1[la méthode est convergente. 2. Le graphe
Corrigés des exercices 303
des fonctions montre que la valeur optimale de p(Ba) est obtenue pour a solution de
1 - aÀ11 = aÀ1 - 1 c ' est-à-dire a = 2/ (À 1+ À11 ).
Exercice 11.1. 1. La dérivée de la fonction p f---+ llx - (xk - p(Axk - b)) Il~ vaut
(A(x - xk +p(Axk - b)), Axk- b). À l'optimum on a donc Pk (A(Axk- b) , Axk - b) =
( Axk - b, Axk - b) et pk = ( rk, rk) / ( Ark, r k). Par ailleurs, la dérivée de la fonction
p f---+ q(xk - p(Axk - b)) est égale à -(A(xk - p(Axk - b)), Axk - b) + (b, Axk - b)
et on retrouve la valeur Pk à l'optimum. De l'égalité Xk+l = xk - Pk( Axk - b) on
déduit Axk+J - b = Axk - b - PkA(Axk - b) et donc (Axk+J - b , Axk - b) =
(Axk - b , Axk - b) - Pk(A (Axk - b) , Axk - b) . La valeur de Pk montre que
(Axk+1-b , Axk-b) = O. 2. À partir de llx-xk+1 li~= l l x-xk +Pk (A xk-b) l l ~ etde la
valeur de Pk on tire llx - xk+J I l ~ = l l x - xk l l ~ +p~ l l Axk - b l l ~ +2pk (A(x - xk) , Axk- b)
2
et llx - Xk+t l i ~ llx - xk l l ~ - (rki rk) / (Arki rk)· On remarque que
llx - xkll~ = (A(x - xk ) ,x - xk) = (rki A - 1 rk) = ( A - 1 rk,rk) · On obtient
donc l'égalité llek+1 l l ~ l l ekll~ (1- (rk , rk ) 2 / ((Ark , rk ) (A- 1rkirk))).
L'inégalité de Kantorovitch donne (1- (rkirk) 2 / ((Arkirk) (A - 1rkirk) )) ~
1/2 + (cond A)- 112) 2 = (cond A - 1)2 / (cond A + 1)2, qm.
( 1 - 4 / ( (cond2 A)) 2 2 2
implique le résultat. La majoration de l'erreur obtenue pour le gradient conjugué est de
la forme ( vcond2A - 1) / ( vcond2A + 1). On a ( y'x - l)/ (y'x + 1) ~ (x - l)/ (x + 1)
pour tout x ~ l . La vitesse de convergence méthode du gradient conjugué est donc
supérieure à la vitesse de la méthode du gradient à pas optimal.
est clair que cette expression a pour limite 0 lorsque T tend vers l'infini parce que
~(Àk) < 0 pour tout k. Même chose pour exp(T A* ) puisque les parties réelles des
Exercice 14.2. Soit (xk) une base de vecteurs propres de A . On écrit que z = aPxP +
... + œnXn avec 1 ( p ( n et ap =F O. On a alors Zk = Akz/ 11Akz ll2, Akz =
aµÀtxp + . . . + a 11 À~x 11 et l'on montre que limk--+oo dµ(Zki xµ) = O.
llllvf ll2 ll 11vf o 11v1 112 ~ llllvf o 11v2l l2 + llllvt- o llv, 112 = d(V2, V3)+d(V1' V2).
9. Facile. 10. Provient de 9. 11. d(V1 EB V2, W) =
llllw j_ v1 lb + llllwj_ v2 ll2 ~ llllw j_ 0 11v1 ll2 llv1112 + llllw j_ 0 11v2ll2 llv2 ll2 ~
max(d(V1 , W), d(V2, W))Cl lv1 ll2+ llv2 ll2) ~ max(d(V1, W), d(V2, W))J2 llv1 + v2ll 2 .
13. d(V , W) est la plus grande valeur singulière de llw j_ o ll v = llv - llw o llv et,
de la même manière, d(W, V) est la plus grande valeur singulière de llv j_ o llw =
11w- 11v o l1w. Soit Q une transformation unitaire, involutive (Q 2 = idn) et telle que
Q V = W. On a 11 w = Q o 11 v o Q donc 11 v -11 w o 11 v = 11 v - Q o 11 v o Q o 11 v
et llw - llv o llw = Q o (llv - Q o llv o Q o llv) o Q de sorte que llwj_ o llv
et llvj_ o llw ont les mêmes valeurs singulières. L'existence d'une involution qui
« rabat » V sur W est admise. Dans le cas de droites on peut prendre une symétrie
orthogonale. 14. C'est une conséquence de 5, 6, 8 et 13.
Exercice 14.5. Puisque A - µ!11 n' est pas inversible, on peut prendre A - µ12 = QR
-0 avec R = ( u v ) . Mais . alors R Q + µ/z = ( u' v' µ ) .
c
0
0 0 0
::J
0
CX)
0
Exercice 15.1. 1. L'égalité est évidente pour j = 1, ... , k - l puisque Kk(A, v) est le
0
N sous-espace vectoriel généré par les vecteurs v, Av, A 2v, ... , A k- l v. Pour j = k on a
@ PkAkv = PkAAk-tv = (PkAPk) PkAk-lv = (PkAPk)(PkAPkl- 1 v = (PkAPk)kv.
~
..c
O'I
""k .
Pour tout polynôme p E Pb p(x) = Llj=Oajx 1 , on a Pkp(A)v = Llj=Oai PkA 1 v = ""k .
·c
>-
Cl. E~= 0 aj(PkAPk)iv = p(PkAPk)v. 2. Sachant que Pk = QkQk , on vérifie faci-
0
u lement que (PkAPk)i = Qk(Q'k A Qk)i Q'k pour tout j. On a donc PkPk(A)v =
Pk(PkAPk)v = Qk Pk(Q'k AQk) Q;v. D' après le théorème de Cayley-Hamilton 1.2 on
a Pk(Q'kAQk) = 0 et donc PkPk( A)v = O. 3. On a (pk( A)v , Pkw) = ( PkPk(A )v, w)
pour tout w E C11 • Sachant que PkPk( A )v = 0 par la question précédente et que
Pku = u pour tout u E Kk(A, v) , on a donc \pk(A)v , u) = 0 pour tout u E Kk(A, v).
L'espace affine i\ est égal à Pk- I + xk où Pk- 1 est l'espace vectoriel des polynômes
Corrigés des exercices 307
mi!1 llp(A)vll~
pEPk
Exer cice 16.2. On voit que le coefficient j l de C est donné par C[t-.iJ où [l - j] est le
représentant compris entre 0 et n - 1 del - j dans le groupe additif Z/nZ. Calculons
le coefficient jk du produit C<P. On a (C<P)jk = L;
1
=1 C[t-n <JL-l)(k- t ) . Pour que la
colonne k de <P soit un vecteur propre de C il faut qu'il existe un scalaire À k tel que
(C<P)jk = À k lù(j - l)(k - l), pour tout j = 1, ... , n. En multipliant les deux membres de
cette égalité par lù-(.i-l)(k-l) on obtient À k = L;
=1 eu- .i]lù(l-.i)(k- I) . On va montrer
1
qu~ cette somme ne dépend pas de j . Pour cela on partage la. somme en deux :
'°'1 - 1 et
L,../=l
'°'n ..
L,..[=.1
'°'n . '°'n-;
On a d'une part L,../=.1 c [l _ J]· w <L-.i)(k- J) = L,..[=0 cl w 1Ck-I) ' d'autre
art '°'j- 1c . w <l-j)(k-1) -- L,..[=I
'°'j-1 c [n+l - J]. w <n+L-j)(k-1) -- '°'11 -1 c w L<k-1) · En
.... P L,..[=l [l - J] L,../=n-j+J l
-0 ~
"O
définitive Àk = L;1~d Ct w1 (k - l) . Les valeurs propres Ài de C sont données par
0
c i::
;:::s
::J
....
~o
0
CX)
""'
~
~
0
0
N
'~
""'
·c:: A1 ) = <P ( )
@
0
(
~
'ro=' Àn Cn - 1
..c i::
0
O'I i::
·c ~
>-
Cl. ·s..
0
0 (.)
u ....00
..c:
o..
ro
......l
1
"O
0
i::
;:::s
Q
@
"O
0
c
:J
0
OO
0
0
N
@
~
..c
O'I
·;::::
>-
0..
0
u
Bibliographie
[1] ANDERSON E . AND AL., LA.PACK User's Guide, second edition, SIAM, 1995.
[2] ARNOLDI W. E., The principle of minimized iteration in the matrix eigenproblem,
Quart. Appl. Math., 9, pp. 17-29, 1951.
[3] BAI Z. AND AL., Templates for the Solution ofAlgebraic Eigenvalue Problems -
A Practical Guide, SIAM, 2000.
[4] BAJARD J. -C., J. -M. MULLER, Calcul et arithmétique des ordinateurs, Lavoi-
sier, 2004.
(14] GOLUB G., Numerical methodsfor solving least squares problems, Num. Math.,
7,pp. 206-216, 1965.
[15] GOLUB G., C. VAN LOAN, Matrix Computations, third edition, The Johns Hop-
kins University Press, 1996.
[18] HIGHAM N., Accuracy and Stability of Numerical Algorithms, SIAM, Second
Edition, 2002.
[19] HOUSEHOLDER A., The Theory of Matrices in Numerical Analysis, Dover, 1964.
(20] KRYLOV A. N., On the numerical solution of the equation by which in technical
questions frequencies of small oscillations of mate rial systems are determined,
Otdel. mat. i estest. nauk, VII, Nr.4, pp. 491-539, 1931 (in Russian).
(22] LANCZOS C., An iteration method for the solution of the eigenvalue problem
of linear differential and integral operators, J. Res. Natl. Bur. Stand. 45, pp.
225-280, 1950.
-0
[23] LAURENT P.-J., Approximation et optimisation, Hermann, 1972.
0
c
::J
0 [24] LEHOUCQ R. B. AND AL.,ARPACK Users' Guide: Solution of Large Eigenvalue
CX)
0 Problems by Implicitly Restarted Arno/di Methods, SIAM, 1998.
0
N
@ [25] MULLER J.-M., Arithmétique des ordinateurs, Masson, 1989.
~
..c
O'I
·c [26] MüNTZ C., Solution directe de l'équation séculaire et de quelques problèmes
>-
Cl.
0 analogues transcendants, Comptes Rendus Acad. Sei. Paris, pp. 43-46, 1913.
u
[27] PARLETT B. N., The new qd algorithms, Acta Numerica, Cambridge Univ. Press,
Vol. 4, pp. 459-491 , 1995.
[28] RUTISHAUSER H., Une méthode pour la détermination des valeurs propres
d'une matrice, Comptes Rendus Acad. Sei. Paris, 240, pp. 34-36, 1955.
Bibliographie 311
(29] SAAD Y., Iterative Methods for Sparse Linear Systems, Second Edition, SIAM,
2003.
(30] SAAD Y., Numerical Methods for Large Eigenvalues Problems: Theory and
Algorithms, John Wiley, 1992.
[34] STEWART G. W., J.-G. SUN, Matrix Perturbation Theory, Academic Press,
1990.
[35] TURING A., Rounding-o.f/ Errors in Matrix Processes, Quart. J. Mech. Appl.
Math. 1, pp 287-308, 1948.
[37] WILKINSON J. H., The Algebraic Eigenvalue Problem, Clarendon Press, 1965.
-0
0
c
::J
0
CX)
0
0
N
@
~
..c
O'I
·c
>-
Cl.
0
u
"O
0
c
:J
0
OO
0
0
N
@
~
..c
O'I
·;::::
>-
0..
0
u
Index
équation matrice
Lyapunov 220 échelonnée 79
normale 149 élémentaire 71
Poisson 259 élimination 72
Sylvester 217, 218 antisymétrique 11
erreur inverse 56 bande 85
espace Cauchy 101 , 223
euclidien 8 circulante 270
hermitien 7 compagnon 20
creuse 161, 195
préhilbertien 8
définie négative 94
préhilbertien complexe 7
définie positive 87
projectif complexe 226
diagonale par blocs 12
exponentielle de matrice 43
diagonale strictement dominante 44, 168
diagonalisable 4
F Fourier 265
hermitienne 8
fonction résidu 146 Hessenberg 121
formulation variation nelJe 262 Hessenberg non réduite 129
formule de Sherman-Morrison-Woodbury 15 Hilbert 89
Householder 116
normale 10
G orthogonale 10
Gershgorin 203 par blocs 12
grassmannienne 232 permutation 76
groupe racine carrée 95
linéaire 2 raideur 263
orthogonal l 0 semblables 4
rotations l 0 semi-définie positive 87
spécial orthogonal 10 sous-matrice 2
-0 spécial unitaire 9 stable 220
0
c unitaire 9 Stiefel 107
::J
0 symétrique 9
CX)
0 transposition 76
0
N 1 triangulaire inférieure par blocs 12
@ triangulaire supérieure par blocs 12
~
..c image 2
O'I
triangularisable 5
·c inégalité de Cauchy-Schwarz 7
>- tridiagonale 124
Cl.
0
interpolation polynomiale 265 unitaire 9
u inverse de Moore-Penrose 142 Vandermonde 264
inverse généralisé 142 méthode
différences finies 260
directe 161
M
Gauss-Newton 272
maillage 263 GMRES 181
Index 315
R T
rang 2 trace 6
rayon spectral 35
résidu minimum 146
rotation de Givens 113 u
Ullderfiow 26
s unité d'arrondi 26
sous-espace caractéristique 5
sous-espace iuvariaut 213
complémentaire 214 V
simple 214
sous-espace propre 4 valeur de Ritz 252
spectre 3 valeur propre 3
splines cubiques naturelles 267 valeur singulière 47
système vecteur d'état 273
sous-déterminé 146 vecteur de Ritz 252
surdéterminé 146 vecteur propre 4