Université Aix Marseille 1

Licence de mathématiques
Cours d’Analyse numérique
Raphaèle Herbin
20 août 2010
Table des matières
1 Systèmes linéaires 4
1.1 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Quelques rappels d’algèbre linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Norme induite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 Rayon spectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.3 Matrices diagonalisables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Les méthodes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.2 Méthode de Gauss et méthode LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.3 Version programmable des algorithmes de Gauss et LU pour un système carré . . . . . . . 12
1.3.4 Méthode de Choleski . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.5 Quelques propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.4 Conditionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.4.1 Le problème des erreurs d’arrondis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.4.2 Conditionnement et majoration de l’erreur d’arrondi . . . . . . . . . . . . . . . . . . . . 21
1.4.3 Discrétisation d’équations différentielles, conditionnement “efficace" . . . . . . . . . . . 23
1.5 Méthodes itératives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.5.1 Origine des systèmes à résoudre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.5.2 Définition et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.5.3 Méthodes de Jacobi, Gauss-Seidel et SOR/SSOR . . . . . . . . . . . . . . . . . . . . . . 30
1.5.4 Recherche de valeurs propres et vecteurs propres . . . . . . . . . . . . . . . . . . . . . . 36
1.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.7 Suggestions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
1.8 Corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
2 Systèmes non linéaires 84
2.1 Les méthodes de point fixe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
2.1.1 Point fixe de contraction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
2.1.2 Point fixe de monotonie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
2.1.3 Vitesse de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
2.2 Méthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
2.2.1 Construction et convergence de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . 91
2.2.2 Variantes de la méthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
2.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
2.4 Suggestions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
2.5 Corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
1
TABLE DES MATIÈRES TABLE DES MATIÈRES
3 Optimisation 122
3.1 Définitions et rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
3.1.1 Définition des problèmes d’optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
3.1.2 Rappels et notations de calcul différentiel . . . . . . . . . . . . . . . . . . . . . . . . . . 122
3.2 Optimisation sans contrainte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
3.2.1 Définition et condition d’optimalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
3.2.2 Résultats d’existence et d’unicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
3.3 Algorithmes d’optimisation sans contrainte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
3.3.1 Méthodes de descente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
3.3.2 Algorithmes du gradient conjugué . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
3.3.3 Méthodes de Newton et Quasi–Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
3.3.4 Résumé sur les méthodes d’optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
3.4 Optimisation sous contraintes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
3.4.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
3.4.2 Existence – Unicité – Conditions d’optimalité simple . . . . . . . . . . . . . . . . . . . . 142
3.4.3 Conditions d’optimalité dans le cas de contraintes égalité . . . . . . . . . . . . . . . . . . 143
3.4.4 Contraintes inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
3.5 Algorithmes d’optimisation sous contraintes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
3.5.1 Méthodes de gradient avec projection . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
3.5.2 Méthodes de dualité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
3.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
3.7 Suggestions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
3.8 Corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
4 Equations différentielles 186
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
4.2 Consistance, stabilité et convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
4.3 Théorème général de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
4.4 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
4.5 Explicite ou implicite ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
4.5.1 L’implicite gagne... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
4.5.2 L’implicite perd... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
4.5.3 Match nul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
4.6 Etude du schéma d’Euler implicite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
4.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
4.8 Corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
Analyse numérique I, Télé-enseignement, L3 2 Université Aix-Marseille 1, R. Herbin, 20 août 2010
Introduction
L’objet de l’analyse numérique est de concevoir et d’étudier des méthodes de résolution de certains problèmes
mathématiques, en général issus de la modélisation de problèmes “réels", et dont on cherche à calculer la solution
à l’aide d’un ordinateur.
Le cours est structuré en quatre grands chapitres :
– Systèmes linéaires
– Systèmes non linéaires
– Optimisation
– Equations différentielles.
On pourra consulter les ouvrages suivants pour ces différentes parties (ceci est une liste non exhaustive !) :
– P.G. Ciarlet, Introduction à l’analyse numérique et à l’optimisation, Masson, 1982, (pour les chapitre 1 à 3 de ce
polycopié).
– M. Crouzeix, A.L. Mignot, Analyse numérique des équations différentielles, Collection mathématiques appli-
quées pour la maitrise, Masson, (pour le chapitre 4 de ce polycopié).
– J.P. Demailly, Analyse numérique et équations différentielles Collection Grenoble sciences Presses Universi-
taires de Grenoble
– L. Dumas, Modélisation à l’oral de l’agrégation, calcul scientifique, Collection CAPES/Agrégation, Ellipses,
1999.
– J. Hubbard, B. West, Equations différentielles et systèmes dynamiques, Cassini.
– P. Lascaux et R. Théodor, Analyse numérique matricielle appliquée à l’art de l’ingénieur, tomes 1 et 2, Masson,
1987
– L. Sainsaulieu, Calcul scientifique cours et exercices corrigés pour le 2ème cycle et les éécoles d’ingénieurs,
Enseignement des mathématiques, Masson, 1996.
– M. Schatzman, Analyse numérique, cours et exercices, (chapitres 1,2 et 4).
– D. Serre, Les matrices, Masson, (2000). (chapitres 1,2 et 4).
– P. Lascaux et R. Theodor, Analyse numérique sappliquée aux sciences de l’ingénieur, Paris, (1994)
– R. Temam, Analyse numérique, Collection SUP le mathématicien, Presses Universitaires de France, 1970.
Et pour les anglophiles...
– M. Braun, Differential Equations and their applications, Springer, New York, 1984 (chapitre 4).
– G. Dahlquist and A. Björck, Numerical Methods, Prentice Hall, Series in Automatic Computation, 1974, Engle-
wood Cliffs, NJ.
– R. Fletcher, Practical methods of optimization, J. Wiley, New York, 1980 (chapitre 3).
– G. Golub and C. Van Loan, Matrix computations, The John Hopkins University Press, Baltimore (chapitre 1).
– R.S. Varga, Matrix iterative analysis, Prentice Hall, Englewood Cliffs, NJ 1962.
Ce cours a été rédigé pour la licence de mathématiques par télé-enseignement de l’université d’Aix-Marseille 1.
Chaque chapitre est suivi d’un certian nombre d’exercices. On donne ensuite des suggestions pour effectuer les
exercices, puis des corrigés détaillés. Il est fortement conseillé d’essayer de faire les exercices d’abord sans ces
indications, et de ne regarder les corrigés détaillés qu’une fois l’exercice achevé (même si certaines questions n’ont
pas pu être effectuées), ceci pour se préparer aux conditions d’examen.
3
Chapitre 1
Systèmes linéaires
1.1 Objectifs
On note M
N
(IR) l’ensemble des matrices carrées d’ordre N. Soit A ∈ M
N
(IR) une matrice inversible, et b ∈
IR
N
, on a comme objectif de résoudre le système linéaire Ax = b, c’est à dire de trouver x solution de :

x ∈ IR
N
Ax = b
(1.1.1)
Comme A est inversible, il existe un unique vecteur x ∈ IR
N
solution de (1.1.1). Nous allons étudier dans les
deux chapitres suivants des méthodes de calcul de ce vecteur x : la première partie de ce chapitre sera consacrée
aux méthodes “directes" et la deuxième aux méthodes “itératives". Nous aborderons ensuite en troisième partie les
méthodes de résolution de problèmes aux valeurs propres.
Un des points essentiels dans l’efficacité des méthodes envisagées concerne la taille des systèmes à résoudre. Entre
1980 et 2000, la taille de la mémoire des ordinateurs a augmenté de façon drastique. La taille des systèmes qu’on
peut résoudre sur ordinateur a donc également augmenté, selon l’ordre de grandeur suivant :
1980 : matrice “pleine” (tous les termes sont non nuls) N = 10
2
matrice “creuse” N = 10
6
2000 : matrice “pleine” N = 10
6
matrice “creuse” N = 10
8
Le développement des méthodes de résolution de systèmes linéaires est liée à l’évolution des machines infor-
matiques. Un grand nombre de recherches sont d’ailleurs en cours pour profiter au mieux de l’architecture des
machines (méthodes de décomposition en sous domaines pour profiter des architectures parallèles, par exemple).
Dans la suite de ce chapitre, nous verrons deux types de méthodes pour résoudre les systèmes linéaires : les
méthodes directes et les méthodes itératives. Pour faciliter la compréhension de leur étude, nous commençons par
quelques rappels d’algèbre linéaire.
1.2 Quelques rappels d’algèbre linéaire
1.2.1 Norme induite
Définition 1.1 (Norme matricielle, norme induite) On note M
N
(IR) l’espace vectoriel (sur IR) des matrices
carrées d’ordre N.
4
1.2. QUELQUES RAPPELS D’ALGÈBRE LINÉAIRE CHAPITRE 1. SYSTÈMES LINÉAIRES
1. On appelle norme matricielle sur M
N
(IR) une norme · sur M
N
(IR) t.q.
AB ≤ AB, ∀A, B ∈ M
N
(IR) (1.2.2)
2. On considère IR
N
muni d’une norme · . On appelle norme matricielle induite (ou norme induite) sur
M
N
(IR) par la norme · , encore notée · , la norme sur M
N
(IR) définie par :
A = sup{Ax; x ∈ IR
N
, x = 1}, ∀A ∈ M
N
(IR) (1.2.3)
Proposition 1.2 Soit M
N
(IR) muni d’une norme induite · . Alors pour toute matrice A ∈ M
N
(IR), on a :
1. Ax ≤ A x, ∀x ∈ IR
N
,
2. A = max
¸
Ax ; x = 1, x ∈ IR
N
¸
,
3. A = max

Ax
x
; x ∈ IR
N
\ {0}

.
4. · est une norme matricielle.
Démonstration :
1. Soit x ∈ IR
N
\ {0}, posons y =
x
x
, alors y = 1 donc Ay ≤ A. On en déduit
Ax
x
≤ A et
donc Ax ≤ A x. Si maintenant x = 0, alors Ax = 0, et donc x = 0 et Ax = 0 ; l’inégalité
Ax ≤ A x est encore vérifiée.
2. L’application ϕ définie de IR
N
dans IR par : ϕ(x) = Ax est continue sur la sphère unité S
1
= {x ∈
IR
N
| x = 1} qui est un compact de IR
N
. Donc ϕ est bornée et atteint ses bornes : il existe x
0
∈ IR
N
tel
que A = Ax
0

3. La dernière égalité résulte du fait que
Ax
x
= A
x
x
et
x
x
∈ S
1
pour tout x = 0.
Proposition 1.3 Soit A = (a
i,j
)
i,j∈{1,...,N}
∈ M
N
(IR).
1. On munit IR
N
de la norme ·

et M
N
(IR) de la norme induite correspondante, notée aussi ·

. Alors
A

= max
i∈{1,...,N}
N
¸
j=1
|a
i,j
|. (1.2.4)
2. On munit IR
N
de la norme ·
1
et M
N
(IR) de la norme induite correspondante, notée aussi ·
1
. Alors
A
1
= max
j∈{1,...,N}
N
¸
i=1
|a
i,j
| (1.2.5)
3. On munit IR
N
de la norme ·
2
et M
N
(IR) de la norme induite correspondante, notée aussi ·
2
.
A
2
= (ρ(A
t
A))
1
2
. (1.2.6)
La démonstration de cette proposition fait l’objet de l’exercice 3 page 36
Analyse numérique I, Télé-enseignement, L3 5 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.2. QUELQUES RAPPELS D’ALGÈBRE LINÉAIRE CHAPITRE 1. SYSTÈMES LINÉAIRES
1.2.2 Rayon spectral
Définition 1.4 (Valeurs propres et rayon spectral) Soit A ∈ M
N
(IR) une matrice inversible. On appelle valeur
propre de A tout λ ∈ Cl tel qu’il existe x ∈ Cl
N
, x = 0 tel que Ax = λx. L’élément x est appelé vecteur propre de
A associé à λ. On appelle rayon spectral de A la quantité ρ(A) = max{|λ|; λ ∈ Cl , λ valeur propre de A}.
Lemme 1.5 (Convergence et rayon spectral) On munit M
N
(IR) d’une norme, notée · . Soit A ∈ M
N
(IR).
Alors :
1. ρ(A) < 1 si et seulement si A
k
→0 quand k →∞.
2. ρ(A) < 1 ⇒limsup
k→∞
A
k

1
k
≤ 1.
3. liminf
k→∞
A
k

1
k
< 1 ⇒ρ(A) < 1.
4. ρ(A) = lim
k→∞
A
k

1
k
.
5. On suppose de plus que · une norme matricielle (induite ou non). Alors
ρ(A) ≤ A.
La démonstration de ce lemme fait l’objet de l’exercice 5 page 37. Elle nécessite un résultat d’approximation du
rayon spectral par une norme induite bien choisie, que voici :
Remarque 1.6 (Convergence des suites) Une conséquence immédiate du lemme 1.5 page 6 est que si x
(0)
est
donné et x
(k)
défini par x
(k+1)
= Ax
(k)
, alors la suite (x
(k)
)
k∈IN
converge vers 0 si et seulement si ρ(A) < 1.
Proposition 1.7 (Rayon spectral et norme induite) Soient A ∈ M
N
(IR) et ε > 0. Il existe une norme sur IR
N
(qui dépend de A et ε) telle que la norme induite sur M
N
(IR), notée ·
A,ε
, vérifie A
A,ε
≤ ρ(A) + ε.
Démonstration :
Soit A ∈ M
N
(IR), alors par le lemme 1.8 donné ci-après, il existe une base (f
1
, . . . , f
N
) de Cl
N
et une famille
de complexes (λ
i,j
)
i,j=1,...,N,j≤i
telles que Af
i
=
¸
j≤i
λ
i,j
f
j
. Soit η ∈]0, 1[, pour i = 1, . . . , N, on définit
e
i
= η
i−1
f
i
. La famille (e
i
)
i=1,...,N
forme une base de Cl
N
. On définit alors une norme sur IR
N
par x =
(
¸
N
i=1
α
i
α
i
)
1/2
, où les α
i
sont les composantes de x dans la base (e
i
)
i=1,...,N
. Notons que cette norme dépend de
A et de η. Soit ε > 0. Montrons que si η bien choisi, on a A ≤ ρ(A) + ε. Soit x =
¸
i=1,...,N
α
i
e
i
. Comme
Ae
i
=
¸
1≤j≤i
η
i−j
λ
i,j
e
j
,
on a donc :
Ax =
N
¸
i=1
¸
1≤j≤i
η
i−j
λ
i,j
α
i
e
j
=
N
¸
j=1

N
¸
i=j
η
i−j
λ
i,j
α
i

e
j
On en déduit que
Ax
2
=
N
¸
j=1

N
¸
i=j
η
i−j
λ
i,j
α
i

N
¸
i=j
η
i−j
λ
i,j
α
i

,
soit encore
Ax
2
=
N
¸
j=1
λ
j,j
λ
j,j
α
j
α
j
+
N
¸
j=1
¸
k,≥j
(k,)=(j,j)
η
k+−2j
λ
k,j
λ
,j
α
k
α

.
Comme η ∈]0, 1[, on en conclut que :
Ax
2
≤ ρ(A)x
2
+N
3
ρ(A)
2
x
2
η.
D’où le résultat, en prenant η tel que ηN
3
ρ(A)
2
< ε.
Analyse numérique I, Télé-enseignement, L3 6 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.2. QUELQUES RAPPELS D’ALGÈBRE LINÉAIRE CHAPITRE 1. SYSTÈMES LINÉAIRES
Lemme 1.8 (Triangularisation d’une matrice) Soit A ∈ M
N
(IR) une matrice carrée quelconque, alors il existe
une base (f
1
, . . . , f
N
) de Cl et une famille de complexes (λ
i,j
)
i=1,...,N,j=1,...,N,j<i
telles que Af
i
= λ
i,i
f
i
+
¸
j<i
λ
i,j
f
j
. De plus λ
i,i
est valeur propre de A pour tout i ∈ {1, . . . , N}.
On admettra ce lemme.
Nous donnons maintenant un théorème qui nous sera utile dans l’étude du conditionnement, ainsi que plus tard
dans l’étude des méthodes itératives.
Théorème 1.9 (Matrices de la forme Id +A)
1. Soit une norme matricielle induite, Id la matrice identité de M
N
(IR) et A ∈ M
N
(IR) telle que A < 1.
Alors la matrice Id +A est inversible et
(Id +A)
−1

1
1 −A
.
2. Si une matrice de la forme Id + A ∈ M
N
(IR) est singulière, alors A ≥ 1 pour toute norme matricielle
· .
Démonstration :
1. La démonstration du point 1 fait l’objet de l’exercice 9 page 37.
2. Si la matrice Id + A ∈ M
N
(IR) est singulière, alors λ = −1 est valeur propre, et donc en utilisant la
proposition 1.7, on obtient que A ≥ ρ(A) ≥ 1.
1.2.3 Matrices diagonalisables
Définition 1.10 (Matrice diagonalisable) Soit A une matrice réelle carrée d’ordre n. On dit que A est diago-
nalisable dans IR si il existe une base (φ
1
, . . . , φ
n
) et des réels λ
1
, . . . , λ
n
(pas forcément distincts) tels que

i
= λ
i
φ
i
pour i = 1, . . . , n. Les réels λ
1
, . . . , λ
n
sont les valeurs propres de A, et les vecteurs φ
1
, . . . , φ
n
sont
les vecteurs propres associés.
Vous connaissez sûrement aussi la diagonalisation dans Cl : une matrice réelle carrée d’ordre n est diagonalisable
dans Cl si il existe une base (φ
1
, . . . , φ
n
) de Cl
n
et des nombres complexes λ
1
, . . . , λ
n
(pas forcément distincts)
tels que Aφ
i
= λ
i
φ
i
pour i = 1, . . . , n. Ici et dans toute la suite, comme on résout des systèmes linéaire réels, on
préfère travailler avec la diagonlaisation dans IR ; cependant il y a des cas où la diagonalisation dans Cl est utile et
même nécessaire (étude de stabilité des systèmes diférentiels, par exemple). Par souci de clarté, nous préciserons
toujours si la diagonalisation considérée est dans IR ou dans Cl .
Lemme 1.11 Soit A une matrice réelle carrée d’ordre n, diagonalisable dans IR. Alors
A = Pdiag(λ
1
, . . . , λ
n
)P
−1
,
où P est la matrice dont les vecteurs colonnes sont égaux aux vecteurs φ
1
, . . . , φ
n
.
Démonstration Soit P la matrice définie (de manière unique) par Pe
i
= φ
i
, où (e
i
)
i=1,...,n
est la base canonique
de IR
n
, c’est-à-dire que (e
i
)
j
= δ
i,j
. La matrice P est appelée matrice de passage de la base (e
i
)
i=1,...,n
à la base

i
)
i=1,...,n
; la i-ème colonne de P est constituée des composantes de φ
i
dans la base canonique (e
1
, . . . , e
N
).
La matrice P est évidemment inversible, et on peut écrire :

i
= APe
i
= λ
i
φ
i
,
Analyse numérique I, Télé-enseignement, L3 7 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.2. QUELQUES RAPPELS D’ALGÈBRE LINÉAIRE CHAPITRE 1. SYSTÈMES LINÉAIRES
de sorte que :
P
−1
APe
i
= λ
i
P
−1
φ
i
= λ
i
e
i
.
On a donc bien P
−1
AP = diag(λ
1
, . . . , λ
n
) (ou encore A = Pdiag(λ
1
, . . . , λ
n
)P
−1
).
La diagonalisation des matrices réelles symétriques est un outil qu’on utilisera souvent dans la suite, en particulier
dans les exercices.
Lemme 1.12 Soit E un espace vectoriel sur IR de dimension finie : dimE = n, n ∈ IN

, muni d’un produit
scalaire i.e. d’une application
E ×E →IR,
(x, y) →(x | y)
E
,
qui vérifie :
∀x ∈ E, (x | x)
E
≥ 0 et (x | x)
E
= 0 ⇔x = 0,
∀(x, y) ∈ E
2
, (x | y)
E
= (y | x)
E
,
∀y ∈ E, l’application de E dans IR, définie par x →(x | y)
E
est linéaire.
Ce produit scalaire induit une norme sur E, x =

(x | x)
E
.
Soit T une application linéaire de E dans E. On suppose que T est symétrique, c.à.d. que (T(x) | y)
E
= (x |
T(y))
E
, ∀(x, y) ∈ E
2
. Alors il existe une base orthonormée (f
1
. . . f
n
) de E (c.à.d. telle que (f
i
, f
j
)
E
= δ
i,j
) et

1
. . . λ
n
) ∈ IR
n
tels que T(f
i
) = λ
i
f
i
pour tout i ∈ {1 . . . n}.
Conséquence immédiate : Dans le cas où E = IR
N
, le produit scalaire canonique de x = (x
1
, . . . , x
N
)
t
et
y = (y
1
, . . . , y
N
)
t
est défini par (x | y)
E
= x· y =
¸
N
i=1
x
i
y
i
. Si A ∈ M
N
(IR) est une matrice symétrique, alors
l’application T définie de E dans E par : T(x) = Ax est linéaire, et : (Tx|y) = Ax · y = x · A
t
y = x · Ay =
(x | Ty). Donc T est linéaire symétrique. Par le lemme précédent, il existe (f
1
. . . f
N
) et (λ
1
. . . λ
N
) ∈ IR tels
que Tf
i
= Af
i
= λ
i
f
i
∀ i ∈ {1, . . . , N} et f
i
· f
j
= δ
i,j
, ∀ (i, j) ∈ {1, . . . , N}
2
.
Interprétation algébrique : Il existe une matrice de passage P de (e
1
, . . . , e
N
) base canonique dans (f
1
, . . . , f
N
)
dont la première colonne de P est constituée des coordonnées de f
i
dans (e
1
. . . e
N
). On a : Pe
i
= f
i
. On a alors
P
−1
APe
i
= P
−1
Af
i
= P
−1

i
f
i
) = λ
i
e
i
= diag(λ
1
, . . . , λ
N
)e
i
, où diag(λ
1
, . . . , λ
N
) désigne la matrice
diagonale de coefficients diagonaux λ
1
, . . . , λ
N
. On a donc :
P
−1
AP =

λ
i
0
.
.
.
0 λ
N
¸
¸
¸ = D.
De plus P est orthogonale, i.e. P
−1
= P
t
. En effet,
P
t
Pe
i
· e
j
= Pe
i
· Pe
j
= (f
i
|f
j
) = δ
i,j
∀i, j ∈ {1 . . . N},
et donc (P
t
Pe
i
−e
i
) · e
j
= 0 ∀j ∈ {1 . . . N} ∀i ∈ {1, . . . N}. On en déduit P
t
Pe
i
= e
i
pour tout i = 1, . . . N,
i.e. P
t
P = PP
t
= Id.
Démonstration du lemme 1.12 Cette démonstration se fait par récurrence sur la dimension de E.
1ère étape.
On suppose dimE = 1. Soit e ∈ E, e = 0, alors E = IRe = f
1
avec f
1
=
e
e
. Soit T : E → E linéaire
symétrique, on a : Tf
1
∈ IRf
1
donc il existe λ
1
∈ IR tel que Tf
1
= λ
1
f
1
.
2ème étape.
Analyse numérique I, Télé-enseignement, L3 8 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.3. LES MÉTHODES DIRECTES CHAPITRE 1. SYSTÈMES LINÉAIRES
On suppose le lemme vrai si dimE < n. On montre alors le lemme si dimE = n. Soit E un espace vectoriel
normé sur IR tel que dimE = n et T : E →E linéaire symétrique. Soit ϕ l’application définie par :
ϕ : E →IR
x →(Tx|x).
L’application ϕ est continue sur la sphère unité S
1
= {x ∈ E| x = 1} qui est compacte car dimE < +∞; il
existe donc e ∈ S
1
tel que ϕ(x) ≤ ϕ(e) = (Te | e) = λ pour tout x ∈ E. Soit y ∈ E \ {0}, et soit t ∈]0,
1
y
[
alors e +ty = 0. On en déduit que :
e +ty
e +ty
∈ S
1
donc ϕ(e) = λ ≥

T
(e +ty)
e +ty
|
e +ty
e +ty

E
donc λ(e +ty | e +ty)
E
≥ (T(e +ty) | e +ty). En développant on obtient :
λ[2t(e | y) +t
2
(y | y)
E
] ≥ 2t(T(e) | y) +t
2
(T(y) | y)
E
.
Comme t > 0, ceci donne :
λ[2(e | y) +t(y | y)
E
] ≥ 2(T(e) | y) +t(T(y) | y)
E
.
En faisant tendre t vers 0
+
, on obtient 2λ(e | y)
E
≥ 2(T(e) | y), Soit 0 ≥ (T(e) −λe | y) pour tout y ∈ E \ {0}.
De même pour z = −y on a 0 ≥ (T(e) − λe|z) donc (T(e) − λe | y) ≥ 0. D’où (T(e) − λe | y) = 0 pour tout
y ∈ E. On en déduit que T(e) = λe. On pose f
n
= e et λ
n
= λ.
Soit F = {x ∈ E; (x | e) = 0}, on a donc F = E, et E = F
¸
IRe : on peut décomposer x ∈ E comme
(x = x − (x | e)e + (x | e)e). L’application S = T|
F
est linéaire symétrique et on a dimF = n − 1. et
S(F) ⊂ F. On peut donc utiliser l’hypothèse de récurrence : ∃(λ
1
. . . λ
n−1
) ∈ IR
n
et ∃(f
1
. . . f
n−1
) ∈ E
n
tels
que ∀ i ∈ {1 . . . n − 1}, Sf
i
= Tf
i
= λ
i
f
i
, et ∀i, j ∈ {1 . . . n − 1}, (f
i
| f
j
) = δ
i,j
. Et donc (λ
1
. . . λ
N
) et
(f
1
. . . f
N
) conviennent.
1.3 Les méthodes directes
1.3.1 Définition
Définition 1.13 (Méthode directe) On appelle méthode directe de résolution de (1.1.1) une méthode qui donne
exactement x (Aet b étant connus) solution de (1.1.1) après un nombre fini d’opérations élémentaires (+, −, ×, /).
Parmi les méthodes de résolution du système (1.1.1) on citera :
- la méthode de Gauss (avec pivot)
- la méthode LU, qui est une réécriture de la méthode Gauss.
Nous rappelons la méthode de Gauss et la méthode LU et nous étudierons plus en détails la méthode de Choleski,
qui est adaptée aux matrices symétriques.
1.3.2 Méthode de Gauss et méthode LU
Soit A ∈ M
N
(IR) une matrice inversible, et b ∈ IR
N
. On cherche à calculer x ∈ IR
N
tel que Ax = b. Le principe
de la méthode de Gauss est de se ramener, par des opérations simples (combinaisons linéaires), à un système
triangulaire équivalent, qui sera donc facile à inverser. On pose A
(1)
= A et b
(1)
= b. Pour i = 1, . . . , N − 1, on
cherche à calculer A
(i+1)
et b
(i+1)
tels que les systèmes A
(i)
x = b
(i)
et A
(i+1)
x = b
(i+1)
soient équivalents, où
A
(i)
est une matrice de la forme suivante :
Une fois la matrice A
(N)
(triangulaire supérieure) et le vecteur b
(N)
calculés, il sera facile de résoudre le système
A
(N)
x = b
(N)
. Le calcul de A
(N)
est l’étape de “factorisation", le calcul de b
(N)
l’étape de “descente", et le calcul
de x l’étape de “remontée". Donnons les détails de ces trois étapes.
Analyse numérique I, Télé-enseignement, L3 9 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.3. LES MÉTHODES DIRECTES CHAPITRE 1. SYSTÈMES LINÉAIRES
a
(N)
1,1
a
(N)
1,N
0
A
(N)
=
0
0
a
(N)
N,N
a
(1)
1,1
a
(i)
i,i
a
(i)
i+1,i
a
(i)
N,i
a
(i)
N,N
a
(1)
1,N
0
0
0 0
A
(i)
=
FIGURE 1.1 – Allure des matrices de Gauss à l’étape i et à l’étape N
a
(1)
1,1
a
(i+1)
i+1,i+1
a
(i+1)
i+2,i+1
a
(i+1)
N,N
a
(1)
1,N
a
(i+1)
N,i+1
0
0
0
0
A
(i+1)
=
FIGURE 1.2 – Allure de la matrice de Gauss à l’étape i + 1
Etape de factorisation et descente Pour passer de la matrice A
(i)
à la matrice A
(i+1)
, on va effectuer des
combinaisons linéaires entre lignes qui permettront d’annuler les coefficients de la i-ème colonne situés en dessous
de la ligne i (dans le but de se rapprocher d’une matrice triangulaire supérieure). Evidemment, lorsqu’on fait ceci,
il faut également modifier le second membre b en conséquence. L’étape de factorisation et descente s’écrit donc :
1. Pour k ≤ i et pour j = 1, . . . , N, on pose a
(i+1)
k,j
= a
(i)
k,j
et b
(i+1)
k
= b
(i)
k
.
2. Pour k > i, si a
(i)
i,i
= 0, on pose :
a
(i+1)
k,j
= a
(i)
k,j

a
(i)
k,i
a
(i)
i,i
a
(i)
i,j
, pour k = j, . . . , N, (1.3.7)
b
(i+1)
k
= b
(i)
k

a
(i)
k,i
a
(i)
i,i
b
(i)
i
. (1.3.8)
La matrice A
(i+1)
est de la forme donnée sur la figure 1.3.2. Remarquons que le système A
(i+1)
x = b
(i+1)
est
bien équivalent au système A
(i)
x = b
(i)
.
Si la condition a
(i)
i,i
= 0 est vérifiée pour i = 1 à N, on obtient par le procédé de calcul ci-dessus un système
linéaire A
(N)
x = b
(N)
équivalent au système Ax = b, avec une matrice A
(N)
triangulaire supérieure facile à
inverser. On verra un peu plus loin les techniques de pivot qui permettent de régler le cas où la condition a
(i)
i,i
= 0
n’est pas vérifiée.
Analyse numérique I, Télé-enseignement, L3 10 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.3. LES MÉTHODES DIRECTES CHAPITRE 1. SYSTÈMES LINÉAIRES
Etape de remontée Il reste à résoudre le système A
(N)
x = b
(N)
. Ceci est une étape facile. Comme A
(N)
est une
matrice inversible, on a a
(i)
i,i
= 0 pour tout i1, . . . , N, et comme A
(N)
est une matrice triangulaire supérieure, on
peut donc calculer les composantes de x en “remontant", c’est–à–dire de la composante x
N
à la composante x
1
:
x
N
=
b
(N)
a
(N)
N,N
,
x
i
=
1
a
(N)
i,i
(b
(i)

¸
j=i+1,N
a
(N)
i,j
x
j
), i = N −1, . . . , 1.
Coût de la méthode de Gauss (nombre d’opérations) On peut montrer (on fera le calcul de manière détaillée
pour la méthode de Choleski dans la section suivante, le calcul pour Gauss est similaire) que le nombre d’opérations
nécessaires pour effectuer les étapes de factorisation, descente et remontée est
2
3
N
3
+O(N
2
).
En ce qui concerne la place mémoire, on peut très bien stocker les itérés A
(i)
dans la matrice A de départ, ce qu’on
n’a pas voulu faire dans le calcul précédent, par souci de clarté.
Décomposition LU Si le système Ax = b doit être résolu pour plusieurs second membres b, il est évident qu’on
a intérêt à ne faire l’étape de factorisation (i.e. le calcul de A
(N)
), qu’une seule fois, alors que les étapes de descente
et remontée (i.e. le calcul de b
(N)
et x) seront faits pour chaque vecteur b. L’étape de factorisation peut se faire en
décomposant la matrice A sous la forme LU.
On admettra le théorème suivant (voir par exemple le livre de Ciarlet cité en début de cours.
Théorème 1.14 (Décomposition LU d’une matrice) Soit A ∈ M
N
(IR) une matrice inversible, il existe une ma-
trice de permutation P telle que, pour cette matrice de permutation, il existe un et un seul couple de matrices
(L, U) où L est triangulaire inférieure de termes diagonaux égaux à 1 et U est triangulaire supérieure, vérifiant
PA = LU.
Cette décomposition peut se calculer très facilement à partir de la méthode de Gauss. Pour simplifier l’écriture, on
supposera ici que lors de la méthode de Gauss, la condition a
(i)
i,i
= 0 est vérifiée pour tout i = 1, . . . , N. Dans
ce cas, la matrice de permutation P du théorème 1.14 est la matrice identité. La matrice L a comme coefficients

i,j
=
a
(i)
i,j
a
(i)
i,i
pour i > j,
i,i
= 1 pour tout i = 1, . . . , N, et
i,j
= 0 pour j > i, et la matrice U est égale à la
matrice A
(N)
. On peut vérifier que A = LU grâce au fait que le système A
(N)
x = b
(N)
est équivalent au système
Ax = b. En effet, comme A
(N)
x = b
(N)
et b
(N)
= L
−1
b, on en déduit que LUx = b, et comme A et LU sont
inversibles, on en déduit que A
−1
b = (LU)
−1
b pour tout b ∈ IR
N
. Ceci démontre que A = LU.
Techniques de pivot Dans la présentation de la méthode de Gauss et de la décomposition LU, on a supposé que
la condition a
(i)
i,i
= 0 était vérifiée à chaque étape. Or il peut s’avérer que ce ne soit pas le cas, ou que, même si la
condition est vérifiée, le “pivot" a
(i)
i,i
soit très petit, ce qui peut entraîner des erreurs d’arrondi importantes dans les
calculs. On peut résoudre ce problème en utilisant les techniques de “pivot partiel" ou “pivot total", qui reviennent
à choisir une matrice de permutation P qui n’est pas forcément égale à la matrice identité dans le théorème 1.14.
Plaçons-nous à l’itération i de la méthode de Gauss. Comme la matrice A
(i)
est forcément non singulière, on a :
det(A
(i)
) = a
(i)
1,1
a
(i)
2,2
· · · a
(i)
i−1,i−1
det

¸
¸
¸
a
(i)
i,i
. . . a
(i)
i,N
.
.
.
.
.
.
.
.
.
a
(i)
N,i
. . . a
(i)
N,N
¸

= 0.
Analyse numérique I, Télé-enseignement, L3 11 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.3. LES MÉTHODES DIRECTES CHAPITRE 1. SYSTÈMES LINÉAIRES
On a donc en particulier
det

¸
¸
¸
a
(i)
i,i
. . . a
(i)
i,N
.
.
.
.
.
.
.
.
.
a
(i)
N,i
. . . a
(i)
N,N
¸

= 0.
Pivot partiel On déduit qu’il existe i
0
∈ {i, . . . , N} tel que a
(i)
i0,i
= 0. On choisit alors i
0
∈ {i, . . . , N} tel que
|a
(i)
i0,i
| = max{|a
(i)
k,i
|, k = i, . . . , N}. On échange alors les lignes i et i
0
(dans la matrice A et le second membre b)
et on continue la procédure de Gauss décrite plus haut.
Pivot total On choisit maintenant i
0
et j
0
∈ {i, . . . , N} tels que |a
(i)
i0,j0
| = max{|a
(i)
k,j
|, k = i, . . . , N, j =
i, . . . , N}, et on échange alors les lignes i et i
0
(dans la matrice A et le second membre b), les colonnes j et j
0
de
A et les inconnues x
j
et x
j0
.
L’intérêt de ces stratégies de pivot est qu’on aboutit toujours à la résolution du système (dès que A est inversible).
La stratégie du pivot total permet une moins grande sensibilité aux erreurs d’arrondi. L’inconvénient majeur est
qu’on change la structure de A : si, par exemple la matrice avait tous ses termes non nuls sur quelques diagonales
seulement, ceci n’est plus vrai pour la matrice A
(N)
.
1.3.3 Version programmable des algorithmes de Gauss et LU pour un système carré
On donne dans ce paragraphe la version “programmable” de l’algorithme de Gauss et de la maéthode LU pour une
matrice carrée d’ordre n.
On souhaite résoudre Ax = b, avec A ∈ M
n
(IR) inversible et un ou plusieurs second membres b ∈ IR
n
.
Méthode de Gauss sans pivot
1. (Factorisation et descente) Pour i allant de 1 à n, on effectue les calculs suivants :
(a) On ne change pas la i-ème ligne
u
i,j
= a
i,j
pour j = i, . . . , n,
y
i
= b
i
(b) On change les lignes i + 1 à n (et le second membre) en utilisant la ligne i. Pour j allant de i + 1 à n :
l
j,i
=
aj,i
ai,i
(si a
i,i
= 0, prendre la méthode avec pivot partiel)
pour k allant de i + 1 à n, a
j,k
= a
j,k
−l
j,i
a
i,k
(noter que a
j,i
= 0)
b
j
= b
j
−l
j,i
y
i
2. (Remontée) On calcule x
Pour i allant de n à 1,
x
i
=
1
ui,i
(y
i

¸
n
j=i+1
u
i,j
x
j
)
Méthode LU sans pivot
La méthode LU se déduit de la méthode de Gauss en remarquant simplement que, ayant conservé la matrice L, on
peut effectuer les calculs sur b après les calculs sur A. Ce qui donne :
1. (Factorisation) Pour i allant de 1 à n, on effectue les calculs suivants :
(a) On ne change pas la i-ème ligne
u
i,j
= a
i,j
pour j = i, . . . , n,
Analyse numérique I, Télé-enseignement, L3 12 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.3. LES MÉTHODES DIRECTES CHAPITRE 1. SYSTÈMES LINÉAIRES
(b) On change les lignes i + 1 à n (et le second membre) en utilisant la ligne i. Pour j allant de i + 1 à n :
l
j,i
=
aj,i
ai,i
(si a
i,i
= 0, prendre la méthode avec pivot partiel)
pour k de i + 1 à n, a
j,k
= a
j,k
−l
j,i
a
i,k
(noter que a
j,i
= 0)
2. (Descente) On calcule y (avec Ly = b)
Pour i allant de 1 à n,
y
i
= b
i

¸
i−1
k=1
l
i,k
y
k
(on a implicitement l
i,i
= 1)
3. (Remontée) On calcule x (avec Ux = y)
Pour i allant de n à 1,
x
i
=
1
ui,i
(y
i

¸
n
j=i+1
u
i,j
x
j
)
Méthode LU avec pivot partiel
La méthode LU avec pivot partiel consiste simplement à remarquer que l’ordre dans lequel les équations sont prises
n’a aucune importance pour l’algorithme. Au départ de l’algorithme, on se donne la bijection t de {1, . . . , n} dans
{1, . . . , n} définie par t(i) = i, et qui va être modfiée au cours de l’algorithme pour tenir compte du choix du
pivot. On écrit l’algorithme précédent avec les nouveaux indices de ligne t(i), ce qui donne :
1. (Factorisation) Pour i allant de 1 à n, on effectue les calculs suivants :
(a) Choix du pivot (et de t(i)) : on cherche k ∈ {i, . . . , n} t.q. |a
t(k),i
| = max{|a
t(l),i
|, l ∈ {i, . . . , n}}.
On change alors t en prenant t(i) = t(k) et t(k) = t(i).
On ne change pas la ligne t(i)
u
t(i),j
= a
t(i),j
pour j = i, . . . , n,
(b) On modifie les lignes t(j) autres que les lignes t(1), . . . , t(n) (et le second membre), en utilisant la
ligne t(i). Donc pour t(j) ∈ {t(i + 1), . . . , t(n)} (noter qu’on a uniquement besoin de connaï¿
1
2
tre
l’ensemble , et pas l’ordre) :
l
t(j),i
=
a
t(j),i
a
t(i),i
pour k de i + 1 à n, a
t(j),k
= a
t(j),k
−l
t(j),i
a
t(i),k
(noter que a
t(j),i
= 0)
2. (Descente) On calcule y
Pour i allant de 1 à n,
y
i
= b
t(i)

¸
i−1
j=1
l
t(j),k
y
k
3. (Remontée) On calcule x
Pour i allant de n à 1,
x
i
=
1
u
t(i),i
(y
i

¸
n
j=i+1
u
t(i),j
x
j
)
NB : On a change l’ordre dans lequel les équations sont considérées (le tableau t donne cet ordre). Donc, on a
aussi changé l’ordre dans lequel interviennent les composantes du second membre. Par contre, on n’a pas touché à
l’ordre dans lequel interviennent les composantes de x et y.
Il reste maintenant à signaler le “miracle" de cet algorithme. . . Il est inutile de connaitre complètement t pour faire
cet algorithme. A l’étape i de l’item 1 (et d’ailleurs aussi à l’étape i de l’item 2), il suffit de connaître t(j) pour
j allant de 1 à i, les opérations de 1(b) se faisant alors sur toutes les autres lignes (dans un ordre quelconque).
Il suffit donc de partir d’une bijection arbitraire de {1, . . . , n} dans {1, . . . , n} (par exemple l’identité) et de la
modifier à chaque étape. Pour que l’algorithme aboutisse, il suffit que a
t(i),i
= 0 (ce qui toujours possible car A
est inversible). Pour minimiser des erreurs d’arrondis, on a intérêt à choisir t(i) pour que |a
t(i),i
| soit le plus grand
possible. Ceci suggère de faire le choix suivant de t(i) à l’étape i de l’item 1(a) de l’algorithme (et c’est à cette
étape que t(i) doit être défini) :
Analyse numérique I, Télé-enseignement, L3 13 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.3. LES MÉTHODES DIRECTES CHAPITRE 1. SYSTÈMES LINÉAIRES
on cherche k ∈ {i, . . . , n} t.q. |a
t(k),i
| = max{|a
t(l),i
|, l ∈ {i, . . . , n}}. On change alors t en prenant t(i) = t(k)
et t(k) = t(i).
Remarque : L’introduction des matrices L et U et des vecteurs y et x n’est pas nécessaire (tout peut s’écrire
avec la matrice A et le vecteur b, que l’on modifie au cours de l’algorithme). L’introduction de L, U, x et y peut
toutefois aider à comprendre la méthode. Le principe retenu est que, dans les algorithmes (Gauss ou LU), on
modifie la matrice A et le second membre b (en remplaçant le système à résoudre par un système équivalent) mais
on ne modifie jamais L, U, y et x (qui sont définis au cours de l’algorithme).
Remarque L’algorithme se ramene donc à résoudre LUx = b, en faisant Ly = b et Ux = y. Quand on fait
Ly = b les equations sont dans l’ordre t(1), . . . , t(n) (les composantes de b sont donc aussi prises dans cet ordre),
mais le vecteur y est bien (y
1
, . . . , y
n
)
t
(t signifie ici “transposé" pour obtenir un vecteur colonne). Puis, on fait
Ux = y, les equations sont toujours dans l’ordre t(1), . . . , t(n) mais les vecteurs x et y sont (x
1
, . . . , x
n
)
t
et
(y
1
, . . . , y
n
)
t
.
1.3.4 Méthode de Choleski
On va maintenant étudier la méthode de Choleski, qui est une méthode directe adaptée au cas où A est symétrique
définie positive. On rappelle qu’une matrice A ∈ M
N
(IR) de coefficients (a
i,j
)
i=1,N,j=1,N
est symétrique si
A = A
t
, où A
t
désigne la transposée de A, définie par les coefficients (a
j,i
)
i=1,N,j=1,N
, et que A est définie
positive si Ax · x > 0 pour tout x ∈ IR
N
tel que x = 0. Dans toute la suite, x · y désigne le produit scalaire des
deux vecteurs x et y de IR
N
. On rappelle (exercice) que si A est symétrique définie positive elle est en particulier
inversible.
Description de la méthode
La méthode de Choleski consiste à trouver une décomposition de A de la forme A = LL
t
, où L est triangulaire
inférieure de coefficients diagonaux strictement positifs. On résout alors le système Ax = b en résolvant d’abord
Ly = b puis le système L
t
x = y. Une fois la matrice A “factorisée", c’est–à–dire la décomposition LL
t
obtenue
(voir paragraphe suivant), on effectue les étapes de “descente" et “remontée" :
1. Etape 1 : “descente" Le système Ly = b s’écrit :
Ly =

1,1
0
.
.
.
.
.
.
.
.
.

N,1
. . .
N,N
¸
¸
¸

y
1
.
.
.
y
N
¸
¸
¸ =

b
1
.
.
.
b
N
¸
¸
¸.
Ce système s’écrit composante par composante en partant de i = 1.

1,1
y
1
= b
1
, donc y
1
=
b
1

1,1

2,1
y
1
+
2,2
y
2
= b
2
, donc y
2
=
1

2,2
(b
2

2,1
y
1
)
.
.
.
.
.
.
¸
j=1,i

i,j
y
j
= b
i
, donc y
i
=
1

i,i
(b
i

¸
j=1,i−1

i,j
y
j
)
.
.
.
.
.
.
¸
j=1,N

N,j
y
j
= b
N
, donc y
N
=
1

N,N
(b
N

¸
j=1,N−1

N,j
y
j
).
On calcule ainsi y
1
, y
2
, . . . , y
N
.
Analyse numérique I, Télé-enseignement, L3 14 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.3. LES MÉTHODES DIRECTES CHAPITRE 1. SYSTÈMES LINÉAIRES
2. Etape 2 : “remontée" On calcule maintenant x solution de L
t
x = y.
L
t
x =

1,1

2,1
. . .
N,1
0
.
.
.
.
.
.
.
.
.
0 . . .
N,N
¸
¸
¸
¸
¸
¸

x
1
.
.
.
x
N
¸
¸
¸
¸
¸
¸
¸
=

y
1
.
.
.
y
N
¸
¸
¸
¸
¸
¸
¸
.
On a donc :

N,N
x
N
= y
N
donc x
N
=
y
N

N,N

N−1,N−1
x
N−1
+
N,N−1
x
N
= y
N−1
donc x
N−1
=
yN−1−N,N−1xN
N−1,N−1
.
.
.
¸
j=1,N

j,1
x
j
= y
1
donc x
1
=
y
1

¸
j=2,N

j,1
x
j

1,1
.
On calcule ainsi x
N
, x
N−1
, . . . , x
1
.
Existence et unicité de la décomposition
On donne ici le résultat d’unicité de la décomposition LL
t
d’une matrice symétrique définie positive ainsi qu’un
procédé constructif de la matrice L.
Théorème 1.15 (Décomposition de Choleski) Soit A ∈ M
N
(IR) avec N > 1. On suppose que Aest symétrique
définie positive. Alors il existe une unique matrice L ∈ M
N
(IR), L = (
i,j
)
N
i,j=1
, telle que :
1. L est triangulaire inférieure (c’est–à–dire
i,j
= 0 si j > i),
2.
i,i
> 0, pour tout i ∈ {1, . . . , N},
3. A = LL
t
.
Démonstration : On sait déjà par le théorème 1.14 page 11, qi’il existe une matrice de permutation et Ltriangulaire
inférieure et U triangulaire supérieure PA = LU. Ici on va montrer que dans le cas où la matrice est symétrique, la
décomposition est toujours possible sans permutation. Nous donnons ici une démonstration directe de l’existence
et de l’unicité de la décomposition LL
t
qui a l’avantage d’être constructive.
Existence de L : démonstration par récurrence sur N
1. Dans le cas N = 1, on a A = (a
1,1
). Comme A est symétrique définie positive, on a a
1,1
> 0. On peut donc
définir L = (
1,1
) où
1,1
=

a
1,1
, et on a bien A = LL
t
.
2. On suppose que la décomposition de Choleski s’obtient pour A ∈ M
p
(IR) symétrique définie positive, pour
1 ≤ p ≤ N et on va démontrer que la propriété est encore vraie pour A ∈ M
N+1
(IR) symétrique définie
positive. Soit donc A ∈ M
N+1
(IR) symétrique définie positive ; on peut écrire A sous la forme :
A =

B a
a
t
α
¸
¸
¸
¸
(1.3.9)
où B ∈ M
N
(IR) est symétrique, a ∈ IR
N
et α ∈ IR. Montrons que B est définie positive, c.à.d. que
By · y > 0, pour tout y ∈ IR
N
tel que y = 0. Soit donc y ∈ IR
N
\ {0}, et x =
¸
y
0

∈ IR
N+1
. Comme A est
Analyse numérique I, Télé-enseignement, L3 15 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.3. LES MÉTHODES DIRECTES CHAPITRE 1. SYSTÈMES LINÉAIRES
symétrique définie positive, on a :
0 < Ax · x =

B a
a
t
α
¸
¸
¸
¸

y
0
¸
¸
¸
¸
·

y
0
¸
¸
¸
¸
=

By
a
t
y
¸
¸
¸
¸
·

y
0
¸
¸
¸
¸
= By · y
donc B est définie positive. Par hypothèse de récurrence, il existe une matrice M ∈ M
N
(IR) M =
(m
i,j
)
N
i,j=1
telle que :
(a) m
i,j
= 0 si j > i
(b) m
i,i
> 0
(c) B = MM
t
.
On va chercher L sous la forme :
L =

M 0
b
t
λ
¸
¸
¸
¸
(1.3.10)
avec b ∈ IR
N
, λ ∈ IR

+
tels que LL
t
= A. Pour déterminer b et λ, calculons LL
t
où L est de la forme
(1.3.10) et identifions avec A :
LL
t
=

M 0
b
t
λ
¸
¸
¸
¸

M
t
b
0 λ
¸
¸
¸
¸
=

MM
t
Mb
b
t
M
t
b
t
b + λ
2
¸
¸
¸
¸
On cherche b ∈ IR
N
et λ ∈ IR

+
tels que LL
t
= A, et on veut donc que les égalités suivantes soient
vérifiées :
Mb = a et b
t
b + λ
2
= α.
Comme M est inversible (en effet, le déterminant de M s’écrit det(M) =
¸
N
i=1
m
i,i
> 0), la première éga-
lité ci-dessus donne : b = M
−1
a et en remplaçant dans la deuxième égalité, on obtient : (M
−1
a)
t
(M
−1
a)+
λ
2
= α, donc a
t
(M
t
)
−1
M
−1
a + λ
2
= α soit encore a
t
(MM
t
)
−1
a + λ
2
= α, c’est–à–dire :
a
t
B
−1
a + λ
2
= α (1.3.11)
Pour que (1.3.11) soit vérifiée, il faut que
α −a
t
B
−1
a > 0 (1.3.12)
Montrons que la condition (1.3.12) est effectivement vérifiée : Soit z =

B
−1
a
−1

∈ IR
N+1
. On a z = 0
et donc Az · z > 0 car A est symétrique définie positive. Calculons Az :
Az =

¸
B a
a
t
α
¸

B
−1
a
−1
¸
¸
¸
¸
=

0
a
t
B
−1
a −α
¸
¸
¸
¸
.
On a donc Az · z = α − a
t
B
−1
a > 0 ce qui montre que (1.3.12) est vérifiée. On peut ainsi choisir
λ =

α −a
t
B
−1
a (> 0) de telle sorte que (1.3.11) est vérifiée. Posons :
L =

M 0
(M
−1
a)
t
λ
¸
¸
¸
¸
.
Analyse numérique I, Télé-enseignement, L3 16 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.3. LES MÉTHODES DIRECTES CHAPITRE 1. SYSTÈMES LINÉAIRES
La matrice L est bien triangulaire inférieure et vérifie
i,i
> 0 et A = LL
t
.
On a terminé ainsi la partie “existence”.
Unicité et calcul de L. Soit A ∈ M
N
(IR) symétrique définie positive ; on vient de montrer qu’il existe L ∈
M
N
(IR) triangulaire inférieure telle que
i,j
= 0 si j > i,
i,i
> 0 et A = LL
t
. On a donc :
a
i,j
=
N
¸
k=1

i,k

j,k
, ∀ (i, j) ∈ {1 . . . N}
2
. (1.3.13)
1. Calculons la 1ère colonne de L; pour j = 1, on a :
a
1,1
=
1,1

1,1
donc
1,1
=

a
1,1
(a
1,1
> 0 car
1,1
existe ),
a
2,1
=
2,1

1,1
donc
2,1
=
a
2,1

1,1
,
a
i,1
=
i,1

1,1
donc
i,1
=
a
i,1

1,1
∀i ∈ {2, . . . , N}.
2. On suppose avoir calculé les p premières colonnes de L. On calcule la colonne (q +1) en prenant j = q +1
dans (1.3.13)
Pour i = q + 1, a
q+1,q+1
=
q+1
¸
k=1

q+1,k

q+1,k
donc

q+1,q+1
= (a
q+1,q+1

q
¸
k=1

q+1,k

q+1,k
)
1/2
> 0. (1.3.14)
Notons que a
q+1,q+1

q
¸
k=1

q+1,k

q+1,k
> 0 car L existe : il est indispensable d’avoir d’abord montré
l’existence de L pour pouvoir exhiber le coefficient
q+1,q+1
.
On procède de la même manière pour i = q + 2, . . . , N ; on a :
a
i,q+1
=
q+1
¸
k=1

i,k

q+1,k
=
q
¸
k=1

i,k

q+1,k
+
i,q+1

q+1,q+1
et donc

i,q+1
=

a
i,q+1

q
¸
k=1

i,k

q+1,k

1

q+1,q+1
. (1.3.15)
On calcule ainsi toutes les colonnes de L. On a donc montré que L est unique par un moyen constructif de
calcul de L.
Calcul du coût de la méthode de Choleski
Calcul du coût de calcul de la matrice L Dans le procédé de calcul de L exposé ci-dessus, le nombre d’opé-
rations pour calculer la première colonne est N. Calculons, pour p = 0, . . . , N − 1, le nombre d’opérations pour
calculer la (p + 1)-ième colonne : pour la colonne (p + 1), le nombre d’opérations par ligne est 2p + 1, car le
calcul de
p+1,p+1
par la formule (1.3.14) nécessite p multiplications, p soustractions et une extraction de racine,
soit 2p + 1 opérations ; le calcul de
i,p+1
par la formule (1.3.15) nécessite p multiplications, p soustractions et
Analyse numérique I, Télé-enseignement, L3 17 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.3. LES MÉTHODES DIRECTES CHAPITRE 1. SYSTÈMES LINÉAIRES
une division, soit encore 2p + 1 opérations. Comme les calculs se font des lignes p + 1 à N (car
i,p+1
= 0 pour
i ≤ p), le nombre d’opérations pour calculer la (p +1)-ième colonne est donc (2p +1)(N −p). On en déduit que
le nombre d’opérations N
L
nécessaires au calcul de L est :
N
L
=
N−1
¸
p=0
(2p + 1)(N −p) = 2N
N−1
¸
p=0
p −2
N−1
¸
p=0
p
2
+N
N−1
¸
p=0
1 −
N−1
¸
p=0
p
= (2N −1)
N(N −1)
2
+N
2
−2
N−1
¸
p=0
p
2
.
(On rappelle que 2
N−1
¸
p=0
p = N(N −1).) Il reste à calculer C
N
=
¸
N
p=0
p
2
, en remarquant par exemple que
N
¸
p=0
(1 +p)
3
=
N
¸
p=0
1 +p
3
+ 3p
2
+ 3p =
N
¸
p=0
1 +
N
¸
p=0
p
3
+ 3
N
¸
p=0
p
2
+ 3
N
¸
p=0
p
=
N+1
¸
p=1
p
3
=
N
¸
p=0
p
3
+ (N + 1)
3
.
On a donc 3C
N
+ 3
N(N+1)
2
+N + 1 = (N + 1)
3
, d’où on déduit que
C
N
=
N(N + 1)(2N + 1)
6
.
On a donc :
N
L
= (2N −1)
N(N −1)
2
−2C
N−1
+N
2
= N

2N
2
+ 3N + 1
6

=
N
3
3
+
N
2
2
+
N
6
=
N
3
3
+ 0(N
2
).
Coût de la résolution d’un système linéaire par la méthode LL
t
Nous pouvons maintenant calculer le coût
(en termes de nombre d’opérations élémentaires) nécessaire à la résolution de (1.1.1) par la méthode de Choleski
pour A ∈ M
N
(IR) symétrique définie positive. On a besoin de N
L
opérations pour le calcul de L, auquel il faut
rajouter le nombre d’opérations nécessaires pour les étapes de descente et remontée. Le calcul de y solution de
Ly = b s’effectue en résolvant le système :

1,1
0
.
.
.
.
.
.
.
.
.

N,1
. . .
N,1
¸
¸
¸

y
1
.
.
.
y
N
¸
¸
¸ =

b
1
.
.
.
b
N
¸
¸
¸
Pour la ligne 1, le calcul y
1
=
b
1

1,1
s’effectue en une opération.
Pour les lignes p = 2 à N, le calcul y
p
=

b
p

¸
p−1
i=1

i,p
y
i

/
p,p
s’effectue en (p − 1) (multiplications)
+(p−2) (additions) +1 soustraction +1 (division) = 2p−1 opérations. Le calcul de y (descente) s’effectue donc
en N
1
=
¸
N
p=1
(2p − 1) = N(N + 1) −N = N
2
. On peut calculer de manière similaire le nombre d’opérations
nécessaires pour l’étape de remontée N
2
= N
2
. Le nombre total d’opérations pour calculer x solution de (1.1.1)
par la méthode de Choleski est N
C
= N
L
+N
1
+N
2
=
N
3
3
+
N
2
2
+
N
6
+2N
2
=
N
3
3
+
5N
2
2
+
N
6
. L’étape la plus
coûteuse est donc la factorisation de A.
Analyse numérique I, Télé-enseignement, L3 18 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.3. LES MÉTHODES DIRECTES CHAPITRE 1. SYSTÈMES LINÉAIRES
Remarque 1.16 (Décomposition LDL
t
) Dans les programmes informatiques, on préfère implanter la variante
suivante de la décomposition de Choleski : A =
˜
LD
˜
L
t
où D est la matrice diagonale définie par d
i,i
=
2
i,i
,
˜
L
i,i
=
L
˜
D
−1
, où
˜
D est la matrice diagonale définie par d
i,i
=
i,i
. Cette décomposition a l’avantage de ne pas faire
intervenir le calcul de racines carrées, qui est une opération plus compliquée que les opérations “élémentaires"
(×, +, −).
1.3.5 Quelques propriétés
Comparaison Gauss/Choleski
Soit A ∈ M
N
(IR) inversible, la résolution de (1.1.1) par la méthode de Gauss demande 2N
3
/3+0(N
2
) opérations
(exercice). Dans le cas d’une matrice symétrique définie positive, la méthode de Choleski est donc environ deux
fois moins chère.
Et la méthode de Cramer ?
Soit A ∈ M
N
(IR) inversible. On rappelle que la méthode de Cramer pour la résolution de (1.1.1) consiste à
calculer les composantes de x par les formules :
x
i
=
det(A
i
)
det(A)
, i = 1, . . . , N,
où A
i
est la matrice carrée d’ordre N obtenue à partir de A en remplaçant la i-ème colonne de A par le vecteur b,
et det(A) désigne le déterminant de A.
Chaque calcul de déterminant d’une matrice carrée d’ordre N nécessite au moins N! opérations (voir cours L1-L2,
ou livres d’algèbre linéaire proposés en avant-propos). Par exemple, pour N = 10, la méthode de Gauss nécessite
environ 700 opérations, la méthode de Choleski environ 350 et la méthode de Cramer plus de 4 000 000. . . . Cette
dernière méthode est donc à proscrire.
Conservation du profil de A
Dans de nombreuses applications, par exemple lors de la résolution de systèmes linéaires issus de la discrétisation
1
de problèmes réels, la matrice A ∈ M
N
(IR) est “creuse", au sens où un grand nombre de ses coefficients sont nuls.
Il est intéressant dans ce cas pour des raisons d’économie de mémoire de connaître le “profil" de la matrice, donné
dans le cas où la matrice est symétrique, par les indices j
i
= min{j ∈ {1, . . . , N} tels que a
i,j
= 0}. Le profil de
la matrice est donc déterminé par les diagonales contenant des coefficients non nuls qui sont les plus éloignées de
la diagonale principale. Dans le cas d’une matrice creuse, il est avantageux de faire un stockage “profil" de A, en
stockant, pour chaque ligne i la valeur de j
i
et des coefficients a
i,k
, pour k = i − j
i
, . . . , i, ce qui peut permettre
un large gain de place mémoire, comme on peut s’en rendre compte sur la figure 1.3.5.
Une propriété intéressante de la méthode de Choleski est de conserver le profil. On peut montrer (en reprenant les
calculs effectués dans la deuxième partie de la démonstration du théorème 1.15) que
i,j
= 0 si j < j
i
. Donc si on
a adopté un stockage “profil" de A, on peut utiliser le même stockage pour L.
Matrices non symétriques
Soit A ∈ M
N
(IR) inversible. On ne suppose plus ici que A est symétrique. On cherche à calculer x ∈ IR
N
solution de (1.1.1) par la méthode de Choleski. Ceci est possible en remarquant que : Ax = b ⇔A
t
Ax = A
t
b car
det(A) = det(A
t
) = 0. Il ne reste alors plus qu’à vérifier que A
t
A est symétrique définie positive. Remarquons
d’abord que pour toute matrice A ∈ M
N
(IR), la matrice AA
t
est symétrique. Pour cela on utilise le fait que
1. On appelle discrétisation le fait de se ramer d’un problème où l’inconnue est une fonction en un problème ayant un nombre fini d’incon-
nues.
Analyse numérique I, Télé-enseignement, L3 19 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.3. LES MÉTHODES DIRECTES CHAPITRE 1. SYSTÈMES LINÉAIRES
0
0
FIGURE 1.3 – Exemple de profil d’une matrice symétrique
si B ∈ M
N
(IR), alors B est symétrique si et seulement si Bx · y = x · By et Bx · y = x · B
t
y pour tout
(x, y) ∈ (IR
N
)
2
. En prenant B = A
t
A, on en déduit que A
t
A est symétrique. De plus, comme A est inversible,
A
t
Ax · x = Ax · Ax = |Ax|
2
> 0 si x = 0. La matrice A
t
A est donc bien symétrique définie positive.
La méthode de Choleski dans le cas d’une matrice non symétrique consiste donc à calculer A
t
A et A
t
b, puis à
résoudre le système linéaireA
t
A · x = A
t
b par la méthode de Choleski “symétrique".
Cette manière de faire est plutôt moins efficace que la décomposition LU puisque le coût de la décomposition
LU est de 2N
3
/3 alors que la méthode de Choleski dans le cas d’une matrice non symétrique nécessite au moins
4N
3
/3 opérations (voir exercice 14).
Systèmes linéaires non carrés
On considère ici des matrices qui ne sont plus carrées. On désigne par M
M,N
(IR) l’ensemble des matrices réelles
à M lignes et N colonnes. Pour A ∈ M
M,N
(IR), M > N et b ∈ IR
M
, on cherche x ∈ IR
N
tel que
Ax = b. (1.3.16)
Ce système contient plus d’équations que d’inconnues et n’admet donc en général pas de solution. On cherche
x ∈ IR
N
qui vérifie le sytème (1.3.16) “au mieux". On introduit pour cela une fonction f définie deIR
N
dans IR
par :
f(x) = |Ax −b|
2
,
où |x| =

x · x désigne la norme euclidienne sur IR
N
. La fonction f ainsi définie est évidemment positive, et s’il
existe x qui annule f, alors x est solution du système (1.3.16). Comme on l’a dit, un tel x n’existe pas forcément,
et on cherche alors un vecteur x qui vérifie (1.3.16) “au mieux", au sens où f(x) soit le plus proche de 0. On
cherche donc x ∈ IR
N
satisfaisant (1.3.16) en minimisant f, c.à.d. en cherchant x ∈ IR
N
solution du problème
d’optimisation :
f(x) ≤ f(y) ∀y ∈ IR
N
(1.3.17)
On peut réécrire f sous la forme : f(x) = A
t
Ax · x − 2b · Ax + b · b. On montrera au chapitre III que s’il existe
une solution au problème (1.3.17), elle est donnée par la résolution du système linéaire suivant :
AA
t
x = A
t
b ∈ IR
N
,
Analyse numérique I, Télé-enseignement, L3 20 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.4. CONDITIONNEMENT CHAPITRE 1. SYSTÈMES LINÉAIRES
qu’on appelle équations normales du problème de minimisation. La résolution approchée du problème (1.3.16)
par cette procédure est appelée méthode des moindres carrés . La matrice AA
t
étant symétrique, on peut alors
employer la méthode de Choleski pour la résolution du système (1.3.5).
1.4 Conditionnement
Dans ce paragraphe, nous allons définir la notion de conditionnement d’une matrice, qui peut servir à établir une
majoration des erreurs d’arrondi dues aux erreurs sur les données. Malheureusement, nous verrons également que
cette majoration n’est pas forcément très utile dans des cas pratiques, et nous nous efforcerons d’y remédier. la
notion de conditionnement est également utilisée dans l’étude des méthodes itératives que nous verrons plus loin.
1.4.1 Le problème des erreurs d’arrondis
Soient A ∈ M
N
(IR) inversible et b ∈ IR
N
; supposons que les données A et b ne soient connues qu’à une
erreur près. Ceci est souvent le cas dans les applications pratiques. Considérons par exemple le problème de la
conduction thermique dans une tige métallique de longueur 1, modélisée par l’intervalle [0, 1]. Supposons que la
température u de la tige soit imposée aux extrémités, u(0) = u
0
et u(1) = u
1
. On suppose que la température
dans la tige satisfait à l’équation de conduction de la chaleur, qui s’écrit (k(x)u

(x))

= 0, où k est la conductivité
thermique. Cette équation différentielle du second ordre peut se discrétiser par exemple par différences finies (on
verra une description de la méthode page 23), et donne lieu à un système linéaire de matrice A. Si la conductivité
k n’est connue qu’avec une certaine précision, alors la matrice A sera également connue à une erreur près, notée
δ
A
. On aimerait que l’erreur commise sur les données du modèle (ici la conductivité thermique k) n’ait pas une
conséquence catastrophique sur le calcul de la solution du modèle (ici la température u). Si par exemple 1%
d’erreur sur k entraîne 100% d’erreur sur u, le modèle ne sera pas d’une utilité redoutable. . .
L’objectif est donc d’estimer les erreurs commises sur x solution de (1.1.1) à partir des erreurs commises sur b et
A. Notons δ
b
∈ IR
N
l’erreur commise sur b et δ
A
∈ M
N
(IR) l’erreur commise sur A. On cherche alors à évaluer
δ
x
où x + δ
x
est solution (si elle existe) du système :

x + δ
x
∈ IR
N
(A + δ
A
)(x + δ
x
) = b + δ
b
.
(1.4.18)
On va montrer que si δ
A
“n’est pas trop grand", alors la matrice A+δ
A
est inversible, et qu’on peut estimer δ
x
en
fonction de δ
A
et δ
b
.
1.4.2 Conditionnement et majoration de l’erreur d’arrondi
Définition 1.17 (Conditionnement) Soit IR
N
muni d’une norme · et M
N
(IR) muni de la norme induite. Soit
A ∈ M
N
(IR) une matrice inversible. On appelle conditionnement de A par rapport à la norme · le nombre
réel positif cond(A) défini par :
cond(A) = A A
−1
.
Proposition 1.18 (Propriétés générales du conditionnement) Soit IR
N
muni d’une norme · et M
N
(IR)
muni de la norme induite.
1. Soit A ∈ M
N
(IR) une matrice inversible, alors cond(A) ≥ 1.
2. Soit A ∈ M
N
(IR) et α ∈ IR

, alors cond(αA) = cond(A).
3. Soient A et B ∈ M
N
(IR) des matrices inversibles, alors cond(AB) ≤ cond(A)cond(B).
Proposition 1.19 (Propriétés du conditionnement pour la norme 2) Soit IR
N
muni de la norme euclidienne ·

2
et M
N
(IR) muni de la norme induite. Soit A ∈ M
N
(IR) une matrice inversible. On note cond
2
(A) le condi-
tionnement associé à la norme induite par la norme euclidienne sur IR
N
.
Analyse numérique I, Télé-enseignement, L3 21 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.4. CONDITIONNEMENT CHAPITRE 1. SYSTÈMES LINÉAIRES
1. Soit A ∈ M
N
(IR) une matrice inversible. On note σ
N
[resp. σ
1
] la plus grande [resp. petite] valeur propre
de A
t
A (noter que A
t
A est une matrice symétrique définie positive). Alors cond
2
(A) =

σ
N

1
.
2. Si de plus A une matrice symétrique définie positive, alors cond
2
(A) =
λN
λ1
, où λ
N
[resp. λ
1
] est la plus
grande [resp. petite] valeur propre de A.
3. Si Aet B sont deux matrices symétriques définies positives, alors cond
2
(A+B) ≤ max(cond
2
(A), cond
2
(B)).
4. Soit A ∈ M
N
(IR) une matrice inversible. Alors cond
2
(A) = 1 si et seulement si A = αQ où α ∈ IR

et Q
est une matrice orthogonale (c’est-à-dire Q
t
= Q
−1
).
5. Soit A ∈ M
N
(IR) une matrice inversible. On suppose que A = QR où Q est une matrice orthogonale.
Alors cond
2
(A) = cond
2
(R).
6. Soient A, B ∈ M
N
(IR) deux matrices symétriques définies positives. Montrer que cond
2
(A + B) ≤
max{cond
2
(A), cond
2
(B)}.
La démonstration de deux propositions précédentes fait l’objet de l’exercice 18 page 40.
Théorème 1.20 Soit A ∈ M
N
(IR) une matrice inversible, et b ∈ IR
N
, b = 0. On munit IR
N
d’une norme · ,
et M
N
(IR) de la norme induite. Soient δ
A
∈ M
N
(IR) et δ
b
∈ IR
N
. On suppose que δ
A
<
1
A
−1

. Alors la
matrice (A + δ
A
) est inversible et si x est solution de (1.1.1) et x + δ
x
est solution de (1.4.18), alors
δ
x

x

cond(A)
1 −A
−1
δ
A

δ
b

b
+
δ
A

A

. (1.4.19)
Démonstration :
On peut écrire A + δ
A
= A(Id + B) avec B = A
−1
δ
A
. Or le rayon spectral de B, ρ(B), vérifie ρ(B) ≤
B ≤ δ
A
A
−1
< 1, et donc (voir le théorème 1.9 page 7 et l’exercice 9 page 37) (Id +B) est inversible et
(Id + B)
−1
=

¸
n=0
(−1)
n
B
n
. On a aussi (Id + B)
−1


¸
n=0
B
n
=
1
1 −B

1
1 −A
−1
δ
A

. On en
déduit que A+δ
A
est inversible, car A+δ
A
= A(Id+B) et comme Aest inversible, (A+δ
A
)
−1
= (Id+B)
−1
A
−1
.
Comme Aet A+δ
A
sont inversibles, il existe un unique x ∈ IR
N
tel que Ax = b et il existe un unique δ
x
∈ IR
N
tel
que (A+δ
A
)(x+δ
x
) = b+δ
b
. Comme Ax = b, on a (A+δ
A

x

A
x = δ
b
et donc δ
x
= (A+δ
A
)
−1

b
−δ
A
x).
Or (A + δ
A
)
−1
= (Id +B)
−1
A
−1
, on en déduit :
(A+ δ
A
)
−1
≤ (Id +B)
−1
A
−1


A
−1

1 −A
−1
δ
A

.
On peut donc écrire la majoration suivante :
δ
x

x

A
−1
A
1 −A
−1
δ
A

δ
b

A x
+
δ
A

A

.
En utilisant le fait que b = Ax et que par suite b ≤ A x, on obtient :
δ
x

x

A
−1
A
1 −A
−1
δ
A

δb
b
+
δ
A

A

,
ce qui termine la démonstration.
Analyse numérique I, Télé-enseignement, L3 22 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.4. CONDITIONNEMENT CHAPITRE 1. SYSTÈMES LINÉAIRES
Remarquons que l’estimation (1.4.19) est optimale. En effet, en supposant que δ
A
= 0. L’estimation (1.4.19)
devient alors :
δ
x

x
≤ cond(A)
δ
b

b
. (1.4.20)
Peut-on avoir égalité dans (1.4.20) ? Pour avoir égalité dans (1.4.20) il faut choisir convenablement b et δ
b
. Soit
x ∈ IR
N
tel que x = 1 et Ax = A. Notons qu’un tel x existe parce que A = sup{Ax; x = 1} =
max{Ax; x = 1} (voir proposition 1.2 page 5) Posons b = Ax ; on a donc b = A. De même, grâce à
la proposition 1.2, il existe y ∈ IR
N
tel que y = 1, et A
−1
y = A
−1
. On choisit alors δ
b
tel que δ
b
= εy
où ε > 0 est donné. Comme A(x + δ
x
) = b + δ
b
, on a δ
x
= A
−1
δ
b
et donc : δ
x
= A
−1
δ
b
= εA
−1
y =
εA
−1
= δ
b
A
−1
. On en déduit que
δ
x

x
= δ
x
= δ
b
A
−1

A
b
car b = A et x = 1.
Par ce choix de b et δ
b
on a bien égalité dans (1.4.20). L’estimation (1.4.20) est donc optimale.
1.4.3 Discrétisation d’équations différentielles, conditionnement “efficace"
On suppose encore ici que δ
A
= 0. On suppose que la matrice A du système linéaire à résoudre provient de la
discrétisation par différences finies d’une équation différentielle introduite ci-dessous (voir (1.4.21)). On peut alors
montrer (voir exercice 26 page 44 du chapitre 1) que le conditionnement de A est d’ordre N
2
, où N est le nombre
de points de discrétisation. Pour N = 10, on a donc cond(A) 100 et l’estimation (1.4.20) donne :
δ
x

x
≤ 100
δ
b

b
.
Une erreur de 1% sur b peut donc entraîner une erreur de 100% sur x. Autant dire que dans ce cas, il est inutile de
rechercher la solution de l’équation discrétisée. . . Heureusement, on peut montrer que l’estimation (1.4.20) n’est
pas significative pour l’étude de la propagation des erreurs lors de larésolution des systèmes linéraires provenant de
la discrétisation d’une équation différentielle ou d’une équation aux dérivées partielles
2
. Pour illustrer notre pro-
pos, nous allons étudier un système linéaire très simple provenant d’un problème de mécanique et sa discrétisation
par différences finies.
Discrétisation par différences finies de −u

= f Soit f ∈ C([0, 1], IR). On cherche u tel que

−u

(x) = f(x)
u(0) = u(1) = 0.
(1.4.21)
On peut montrer (on l’admettra ici) qu’il existe une unique solution u ∈ C
2
([0, 1], IR). On cherche à calculer
u de manière approchée. On va pour cela introduire la méthode de discrétisation dite par différences finies. Soit
N ∈ IN

, on définit h = 1/(N + 1) le pas de discrétisation, c.à.d. la distance entre deux points de discrétisation,
et pour i = 0 . . . N + 1 on définit les points de discrétisation x
i
= ih (voir Figure 1.4.3), qui sont les points où
l’on va écrire l’équation −u

= f en vue de se ramer à un système discret, c.à.d. à un système avec un nombre fini
d’inconnues. Remarquons que x
0
= 0 et x
N+1
= 1. Soit u(x
i
) la valeur exacte de u en x
i
. On écrit la première
équation de (1.4.21) en chaque point x
i
, pour i = 1 . . . N.
−u

(x
i
) = f(x
i
) = b
i
∀i ∈ {1 . . . N}.
2. On appelle équation aux dérivées partielles une équation qui fait intervenir les dérivées partielles de la fonction inconnue, par exemple

2
u
∂x
2
+

2
u
∂y
2
= 0, où u est une fonction de IR
2
dans IR
Analyse numérique I, Télé-enseignement, L3 23 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.4. CONDITIONNEMENT CHAPITRE 1. SYSTÈMES LINÉAIRES
x
x
x
x
x
x
0
= 0 x
1
· · · x
i
= ih · · ·
u(x)
u
i
x
N+1
= 1
x
x
x
x x
FIGURE 1.4 – Solution exacte et approchée de −u

= f
On peut facilement montrer, par un développement de Taylor, que si u ∈ C
4
([0, 1], IR) (ce qui est vrai si f ∈ C
2
)
alors
3

u(x
i+1
) +u(x
i−1
) −2u(x
i
)
h
2
= −u

(x
i
) +R
i
avec |R
i
| ≤
h
2
12
u
(4)


. (1.4.22)
La valeur R
i
s’appelle erreur de consistance au point x
i
.
On introduit alors les inconnues (u
i
)
i=1,...,N
qu’on espère être des valeurs approchées de u aux points x
i
et qui
sont les composantes de la solution (si elle existe) du système suivant


u
i+1
+u
i−1
−2u
i
h
2
= b
i
, ∀i ∈ {1 ≤ N},
u
0
= u
N+1
= 0.
(1.4.23)
On cherche donc u =

u
1
.
.
.
u
N
¸
¸
¸ ∈ IR
N
solution de (1.4.23). Ce système peut s’écrire sous forme matricielle :Au = b
avecb = (b
1
, . . . , b
N
)
t
et A la matrice carrée d’ordre N de coefficients (a
i,j
)
i,j=1,N
définis par :

a
i,i
=
2
h
2
, ∀ i = 1, . . . , N,
a
i,j
= −
1
h
2
, ∀ i = 1, . . . , N, j = i ± 1,
a
i,j
= 0, ∀ i = 1, . . . , N, |i −j| > 1.
(1.4.24)
On remarque immédiatement que A est tridiagonale. On peut montrer que A est symétrique définie positive (voir
exercice 26 page 44). On peut aussi montrer que
max
i=1...N
{|u
i
−u(x
i
)|} ≤
h
2
96
u
(4)


.
En effet, si on note u le vecteur de IR
N
de composantes u(x
i
), i = 1, . . . , N, et R le vecteur de IR
N
de com-
posantes R
i
, i = 1, . . . , N, on a par définition de R (formule (1.4.22)) A(u − u) = R, et donc u − u


3. En effet, par développement de Taylor, on a :
u(x
i+1
) = u(x
i
) + hu

(x
i
) +
h
2
2
u

(x
i
) +
h
3
6
u

(x
i
) +
h
4
24
u
(4)

i
) où ξ
i
∈ (x
i
, x
i+1
) et
u(x
i−1
) = u(x
i
) −hu

(x
i
) +
h
2
2
u

(x
i
) −
h
3
6
u

(x
i
) +
h
4
24
u
(4)

i
) où η
i
∈ (x
i
, x
i+1
).
En faisant la somme de ces deux égalités, on en déduit que : u(x
i+1
) + u(x
i−1
) = 2u(x
i
) +
h
2
u

(x
i
) +
h
4
24
u
(4)

i
) +
h
4
24
u
(4)

i
), et
donc R
i
défini par (1.4.22) vérifie :
|R
i
| = | −
u(x
i+1
)+u(x
i−1
)−2u(x
i
)
h
2
+u

(x
i
)| ≤ |
h
4
24
u
(4)

i
) +
h
4
24
u
(4)

i
)| ≤
h
2
12
u
(4)
∞.
Analyse numérique I, Télé-enseignement, L3 24 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.5. MÉTHODES ITÉRATIVES CHAPITRE 1. SYSTÈMES LINÉAIRES
A
−1


R

. Or on peut montrer (voir exercice 28 page 45, partie I) que A
−1


≤ 1/8, et on obtient donc
avec (1.4.22) que u −u

≤ h
2
/96u
(4)


.
Cette inégalité donne la précision de la méthode. On remarque en particulier que si on raffine la discrétisation,
c’est–à–dire si on augmente le nombre de points N ou, ce qui revient au même, si on diminue le pas de discrétisa-
tion h, on augmente la précision avec laquelle on calcule la solution approchée. Or on a déjà dit qu’on peut montrer
(voir exercice 26 page 44) que cond(A) N
2
. Donc si on augmente le nombre de points, le conditionnement de
A augmente aussi. Par exemple si N = 10
4
, alors δ
x
/x = 10
8
δ
b
/b. Or sur un ordinateur en simple
précision, on a δ
b
/b ≥ 10
−7
, donc l’estimation (1.4.20) donne une estimation de l’erreur relative δ
x
/x
de 1000%, ce qui laisse à désirer pour un calcul qu’on espère précis.
En fait, l’estimation (1.4.20) ne sert à rien pour ce genre de problème, il faut faire une analyse un peu plus poussée,
comme c’est fait dans l’exercice 28 page 45. On se rend compte alors que pour f donnée il existe C ∈ IR
+
ne
dépendant que de f (mais pas de N) tel que
δ
u

u
≤ C
δ
b

b
avec b =

f(x
1
)
.
.
.
f(x
N
)
¸
¸
¸. (1.4.25)
L’estimation (1.4.25) est évidemment bien meilleure que l’estimation (1.4.20) puisqu’elle montre que l’erreur
relative commise sur u est du même ordre que celle commise sur b. En particulier, elle n’augmente pas avec le
nombre de points de discrétisation. En conclusion, l’estimation (1.4.20) est peut-être optimale dans le cas d’une
matrice quelconque, (on a montré ci-dessus qu’il peut y avoir égalité dans (1.4.20)) mais elle n’est pas significative
pour l’étude des systèmes linéaires issus de la discrétisation des équations aux dérivées partielles.
1.5 Méthodes itératives
1.5.1 Origine des systèmes à résoudre
Les méthodes directes que nous avons étudiées dans le paragraphe précédent sont très efficaces : elles donnent la
solution exacte (aux erreurs d’arrondi près) du système linéaire considéré. Elles ont l’inconvénient de nécessiter
une assez grande place mémoire car elles nécessitent le stockage de toute la matrice en mémoire vive. Si la matrice
est pleine, c.à.d. si la plupart des coefficients de la matrice sont non nuls et qu’elle est trop grosse pour la mémoire
vive de l’ordinateur dont on dispose, il ne reste plus qu’à gérer habilement le “swapping" c’est–à–dire l’échange
de données entre mémoire disque et mémoire vive pour pouvoir résoudre le système.
Cependant, si le système a été obtenu à partir de la discrétisation d’équations aux dérivés partielles, il est en
général “creux", c.à. d. qu’un grand nombre des coefficients de la matrice du système sont nuls ; de plus la matrice
a souvent une structure “bande", i.e. les éléments non nuls de la matrice sont localisés sur certaines diagonales.
On a vu au chapitre précédent que dans ce cas, la méthode de Choleski “conserve le profil" (voir à ce propos page
19). Prenons par exemple le cas d’une discrétisation du Laplacien sur un carré par différences finies. On cherche à
résoudre le problème :
−∆u = f sur Ω =]0, 1[×]0, 1[,
u = 0 sur ∂Ω,
(1.5.26)
On rappelle que l’opérateur Laplacien est défini pour u ∈ C
2
(Ω), où Ω est un ouvert de IR
2
, par
∆u =

2
u
∂x
2
+

2
u
∂y
2
.
Définissons une discrétisation uniforme du carré par les points (x
i
, y
j
), pour i = 1, . . . , M et j = 1, . . . , M avec
x
i
= ih, y
j
= jh et h = 1/(M + 1), representée en figure 1.5.1 pour M = 6. On peut alors approcher les
Analyse numérique I, Télé-enseignement, L3 25 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.5. MÉTHODES ITÉRATIVES CHAPITRE 1. SYSTÈMES LINÉAIRES
dérivées secondes par des quotients différentiels comme dans le cas unidimensionnel (voir page 23), pour obtenir
un système linéaire : AU = b où A ∈ M
N
(IR) et b ∈ IR
N
avec N = M
2
. Utilisons l’ordre“lexicographique"
pour numéroter les inconnues, c.à.d. de bas en haut et de gauche à droite : les inconnues sont alors numérotées de
1 à N = M
2
et le second membre s’écrit b = (b
1
, . . . , b
N
)
t
. Les composantes b
1
, . . . , b
N
sont définies par :pour
i, j = 1, . . . , M, on pose k = j + (i −1)M et b
k
= f(x
i
, y
j
).
2 3 4 5 6
7 8 9
31
10 11 12
13 14 15 16 17 18
19 20 21 22 23 24
30 29 28 27 26 25
32 33 34 35 36
1 i = 1
j = 1
x
y
FIGURE 1.5 – Ordre lexicographique des inconnues, exemple dans le cas M = 6
Les coefficients de A = (a
k,
)
k,l=1,N
peuvent être calculés de la manière suivante :

Pour i, j = 1, . . . , M, on pose k = j + (i −1)M,
a
k,k
=
4
h
2
,
a
k,k+1
=


1
h
2
si j = M,
0 sinon,
a
k,k−1
=


1
h
2
si j = 1,
0 sinon,
a
k,k+M
=


1
h
2
si i < M,
0 sinon,
a
k,k−M
=


1
h
2
si i > 1,
0 sinon,
Pour k = 1, . . . , N, et = 1, . . . , N;
a
k,
= 0, ∀ k = 1, . . . , N, 1 < |k −| < N ou |k −| > N.
Analyse numérique I, Télé-enseignement, L3 26 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.5. MÉTHODES ITÉRATIVES CHAPITRE 1. SYSTÈMES LINÉAIRES
La matrice est donc tridiagonale par blocs, plus précisément si on note
D =

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
4 −1 0 . . . . . . 0
−1 4 −1 0 . . . 0
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
.
.
.
.
.
.
.
.
. −1
0 . . . 0 −1 4
¸

,
les blocs diagonaux (qui sont des matrices de dimension M ×M), on a :
A =

¸
¸
¸
¸
¸
¸
¸
¸
¸
D −Id 0 . . . . . . 0
−Id D −Id 0 . . . 0
0 −Id D −Id · · · 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
.
.
. −Id D −Id
0 . . . 0 −Id D
¸

, (1.5.27)
où Id désigne la matrice identité d’ordre M.
On peut remarquer que la matrice A a une “largeur de bande" de M. Si on utilise une méthode directe genre
Choleski, on aura donc besoin d’une place mémoire de N × M = M
3
. (Notons que pour une matrice pleine on a
besoin de M
4
.)
Lorsqu’on a affaire à de très gros systèmes issus par exemple de l’ingénierie (calcul des structures, mécanique
des fluides, . . . ), où N peut être de l’ordre de plusieurs milliers, on cherche à utiliser des méthodes nécessitant le
moins de mémoire possible. On a intérêt dans ce cas à utiliser des méthodes itératives. Ces méthodes ne font appel
qu’à des produits matrice vecteur, et ne nécessitent donc pas le stockage du profil de la matrice mais uniquement
des termes non nuls. Dans l’exemple précédent, on a 5 diagonales non nulles, donc la place mémoire nécessaire
pour un produit matrice vecteur est 5N = 5M
2
. Ainsi pour les gros systèmes, il est souvent avantageux d’utiliser
des méthodes itératives qui ne donnent pas toujours la solution exacte du système en un nombre fini d’itérations,
mais qui donnent une solution approchée à coût moindre qu’une méthode directe, car elles ne font appel qu’à des
produits matrice vecteur.
Remarque 1.21 (Sur la méthode du gradient conjugué)
Il existe une méthode itérative “miraculeuse" de résolution des systèmes linéaires lorsque la matrice A est symé-
trique définie positive : c’est la méthode du gradient conjugué. Elle est miraculeuse en ce sens qu’elle donne la
solution exacte du système Ax = b en un nombre fini d’opérations (en ce sens c’est une méthode directe) : moins
de N itérations où N est l’ordre de la matrice A, bien qu’elle ne nécessite que des produits matrice vecteur ou
des produits scalaires. La méthode du gradient conjugué est en fait une méthode d’optimisation pour la recherche
du minimum dans IR
N
de la fonction de IR
N
dans IR définie par : f(x) =
1
2
Ax · x − b · x. Or on peut montrer
que lorsque A est symétrique définie positive, la recherche de x minimisant f dans IR
N
est équivalent à la réso-
lution du système Ax = b. (Voir paragraphe 3.2.2 page 128.) En fait, la méthode du gradient conjugué n’est pas
si miraculeuse que cela en pratique : en effet, le nombre N est en général très grand et on ne peut en géneral
pas envisager d’effectuer un tel nombre d’itérations pour résoudre le système. De plus, si on utilise la méthode du
gradient conjugué brutalement, non seulement elle ne donne pas la solution en N itérations en raison de l’accumu-
lation des erreurs d’arrondi, mais plus la taille du système croît et plus le nombre d’itérations nécessaires devient
élevé. On a alors recours aux techniques de “préconditionnement". Nous reviendrons sur ce point au chapitre 3.
La méthode itérative du gradient à pas fixe, qui est elle aussi obtenue comme méthode de minimisation de la
fonction f ci-dessus, fait l’objet des exercices 29 page 46 et 68 page 153.
Analyse numérique I, Télé-enseignement, L3 27 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.5. MÉTHODES ITÉRATIVES CHAPITRE 1. SYSTÈMES LINÉAIRES
1.5.2 Définition et propriétés
Soit A ∈ M
N
(IR) une matrice inversible et b ∈ IR
N
, on cherche toujours ici à résoudre le système linéaire (1.1.1)
c’est–à–dire à trouver x ∈ IR
N
tel que Ax = b.
Définition 1.22 On appelle méthode itérative de résolution du système linéaire (1.1.1) une méthode qui construit
une suite (x
(k)
)
k∈IN
(où “l’itéré" x
(k)
est calculé à partir des itérés x
(0)
. . . x
(k−1)
) censée converger vers x
solution de (1.1.1)).
Définition 1.23 On dit qu’une méthode itérative est convergente si pour tout choix initial x
(0)
∈ IR
N
, on a :
x
(k)
−→x quand n →+∞
Puisqu’il s’agit de résoudre un sytème linéaire, il est naturel d’essayer de construire la suite des itérés sous la forme
x
(k+1)
= Bx
(k)
+ c, où B ∈ M
N
(IR) et c ∈ IR
N
seront choisis de manière à ce que la méthode itérative ainsi
définie soit convergente. On appellera ce type de méthode Méthode I, et on verra par la suite un choix plus restrictif
qu’on appellera Méthode II.
Définition 1.24 (Méthode I) On appelle méthode itérative de type I pour la résolution du système linéaire (1.1.1)
une méthode itérative où la suite des itérés (x
(k)
)
k∈IN
est donnée par :

Initialisation x
(0)
∈ IR
N
Itération n x
(k+1)
= Bx
(k)
+c.
où B ∈ M
N
(IR) et c ∈ IR
N
.
Remarque 1.25 (Condition nécessaire de convergence) Une condition nécessaire pour que la méthode I converge
est que c = (Id − B)A
−1
b. En effet, supposons que la méthode converge. En passant à la limite lorsque n
tend vers l’infini sur l’itération n de l’algorithme, on obtient x = Bx + c et comme x = A
−1
b, ceci entraîne
c = (Id −B)A
−1
b.
Remarque 1.26 (Intérêt pratique) La “méthode I” est assez peu intéressante en pratique, car il faut calculer
A
−1
b, sauf si (Id −B)A
−1
= αId, avec α ∈ IR. On obtient dans ce cas :
B = −αA+Id
et c = αb
c’est–à–dire
x
n+1
= x
n
+ α(b −Ax
n
).
Le terme b −Ax
n
est appelé résidu et la méthode s’appelle dans ce cas la méthode d’extrapolation de Richardson.
Théorème 1.27 (Convergence de la méthode de type I) Soit A ∈ M
N
(IR) Ainversible, b ∈ IR
N
. On considère
la méthode I avec B ∈ M
N
(IR) et
c = (Id −B)A
−1
b. (1.5.28)
Alors la méthode I converge si et seulement si le rayon spectral ρ(B) de la matrice B vérifie ρ(B) < 1.
Démonstration
Soit B ∈ M
N
(IR).
Soit x la solution du système linéaire (1.1.1) ; grâce à (1.5.28), x = Bx + c, et comme x
(k+1)
= Bx
(k)
+ c, on a
donc x
(k+1)
−x = B(x
(k)
−x) et par récurrence sur k,
x
(k)
−x = B
k
(x
(0)
−x), ∀k ∈ IN. (1.5.29)
On en déduit par le lemme 1.5 que la méthode converge si et seulement si ρ(B) < 1. En effet
Analyse numérique I, Télé-enseignement, L3 28 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.5. MÉTHODES ITÉRATIVES CHAPITRE 1. SYSTÈMES LINÉAIRES
(⇒) Supposons que ρ(B) ≥ 1 et montrons que la méthode I ne converge pas. Si ρ(B) ≥ 1 il existe y ∈ IR
N
tel
que B
k
y −→
k→+∞
0.
En choisissant x
(0)
= x+y = A
−1
b+y, l’égalité (1.5.29) devient : x
(k)
−x = B
k
y −→
k→+∞
0 par hypothèse
et donc la méthode n’est pas convergente.
(⇐) Supposons maintenant que ρ(B) < 1 alors l’égalité (1.5.29) donne
x
(k)
−x = B
k
(x
(0)
−x) →
k→+∞
0
car ρ(B) < 1. Donc x
(k)
−→
k→+∞
x = A
−1
b. La méthode est bien convergente.
Définition 1.28 (Méthode II) Soit A ∈ M
N
(IR) une matrice inversible, b ∈ IR
N
. Soient
˜
M et
˜
N ∈ M
N
(IR)
des matrices telles que A =
˜
M −
˜
N et
˜
M est inversible (et facile à inverser).
On appelle méthode de type II pour la résolution du système linéaire (1.1.1) une méthode itérative où la suite des
itérés (x
(k)
)
k∈IN
est donnée par :

Initialisation x
(0)
∈ IR
N
Itération n
˜
Mx
(k+1)
=
˜
Nx
(k)
+b.
(1.5.30)
Remarque 1.29 Si
˜
Mx
(k+1)
=
˜
Nx
(k)
+b pour tout k ∈ IN et x
(k)
−→y quand n −→+∞alors
˜
My =
˜
Ny +b,
c.à.d. (
˜
M −
˜
N)y = b et donc Ay = b. En conclusion, si la méthode de type II converge, alors elle converge bien
vers la solution du système linéaire.
Théorème 1.30 (Convergence de la méthode II) Soit A ∈ M
N
(IR) une matrice inversible, b ∈ IR
N
. Soient
˜
M
et
˜
N ∈ M
N
(IR) des matrices telles que A =
˜
M −
˜
N et
˜
M est inversible. Alors :
1. La méthode définie par (1.5.30) converge si et seulement si ρ(
˜
M
−1
˜
N) < 1.
2. La méthode itérative définie par (1.5.30) converge si et seulement si il existe une norme induite notée ·
telle que
˜
M
−1
˜
N < 1.
Démonstration
1. Pour démontrer le point 1, il suffit de réécrire la méthode II avec le formalisme de la méthode I. En effet,
˜
Mx
(k+1)
=
˜
Nx
(k)
+b ⇐⇒x
(k+1)
=
˜
M
−1
˜
Nx
(k)
+
˜
M
−1
b = Bx
(k)
+c,
avec B =
˜
M
−1
˜
N et c =
˜
M
−1
b. icicicicicici
2. Si il existe une norme induite notée · telle que
˜
M
−1
˜
N < 1, alors en vertu du lemme 1.5, ρ(
˜
M
−1
˜
N) < 1
et donc la méthode converge ce qui précède.
Réciproquement, si la méthode converge alors ρ(
˜
M
−1
˜
N) < 1, et donc il existe η > 0 tel que ρ(
˜
M
−1
˜
N) =
1 − η. varepsilon Prenons maintenant ε =
η
2
et appliquons la proposition 1.7 : il existe une norme induite
· telle que
˜
M
−1
˜
N ≤ ρ(
˜
M
−1
˜
N) + ε < 1, ce qui démontre le résultat.
Pour trouver des méthodes itératives de résolution du système (1.1.1), on cherche donc une décomposition de la
matrice A de la forme : A =
˜
M −
˜
N, où
˜
M est inversible, telle que le système
˜
My = d soit un système facile à
résoudre (par exemple
˜
M soit triangulaire).
Théorème 1.31 (Condition suffisante de convergence, méthode II) Soit A ∈ M
N
(IR) une matrice symétrique
définie positive, et soient
˜
M et
˜
N ∈ M
N
(IR) telles que A =
˜
M −
˜
N et
˜
M est inversible. Si la matrice
˜
M
t
+
˜
N
est symétrique définie positive alors ρ(
˜
M
−1
˜
N) < 1, et donc la méthode II converge.
Analyse numérique I, Télé-enseignement, L3 29 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.5. MÉTHODES ITÉRATIVES CHAPITRE 1. SYSTÈMES LINÉAIRES
Démonstration On rappelle (voir exercice (5) page 37) que si B ∈ M
N
(IR), et si · est une norme induite sur
M
N
(IR) par une norme sur IR
N
, on a toujours ρ(B) ≤ B. On va donc chercher une norme sur IR
N
, notée ·

telle que

˜
M
−1
˜
N

= max{
˜
M
−1
˜
Nx

, x ∈ IR
N
, x

= 1} < 1,
(où on désigne encore par .

la norme induite sur M
N
(IR)) ou encore :

˜
M
−1
˜
Nx

< x

, ∀x ∈ IR
N
, x = 0. (1.5.31)
On définit la norme ·

par x

=

Ax · x, pour tout x ∈ IR
N
. Comme A est symétrique définie positive, ·

est bien une norme sur IR
N
, induite par le produit scalaire (x|y)
A
= Ax· y. On va montrer que la propriété (1.5.31)
est vérifiée par cette norme. Soit x ∈ IR
N
, x = 0, on a :
˜
M
−1
˜
Nx
2

= A
˜
M
−1
˜
Nx·
˜
M
−1
˜
Nx. Or
˜
N =
˜
M−A, et
donc :
˜
M
−1
˜
Nx
2

= A(Id −
˜
M
−1
A)x · (Id −
˜
M
−1
A)x. Soit y =
˜
M
−1
Ax ; remarquons que y = 0 car x = 0
et
˜
M
−1
A est inversible. Exprimons
˜
M
−1
˜
Nx
2

à l’aide de y.

˜
M
−1
˜
Nx
2

= A(x −y) · (x −y) = Ax · x −2Ax · y +Ay · y = x
2

−2Ax · y +Ay · y.
Pour que
˜
M
−1
˜
Nx
2

< x
2

(et par suite ρ(
˜
M
−1
˜
N) < 1), il suffit donc de montrer que −2Ax · y +Ay · y < 0.
Or, comme
˜
My = Ax, on a : −2Ax · y + Ay · y = −2
˜
My · y + Ay · y. En écrivant :
˜
My · y = y ·
˜
M
t
y =
˜
M
t
y · y, on obtient donc que : −2Ax · y + Ay · y = (−
˜
M −
˜
M
t
+ A)y · y, et comme A =
˜
M −
˜
N on obtient
−2Ax · y + Ay · y = −(
˜
M
t
+
˜
N)y · y. Comme
˜
M
t
+
˜
N est symétrique définie positive par hypothèse et que
y = 0, on en déduit que −2Ax · y +Ay · y < 0, ce qui termine la démonstration.
Estimation de la vitesse de convergence On montre dans l’exercice 43 page 52 que si la suite (x
(k)
)
k∈IN

IR est donnée par une “méthode I" (voir définition 1.24 page 28) convergente, i.e. x
(k+1)
= Bx
(k)
+ C (avec
ρ(B) < 1), et si on suppose que x est la solution du système (1.1.1), et que x
(k)
→ x quand k → ∞, alors
x
(k+1)
−x
x
(k)
−x
−→ ρ(B) quand k → +∞(sauf cas particuliers) indépendamment de la norme sur IR
N
. Le rayon
spectral ρ(B) de la matrice B est donc une bonne estimation de la vitesse de convergence. Pour estimer cette
vitesse de convergence lorsqu’on ne connaît pas x, on peut utiliser le fait (voir encore l’exercice 43 page 52) qu’on
a aussi
x
(k+1)
−x
(k)

x
(k)
−x
(k−1)

−→ρ(B) lorsque n →+∞,
ce qui permet d’évaluer la vitesse de convergence de la méthode par le calcul des itérés courants.
1.5.3 Méthodes de Jacobi, Gauss-Seidel et SOR/SSOR
Décomposition par blocs de A :
Dans de nombreux cas pratiques, les matrices des systèmes linéaires à résoudre ont une structure “par blocs", et on
se sert de cette structure lors de la résolution par une méthode itérative.
Définition 1.32 Soit A ∈ M
N
(IR) une matrice inversible. Une décomposition par blocs de A est définie par un
entier S ≤ N, des entiers (n
i
)
i=1,...,S
tels que
¸
S
i=1
n
i
= N, et S
2
matrices A
i,j
∈ M
ni,nj
(IR) (ensemble des
matrices rectangulaires à n
i
lignes et n
j
colonnes, telles que les matrices A
i,i
soient inversibles pour i = 1, . . . , S
et
Analyse numérique I, Télé-enseignement, L3 30 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.5. MÉTHODES ITÉRATIVES CHAPITRE 1. SYSTÈMES LINÉAIRES
A =

A
1,1
A
1,2
. . . . . . A
1,S
A
2,1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. A
S−1,S
A
S,1
. . . . . . A
S,S−1
A
S,S
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
(1.5.32)
Remarque 1.33
1. Si S = N et n
i
= 1 ∀i ∈ {1, . . . , S}, chaque bloc est constitué d’un seul coefficient.
2. Si A est symétrique définie positive, la condition A
i,i
inversible dans la définition 1.32 est inutile car A
i,i
est nécessairement symétrique définie positive donc inversible. Prenons par exemple i = 1 ; soit y ∈ IR
n1
,
y = 0 et x = (y, 0 . . . , 0)
t
∈ IR
N
. Alors A
1,1
y · y = Ax · x > 0 donc A
1,1
est symétrique définie positive.
3. Si A est une matrice triangulaire par blocs, c.à.d. de la forme (1.5.32) avec A
i,j
= 0 si j > i, alors
det(A) =
S
¸
i=1
det(A
i,i
).
Par contre si A est décomposée en 2 × 2 blocs carrés (i.e. tels que n
i
= m
j
, ∀(i, j) ∈ {1, 2}), on a en
général : det(A) = det(A
1,1
)det(A
2,2
) −det(A
1,2
)det(A
2,1
).
Méthode de Jacobi
On peut remarquer que le choix le plus simple pour le système
˜
Mx = d soit facile à résoudre (on rappelle que c’est
un objectif de la mise sous forme méthode de type II) est de prendre pour
˜
M une matrice diagonale. La méthode
de Jacobi
4
consiste à prendre pour
˜
M la matrice diagonale D formée par les blocs diagonaux de A :
D =

A
1,1
0 . . . . . . 0
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 . . . . . . 0 A
S,S
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
.
Dans la matrice ci-dessus, 0 désigne un bloc nul.
4. Carl Gustav Jakob Jacobi, (Potsdam, 1804 - Berlin, 1851), mathématicien allemand. Issu d’une famille juive, il étudie à l’Université de
Berlin, où il obtient son doctorat en 1825, à peine âgé de 21 ans. Sa thèse est une discussion analytique de la théorie des fractions. En 1829,
il devient professeur de mathématique à l’Université de Kï¿
1
2
nigsberg, et ce jusqu’en 1842. Il fait une dépression, et voyage en Italie en 1843.
à son retour, il déménage à Berlin où il sera pensionnaire royal jusqu’à sa mort. Dans une lettre du 2 juillet 1830 adressée à Legendre, Jacobi
écrit : ï¿
1
2
M. Fourier avait l’opinion que le but principal des mathématiques était l’utilité publique et l’explication des phénomènes naturels ;
mais un philosophe comme lui aurait dû savoir que le but unique de la science, c’est l’honneur de l’esprit humain, et que sous ce titre, une
question de nombres vaut autant qu’une question du système du monde. ï¿
1
2
L’expression est restée, et renvoie à un débat toujours d’actualité.
Analyse numérique I, Télé-enseignement, L3 31 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.5. MÉTHODES ITÉRATIVES CHAPITRE 1. SYSTÈMES LINÉAIRES
On a alors
˜
N = E +F, où E et F sont constitués des blocs triangulaires inférieurs et supérieurs de la matrice A :
E =

0 0 . . . . . . 0
−A
2,1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
−A
S,1
. . . . . . −A
S,S−1
0
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
et
F =

0 −A
1,2
. . . . . . −A
1,S
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. −A
S−1,S
0 . . . . . . 0 0
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
.
On a bien A =
˜
M −
˜
N et avec D, E et F définies comme ci-dessus, la méthode de Jacobi s’écrit :

x
(0)
∈ IR
N
Dx
(k+1)
= (E +F)x
(k)
+b.
(1.5.33)
Lorsqu’on écrit la méthode de Jacobi comme une méthode I, on a B = D
−1
(E +F) ; on notera J cette matrice.
En introduisant la décomposition par blocs de x, solution recherchée de (1.1.1), c.à.d. : x = [x
1
, . . . , x
S
]
t
, où
x
i
∈ IR
ni
, on peut aussi écrire la méthode de Jacobi sous la forme :

x
0
∈ IR
N
A
i,i
x
(k+1)
i
= −
¸
j<i
A
i,j
x
(k)
j

¸
j>i
A
i,j
x
(k)
j
+b
i
i = 1, . . . , S.
(1.5.34)
Si S = N et n
i
= 1 ∀i ∈ {1, . . . , S}, chaque bloc est constitué d’un seul coefficient, et on obtient la méthode de
Jacobi par points (aussi appelée méthode de Jacobi), qui s’écrit donc :

x
0
∈ IR
N
a
i,i
x
(k+1)
i
= −
¸
j<i
a
i,j
x
(k)
j

¸
j>i
a
i,j
x
(k)
j
+b
i
i = 1, . . . , N.
(1.5.35)
Méthode de Gauss-Seidel
L’idée de la méthode de Gauss-Seidel
5
est d’utiliser le calcul des composantes de l’itéré (k + 1) dès qu’il est
effectué. Par exemple, pour calculer la deuxième composante x
(k+1)
2
du vecteur x
(k+1)
, on pourrait employer la
“nouvelle" valeur x
(k+1)
1
qu’on vient de calculer plutôt que la valeur x
(k)
1
comme dans (1.5.34) ; de même, dans le
calcul de x
(k+1)
3
, on pourrait employer les “nouvelles" valeurs x
(k+1)
1
et x
(k+1)
2
plutôt que les valeurs x
(k)
1
et x
(k)
2
.
Cette idée nous suggère de remplacer dans (1.5.34) x
(k)
j
par x
(k+1)
j
si j < i. On obtient donc l’algorithme suivant :
5. Philipp Ludwig von Seidel (Zweibrï¿
1
2
cken, Allemagne 1821 ? Munich, 13 August 1896) mathématicien allemand dont il est dit qu’il a
découvert en 1847 le concept crucial de la convergence uniforme en étudiant une démonstration incorrecte de Cauchy.
Analyse numérique I, Télé-enseignement, L3 32 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.5. MÉTHODES ITÉRATIVES CHAPITRE 1. SYSTÈMES LINÉAIRES

x
(0)
∈ IR
N
A
i,i
x
(k+1)
i
= −
¸
j<i
A
i,j
x
(k+1)
j

¸
i<j
A
i,j
x
(k)
j
+b
i
, i = 1, . . . , S.
(1.5.36)
Notons que l’algorithme de Gauss–Seidel par points (cas ou S = N et n
i
= 1) s’écrit donc :

x
(0)
∈ IR
N
a
i,i
x
(k+1)
i
= −
¸
j<i
a
i,j
x
(k+1)
j

¸
i<j
a
i,j
x
(k)
j
+b
i
, i = 1, . . . , N.
(1.5.37)
La méthode de Gauss–Seidel s’écrit donc sous forme de méthode II avec
˜
M = D−E et
˜
N = F :

x
0
∈ IR
N
(D −E)x
(k+1)
= Fx
(k)
+b.
(1.5.38)
Lorsqu’on écrit la méthode de Gauss–Seidel comme une méthode I, on a B = (D − E)
−1
F ; on notera L
1
cette
matrice, dite matrice de Gauss-Seidel.
Méthodes SOR et SSOR
L’idée de la méthode de sur-relaxation (SOR = Successive Over Relaxation) est d’utiliser la méthode de Gauss-
Seidel pour calculer un itéré intermédiaire ˜ x
(k+1)
qu’on “relaxe" ensuite pour améliorer la vitesse de convergence
de la méthode. On se donne 0 < ω < 2, et on modifie l’algorithme de Gauss–Seidel de la manière suivante :

x
0
∈ IR
N
A
i,i
˜ x
(k+1)
i
= −
¸
j<i
A
i,j
x
(k+1)
j

¸
i<j
A
i,j
x
(k)
j
+b
i
x
(k+1)
i
= ω˜ x
(k+1)
i
+ (1 −ω)x
(k)
i
, i = 1, . . . , S.
(1.5.39)
(Pour ω = 1 on retrouve la méthode de Gauss–Seidel.)
L’algorithme ci-dessus peut aussi s’écrire (en multipliant par A
i,i
la ligne 3 de l’algorithme (1.5.39)) :

x
(0)
∈ IR
N
A
i,i
x
(k+1)
i
= ω


¸
j<i
A
i,j
x
(k+1)
j

¸
j>i
A
i,j
x
(k)
j
+b
i
¸
¸
+(1 −ω)A
i,i
x
(k)
i
.
(1.5.40)
On obtient donc
(D−ωE)x
(k+1)
= ωFx
(k)
+ ωb + (1 −ω)Dx
(k)
.
L’algorithme SOR s’écrit donc comme une méthode II avec
˜
M =
D
ω
−E et
˜
N = F +

1 − ω
ω

D.
Il est facile de vérifier que A =
˜
M −
˜
N.
L’algorithme SOR s’écrit aussi comme une méthode I avec
B =

D
ω
−E

−1
(F +

1 −ω
ω

D).
On notera L
ω
cette matrice.
Analyse numérique I, Télé-enseignement, L3 33 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.5. MÉTHODES ITÉRATIVES CHAPITRE 1. SYSTÈMES LINÉAIRES
Remarque 1.34 (Méthode de Jacobi relaxée) On peut aussi appliquer une procédure de relaxation avec comme
méthode iérative “de base” la méthode de Jacobi, voir à ce sujet l’exercice 36 page 48). Cette méthode est toutefois
beaucoup moins employée en pratique (car moins efficace) que la méthode SOR.
En “symétrisant" le procédé de la méthode SOR, c.à.d. en effectuant les calculs SOR sur les blocs dans l’ordre 1
à N puis dans l’ordre N à 1, on obtient la méthode de sur-relaxation symétrisée (SSOR = Symmetric Successive
Over Relaxation) qui s’écrit dans le formalisme de la méthode I avec
B =

D
ω
−F

−1

E +
1 −ω
ω
D

. .. .
calcul dans l’ordre S...1

D
ω
−E

−1

F +
1 −ω
ω
D

. .. .
calcul dans l’ordre 1...S
.
Etude théorique de convergence
On aimerait pouvoir répondre aux questions suivantes :
1. Les méthodes sont–elles convergentes ?
2. Peut-on estimer leur vitesse de convergence?
3. Peut-on estimer le coefficient de relaxation ω optimal dans la méthode SOR, c.à.d. celui qui donnera la plus
grande vitesse de convergence?
On va maintenant donner des réponses, partielles dans certains cas, faute de mieux, à ces questions.
Convergence On rappelle qu’une méthode itérative de type I, i.e. écrite sous la forme x
(n+1)
= Bx
(n)
+ C
converge si et seulement si ρ(B) < 1 (voir le théorème 1.27 page 28).
Théorème 1.35 (Sur la convergence de la méthode SOR)
Soit A ∈ M
N
(IR) qui admet une décomposition par blocs définie dans la définition 1.5.32 page 31 ; soient D
la matrice constituée par les blocs diagonaux, −E (resp. −F) la matrice constituée par les blocs triangulaires
inférieurs (resp. supérieurs) ; on a donc : A = D −E −F. Soit L
ω
la matrice d’itération de la méthode SOR (et
de la méthode de Gauss–Seidel pour ω = 1) définie par :
L
ω
=

D
ω
−E

−1

F +
1 −ω
ω
D

, ω = 0.
Alors :
1. Si ρ(L
ω
) < 1 alors 0 < ω < 2.
2. Si on suppose de plus que A symétrique définie positive, alors :
ρ(L
ω
) < 1 si et seulement si 0 < ω < 2.
En particulier, si A est une matrice symétrique définie positive, la méthode de Gauss–Seidel converge.
Démonstration du théorème 1.35 :
1. Calculons det(L
ω
). Par définition,
L
ω
=
˜
M
−1
˜
N, avec
˜
M =
1
ω
D−E et
˜
N = F +
1 −ω
ω
D.
Analyse numérique I, Télé-enseignement, L3 34 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.5. MÉTHODES ITÉRATIVES CHAPITRE 1. SYSTÈMES LINÉAIRES
Donc det(L
ω
) = (det(
˜
M))
−1
det(
˜
N). Comme
˜
M et
˜
N sont des matrices triangulaires par blocs, leurs
déterminants sont les produits des déterminants des blocs diagonaux (voir la remarque 1.33 page 31). On a
donc :
det(L
ω
) =
(
1−ω
ω
)
N
det(D)
(
1
ω
)
N
det(D)
= (1 −ω)
N
.
Or le déterminant d’une matrice est aussi le produit des valeurs propres de cette matrice (comptées avec leur
multiplicités algébriques), dont les valeurs absolues sont toutes, par définition, inférieures au rayon spectral.
On a donc : |det(L
ω
)| = |(1 −ω)
N
| ≤ (ρ(L
ω
))
N
, d’où le résultat.
2. Supposons maintenant que A est une matrice symétrique définie positive, et que 0 < ω < 2. Montrons
que ρ(L
ω
) < 1. Par le théorème 1.31 page 29, il suffit pour cela de montrer que
˜
M
t
+
˜
N est une matrice
symétrique définie positive. Or,
˜
M
t
=

D
ω
−E

t
=
D
ω
−F,
˜
M
t
+
˜
N =
D
ω
−F +F +
1 −ω
ω
D =
2 −ω
ω
D.
La matrice
˜
M
t
+
˜
N est donc bien symétrique définie positive.
Remarque 1.36 (Comparaison Gauss–Seidel/Jacobi) On a vu (théorème 1.35) que si A est une matrice symé-
trique définie positive, la méthode de Gauss–Seidel converge. Par contre, même dans le cas où A est symétrique
définie positive, il existe des cas où la méthode de Jacobi ne converge pas, voir à ce sujet l’exercice 30 page 46.
Remarquons que le résultat de convergence des méthodes itératives donné par le théorème précédent n’est que
partiel, puisqu’il ne concerne que les matrices symétriques définies positives et que les méthodes Gauss-Seidel
et SOR. On a aussi un résultat de convergence de la méthode de Jacobi pour les matrices à diagonale dominante
stricte, voir exercice 32 page 47, et un résultat de comparaison des méthodes pour les matrices tridiagonales par
blocs, voir le théorème 1.37 donné ci-après. Dans la pratique, il faudra souvent compter sur sa bonne étoile. . .
Estimation du coefficient de relaxation optimal de SOR La question est ici d’estimer le coefficient de relaxa-
tion ω optimal dans la méthode SOR, c.à.d. le coefficient ω
0
∈]0, 2[ (condition nécessaire pour que la méthode
SOR converge, voir théorème 1.35) tel que ρ(L
ω0
) < ρ(L
ω
) ∀ω ∈]0, 2[.
D’après le paragraphe précédent ce ω
0
donnera la meilleure convergence possible pour SOR. On sait le faire dans le
cas assez restrictif des matrices tridiagonales par blocs. On ne fait ici qu’énoncer le résultat dont la démonstration
est donnée dans le livre de Ph. Ciarlet conseillé en début de cours.
Théorème 1.37 (Coefficient optimal, matrice tridiagonale) On considère une matrice A ∈ M
N
(IR) qui admet
une décomposition par blocs définie dans la définition 1.5.32 page 31 ; on suppose que la matrice A est tridiago-
nale par blocs, c.à.d. A
i,j
= 0 si |i −j| > 1 ; soient L
1
et J les matrices d’itération respectives des méthodes de
Gauss-Seidel et Jacobi, alors :
1. ρ(L
1
) = (ρ(J))
2
: la méthode de Gauss–Seidel converge (ou diverge) donc plus vite que celle de Jacobi.
2. On suppose de plus que toutes les valeurs propres de la matrice d’itération J de la méthode de Jacobi sont
réelles. alors le paramètre de relaxation optimal, c.à.d. le paramètre ω
0
tel que ρ(L
ω0
) = min{ρ(L
ω
), ω ∈
]0, 2[}, s’exprime en fonction du rayon spectral ρ(J) de la matrice J par la formule :
ω
0
=
2
1 +

1 −ρ(J)
2
> 1,
et on a : ρ(L
ω0
) = ω
0
−1.
Analyse numérique I, Télé-enseignement, L3 35 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.6. EXERCICES CHAPITRE 1. SYSTÈMES LINÉAIRES
1.5.4 Recherche de valeurs propres et vecteurs propres
Les techniques de recherche des éléments propres, c.à.d. des valeurs et vecteurs propres (voir Définition 1.4 page
6) d’une matrice sont essentielles dans de nombreux domaines d’application, par exemple en dynamique des struc-
tures : la recherche des modes propres d’une structure peut s’avérer importante pour le dimensionnement de struc-
tures sous contraintes dynamiques, voir à ce propos l’exemple célèbre du “Tacoma Bridge", décrit dans les livres
de M. Braun (en anglais) et M. Schatzman (en français) conseillés en début de cours.
On donne dans les exercices qui suivent deux méthodes assez classiques de recherche de valeurs propres d’une
matrice qui sont la méthode de la puissance (exercice 43 page 52) et celui de la puissance inverse (exercice 44
page 53). Citons également une méthode très employée, la méthode QR, qui est présente dans de nombreuses
bibliothèques de programmes. On pourra se référer aux ouvrages de Ph. Ciarlet et de M. Schatzman, de D. Serre
et de P. Lascaux et R. Theodor (voir introduction).
1.6 Exercices
Exercice 1 (Matrices symétriques définies positives) Suggestions en page 56, corrigé en page 60.
On rappelle que toute matrice A ∈ M
N
(IR) symétrique est diagonalisable dans IR (cf. lemme 1.12 page 8). Plus
précisément, on a montré en cours que, si A ∈ M
N
(IR) est une matrice symétrique, il existe une base de IR
N
,
notée {f
1
, . . . , f
N
}, et il existe λ
1
, . . . , λ
N
∈ IR t.q. Af
i
= λ
i
f
i
, pour tout i ∈ {1, . . . , N}, et f
i
· f
j
= δ
i,j
pour
tout i, j ∈ {1, . . . , N} (x · y désigne le produit scalaire de x avec y dans IR
N
).
1. Soit A ∈ M
N
(IR). On suppose que A est symétrique définie positive, montrer que les éléments diagonaux
de A sont strictements positifs.
2. Soit A ∈ M
N
(IR) une matrice symétrique. Montrer que A est symétrique définie positive si et seulement si
toutes les valeurs propres de A sont strictement positives.
3. Soit A ∈ M
N
(IR). On suppose que Aest symétrique définie positive. Montrer qu’on peut définir une unique
matrice B ∈ M
N
(IR), B symétrique définie positive t.q. B
2
= A (on note B = A
1
2
).
Exercice 2 (Normes de l’Identité)
Soit Id la matrice “Identité" de M
N
(IR). Montrer que pour toute norme induite on a Id = 1 et que pour toute
norme matricielle on a Id ≥ 1.
Exercice 3 (Normes induites particulières) Suggestions en page 56, corrigé détaillé en page 60.
Soit A = (a
i,j
)
i,j∈{1,...,N}
∈ M
N
(IR).
1. On munit IR
N
de la norme ·

et M
N
(IR) de la norme induite correspondante, notée aussi ·

. Montrer
que A

= max
i∈{1,...,N}
¸
N
j=1
|a
i,j
|.
2. On munit IR
N
de la norme ·
1
et M
N
(IR) de la norme induite correspondante, notée aussi ·
1
. Montrer
que A
1
= max
j∈{1,...,N}
¸
N
i=1
|a
i,j
|.
3. On munit IR
N
de la norme ·
2
et M
N
(IR) de la norme induite correspondante, notée aussi ·
2
. Montrer
que A
2
= (ρ(A
t
A))
1
2
.
Exercice 4 (Norme non induite)
Pour A = (a
i,j
)
i,j∈{1,...,N}
∈ M
N
(IR), on pose A
s
= (
¸
N
i,j=1
a
2
i,j
)
1
2
.
1. Montrer que ·
s
est une norme matricielle mais n’est pas une norme induite (pour N > 1).
Analyse numérique I, Télé-enseignement, L3 36 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.6. EXERCICES CHAPITRE 1. SYSTÈMES LINÉAIRES
2. Montrer que A
2
s
= tr(A
t
A). En déduire que A
2
≤ A
s


NA
2
et que Ax
2
≤ A
s
x
2
,
pour tout A ∈ M
N
(IR) et tout x ∈ IR
N
.
3. Chercher un exemple de norme non matricielle.
Exercice 5 (Rayon spectral) Suggestions en page 56, corrigé détaillé en page 61.
On munit M
N
(IR) d’une norme, notée · . Soit A ∈ M
N
(IR).
1. Montrer que ρ(A) < 1 si et seulement si A
k
→0 quand k →∞.
2. Montrer que : ρ(A) < 1 ⇒limsup
k→∞
A
k

1
k
≤ 1.
3. Montrer que :liminf
k→∞
A
k

1
k
< 1 ⇒ρ(A) < 1.
4. Montrer que ρ(A) = lim
k→∞
A
k

1
k
.
5. On suppose ici que · est une norme matricielle, déduire de la question précédente que ρ(A) ≤ A. ( On a
ainsi démontré le lemme 1.5).
Exercice 6 (Valeurs propres nulles d’un produit de matrices)
Soient p et n des entiers naturels non nuls tels que n ≤ p, et soient A ∈ M
n,p
(IR) et B ∈ M
p,n
(IR). (On rappelle
que M
n,p
(IR) désigne l’ensemble des matrices à n lignes et p colonnes.)
1. Montrer que λ est valeur propre non nulle de AB si et seulement si λ est valeur propre non nulle de BA.
2. Montrer que si λ = 0 est valeur propre de AB alors λ est valeur propre nulle de BA.
(Il est conseillé de distinguer les cas Bx = 0 et Bx = 0, où x est un vecteur propre associé à la λ = 0
valeur propre de AB. Pour le deuxième cas, on pourra distinguer selon que ImA = IR
n
ou non.)
3. Montrer en donnant un exemple que λ peut être une valeur propre nulle de BA sans être valeur propre de
AB.
(Prendre par exemple n = 1, p = 2.)
4. On suppose maintenant que n = p, déduire des questions 1. et 2. que l’ensemble des valeurs propres de AB
est égal à l’ensemble des valeurs propres de la matrice BA.
Exercice 7 (Rayon spectral) Corrigé en page 62.
Soit A ∈ M
N
(IR). Montrer que si A est diagonalisable, il existe une norme induite sur M
N
(IR) telle que
ρ(A) = A. Montrer par un contre exemple que ceci peut être faux si A n’est pas diagonalisable.
Exercice 8 (Sur le rayon spectral)
On définit les matrices carrées d’ordre 2 suivantes :
A =

1 1
1 1

, B =

−1 0
−1 −1

, C = A +B.
Calculer le rayon spectral de chacune des matrices A, B et C et en déduire que le rayon spectral ne peut être ni
une norme, ni même une semi-norme sur l’espace vectoriel des matrices.
Exercice 9 (Série de Neumann) Suggestions en page 56, corrigé détaillé en page 62.
Soient A ∈ M
N
(IR) et · une norme matricielle.
1. Montrer que si ρ(A) < 1, les matrices Id −A et Id +A sont inversibles.
2. Montrer que la série de terme général A
k
converge (vers (Id −A)
−1
) si et seulement si ρ(A) < 1.
Analyse numérique I, Télé-enseignement, L3 37 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.6. EXERCICES CHAPITRE 1. SYSTÈMES LINÉAIRES
Exercice 10 (Normes matricielles)
Soit . une norme matricielle quelconque, et soit A ∈ M
N
(IR) telle que ρ(A) < 1 (on rappelle qu’on note ρ(A)
le rayon spectral de la matrice A). Pour x ∈ IR
N
, on définit x

par :
x

=

¸
j=0
A
j
x.
1. Montrer que l’application définie de IR
N
dans IR par x →x

est une norme.
2. Soit x ∈ IR
N
tel que x

= 1. Calculer Ax

en fonction de x, et en déduire que A

< 1.
3. On ne suppose plus que ρ(A) < 1. Soit ε > 0 donné. Construire à partir de la norme . une norme induite
.
∗∗
telle que A
∗∗
≤ ρ(A) + ε.
Exercice 11 (Décomposition LDL
t
et LL
t
) Corrigé en page 63
1. Soit A =

2 1
1 0

.
Calculer la décomposition LDL
t
de A. Existe-t-il une décomposition LL
t
de A?
2. Montrer que toute matrice de M
N
(IR) symétrique définie positive admet une décomposition LDL
t
.
3. Ecrire l’algorithme de décomposition LDL
t
. La matrice A =

0 1
1 0

admet-elle une décomposition LDL
t
?
Exercice 12 (Décomposition LU et LL
t
de matrices 3 × 3)
1. Soit A =

¸
¸
¸
2 −1 4 0
4 −1 5 1
−2 2 −2 3
0 3 −9 4
¸

. Donner la décomposition LU de A.
2. Soit B =

¸
¸
¸
2 −1 0 0
−1 2 −1 0
0 −1 2 −1
0 0 −1 2
¸

. Donner la décomposition LL
t
de B.
3. Que deviennent les coefficients nuls dans la décomposition LL
t
ci-dessus ? Quelle est la propriété vue en cours
qui est ainsi vérifiée ?
Exercice 13
Soient a, b, c et d des nombres réels. On considère la matrice suivante :
A =

a a a a
a b b b
a b c c
a b c d
¸
¸
¸
¸
.
Appliquer l’algorithme d’élimination de Gauss à A pour obtenir sa décomposition LU.
Donner les conditions sur a, b, c et d pour que la matrice A soit inversible.
Exercice 14 (Sur la méthode LL
t
) Corrigé détaillé en page 65.
Analyse numérique I, Télé-enseignement, L3 38 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.6. EXERCICES CHAPITRE 1. SYSTÈMES LINÉAIRES
Soit A une matrice carrée d’ordre N, symétrique définie positive et pleine. On cherche à résoudre le système
A
2
x = b.
On propose deux méthodes de résolution de ce système :
1. Calculer A
2
, effectuer la décomposition LL
t
de A
2
, résoudre le système LL
t
x = b.
2. Calculer la décomposition LL
t
de A, résoudre les systèmes LL
t
y = b et LL
t
x = y.
Calculer le nombre d’opérations élémentaires nécessaires pour chacune des deux méthodes et comparer.
Exercice 15 (Décomposition LL
t
d’une matrice tridiagonale symétrique)
Soit A ∈ M
N
(IR) symétrique définie positive et tridiagonale (i.e. a
i,j
= 0 si i −j > 1).
1. Montrer que A admet une décomposition LL
t
, où L est de la forme
L =

¸
¸
¸
¸
¸
¸
¸
α
1
0 . . . 0
β
2
α
2
0 . . . 0
0
.
.
.
.
.
. . . . 0
.
.
.
.
.
.
.
.
. . . .
.
.
.
0 · · · 0 β
N
α
N
¸

.
2. Donner un algorithme de calcul des coefficients α
i
et β
i
, en fonction des coefficients a
i,j
, et calculer le
nombre d’opérations élementaires nécessaires dans ce cas.
3. En déduire la décomposition LL
t
de la matrice :
A =

¸
¸
¸
¸
¸
1 −1 0 0 0
−1 2 −1 0 0
0 −1 2 −1 0
0 0 −1 2 −1
0 0 0 −1 2
¸

.
4. L’inverse d’une matrice inversible tridiagonale est elle tridiagonale ?
Exercice 16 (Choleski pour matrice bande) Suggestions en page 56, corrigé en page 65
Soit A ∈ M
N
(IR) une matrice symétrique définie positive.
1. On suppose ici que A est tridiagonale. Estimer le nombre d’opérations de la factorisation LL
t
dans ce cas.
2. Même question si A est une matrice bande (c’est-à-dire p diagonales non nulles).
3. En déduire une estimation du nombre d’opérations nécessaires pour la discrétisation de l’équation −u

= f
vue page 23. Même question pour la discrétisation de l’équation −∆u = f présentée page 25.
Exercice 17 (Un système par blocs)
Soit A ∈ M
N
(IR) une matrice carrée d’ordre N inversible, b, c, f ∈ IR
N
. Soient α et γ ∈ IR. On cherche à
résoudre le système suivant (avec x ∈ IR
N
, λ ∈ IR) :
Ax +bλ = f,
c · x + αλ = γ.
(1.6.41)
1. Ecrire le système (1.6.41) sous la forme : My = g, où M est une matrice carrée d’ordre N +1, y ∈ IR
N+1
,
g ∈ IR
N+1
. Donner l’expression de M, y et g.
Analyse numérique I, Télé-enseignement, L3 39 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.6. EXERCICES CHAPITRE 1. SYSTÈMES LINÉAIRES
2. Donner une relation entre A, b, c et α, qui soit une condition nécessaire et suffisante pour que le système
(1.6.41) soit inversible. Dans toute la suite, on supposera que cette relation est vérifiée.
3. On propose la méthode suivante pour la résolution du système (1.6.41) :
(a) Soient z solution de Az = b, et h solution de Ah = f.
(b) x = h −
γ −c · h
α − c · z
z, λ =
γ −c · h
α −c · z
.
Montrer que x ∈ IR
N
et λ ∈ IR ainsi calculés sont bien solutions du système (1.6.41).
4. On suppose dans cette question que A est une matrice bande, dont la largeur de bande est p.
(a) Calculer le coût de la méthode de résolution proposée ci-dessus en utilisant la méthode LU pour la
résolution des systèmes linéaires.
(b) Calculer le coût de la résolution du système My = g par la méthode LU (en profitant ici encore de la
structure creuse de la matrice A).
(c) Comparer et conclure.
Dans les deux cas, le terme d’ordre supérieur est 2Nq
2
, et les coûts sont donc comparables.
Exercice 18 (Propriétés générales du conditionnement) Corrigé détaillé en page 67.
Partie I
On munit IR
N
d’une norme, notée · , et M
N
(IR) de la norme induite, notée aussi · . Pour une matrice
inversible A ∈ M
N
(IR), on note cond(A) = AA
−1
.
1. Soit A ∈ M
N
(IR) une matrice inversible. Montrer que cond(A) ≥ 1.
2. Montrer que cond(αA) = cond(A) pour tout α ∈ IR

.
3. Soit A, B ∈ M
N
(IR) deux matrices inversibles. Montrer que cond(AB) ≤ cond(A)cond(B).
Partie II
On suppose maintenant que IR
N
est muni de la norme euclidienne usuelle · = ·
2
et M
N
(IR) de la norme
induite (notée aussi ·
2
. On note alors cond
2
(A) conditionnement d’une matrice A inversible.
1. Soit A ∈ M
N
(IR) une matrice inversible. On note σ
N
[resp. σ
1
] la plus grande [resp. petite] valeur propre
de A
t
A (noter que A
t
A est une matrice symétrique définie positive). Montrer que cond
2
(A) =

σ
N

1
.
2. On suppose maintenant que A est symétrique définie positive, montrer que cond
2
(A) = λ
N

1
où λ
N
[resp. λ
1
] est la plus grande [resp. petite] valeur propre de A.
3. Soit A ∈ M
N
(IR) une matrice inversible. Montrer que cond
2
(A) = 1 si et seulement si A = αQ où
α ∈ IR

et Q est une matrice orthogonale (c’est-à-dire Q
t
= Q
−1
).
4. Soit A ∈ M
N
(IR) une matrice inversible. On suppose que A = QR où Q est une matrice orthogonale.
Montrer que cond
2
(A) = cond
2
(R).
5. Soit A, B ∈ M
N
(IR) deux matrices symétriques définies positives. Montrer que cond
2
(A+B) ≤ max{cond
2
(A), cond
2
(B)}
Exercice 19 (Minoration du conditionnement)
Soit . une norme induite sur M
N
(IR) et soit A ∈ M
N
(IR) telle que det (A) = 0.
1. Montrer que si A−B <
1
A
−1

, alors B est inversible.
2. Montrer que cond (A) ≥ sup
B∈MN(IR)
detB=0
A
A−B
Exercice 20 (Minoration du conditionnement) Corrigé détaillé en page 68.
Analyse numérique I, Télé-enseignement, L3 40 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.6. EXERCICES CHAPITRE 1. SYSTÈMES LINÉAIRES
On note · une norme matricielle sur M
N
(IR). Soit A ∈ M
N
(IR) une matrice carrée inversible, cond(A) =
AA
−1
le conditionnement de A, et soit δA ∈ M
N
(IR).
1. Montrer que si A + δA est singulière, alors
cond(A) ≥
A
δA
. (1.6.42)
2. On suppose dans cette question que la norme · est la norme induite par la norme euclidienne sur IR
N
.
Montrer que la minoration (1.6.42) est optimale, c’est-à-dire qu’il existe δA ∈ M
N
(IR) telle que A + δA
soit singulière et telle que l’égalité soit vérifiée dans (1.6.42).
[On pourra chercher δA de la forme
δA = −
y x
t
x
t
x
,
avec y ∈ IR
N
convenablement choisi et x = A
−1
y.]
3. On suppose ici que la norme · est la norme induite par la norme infinie sur IR
N
. Soit α ∈]0, 1[. Utiliser
l’inégalité (1.6.42) pour trouver un minorant, qui tend vers +∞lorsque α tend vers 0, de cond(A) pour la
matrice
A =

¸
1 −1 1
−1 α −α
1 α α
¸

.
Exercice 21 (Conditionnement du carré)
Soit A ∈ M
N
(IR) une matrice telle que detA = 0.
1. Quelle relation existe-t-il en général entre cond (A
2
) et (cond A)
2
?
2. On suppose que A symétrique. Montrer que cond
2
(A
2
) = (cond
2
A)
2
.
3. On suppose que cond
2
(A
2
) = (cond
2
A)
2
. Peut-on conclure que A est symétrique ? (justifier la réponse.)
Exercice 22 (Calcul de l’inverse d’une matrice et conditionnement) Corrigé détaillé en page 69.
On note · une norme matricielle sur M
N
(IR). Soit A ∈ M
N
(IR) une matrice carrée inversible. On cherche ici
des moyens d’évaluer la précision de calcul de l’inverse de A.
1. On suppose qu’on a calculé B, approximation (en raison par exemple d’erreurs d’arrondi) de la matrice A
−1
.
On pose :

e
1
=
B −A
−1

A
−1

, e
2
=
B
−1
−A
A
e
3
= AB −Id, e
4
= BA−Id
(1.6.43)
(a) Expliquer en quoi les quantités e
1
, e
2
, e
3
et e
4
mesurent la qualité de l’approximation de A
−1
.
(b) On suppose ici que B = A
−1
+E, où E ≤ εA
−1
, et que
εcond(A) < 1.
Montrer que dans ce cas,
e
1
≤ ε, e
2

εcond(A)
1 −εcond(A)
, e
3
≤ εcond(A) et e
4
≤ εcond(A).
Analyse numérique I, Télé-enseignement, L3 41 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.6. EXERCICES CHAPITRE 1. SYSTÈMES LINÉAIRES
(c) On suppose maintenant que AB −Id = E

avec E

≤ ε < 1. Montrer que dans ce cas :
e
1
≤ ε, e
2

ε
1 −ε
, e
3
≤ ε et e
4
≤ εcond(A).
2. On suppose maintenant que la matrice A n’est connue qu’à une certaine matrice d’erreurs près, qu’on note
δ
A
.
(a) Montrer que la matrice A + δ
A
est inversible si δ
A
<
1
A
−1

.
(b) Montrer que si la matrice A + δ
A
est inversible,
(A + δ
A
)
−1
−A
−1

(A+ δ
A
)
−1

≤ cond(A)
δ
A

A
.
Exercice 23 (Discrétisation)
On considère la discrétisation à pas constant par le schéma aux différences finies symétrique à trois points (vu en
cours) du problème (1.4.21) page 23, avec f ∈ C([0, 1]). Soit N ∈ IN

, N impair. On pose h = 1/(N + 1). On
note u est la solution exacte, x
i
= ih, pour i = 1, . . . , N les points de discrétisation, et (u
i
)
i=1,...,N
la solution du
système discrétisé (1.4.23).
1. Montrer que si u ∈ C
4
([0, 1], alors la propriété (1.4.22) est vérifiée, c.à.d. :

u(x
i+1
) +u(x
i−1
) −2u(x
i
)
h
2
= −u

(x
i
) +R
i
avec |R
i
| ≤
h
2
12
u
(4)


.
2. Montrer que si f est constante, alors
max
1≤i≤N
|u
i
−u(x
i
)| = 0.
.
3. Soit N fixé, et max
1≤i≤N
|u
i
−u(x
i
)| = 0. A-t-on forcément que f est constante sur [0, 1] ? (justifier la réponse.)
Exercice 24 (IP-matrice) Corrigé en page 70
Soit N ∈ IN

, on note M
N
(IR) l’ensemble des matrices de N lignes et N colonnes et à coefficients réels. Si
x ∈ IR
N
, on dit que x ≥ 0 [resp. x > 0] si toutes les composantes de x sont positives [resp. strictement positives].
Soit A ∈ M
N
(IR), on dit que A est une IP-matrice si elle vérifie la propriété suivante :
Si x ∈ IR
N
est tel que Ax ≥ 0, alors x ≥ 0,
ce qui peut encore s’écrire : {x ∈ IR
N
t.q. Ax ≥ 0} ⊂ {x ∈ IR
N
t.q. x ≥ 0}.
1. Soit A = (a
i,j
)
i,j=1,...,N
∈ M
N
(IR). Montrer que A est une IP-matrice si et seulement si A est inversible et
A
−1
≥ 0 (c’est-à-dire que tous les coefficients de A
−1
sont positifs).
2. Soit A =

a b
c d

une matrice réelle d’ordre 2. Montrer que A est une IP-matrice si et seulement si :

ad < bc,
a < 0, d < 0
b ≥ 0, c ≥ 0
ou

ad > bc,
a > 0, d > 0,
b ≤ 0, c ≤ 0.
(1.6.44)
3. Montrer que si A ∈ M
N
(IR) est une IP-matrice alors A
t
(la transposée de A) est une IP-matrice.
Analyse numérique I, Télé-enseignement, L3 42 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.6. EXERCICES CHAPITRE 1. SYSTÈMES LINÉAIRES
4. Montrer que si A est telle que
a
i,j
≤ 0, pour tout i, j = 1, . . . , N, i = j,
a
i,i
>
N
¸
j=1
j=i
|a
i,j
|, pour tout i = 1, . . . , N,
(1.6.45)
alors A est une IP-matrice.
5. En déduire que si A est telle que
a
i,j
≤ 0, pour tout i, j = 1, . . . , N, i = j,
a
i,i
>
N
¸
j=1
j=k
|a
j,i
|, pour tout i = 1, . . . , N,
(1.6.46)
alors A est une IP-matrice.
6. Montrer que si A ∈ M
N
(IR) est une IP-matrice et si x ∈ IR
N
alors :
Ax > 0 ⇒x > 0.
c’est-à-dire que {x ∈ IR
N
t.q. Ax > 0} ⊂ {x ∈ IR
N
t.q. x > 0}
7. Montrer, en donnant un exemple, qu’une matrice A de M
N
(IR) peut vérifier {x ∈ IR
N
t.q. Ax > 0} ⊂ {x ∈
IR
N
t.q. x > 0} et ne pas être une IP-matrice.
8. On suppose dans cette question que A ∈ M
N
(IR) est inversible et que {x ∈ IR
N
t.q. Ax > 0} ⊂ {x ∈ IR
N
t.q. x > 0}. Montrer que A est une IP-matrice.
9. Soit E l’espace des fonctions continues sur IR et admettant la même limite finie en +∞ et −∞. Soit L(E)
l’ensemble des applications linéaires continues de E dans E. Pour f ∈ E, on dit que f > 0 (resp. f ≥ 0) si
f(x) > 0 (resp. f(x) ≥ 0) pour tout x ∈ IR. Montrer qu’il existe T ∈ L(E) tel que Tf ≥ 0 =⇒f ≥ 0, et g ∈ E
tel que Tg > 0 et g > 0 (ceci démontre que le raisonnement utilisé en 2 (b) ne marche pas en dimension infinie).
Exercice 25 (M-matrice)
Dans ce qui suit, toutes les inégalités écrites sur des vecteurs ou des matrices sont à entendre au sens composante
par composante.
Soit A = (a
i,j
)
i,j=1,...,n
une matrice carrée d’ordre n. On dit que A est une M-matrice si A est une IP-matrice (A
est inversible et A
−1
≥ 0, voir exercice 24) qui vérifie de plus
(a) a
i,i
> 0 pour i = 1, . . . , n;
(b) a
i,j
≤ 0 pour i, j = 1, . . . , n, i = j ;
1. Soit A une IP-matrice ; montrer que A est une M-matrice si et seulement si la propriété (b) est vérifiée.
2. Soit A =

a b
c d

une matrice réelle d’ordre 2. Montrer que A est une M-matrice si et seulement si :

ad > bc,
a > 0, d > 0,
b ≤ 0, c ≤ 0.
(1.6.47)
3. Les matrices A =

−1 2
2 −1

et B =

2 −1
−1 2

sont-elles des IP-matrices ? des M-matrices ?
Analyse numérique I, Télé-enseignement, L3 43 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.6. EXERCICES CHAPITRE 1. SYSTÈMES LINÉAIRES
4. Soit A la matrice carrée d’ordre 3 définie par :
A =

¸
2 −1
1
2
0 1 −1
−1 0 1
¸

Montrer que A
−1
≥ 0 mais que A n’est pas une M–matrice.
5. Soit A une matrice carrée d’ordre n = m+p, avec m, p ∈ IN tels que m ≥ 1 et p ≥ 1, vérifiant :
a
i,i
≥ 0,
a
i,j
≤ 0, pour j = 1, . . . , n, j = i,
a
i,i
+
n
¸
j=1
j=i
a
i,j
= 0

pour i = 1, . . . , m, (1.6.48)
a
i,i
= 1,
a
i,j
= 0, pour j = 1, . . . , n, j = i,

pour i = m+ 1, . . . , n. (1.6.49)
∀i ≤ m, ∃(k

)
=1,...,Li
; k
1
= i, k
Li
> m, et a
k

,k
+1
< 0, ∀ = 1, . . . , L
i
. (1.6.50)
Soit b ∈ IR
n
tel que b
i
= 0 pour i = 1, . . . , m. On considère le système linéaire
Au = b (1.6.51)
5.1 Montrer que le système (1.6.51) admet une et une seule solution.
5.2 Montrer que u est tel que min
k=m+1,n
b
k
≤ u
i
≤ max
k=m+1,n
b
k
. (On pourra pour simplifier supposer que
les équations sont numérotées de telle sorte que min
k=m+1,n
b
k
= b
m+2
≤ b
2
≤ . . . ≤ b
n
= max
k=m+1,n
b
k
.)
6. On considère le problème de Dirichlet suivant :
−u

= 0 sur [0, 1] (1.6.52a)
u(0) = −1 (1.6.52b)
u(1) = 1. (1.6.52c)
6.1 Calculer la solution exacte u de ce problème et vérifier qu’elle reste comprise entre -1 et 1.
6.2 Soit m > 1 et soient Aet b et la matrice et le second membre du système linéaire d’ordre n = m+2 obtenu par
discrétisation par différences finies avec un pas uniforme h =
1
m
du problème (1.6.52) (en écrivant les conditions
aux limites dans le système). Montrer que la solution U ∈ IR
n
du système AU = b vérifie −1 ≤ u
i
≤ 1.
Exercice 26 (Valeurs propres du Laplacien discret 1D) Suggestions en page 57, corrigé détaillé en page 71.
Soit f ∈ C([0, 1]). Soit N ∈ IN

, N impair. On pose h = 1/(N + 1). Soit A la matrice définie par (1.4.24) page
24, issue d’une discrétisation par différences finies (vue en cours) du problème (1.4.21) page 23.
1. Montrer que A est symétrique définie positive.
2. Calculer les valeurs propres et les vecteurs propres de A. [On pourra commencer par chercher λ ∈ IR et
ϕ ∈ C
2
(IR, IR) (ϕ non identiquement nulle) t.q. −ϕ

(x) = λϕ(x) pour tout x ∈]0, 1[ et ϕ(0) = ϕ(1) = 0].
3. Calculer cond
2
(A) et montrer que h
2
cond
2
(A) →
4
π
2
lorsque h →0.
Exercice 27 (Conditionnement, réaction diffusion 1d.)
Analyse numérique I, Télé-enseignement, L3 44 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.6. EXERCICES CHAPITRE 1. SYSTÈMES LINÉAIRES
On s’intéresse au conditionnement pour la norme euclidienne de la matrice issue d’une discrétisation par Différen-
ces Finies du problème aux limites suivant :
−u

(x) +u(x) = f(x), x ∈]0, 1[,
u(0) = u(1) = 0.
(1.6.53)
Soit N ∈ IN

. On note U = (u
j
)
j=1,...,N
une “valeur approchée” de la solution u du problème (1.6.53) aux
points

j
N+1

j=1,...,N
. On rappelle que la discrétisation par différences finies de ce problème consiste à chercher
U comme solution du système linéaire AU =

f(
j
N+1
)

j=1,...,N
où la matrice A ∈ M
N
(IR) est définie par
A = (N + 1)
2
B +Id, Id désigne la matrice identité et
B =

¸
¸
¸
¸
¸
¸
¸
¸
2 −1 0 . . . 0
−1 2 −1
.
.
.
.
.
.
0
.
.
.
.
.
.
.
.
. 0
.
.
.
.
.
. −1 2 −1
0 . . . 0 −1 2
¸

1. (Valeurs propres de la matrice B.)
On rappelle que le problème aux valeurs propres
−u

(x) = λu(x), x ∈]0, 1[,
u(0) = u(1) = 0.
(1.6.54)
admet la famille (λ
k
, u
k
)
k∈IN
∗, λ
k
= (kπ)
2
et u
k
(x) = sin(kπx) comme solution. Montrer que les vecteurs
U
k
=

u
k
(
j
N+1
)

j=1,...,N
sont des vecteurs propres de la matrice B. En déduire toutes les valeurs propres
de la matrice B.
2. En déduire les valeurs propres de la matrice A.
3. En déduire le conditionnement pour la norme euclidienne de la matrice A.
Exercice 28 (Conditionnement “efficace".) Suggestions en page 57, corrigé en page 73.
Soit f ∈ C([0, 1]). Soit N ∈ IN

, N impair. On pose h = 1/(N + 1). Soit A la matrice définie par (1.4.24) page
24, issue d’une discrétisation par différences finies (vue en cours) du problème (1.4.21) page 23.
Pour u ∈ IR
N
, on note u
1
, . . . , u
N
les composantes de u. Pour u ∈ IR
N
, on dit que u ≥ 0 si u
i
≥ 0 pour tout
i ∈ {1, . . . , N}. Pour u, v ∈ IR
N
, on note u · v =
¸
N
i=1
u
i
v
i
.
On munit IR
N
de la norme suivante : pour u ∈ IR
N
, u = max{|u
i
|, i ∈ {1, . . . , N}}. On munit alors M
N
(IR)
de la norme induite, également notée · , c’est-à-dire B = max{Bu, u ∈ IR
N
t.q. u = 1}, pour tout
B ∈ M
N
(IR).
Partie I Conditionnement de la matrice et borne sur l’erreur relative
1. (Existence et positivité de A
−1
) Soient b ∈ IR
N
et u ∈ IR
N
t.q. Au = b. Remarquer que Au = b peut
s’écrire :

1
h
2
(u
i
−u
i−1
) +
1
h
2
(u
i
−u
i+1
) = b
i
, ∀i ∈ {1, . . . , N},
u
0
= u
N+1
= 0.
(1.6.55)
Montrer que b ≥ 0 ⇒u ≥ 0. [On pourra considèrer p ∈ {0, . . . , N+1} t.q. u
p
= min{u
j
, j ∈ {0, . . . , N+
1}.]
En déduire que A est inversible.
Analyse numérique I, Télé-enseignement, L3 45 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.6. EXERCICES CHAPITRE 1. SYSTÈMES LINÉAIRES
2. (Préliminaire. . . ) On considère la fonction ϕ ∈ C([0, 1], IR) définie par ϕ(x) = (1/2)x(1 − x) pour tout
x ∈ [0, 1]. On définit alors φ ∈ IR
N
par φ
i
= φ(ih) pour tout i ∈ {1, . . . , N}. Montrer que (Aφ)
i
= 1 pour
tout i ∈ {1, . . . , N}.
3. (calcul de A
−1
) Soient b ∈ IR
N
et u ∈ IR
N
t.q. Au = b. Montrer que u ≤ (1/8)b [Calculer
A(u ± bφ) avec φ défini à la question 2 et utiliser la question 1]. En déduire que A
−1
≤ 1/8 puis
montrer que A
−1
= 1/8.
4. (calcul de A) Montrer que A =
4
h
2
.
5. (Conditionnement pour la norme · ). Calculer A
−1
A. Soient b, δ
b
∈ IR
N
. Soient u, δ
u
∈ IR
N
t.q.
Au = b et A(u + δ
u
) = b + δ
b
. Montrer que
δ
u

u
≤ A
−1
A
δ
b

b
.
Montrer qu’un choix convenable de b et δ
b
donne l’égalité dans l’inégalité précédente.
Partie II Borne réaliste sur l’erreur relative : Conditionnement “efficace"
On se donne maintenant f ∈ C([0, 1], IR) et on suppose (pour simplifier. . . ) que f(x) > 0 pour tout x ∈]0, 1[. On
prend alors, dans cette partie, b
i
= f(ih) pour tout i ∈ {1, . . . , N}. On considère aussi le vecteur ϕ défini à la
question 2 de la partie I.
1. Montrer que
h
N
¸
i=1
b
i
ϕ
i

1
0
f(x)φ(x)dx quand N →∞
et que
N
¸
i=1
b
i
ϕ
i
> 0 pour tout N ∈ IN ∗ .
En déduire qu’il existe α > 0, ne dépendant que de f, t.q. h
¸
N
i=1
b
i
ϕ
i
≥ α pour tout N ∈ IN

.
2. Soit u ∈ IR
N
t.q. Au = b. Montrer que Nu ≥
¸
N
i=1
u
i
= u · Aϕ ≥
α
h
(avec α donné à la question 1).
Soit δ
b
∈ IR
N
et δ
u
∈ IR
N
t.q. A(u + δ
u
) = b + δ
b
. Montrer que
δ
u

u

f
L

(]0,1[)

δ
b

b
.
3. Comparer A
−1
A (question I.5) et
f
L

(]0,1[)

(question II.2) quand N est “grand" (ou quand N →
∞).
Exercice 29 (Méthode itérative du “gradient à pas fixe"
6
) Suggestions en page 57
Soit A ∈ M
N
(IR) une matrice symétrique définie positive, b ∈ IR
N
et α ∈ IR. Pour trouver la solution de
Ax = b, on considère la méthode itérative suivante :
– Initialisation : x
(0)
∈ IR
N
,
– Iterations : x
(n+1)
= x
(n)
+ α(b −Ax
(n)
).
1. Pour quelles valeurs de α (en fonction des valeurs propres de A) la méthode est-elle convergente?
2. Calculer α
0
(en fonction des valeurs propres de A) t.q. ρ(Id −α
0
A) = min{ρ(Id −αA), α ∈ IR}.
Exercice 30 (Non convergence de la méthode de Jacobi) Suggestions en page 57.
Soit a ∈ IR et
A =

¸
1 a a
a 1 a
a a 1
¸

Montrer que A est symétrique définie positive si et seulement si −1/2 < a < 1 et que la méthode de Jacobi
converge si et seulement si −1/2 < a < 1/2.
Analyse numérique I, Télé-enseignement, L3 46 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.6. EXERCICES CHAPITRE 1. SYSTÈMES LINÉAIRES
Exercice 31 (Une matrice cyclique) Suggestions en page 58, corrigé en page ??
Soit α ∈ IR et soit A ∈ M
4
(IR) la matrice définie par
A =

¸
¸
¸
α −1 0 −1
−1 α −1 0
0 −1 α −1
−1 0 −1 α
¸

Cette matrice est dite cyclique : chaque ligne de la matrice peut être déduite de la précédente en décalant chaque
coefficient d’une position.
1. Déterminer les valeurs propres de A.
2. Pour quelles valeurs de α la matrice A est-elle symétrique définie positive ? singulière ?
3. On suppose ici que α = 0. Soit b = (b
1
, b
2
, b
3
, b
4
)
t
∈ IR
4
donné. On considère la méthode de Jacobi pour
la résolution du système Ax = b. Soit (x
(n)
)
n∈IN
la suite de vecteurs donnés par l’algorithme. On note x
(n)
i
pour i = 1, . . . , 4 les composantes de x
(n)
. Donner l’expression de x
(n+1)
i
, i = 1, . . . , 4, en fonction de x
(n)
i
et b
(n)
i
, i = 1, . . . , 4. Pour quelles valeurs de α la méthode de Jacobi converge-t-elle?
4. On suppose maintenant que A est symétrique définie positive. Reprendre la question précédente pour la
méthode de Gauss-Seidel.
Exercice 32 (Jacobi pour les matrices à diagonale dominante stricte) Suggestions en page 58, corrigé en page
75
Soit A = (a
i,j
)
i,j=1,...,N
∈ M
N
(IR) une matrice à diagonale dominante stricte (c’est-à-dire |a
i,i
| >
¸
j=i
|a
i,j
|
pour tout i = 1, . . . , N). Montrer que A est inversible et que la méthode de Jacobi (pour calculer la solution de
Ax = b) converge.
Exercice 33 (Jacobi pour pour un problème de diffusion )
Soit f ∈ C([0, 1]) ; on considère le système linéaire Ax = b issu de la discrétisation par différences finies de pas
uniforme égal à h =
1
N+1
du problème suivant :

−u

(x) + αu(x) = f(x), x ∈ [0, 1],
u(0) = 0, u(1) = 1,
(1.6.56)
où α ≥ 0.
1. Donner l’expression de A et b.
2. Montrer que la méthode de Jacobi appliquée à la résolution de ce système converge (distinguer les cas α > 0
et α = 0).
Exercice 34 (Jacobi et diagonale dominance forte) Corrigé en page 76
On considère une matrice A ∈ M
N
(IR) inversible.
1. Montrer que si A est symétrique définie positive alors tous ses coefficients diagonaux sont strictement posi-
tifs. En déduire que la méthode de Jacobi est bien définie.
2. On suppose maintenant que la matrice diagonale extraite de A, notée D, est inversible. On suppose de plus
que
∀i = 1, . . . , N, |a
i,i
| ≥
¸
j=i
|a
i,j
| et ∃i
0
; |a
i0,i0
| >
¸
j=i0
|a
i,j
|.
(On dit que la matrice est à diagonale fortement dominante). Soit J la matrice d’itération de la méthode de
Jacobi.
Analyse numérique I, Télé-enseignement, L3 47 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.6. EXERCICES CHAPITRE 1. SYSTÈMES LINÉAIRES
(a) Montrer que ρ(J) ≤ 1.
(b) Montrer que si Jx = λx avec |λ| = 1, alors x
i
= x, ∀i = 1, . . . , N. En déduire que x = 0 et que la
méthode de Jacobi converge.
(c) Retrouver ainsi le résultat de la question 2 de l’exercice 33.
Exercice 35 (Diagonalisation dans IR )
Soit E un espace vectoriel réel de dimension N ∈ IN muni d’un produit scalaire, noté (·, ·). Soient T et S deux
applications linéaires symétriques de E dans E (T symétrique signifie (Tx, y) = (x, Ty) pour tous x, y ∈ E). On
suppose que T est “définie positive" (c’est-à-dire (Tx, x) > 0 pour tout x ∈ E \ {0}).
1. Montrer que T est inversible. Pour x, y ∈ E, on pose (x, y)
T
= (Tx, y). Montrer que l’application (x, y) →
(x, y)
T
définit un nouveau produit scalaire sur E.
2. Montrer que T
−1
S est symétrique pour le produit scalaire défini à la question précédente. En déduire, avec
le lemme 1.12 page 8, qu’il existe une base de E, notée {f
1
, . . . , f
N
}, et il existe {λ
1
, . . . , λ
N
} ⊂ IR t.q.
T
−1
Sf
i
= λ
i
f
i
pour tout i ∈ {1, . . . , N} et t.q. (Tf
i
/f
j
) = δ
i,j
pour tout i, j ∈ {1, . . . , N}.
Exercice 36 (Méthode de Jacobi et relaxation) Suggestions en page 58, corrigé en page 77
Soit N ≥ 1. Soit A = (a
i,j
)
i,j=1,...,N
∈ M
N
(IR) une matrice symétrique. On note D la partie diagonale de A,
−E la partie triangulaire inférieure de A et −F la partie triangulaire supérieure de A, c’est-à-dire :
D = (d
i,j
)
i,j=1,...,N
, d
i,j
= 0 si i = j, d
i,i
= a
i,i
,
E = (e
i,j
)
i,j=1,...,N
, e
i,j
= 0 si i ≤ j, e
i,j
= −a
i,j
si i > j,
F = (f
i,j
)
i,j=1,...,N
, f
i,j
= 0 si i ≥ j, f
i,j
= −a
i,j
si i < j.
Noter que A = D − E − F. Soit b ∈ IR
N
. On cherche à calculer x ∈ IR
N
t.q. Ax = b. On suppose que D est
définie positive (noter que A n’est pas forcément inversible). On s’intéresse ici à la méthode de Jacobi (par points),
c’est–à–dire à la méthode itérative suivante :
Initialisation. x
(0)
∈ IR
N
Itérations. Pour n ∈ IN, Dx
(n+1)
= (E +F)x
(n)
+b.
On pose J = D
−1
(E +F).
1. Montrer, en donnant un exemple avec N = 2, que J peut ne pas être symétrique.
2. Montrer que J est diagonalisable dans IR et, plus précisement, qu’il existe une base de IR
N
, notée {f
1
, . . . ,
f
N
}, et il existe {µ
1
, . . . , µ
N
} ⊂ IR t.q. Jf
i
= µ
i
f
i
pour tout i ∈ {1, . . . , N} et t.q. Df
i
· f
j
= δ
i,j
pour
tout i, j ∈ {1, . . . , N}.
En ordonnant les valeurs propres de J, on a donc µ
1
≤ . . . ≤ µ
N
, on conserve cette notation dans la suite.
3. Montrer que la trace de J est nulle et en déduire que µ
1
≤ 0 et µ
N
≥ 0.
On suppose maintenant que A et 2D−A sont symétriques définies positives et on pose x = A
−1
b.
4. Montrer que la méthode de Jacobi (par points) converge (c’est-à-dire x
(n)
→x quand n →∞). [Utiliser un
théorème du cours.]
On se propose maintenant d’améliorer la convergence de la méthode par une technique de relaxation. Soit
ω > 0, on considère la méthode suivante :
Initialisation. x
(0)
∈ IR
N
Itérations. Pour n ∈ IN, D˜ x
(n+1)
= (E +F)x
(n)
+b, x
(n+1)
= ω˜ x
(n+1)
+ (1 −ω)x
(n)
.
Analyse numérique I, Télé-enseignement, L3 48 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.6. EXERCICES CHAPITRE 1. SYSTÈMES LINÉAIRES
5. Calculer les matrices M
ω
(inversible) et N
ω
telles que M
ω
x
(n+1)
= N
ω
x
(n)
+ b pour tout n ∈ IN, en
fonction de ω, D et A. On note, dans la suite J
ω
= (M
ω
)
−1
N
ω
.
6. On suppose dans cette question que (2/ω)D − A est symétrique définie positive. Montrer que la méthode
converge (c’est-à-dire que x
(n)
→x quand n →∞.)
7. Montrer que (2/ω)D−A est symétrique définie positive si et seulement si ω < 2/(1 −µ
1
).
8. Calculer les valeurs propres de J
ω
en fonction de celles de J. En déduire, en fonction des µ
i
, la valeur
“optimale" de ω, c’est-à-dire la valeur de ω minimisant le rayon spectral de J
ω
.
Exercice 37 (Méthodes de Jacobi et Gauss Seidel pour une matrice 3 ×3)
On considère la matrice A =

2 −1 0
−1 2 −1
0 −1 2
¸
¸
et le vecteur b =

1
0
1
¸
¸
. Soit x
(0)
un vecteur de IR
3
donné.
1. Méthode de Jacobi
1.a Ecrire la méthode de Jacobi pour la résolution du système Ax = b, sous la forme x
(k+1)
= B
J
x
(k)
+c
J
.
1.b Déterminer le noyau de B
J
et en donner une base.
1.c Calculer le rayon spectral de B
J
et en déduire que la méthode de Jacobi converge.
1.d Calculer x
(1)
et x
(2)
pour les choix suivants de x
(0)
:
(i) x
(0)
=

0
0
0
¸
¸
, (ii)x
(0)
=

0
1
2
¸
¸
.
2. Méthode de Gauss-Seidel.
2.a Ecrire la méthode de Gauss-Seidel pour la résolution du système Ax = b, sous la forme x
(k+1)
= B
GS
x
(k)
+
c
GS
.
2.b Déterminer le noyau de B
GS
.
2.c Calculer le rayon spectral de B
GS
et en déduire que la méthode de Gauss-Seidel converge.
2.d Comparer les rayons spectraux de B
GS
et B
J
et vérifier ainsi un résultat du cours.
2.d Calculer x
(1)
et x
(2)
pour les choix suivants de x
(0)
:
(i) x
(0)
=

0
0
0
¸
¸
, (ii) x
(0)
=

0
1
1
¸
¸
.
3. Convergence en un nombre fini d’itérations.
3.1 Soit α et β des réels. Soit u
(0)
∈ R et (u
(k)
)
k∈IN
la suite réelle définie par u
(k+1)
= αu
(k)
+ β.
3.1.a Donner les valeurs de α et β pour lesquelles la suite (u
(k)
)
k∈IN
converge.
3.1.b On suppose que α = 0, et que la suite (u
(k)
)
k∈IN
converge vers une limite qu’on note u. Montrer que s’il
existe K ∈ N tel que u
K
= u, alors u
(k)
= u pour tout k ∈ IN.
3.2 Soit N > 1, B une matrice réelle carrée d’ordre N et b ∈ IR
N
. Soit u
(0)
∈ IR
N
et (u
(k)
)
k∈IN
la suite définie
par u
(k+1)
= Bu
(k)
+c.
3.2.a Donner les conditions sur B et c pour que la suite (u
(k)
)
k∈IN
converge pour tout choix de u
0
∈ IR
N
.
3.2.b On suppose que la suite (u
(k)
)
k∈IN
converge vers une limite qu’on note u. Montrer qu’on peut avoir u
(1)
= u
avec u
(0)
= u.
Exercice 38 (Jacobi et Gauss-Seidel pour une matrice tridiagonale)
Analyse numérique I, Télé-enseignement, L3 49 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.6. EXERCICES CHAPITRE 1. SYSTÈMES LINÉAIRES
Soit A = (a
i,j
)
i,j=1,...,N
∈ M
N
(IR) une matrice carrée d’ordre N tridiagonale, c’est-à-dire telle que a
i,j
= 0 si
|i − j| > 1, et telle que la matrice diagonale D = diag(a
i,i
)
i=1,...,N
soit inversible. On note A = D− E − F où
−E (resp. −F) est la partie triangulaire inférieure (resp. supérieure) de A, et on note J et Gles matrices d’itération
des méthodes de Jacobi et Gauss-Seidel associées à la matrice A.
1.a. Pour µ ∈ Cl , λ = 0 et x ∈ Cl
N
, on note
x
µ
= (x
1
, µx
2
, . . . , µ
k−1
x
k
, µ
N−1
x
N
)
t
.
Montrer que si λ est valeur propre de J associée au vecteur propre x, alors x
µ
vérifie (µE +
1
µ
F)x
µ
= λDx
µ
. En
déduire que si λ = 0 est valeur propre de J alors λ
2
est valeur propre de G.
1.b Montrer que si λ
2
est valeur propre non nulle de G, alors λ est valeur propre de J .
2. Montrer que ρ(G) = ρ(J)
2
. En déduire que lorsqu’elle converge, la méthode de Gauss-Seidel pour la résolution
du système Ax = b converge plus rapidement que la méthode de Jacobi.
3. Soit L
ω
la matrice d’itération de la méthode SOR associée à A. Montrer que λ est valeur propre de J si et
seulement si ν
ω
est valeur propre de L
ω
, où ν
ω
= µ
2
ω
et µ
ω
vérifie µ
2
ω
−λωµ
ω
+ ω −1 = 0.
En déduire que
ρ(L
ω
) = max
λ valeur propre de J
{|µ
ω
|; µ
2
ω
−λωµ
ω
+ ω −1 = 0}.
Exercice 39 (Méthode de Jacobi pour des matrices particulières) Suggestions en page 58, corrigé en page 79
On note M
N
(IR) l’ensemble des matrices carrées d’ordre N à coefficients réels, et Id la matrice identité dans
M
N
(IR). Soit A = [a
i,j
]
i,j=1,...,N
∈ M
N
(IR). On suppose que :
a
i,j
≤ 0, ∀i, j = 1, . . . , N, i = j, (1.6.57)
a
i,i
> 0, ∀i = 1, . . . , N. (1.6.58)
N
¸
i=1
a
i,j
= 0, ∀j = 1, . . . , N. (1.6.59)
Soit λ ∈ IR

+
.
1. Pour x ∈ IR
N
, on définit
x
A
=
N
¸
i=1
a
i,i
|x
i
|.
Montrer que ·
A
est une norme sur IR
N
.
2. Montrer que la matrice λId +A est inversible.
3. On considère le système linéaire suivant :
(λId +A)u = b (1.6.60)
Montrer que la méthode de Jacobi pour la recherche de la solution de ce système définit une suite (u
(k)
)
k∈N

IR
N
.
4. Montrer que la suite (u
(k)
)
k∈IN
vérifie :
u
(k+1)
−u
(k)

A
≤ (
1
1 + α
)
k
u
(1)
− u
(0)

A
,
où α = min
i=1,...,N
a
i,i
.
Analyse numérique I, Télé-enseignement, L3 50 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.6. EXERCICES CHAPITRE 1. SYSTÈMES LINÉAIRES
5. Montrer que la suite (u
(k)
)
k∈IN
est de Cauchy, et en déduire qu’elle converge vers la solution du système
(1.6.60).
Exercice 40 (Une méthode itérative particulière)
Soient α
1
, . . . , α
n
des réels strictement positifs, et A la matrice n ×n de coefficients a
i,j
définis par :

a
i,i
= 2 + α
i
a
i,i+1
= a
i,i−1
= −1
a
i,j
= 0 pour tous les autres cas.
Pour β > 0 on considère la méthode itérative Mx
(k+1)
= Nx
(k)
+ b avec A = M − N et N = diag(β − α
i
)
(c.à.d β −α
i
pour les coefficients diagonaux, et 0 pour tous les autres).
1. Soit λ ∈ C une valeur propre de la matrice M
−1
N ; montrer qu’il existe un vecteur x ∈ C
n
non nul tel que
Nx· x = λMx· x (où x désigne le conjugué de x). En déduire que toutes les valeurs propres de la matrice M
−1
N
sont réelles.
2. Montrer que le rayon spectral ρ(M
−1
N) de la matrice vérifie : ρ(M
−1
N) ≤ max
i=1,n
|β −α
i
|
β
3. Déduire de la question 1. que si β >
α
2
, où α = max
i=1,n
α
i
, alors ρ(M
−1
N) < 1, et donc que la méthode
itérative converge.
4. Trouver le paramètre β minimisant max
i=1,n
|β −α
i
|
β
.
(On pourra d’abord montrer que pour tout β > 0, |β − α
i
| ≤ max(β − α, ¯ α − β) pour tout i = 1, . . . , n, avec
α = min
i=1,...,n
α
i
et ¯ α = max
i=1,...,n
α
i
et en déduire que max
i=1,n
|β −α
i
| = max(β −α, ¯ α −β)) .
Exercice 41 (Une matrice 3 ×3) Suggestions en page 58, corrigé en page 81
Soit A ∈ M
3
(IR) définie par A = Id −E −F avec
E = −

¸
0 2 0
1 0 0
0 0 0
¸

, et F = −

¸
0 0 0
0 0 0
1 1 0
¸

.
1. Montrer que A est inversible.
2. Soit 0 < ω < 2. Montrer que pour (
1
ω
Id −E) est inversible si et seulement si ω =

2/2.
Pour 0 < ω < 2, ω =

2/2, on considère la méthode itérative (pour trouver la solution de Ax = b)
suivante :
(
1
ω
Id −E)x
n+1
= (F +
1 −ω
ω
Id)x
n
+b.
Il s’agit donc de la “méthode I" du cours avec B = L
ω
= (
1
ω
Id −E)
−1
(F +
1−ω
ω
Id).
3. Calculer, en fonction de ω, les valeurs propres de L
ω
et son rayon spectral.
4. Pour quelles valeurs de ω la méthode est-elle convergente? Déterminer ω
0
∈]0, 2[ t.q. ρ(L
ω0
) = min{ρ(L
ω
),
ω ∈]0, 2[, ω =

2/2}.
Exercice 42 (Méthode des directions alternées)
Analyse numérique I, Télé-enseignement, L3 51 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.6. EXERCICES CHAPITRE 1. SYSTÈMES LINÉAIRES
Soit N ∈ IN et N ≥ 1, Soit A ∈ M
N
(IR) une matrice carrée d’ordre N symétrique inversible et b ∈ IR
N
.
On cherche à calculer u ∈ IR
N
, solution du système linéaire suivant :
Au = b, (1.6.61)
On suppose connues des matrices X et Y ∈ M
N
(IR), symétriques. Soit α ∈ IR

+
, choisi tel que X + αId et
Y + αId soient définies positives (où Id désigne la matrice identité d’ordre N) et X +Y + αId = A.
Soit u
(0)
∈ IR
N
, on propose, pour résoudre (1.6.61), la méthode itérative suivante :

(X + αId)u
(k+1/2)
= −Y u
(k)
+b,
(Y + αId)u
(k+1)
= −Xu
(k+1/2)
+b.
(1.6.62)
1. Montrer que la méthode itérative (1.6.62) définit bien une suite (u
(k)
)
k∈IN
et que cette suite converge vers la
solution u de (1.1.1) si et seulement si
ρ

(Y + αId)
−1
X(X + αId)
−1
Y

< 1.
(On rappelle que pour toute matrice carrée d’ordre N, ρ(M) désigne le rayon spectral de la matrice M.)
2. Montrer que si les matrices (X +
α
2
Id) et (Y +
α
2
Id) sont définies positives alors la méthode (1.6.62)
converge. On pourra pour cela (mais ce n’est pas obligatoire) suivre la démarche suivante :
(a) Montrer que
ρ

(Y + αId)
−1
X(X + αId)
−1
Y

= ρ

X(X + αId)
−1
Y (Y + αId)
−1

.
(On pourra utiliser l’exercice 6 page 37).
(b) Montrer que
ρ

X(X + αId)
−1
Y (Y + αId)
−1

≤ ρ

X(X + αId)
−1

ρ

Y (Y + αId)
−1

.
(c) Montrer que ρ

X(X + αId)
−1

< 1 si et seulement si la matrice (X +
α
2
Id) est définie positive.
(d) Conclure.
3. Soit f ∈ C([0, 1] × [0, 1]) et soit A la matrice carrée d’ordre N = M × M obtenue par discrétisation de
l’équation −∆u = f sur le carré [0, 1] × [0, 1] avec conditions aux limites de Dirichlet homogènes u = 0
sur ∂Ω, par différences finies avec un pas uniforme h =
1
M
, et b le second membre associé.
(a) Donner l’expression de A et b.
(b) Proposer des choix de X, Y et α pour lesquelles la méthode itérative (1.6.62) converge dans ce cas et
qui justifient l’appellation “méthode des directions alternées" qui lui est donnée.
Exercice 43 (Méthode de la puissance) Suggestions en page 59, corrigé en page 82
1. Soit A ∈ M
N
(IR) une matrice symétrique. Soit λ
N
∈ IR valeur propre de A t.q. |λ
N
| = ρ(A) et soit
x
(0)
∈ IR
N
. On suppose que −λ
N
n’est pas une valeur propre de A et que x
(0)
n’est pas orthogonal à
Ker(A −λ
N
Id). On définit la suite (x
(n)
)
n∈IN
par x
(n+1)
= Ax
(n)
pour n ∈ IN. Montrer que
(a)
x
(n)
(λN)
n
→x, quand n →∞, avec x = 0 et Ax = λ
N
x.
(b)
x
(n+1)

x
(n)

→ρ(A) quand n →∞.
Cette méthode de calcul s’appelle “méthode de la puissance".
Analyse numérique I, Télé-enseignement, L3 52 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.6. EXERCICES CHAPITRE 1. SYSTÈMES LINÉAIRES
2. Soit A ∈ M
N
(IR) une matrice inversible et b ∈ IR
N
. Pour calculer x t.q. Ax = b, on considère la méthode
itérative appelée “méthode I" en cours, et on suppose B symétrique. Montrer que, sauf cas particuliers à
préciser,
(a)
x
(n+1)
−x
x
(n)
−x
→ρ(B) quand n →∞(ceci donne une estimation de la vitesse de convergence).
(b)
x
(n+1)
−x
(n)

x
(n)
−x
(n−1)

→ρ(B) quand n →∞(ceci permet d’estimer ρ(B) au cours des itérations).
Exercice 44 (Méthode de la puissance inverse) Suggestions en page 59.
Soient A ∈ M
N
(IR) une matrice symétrique et λ
1
, . . . , λ
p
(p ≤ N) les valeurs propres de A. Soit i ∈ {1, . . . , p},
on cherche à calculer λ
i
. Soit x
(0)
∈ IR
N
. On suppose que x
(0)
n’est pas orthogonal à Ker(A−λ
i
Id). On suppose
également connaître µ ∈ IR t.q. 0 < |µ − λ
i
| < |µ − λ
j
| pour tout j = i. On définit la suite (x
(n)
)
n∈IN
par
(A −µId)x
(n+1)
= x
(n)
pour n ∈ IN. Montrer que
1. x
(n)

i
−µ)
n
→x, quand n →∞, avec x = 0 et Ax = λ
i
x.
2.
x
(n+1)

x
(n)


1
|µ−λi|
quand n →∞.
Exercice 45 (Méthode QR pour la recherche de valeurs propres)
Soient u et v deux vecteurs de IR
N
. On rappelle que la projection orthogonale proj
u
(v) du vecteur v sur la droite
vectorielle engendrée par u peut s’écrire de la manière suivante :
proj
u
(v) =
v · u
u · u
u,
où u · v désigne le produit scalaire des vecteurs u and v. On note · la norme euclidienne sur IR
N
.
1. Soient (w
1
, . . . , w
N
) une base de IR
N
. On rappelle qu’à partir de cette base, on peut obtenir une base orthogo-
nale (v
1
, . . . , v
N
) et une base orthonormale (u
1
, . . . , u
N
) par le procédé de Gram-Schmidt qu’on rappelle :
v
1
= w
1
, u
1
=
w
1
w
1

v
2
= w
2
−proj
v1
(w
2
), u
2
=
v
2
v
2

v
3
= w
3
−proj
v1
(w
3
) −proj
v2
(w
3
), u
3
=
v
3
v
3

v
4
= w
4
−proj
v1
(w
4
) −proj
v2
(w
4
) −proj
v3
(w
4
), u
4
=
v
4
v
4

.
.
.
.
.
.
v
k
= w
k

k−1
¸
j=1
proj
vj
(w
k
), u
k
=
v
k
v
k

On a donc
v
k
= w
k

k−1
¸
j=1
w
k
· v
j
v
j
· v
j
v
j
, u
k
=
v
k
v
k

. (1.6.63)
1.a Montrer par récurrence que la famille (v
1
, . . . , v
N
) est une base orthogonale de IR
N
.
Analyse numérique I, Télé-enseignement, L3 53 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.6. EXERCICES CHAPITRE 1. SYSTÈMES LINÉAIRES
1.b Soient A la matrice carrée d’ordre N dont les colonnes sont les vecteurs w
j
et Q la matrice carrée d’ordre N
dont les colonnes sont les vecteurs u
j
définis par le procédé de Gram-Schmidt (1.6.63), ce qu’on note :
A =

w
1
w
2
. . . w
N

, Q =

u
1
u
2
. . . u
N

.
Montrer que
w
k
= v
k
u
k
+
k−1
¸
j=1
w
k
· v
j
v
j

u
j
.
En déduire que A = QR, où R est une matrice triangulaire supérieure dont les coefficients diagonaux sont positifs.
1.c. Montrer que pour toute matrice A ∈ M
N
(IR) inversible, on peut construire une matrice orthogonale Q(c.à. d.
telle que QQ
t
= Id) et une matrice triangulaire supérieure R à coefficients diagonaux positifs telles que A = QR.
1.d. Donner la décomposition QR de A =
¸
1 4
1 0

.
Soit A une matrice inversible.
Pour trouver les valeurs propres de A, on propose la méthode suivante, dite “méthode QR” : On pose A
1
= A et
on construit une matrice orthogonale Q
1
et une matrice triangulaire supérieure R
1
(par exemple construites à la
question 2, bien que cette méthode ne soit pas celle utilisée en pratique, en raison d’instabilité numérique) telles
que A
1
= Q
1
R
1
. On pose alors A
2
= R
1
Q
1
, qui est aussi une matrice inversible. On construit ensuite une matrice
orthogonale Q
2
et une matrice triangulaire supérieure R
2
telles que A
2
= Q
2
R
2
et on pose A
3
= R
3
Q
3
. On
continue et on construit une suite de matrices A
k
telles que :
A
1
= A = Q
1
R
1
, R
1
Q
1
= A
2
= Q
2
R
2
, . . . , R
k
Q
k
= A
k
= Q
k+1
R
k+1
. (1.6.64)
Dans de nombreux cas, cette construction permet d’obenir les valeurs propres de la matrice A sur la diagonale
des matrices A
k
. Nous allons démontrer que ceci est vrai pour le cas particulier des matrices symétriques définies
positives dont les valeurs propres sont simples (on peut le montrer pour une classe plus large de matrices).
On suppose à partir de maintenant que A est une matrice symétrique définie positive qui admet N valeurs propres
(strictement positives) vérifiant λ
1
> λ
2
> . . . > λ
N
. On a donc :
A = PΛP
t
, avec Λ = diag(λ
1
, . . . , λ
N
), et P est une matrice orthogonale. (1.6.65)
(La notation diag(λ
1
, . . . , λ
N
) désigne la matrice diagonale dont les termes diagonaux sont λ
1
,... ,λ
N
).
On suppose de plus que
P
t
admet une décomposition LU et que les coefficients diagonaux de U sont strictement positifs. (1.6.66)
On va montrer que A
k
tend vers Λ = diag(λ
1
, . . . , λ
N
).
2. Soient Q
i
et R
i
les matrices orthogonales et triangulaires supérieures définies par (1.6.64).
2.1 Montrer que A
2
=
˜
Q
2
˜
R
2
avec
˜
Q
k
= Q
1
Q
2
et
˜
R
k
= R
2
R
1
.
2.2 Montrer, par récurrence sur k, que
A
k
=
˜
Q
k
˜
R
k
, (1.6.67)
avec
˜
Q
k
= Q
1
Q
2
. . . Q
k−1
Q
k
et
˜
R
k
= R
k
R
k−1
. . . R
2
R
1
. (1.6.68)
Analyse numérique I, Télé-enseignement, L3 54 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.6. EXERCICES CHAPITRE 1. SYSTÈMES LINÉAIRES
2.3 Justifier brièvement le fait que
˜
Q
k
est une matrice orthogonale et
˜
R
k
est une matrice triangulaire à coefficients
diagonaux positifs.
3. Soit M
k
= Λ
k

−k
.
3.1 Montrer que PM
k
=
˜
Q
k
T
k
où T
k
=
˜
R
k
U
−1
Λ
−k
est une matrice triangulaire supérieure dont les coefficients
diagonaux sont positifs.
3.2 Calculer les coefficients de M
k
en fonction de ceux de L et des valeurs propres de A.
3.3 En déduire que M
k
tend vers la matrice identité et que
˜
Q
k
T
k
tend vers P lorsque k →+∞.
4. Soient (B
k
)
k∈IN
et (C
k
)
k∈IN
deux suites de matrices telles que les matrices B
k
sont orthogonales et les matrices
C
k
triangulaires supérieures et de coefficients diagonaux positifs. On va montrer que si B
k
C
k
tend vers la matrice
orthogonale B lorsque k tend vers l’infini alors B
k
tend vers B et C
k
tend vers l’identité lorsque k tend vers
l’infini.
On suppose donc que B
k
C
k
tend vers la matrice orthogonale B. On note b
1
, b
2
, . . . , b
N
les colonnes de la matrice
B et b
(k)
1
, b
(k)
2
, . . . , b
(k)
N
les colonnes de la matrice B
k
, ou encore :
B =

b
1
b
2
. . . b
N

, B
k
=

b
(k)
1
b
(k)
2
. . . b
(k)
N

.
et on note c
(k)
i,j
les coefficients de C
k
.
4.1 Montrer que la première colonne de B
k
C
k
est égale à c
(k)
1,1
b
(k)
1
. En déduire que c
(k)
1,1
→1 et que b
(k)
1
→b
1
.
4.2 Montrer que la seconde colonne de B
k
C
k
est égale à c
(k)
1,2
b
(k)
1
+ c
(k)
2,2
b
(k)
2
. En déduire que c
(k)
1,2
→ 0, puis que
c
(k)
2,2
→1 et que b
(k)
2
→b
2
.
4.3 Montrer que lorsque k →+∞, on a c
(k)
i,j
→0 si i = j, puis que c
(k)
i,i
→1 et b
(k)
i
→b
i
.
4.4 En déduire que B
k
tend B et C
k
tend vers l’identité lorsque k tend vers l’infini.
5. Déduire des questions 3 et 4 que
˜
Q
k
tend vers P et T
k
tend vers Id lorsque k →+∞.
6. Montrer que
˜
R
k
(
˜
R
k−1
)
−1
= T
k
ΛT
k−1
. En déduire que R
k
et A
k
tendent vers Λ.
Analyse numérique I, Télé-enseignement, L3 55 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.7. SUGGESTIONS CHAPITRE 1. SYSTÈMES LINÉAIRES
1.7 Suggestions
Exercice 1 page 36 (Matrices symétriques définies positives)
3. Utiliser la diagonalisation sur les opérateurs linéaires associés.
Exercice 3 page 36 (Normes induites particulières)
1. Pour montrer l’égalité, prendre x tel que x
j
= sign(a
i0,j
) où i
0
est tel que
¸
j=1,...,N
|a
i0,j
| ≥
¸
j=1,...,N
|a
i,j
|,
∀i = 1, . . . , N, et sign(s) désigne le signe de s.
2. Pour montrer l’égalité, prendre x tel que x
j0
= 1 et x
j
= 0 si j = j
0
, où j
0
est tel que
¸
i=1,...,N
|a
i,j0
| =
max
j=1,...,N
¸
i=1,...,N
|a
i,j
|.
3. Utiliser le fait que A
t
A est une matrice symétrique positive pour montrer l’inégalité, et pour l’égalité, prendre
pour x le vecteur propre associé à la plus grande valeur propre de A.
Exercice 5 page 37 (Rayon spectral)
1. Pour le sens direct, utiliser la proposition 1.7 page 6 du cours.
2. On rappelle que limsup
k→+∞
u
k
= lim
k→+∞
sup
n≥k
u
n
, et liminf
k→+∞
u
k
= lim
k→+∞
inf
n≥k
u
n
. Utili-
ser la question 1.
3. Utiliser le fait que liminf
k→+∞
u
k
est une valeur d’adhérence de la suite (u
k
)
k∈IN
(donc qu’il existe une suite
extraite (u
kn
)
n∈IN
telle que uu
kn
→liminf
k→+∞
u
k
lorsque k →+∞.
4. Raisonner avec
1
α
A où α ∈ IR
+
est tel que ρ(A) < α et utiliser la question 2 pour déduire que
limsup
k→+∞
A
k

1
k
≤ ρ(A).
Raisonner ensuite avec
1
β
A où β ∈ IR
+
est tel que liminf
k→+∞
A
k

1
k
< β et utiliser la question 3.
Exercice 9 page 37 (Série de Neumann)
1. Montrer que si ρ(A) < 1, alors 0 n’est pas valeur propre de Id +A et Id −A.
2. Utiliser le résultat de la question 1 de l’exercice 5.
Exercice 16 page 39
2. Soit q le nombre de sur- ou sous-diagonales (p = 2q + 1). Compter le nombre c
q
d’opérations nécessaires pour
le calcul des colonnes 1 à q et N − q + 1 à N, puis le nombre d
n
d’opérations nécessaires pour le calcul des
colonnes n = q +1 N −q. En déduire l’estimation sur le nombre d’opérations nécessaires pour le calcul de toutes
les colonnes, Z
p
(N), par :
2c
q
≤ Z
p
(N)2c
q
+
N−q
¸
n=q+1
c
n
.
Analyse numérique I, Télé-enseignement, L3 56 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.7. SUGGESTIONS CHAPITRE 1. SYSTÈMES LINÉAIRES
Exercice 18 page 40 (Propriétés générales du conditionnement)
Partie II
1. On rappelle que si A a comme valeurs propres λ
1
, . . . , λ
N
, alors A
−1
a comme valeurs propres λ
−1
1
, . . . , λ
−1
N
et A
t
a comme valeurs propres λ
1
, . . . , λ
N
.
2. Utiliser le fait que AA
t
est diagonalisable.
5. Soient 0 < λ
1
≤ λ
2
. . . ≤ λ
N
et 0 < µ
1
≤ µ
2
. . . ≤ µ
N
les valeurs propres de A et B (qui sont s.d.p.). Montrer
d’abord que :
cond
2
(A + B) ≤
λ
N

N
λ
1

1
.
Montrer ensuite que
a +b
c +d
≤ max(
a
c
,
b
d
), ∀(a, b, c, d) ∈ (IR

+
)
4
.
et conclure
Exercice 26 page 44 (Valeurs propres et vecteurs propres de A.)
Chercher les vecteurs propres Φ ∈ IR
N
de A sous la forme Φ
j
= ϕ(x
j
), j = 1, . . . , N où ϕ est introduite dans
les indications de l’énoncé. Montrer que les valeurs propres associées à ces vecteurs propres sont de la forme :
λ
k
=
2
h
2
(1 −cos kπh) =
2
h
2
(1 −cos

N + 1
).
Exercice 28 page 45 (Conditionnement efficace)
Partie 1
1. Pour montrer que A est inversible, utiliser le théorème du rang.
2. Utiliser le fait que ϕ est un polynôme de degré 2.
3. Pour montrer que A
−1
=
1
8
, remarquer que le maximum de ϕ est atteint en x = .5, qui correspond à un point
de discrétisation car N est impair.
Partie 2 Conditionnement efficace
1. Utiliser la convergence uniforme. 2. Utiliser le fait que Aφ = (1 . . . 1)
t
.
Exercice 29 page 46(Méthode itérative du “gradient à pas fixe".)
1. Calculer le rayon spectral ρ(B) de la matrice d’itération B = Id−αA. Calculer les valeurs de α pour lesquelles
ρ(B) < 1 et en déduire que la méthode itérative du gradient à pas fixe converge si 0 < α <
2
ρ(A)
.
2. Remarquer que ρ(Id − αA) = max(|1 − αλ
1
|, |1 − αλ
N
− 1|, où λ
1
, . . . , λ
N
sont les valeurs propres de A
ordonnées dans le sens croissant. En traçant les graphes des valeurs prises par |1 − αλ
1
| et |1 − αλ
N
− 1| en
fonction de α, en déduire que le min est atteint pour α =
2
λ1+λN
.
Exercice 30 page 46 (Non convergence de la méthode de Jacobi)
Considérer d’abord le cas a = 0.
Si a = 0, pour chercher les valeurs de a pour lesquelles A est symétrique définie positive, calculer les valeurs
propres de A en cherchant les racines du polynôme caractéristique. Introduire la variable µ telle que aµ = 1 −λ.
Analyse numérique I, Télé-enseignement, L3 57 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.7. SUGGESTIONS CHAPITRE 1. SYSTÈMES LINÉAIRES
Pour chercher les valeurs de a pour lesquelles la méthode de Jacobi converge, calculer les valeurs propres de la
matrice d’itération J définie en cours.
Exercice 31 page 47 (Une matrice cyclique)
1. On peut trouver les trois valeurs propres (dont une double) sans calcul en remarquant que pour α = 0 il y a 2
fois 2 lignes identiques, que la somme des colonnes est un vecteur constant et par le calcul de la trace.
2. Une matrice A est symétrique définie positive si et seulement si elle est diagonalisable et toutes ses valeurs
propres sont strictement positives.
3. Appliquer le cours.
Exercice 32 page 47 (Jacobi et diagonale dominante stricte.)
Pour montrer que A est inversible, montrer que Ax = 0 si et seulement si x = 0. Pour montrer que la méthode de
Jacobi converge, montrer que toutes les valeurs propres de la matrice A sont strictement inférieures à 1 en valeur
absolue.
Exercice 36 page 48 (Méthode de Jacobi et relaxation.)
1. Prendre pour A une matrice (2,2) symétrique dont les éléments diagonaux sont différents l’un de l’autre.
2. Appliquer l’exercice 35 page 48 en prenant pour T l’application linéaire dont la matrice est D et pour S l’appli-
cation linéaire dont la matrice est E +F.
4. Remarquer que ρ(J) = max(−µ
1
, µ
N
), et montrer que :
si µ
1
≤ −1, alors 2D−A n’est pas définie positive,
si µ
N
≥ 1, alors A n’est pas définie positive.
6. Reprendre le même raisonnement qu’à la question 2 à 4 avec les matrices M
ω
et N
ω
au lieu de D et E +F.
7. Chercher une condition qui donne que toutes les valeurs propres sont strictement positives en utilisant la base
de vecteurs propres ad hoc. (Utiliser la base de IR
N
, notée {f
1
, . . . , f
N
}, trouvée à la question 2.)
8. Remarquer que les f
i
de la question 2 sont aussi vecteurs propres de J
ω
et en déduire que les valeurs propres µ
(ω)
i
de J
ω
sont de la forme µ
(ω)
i
= ω(µ
i
−1 −1/ω). Pour trouver le paramètre optimal ω
0
, tracer les graphes des fonc-
tions de IR
+
dans IR définies par ω →|µ
(ω)
1
| et ω →|µ
(ω)
N
|, et en conclure que le minimum de max(|µ
(ω)
1
|, |µ
(ω)
N
|)
est atteint pour ω =
2
2−µ1−µN
.
Exercice 39 page 50 (Méthode de Jacobi et relaxation.)
2. Utiliser l’exercice 32 page 47
Exercice 41 page 51 (Convergence de SOR.)
1. Calculer le déterminant de A.
2. Calculer le déterminant de
I
d
ω −E.
3. Remarquer que les valeurs propres de L
ω
annulent det(
1−ω
ω
Id+F−λ(
I
d
ω−E)). Après calcul de ce déterminant,
on trouve λ
1
= 1 −ω, λ
2
=
1−ω
1+


, λ
3
=
1−ω
1−


.
Montrer que si ω <

2, ρ(L
ω
) = |λ
3
| et que ρ(L
ω
) = |λ
1
| si ω ≥

2.
4. Utiliser l’expression des valeurs propres pour montrer que la méthode converge si ω >
2
1+

2
et que le paramètre
de relaxation optimal est ω
0
= 1.
Analyse numérique I, Télé-enseignement, L3 58 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.7. SUGGESTIONS CHAPITRE 1. SYSTÈMES LINÉAIRES
Exercice 43 page 52 (Méthode de la puissance pour calculer le rayon spectral de A.)
1. Décomposer x
0
sur une base de vecteurs propres orthonormée de A, et utiliser le fait que −λ
N
n’est pas valeur
propre.
2. a/ Raisonner avec y
(n)
= x
(n)
−x où x est la solution de Ax = b et appliquer la question 1.
b/ Raisonner avec y
(n)
= x
(n+1)
−x
(n)
.
Exercice 44 page 53 (Méthode de la puissance inverse)
Appliquer l’exercice précédent à la matrice B = (A −µId)
−1
.
Analyse numérique I, Télé-enseignement, L3 59 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.8. CORRIGÉS CHAPITRE 1. SYSTÈMES LINÉAIRES
1.8 Corrigés
Exercice 1 page 36 (Matrices symétriques définies positives)
1. Supposons qu’il existe un élément diagonal a
i,i
négatif. Alors Ae
i
· e
i
≤ 0 ce qui contredit le fait que A est
définie positive.
2. Soit x ∈ IR
N
, décomposons x sur la base orthonormée (f
i
)
i=1,N
: x =
¸
N
i=1
x
i
f
i
. On a donc :
Ax · x =
N
¸
i=1
λ
i
x
2
i
. (1.8.69)
Montrons d’abord que si les valeurs propres sont strictement positives alors A est définie positive :
Supposons que λ
i
≥ 0, ∀i = 1, . . . , N. Alors pour ∀x ∈ IR
N
, d’après (1.8.69), Ax · x ≥ 0 et la matrice A est
positive.
Supposons maintenant que λ
i
≥ 0, ∀i = 1, . . . , N. Alors pour ∀x ∈ IR
N
, toujours d’après (1.8.69), (Ax · x =
0) ⇒(x = 0), et et la matrice A est donc bien définie.
Montrons maintenant la réciproque :
Si A est positive, alors Af
i
· f
i
≥ 0, ∀i = 1, . . . , N et donc λ
i
≥ 0, ∀i = 1, . . . , N.
Si A est définie, alors (Aαf
i
· αf
i
= 0) ⇒(α = 0), ∀i = 1, . . . , N et donc λ
i
> 0, ∀i = 1, . . . , N.
3. Comme A est s.d.p., toutes ses valeurs propres sont strictement positives, et on peut donc définir l’application
linéaire S dans la base orthonormée (f
i
)
i=1,N
par : S(f
i
) =

λ
i
f
i
, ∀i = 1, . . . , N. On a évidemment S ◦S = T,
et donc si on désigne par B la matrice représentative de l’application S dans la base canonique, on a bien B
2
= A.
Exercice 3 page 36 (Normes induites particulières)
1. Par définition, A

= sup
x∈IR
N
,x∞=1
Ax

, et
Ax

= max
i=1,...,N
|
¸
j=1,...,N
a
i,j
x
j
| ≤ max
i=1,...,N
|
¸
j=1,...,N
|a
i,j
||x
j
|.
Or x

= 1 donc |x
j
| ≤ 1 et
Ax

≤ max
i=1,...,N
|
¸
j=1,...,N
|a
i,j
|.
Posons maintenant α = max
i=1,...,N
|
¸
j=1,...,N
|a
i,j
| et montrons qu’il existe x ∈ IR
N
, x

= 1, tel que
Ax

= α. Pour s ∈ IR, on note sign(s) le signe de s, c’est–à–dire sign(s) = s/|s| si s = 0 et sign(0) = 0.
Choisissons x ∈ IR
N
défini par x
j
= sign(a
i0,j
) où i
0
est tel que
¸
j=1,...,N
|a
i0,j
| ≥
¸
j=1,...,N
|a
i,j
|, ∀i =
1, . . . , N. On a bien x

= 1, et
Ax

= max
i=1,...,N
|
N
¸
j=1
a
i,j
sgn(a
i0,j
)|.
Or, par choix de x, on a
¸
j=1,...,N
|a
i0,j
| = max
i=1,...,N
¸
j=1,...,N
|a
i,j
|. On en déduit que pour ce choix de x,
on a bien Ax = max
i=1,...,N
|
¸
j=1,...,N
|a
i,j
|.
Analyse numérique I, Télé-enseignement, L3 60 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.8. CORRIGÉS CHAPITRE 1. SYSTÈMES LINÉAIRES
2. Par définition, A
1
= sup
x∈IR
N
,x1=1
Ax
1
, et
Ax
1
=
¸
i=1,...,N
|
¸
j=1,...,N
a
i,j
x
j
| ≤
¸
j=1,...,N
|x
j

¸
|
¸
i=1,...,N
|a
i,j
|
¸

≤ max
j=1,...,N
|
¸
i=1,...,N
|a
i,j
|
¸
j=1,...,N
|x
j
|.
Et comme
¸
j=1,...,N
|x
j
| = 1, on a bien que A
1
≤ max
j=1,...,N
¸
i=1,...,N
|a
i,j
|.
Montrons maintenant qu’il existe x ∈ IR
N
, x
1
= 1, tel que Ax
1
=
¸
i=1,...,N
|a
i,j
|. Il suffit de considèrer
pour cela le vecteur x ∈ IR
N
défini par x
j0
= 1 et x
j
= 0 si j = j
0
, où j
0
est tel que
¸
i=1,...,N
|a
i,j0
| =
max
j=1,...,N
¸
i=1,...,N
|a
i,j
|. On vérifie alors facilement qu’on a bien Ax
1
= max
j=1,...,N
¸
i=1,...,N
|a
i,j
|.
3. Par définition de la norme 2, on a :
A
2
2
= sup
x∈IR
N
,x2=1
Ax · Ax = sup
x∈IR
N
,x2=1
A
t
Ax · x.
Comme A
t
A est une matrice symétrique positive (car A
t
Ax · x = Ax · Ax ≥ 0), il existe une base orthonormée
(f
i
)
i=1,...,N
et des valeurs propres (µ
i
)
i=1,...,N
, avec 0 ≤ µ
1
≤ µ
2
≤ . . . ≤ µ
N
tels que Af
i
= µ
i
f
i
pour tout
i ∈ {1, . . . , N}. Soit x =
¸
i=1,...,N
α
i
f
i
∈ IR
N
. On a donc :
A
t
Ax · x =

¸
i=1,...,N
µ
i
α
i
f
i

·

¸
i=1,...,N
α
i
f
i

=
¸
i=1,...,N
α
2
i
µ
i
≤ µ
N
x
2
2
.
On en déduit que A
2
2
≤ ρ(A
t
A).
Pour montrer qu’on a égalité, il suffit de considèrer le vecteur x = f
N
; on a en effet f
N

2
= 1, et Af
N

2
2
=
A
t
Af
N
· f
N
= µ
N
= ρ(A
t
A).
Exercice 5 page 37 (Rayon spectral)
1. Si ρ(A) < 1, grâce au résultat d’approximation du rayon spectral de la proposition 1.7 page 6, il existe ε > 0
tel que ρ(A) < 1 −2ε et une norme induite .
A,ε
tels que A
A,ε
= µ ≤ ρ(A) +ε = 1 −ε < 1. Comme .
A,ε
est une norme matricielle, on a A
k

A,ε
≤ µ
k
→0 lorsque k → ∞. Comme l’espace M
N
(IR) est de dimension
finie, toutes les normes sont équivalentes, et on a donc A
k
→0 lorsque k →∞.
Montrons maintenant la réciproque : supposons que A
k
→ 0 lorsque k → ∞, et montrons que ρ(A) < 1. Soient
λ une valeur propre de A et x un vecteur propre associé. Alors A
k
x = λ
k
x, et si A
k
→0, alors A
k
x →0, et donc
λ
k
x →0, ce qui n’est possible que si |λ| < 1.
2. Si ρ(A) < 1, d’après la question précédente on a : A
k
→0 donc il existe K ∈ IN tel que pour k ≥ K, A
k
<
1. On en déduit que pour k ≥ K, A
k

1/k
< 1, et donc en passant à la limite sup sur k, limsup
k→+∞
A
k

1
k
≤ 1.
3. Comme liminf
k→+∞
A
k

1/k
< 1, il existe une sous-suite (k
n
)
n∈IN
⊂ IN telle que A
kn

1/kn
→ < 1
lorsque n →+∞, et donc il existe N tel que pour n ≥ N, A
kn

1/kn
≤ η, avec η ∈]0, 1[. On en déduit que pour
n ≥ N, A
kn
≤ η
kn
, et donc que A
kn
→ 0 lorsque n → +∞. Soient λ une valeur propre de A et x un vecteur
propre associé, on a : A
kn
x = λ
kn
x; on en déduit que |λ| < 1, et donc que ρ(A) < 1.
4. Soit α ∈ IR
+
tel que ρ(A) < α. Alors ρ(
1
α
A) < 1, et donc par la question 2,
limsup
k→+∞
A
k

1
k
< α, ∀α > ρ(A).
Analyse numérique I, Télé-enseignement, L3 61 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.8. CORRIGÉS CHAPITRE 1. SYSTÈMES LINÉAIRES
En faisant tendre α vers ρ(A), on obtient donc :
limsup
k→+∞
A
k

1
k
≤ ρ(A). (1.8.70)
Soit maintenant β ∈ IR
+
tel que liminf
k→+∞
A
k

1
k
< β. On a alors liminf
k→+∞
(
1
β
A)
k

1
k
< 1 et donc par
la question 3, ρ(
1
β
A) < 1, donc ρ(A) < β pour tout β ∈ IR
+
tel que liminf
k→+∞
A
k

1
k
< β. En faisant tendre
β vers liminf
k→+∞
A
k

1
k
, on obtient donc
ρ(A) ≤ liminf
k→+∞
A
k

1
k
. (1.8.71)
De (1.8.70) et (1.8.71), on déduit que
limsup
k→+∞
A
k

1
k
= liminf
k→+∞
A
k

1
k
= lim
k→+∞
A
k

1
k
= ρ(A). (1.8.72)
5. Si . est une norme matricielle, alors A
k
≤ A
k
et donc d’après la question précédente, ρ(A) ≤ A.
6. On a montré que ρ(A) < 1 si et seulement si A
k
→0 et que donc, si ρ(A) ≥ 1 alors A
k
→0. On rappelle aussi
que A
k
→0 si et seulement si A
k
y →0, ∀y ∈ IR
N
.
(⇒) On démontre l’implication par contraposée. Si ρ(A) ≥ 1 il existe y ∈ IR
N
tel que A
k
y −→
k→+∞
0.
(⇐) Supposons maintenant que ρ(B) < 1 alors l’égalité (1.5.29) donne
x
(k)
−x = B
k
(x
(0)
−x) →
k→+∞
0
car ρ(B) < 1. Donc x
(k)
−→
k→+∞
x = A
−1
b. La méthode est bien convergente.
Exercice 7 page 37 (Rayon spectral)
Il suffit de prendre comme norme la norme définie par : x =
¸
N
i=1
α
2
i
où les (α
i
)
i=1,N
sont les composantes de
x dans la base des vecteurs propres associés à A.
Pour montrer que ceci est faux dans le cas où A n’est pas diagonalisable, il suffit de prendre A =

0 1
0 0

, on a
alors ρ(A) = 0, et comme A est non nulle, A = 0.
Exercice 9 page 37 (Série de Neumann)
1. Si ρ(A) < 1, les valeurs propres de A sont toutes différentes de 1 et −1. Donc 0 n’est pas valeur propre des
matrices Id −A et Id +A, qui sont donc inversibles.
2. Suppposons que ρ(A) < 1. Il est facile de remarquer que
(
N
¸
k=0
A
k
)(Id −A) = Id −A
N+1
. (1.8.73)
Si ρ(A) < 1, d’après la question 1. de l’exercice 5 page 37, on a A
k
→ 0 lorsque k → 0. De plus, Id − A est
inversible. On peut donc passer à la limite dans (1.8.73) et on a donc (Id −A)
−1
=
¸
+∞
k=0
A
k
.
Remarquons de plus que la série de terme général A
k
est absolument convergente pour une norme ·
A,
donnée
par la proposition 1.7 page 6, avec ε choisi tel que ρ(A) + ε < 1. Par contre, la série n’est pas absolument
Analyse numérique I, Télé-enseignement, L3 62 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.8. CORRIGÉS CHAPITRE 1. SYSTÈMES LINÉAIRES
convergente pour n’importe quelle norme. On pourra s’en convaincre facilement grâce au contre–exemple (en
dimension 1) suivant : la série s
k
= 1 + x + · · · + x
k
est absolument convergente pour la norme | · | sur IR
pour |x| < 1, ce qui n’est évidemment plus le cas si l’on remplace la norme par la norme (pourtant équivalente)
· = 10| · |.
Réciproquement, si ρ(A) ≥ 1, la série ne peut pas converger en raison du résultat de la question 1 de l’exercice 5
page 37.
Exercice 11 page 38 (Décompositions LL
t
et LDL
t
)
1. On pose L =

1 0
γ 1

et D =

α 0
0 β

.
Par identification, on obtient α = 2, β = −
1
2
et γ =
1
2
.
Si maintenant on essaye d’écrire A = LL
t
avec L =

a 0
b c

, on obtient c
2
= −
1
2
ce qui est impossible dans IR.
En fait, on peut remarquer qu’il est normal que A n’admette pas de décomposition LL
t
, car elle n’est pas définie
positive. En effet, soit x = (x
1
, x
2
)
t
∈ IR
2
,, alors Ax · x = 2x
1
(x
1
+ x
2
), et en prenant x = (1, −2)
t
, on a
Ax · x < 0.
2. 2. Reprenons en l’adaptant la démonstration du théorème 1.3. On raisonne donc par récurrence sur la dimension.
1. Dans le cas N = 1, on a A = (a
1,1
). On peut donc définir L = (
1,1
) où
1,1
= 1, D = (a
1,1
), d
1,1
= 0, et
on a bien A = LDL
t
.
2. On suppose que, pour 1 ≤ p ≤ N, la décomposition A = LDL
t
s’obtient pour A ∈ M
p
(IR) symétrique
définie positive ou négative, avec d
i,i
= 0 pour 1 ≤ i ≤ N et on va démontrer que la propriété est encore
vraie pour A ∈ M
N+1
(IR) symétrique définie positive ou négative. Soit donc A ∈ M
N+1
(IR) symétrique
définie positive ou négative ; on peut écrire A sous la forme :
A =

B a
a
t
α
¸
¸
¸
¸
(1.8.74)
où B ∈ M
N
(IR) est symétrique définie positive ou négative (calculer Ax· x avec x = (y, 0)
t
, avec y ∈ IR
N
pour le vérifier), a ∈ IR
N
et α ∈ IR.
Par hypothèse de récurrence, il existe une matrice M ∈ M
N
(IR) M = (m
i,j
)
N
i,j=1
et une matrice diagonale
˜
D = diag(d
1,1
, d
2,2
, . . . , d
N,N
) dont les coefficients sont tous non nuls, telles que :
(a) m
i,j
= 0 si j > i
(b) m
i,i
= 1
(c) B = M
˜
DM
t
.
On va chercher L et D sous la forme :
L =

M 0
b
t
1
¸
¸
¸
¸
, D =

˜
D 0
0 λ
¸
¸
¸
¸
, (1.8.75)
avec b ∈ IR
N
, λ ∈ IR tels que LDL
t
= A. Pour déterminer b et λ, calculons LDL
t
avec L et D de la forme
(1.8.75) et identifions avec A :
Analyse numérique I, Télé-enseignement, L3 63 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.8. CORRIGÉS CHAPITRE 1. SYSTÈMES LINÉAIRES
LDL
t
=

M 0
b
t
1
¸
¸
¸
¸

˜
D 0
0 λ
¸
¸
¸
¸

M
t
b
0 1
¸
¸
¸
¸
=

M
˜
DM
t
M
˜
Db
b
t
˜
DM
t
b
t
˜
Db + λ
¸
¸
¸
¸
On cherche b ∈ IR
N
et λ ∈ IR tels que LDL
t
= A, et on veut donc que les égalités suivantes soient
vérifiées :
M
˜
Db = a et b
t
˜
Db + λ = α.
La matrice M est inversible (en effet, le déterminant de M s’écrit det(M) =
¸
N
i=1
1 = 1). Par hypothèse
de récurrence, la matrice
˜
D est aussi inversible. La première égalité ci-dessus donne : b =
˜
D
−1
M
−1
a. On
calcule alors λ = α −b
t
M
−1
a. Remarquons qu’on a forcément λ = 0, car si λ = 0,
A = LDL
t
=

M
˜
DM
t
M
˜
Db
b
t
˜
DM
t
b
t
˜
Db
¸
¸
¸
¸
qui n’est pas inversible. En effet, si on cherche (x, y) ∈ IR
N
×IR solution de

M
˜
DM
t
M
˜
Db
b
t
˜
DM
t
b
t
˜
Db
¸
¸
¸
¸

x
y
¸
¸
¸
¸
=

0
0
¸
¸
¸
¸
,
on se rend compte facilement que tous les couples de la forme (−M
−t
by, y)
t
, y ∈ IR, sont solutions. Le
noyau de la matrice n’est donc pas réduit à {0} et la matrice n’est donc pas inversible. On a ainsi montré que
d
N+1,N+1
= 0 ce qui termine la récurrence.
3. On reprend l’algorithme de décomposition LL
t
:
Soit A ∈ M
N
(IR) symétrique définie positive ou négative ; on vient de montrer qu’il existe une matrice L ∈
M
N
(IR) triangulaire inférieure telle que
i,j
= 0 si j > i,
i,i
= 1, et une matrice D ∈ M
N
(IR) diagonale
inversible, telles que et A = LDL
t
. On a donc :
a
i,j
=
N
¸
k=1

i,k
d
k,k

j,k
, ∀ (i, j) ∈ {1, . . . , N}
2
. (1.8.76)
1. Calculons la 1ère colonne de L; pour j = 1, on a :
a
1,1
= d
1,1
donc d
1,1
= a
1,1
,
a
2,1
=
2,1
d
1,1
donc
2,1
=
a
2,1
d
1,1
,
a
i,1
=
i,1

1,1
donc
i,1
=
a
i,1

1,1
∀i ∈ {2, . . . , N}.
2. On suppose avoir calculé les n premières colonnes de L. On calcule la colonne (n+1) en prenant j = n+1
dans (1.3.13)
Pour i = n + 1, a
n+1,n+1
=
n
¸
k=1

2
n+1,k
d
k,k
+d
n+1,n+1
donc
d
n+1,n+1
= a
n+1,n+1

n
¸
k=1

2
n+1,k
d
k,k
. (1.8.77)
Analyse numérique I, Télé-enseignement, L3 64 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.8. CORRIGÉS CHAPITRE 1. SYSTÈMES LINÉAIRES
On procède de la même manière pour i = n + 2, . . . , N ; on a :
a
i,n+1
=
n+1
¸
k=1

i,k
d
k,k

n+1,k
=
n
¸
k=1

i,k
d
k,k

n+1,k
+
i,n+1
d
n+1,n+1

n+1,n+1
et donc, comme on a montré dans la question 2 que les coefficients d
k,k
sont tous non nuls, on peut écrire :

i,n+1
=

a
i,n+1

n
¸
k=1

i,k
d
k,k

n+1,k

1
d
n+1,n+1
. (1.8.78)
Exercice 13 page 38 (Sur la méthode LL
t
)
Corrigé en cours de rédaction
Exercice 14 page 38 (Sur la méthode LL
t
)
Calculons le nombre d’opérations élémentaires nécessaires pour chacune des méthodes :
1. Le calcul de chaque coefficient nécessite N multiplications et N − 1 additions, et la matrice comporte N
2
coefficients. Comme la matrice est symétrique, seuls N(N + 1)/2 coefficients doivent être calculés. Le
calcul de A
2
nécessite nécessite donc
(2N−1)N(N+1)
2
opérations élémentaires.
Le nombre d’opérations élémentaires pour effectuer la décomposition LL
t
de A
2
nécessite
N
3
3
+
N
2
2
+
N
6
(cours).
La résolution du système A
2
x = b nécessite 2N
2
opérations (N
2
pour la descente, N
2
pour la remontée,
voir cours).
Le nombre total d’opérations pour le calcul de la solution du système A
2
x = b par la première méthode est
donc
(2N−1)N(N+1)
2
+
N
3
3
+
3N
2
2
+
N
6
=
4N
3
3
+O(N
2
) opérations.
2. La décomposition LL
t
de A nécessite
N
3
3
+
N
2
2
+
N
6
, et la résolution des systèmes LL
t
y = b et LL
t
x = y
nécessite 4N
2
opérations. Le nombre total d’opérations pour le calcul de la solution du système A
2
x = b
par la deuxième méthode est donc
N
3
3
+
9N
2
2
+
N
6
=
N
3
3
+O(N
2
) opérations.
Pour les valeurs de N assez grandes, il est donc avantageux de choisir la deuxième méthode.
Exercice 16 page 39 (Décomposition LL
t
d’une matrice bande)
On utilise le résultat de conservation du profil de la matrice énoncé dans le cours. Comme A est symétrique,
le nombre p de diagonales de la matrice A est forcément impair si A; notons q =
p−1
2
le nombre de sous- et
sur-diagonales non nulles de la matrice A, alors la matrice L aura également q sous-diagonales non nulles.
1. Cas d’une matrice tridiagonale. Si on reprend l’algorithme de construction de la matrice L vu en cours, on
remarque que pour le calcul de la colonne n + 1, avec 1 ≤ n < N −1, on a le nombre d’opérations suivant :
– Calcul de
n+1,n+1
= (a
n+1,n+1

n
¸
k=1

n+1,k

n+1,k
)
1/2
> 0 :
une multiplication, une soustraction, une extraction de racine, soit 3 opérations élémentaires.
– Calcul de
n+2,n+1
=

a
n+2,n+1

n
¸
k=1

n+2,k

n+1,k

1

n+1,n+1
:
une division seulement car
n+2,k
= 0.
Analyse numérique I, Télé-enseignement, L3 65 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.8. CORRIGÉS CHAPITRE 1. SYSTÈMES LINÉAIRES
On en déduit que le nombre d’opérations élémentaires pour le calcul de la colonne n + 1, avec 1 ≤ n < N − 1,
est de 4.
Or le nombre d’opérations pour la première et dernière colonnes est inférieur à 4 (2 opérations pour la première
colonne, une seule pour la dernière). Le nombre Z
1
(N) d’opérations élémentaires pour la décomposition LL
t
de
A peut donc être estimé par : 4(N −2) ≤ Z
1
(N) ≤ 4N, ce qui donne que Z
1
(N) est de l’ordre de 4N (le calcul
exact du nombre d’opérations, inutile ici car on demande une estimation, est 4N −3.)
2. Cas d’une matrice à p diagonales.
On cherche une estimation du nombre d’opérations Z
p
(N) pour une matrice à p diagonales non nulles (ou q
sous-diagonales non nulles) en fonction de N.
On remarque que le nombre d’opérations nécessaires au calcul de

n+1,n+1
= (a
n+1,n+1

n
¸
k=1

n+1,k

n+1,k
)
1/2
> 0, (1.8.79)
et
i,n+1
=

a
i,n+1

n
¸
k=1

i,k

n+1,k

1

n+1,n+1
, (1.8.80)
est toujours inférieur à 2q + 1, car la somme
¸
n
k=1
fait intervenir au plus q termes non nuls.
De plus, pour chaque colonne n+1, il y a au plus q +1 coefficients
i,n+1
non nuls, donc au plus q +1 coefficients
à calculer. Donc le nombre d’opérations pour chaque colonne peut être majoré par (2q + 1)(q + 1).
On peut donc majorer le nombre d’opérations z
q
pour les q premières colonnes et les q dernières par 2q(2q+1)(q+
1), qui est indépendant de N (on rappelle qu’on cherche une estimation en fonction de N, et donc le nombre z
q
est O(1) par rapport à N.)
Calculons maintenant le nombre d’opérations x
n
nécessaires une colonne n = q +1 à N −q −1. Dans (1.8.79) et
(1.8.80), les termes non nuls de la somme sont pour k = i −q, . . . , n, et donc on a (n −i +q +1) multiplications
et additions, une division ou extraction de racine. On a donc
x
n
=
n+q+1
¸
i=n+1

2(n −i +q + 1) + 1

=
q+1
¸
j=1

2(−j +q + 1) + 1

= (q + 1)(2q + 3) − 2
q+1
¸
j=1
j
= (q + 1)
2
.
Le nombre z
i
d’opérations nécessaires pour les colonnes n = q + 1 à N −q −1 est donc
z
i
= (q + 1)
2
(N −2q).
Un encadrement du nombre d’opérations nécessaires pour la décomposition LL
t
d’une matrice à p diagonales est
donc donnée par :
(q + 1)
2
(N −2q) ≤ Z
p
(N) ≤ (q + 1)
2
(N −2q) + 2q(2q + 1)(q + 1), (1.8.81)
et que, à q constant, Z
p
(N) = O((q +1)
2
N)). Remarquons qu’on retrouve bien l’estimation obtenue pour q = 1.
3. Dans le cas de la discrétisation de l’équation −u

= f traitée dans le cours page 18, on a q = 1 et la méthode de
Choleski nécessite de l’ordre de 4N opérations élémentaires, alors que dans le cas de la discrétisation de l’équation
Analyse numérique I, Télé-enseignement, L3 66 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.8. CORRIGÉS CHAPITRE 1. SYSTÈMES LINÉAIRES
−∆u = f traitée dans le cours page 25-26, on a q =

N et la méthode de Choleski nécessite de l’ordre de N
2
opérations élémentaires (dans les deux cas N est le nombre d’inconnues).
On peut noter que l’encadrement (1.8.81) est intéressant dès que q est d’ordre inférieur à N
α
, α < 1.
Exercice 18 page 40 (propriétés générales du conditionnement)
Partie I
1. Comme · est une norme induite, c’est donc une norme matricielle. On a donc pour toute matrice A ∈ M
N
(IR),
Id ≤ A A
−1

ce qui prouve que cond(A) ≥ 1.
2.Par définition,
cond(αA) = αA (αA)
−1

= |α| A
1
|α|
A
−1
= cond(A)
3. Soient A et B des matrices inversibles, alors AB est une matrice inversible et
cond(AB) = AB (AB)
−1
= AB B
−1
A
−1

≤ A B B
−1
A
−1
,
car · est une norme matricielle. Donc cond(AB) ≤ cond(A)cond(B).
Partie II
1. Par définition, on a cond
2
(A) = A
2
A
−1

2
. Or on a vu à l’exercice 3 que A
2
= (ρ(A
t
A))
1/2
=

σ
N
.
On a donc
A
−1

2
= (ρ((A
−1
)
t
A
−1
))
1/2
=

ρ(AA
t
)
−1
)

1/2
; or ρ((AA
t
)
−1
) =
1
˜ σ
1
,
où ˜ σ
1
est la plus petite valeur propre de la matrice AA
t
. Or les valeurs propres de AA
t
sont les valeurs propres
de A
t
A : en effet, si λ est valeur propre de AA
t
associée au vecteur propre x alors λ est valeur propre de AA
t
associée au vecteur propre A
t
x. On a donc
cond
2
(A) =

σ
N
σ
1
.
2. Si Aest s.d.p., alors A
t
A = A
2
et σ
i
= λ
2
i
où λ
i
est valeur propre de la matrice A. On a dans ce cas cond
2
(A) =
λ
N
λ
1
.
3. Si cond
2
(A) = 1, alors

σN
σ1
= 1 et donc toutes les valeurs propres de A
t
A sont égales. Comme A
t
A est
symétrique définie positive (car A est inversible), il existe une base orthonormée (f
1
. . . f
N
) telle que A
t
Af
i
=
σf
i
, ∀i et σ > 0 (car A
t
A est s.d.p.). On a donc A
t
A = σId A
t
= α
2
A
−1
avec α =

σ. En posant Q =
1
α
A,
on a donc Q
t
=
1
α
A
t
= αA
−1
= Q
−1
.
Réciproquement, si A = αQ, alors A
t
A = α
2
Id,
σN
σ1
= 1, et donc cond
2
(A) = 1.
4. A ∈ M
N
(IR) est une matrice inversible. On suppose que A = QR où Q est une matrice orthogonale. On a
donc :
cond
2
(A) = A
2
A
−1

2
= QR
2
R
−1
Q
t

2
.
Analyse numérique I, Télé-enseignement, L3 67 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.8. CORRIGÉS CHAPITRE 1. SYSTÈMES LINÉAIRES
On a aussi cond
2
(A) =

σ
N
σ
1
où σ
1
≤ . . . ≤ σ
N
sont les valeurs propres de A
t
A. Or A
t
A = (QR)
t
(QR) =
R
t
Q
−1
QR = R
t
R. Donc cond
2
(A) = cond
2
(R).
5. Soient 0 < λ
1
≤ λ
2
. . . ≤ λ
N
et 0 < µ
1
≤ µ
2
. . . ≤ µ
N
les valeurs propres de A et B (qui sont s.d.p.). Alors
cond
2
(A +B) =
ν
N
ν
1
, où 0 < ν
1
≤ . . . ≤ ν
N
sont les valeurs propres de A+B.
a) On va d’abord montrer que
cond
2
(A +B) ≤
λ
N

N
λ
1

1
.
Remarquons en premier lieu que si A est s.d.p., alors
cond
2
(A) =
sup
x=1
Ax · x
inf
x2=1
Ax · x
En effet, si A est s.d.p., alors sup
x2=1
Ax · x = λ
N
; il suffit pour s’en rendre compte de décomposer x sur la
base (f
i
)
i=1...N
. Soit x =
N
¸
i=1
α
i
f
i
. Alors : Ax · x =
N
¸
i=1
α
2
i
λ
i
≤ λ
N
Σα
2
i
= λ
N
. Et Af
N
· f
N
= λ
N
.
De même, Ax · x ≥ λ
1
Σα
2
i
= λ
1
et Ax · x = λ
1
si x = f
1
. Donc inf
x=1
Ax · x = λ
1
.
On en déduit que si A est s.d.p., cond
2
(A) =
sup
x=1
Ax · x
inf
x=1
Ax · x
Donc cond
2
(A +B) =
sup
x=1
(A +B)x · x
inf
x=1
(A +B)x · x
Or sup
x=1
(Ax · x +Bx · x) ≤ sup
x=1
Ax · x + sup
x=1
Bx · x = λ
N

N
et inf
x=1
(Ax · x +Bx · x) ≥ inf
x=1
Ax · x + inf
x=1
Bx · x = λ
1

1
donc
cond
2
(A +B) ≤
λ
N

N
λ
1

1
.
b) On va montrer que
a +b
c +d
≤ max(
a
c
,
b
d
), ∀(a, b, c, d) ∈ (IR

+
)
4
.
Supposons que
a +b
c +d

a
c
alors (a + b)c ≥ (c + d)a c’est–à–dire bc ≥ da donc bc + bd ≥ da + db soit
b(c +d) ≥ d(a +b) ; donc
a+b
c+d

b
d
. On en déduit que cond
2
(A +B) ≤ max(cond
2
(A), cond
2
(B)).
Exercice 20 page 40 (Minoration du conditionnement)
1. Comme A est inversible, A + δA = A(Id +A
−1
δA), et donc si A + δA est singulière, alors Id +A
−1
δA
est singulière. Or on a vu en cours que toute matrice de la forme Id + B est inversible si et seulement si
ρ(B) < 1. On en déduit que ρ(A
−1
δA) ≥ 1, et comme
ρ(A
−1
δA) ≤ A
−1
δA ≤ A
−1
δA,
on obtient
A
−1
δA ≥ 1, soit encore cond(A) ≥
A
δA
.
Analyse numérique I, Télé-enseignement, L3 68 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.8. CORRIGÉS CHAPITRE 1. SYSTÈMES LINÉAIRES
2. Soit y ∈ IR
N
tel que y = 1 et A
−1
y = A
−1
. Soit x = A
−1
y, et δA =
−y x
t
x
t
x
,on a donc
(A + δA)x = Ax −
−y x
t
x
t
x
x = y −
−y x
t
x
x
t
x
= 0.
La matrice A+ δA est donc singulière. De plus,
δA =
1
x
2
y y
t
A
−t
.
Or par définition de x et y, on a x
2
= A
−1

2
. D’autre part, comme il s’agit ici de la norme L
2
, on a
A
−t
= A
−1
. On en déduit que
δA =
1
A
−1

2
y
2
A
−1
=
1
A
−1

.
On a donc dans ce cas égalité dans (1.6.42).
3. Remarquons tout d’abord que la matrice Aest inversible. En effet, detA = 2α
2
> 0. Soit δA =

¸
0 0 0
0 −α α
0 −α −α
¸

.
Comme det(A + δA) = 0, la matrice A+ δA est singulière, et donc
cond(A) ≥
A
δA
. (1.8.82)
Or δA = 2α et A = max(3, 1 + 2α) = 3, car α ∈]0, 1[. Donc cond(A) ≥
3

.
Exercice 22 page 41 (Calcul de l’inverse d’une matrice et conditionnement)
1. (a) L’inverse de la matrice A vérifie les quatre équations suivantes :

X −A
−1
= 0, X
−1
−A = 0,
AX −Id = 0, XA−Id = 0.
Les quantités e
1
, e
2
, e
3
et e
4
sont les erreurs relatives commises sur ces quatre équations lorsqu’on
remplace X par B; en ce sens, elles mesurent la qualité de l’approximation de A
−1
.
(b) On remarque d’abord que comme la norme est matricielle, on a MP ≤ MP pour toutes
matrices M et P de M
N
(IR). On va se servir de cette propriété plusieurs fois par la suite.
(α) Comme B = A
−1
+E, on a
e
1
=
E
A
−1

≤ ε
A
−1

A
−1

= ε.
(β) Par définition,
e
2
=
B
−1
−A
A
=
(A
−1
+E)
−1
−A
A
.
Or
(A
−1
+E)
−1
−A = (A
−1
(Id +AE))
−1
−A
= (Id +AE)
−1
A −A
= (Id +AE)
−1
(Id −(Id +AE))A
= −(Id +AE)
−1
AEA.
Analyse numérique I, Télé-enseignement, L3 69 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.8. CORRIGÉS CHAPITRE 1. SYSTÈMES LINÉAIRES
On a donc
e
2
≤ (Id +AE)
−1
AE.
Or par hypothèse, AE ≤ AE ≤ cond(A)ε < 1 ; on en déduit, en utilisant le théorème
1.11, que :
(Id +AE))
−1

1
1 −AE
, et donc e
2

εcond(A)
1 −εcond(A)
.
(γ) Par définition, e
3
= AB −Id = A(A
−1
+E) −Id = AE ≤ AE ≤ AεA
−1
=
εcond(A).
(δ) Enfin, e
4
= BA −Id = (A
−1
+E)A −Id ≤ EA ≤ EA ≤ εcond(A).
(c) (α) Comme B = A
−1
(Id +E

), on a
e
1
=
A
−1
(Id +E

) −A
−1

A
−1

≤ Id +E

−Id ≤ ε.
(β) Par définition,
e
2
=
(Id+E

)
−1
A−A
A
=
(Id+E

)
−1
(A−(Id+E

)A)
A
≤ (Id +E

)
−1
Id −(Id +E

) ≤
ε
1−ε
car ε < 1 (théorème 1.1).
(γ) Par définition, e
3
= AB −Id = AA
−1
(Id +E

) −Id = E

≤ ε.
(δ) Enfin, e
4
= BA−Id = A
−1
(Id+E

)A−Id = A
−1
(A+E

A−A) ≤ A
−1
AE


εcond(A).
2. (a) On peut écrire A + δ
A
= A(Id + A
−1
δ
A
). On a vu en cours (théorème 1.11) que si A
−1
δ
A
< 1,
alors la matrice Id + A
−1
δ
A
est inversible. Or A
−1
δ
A
≤ A
−1
δ
A
, et donc la matrice A + δ
A
est inversible si δ
A
<
1
A
−1

.
(b) On peut écrire (A+ δ
A
)
−1
−A
−1
= (A + δ
A
)
−1
(Id − (A + δ
A
)A
−1
≤ (A + δ
A
)
−1
Id −
Id −δ
A
A
−1
≤ (A + δ
A
)
−1
δ
A
A
−1
. On en déduit le résultat.
Exercice 24 page 42 (IP-matrice)
1. Supposons d’abord que A est inversible et que A
−1
≥ 0 ; soit x ∈ IR
n
tel que b = Ax ≥ 0. On a donc
x = A
−1
b, et comme tous les coefficients de A
−1
et de b sont positifs ou nuls, on a bien x ≥ 0.
Réciproquement, si A est une IP-matrice, alors Ax = 0 entraine x = 0 ce qui montre que A est inversible.
Soit e
i
le i-ème vecteur de la base canonique de IR
n
, on a : AA
−1
e
i
= e
i
≥ 0, et donc par la propriété de
IP-matrice, A
−1
e
i
≥ 0, ce qui montre que tous les coefficients de A
−1
sont positifs.
2. La matrice inverse de A est A
−1
=
1

d −b
−c a

avec ∆ = ad −bc. Les coefficients de A
−1
sont donc
positifs ou nuls si et seulement si

ad < bc,
a ≤ 0, d ≤ 0
b ≥ 0, c ≥ 0
ou

ad > bc,
a ≥ 0, d ≥ 0,
b ≤ 0, c ≤ 0.
Or on a forcément ad = 0 : en effet sinon on aurait dans le premier cas) bc < 0, or b ≤ 0 et c ≤ 0, ce
qui aboutit à une contradiction. De même dans le deuxième cas, on aurait bc > 0, or b ≥ 0 et c ≥ 0. Les
conditions précédentes sont donc équivalentes aux conditions (1.6.44).
Analyse numérique I, Télé-enseignement, L3 70 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.8. CORRIGÉS CHAPITRE 1. SYSTÈMES LINÉAIRES
3. La matrice A
t
est une IP-matrice si et seulement A
t
est inversible et (A
t
)
−1
≥ 0. Or (A
t
)
−1
= (A
−1
)
t
.
D’où l’équivalence.
4. Supposons que A vérifie (1.6.45), et soit x ∈ IR
N
tel que Ax ≥ 0. Soit k ∈ 1, . . . , N tel que x
k
=
min{x
i
, i = 1, . . . , N}. Alors
(Ax)
k
= a
k,k
x
k
+
N
¸
j=1
j=k
a
k,j
x
j
≥ 0.
Par hypothèse, a
k,j
≤ 0 pour k = j, et donc a
k,j
= −|a
k,j
|. On peut donc écrire :
a
k,k
x
k

N
¸
j=1
j=k
|a
k,j
|x
j
≥ 0,
et donc :
(a
k,k

N
¸
j=1
j=k
|a
k,j
|)x
k

N
¸
j=1
j=k
|a
k,j
|(x
j
−x
k
).
Comme x
k
= min{x
i
, i = 1, . . . , N}, on en déduit que le second membre de cette inégalité est positif ou
nul, et donc que x
k
≥ 0. On a donc x ≥ 0.
5. Si la matrice Avérifie (1.6.46), alors la matrice A
t
vérifie (1.6.45). On en déduit par les questions précédentes
que A
t
et A sont des IP-matrices.
6. Soit 1 le vecteur de IR
N
dont toutes les composantes sont égales à 1. Si Ax > 0, comme l’espace IR
N
est
de dimension finie, il existe > 0 tel que Ax ≥ 1. Soit η = A
−1
1 ≥ 0 ; on a alors A(x −η) ≥ 0 et donc
x ≥ η, car A est une IP-matrice.
Montrons maintenant que η > 0 : tous les coefficients de A
−1
sont positifs ou nuls et au moins l’un d’entre
eux est non nul par ligne (puisque la matrice A
−1
est inversible). On en déduit que η
i
=
¸
N
i=1
(A
−1
)
i,j
> 0
pour tout i = 1, . . . , N. On a donc bien x ≥ η > 0.
7. Soit A la matrice nulle, on a alors {x ∈ IR
N
t.q. Ax > 0} = ∅, et donc {x ∈ IR
N
t.q. Ax > 0} ⊂ {x ∈ IR
N
t.q. x > 0}. Pourtant A n’est pas inversible, et n’est donc pas une IP-matrice.
8. Soit x tel que Ax ≥ 0, alors il existe ε ≥ 0 tel que Ax + ε1 ≥ 0. Soit maintenant b = A
−1
1; on a
A(x + εb) > 0 et donc x + εb > 0. En faisant tendre ε vers 0, on en déduit que x ≥ 0.
9. Soit T ∈ L(E) défini par f ∈ E → Tf, avec Tf(x) = f(
1
x
) si x = 0 et f(0) = , avec = lim
±∞
f.
On vérifie facilement que Tf ∈ E. Si Tf ≥ 0, alors f(
1
x
) ≥ 0 pour tout x ∈ IR ; donc f(x) ≥ 0 pour tout
x ∈ IR \ {0} ; on en déduit que f(0) ≥ 0 par continuité. On a donc bien f ≥ 0.
Soit maintenant g définie de IR dans IR par g(x) = | arctanx|. On a g(0) = 0, donc g > 0. Or Tg(0) =
π
2
et Tg(x) = | arctan
1
x
| > 0 si x > 0, donc Tg > 0.
Exercice 26 page 44 (Valeurs propres et vecteurs propres de A.)
1. Pour montrer que A est définie positive (car A est évidemment symétrique), on va montrer que Ax · x > 0 si
x = 0.
On a
Ax · x =
1
h
2
¸
x
1
(2x
1
−x
2
) +
N−1
¸
i=2
x
i
(−x
i−1
+ 2x
i
−x
i+1
) + 2x
2
N
−x
N−1
x
N
¸
Analyse numérique I, Télé-enseignement, L3 71 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.8. CORRIGÉS CHAPITRE 1. SYSTÈMES LINÉAIRES
On a donc
h
2
Ax · x = 2x
2
1
−x
1
x
2

N−1
¸
i=2

x
i
x
i−1
+ 2x
2
i


N
¸
i=3
x
i
x
i−1
+ 2x
2
N
−x
N−1
x
N
=
N
¸
i=1
x
2
i
+
N
¸
i=2
x
2
1−i
+x
2
N
−2
N
¸
i=1
x
i
x
i−1
=
N
¸
i=2
(x
i
−x
i−1
)
2
+x
2
1
+x
2
N
≥ 0.
De plus, Ax · x = 0 ⇒x
2
1
= x
N
= 0 et x
i
= x
i−1
pour i = 2 à N, donc x = 0.
Pour chercher les valeurs propres et vecteurs propres de A, on s’inspire des valeurs propres et vecteurs propres du
problème continu, c’est–à–dire des valeurs λ et fonctions ϕ telles que

−ϕ

(x) = λϕ(x) x ∈]0, 1[
ϕ(0) = ϕ(1) = 0
(1.8.83)
(Notons que ce “truc” ne marche pas dans n’importe quel cas.)
L’ensemble des solutions de l’équation différentielle −ϕ

= λϕ est un espace vectoriel d’ordre 2, donc ϕ est
de la forme ϕ(x) = αcos

λx + β sin

λx (λ ≥ 0) et α et β dont déterminés par les conditions aux limites
ϕ(0) = α = 0 et ϕ(1) = αcos

λ + β sin

λ = 0 ; on veut β = 0 car on cherche ϕ = 0 et donc on obtient
λ = k
2
π
2
. Les couples (λ, ϕ) vérifiant (1.8.83) sont donc de la forme (k
2
π
2
, sin kπx).
2. Pour k = 1 à N, posons Φ
(k)
i
= sin kπx
i
, où x
i
= ih, pour i = 1 à N, et calculons AΦ
(k)
:
(AΦ
(k)
)
i
= −sinkπ(i −1)h + 2 sinkπ(ih) −sin kπ(i + 1)h.
En utilisant le fait que sin(a +b) = sin a cos b + cos a sin b pour développer sin kπ(1 −i)h et sin kπ(i + 1)h, on
obtient (après calculs) :
(AΦ
(k)
)
i
= λ
k
Φ
(k)
i
, i = 1, . . . , N,
où λ
k
=
2
h
2
(1 −cos kπh) =
2
h
2
(1 −cos

N + 1
)
On a donc trouvé N valeurs propres λ
1
. . . λ
N
associées aux vecteurs propres Φ
(1)
. . . Φ
(N)
de IR
N
tels que
Φ
(k)
i
= sin
kπi
N + 1
, i = 1 . . . N.
Remarque : Lorsque N →+∞(ou h →0), on a
λ
(h)
k
=
2
h
2

1 −1 +
k
2
π
2
h
2
2
+O(h
4
)

= k
2
φ
2
+O(h
2
)
Donc
λ
(h)
k
→k
2
π
2
= λ
k
h →0.
Calculons cond
2
(A). Comme A est s.d.p., on a cond
2
(A) =
λ
N
λ
1
=
1 −cos

N+1
1 −cos
π
N+1
.
On a : h
2
λ
N
= 2(1 −cos

N+1
) →4 et λ
1
→π
2
lorsque h →0. Donc h
2
cond
2
(A) →
4
π
2
lorsque h →0.
Analyse numérique I, Télé-enseignement, L3 72 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.8. CORRIGÉS CHAPITRE 1. SYSTÈMES LINÉAIRES
Exercice 28 page 45 (Conditionnement “efficace")
Partie I
1. Soit u = (u
1
, . . . , u
N
)
t
. On a
Au = b ⇔

1
h
2
(u
i
−u
i−1
) +
1
h
2
(u
i
−u
i+1
) = b
i
, ∀i = 1, . . . , N,
u
0
= u
N+1
= 0.
Supposons b
i
≥ 0, ∀i = 1, . . . , N, et soit p ∈ {0, . . . , N + 1} tel que u
p
= min(u
i
, i = 0, . . . , N + 1).
Si p = 0 ou N + 1, alors u
i
≥ 0 ∀i = 0, N + 1 et donc u ≥ 0.
Si p ∈ {1, . . . , N}, alors
1
h
2
(u
p
−u
p−1
) +
1
h
2
(u
p
− u
p+1
) ≥ 0
et comme u
p
−u
p−1
< 0 et u
p
−u
p+1
≤ 0, on aboutit à une contradiction.
Montrons maintenant que A est inversible. On vient de montrer que si Au ≥ 0 alors u ≥ 0. On en déduit par
linéarité que si Au ≤ 0 alors u ≤ 0, et donc que si Au = 0 alors u = 0. Ceci démontre que l’application linéaire
représentée par la matrice A est injective donc bijective (car on est en dimension finie).
2. Soit ϕ ∈ C([0, 1], IR) tel que ϕ(x) = 1/2x(1 −x) et φ
i
= ϕ(x
i
), i = 1, N, où x
i
= ih.
(Aφ)
i
est le développement de Taylor à l’ordre 2 de ϕ

(x
i
), et comme ϕ est un polynôme de degré 2, ce dévelop-
pement est exact. Donc (Aφ)
i
= ϕ

(x
i
) = 1.
3. Soient b ∈ IR
N
et u ∈ IR
N
tels que Au = b. On a :
(A(u ±bϕ))
i
= (Au)
i
±b(Aφ)
i
= b
i
± b.
Prenons d’abord
˜
b
i
= b
i
+b ≥ 0, alors par la question (1),
u
i
+bφ
i
≥ 0 ∀i = 1 . . . N.
Si maintenant on prend
¯
b
i
= b
i
−b ≤ 0, alors
u
i
−bφ
i
≤ 0 ∀i = 1, . . . , N.
On a donc −bφ
i
≤ bφ
i
.
On en déduit que u

≤ b φ

; or φ

=
1
8
. D’où u


1
8
b.
On peut alors écrire que pour tout b ∈ IR
N
,
A
−1
b


1
8
b, donc
A
−1
b

b


1
8
, d’où A
−1

1
8
.
On montre que A
−1
=
1
8
en prenant le vecteur b défini par b(x
i
) = 1, ∀i = 1, . . . , N. On a en effet A
−1
b = φ,
et comme N est impair, ∃i ∈ {1, . . . , N} tel que x
i
=
1
2
;or ϕ

= ϕ(
1
2
) =
1
8
.
4. Par définition, on a A = sup
x∞=1
Ax, et donc A = max
i=1,N
¸
j=1,N
|a
i,j
|, d’où le résultat.
5. Grâce aux questions 3 et 4, on a, par définition du conditionnement pour la norme ·, cond(A) = AA
−1
=
1
2h
2
.
Analyse numérique I, Télé-enseignement, L3 73 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.8. CORRIGÉS CHAPITRE 1. SYSTÈMES LINÉAIRES
Comme Aδ
u
= δ
b
, on a :
δ
u
≤ A
−1
δ
b

b
b
≤ A
−1
δ
b

Au
b
,
d’où le résultat.
Pour obtenir l’égalité, il suffit de prendre b = Au où u est tel que u = 1 et Au = A, et δ
b
tel que δ
b
= 1
et A
−1
δ
b
= A
−1
. On obtient alors
δ
b

b
=
1
A
et
δu
u
= A
−1
.
D’où l’égalité.
Partie 2 Conditionnement efficace
1. Soient ϕ
(h)
et f
(h)
les fonctions constantes par morceaux définies par
ϕ
h
(x) =

ϕ(ih) = φ
i
si x ∈]x
i

h
2
, x
i
+
h
2
[, i = 1, . . . , N,
0 si x ∈ [0,
h
2
] ou x ∈]1 −
h
2
, 1].
et
f
(h)
(x) =

f(ih) = b
i
si x ∈]x
i

h
2
, x
i
+
h
2
[,
f(ih) = 0 si x ∈ [0,
h
2
] ou x ∈]1 −
h
2
, 1].
Comme f ∈ C([0, 1], IR) et ϕ ∈ C
2
([0, 1], IR), la fonction f
h
(resp. ϕ
h
) converge uniformément vers f (resp. ϕ)
lorsque h →0. On a donc
h
N
¸
i=1
b
i
ϕ
i
=

1
0
f
(h)
(x)ϕ
(h)
(x)dx →

1
0
f(x)ϕ(x)dx lorsque h →0.
Comme b
i
> 0 et f
i
> 0 ∀i = 1, . . . , N, on a évidemment
S
N
=
N
¸
i=1
b
i
ϕ
i
> 0 et S
N

1
0
f(x)ϕ(x)dx = β > 0 lorsque h →0.
Donc il existe N
0
∈ IN tel que si N ≥ N
0
, S
N

β
2
, et donc S
N
≥ α = min(S
0
, S
1
. . . S
N0
,
β
2
) > 0.
2. On a Nu = N sup
i=1,N
|u
i
| ≥
¸
N
i=1
u
i
. D’autre part, Aϕ = (1 . . . 1)
t
donc u · Aϕ =
N
¸
i=1
u
i
; or u · Aϕ =
A
t
u · ϕ = Au · ϕ car A est symétrique. Donc u · Aϕ =
N
¸
i=1
b
i
ϕ
i

α
h
d’après la question 1. Comme δ
u
= A
−1
δ
b
,
on a donc δ
u
≤ A
−1
δ
b
; et comme Nu ≥
α
h
, on obtient :
δ
u

u

1
8
hN
α
δ
b

f

b
. Or hN = 1 et on
a donc bien :
δ
u

u

f


δ
b

b
.
3. Le conditionnement cond(A) calculé dans la partie 1 est d’ordre 1/h
2
, et donc tend vers l’infini lorsque le
pas de discrétisation tend vers 0, alors qu’on vient de montrer dans la partie 2 que la variation relative
δu
u
est
inférieure à une constante multipliée par la variation relative de
δ
b

b
. Cette dernière information est nettement plus
utile et réjouissante pour la résolution effective du système linéaire.
Analyse numérique I, Télé-enseignement, L3 74 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.8. CORRIGÉS CHAPITRE 1. SYSTÈMES LINÉAIRES
Exercice 30 page 46 (Non convergence de la méthode de Jacobi)
– Si a = 0, alors A = Id, donc A est s.d.p. et la méthode de Jacobi converge.
– Si a = 0, posons aµ = (1 − λ), et calculons le polynôme caractéristique de la matrice A en fonction de la
variable µ.
P(µ) = det

aµ a a
a aµ a
a a aµ

= a
3
det

µ 1 1
1 µ 1
1 1 µ

= a
3

3
−3µ + 2).
On a donc P(µ) = a
3
(µ − 1)
2
(µ + 2). Les valeurs propres de la matrice A sont donc obtenues pour µ = 1 et
µ = 2, c’est–à–dire : λ
1
= 1 −a et λ
2
= 1 + 2a.
La matrice A est définie positive si λ
1
> 0 et λ
2
> 0, c’est–à–dire si −
1
2
< a < 1.
La méthode de Jacobi s’écrit :
X
(n+1)
= D
−1
(D −A)X
(n)
,
avec D = Id dans le cas présent ; donc la méthode converge si et seulement si ρ(D −A) < 1.
Les valeurs propres de D − A sont de la forme ν = 1 − λ où λ est valeur propre de A. Les valeurs propres de
D−A sont donc ν
1
== −a (valeur propre double) et ν
2
= 2a.. On en conclut que la méthode de Jacobi converge
si et seulement si −1 < −a < 1 et −1 < 2a < 1, i.e.
1
2
< a <
1
2
.
La méthode de Jacobi ne converge donc que sur l’intervalle ] −
1
2
,
1
2
[ qui est strictement inclus dans l’intervalle
] −
1
2
, 1[ des valeurs de a pour lesquelles la matrice A est s.d.p..
Exercice 32 page 47 (Jacobi pour les matrices à diagonale dominante stricte)
Pour montrer que A est inversible, supposons qu’il existe x ∈ IR
N
tel que Ax = 0 ; on a donc
N
¸
j=1
a
ij
x
j
= 0.
Pour i ∈ {1, . . . , N}, on a donc
|a
i,i
||x
i
| = |a
i,i
x
i
| = |
¸
j;i=j
a
i,j
x
j
| ≤
¸
j;i=j
|a
i,j
|x

, ∀i = 1, . . . , N.
Si x = 0, on a donc
|x
i
| ≤
¸
j;i=j
a
i,j
x
j
|
|a
i,i
|
x

< x

, ∀i = 1, . . . , N
, ce qui est impossible pour i tel que
|x
i
| = x

.
Montrons maintenant que la méthode de Jacobi converge : Avec le formalisme de la méthode II du cours, on a
M = D =

a
1,1
0
.
.
.
0 a
N,N
¸
¸
¸, et N = M −A.
La matrice d’itération est
Analyse numérique I, Télé-enseignement, L3 75 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.8. CORRIGÉS CHAPITRE 1. SYSTÈMES LINÉAIRES
J = M
−1
N = D
−1
N =

a
−1
1,1
0
.
.
.
0 a
−1
N,N
¸
¸
¸

0 −a
i,j
.
.
.
−a
i,j
0
¸
¸
¸
=

0 −
a1,2
a1,1
. . .
.
.
.

a1,1
aN,N
. . . 0
¸
¸
¸.
Cherchons le rayon spectral de J : soient x ∈ IR
N
et λ ∈ IR tels que Jx = λx, alors
¸
j;i=j

a
i,j
a
i,i
x
j
= λx
i
, et donc |λ||x
i
| ≤
¸
j;i=j
|a
i,j
|
x

|a
i,i
|
.
Soit i tel que |x
i
| = x

et x = 0, on déduit de l’inégalité précédente que |λ| ≤
P
j;i=j
|ai,j|
|aii|
< 1 pour toute
valeur propre λ. On a donc ρ(J) < 1. Donc la méthode de Jacobi converge.
Exercice 34 page 47 (Jacobi pour les matrices à diagonale dominante forte)
1. Si A est symétrique définie positive alors Ae
i
· e
i
> 0 pour tout vecteur e
i
de la base canonique. Tous les
coefficients diagonaux sont donc strictement positifs, et donc aussi inversibles. On en déduit que la matrice
D est inversible et que la méthode de Jacobi est bien définie.
2. (a) Soit λ une valeur propre de J associée au vecteur propre x. On a donc Jx = λx, c’est-à-dire D
−1
(E+
F)x = λx, soit encore (E +F)x = λDx. On a donc
|
¸
j=i
a
i,j
x
j
| = |λ||a
i,i
||x
i
|.
Soit i tel que |x
i
| = max
j=1,N
|x
j
|. Notons que |x
i
| = 0 car x est vecteur propre, donc non nul. En
divisant l’égalité précédente par |x
i
|, on obtient :
|λ| ≤
¸
j=i
|a
i,j
|
|a
i,i
|
≤ 1,
par hypothèse. On en déduit que ρ(J) ≤ 1.
(b) Soit x ∈ IR
N
tel que Jx = λx avec |λ| = 1. Alors
|
¸
j=i
a
i,j
x
j
| = |a
i,i
||x
i
|, pour tout i = 1, . . . , N. (1.8.84)
On a donc
¸
j=i
|a
i,j
||x
i
| ≤ |a
i,i
||x
i
| = |
¸
j=i
a
i,j
x
j
|

¸
j=i
|a
i,j
||x
j
| pour tout i = 1, . . . , N.
(1.8.85)
Si A est diagonale, alors en vertu de (1.8.84), x
i
= 0 pour tout i = 1, . . . , N. Supposons maintenant
A non diagonale. On déduit alors de (1.8.85) que
|x
i
|
|x
j
|
≤ 1 pour tout i = j.
Analyse numérique I, Télé-enseignement, L3 76 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.8. CORRIGÉS CHAPITRE 1. SYSTÈMES LINÉAIRES
Donc |x
i
| = |x
j
| pour tout i, j.
Comme de plus, par hypothèse,
|a
i0,i0
| >
¸
j=i0
|a
i0,j
|,
on a donc, si |x
i0
| = 0,
¸
j=i0
|a
i0,j
||x
i0
| < |a
i0,i0
x
i0
| ≤
¸
j=i0
|a
i0,j
x
i0
|,
ce qui est impossible. On en déduit que x = 0.
On a ainsi prouvé que J n’admet pas de valeur propre de module égal à 1, et donc par la question
précédente, ρ(J) < 1, ce qui prouve que la méthode converge.
(c) La matrice A de l’exercice 33 est à diagonale fortement dominante. Donc la méthode de Jacobi
converge.
Exercice 36 page 48 (Méthode de Jacobi et relaxation)
1. J = D
−1
(E +F) peut ne pas être symétrique, même si A est symétrique :
En effet, prenons A =

2 1
1 1

.
Alors
J = D
−1
(E +F) =

1
2
0
0 1

0 1
1 0

=

0
1
2
1 0

=

0 1
1
2
0

.
donc J n’est pas symétrique.
2. On applique l’exercice précédent pour l’application linéaire T de matrice D, qui est, par hypothèse, définie
positive (et évidemment symétrique puisque diagonale) et S = E +F, symétrique car A est symétrique.
Il existe donc (f
1
. . . f
N
) base de E et (µ
1
. . . µ
N
) ∈ IR
N
tels que
Jf
i
= D
−1
(E +F)f
i
= µ
i
f
i
, ∀i = 1, . . . , N, et (Df
i
, f
j
) = δ
ij
.
3. Par définition de J, tous les éléments diagonaux de J sont nuls et donc sa trace également. Or TrJ =
N
¸
i=1
µ
i
.
Si µ
i
> 0 ∀i = 1, . . . , N, alors TrJ > 0, donc ∃i
0
; µ
i
≤ 0 et comme µ
1
≤ µ
i0
, on a µ
1
≤ 0. Un
raisonnement similaire montre que µ
N
≥ 0.
4. La méthode de Jacobi converge si et seulement si ρ(J) < 1 (théorème 1.27 page 28). Or, par la question
précédente, ρ(A) = max(−µ
1
, µ
N
). Supposons que µ
1
≤ −1, alors µ
1
= −α, avec α ≥ 1. On a alors
D
−1
(E+F)f
1
= −αf
1
ou encore (E+F)f
1
= −αDf
1
, ce qui s’écrit aussi (D+E+F)f
1
= D(1−α)f
1
c’est–à–dire (2D−A)f
1
= βDf
1
avec β ≤ 0. On en déduit que ((2D−A)f
1
, f
1
) = β ≤ 0, ce qui contredit
le fait que 2D− A est définie positive. En conséquence, on a bien µ
1
≥ −1.
Supposons maintenant que µ
N
= α ≥ 1. On a alors D
−1
(E + F)f
1
= −αf
N
, soit encore (E + F)f
N
=
−αDf
N
. On en déduit que Af
N
= (D − E − F)f
N
= D(1 − α)f
N
= Dβf
N
avec β ≤ 0. On a
alors(Af
N
, f
N
) ≤ 0, ce qui contredit le fait que A est définie positive.
5. Par définition, on a :D˜ x
(n+1)
s = (E+F)x
(n)
+b et x
(n+1)
= ω˜ x
(n+1)
+(1−ω)x
(n)
. On a donc x
(n+1)
=
ω[D
−1
(E+F)x
(n)
+D
−1
b]+(1−ω)x
(n)
c’est–à–dire x
(n+1)
= [Id−ω(Id−D
−1
(E+F))]x
(n)
+ωD
−1
b,,
soit encore
1
ω
Dx
(n+1)
= [
1
ω
D−(D−(E +F))]x
(n)
+b. On en déduit que M
ω
x
(n+1)
= N
ω
x
(n)
+b avec
M
ω
=
1
ω
D et N
ω
=
1
ω
D −A.
Analyse numérique I, Télé-enseignement, L3 77 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.8. CORRIGÉS CHAPITRE 1. SYSTÈMES LINÉAIRES
6. La matrice d’itération est donc maintenant J
ω
= M
−1
ω
N
ω
qui est symétrique pour le produit scalaire
(·, ·)

donc en reprenant le raisonnement de la question 2, il existe une base (
˜
f
1
, . . . ,
˜
f
N
) ∈ (IR
N
)
N
et (˜ µ
1
, . . . ˜ µ
N
) ⊂ IR
N
tels que
J
ω
˜
f
i
= M
ω
−1
N
ω
˜
f
i
= ωD
−1

1
ω
D−A

˜
f
i
= ˜ µ
i
˜
f
i
, ∀i = 1, . . . , N,
et
1
ω
D
˜
f
i
·
˜
f
j
= δ
ij
, ∀i, = 1, . . . , N, ∀j, = 1, . . . , N.
Supposons ˜ µ
1
≤ −1, alors ˜ µ
1
= −α, avec α ≥ 1 et ωD
−1
(
1
ω
D− A)
˜
f
1
= −α
˜
f
1
, ou encore
1
ω
D− A
˜
f
1
=
−α
1
ω
D
˜
f
1
. On a donc
2
ω
D − A
˜
f
1
= (1 − α)
1
ω
D
˜
f
1
, ce qui entraîne (
2
ω
D − A)
˜
f
1
·
˜
f
1
≤ 0. Ceci contredit
l’hypothèse
2
ω
D−A définie positive.
De même, si ˜ µ
N
≥ 1, alors ˜ µ
N
= α avec α ≥ 1. On a alors
(
1
ω
D −A)
˜
f
N
= α
1
ω
D
˜
f
N
,
et donc A
˜
f
N
= (1−α)
1
ω
D
˜
f
N
ce qui entraîne en particulier que A
˜
f
N
·
˜
f
N
≤ 0 ; or ceci contredit l’hypothèse
A définie positive.
7. On cherche une condition nécessaire et suffisante pour que

2
ω
D −A

x · x > 0, ∀x = 0, (1.8.86)
ce qui est équivalent à

2
ω
D −A

f
i
· f
i
> 0, ∀i = 1, . . . , N, (1.8.87)
où les (f
i
)
i=1,N
sont les vecteurs propres de D
−1
(E +F). En effet, la famille (f
i
)
i=1,...,N
est une base de
IR
N
, et

2
ω
D−A

f
i
=

2
ω
D−D + (E +F)

f
i
=

2
ω
−1

Df
i

i
Df
i
=

2
ω
−1 +µ
i

Df
i
.
(1.8.88)
On a donc en particulier

2
ω
D −A

f
i
· f
j
= 0 is i = j, ce qui prouve que (1.8.86) est équivalent à (1.8.87).
De (1.8.87), on déduit, grâce au fait que (Df
i
, f
i
) = 1,

2
ω
D−A

f
i
, f
i

=

2
ω
−1 +µ
i

.
On veut donc que
2
ω
− 1 + µ
1
> 0 car µ
1
= inf µ
i
, c’est–à–dire : −
2
ω
< µ
1
− 1, ce qui est équivalent à :
ω <
2
1 −µ
1
.
8. La matrice d’itération J
ω
s’écrit :
J
ω
=

1
ω
D

−1

1
ω
D −A

= ωI
ω
, avec I
ω
= D
−1
(
1
ω
D−A).
Analyse numérique I, Télé-enseignement, L3 78 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.8. CORRIGÉS CHAPITRE 1. SYSTÈMES LINÉAIRES
Soit λ une valeur propre de I
ω
associée à un vecteur propre u; alors :
D
−1

1
ω
D −A

u = λu, i.e.

1
ω
D −A

u = λDu.
On en déduit que
(D −A)u +

1
ω
−1

Du = λDu, soit encore
D
−1
(E +F)u =

1 −
1
ω
+ λ

u.
Or f
i
est vecteur prore de D
−1
(E +F) associée à la valeur propre µ
i
(question 2). On a donc :
D
−1
(E +F)f
i
= µ
i
f
i
=

1 −
1
ω
+ λ

f
i
,
ce qui est vrai si µ
i
= 1 −
1
ω
+ λ, c’est–à–dire λ = µ
i
− 1 −
1
ω
. Donc µ
(ω)
i
= ω

µ
i
−1 −
1
ω

est valeur
propre de J
ω
associée au vecteur propre f
i
.
On cherche maintenant à minimiser le rayon spectral
ρ(J
ω
) = sup
i
|ω(µ
i
−1 −
1
ω
)|
On a
ω(µ
1
−1 −
1
ω
) ≤ ω(µ
i
−1 −
1
ω
) ≤ ω(µ
N
−1 −
1
ω
),
et
−ω(µ
N
−1 −
1
ω
) ≤ −ω(µ
1
−1 −
1
ω
) ≤ −ω(µ
i
−1 −
1
ω
),
donc
ρ(J
ω
) = max

|ω(µ
N
−1 −
1
ω
)|, | −ω(µ
1
−1 −
1
ω
|)

dont le minimum est atteint (voir Figure 1.8) pour
ω(1 −µ
1
) −1 = 1 −ω(1 −µ
N
) c’est–à–dire ω =
2
2 −µ
1
−µ
N
.
Exercice 37 page 49 (Jacobi et Gauss-Seidel pour une matrice tridiagonale)
Corrigé en cours de rédaction
Exercice 39 page 50 (Méthode de Jacobi pour des matrices particulières)
1. Soit x ∈ IR
N
, supposons que
x
A
=
N
¸
i=1
a
i,i
|x
i
| = 0.
Comme a
i,i
> 0, ∀i = 1, . . . , N, on en déduit que x
i
= 0, ∀i = 1, . . . , N. D’autre part, il est immédiat
de voir que x + y
A
≤ x + y
A
pour tout (x, y) ∈ IR
N
× IR
N
et que λx
A
= |λ|x
A
pour tout
(x, λ) ∈ IR
N
×IR. On en déduit que ·
A
est une norme sur IR
N
.
Analyse numérique I, Télé-enseignement, L3 79 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.8. CORRIGÉS CHAPITRE 1. SYSTÈMES LINÉAIRES
1
1
1−µN
1
1−µ1
|ω(1 −µ
1
) + 1|
|ω(1 −µ
N
) + 1|
max(|ω(1 −µ
N
) + 1|, |ω(1 −µ
1
) + 1|)
2
2−µ1−µN
ω
FIGURE 1.6 – Détermination de la valeur de ω réalisant le minimum du rayon spectral.
2. Posons
˜
A = λId + A et notons ˜ a
i,j
ses coefficients. Comme λ ∈ IR

+
,et grâce aux hypothèses (1.6.57)–
(1.6.59), ceux-ci vérifient :
˜ a
i,j
≤ 0, ∀i, j = 1, . . . , N, i = j, (1.8.89)
˜ a
i,i
>
N
¸
i=1
j=i
a
i,j
, ∀i = 1, . . . , N. (1.8.90)
La matrice
˜
A est donc à diagonale dominante stricte, et par l’exercice 32 page 47, elle est donc inversible.
3. La méthode de Jacobi pour la résolution du système (1.6.60) s’écrit :
˜
Du
(k+1)
= (E +F)u
(k)
+b, (1.8.91)
avec
˜
D = λId+D, et A = D−E−F est la décomposition habituelle de Aen partie diagonale, triangulaire
inférieure et triangulaire supérieure. Comme a
i,i
≥ 0 et λ ∈ IR

+
, on en déduit que
˜
D est inversible, et que
donc la suite (u
(k)
)
k∈IN
est bien définie dans IR.
4. Par définition de la méthode de Jacobi, on a :
u
(k+1)
i
=
1
a
i,i
+ λ
(
¸
j=1,N
j=i
a
i,j
u
(k)
j
+b
i
).
On en déduit que
u
(k+1)
i
−u
(k)
i
=
1
a
i,i
+ λ
¸
j=1,N
j=i
a
i,j
(u
(k)
j
−u
(k−1)
j
).
et donc
u
(k+1)
−u
(k)

A

N
¸
i=1
a
i,i
a
i,i
+ λ
¸
j=1,N
j=i
a
i,j
(u
(k)
j
−u
(k−1)
j
).
Analyse numérique I, Télé-enseignement, L3 80 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.8. CORRIGÉS CHAPITRE 1. SYSTÈMES LINÉAIRES
Or
a
i,i
a
i,i
+ λ

1
1 +
λ
ai,i

1
1 + α
. On a donc
u
(k+1)
−u
(k)

A

1
1 + α
N
¸
j=1
(u
(k)
j
−u
(k−1)
j
)
¸
j=1,N
j=i
a
i,j
.
Et par hypothèse,
¸
j=1,N
j=i
a
i,j
= a
j,j
. On en déduit que
u
(k+1)
−u
(k)

A

1
1 + α
u
(k)
−u
(k−1)

A
.
On en déduit le résultat par une récurrence immédiate.
5. Soient p et q = p +m ∈ IN, avec m ≥ 0. Par le résultat de la question précédente, on a :
u
(q)
−u
(p)

A

m
¸
i=1
u
(p+i)
−u
(p−i−1)

A
≤ u
(1)
−u
(0)

A
(
1
1 + α
)
p
m
¸
i=0
(
1
1 + α
)
i
Or α > 0 donc la série de terme général (
1
1+α
)
i
, et on a :
u
(q)
−u
(p)

A
≤ u
(1)
−u
(0)

A
(
1
1 + α
)
p
+∞
¸
i=0
(
1
1 + α
)
i
≤ (1 +
1
α
)u
(1)
−u
(0)

A
(
1
1 + α
)
p
→ 0 lorsque p →+∞.
On en déduit que pour tout > 0, il existe N tel que si p, q > N alors u
(q)
− u
(p)

A
≤ , ce qui montre
que la suite est de Cauchy, et donc qu’elle converge. Soit u sa limite. En passant à la limite dans (1.8.91), on
obtient que u est solution de (1.6.60).
Exercice 41 page 51 (Une méthode itérative particulière)
1. Det (A) = −1 et donc A est inversible.
2. Det (
1
ω
Id −E) =
1
ω

1
ω
2
−2

. Or ω ∈]0, 2[. Donc la matrice
1
ω
Id −E est inversible si ω =

2
2
.
3. Les valeurs propres de L
ω
sont les complexes λ tels qu’il existe x ∈ C
3
, x = 0, t.q : L
ω
x = λx, c’est–à–dire :

F +
1 −ω
ω
Id

x = λ

1
ω
Id −E

x,
soit encore M
λ,ω
x = 0, avec M
λ,ω
= ωF + λωE + (1 −ω −λ)Id.
Or
Det (M
λ,ω
) = (1 −ω −λ)((1 −ω −λ)
2
−2λ
2
ω
2
)
= (1 −ω −λ)(1 −ω −(1 +

2ω)λ)(1 −ω −(1 −

2ω)λ)
Analyse numérique I, Télé-enseignement, L3 81 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.8. CORRIGÉS CHAPITRE 1. SYSTÈMES LINÉAIRES
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
−3
−2
−1
0
1
2
3
FIGURE 1.7 – Graphe des valeurs propres λ
1
et λ
3
Les valeurs propres de L
ω
sont donc réelles, et égales à
λ
1
= 1 −ω, λ
2
=
1 −ω
1 +


et λ
3
=
1 −ω
1 −


.
Par définition, le rayon spectral ρ(L
ω
) de la matrice L
ω
est égal à max(|λ
1
|, |λ
2
|, |λ
3
|). Remarquons tout d’abord
que |1 +

2ω| > 1, ∀ω ∈]0, 2[, et donc |λ
1
| > |λ
2
|, ∀ω ∈]0, 2[. Il ne reste donc plus qu’à comparer |λ
1
| et |λ
3
|.
Une rapide étude des fonctions |λ
1
| et |λ
3
| permet d’établir le graphe représentatif ci-contre.
On a donc :
ρ(L
ω
) = |λ
3
(ω)| =

1 −ω
1 −

si ω ∈]0,

2]
ρ(L
ω
) = λ
1
(ω) = |1 −ω| si ω ∈ [

2, 2[.
4. La méthode est convergente si ρ(L
ω
) < 1 ; Si ω ∈ [

2, 2[, ρ(L
ω
) = ω −1 < 1 ; si ω ∈]0,

2[,
ρ(L
ω
) =

1 −ω
1 −

< 1
dès que
1 −ω

2ω −1
< 1, c’est à dire ω >
2
1 +

2
.
Le minimum de ρ(L
ω
) est atteint pour ω
0
= 1, on a alors ρ(L
ω
) = 0.
Exercice 43 page 52 (Méthode de la puissance pour calculer le rayon spectral de A)
1. Comme A est une matrice symétrique, A est diagonalisable dans IR. Soit (f
1
, . . . , f
N
) ∈ (IR
N
)
N
une base
orthonormée de vecteurs propres de A associée aux valeurs propres (λ
1
, . . . , λ
N
) ∈ IR
N
. On décompose
x
(0)
sur (f
i
)
i=1,...,N
: x
(0)
=
¸
N
i=1
α
i
f
i
. On a donc Ax
(0)
=
¸
N
i=1
λ
i
α
i
f
i
et A
n
x
(0)
=
¸
N
i=1
λ
n
i
α
i
f
i
.
On en déduit :
x
(n)
λ
n
N
=
N
¸
i=1

λ
i
λ
N

n
α
i
f
i
.
Analyse numérique I, Télé-enseignement, L3 82 Université Aix-Marseille 1, R. Herbin, 20 août 2010
1.8. CORRIGÉS CHAPITRE 1. SYSTÈMES LINÉAIRES
Comme −λ
N
n’est pas valeur propre,
lim
n→+∞
(
λ
i
λ
N
)
n
= 0 si λ
i
= λ
N
. (1.8.92)
Soient λ
1
, . . . , λ
p
les valeurs propres différentes de λ
N
, et λ
p+1
, . . . , λ
N
= λ
N
. On a donc
lim
n→+∞
x
(n)
λ
n
N
=
¸
N
i=p+1
α
i
f
i
= x, avec Ax = λ
N
x.
De plus, x = 0 : en effet, x
(0)
/ ∈ (Ker(A − λ
N
Id))

= V ect{f
1
, . . . , f
p
}, et donc il existe i ∈ {p +
1, . . . , N} tel que α
i
= 0.
Pour montrer (b), remarquons que :
x
(n+1)
=
N
¸
i=1
λ
n+1
i
α
i
et x
(n)
=
N
¸
i=1
λ
n
i
α
i
car (f
1
, . . . , f
N
) est une base orthonormée. On a donc
x
(n+1)

x
(n)

= λ
n
N

x
(n+1)
λ
n+1
N

x
(n)
λ
N

→λ
N
x
x
= λ
N
lorsque n →+∞.
2. a) La méthode I s’écrit à partir de x
(0)
connu : x
(n+1)
= Bx
(n)
+ c pour n ≥ 1, avec c = (I − B)A
−1
b.
On a donc
x
(n+1)
−x = Bx
(n)
+ (Id −B)x −x
= B(x
(n)
−x).
(1.8.93)
Si y
(n)
= x
(n)
− x, on a donc y
(n+1)
= By
(n)
, et d’après la question 1a) si y
(0)
⊥ Ker(B − µ
N
Id)
où µ
N
est la plus grande valeur propre de B, (avec |µ
N
| = ρ(B)et −µ
N
non valeur propre), alors
y
(n+1)

y
(n)

−→ρ(B) lorsque n →+∞,
c’est–à–dire
x
(n+1)
−x
x
(n)
−x
−→ρ(B) lorsque n →+∞.
b) On applique maintenant 1a) à y
(n)
= x
(n+1)
−x
(n)
avec
y
(0)
= x
(1)
−x
(0)
où x
(1)
= Ax
(0)
.
On demande que x
(1)
− x
(0)
/ ∈ Ker(B − µ
N
Id)

comme en a), et on a bien y
(n+1)
= By
(n)
, donc
y
(n+1)

y
(n)

−→ρ(B) lorsque n →+∞.
Exercice 45 page 53 (Méthode QR pour la recherche de valeurs propres)
En cours de rédaction.
Analyse numérique I, Télé-enseignement, L3 83 Université Aix-Marseille 1, R. Herbin, 20 août 2010

Table des matières
1 Systèmes linéaires 1.1 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Quelques rappels d’algèbre linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1 Norme induite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.2 Rayon spectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.3 Matrices diagonalisables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Les méthodes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.2 Méthode de Gauss et méthode LU . . . . . . . . . . . . . . . . . . . . . . . . 1.3.3 Version programmable des algorithmes de Gauss et LU pour un système carré . 1.3.4 Méthode de Choleski . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.5 Quelques propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4 Conditionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.1 Le problème des erreurs d’arrondis . . . . . . . . . . . . . . . . . . . . . . . 1.4.2 Conditionnement et majoration de l’erreur d’arrondi . . . . . . . . . . . . . . 1.4.3 Discrétisation d’équations différentielles, conditionnement “efficace" . . . . . 1.5 Méthodes itératives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5.1 Origine des systèmes à résoudre . . . . . . . . . . . . . . . . . . . . . . . . . 1.5.2 Définition et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5.3 Méthodes de Jacobi, Gauss-Seidel et SOR/SSOR . . . . . . . . . . . . . . . . 1.5.4 Recherche de valeurs propres et vecteurs propres . . . . . . . . . . . . . . . . 1.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.7 Suggestions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.8 Corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Systèmes non linéaires 2.1 Les méthodes de point fixe . . . . . . . . . . . . . 2.1.1 Point fixe de contraction . . . . . . . . . . 2.1.2 Point fixe de monotonie . . . . . . . . . . 2.1.3 Vitesse de convergence . . . . . . . . . . . 2.2 Méthode de Newton . . . . . . . . . . . . . . . . . 2.2.1 Construction et convergence de la méthode 2.2.2 Variantes de la méthode de Newton . . . . 2.3 Exercices . . . . . . . . . . . . . . . . . . . . . . 2.4 Suggestions . . . . . . . . . . . . . . . . . . . . . 2.5 Corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 4 4 4 6 7 9 9 9 12 14 19 21 21 21 23 25 25 28 30 36 36 56 60

2

84 . 84 . 84 . 87 . 89 . 91 . 91 . 95 . 98 . 105 . 108

1

TABLE DES MATIÈRES 3 Optimisation 3.1 Définitions et rappels . . . . . . . . . . . . . . . . . . . . . . . 3.1.1 Définition des problèmes d’optimisation . . . . . . . . . 3.1.2 Rappels et notations de calcul différentiel . . . . . . . . 3.2 Optimisation sans contrainte . . . . . . . . . . . . . . . . . . . 3.2.1 Définition et condition d’optimalité . . . . . . . . . . . 3.2.2 Résultats d’existence et d’unicité . . . . . . . . . . . . . 3.3 Algorithmes d’optimisation sans contrainte . . . . . . . . . . . 3.3.1 Méthodes de descente . . . . . . . . . . . . . . . . . . 3.3.2 Algorithmes du gradient conjugué . . . . . . . . . . . . 3.3.3 Méthodes de Newton et Quasi–Newton . . . . . . . . . 3.3.4 Résumé sur les méthodes d’optimisation . . . . . . . . . 3.4 Optimisation sous contraintes . . . . . . . . . . . . . . . . . . . 3.4.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . 3.4.2 Existence – Unicité – Conditions d’optimalité simple . . 3.4.3 Conditions d’optimalité dans le cas de contraintes égalité 3.4.4 Contraintes inégalités . . . . . . . . . . . . . . . . . . . 3.5 Algorithmes d’optimisation sous contraintes . . . . . . . . . . . 3.5.1 Méthodes de gradient avec projection . . . . . . . . . . 3.5.2 Méthodes de dualité . . . . . . . . . . . . . . . . . . . 3.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7 Suggestions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.8 Corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4 Equations différentielles 4.1 Introduction . . . . . . . . . . . . . 4.2 Consistance, stabilité et convergence 4.3 Théorème général de convergence . 4.4 Exemples . . . . . . . . . . . . . . 4.5 Explicite ou implicite ? . . . . . . . 4.5.1 L’implicite gagne... . . . . . 4.5.2 L’implicite perd... . . . . . . 4.5.3 Match nul . . . . . . . . . . 4.6 Etude du schéma d’Euler implicite . 4.7 Exercices . . . . . . . . . . . . . . 4.8 Corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

TABLE DES MATIÈRES 122 . . . . . . . . . . 122 . . . . . . . . . . 122 . . . . . . . . . . 122 . . . . . . . . . . 123 . . . . . . . . . . 123 . . . . . . . . . . 124 . . . . . . . . . . 128 . . . . . . . . . . 128 . . . . . . . . . . 131 . . . . . . . . . . 138 . . . . . . . . . . 141 . . . . . . . . . . 142 . . . . . . . . . . 142 . . . . . . . . . . 142 . . . . . . . . . . 143 . . . . . . . . . . 146 . . . . . . . . . . 147 . . . . . . . . . . 147 . . . . . . . . . . 149 . . . . . . . . . . 153 . . . . . . . . . . 165 . . . . . . . . . . 168
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186 186 189 190 193 194 194 195 195 196 197 206

Analyse numérique I, Télé-enseignement, L3

2

Université Aix-Marseille 1 R. Herbin, 20 août 2010

,

Introduction
L’objet de l’analyse numérique est de concevoir et d’étudier des méthodes de résolution de certains problèmes mathématiques, en général issus de la modélisation de problèmes “réels", et dont on cherche à calculer la solution à l’aide d’un ordinateur. Le cours est structuré en quatre grands chapitres : – Systèmes linéaires – Systèmes non linéaires – Optimisation – Equations différentielles. On pourra consulter les ouvrages suivants pour ces différentes parties (ceci est une liste non exhaustive !) : – P.G. Ciarlet, Introduction à l’analyse numérique et à l’optimisation, Masson, 1982, (pour les chapitre 1 à 3 de ce polycopié). – M. Crouzeix, A.L. Mignot, Analyse numérique des équations différentielles, Collection mathématiques appliquées pour la maitrise, Masson, (pour le chapitre 4 de ce polycopié). – J.P. Demailly, Analyse numérique et équations différentielles Collection Grenoble sciences Presses Universitaires de Grenoble – L. Dumas, Modélisation à l’oral de l’agrégation, calcul scientifique, Collection CAPES/Agrégation, Ellipses, 1999. – J. Hubbard, B. West, Equations différentielles et systèmes dynamiques, Cassini. – P. Lascaux et R. Théodor, Analyse numérique matricielle appliquée à l’art de l’ingénieur, tomes 1 et 2, Masson, 1987 – L. Sainsaulieu, Calcul scientifique cours et exercices corrigés pour le 2ème cycle et les éécoles d’ingénieurs, Enseignement des mathématiques, Masson, 1996. – M. Schatzman, Analyse numérique, cours et exercices, (chapitres 1,2 et 4). – D. Serre, Les matrices, Masson, (2000). (chapitres 1,2 et 4). – P. Lascaux et R. Theodor, Analyse numérique sappliquée aux sciences de l’ingénieur, Paris, (1994) – R. Temam, Analyse numérique, Collection SUP le mathématicien, Presses Universitaires de France, 1970. Et pour les anglophiles... – M. Braun, Differential Equations and their applications, Springer, New York, 1984 (chapitre 4). – G. Dahlquist and A. Björck, Numerical Methods, Prentice Hall, Series in Automatic Computation, 1974, Englewood Cliffs, NJ. – R. Fletcher, Practical methods of optimization, J. Wiley, New York, 1980 (chapitre 3). – G. Golub and C. Van Loan, Matrix computations, The John Hopkins University Press, Baltimore (chapitre 1). – R.S. Varga, Matrix iterative analysis, Prentice Hall, Englewood Cliffs, NJ 1962. Ce cours a été rédigé pour la licence de mathématiques par télé-enseignement de l’université d’Aix-Marseille 1. Chaque chapitre est suivi d’un certian nombre d’exercices. On donne ensuite des suggestions pour effectuer les exercices, puis des corrigés détaillés. Il est fortement conseillé d’essayer de faire les exercices d’abord sans ces indications, et de ne regarder les corrigés détaillés qu’une fois l’exercice achevé (même si certaines questions n’ont pas pu être effectuées), ceci pour se préparer aux conditions d’examen.

3

il existe un unique vecteur x ∈ IR N solution de (1. par exemple). La taille des systèmes qu’on peut résoudre sur ordinateur a donc également augmenté. Nous aborderons ensuite en troisième partie les méthodes de résolution de problèmes aux valeurs propres. Entre 1980 et 2000.1. nous commençons par quelques rappels d’algèbre linéaire.1 Norme induite Définition 1.Chapitre 1 Systèmes linéaires 1.2. norme induite) carrées d’ordre N . nous verrons deux types de méthodes pour résoudre les systèmes linéaires : les méthodes directes et les méthodes itératives.1. et b ∈ IR N .1). on a comme objectif de résoudre le système linéaire Ax = b. selon l’ordre de grandeur suivant : 1980 : matrice “pleine” (tous les termes sont non nuls) matrice “creuse” 2000 : matrice “pleine” matrice “creuse” N N N N = 102 = 106 = 106 = 108 Le développement des méthodes de résolution de systèmes linéaires est liée à l’évolution des machines informatiques. Dans la suite de ce chapitre. la taille de la mémoire des ordinateurs a augmenté de façon drastique. 1.1) Comme A est inversible.1 (Norme matricielle.2 Quelques rappels d’algèbre linéaire 1. Un grand nombre de recherches sont d’ailleurs en cours pour profiter au mieux de l’architecture des machines (méthodes de décomposition en sous domaines pour profiter des architectures parallèles.1 Objectifs On note MN (IR) l’ensemble des matrices carrées d’ordre N . Pour faciliter la compréhension de leur étude. Un des points essentiels dans l’efficacité des méthodes envisagées concerne la taille des systèmes à résoudre. Soit A ∈ MN (IR) une matrice inversible. On note MN (IR) l’espace vectoriel (sur IR) des matrices 4 . c’est à dire de trouver x solution de : x ∈ IR N Ax = b (1. Nous allons étudier dans les deux chapitres suivants des méthodes de calcul de ce vecteur x : la première partie de ce chapitre sera consacrée aux méthodes “directes" et la deuxième aux méthodes “itératives".

2. A = max A = max Ax ..N } ∈ MN (IR). (1. On munit IR N de la norme · ∞ = i∈{1. Alors pour toute matrice A ∈ MN (IR). x ∈ IR N .. . (1.2 Soit MN (IR) muni d’une norme induite · . ∀A.. alors y = 1 donc Ay ≤ A . x = 1.2. 1. x · est une norme matricielle. Si maintenant x = 0.3) Proposition 1. l’inégalité Ax ≤ A x est encore vérifiée.. On munit IR N de la norme · ∞ et MN (IR) de la norme induite correspondante. La dernière égalité résulte du fait que x x x Proposition 1. On considère IR N muni d’une norme · .j |. On en déduit ≤ A et x x donc Ax ≤ A x . 1 (1.j∈{1.3 Soit A = (ai. (1. notée aussi · A 2 = (ρ(At A)) 2 .N } max j=1 |ai. posons y = Ax x .q. SYSTÈMES LINÉAIRES sur MN (IR) t. Donc ϕ est bornée et atteint ses bornes : il existe x0 ∈ IR N tel que A = Ax0 x x Ax = A et ∈ S1 pour tout x = 0.4) 1 et MN (IR) de la norme induite correspondante. 1.j )i.. la norme sur MN (IR) définie par : A = sup{ Ax .N } max i=1 |ai. Démonstration : 1. Ax . Alors A 2. Ax ≤ A x . notée aussi · N ∞. Télé-enseignement. 3... x ∈ IR N . notée aussi · N Alors (1.5) A 3.. L3 5 Université Aix-Marseille 1 R..2) B . 4. et donc x = 0 et Ax = 0 . QUELQUES RAPPELS D’ALGÈBRE LINÉAIRE 1.2.1. x ∈ IR N \ {0} .. 20 août 2010 .6) La démonstration de cette proposition fait l’objet de l’exercice 3 page 36 Analyse numérique I.j | 2. x = 1}. L’application ϕ définie de IR N dans IR par : ϕ(x) = Ax est continue sur la sphère unité S1 = {x ∈ IR N | x = 1} qui est un compact de IR N . 3. encore notée · . 2. ∀A ∈ MN (IR) 1. Herbin. On appelle norme matricielle induite (ou norme induite) sur MN (IR) par la norme · . on a : 2. Soit x ∈ IR N \ {0}.. 2 et MN (IR) de la norme induite correspondante. On appelle norme matricielle sur MN (IR) une norme · AB ≤ A CHAPITRE 1. ∀x ∈ IR N . B ∈ MN (IR) 2.2.2.. On munit IR N de la norme · 1 = j∈{1. alors Ax = 0.2.

. Démonstration : Soit A ∈ MN (IR). notée · A.8 donné ci-après. QUELQUES RAPPELS D’ALGÈBRE LINÉAIRE CHAPITRE 1.j≤i telles que Afi = λi..2. N .N. ρ(A) = limk→∞ Ak k .. 4. en prenant η tel que ηN 3 ρ(A)2 < ε. l Lemme 1. ρ(A) < 1 ⇒ lim supk→∞ Ak k 1 k 1 1 k · . . Comme Aei = 1≤j≤i < 1 ⇒ ρ(A) < 1. alors la suite (x(k) )k∈IN converge vers 0 si et seulement si ρ(A) < 1. On appelle valeur propre de A tout λ ∈ C tel qu’il existe x ∈ CN .. .6 (Convergence des suites) Une conséquence immédiate du lemme 1.j ej .j αj αj + j=1 k. vérifie A A. λ ∈ C.2.j fj . on en conclut que : Ax 2 D’où le résultat. On suppose de plus que · une norme matricielle (induite ou non). Montrons que si η bien choisi. . λ valeur propre de A}.. que voici : Remarque 1.j αk α . Proposition 1. L3 6 Université Aix-Marseille 1 R. Soit A ∈ MN (IR). 20 août 2010 . .5 page 6 est que si x(0) est donné et x(k) défini par x(k+1) = Ax(k) . .j αi i=j N η i−j λi. ≥j (k. on a A ≤ ρ(A) + ε. on définit j≤i ei = η i−1 fi . ρ(A) < 1 si et seulement si Ak → 0 quand k → ∞. . il existe une base (f1 ..ε ≤ ρ(A) + ε.j αi ej = i=1 1≤j≤i j=1 i=j N N η i−j λi.. 3. Herbin. Elle nécessite un résultat d’approximation du rayon spectral par une norme induite bien choisie. ≤ 1. Soit ε > 0.j )i. Alors ρ(A) ≤ A .2 Rayon spectral Définition 1. Comme η ∈]0.j λ .. )=(j. Il existe une norme sur IR N (qui dépend de A et ε) telle que la norme induite sur MN (IR). 1[...ε .. où les αi sont les composantes de x dans la base (ei )i=1. on a donc : Ax = N N N η i−j λi. La démonstration de ce lemme fait l’objet de l’exercice 5 page 37. notée Alors : 1.N forme une base de CN ..N . .5 (Convergence et rayon spectral) On munit MN (IR) d’une norme. ≤ ρ(A) x 2 + N 3 ρ(A)2 x 2 η.. Télé-enseignement. Notons que cette norme dépend de A et de η. = j=1 λj. 1[.N αi ei .. fN ) de CN et une famille l de complexes (λi.j αi ej On en déduit que N Ax soit encore Ax 2 N 2 = j=1 i=j η i−j λi.7 (Rayon spectral et norme induite) Soient A ∈ MN (IR) et ε > 0. Soit x = i=1. L’élément x est appelé vecteur propre de l l A associé à λ.j=1. 5. On appelle rayon spectral de A la quantité ρ(A) = max{|λ|. .j) η k+ −2j λk. La famille (ei )i=1. x = 0 tel que Ax = λx.j λj. Analyse numérique I. alors par le lemme 1.1..4 (Valeurs propres et rayon spectral) Soit A ∈ MN (IR) une matrice inversible. SYSTÈMES LINÉAIRES 1.. η i−j λi. On définit alors une norme sur IR N par x = l N 1/2 ( i=1 αi αi ) . Soit η ∈]0. pour i = 1. . lim inf k→∞ A 2.j αi .

20 août 2010 .N. . . λn )P −1 . La matrice P est évidemment inversible. on préfère travailler avec la diagonlaisation dans IR . .. Analyse numérique I. Si une matrice de la forme Id + A ∈ MN (IR) est singulière. . Télé-enseignement. n. Vous connaissez sûrement aussi la diagonalisation dans C : une matrice réelle carrée d’ordre n est diagonalisable l dans C si il existe une base (φ1 .. On dit que A est diagonalisable dans IR si il existe une base (φ1 . c’est-à-dire que (ei )j = δi. j<i On admettra ce lemme. ainsi que plus tard dans l’étude des méthodes itératives. . nous préciserons toujours si la diagonalisation considérée est dans IR ou dans C. comme on résout des systèmes linéaire réels. . 2. Démonstration : 1. Ici et dans toute la suite. φn . L3 Université Aix-Marseille 1 R. Alors A = P diag(λ1 . λn (pas forcément distincts) tels que Aφi = λi φi pour i = 1. . .. où (ei )i=1. QUELQUES RAPPELS D’ALGÈBRE LINÉAIRE CHAPITRE 1. .j<i telles que Afi = λi. Par souci de clarté. λn sont les valeurs propres de A.2.. . ..7.. la i-ème colonne de P est constituée des composantes de φi dans la base canonique (e1 .. . . . . . où P est la matrice dont les vecteurs colonnes sont égaux aux vecteurs φ1 .i fi + l λi. et on peut écrire : Aφi = AP ei = λi φi ...j fj . . alors A ≥ 1 pour toute norme matricielle · . . De plus λi. Démonstration Soit P la matrice définie (de manière unique) par P ei = φi . alors λ = −1 est valeur propre. fN ) de C et une famille de complexes (λi. . cependant il y a des cas où la diagonalisation dans C est utile et l même nécessaire (étude de stabilité des systèmes diférentiels. . .n .. 1− A 2. . 7 .8 (Triangularisation d’une matrice) Soit A ∈ MN (IR) une matrice carrée quelconque. . . Nous donnons maintenant un théorème qui nous sera utile dans l’étude du conditionnement. . . Herbin.j=1.. Théorème 1. φn ) de Cn et des nombres complexes λ1 .j . . . . . . φn ) et des réels λ1 .3 Matrices diagonalisables Définition 1. λn (pas forcément distincts) l l tels que Aφi = λi φi pour i = 1. Soit une norme matricielle induite..j )i=1. . . Id la matrice identité de MN (IR) et A ∈ MN (IR) telle que A < 1. on obtient que A ≥ ρ(A) ≥ 1. SYSTÈMES LINÉAIRES Lemme 1. par exemple).N.n à la base (φi )i=1. ... n. . . . Les réels λ1 . diagonalisable dans IR. . La matrice P est appelée matrice de passage de la base (ei )i=1.1.10 (Matrice diagonalisable) Soit A une matrice réelle carrée d’ordre n.i est valeur propre de A pour tout i ∈ {1.n est la base canonique de IR n . Alors la matrice Id + A est inversible et (Id + A)−1 ≤ 1 . .11 Soit A une matrice réelle carrée d’ordre n. .. .. . .. et donc en utilisant la proposition 1. alors il existe une base (f1 . . 1..2. La démonstration du point 1 fait l’objet de l’exercice 9 page 37. eN ). . N }.9 (Matrices de la forme Id + A) 1. Si la matrice Id + A ∈ MN (IR) est singulière. l Lemme 1. et les vecteurs φ1 .. . . . . . . φn sont les vecteurs propres associés. ..

Soit e ∈ E. On suppose que T est symétrique. fN ) et (λ1 . . définie par x → (x | y)E est linéaire. .e. yN )t est défini par (x | y)E = x · y = N xi yi . on a : T f1 ∈ IRf1 donc il existe λ1 ∈ IR tel que T f1 = λ1 f1 . xN )t et y = (y1 . . . il existe (f1 . (x.d. N . Analyse numérique I. P −1 = P t . . On en déduit P t P ei = ei pour tout i = 1. fj )E = δi. Interprétation algébrique : Il existe une matrice de passage P de (e1 . Ce produit scalaire induit une norme sur E. le produit scalaire canonique de x = (x1 . . La diagonalisation des matrices réelles symétriques est un outil qu’on utilisera souvent dans la suite. j ∈ {1 . ∀ (i. SYSTÈMES LINÉAIRES On a donc bien P −1 AP = diag(λ1 . et : (T x|y) = Ax · y = x · At y = x · Ay = (x | T y).. . Conséquence immédiate : Dans le cas où E = IR N . . . λn ) (ou encore A = P diag(λ1 . . n ∈ IN∗ .à. i. . Démonstration du lemme 1. e = 0. . . N } ∀i ∈ {1. e . fn ) de E (c. On a donc :   λi 0   . y) → (x | y)E . . c. Donc T est linéaire symétrique.2. . . . . On a : P ei = fi . où diag(λ1 . . qui vérifie : ∀x ∈ E. P t P = P P t = Id. . . . . ∀y ∈ E. . . .d. . que (T (x) | y)E = (x | T (y))E . . telle que (fi . fN ) dont la première colonne de P est constituée des coordonnées de fi dans (e1 . . . Herbin. x = (x | x)E . 1ère étape. λn ) ∈ IR n tels que T (fi ) = λi fi pour tout i ∈ {1 . i. 0 λN De plus P est orthogonale.12 Cette démonstration se fait par récurrence sur la dimension de E. . Alors il existe une base orthonormée (f1 .e. . En effet. Si A ∈ MN (IR) est une matrice symétrique. . . N }. . l’application de E dans IR. N } et fi · fj = δi. . ∀(x.j ∀i. .1. . eN ). n}. y) ∈ E 2 . .j . λN )ei . . alors E = IRe = f1 avec f1 = e symétrique.à. . y) ∈ E 2 . muni d’un produit scalaire i. . Soit T une application linéaire de E dans E. eN ) base canonique dans (f1 .12 Soit E un espace vectoriel sur IR de dimension finie : dimE = n. P −1 AP =   = D. On a alors P −1 AP ei = P −1 Afi = P −1 (λi fi ) = λi ei = diag(λ1 . . d’une application E × E → IR. . 2ème étape. 8 . λN ) désigne la matrice diagonale de coefficients diagonaux λ1 . . 20 août 2010 . Par le lemme précédent. ∀(x. . . . . . . (x | y)E = (y | x)E . . Lemme 1. (x | x)E ≥ 0 et (x | x)E = 0 ⇔ x = 0. . .e. j) ∈ {1. λn )P −1 ). L3 Université Aix-Marseille 1 R. alors i=1 l’application T définie de E dans E par : T (x) = Ax est linéaire. Télé-enseignement. . CHAPITRE 1. Soit T : E → E linéaire On suppose dimE = 1. . λN ) ∈ IR tels que T fi = Afi = λi fi ∀ i ∈ {1. en particulier dans les exercices.j ) et (λ1 . P t P ei · ej = P ei · P ej = (fi |fj ) = δi. . . . QUELQUES RAPPELS D’ALGÈBRE LINÉAIRE de sorte que : P −1 AP ei = λi P −1 φi = λi ei . . . . . N }2 . λN . N }. . . . . et donc (P t P ei − ei ) · ej = 0 ∀j ∈ {1 .

LES MÉTHODES DIRECTES CHAPITRE 1. fN ) conviennent. Donnons les détails de ces trois étapes. Pour i = 1. ×. N − 1. Nous rappelons la méthode de Gauss et la méthode LU et nous étudierons plus en détails la méthode de Choleski. L’application S = T |F est linéaire symétrique et on a dimF = n − 1. .1) après un nombre fini d’opérations élémentaires (+. L3 9 Université Aix-Marseille 1 R. et S(F ) ⊂ F .3 Les méthodes directes 1. et ∀i. On pose A(1) = A et b(1) = b.la méthode LU. E λ[2t(e | y) + t2 (y | y)E ] ≥ 2t(T (e) | y) + t2 (T (y) | y)E .3. On montre alors le lemme si dimE = n. . −. Soit 0 ≥ (T (e) − λe | y) pour tout y ∈ E \ {0}. Parmi les méthodes de résolution du système (1.1. Le principe de la méthode de Gauss est de se ramener. L’application ϕ est continue sur la sphère unité S1 = {x ∈ E| x = 1} qui est compacte car dimE < +∞ . (x | e) = 0}. 1. Le calcul de A(N ) est l’étape de “factorisation". qui sera donc facile à inverser. . . le calcul de b(N ) l’étape de “descente". . et le calcul de x l’étape de “remontée".3. λn−1 ) ∈ IR n et ∃(f1 .1. .1. qui est une réécriture de la méthode Gauss.2 Méthode de Gauss et méthode LU Soit A ∈ MN (IR) une matrice inversible.3. De même pour z = −y on a 0 ≥ (T (e) − λe|z) donc (T (e) − λe | y) ≥ 0. SYSTÈMES LINÉAIRES On suppose le lemme vrai si dimE < n. 1. Analyse numérique I. On pose fn = e et λn = λ. n − 1}. où A(i) est une matrice de la forme suivante : Une fois la matrice A(N ) (triangulaire supérieure) et le vecteur b(N ) calculés. n − 1}. (fi | fj ) = δi. .1) on citera : . on cherche à calculer A(i+1) et b(i+1) tels que les systèmes A(i) x = b(i) et A(i+1) x = b(i+1) soient équivalents. . . En développant on obtient : Comme t > 0. Sfi = T fi = λi fi .13 (Méthode directe) On appelle méthode directe de résolution de (1. à un système triangulaire équivalent. Soit E un espace vectoriel normé sur IR tel que dimE = n et T : E → E linéaire symétrique. . et E = F IRe : on peut décomposer x ∈ E comme (x = x − (x | e)e + (x | e)e). Et donc (λ1 .la méthode de Gauss (avec pivot) . On peut donc utiliser l’hypothèse de récurrence : ∃(λ1 . Soit ϕ l’application définie par : ϕ : E → IR x → (T x|x). On cherche à calculer x ∈ IR N tel que Ax = b. . il sera facile de résoudre le système A(N ) x = b(N ) . On en déduit que : e + ty (e + ty) e + ty ∈ S1 donc ϕ(e) = λ ≥ T | e + ty e + ty e + ty donc λ(e + ty | e + ty)E ≥ (T (e + ty) | e + ty). Soit F = {x ∈ E.1. . Télé-enseignement. . j ∈ {1 . et b ∈ IR N . qui est adaptée aux matrices symétriques. y [ alors e + ty = 0. /). On en déduit que T (e) = λe. on obtient 2λ(e | y)E ≥ 2(T (e) | y). Soit y ∈ E \ {0}. . .j . et soit t ∈]0. D’où (T (e) − λe | y) = 0 pour tout y ∈ E. . fn−1 ) ∈ E n tels que ∀ i ∈ {1 . il 1 existe donc e ∈ S1 tel que ϕ(x) ≤ ϕ(e) = (T e | e) = λ pour tout x ∈ E. λ[2(e | y) + t(y | y)E ] ≥ 2(T (e) | y) + t(T (y) | y)E .1) une méthode qui donne exactement x (A et b étant connus) solution de (1. ceci donne : En faisant tendre t vers 0+ . Herbin. 20 août 2010 . . λN ) et (f1 . par des opérations simples (combinaisons linéaires). on a donc F = E.1 Définition Définition 1.

1 (N ) a1.3. (i) Si la condition ai.7) (i+1) = (i) b . avec une matrice A(N ) triangulaire supérieure facile à (i) inverser. On verra un peu plus loin les techniques de pivot qui permettent de régler le cas où la condition ai.N (1) a1.j 2. 20 août 2010 .i+1 ai+2.i (i) (i) (i) ai. L’étape de factorisation et descente s’écrit donc : 1.1 (1) CHAPITRE 1.3.N (i) 0 0 aN.j − bk − (i) (i) ak. si ai.i = 0 est vérifiée pour i = 1 à N .N (N ) F IGURE 1. LES MÉTHODES DIRECTES a1. (i) i (1. on pose ak. .i (i) aN.j bk (i+1) (i) (i+1) = ak. Evidemment. (i) (1. L3 10 Université Aix-Marseille 1 R.N (N ) 0 0 A(i) = ai. lorsqu’on fait ceci.i (i) (i) 0 ai+1. on pose : ak. N . on va effectuer des combinaisons linéaires entre lignes qui permettront d’annuler les coefficients de la i-ème colonne situés en dessous de la ligne i (dans le but de se rapprocher d’une matrice triangulaire supérieure). SYSTÈMES LINÉAIRES a1.1.i = 0. Analyse numérique I.i = 0 n’est pas vérifiée.i+1 (i+1) aN.N (i+1) F IGURE 1. Remarquons que le système A(i+1) x = b(i+1) est bien équivalent au système A(i) x = b(i) .2. (i) = ak. . .3.i+1 (i+1) (i+1) 0 0 aN.i ak.2 – Allure de la matrice de Gauss à l’étape i + 1 Etape de factorisation et descente Pour passer de la matrice A(i) à la matrice A(i+1) . on obtient par le procédé de calcul ci-dessus un système linéaire A(N ) x = b(N ) équivalent au système Ax = b. Pour k > i. .N 0 A(i+1) = 0 ai+1. il faut également modifier le second membre b en conséquence.1 – Allure des matrices de Gauss à l’étape i et à l’étape N (1) (1) a1.i ai. Herbin. pour k = j.8) La matrice A(i+1) est de la forme donnée sur la figure 1.i A(N ) = 0 0 aN. . . Télé-enseignement. .j et bk (i) (i+1) = bk . . Pour k ≤ i et pour j = 1.j .1 a1. N. .3.i ai.

qui reviennent à choisir une matrice de permutation P qui n’est pas forcément égale à la matrice identité dans le théorème 1.N (N ) (N ) . le calcul de A(N ) ). on en déduit que LU x = b. i. pour cette matrice de permutation. .i = 0 est vérifiée pour tout i = 1. .i−1 det  .i = 1 pour tout i = 1. Or il peut s’avérer que ce ne soit pas le cas. descente et remontée est 2 N 3 + O(N 2 ). ou que.N ai. . c’est–à–dire de la composante xN à la composante x1 : xN = xi = 1 (N ) ai. . N. vérifiant P A = LU. . . .1. Décomposition LU Si le système Ax = b doit être résolu pour plusieurs second membres b. Plaçons-nous à l’itération i de la méthode de Gauss.i .N  (i) (i) (i) . On peut résoudre ce problème en utilisant les techniques de “pivot partiel" ou “pivot total". En effet. L3 ai. . et comme A(N ) est une matrice triangulaire supérieure. . qu’une seule fois. alors que les étapes de descente et remontée (i. . le calcul pour Gauss est similaire) que le nombre d’opérations nécessaires pour effectuer les étapes de factorisation..i .i = 0 était vérifiée à chaque étape. et i. même si la condition est vérifiée. SYSTÈMES LINÉAIRES Etape de remontée Il reste à résoudre le système A(N ) x = b(N ) . i = N − 1. Télé-enseignement. . ai. Coût de la méthode de Gauss (nombre d’opérations) On peut montrer (on fera le calcul de manière détaillée pour la méthode de Choleski dans la section suivante.1 a2. 20 août 2010 . 3 En ce qui concerne la place mémoire. aN. Dans ce cas.i = 0 pour tout i1. . On peut vérifier que A = LU grâce au fait que le système A(N ) x = b(N ) est équivalent au système Ax = b.14 (Décomposition LU d’une matrice) Soit A ∈ MN (IR) une matrice inversible. (i) (i) aN. . on a :   (i) (i) ai. Herbin.14. on (i) supposera ici que lors de la méthode de Gauss. . le “pivot" ai. La matrice L a comme coefficients i. Théorème 1. il existe un et un seul couple de matrices (L. ce qu’on n’a pas voulu faire dans le calcul précédent.j xj ). . comme A(N ) x = b(N ) et b(N ) = L−1 b. .j = 0 pour j > i.i (N ) pour i > j.  det(A(i) ) = a1.i soit très petit.j = ai. Ceci est une étape facile. il est évident qu’on a intérêt à ne faire l’étape de factorisation (i.  = 0. U ) où L est triangulaire inférieure de termes diagonaux égaux à 1 et U est triangulaire supérieure. . . . 1. L’étape de factorisation peut se faire en décomposant la matrice A sous la forme LU . et comme A et LU sont inversibles. N . . Comme A(N ) est une (i) matrice inversible. .e. le calcul de b(N ) et x) seront faits pour chaque vecteur b. N . LES MÉTHODES DIRECTES CHAPITRE 1. Comme la matrice A(i) est forcément non singulière. et la matrice U est égale à la (i) 11 Université Aix-Marseille 1 R.3. . . on en déduit que A−1 b = (LU )−1 b pour tout b ∈ IR N . . la matrice de permutation P du théorème 1.N Analyse numérique I.   . on a ai.e. on peut donc calculer les composantes de x en “remontant". par souci de clarté. on peut très bien stocker les itérés A(i) dans la matrice A de départ. Ceci démontre que A = LU. on a supposé que (i) la condition ai. On admettra le théorème suivant (voir par exemple le livre de Ciarlet cité en début de cours.j (i) (i) matrice A . .14 est la matrice identité. la condition ai. Pour simplifier l’écriture.2 · · · ai−1. Cette décomposition peut se calculer très facilement à partir de la méthode de Gauss.i b(N ) aN. (b(i) − j=i+1. ce qui peut entraîner des erreurs d’arrondi importantes dans les calculs. . il existe une matrice de permutation P telle que. Techniques de pivot Dans la présentation de la méthode de Gauss et de la décomposition LU .

. on effectue les calculs suivants : (a) On ne change pas la i-ème ligne ui. on effectue les calculs suivants : (a) On ne change pas la i-ème ligne ui. les colonnes j et j0 de A et les inconnues xj et xj0 .j pour j = i. j = i.i = 0. . .j xj ) i.3 Version programmable des algorithmes de Gauss et LU pour un système carré On donne dans ce paragraphe la version “programmable” de l’algorithme de Gauss et de la maéthode LU pour une matrice carrée d’ordre n. . aN. . . . (i) (i) (i) (i) Pivot total On choisit maintenant i0 et j0 ∈ {i. . La stratégie du pivot total permet une moins grande sensibilité aux erreurs d’arrondi. On échange alors les lignes i et i0 (dans la matrice A et le second membre b) et on continue la procédure de Gauss décrite plus haut.i yi 2. .i | = max{|ak.i  . k = i. Analyse numérique I. On souhaite résoudre Ax = b. yi = bi (b) On change les lignes i + 1 à n (et le second membre) en utilisant la ligne i. N } tels que |ai0 . Ce qui donne : 1. (Factorisation et descente) Pour i allant de 1 à n. . ceci n’est plus vrai pour la matrice A(N ) . . SYSTÈMES LINÉAIRES a  i. avec A ∈ Mn (IR) inversible et un ou plusieurs second membres b ∈ IR n . . L’intérêt de ces stratégies de pivot est qu’on aboutit toujours à la résolution du système (dès que A est inversible). . . . . k = i. ai.. Herbin. . Télé-enseignement. et on échange alors les lignes i et i0 (dans la matrice A et le second membre b).j pour j = i. . n. (i) aN. .i Méthode LU sans pivot La méthode LU se déduit de la méthode de Gauss en remarquant simplement que. . prendre la méthode avec pivot partiel) i.i = 0) bj = bj − lj. .i = 0. N. . (Factorisation) Pour i allant de 1 à n. aj.j = ai. .N (i) Pivot partiel On déduit qu’il existe i0 ∈ {i. xi = u1 (yi − n j=i+1 ui. . Méthode de Gauss sans pivot 1. .k (noter que aj. L’inconvénient majeur est qu’on change la structure de A : si. . Pour j allant de i + 1 à n : a lj.  (i) .i (si ai. N } tel que ai0 . . .i pour k allant de i + 1 à n. . . det  . n.  = 0. on peut effectuer les calculs sur b après les calculs sur A. .N . On choisit alors i0 ∈ {i. par exemple la matrice avait tous ses termes non nuls sur quelques diagonales seulement. . . . . 20 août 2010 . N }.j |. . ayant conservé la matrice L. 1. N }.i ai. (Remontée) On calcule x Pour i allant de n à 1. . .j = ai. .i |. .3. LES MÉTHODES DIRECTES On a donc en particulier CHAPITRE 1.3.k − lj.i  (i)  (i) .j0 | = max{|ak. N } tel que |ai0 .  .k = aj. L3 12 Université Aix-Marseille 1 R. .1.i = aj.

.i (yi − j=i+1 ut(i). .3. n}}. on a intérêt à choisir t(i) pour que |at(i). . On change alors t en prenant t(i) = t(k) et t(k) = t(i). . . .i = 1) k=1 3. on effectue les calculs suivants : (a) Choix du pivot (et de t(i)) : on cherche k ∈ {i. . .i pour k de i + 1 à n. . .i = 0) 2. Donc pour t(j) ∈ {t(i + 1). Au départ de l’algorithme. aj.i Méthode LU avec pivot partiel La méthode LU avec pivot partiel consiste simplement à remarquer que l’ordre dans lequel les équations sont prises n’a aucune importance pour l’algorithme.i (si ai.i t(i). n. (Factorisation) Pour i allant de 1 à n.k = aj.k = at(j). . (Descente) On calcule y Pour i allant de 1 à n. Pour j allant de i + 1 à n : a lj. n} (par exemple l’identité) et de la modifier à chaque étape. Pour que l’algorithme aboutisse. . l ∈ {i. Donc. Il reste maintenant à signaler le “miracle" de cet algorithme. . . prendre la méthode avec pivot partiel) i. (Remontée) On calcule x (avec U x = y) Pour i allant de n à 1.k yk (on a implicitement li. (Descente) On calcule y (avec Ly = b) Pour i allant de 1 à n.k (noter que at(j). on a aussi changé l’ordre dans lequel interviennent les composantes du second membre. .i at(i). (Remontée) On calcule x Pour i allant de n à 1.i | soit le plus grand possible. SYSTÈMES LINÉAIRES (b) On change les lignes i + 1 à n (et le second membre) en utilisant la ligne i. . . Il suffit donc de partir d’une bijection arbitraire de {1. .j = at(i). . |at(k). n} dans {1.q. en utilisant la 1 ligne t(i).k − lj. yi = bi − i−1 li. . . . .i = 0) 2. il suffit de connaître t(j) pour j allant de 1 à i. LES MÉTHODES DIRECTES CHAPITRE 1.i = at(j). 20 août 2010 .k − lt(j). t(n)} (noter qu’on a uniquement besoin de connaï¿ 2 tre l’ensemble . . et pas l’ordre) : a lt(j). . Il est inutile de connaitre complètement t pour faire cet algorithme.j xj ) i. . ce qui donne : 1. et qui va être modfiée au cours de l’algorithme pour tenir compte du choix du pivot. . .i ai. (b) On modifie les lignes t(j) autres que les lignes t(1). A l’étape i de l’item 1 (et d’ailleurs aussi à l’étape i de l’item 2). . . t(n) (et le second membre).j xj ) NB : On a change l’ordre dans lequel les équations sont considérées (le tableau t donne cet ordre). les opérations de 1(b) se faisant alors sur toutes les autres lignes (dans un ordre quelconque). .i = 0 (ce qui toujours possible car A est inversible).k yk 3.i pour k de i + 1 à n.i |. Ceci suggère de faire le choix suivant de t(i) à l’étape i de l’item 1(a) de l’algorithme (et c’est à cette étape que t(i) doit être défini) : Analyse numérique I. i−1 yi = bt(i) − j=1 lt(j). n} t.k (noter que aj. at(j). . n xi = u1 (yi − j=i+1 ui. il suffit que at(i). .1.i = 0. on n’a pas touché à l’ordre dans lequel interviennent les composantes de x et y. . .i = aj. Par contre. Herbin.j pour j = i. . On ne change pas la ligne t(i) ut(i). on se donne la bijection t de {1. . . Pour minimiser des erreurs d’arrondis.i | = max{|at(l). On écrit l’algorithme précédent avec les nouveaux indices de ligne t(i). L3 13 Université Aix-Marseille 1 R. . n} dans {1. n 1 xi = ut(i). Télé-enseignement. n} définie par t(i) = i.

j=1. . Etape 1 : “descente" Le système Ly = b s’écrit :  0 1. .N (bN − N. c’est–à–dire la décomposition LLt obtenue (voir paragraphe suivant). . donc = b2 . . . = bi . . n} t.3. Herbin. bN = b1 . N. donc yN = 1 N..1 . On rappelle (exercice) que si A est symétrique définie positive elle est en particulier inversible. i. . |at(k).1.2 . Remarque L’algorithme se ramene donc à résoudre LU x = b. définie par les coefficients (aj.j yj j=1. . on fait U x = y. t(n) (les composantes de b sont donc aussi prises dans cet ordre). où At désigne la transposée de A. . SYSTÈMES LINÉAIRES on cherche k ∈ {i. Puis. On résout alors le système Ax = b en résolvant d’abord Ly = b puis le système Lt x = y.j yj ). Télé-enseignement. yN . U . .N −1 On calcule ainsi y1 .  . U . .q.i )i=1. donc .i |.N. xn )t et (y1 . . Description de la méthode La méthode de Choleski consiste à trouver une décomposition de A de la forme A = LLt . . On rappelle qu’une matrice A ∈ MN (IR) de coefficients (ai. . . . i. . . Une fois la matrice A “factorisée".j yj ) j=1.j=1.N  . y2 . donc b1 1.i  b1 . . .1  . yn )t (t signifie ici “transposé" pour obtenir un vecteur colonne). y et x (qui sont définis au cours de l’algorithme). . . n}}. . . . 1. . . Le principe retenu est que. en faisant Ly = b et U x = y. que l’on modifie au cours de l’algorithme). on modifie la matrice A et le second membre b (en remplaçant le système à résoudre par un système équivalent) mais on ne modifie jamais L. Ly =  . Dans toute la suite. . mais le vecteur y est bien (y1 . yi = (bi − .N = bN .j )i=1.  =  . Remarque : L’introduction des matrices L et U et des vecteurs y et x n’est pas nécessaire (tout peut s’écrire avec la matrice A et le vecteur b.1 2. t(n) mais les vecteurs x et y sont (x1 .2 y2 1 2.N. Ce système s’écrit composante par composante en partant de i = 1. L3 14 Université Aix-Marseille 1 R.3. où L est triangulaire inférieure de coefficients diagonaux strictement positifs. . .i | = max{|at(l). . yN y1 = y2 = 1 i.j=1. Analyse numérique I. . . .N . 20 août 2010 .i−1 N.1 y1   y1  . . L’introduction de L. Quand on fait Ly = b les equations sont dans l’ordre t(1). LES MÉTHODES DIRECTES CHAPITRE 1. .N est symétrique si A = At . .. et que A est définie positive si Ax · x > 0 pour tout x ∈ IR N tel que x = 0.4 Méthode de Choleski On va maintenant étudier la méthode de Choleski. .. . . yn )t . N. 1. . les equations sont toujours dans l’ordre t(1). . on effectue les étapes de “descente" et “remontée" : 1.i (b2 − . .j yj j=1.1 y1 + 2. l ∈ {i. . x · y désigne le produit scalaire des deux vecteurs x et y de IR N .1 y1 ) 2. qui est une méthode directe adaptée au cas où A est symétrique définie positive. . On change alors t en prenant t(i) = t(k) et t(k) = t(i).    . x et y peut toutefois aider à comprendre la méthode. . dans les algorithmes (Gauss ou LU). . .

On suppose que la décomposition de Choleski s’obtient pour A ∈ Mp (IR) symétrique définie positive.14 page 11.j=1 1.15 (Décomposition de Choleski) Soit A ∈ MN (IR) avec N > 1.   Lt x =  . Dans le cas N = 1.N −1 xN = yN −1 donc xN −1 = y1 − j=2.3. Théorème 1.1 xj N −1.1      .1 ).1 2. Télé-enseignement. . LES MÉTHODES DIRECTES CHAPITRE 1.N −1 xN . on peut écrire A sous la forme :   B a    A= (1.i i.1 j.1 > 0. L3 Université Aix-Marseille 1 R. . > 0. que y By · y > 0.d.1 = a1. Existence de L : démonstration par récurrence sur N 1.1.1 ) où 1. On peut donc √ définir L = ( 1.  x   y   1 1 1. et on a bien A = LLt . Alors il existe une unique matrice L ∈ MN (IR). . . .1 xj j=1. 2. Comme A est symétrique définie positive. Ici on va montrer que dans le cas où la matrice est symétrique.    . telle que : i. pour tout y ∈ IR N tel que y = 0.  . 20 août 2010 . xN −1 . et x = ∈ IR N +1 . Montrons que B est définie positive.   . . Etape 2 : “remontée" On calcule maintenant x solution de Lt x = y.. Soit donc y ∈ IR N \ {0}. qi’il existe une matrice de permutation et L triangulaire inférieure et U triangulaire supérieure P A = LU .  . Soit donc A ∈ MN +1 (IR) symétrique définie positive .N −1 xN −1 N. on a A = (a1.j = 0 si j > i). la décomposition est toujours possible sans permutation.  =  . Démonstration : On sait déjà par le théorème 1. x1 . Existence et unicité de la décomposition On donne ici le résultat d’unicité de la décomposition LLt d’une matrice symétrique définie positive ainsi qu’un procédé constructif de la matrice L.9)   t a α où B ∈ MN (IR) est symétrique.. .j )N . .     0 . On calcule ainsi xN . N. .. .   0 . . L = ( i.N = y1 donc x1 = .N 1.1 . Herbin.N −1 j. 3.  . . Analyse numérique I. N }. c. N −1. Nous donnons ici une démonstration directe de l’existence et de l’unicité de la décomposition LLt qui a l’avantage d’être constructive. A = LLt .   . pour 1 ≤ p ≤ N et on va démontrer que la propriété est encore vraie pour A ∈ MN +1 (IR) symétrique définie positive. N. L est triangulaire inférieure (c’est–à–dire i.3. . On suppose que A est symétrique définie positive.à. a ∈ IR N et α ∈ IR.N xN yN On a donc : N.1 . SYSTÈMES LINÉAIRES 2. on a a1. 2. Comme A est 0 15 . .N xN = yN donc xN = + yN N.  .   . . pour tout i ∈ {1.N yN −1 − N.

 Analyse numérique I.i > 0 (c) B = M M t . SYSTÈMES LINÉAIRES         y y By y            ·   =   ·   = By · y         α 0 0 at y 0 On cherche b ∈ IR N et λ ∈ IR ∗ tels que LLt = A. donc at (M t )−1 M −1 a + λ2 = α soit encore at (M M t )−1 a + λ2 = α. On a z = 0 et donc Az · z > 0 car A est symétrique définie positive.10) L=   t b λ (1. la première égalité ci-dessus donne : b = M −1 a et en remplaçant dans la deuxième égalité. L3 . il faut que α − at B −1 a > 0 Montrons que la condition (1. Par hypothèse de récurrence.3. On peut ainsi choisir λ = α − at B −1 a (> 0) de telle sorte que (1.3. le déterminant de M s’écrit det(M ) = i=1 mi. . c’est–à–dire : at B −1 a + λ2 = α Pour que (1.10) et identifions avec A :   t    M MMt M 0 b Mb       =  LLt =       bt λ 0 λ bt M t bt b + λ2 donc B est définie positive. λ ∈ IR ∗ tels que LLt = A. Comme M est inversible (en effet. L=   (M −1 a)t λ 16 Université Aix-Marseille 1 R. On va chercher L sous la forme :   M 0    (1.3.j=1 telle que : (a) mi.1. Herbin.3. on a :  B  0 < Ax · x =   at a CHAPITRE 1.3.12) est vérifiée. Calculons Az :     B −1 a  0 B a    =  Az =     at α at B −1 a − α −1 On a√ donc Az · z = α − at B −1 a > 0 ce qui montre que (1.12) est effectivement vérifiée : Soit z = (1.11) ∈ IR N +1 . calculons LLt où L est de la forme + (1.j = 0 si j > i (b) mi.3.3. LES MÉTHODES DIRECTES symétrique définie positive. et on veut donc que les égalités suivantes soient + vérifiées : M b = a et bt b + λ2 = α.11) est vérifiée. on obtient : (M −1 a)t (M −1 a)+ λ2 = α. 20 août 2010  .11) soit vérifiée. Pour déterminer b et λ.j )N i.i > 0). il existe une matrice M ∈ MN (IR) M = (mi. Posons :   M 0   .3.3.12) B a −1  −1 N avec b ∈ IR N . Télé-enseignement.

1 . Herbin. soit 2p + 1 opérations .k q+1. Calculons la 1ère colonne de L . On calcule la colonne (q + 1) en prenant j = q + 1 dans (1.k q+1. . .q+1 .1 = a2. . N − 1. pour p = 0.1 ai. on a : q+1 q i. . 20 août 2010 .1 donc i. Calcul du coût de la méthode de Choleski Calcul du coût de calcul de la matrice L Dans le procédé de calcul de L exposé ci-dessus.q+1 − 1 i.q+1 = (aq+1. . On procède de la même manière pour i = q + 2.k q+1.i > 0 et A = LLt . i. . On a donc : N ai.k ) k=1 > 0. on vient de montrer qu’il existe L ∈ MN (IR) triangulaire inférieure telle que i.3.15) k=1 On calcule ainsi toutes les colonnes de L. .1.1 2.k k=1 > 0 car L existe : il est indispensable d’avoir d’abord montré l’existence de L pour pouvoir exhiber le coefficient q+1. N }2 . N }. (1.15) nécessite p multiplications. Télé-enseignement.q+1 q+1.13) 1. . pour j = 1. Calculons. ∀ (i.1 donc 1.q+1 − 1/2 q+1. p soustractions et une extraction de racine.3. (1. (1. .1 = 1.1 2. On a donc montré que L est unique par un moyen constructif de calcul de L. .q+1 = et donc = k=1 i.1 1. LES MÉTHODES DIRECTES La matrice L est bien triangulaire inférieure et vérifie On a terminé ainsi la partie “existence”. le nombre d’opérations pour calculer la (p + 1)-ième colonne : pour la colonne (p + 1).1 (a1. Unicité et calcul de L.13) q+1 Pour i = q + 1.j = 0 si j > i. SYSTÈMES LINÉAIRES > 0 et A = LLt . .1 1. i.k q+1. p soustractions et Analyse numérique I.k q+1.k j. 2.k .1 ∀i ∈ {2.j = k=1 i.3.3.k + i. .p+1 par la formule (1.k q+1.3. le nombre d’opérations par ligne est 2p + 1.14) nécessite p multiplications.p+1 par la formule (1. N .1 = 1. le nombre d’opérations pour calculer la première colonne est N . j) ∈ {1 . = i.q+1 .k q+1. .q+1 − q+1.q+1 q i. aq+1.1 = ai.q+1 = k=1 q+1.q+1 = ai. a2. .k k=1 ai.1 1.3.1 > 0 car 1.3.14) q Notons que aq+1.1 √ = a1. car le calcul de p+1.i CHAPITRE 1. L3 17 Université Aix-Marseille 1 R. le calcul de i.k donc q q+1.1 donc 1. on a : a1. On suppose avoir calculé les p premières colonnes de L. Soit A ∈ MN (IR) symétrique définie positive . .1 existe ).

. .1 . auquel il faut rajouter le nombre d’opérations nécessaires pour les étapes de descente et remontée. Télé-enseignement.1) 3 2 3 2 par la méthode de Choleski est NC = NL + N1 + N2 = N + N + N + 2N 2 = N + 5N + N . L3 s’effectue en (p − 1) (multiplications) 18 Université Aix-Marseille 1 R. bp − p−1 i=1 i. 20 août 2010 .1.1.  . On peut calculer de manière similaire le nombre d’opérations p=1 nécessaires pour l’étape de remontée N2 = N 2 . L’étape la plus 3 2 6 3 2 6 coûteuse est donc la factorisation de A. . N.. d’où on déduit que 2 CN = On a donc : NL = (2N − 1) =N N (N + 1)(2N + 1) . Le calcul de y solution de Ly = b s’effectue en résolvant le système :      b1 y1 0 1.p +(p − 2) (additions) +1 soustraction +1 (division) = 2p − 1 opérations.  . en remarquant par exemple que N N N (1 + p)3 p=0 = = p=1 1 + p3 + 3p2 + 3p = p=0 N +1 p=0 N 1+ p=0 p3 + 3 p=0 p2 + 3 p=0 p p3 = p=0 p3 + (N + 1)3 .1. le calcul yp = / p..p+1 = 0 pour i ≤ p).) Il reste à calculer CN = N N N p=0 p2 . Comme les calculs se font des lignes p + 1 à N (car i. Herbin. le calcul y1 = b1 s’effectue en une opération. . Analyse numérique I.  .1) par la méthode de Choleski pour A ∈ MN (IR) symétrique définie positive. N. soit encore 2p + 1 opérations. 3 2 6 3 2N 2 + 3N + 1 6 Coût de la résolution d’un système linéaire par la méthode LLt Nous pouvons maintenant calculer le coût (en termes de nombre d’opérations élémentaires) nécessaire à la résolution de (1.  . le nombre d’opérations pour calculer la (p + 1)-ième colonne est donc (2p + 1)(N − p).  .1  . SYSTÈMES LINÉAIRES une division.   . On en déduit que le nombre d’opérations NL nécessaires au calcul de L est : NL = N −1 p=0 (2p + 1)(N − p) = 2N N −1 p=0 p−2 N −1 p=0 p2 + N N −1 p=0 1− N −1 p=0 p = (2N − 1) (On rappelle que 2 N −1 p=0 N N (N − 1) + N2 − 2 2 N −1 p=0 p2 . Le calcul de y (descente) s’effectue donc en N1 = N (2p − 1) = N (N + 1) − N = N 2 . On a donc 3CN + 3 N (N +1) + N + 1 = (N + 1)3 . p = N (N − 1). On a besoin de NL opérations pour le calcul de L. .p yi 1. . LES MÉTHODES DIRECTES CHAPITRE 1.1 yN bN Pour la ligne 1..  =  .3. .1 Pour les lignes p = 2 à N . 6 N (N − 1) − 2CN −1 + N 2 2 = N3 N2 N N3 + + = + 0(N 2 ). Le nombre total d’opérations pour calculer x solution de (1.

i.i = i. Analyse numérique I. Il ne reste alors plus qu’à vérifier que At A est symétrique définie positive. au sens où un grand nombre de ses coefficients sont nuls. Chaque calcul de déterminant d’une matrice carrée d’ordre N nécessite au moins N ! opérations (voir cours L1-L2. en stockant. on préfère implanter la variante ˜ ˜ ˜ suivante de la décomposition de Choleski : A = LDLt où D est la matrice diagonale définie par di. Pour cela on utilise le fait que 1. la méthode de Choleski environ 350 et la méthode de Cramer plus de 4 000 000. pour k = i − ji . . . la résolution de (1.15) que i. Matrices non symétriques Soit A ∈ MN (IR) inversible.1. LES MÉTHODES DIRECTES CHAPITRE 1.1) par la méthode de Gauss demande 2N 3 /3+0(N 2 ) opérations (exercice). On peut montrer (en reprenant les calculs effectués dans la deuxième partie de la démonstration du théorème 1. .i = 2 . par les indices ji = min{j ∈ {1. il est avantageux de faire un stockage “profil" de A. Conservation du profil de A Dans de nombreuses applications.1. On appelle discrétisation le fait de se ramer d’un problème où l’inconnue est une fonction en un problème ayant un nombre fini d’inconnues. Herbin. Dans le cas d’une matrice symétrique définie positive.1) par la méthode de Choleski.i = i. +.5 Quelques propriétés Comparaison Gauss/Choleski Soit A ∈ MN (IR) inversible. Cette décomposition a l’avantage de ne pas faire ˜ LD intervenir le calcul de racines carrées. Une propriété intéressante de la méthode de Choleski est de conserver le profil. −). la matrice AAt est symétrique. N.i .j = 0 si j < ji . qui est une opération plus compliquée que les opérations “élémentaires" (×.1. N } tels que ai. .k . donné dans le cas où la matrice est symétrique. . et det(A) désigne le déterminant de A. . . SYSTÈMES LINÉAIRES Remarque 1. la méthode de Choleski est donc environ deux fois moins chère. Il est intéressant dans ce cas pour des raisons d’économie de mémoire de connaître le “profil" de la matrice. on peut utiliser le même stockage pour L.3. . . . 20 août 2010 . ou livres d’algèbre linéaire proposés en avant-propos). pour chaque ligne i la valeur de ji et des coefficients ai.5.j = 0}. pour N = 10. Et la méthode de Cramer ? Soit A ∈ MN (IR) inversible. où D est la matrice diagonale définie par di. Cette dernière méthode est donc à proscrire. L3 19 Université Aix-Marseille 1 R. ce qui peut permettre un large gain de place mémoire. la méthode de Gauss nécessite environ 700 opérations. par exemple lors de la résolution de systèmes linéaires issus de la discrétisation 1 de problèmes réels.i ˜ −1 . . Dans le cas d’une matrice creuse.1.16 (Décomposition LDLt ) Dans les programmes informatiques.1) consiste à calculer les composantes de x par les formules : xi = det(Ai ) . Li. Par exemple. Remarquons d’abord que pour toute matrice A ∈ MN (IR). . 1. On ne suppose plus ici que A est symétrique. Le profil de la matrice est donc déterminé par les diagonales contenant des coefficients non nuls qui sont les plus éloignées de la diagonale principale.3. Donc si on a adopté un stockage “profil" de A. .3. . comme on peut s’en rendre compte sur la figure 1. la matrice A ∈ MN (IR) est “creuse". det(A) où Ai est la matrice carrée d’ordre N obtenue à partir de A en remplaçant la i-ème colonne de A par le vecteur b. Ceci est possible en remarquant que : Ax = b ⇔ At Ax = At b car det(A) = det(At ) = 0. On rappelle que la méthode de Cramer pour la résolution de (1. On cherche à calculer x ∈ IR N solution de (1. Télé-enseignement. . i = 1. .

M > N et b ∈ IR M . SYSTÈMES LINÉAIRES 0 0 F IGURE 1.3. On introduit pour cela une fonction f définie deIR N dans IR par : f (x) = |Ax − b|2 . Cette manière de faire est plutôt moins efficace que la décomposition LU puisque le coût de la décomposition LU est de 2N 3 /3 alors que la méthode de Choleski dans le cas d’une matrice non symétrique nécessite au moins 4N 3 /3 opérations (voir exercice 14).16). on en déduit que At A est symétrique. y) ∈ (IR N )2 . L3 20 Université Aix-Marseille 1 R.16) “au mieux".d.3. On montrera au chapitre III que s’il existe une solution au problème (1. Télé-enseignement.N (IR). La fonction f ainsi définie est évidemment positive.17) On peut réécrire f sous la forme : f (x) = At Ax · x − 2b · Ax + b · b. √ où |x| = x · x désigne la norme euclidienne sur IR N . (1.3.3. au sens où f (x) soit le plus proche de 0. On désigne par MM. et on cherche alors un vecteur x qui vérifie (1. en cherchant x ∈ IR N solution du problème d’optimisation : f (x) ≤ f (y) ∀y ∈ IR N (1. Analyse numérique I. elle est donnée par la résolution du système linéaire suivant : AAt x = At b ∈ IR N .16) en minimisant f . un tel x n’existe pas forcément.N (IR) l’ensemble des matrices réelles à M lignes et N colonnes. alors x est solution du système (1. La méthode de Choleski dans le cas d’une matrice non symétrique consiste donc à calculer At A et At b. Comme on l’a dit.3. . alors B est symétrique si et seulement si Bx · y = x · By et Bx · y = x · B t y pour tout (x. On cherche donc x ∈ IR N satisfaisant (1.3.17). On cherche x ∈ IR N qui vérifie le sytème (1. La matrice At A est donc bien symétrique définie positive.16) Ce système contient plus d’équations que d’inconnues et n’admet donc en général pas de solution. on cherche x ∈ IR N tel que Ax = b. puis à résoudre le système linéaireAt A · x = At b par la méthode de Choleski “symétrique".3. Pour A ∈ MM.3.à. et s’il existe x qui annule f . LES MÉTHODES DIRECTES CHAPITRE 1.16) “au mieux".3 – Exemple de profil d’une matrice symétrique si B ∈ MN (IR). Herbin.1. 20 août 2010 . c. At Ax · x = Ax · Ax = |Ax|2 > 0 si x = 0. Systèmes linéaires non carrés On considère ici des matrices qui ne sont plus carrées. comme A est inversible. De plus. En prenant B = At A.

4 Conditionnement Dans ce paragraphe. nous verrons également que cette majoration n’est pas forcément très utile dans des cas pratiques. Herbin. SYSTÈMES LINÉAIRES qu’on appelle équations normales du problème de minimisation. et donne lieu à un système linéaire de matrice A. Télé-enseignement. on peut alors employer la méthode de Choleski pour la résolution du système (1.16) par cette procédure est appelée méthode des moindres carrés . Soit A ∈ MN (IR) et α ∈ IR ∗ . 1. la notion de conditionnement est également utilisée dans l’étude des méthodes itératives que nous verrons plus loin. Analyse numérique I.3. u(0) = u0 et u(1) = u1 . le modèle ne sera pas d’une utilité redoutable. et nous nous efforcerons d’y remédier. Soient A et B ∈ MN (IR) des matrices inversibles. L3 21 Université Aix-Marseille 1 R. et MN (IR) Proposition 1. notée δA . On suppose que la température dans la tige satisfait à l’équation de conduction de la chaleur. alors la matrice A + δA est inversible.2 Conditionnement et majoration de l’erreur d’arrondi Définition 1. alors cond(A) ≥ 1. .3. Supposons que la température u de la tige soit imposée aux extrémités. On cherche alors à évaluer δx où x + δx est solution (si elle existe) du système : x + δx ∈ IR N (A + δA )(x + δx ) = b + δb .1) à partir des erreurs commises sur b et A.1. L’objectif est donc d’estimer les erreurs commises sur x solution de (1.4. nous allons définir la notion de conditionnement d’une matrice. et qu’on peut estimer δx en fonction de δA et δb . On aimerait que l’erreur commise sur les données du modèle (ici la conductivité thermique k) n’ait pas une conséquence catastrophique sur le calcul de la solution du modèle (ici la température u). Soit A ∈ MN (IR) une matrice inversible.18 (Propriétés générales du conditionnement) Soit IR N muni d’une norme · muni de la norme induite.1 Le problème des erreurs d’arrondis Soient A ∈ MN (IR) inversible et b ∈ IR N . La matrice AAt étant symétrique. Proposition 1. On appelle conditionnement de A par rapport à la norme · le nombre réel positif cond(A) défini par : cond(A) = A A−1 . La résolution approchée du problème (1. (1. qui peut servir à établir une majoration des erreurs d’arrondi dues aux erreurs sur les données. alors cond(AB) ≤ cond(A)cond(B). On note cond2 (A) le conditionnement associé à la norme induite par la norme euclidienne sur IR N . . 1]. modélisée par l’intervalle [0. CONDITIONNEMENT CHAPITRE 1.19 (Propriétés du conditionnement pour la norme 2) Soit IR N muni de la norme euclidienne · 2 et MN (IR) muni de la norme induite. 20 août 2010 . où k est la conductivité thermique. Si la conductivité k n’est connue qu’avec une certaine précision. 1. . alors la matrice A sera également connue à une erreur près. Cette équation différentielle du second ordre peut se discrétiser par exemple par différences finies (on verra une description de la méthode page 23). supposons que les données A et b ne soient connues qu’à une erreur près.5).18) On va montrer que si δA “n’est pas trop grand".4. Malheureusement. Soit A ∈ MN (IR) une matrice inversible. 2.4. Notons δb ∈ IR N l’erreur commise sur b et δA ∈ MN (IR) l’erreur commise sur A. Considérons par exemple le problème de la conduction thermique dans une tige métallique de longueur 1. 1.17 (Conditionnement) Soit IR N muni d’une norme · et MN (IR) muni de la norme induite. Si par exemple 1% d’erreur sur k entraîne 100% d’erreur sur u. 3. 1. qui s’écrit (k(x)u (x)) = 0. Ceci est souvent le cas dans les applications pratiques.1. Soit A ∈ MN (IR) une matrice inversible. alors cond(αA) = cond(A).4.

où λN [resp. 6. 1 . L3 22 Université Aix-Marseille 1 R. Alors cond2 (A) = σN /σ1 . b = 0. A−1 1 − A−1 δA A−1 . Or le rayon spectral de B. cond2 (B)}. on a (A+ δA )δx + δA x = δb et donc δx = (A+ δA )−1 (δb − δA x). Alors la et MN (IR) de la norme induite. Comme A et A+δA sont inversibles.4. alors δx cond(A) ≤ x 1 − A−1 δA δb δA + b A . et donc (voir le théorème 1. x . 2. On en −1 1− B 1− A δA n=0 n=0 déduit que A+δA est inversible. Montrer que cond2 (A + B) ≤ max{cond2 (A).4. car A+δA = A(Id+B) et comme A est inversible.18).1. (A+δA )−1 = (Id+B)−1 A−1 .1. 3.4. λN λ1 . Théorème 1. On a aussi (Id + B)−1 ≤ B n= ≤ . Or (A + δA )−1 = (Id + B)−1 A−1 . cond2 (B)). Si A et B sont deux matrices symétriques définies positives. On suppose que A = QR où Q est une matrice orthogonale. petite] valeur propre de At A (noter que At A est une matrice symétrique définie positive). La démonstration de deux propositions précédentes fait l’objet de l’exercice 18 page 40. on obtient : δb δA + b A .9 page 7 et l’exercice 9 page 37) (Id + B) est inversible et ∞ ∞ 1 1 (Id + B)−1 = (−1)n B n . on en déduit : (A + δA )−1 ≤ (Id + B)−1 ≤ On peut donc écrire la majoration suivante : A−1 A δx ≤ x 1 − A−1 δA En utilisant le fait que b = Ax et que par suite b ≤ A δx A−1 A ≤ x 1 − A−1 δA ce qui termine la démonstration. 20 août 2010 . vérifie ρ(B) ≤ B ≤ δA A−1 < 1. Alors cond2 (A) = 1 si et seulement si A = αQ où α ∈ IR et Q est une matrice orthogonale (c’est-à-dire Qt = Q−1 ). CONDITIONNEMENT CHAPITRE 1. SYSTÈMES LINÉAIRES 1. Alors cond2 (A) = cond2 (R). λ1 ] est la plus 4. Soit A ∈ MN (IR) une matrice inversible. ρ(B). B ∈ MN (IR) deux matrices symétriques définies positives. On munit IR N d’une norme · . σ1 ] la plus grande [resp. petite] valeur propre de A. On suppose que δA < A−1 matrice (A + δA ) est inversible et si x est solution de (1. Si de plus A une matrice symétrique définie positive. Télé-enseignement. Soient δA ∈ MN (IR) et δb ∈ IR N . On note σN [resp. alors cond2 (A) = grande [resp. 5. Comme Ax = b. δb A x + δA A . Analyse numérique I. .20 Soit A ∈ MN (IR) une matrice inversible. Soit A ∈ MN (IR) une matrice inversible. Soient A. (1. Soit A ∈ MN (IR) une matrice inversible. et b ∈ IR N .19) Démonstration : On peut écrire A + δA = A(Id + B) avec B = A−1 δA . alors cond2 (A+B) ≤ max(cond2 (A). il existe un unique x ∈ IR N tel que Ax = b et il existe un unique δx ∈ IR N tel que (A+ δA )(x+ δx ) = b + δb . Herbin.1) et x + δx est solution de (1.

Notons qu’un tel x existe parce que A = sup{ Ax . Soit x ∈ IR N tel que x = 1 et Ax = A .21)). CONDITIONNEMENT CHAPITRE 1. conditionnement “efficace" On suppose encore ici que δA = 0. où u est une fonction de IR 2 dans IR ∂y 2 Analyse numérique I.4. Herbin. 20 août 2010 .4.2. c. L3 23 Université Aix-Marseille 1 R. On va pour cela introduire la méthode de discrétisation dite par différences finies. x = 1} (voir proposition 1. On écrit la première équation de (1. par exemple 2 + ∂ u = 0. On peut montrer (on l’admettra ici) qu’il existe une unique solution u ∈ C 2 ([0. De même.d. N }.4. . b Par ce choix de b et δb on a bien égalité dans (1. il existe y ∈ IR N tel que y = 1.à. Heureusement. On choisit alors δb tel que δb = εy où ε > 0 est donné. Pour illustrer notre propos.4.à. .3). . . ∂2u ∂x2 2. Discrétisation par différences finies de −u = f Soit f ∈ C([0.4. N + 1 on définit les points de discrétisation xi = ih (voir Figure 1. .19) est optimale.20) n’est pas significative pour l’étude de la propagation des erreurs lors de larésolution des systèmes linéraires provenant de la discrétisation d’une équation différentielle ou d’une équation aux dérivées partielles 2 . la distance entre deux points de discrétisation. x = 1} = max{ Ax . Télé-enseignement. Soit N ∈ IN∗ .4. 1].20) est donc optimale. .d. L’estimation (1.21) −u (x) = f (x) u(0) = u(1) = 0. (1. Comme A(x + δx ) = b + δb .4. on a donc b = A .4.2 page 5) Posons b = Ax . Soit u(xi ) la valeur exacte de u en xi . on a donc cond(A) 100 et l’estimation (1.4. . L’estimation (1. 1. qui sont les points où l’on va écrire l’équation −u = f en vue de se ramer à un système discret.20). on peut montrer que l’estimation (1. On peut alors montrer (voir exercice 26 page 44 du chapitre 1) que le conditionnement de A est d’ordre N 2 . IR). . grâce à la proposition 1. On suppose que la matrice A du système linéaire à résoudre provient de la discrétisation par différences finies d’une équation différentielle introduite ci-dessous (voir (1. IR).19) devient alors : δx δb ≤ cond(A) .4. . c. et pour i = 0 .20) x b Peut-on avoir égalité dans (1. il est inutile de rechercher la solution de l’équation discrétisée. SYSTÈMES LINÉAIRES Remarquons que l’estimation (1. on définit h = 1/(N + 1) le pas de discrétisation. à un système avec un nombre fini d’inconnues. Autant dire que dans ce cas.21) en chaque point xi .4.1. Remarquons que x0 = 0 et xN +1 = 1.3 Discrétisation d’équations différentielles. on a δx = A−1 δb et donc : δx = A−1 δb = ε A−1 y = ε A−1 = δb A−1 . et A−1 y = A−1 . On cherche à calculer u de manière approchée. On en déduit que δx = δx = δb x A−1 A car b = A et x = 1. b Une erreur de 1% sur b peut donc entraîner une erreur de 100% sur x.4. On appelle équation aux dérivées partielles une équation qui fait intervenir les dérivées partielles de la fonction inconnue. Pour N = 10. −u (xi ) = f (xi ) = bi ∀i ∈ {1 .20) il faut choisir convenablement b et δb . pour i = 1 .20) ? Pour avoir égalité dans (1. N . en supposant que δA = 0.20) donne : δx ≤ 100 x δb . 1]. où N est le nombre de points de discrétisation.4.4. nous allons étudier un système linéaire très simple provenant d’un problème de mécanique et sa discrétisation par différences finies. On cherche u tel que (1. En effet.4.

. (1. xi+1 ) et 24 h4 (4) u (ηi ) où ηi ∈ (xi . En effet.j=1. que si u ∈ C 4 ([0. N . h2 (4) u 96  u1  . bN )t et A la matrice carrée d’ordre N de coefficients (ai. L3 24 Université Aix-Marseille 1 R. 24 (xi ) − (xi ) + En faisant la somme de ces deux égalités.4.. 20 août 2010 .  On cherche donc u =  . et donc u − u ∞ ≤ 3. On introduit alors les inconnues (ui )i=1. .4. .23) uN avecb = (b1 . Ce système peut s’écrire sous forme matricielle :Au = b . SYSTÈMES LINÉAIRES x x u(x) x x x x x0 = 0 x1 ··· xi = ih ··· x xN +1 = 1 F IGURE 1. . j = i ± 1. . . i = 1. . .. On peut montrer que A est symétrique définie positive (voir exercice 26 page 44). 1]. ∀ i = 1. IR) (ce qui est vrai si f ∈ C 2 ) alors 3 h2 (4) u(xi+1 ) + u(xi−1 ) − 2u(xi ) = −u (xi ) + Ri avec |Ri | ≤ u (1.. . si on note u le vecteur de IR N de composantes u(xi ). (1.N max {|ui − u(xi )|} ≤ ∞. Télé-enseignement. N. On peut aussi montrer que i=1.N qu’on espère être des valeurs approchées de u aux points xi et qui sont les composantes de la solution (si elle existe) du système suivant −  ui+1 + ui−1 − 2ui = bi .4.  h  ai. xi+1 ).j )i.j = 0.4. |i − j| > 1. par développement de Taylor.i = 2 . Herbin. . 24 24 12 h2 2 h4 (4) u (ξi ) 24 + h4 (4) u (ηi ).4. . i = 1.22)) A(u − u) = R.  ∈ IR N solution de (1.22) − ∞. . par un développement de Taylor. . . N . h2 u0 = uN +1 = 0. h2 12 La valeur Ri s’appelle erreur de consistance au point xi .1.4. N. CONDITIONNEMENT x x x ui CHAPITRE 1.. 24 et Analyse numérique I.   h2 1  ai. ∀ i = 1. on a par définition de R (formule (1. .24) On remarque immédiatement que A est tridiagonale. En effet. . . .4.. ..22) vérifie : 4 4 2 u(xi+1 )+u(xi−1 )−2u(xi ) |Ri | = | − + u (xi )| ≤ | h u(4) (ξi ) + h u(4) (ηi )| ≤ h u(4) ∞ .23). . . ∀ i = 1. . . N. on en déduit que : u(xi+1 ) + u(xi−1 ) = 2u(xi ) + h (xi ) + u donc Ri défini par (1. on a : 3 2 u(xi+1 ) = u(xi ) + hu (xi ) + h u (xi ) + h u (xi ) + 2 6 u(xi−1 ) = u(xi ) − hu (xi ) + h2 u 2 h3 u 6 h4 (4) u (ξi ) où ξi ∈ (xi . . ∀i ∈ {1 ≤ N }.4 – Solution exacte et approchée de −u = f On peut facilement montrer. et R le vecteur de IR N de composantes Ri .N définis par :   ai.j = − 2 . .

(on a montré ci-dessus qu’il peut y avoir égalité dans (1. partie I) que A−1 ∞ ≤ 1/8. . il est en général “creux".  . Or on a déjà dit qu’on peut montrer (voir exercice 26 page 44) que cond(A) N 2 . qu’un grand nombre des coefficients de la matrice du système sont nuls . où Ω est un ouvert de IR 2 .5.20) puisqu’elle montre que l’erreur relative commise sur u est du même ordre que celle commise sur b. M avec xi = ih.20) ne sert à rien pour ce genre de problème. yj = jh et h = 1/(M + 1). 1[×]0. L3 Université Aix-Marseille 1 R. comme c’est fait dans l’exercice 28 page 45. elle n’augmente pas avec le nombre de points de discrétisation. Donc si on augmente le nombre de points. . l’estimation (1. yj ). c. alors δx / x = 108 δb / b . En particulier. d. ∂x2 ∂y Définissons une discrétisation uniforme du carré par les points (xi . si le système a été obtenu à partir de la discrétisation d’équations aux dérivés partielles.20)) mais elle n’est pas significative pour l’étude des systèmes linéaires issus de la discrétisation des équations aux dérivées partielles. Prenons par exemple le cas d’une discrétisation du Laplacien sur un carré par différences finies. . MÉTHODES ITÉRATIVES CHAPITRE 1. En conclusion.20) est peut-être optimale dans le cas d’une matrice quelconque. 1. On cherche à résoudre le problème : −∆u = f sur Ω =]0. u b f (xN ) L’estimation (1. Télé-enseignement. 20 août 2010 . c’est–à–dire si on augmente le nombre de points N ou.5.4.4. (1. on a δb / b ≥ 10−7 .à. l’estimation (1. on augmente la précision avec laquelle on calcule la solution approchée. c.26) u = 0 sur ∂Ω.4.5. En fait.4.4. i. la méthode de Choleski “conserve le profil" (voir à ce propos page 19).20) donne une estimation de l’erreur relative δx / x de 1000%.25) . donc l’estimation (1. Elles ont l’inconvénient de nécessiter une assez grande place mémoire car elles nécessitent le stockage de toute la matrice en mémoire vive. representée en figure 1. 1[.4. il ne reste plus qu’à gérer habilement le “swapping" c’est–à–dire l’échange de données entre mémoire disque et mémoire vive pour pouvoir résoudre le système. . Analyse numérique I.5. . si on diminue le pas de discrétisation h.e. Or sur un ordinateur en simple précision. Cette inégalité donne la précision de la méthode.d. Or on peut montrer (voir exercice 28 page 45.1. de plus la matrice a souvent une structure “bande".1 Origine des systèmes à résoudre Les méthodes directes que nous avons étudiées dans le paragraphe précédent sont très efficaces : elles donnent la solution exacte (aux erreurs d’arrondi près) du système linéaire considéré. le conditionnement de A augmente aussi. On a vu au chapitre précédent que dans ce cas. Cependant. Herbin. pour i = 1. et on obtient donc avec (1.1 pour M = 6. Par exemple si N = 104 . On remarque en particulier que si on raffine la discrétisation. par ∆u = ∂2u ∂2u + 2.4. si la plupart des coefficients de la matrice sont non nuls et qu’elle est trop grosse pour la mémoire vive de l’ordinateur dont on dispose.25) est évidemment bien meilleure que l’estimation (1. . . ce qui revient au même.5 Méthodes itératives 1. On se rend compte alors que pour f donnée il existe C ∈ IR + ne dépendant que de f (mais pas de N ) tel que   f (x1 ) δb δu  . les éléments non nuls de la matrice sont localisés sur certaines diagonales. SYSTÈMES LINÉAIRES A−1 ∞ R ∞ . . il faut faire une analyse un peu plus poussée. On peut alors approcher les 25 . Si la matrice est pleine.22) que u − u ∞ ≤ h2 /96 u(4) ∞ . (1. M et j = 1.  ≤C avec b =  . ce qui laisse à désirer pour un calcul qu’on espère précis. On rappelle que l’opérateur Laplacien est défini pour u ∈ C 2 (Ω).4.à.

= 0. j = 1.5. . . 1 − 2 si i > 1. on pose k = j + (i − 1)M. . . L3 26 Université Aix-Marseille 1 R. N. .k+1 = h 0 sinon. et = 1. 4 ak. SYSTÈMES LINÉAIRES dérivées secondes par des quotients différentiels comme dans le cas unidimensionnel (voir page 23). Pour k = 1. j = 1. . . .d. . y 31 32 33 34 35 36 25 26 27 28 29 30 19 20 21 22 23 24 13 14 15 16 17 18 7 8 9 10 11 12 i=1 1 2 3 4 5 6 x j=1 F IGURE 1. . . ak. . .N peuvent être calculés de la manière suivante :                             i. Les composantes b1 . N . c. 1 − 2 si i < M. MÉTHODES ITÉRATIVES CHAPITRE 1. 1 < |k − | < N ou |k − | > N. pour obtenir un système linéaire : AU = b où A ∈ MN (IR) et b ∈ IR N avec N = M 2 . Herbin. ak. yj ). . . Analyse numérique I. . 20 août 2010 . .k−M = h 0 sinon. exemple dans le cas M = 6 Les coefficients de A = (ak. . bN sont définies par :pour i.k−1 = h 0 sinon.5 – Ordre lexicographique des inconnues. M. N. bN )t . ∀ k = 1. . . ak.1. . . h 1 − 2 si j = M. Utilisons l’ordre“lexicographique" pour numéroter les inconnues.à.                          Pour   ak. . . )k. . de bas en haut et de gauche à droite : les inconnues sont alors numérotées de 1 à N = M 2 et le second membre s’écrit b = (b1 .k = 2. Télé-enseignement. .l=1. ak. 1 − 2 si j = 1. M .k+M = h 0 sinon. . . on pose k = j + (i − 1)M et bk = f (xi . .

Dans l’exemple précédent. . .. 0 . mais qui donnent une solution approchée à coût moindre qu’une méthode directe.. la méthode du gradient conjugué n’est pas si miraculeuse que cela en pratique : en effet.. . on a : . (Notons que pour une matrice pleine on a besoin de M 4 .27) Analyse numérique I. . A= . .. on cherche à utiliser des méthodes nécessitant le moins de mémoire possible.  0 . On a intérêt dans ce cas à utiliser des méthodes itératives. on aura donc besoin d’une place mémoire de N × M = M 3 ... 1.les blocs diagonaux (qui sont des matrices de dimension M  D −Id 0  −Id D −Id   0 −Id D  . . si on utilise la méthode du gradient conjugué brutalement. il est souvent avantageux d’utiliser des méthodes itératives qui ne donnent pas toujours la solution exacte du système en un nombre fini d’itérations.) En fait.  −1 4 −1 0 . la recherche de x minimisant f dans IR N est équivalent à la résolution du système Ax = b. L3 Université Aix-Marseille 1 R.  .. Or on peut montrer que lorsque A est symétrique définie positive.  .  0 .. Télé-enseignement.  .. 0 . le nombre N est en général très grand et on ne peut en géneral pas envisager d’effectuer un tel nombre d’itérations pour résoudre le système..  où Id désigne la matrice identité d’ordre M . . Herbin. 27 .    −1  4 0 0 0 . . Ces méthodes ne font appel qu’à des produits matrice vecteur. ...21 (Sur la méthode du gradient conjugué) Il existe une méthode itérative “miraculeuse" de résolution des systèmes linéaires lorsque la matrice A est symétrique définie positive : c’est la méthode du gradient conjugué. . . . Remarque 1..5. on a 5 diagonales non nulles. .. qui est elle aussi obtenue comme méthode de minimisation de la fonction f ci-dessus.  0 . On peut remarquer que la matrice A a une “largeur de bande" de M . 20 août 2010 .5. .     .2. Ainsi pour les gros systèmes. fait l’objet des exercices 29 page 46 et 68 page 153. 0 −1 . et ne nécessitent donc pas le stockage du profil de la matrice mais uniquement des termes non nuls. .) Lorsqu’on a affaire à de très gros systèmes issus par exemple de l’ingénierie (calcul des structures. non seulement elle ne donne pas la solution en N itérations en raison de l’accumulation des erreurs d’arrondi.. Nous reviendrons sur ce point au chapitre 3. ··· . (Voir paragraphe 3.  .. . . mécanique des fluides. MÉTHODES ITÉRATIVES La matrice est donc tridiagonale par blocs. . . .  × M ). . .  .      . . car elles ne font appel qu’à des produits matrice vecteur. 0 −Id .    −Id D −Id  0 −Id D (1.   . plus précisément si on note  4 −1 0 . .. De plus. SYSTÈMES LINÉAIRES 0 0 . CHAPITRE 1.2 page 128. La méthode itérative du gradient à pas fixe. . )... . . mais plus la taille du système croît et plus le nombre d’itérations nécessaires devient élevé. Elle est miraculeuse en ce sens qu’elle donne la solution exacte du système Ax = b en un nombre fini d’opérations (en ce sens c’est une méthode directe) : moins de N itérations où N est l’ordre de la matrice A. Si on utilise une méthode directe genre Choleski.  D= .  . où N peut être de l’ordre de plusieurs milliers. donc la place mémoire nécessaire pour un produit matrice vecteur est 5N = 5M 2 .. bien qu’elle ne nécessite que des produits matrice vecteur ou des produits scalaires. La méthode du gradient conjugué est en fait une méthode d’optimisation pour la recherche 1 du minimum dans IR N de la fonction de IR N dans IR définie par : f (x) = 2 Ax · x − b · x.. On a alors recours aux techniques de “préconditionnement". .. . .

on a : x(k) −→ x quand n → +∞ Puisqu’il s’agit de résoudre un sytème linéaire. Théorème 1. il est naturel d’essayer de construire la suite des itérés sous la forme x(k+1) = Bx(k) + c.1) c’est–à–dire à trouver x ∈ IR N tel que Ax = b. L3 B = −αA + Id c = αb xn+1 = xn + α(b − Axn ).1) une méthode itérative où la suite des itérés (x(k) )k∈IN est donnée par : Initialisation x(0) ∈ IR N Itération n x(k+1) = Bx(k) + c. (1. sauf si (Id − B)A−1 = αId. et on verra par la suite un choix plus restrictif qu’on appellera Méthode II. ∀k ∈ IN.1)). grâce à (1. En effet Analyse numérique I. où B ∈ MN (IR) et c ∈ IR N .1) une méthode qui construit une suite (x(k) )k∈IN (où “l’itéré" x(k) est calculé à partir des itérés x(0) .1. on a donc x(k+1) − x = B(x(k) − x) et par récurrence sur k.22 On appelle méthode itérative de résolution du système linéaire (1. x(k−1) ) censée converger vers x solution de (1.28). On en déduit par le lemme 1. On considère la méthode I avec B ∈ MN (IR) et c = (Id − B)A−1 b. avec α ∈ IR.5. On appellera ce type de méthode Méthode I. ceci entraîne c = (Id − B)A−1 b. 20 août 2010 .1) . x = Bx + c. En passant à la limite lorsque n tend vers l’infini sur l’itération n de l’algorithme.1. .5.1. Remarque 1. Définition 1. supposons que la méthode converge. Définition 1. Soit x la solution du système linéaire (1. .2 Définition et propriétés Soit A ∈ MN (IR) une matrice inversible et b ∈ IR N . MÉTHODES ITÉRATIVES CHAPITRE 1. où B ∈ MN (IR) et c ∈ IR N seront choisis de manière à ce que la méthode itérative ainsi définie soit convergente. on cherche toujours ici à résoudre le système linéaire (1.26 (Intérêt pratique) La “méthode I” est assez peu intéressante en pratique. et comme x(k+1) = Bx(k) + c.24 (Méthode I) On appelle méthode itérative de type I pour la résolution du système linéaire (1.1.23 On dit qu’une méthode itérative est convergente si pour tout choix initial x(0) ∈ IR N .27 (Convergence de la méthode de type I) Soit A ∈ MN (IR) A inversible. On obtient dans ce cas : et c’est–à–dire Le terme b − Axn est appelé résidu et la méthode s’appelle dans ce cas la méthode d’extrapolation de Richardson. Herbin. b ∈ IR N .5.25 (Condition nécessaire de convergence) Une condition nécessaire pour que la méthode I converge est que c = (Id − B)A−1 b.5 que la méthode converge si et seulement si ρ(B) < 1.5. Définition 1. car il faut calculer A−1 b. SYSTÈMES LINÉAIRES 1.28) Alors la méthode I converge si et seulement si le rayon spectral ρ(B) de la matrice B vérifie ρ(B) < 1. Démonstration Soit B ∈ MN (IR). Télé-enseignement. (1. En effet. Remarque 1. on obtient x = Bx + c et comme x = A−1 b. x(k) − x = B k (x(0) − x).1.5.1.29) 28 Université Aix-Marseille 1 R. .

5. L3 29 Université Aix-Marseille 1 R. Donc x(k) −→ x = A−1 b.7 : il existe une norme induite ˜ ˜ ˜ ˜ · telle que M −1 N ≤ ρ(M −1 N ) + ε < 1. Pour trouver des méthodes itératives de résolution du système (1. b ∈ IR N . ˜ ˜ ˜ avec B = M −1 N et c = M −1 b.1. La méthode itérative définie par (1. on cherche donc une décomposition de la ˜ ˜ ˜ ˜ matrice A de la forme : A = M − N .à. ˜ ˜ Définition 1. méthode II) Soit A ∈ MN (IR) une matrice symétrique ˜ ˜ ˜ ˜ ˜ ˜ ˜ définie positive. En effet.d. et soient M et N ∈ MN (IR) telles que A = M − N et M est inversible. il suffit de réécrire la méthode II avec le formalisme de la méthode I. (⇐) Supposons maintenant que ρ(B) < 1 alors l’égalité (1. ˜ ˜ ˜ ˜ ˜ M x(k+1) = Nx(k) + b ⇐⇒ x(k+1) = M −1 N x(k) + M −1 b = Bx(k) + c.29) devient : x(k) − x = B k y −→ 0 par hypothèse k→+∞ et donc la méthode n’est pas convergente. ˜ − N )y = b et donc Ay = b. alors en vertu du lemme 1. si la méthode de type II converge.29) donne x(k) − x = B k (x(0) − x) k→+∞ k→+∞ → 0 car ρ(B) < 1. La méthode définie par (1. ˜ ˜ des matrices telles que A = M On appelle méthode de type II pour la résolution du système linéaire (1.30) converge si et seulement si ρ(M −1 N ) < 1.1. (M vers la solution du système linéaire. où M est inversible. 2. ˜ est symétrique définie positive alors ρ(M Analyse numérique I.1) une méthode itérative où la suite des itérés (x(k) )k∈IN est donnée par : Initialisation x(0) ∈ IR N ˜ ˜ Itération n M x(k+1) = Nx(k) + b. et donc il existe η > 0 tel que ρ(M −1 N ) = η 1 − η.30) converge si et seulement si il existe une norme induite notée · ˜ ˜ telle que M −1 N < 1. (1. Démonstration 1.29 Si M x(k+1) = N x(k) + b pour tout k ∈ IN et x(k) −→ y quand n −→ +∞ alors M y = N y + b.5.1. ρ(M −1 N ) < 1 et donc la méthode converge ce qui précède.5. si la méthode converge alors ρ(M −1 N ) < 1. Pour démontrer le point 1. SYSTÈMES LINÉAIRES (⇒) Supposons que ρ(B) ≥ 1 et montrons que la méthode I ne converge pas. Alors : ˜ ˜ 1. l’égalité (1. Si la matrice M t + N ˜ −1 N ) < 1.30 (Convergence de la méthode II) Soit A ∈ MN (IR) une matrice inversible. Télé-enseignement. ˜ ˜ ˜ ˜ Réciproquement. ce qui démontre le résultat. icicicicicici ˜ ˜ ˜ ˜ 2.30) ˜ ˜ ˜ ˜ Remarque 1. et donc la méthode II converge. Soient M et N ∈ MN (IR) ˜ − N et M est inversible (et facile à inverser).5. La méthode est bien convergente. alors elle converge bien ˜ c. Soient M ˜ ˜ ˜ ˜ et N ∈ MN (IR) des matrices telles que A = M − N et M est inversible. 20 août 2010 . ˜ Théorème 1. varepsilon Prenons maintenant ε = 2 et appliquons la proposition 1. résoudre (par exemple M Théorème 1. Si il existe une norme induite notée · telle que M −1 N < 1. Si ρ(B) ≥ 1 il existe y ∈ IR N tel que B k y −→ 0.5. telle que le système M y = d soit un système facile à ˜ soit triangulaire).5. k→+∞ En choisissant x(0) = x + y = A−1 b + y.28 (Méthode II) Soit A ∈ MN (IR) une matrice inversible.31 (Condition suffisante de convergence.5. Herbin. .1). b ∈ IR N . En conclusion. MÉTHODES ITÉRATIVES CHAPITRE 1.

. on a : M −1 Nx 2 = AM −1 N x · M −1 N x. MÉTHODES ITÉRATIVES CHAPITRE 1.5. 2 ∗ 2 ∗ −1 2 ∗ = A(x − y) · (x − y) = Ax · x − 2Ax · y + Ay · y = x 2 ∗ − 2Ax · y + Ay · y. x = 0. et S 2 matrices Ai.31) √ On définit la norme · ∗ par x ∗ = Ax · x. comme M y = Ax. En écrivant : M y · y = y · M t y = ˜ ˜ ˜ ˜ ˜ M t y · y. il suffit donc de montrer que −2Ax · y + Ay · y < 0. Exprimons M −1 N x 2 à l’aide de y. on a : −2Ax · y + Ay · y = −2My · y + Ay · y. 1. .24 page 28) convergente.nj (IR) (ensemble des matrices rectangulaires à ni lignes et nj colonnes.5. Or N = M − A.5. On va montrer que la propriété (1.32 Soit A ∈ MN (IR) une matrice inversible. ce qui termine la démonstration. et on se sert de cette structure lors de la résolution par une méthode itérative. Soit y = M −1 Ax .1. Estimation de la vitesse de convergence On montre dans l’exercice 43 page 52 que si la suite (x(k) )k∈IN ⊂ IR est donnée par une “méthode I" (voir définition 1. Soit x ∈ IR N .1). notée · ∗ telle que ˜ ˜ ˜ ˜ M −1 N ∗ = max{ M −1N x ∗ . Comme M t + N est symétrique définie positive par hypothèse et que y = 0. et comme A = M − N on obtient ˜ ˜ ˜ ˜ −2Ax · y + Ay · y = −(M t + N )y · y. remarquons que y = 0 car x = 0 ˜ ∗ ˜ ˜ ˜ donc : M ˜ ˜ ˜ et M −1 A est inversible. x(k+1) = Bx(k) + C (avec ρ(B) < 1).S tels que i=1 ni = N . x = 0. i. on obtient donc que : −2Ax · y + Ay · y = (−M − M t + A)y · y. et si · est une norme induite sur MN (IR) par une norme sur IR N .3 Méthodes de Jacobi. . . L3 30 Université Aix-Marseille 1 R. et ∗ ˜ −1 N x 2 = A(Id − M −1 A)x · (Id − M −1 A)x. les matrices des systèmes linéaires à résoudre ont une structure “par blocs".j ∈ Mni . On va donc chercher une norme sur IR N . SYSTÈMES LINÉAIRES Démonstration On rappelle (voir exercice (5) page 37) que si B ∈ MN (IR). telles que les matrices Ai.e.. ∗ ˜ ˜ M −1 N x −1 ˜ ˜ ˜ ˜ Pour que M N x < x (et par suite ρ(M N ) < 1).. Herbin. Le rayon x(k) − x spectral ρ(B) de la matrice B est donc une bonne estimation de la vitesse de convergence. induite par le produit scalaire (x|y)A = Ax·y. Pour estimer cette vitesse de convergence lorsqu’on ne connaît pas x. Une décomposition par blocs de A est définie par un S entier S ≤ N . ˜ ˜ ˜ ˜ Or. on en déduit que −2Ax · y + Ay · y < 0. alors x(k+1) − x −→ ρ(B) quand k → +∞ (sauf cas particuliers) indépendamment de la norme sur IR N .. Définition 1.31) ˜ ˜ ˜ ˜ ˜ ˜ ˜ ˜ est vérifiée par cette norme. (1. x(k) − x(k−1) ce qui permet d’évaluer la vitesse de convergence de la méthode par le calcul des itérés courants. ∀x ∈ IR N . et si on suppose que x est la solution du système (1. ∗ la norme induite sur MN (IR)) ou encore : ˜ ˜ M −1 N x ∗ < x ∗ . Gauss-Seidel et SOR/SSOR Décomposition par blocs de A : Dans de nombreux cas pratiques. on a toujours ρ(B) ≤ B . (où on désigne encore par . Télé-enseignement. 20 août 2010 . . S et Analyse numérique I. des entiers (ni )i=1.5.1.. · ∗ est bien une norme sur IR N . on peut utiliser le fait (voir encore l’exercice 43 page 52) qu’on a aussi x(k+1) − x(k) −→ ρ(B) lorsque n → +∞. x ∈ IR N . Comme A est symétrique définie positive.i soient inversibles pour i = 1. et que x(k) → x quand k → ∞. pour tout x ∈ IR N . x ∗ = 1} < 1.

5. ..  . Télé-enseignement. SYSTÈMES LINÉAIRES A1..  . . .j = 0 si j > i. alors S 2. ...    .i est nécessairement symétrique définie positive donc inversible. .. . . . 2 Analyse numérique I. 20 août 2010 . . . . (Potsdam. 0 .. j) ∈ {1.. 4. .    . Jacobi écrit : ï¿ 1 M.. . .   . .d. . . Il fait une dépression... . . et que sous ce titre. 2 mais un philosophe comme lui aurait dû savoir que le but unique de la science.. . de la forme (1.1 y · y = Ax · x > 0 donc A1. Par contre si A est décomposée en 2 × 2 blocs carrés (i.. CHAPITRE 1. . Méthode de Jacobi ˜ On peut remarquer que le choix le plus simple pour le système M x = d soit facile à résoudre (on rappelle que c’est ˜ un objectif de la mise sous forme méthode de type II) est de prendre pour M une matrice diagonale.e.. .S .1 A1. .2 .. une question de nombres vaut autant qu’une question du système du monde.5.. det(A) = i=1 det(Ai. Prenons par exemple i = 1 . ..2 )det(A2. il déménage à Berlin où il sera pensionnaire royal jusqu’à sa mort. Carl Gustav Jakob Jacobi. . et voyage en Italie en 1843. et renvoie à un débat toujours d’actualité.  .1 . . 3. y = 0 et x = (y. il devient professeur de mathématique à l’Université de Kï¿ 1 nigsberg.. .  . Si A est symétrique définie positive... . 0  0 . 0 . 0 AS. . . . .S−1 1. c’est l’honneur de l’esprit humain..2 ) − det(A1. . . et ce jusqu’en 1842.32) avec Ai. ï¿ 1 L’expression est restée. A=     . . L3 31 Université Aix-Marseille 1 R.i ).32) Remarque 1. .. . . .1   ..1 est symétrique définie positive. .. . où il obtient son doctorat en 1825. Sa thèse est une discussion analytique de la théorie des fractions.   . soit y ∈ IR n1 .S             (1.à. . . . Fourier avait l’opinion que le but principal des mathématiques était l’utilité publique et l’explication des phénomènes naturels . La méthode ˜ de Jacobi 4 consiste à prendre pour M la matrice diagonale D formée par les blocs diagonaux de A :   A1.. Herbin..1 ). .1 0 . il étudie à l’Université de Berlin. la condition Ai. . . .i inversible dans la définition 1. 2 à son retour. tels que ni = mj ..S AS. chaque bloc est constitué d’un seul coefficient. .33   A2. AS. . . . Si S = N et ni = 1 ∀i ∈ {1.. AS−1. ∀(i.32 est inutile car Ai.  . 1851). . MÉTHODES ITÉRATIVES  A1.Berlin. . . Si A est une matrice triangulaire par blocs. .  D=  . 1804 . Issu d’une famille juive.   0 .. .1 )det(A2. 2}). .. . mathématicien allemand. 0)t ∈ IR N . c.5.  . S}. Alors A1..1. . En 1829. . Dans une lettre du 2 juillet 1830 adressée à Legendre. on a en général : det(A) = det(A1. à peine âgé de 21 ans. . .S Dans la matrice ci-dessus.. AS.. 0 désigne un bloc nul.  . .

. . .à.S . . . Allemagne 1821 ? Munich.. .34) Ai.. .1).5.   . . on a B = D−1 (E + F ) ... solution recherchée de (1. S}... −AS−1. dans le (k+1) (k+1) (k+1) (k) (k) calcul de x3 ...   . on notera J cette matrice.1 . chaque bloc est constitué d’un seul coefficient. SYSTÈMES LINÉAIRES ˜ On a alors N = E + F . .. .. N. . .     . .. . . on peut aussi écrire la méthode de Jacobi sous la forme :   x0 ∈ IR N (k) (k+1) (k) (1.  . 13 August 1896) mathématicien allemand dont il est dit qu’il a 2 découvert en 1847 le concept crucial de la convergence uniforme en étudiant une démonstration incorrecte de Cauchy.. 0 −A1. où E et F sont constitués des blocs triangulaires inférieurs et supérieurs de la matrice A :   0 0 . . (k) (k+1) Cette idée nous suggère de remplacer dans (1..j xj − Ai.j xj −  ai.. E et F définies comme ci-dessus. . .. . =−  Ai. Télé-enseignement. .5. Philipp Ludwig von Seidel (Zweibrï¿ 1 cken. On obtient donc l’algorithme suivant : 5. pour calculer la deuxième composante x2 du vecteur x(k+1) . . 0      F =       0 0 .i xi j<i j>i Lorsqu’on écrit la méthode de Jacobi comme une méthode I.. L3 32 Université Aix-Marseille 1 R..35) ai.5. . . c.d. .S−1 . . . Analyse numérique I.. . . 0 . . Herbin. . 0  −AS.j xj + bi i = 1. qui s’écrit donc :   x0 ∈ IR N (k) (k) (k+1) (1. . on pourrait employer les “nouvelles" valeurs x1 et x2 plutôt que les valeurs x1 et x2 . .. .  . xS ]t . .. . (1. . . de même.. . . . . En introduisant la décomposition par blocs de x.33) Méthode de Gauss-Seidel Si S = N et ni = 1 ∀i ∈ {1. . S. MÉTHODES ITÉRATIVES CHAPITRE 1...34) xj par xj si j < i.j xj + bi i = 1. . .1. . .. on pourrait employer la (k+1) (k) “nouvelle" valeur x1 qu’on vient de calculer plutôt que la valeur x1 comme dans (1.. . .     . . .et 1. −A1. . .   .34) .   E= . Par exemple.5. et on obtient la méthode de Jacobi par points (aussi appelée méthode de Jacobi). .. . . . 20 août 2010 . .      .i xi j<i j>i L’idée de la méthode de Gauss-Seidel 5 est d’utiliser le calcul des composantes de l’itéré (k + 1) dès qu’il est (k+1) effectué.. .2 . 0 ˜ ˜ On a bien A = M − N et avec D.   −A2. =− ai. ... . . .5. . . . .S 0       ..1 . . . . . : x = [x1 . .. . où xi ∈ IR ni .5. −AS.. .. la méthode de Jacobi s’écrit : x(0) ∈ IR N Dx(k+1) = (E + F )x(k) + b.. .

39)) :  (0) N  x ∈ IR       (k) (k+1) (k+1) Ai. . MÉTHODES ITÉRATIVES x(0) ∈ IR N (k+1) Ai. SYSTÈMES LINÉAIRES (1.j xj + bi Ai.j xj − Ai. dite matrice de Gauss-Seidel.5. . (D − ωE)x(k+1) = ωF x(k) + ωb + (1 − ω)Dx(k) . on a B = (D − E)−1 F . (1. On se donne 0 < ω < 2. L’algorithme SOR s’écrit donc comme une méthode II avec D ˜ ˜ M= − E et N = F + ω ˜ ˜ Il est facile de vérifier que A = M − N . (Pour ω = 1 on retrouve la méthode de Gauss–Seidel.40) On obtient donc 1−ω ω D.38) Lorsqu’on écrit la méthode de Gauss–Seidel comme une méthode I. L3 (1. D −E ω −1 (F + 1−ω ω D). N.5. 20 août 2010 . i = 1.i xi =− CHAPITRE 1. i = 1.i xi .5. Méthodes SOR et SSOR L’idée de la méthode de sur-relaxation (SOR = Successive Over Relaxation) est d’utiliser la méthode de GaussSeidel pour calculer un itéré intermédiaire x(k+1) qu’on “relaxe" ensuite pour améliorer la vitesse de convergence ˜ de la méthode. .j xj − i<j ai.5. 33 Université Aix-Marseille 1 R.i la ligne 3 de l’algorithme (1.39)  j<i i<j  (k+1)  (k+1) (k) xi = ω xi ˜ + (1 − ω)xi .i xi =− x(0) ∈ IR N (k+1) ai. . . . .37) ˜ ˜ La méthode de Gauss–Seidel s’écrit donc sous forme de méthode II avec M = D − E et N = F : x0 ∈ IR N (D − E)x(k+1) = F x(k) + b.) L’algorithme ci-dessus peut aussi s’écrire (en multipliant par Ai. . (1.5. L’algorithme SOR s’écrit aussi comme une méthode I avec B= On notera Lω cette matrice. . S. Télé-enseignement.36) j<i Ai.j xj + bi    j>i j<i    (k) +(1 − ω)Ai. on notera L1 cette matrice. i = 1. . .i xi = ω − Ai. Notons que l’algorithme de Gauss–Seidel par points (cas ou S = N et ni = 1) s’écrit donc : (k+1) (k) j<i ai.j xj + bi .j xj (k+1) − i<j Ai.5. .5. . Herbin.j xj (k) + bi .j xj − Ai.1. S. Analyse numérique I. et on modifie l’algorithme de Gauss–Seidel de la manière suivante :  N  x0 ∈ IR   (k) (k+1) (k+1) Ai.i xi ˜ =− (1.

Convergence On rappelle qu’une méthode itérative de type I. Les méthodes sont–elles convergentes ? 2. alors : ρ(Lω ) < 1 si et seulement si 0 < ω < 2.. faute de mieux. −F ) la matrice constituée par les blocs triangulaires inférieurs (resp. Si ρ(Lω ) < 1 alors 0 < ω < 2. supérieurs) .e. la méthode de Gauss–Seidel converge. Peut-on estimer le coefficient de relaxation ω optimal dans la méthode SOR. 2. c. MÉTHODES ITÉRATIVES CHAPITRE 1. ˜ ˜ ˜ Lω = M −1 N. L3 34 Université Aix-Marseille 1 R.35 (Sur la convergence de la méthode SOR) Soit A ∈ MN (IR) qui admet une décomposition par blocs définie dans la définition 1.5.. Théorème 1. partielles dans certains cas.à. en effectuant les calculs SOR sur les blocs dans l’ordre 1 à N puis dans l’ordre N à 1.. avec M = 1−ω 1 ˜ D − E et N = F + D.1 calcul dans l’ordre 1. soient D la matrice constituée par les blocs diagonaux..27 page 28). Par définition.34 (Méthode de Jacobi relaxée) On peut aussi appliquer une procédure de relaxation avec comme méthode iérative “de base” la méthode de Jacobi. SYSTÈMES LINÉAIRES Remarque 1. si A est une matrice symétrique définie positive. Démonstration du théorème 1. voir à ce sujet l’exercice 36 page 48). à ces questions.32 page 31 . Si on suppose de plus que A symétrique définie positive.5. ω Analyse numérique I. Peut-on estimer leur vitesse de convergence ? 3.à. on a donc : A = D − E − F . c. Télé-enseignement. Herbin. ω calcul dans l’ordre S. En “symétrisant" le procédé de la méthode SOR. on obtient la méthode de sur-relaxation symétrisée (SSOR = Symmetric Successive Over Relaxation) qui s’écrit dans le formalisme de la méthode I avec B= D −F ω −1 E+ 1−ω D ω D −E ω −1 F+ 1−ω D . écrite sous la forme x(n+1) = Bx(n) + C converge si et seulement si ρ(B) < 1 (voir le théorème 1.d. celui qui donnera la plus grande vitesse de convergence ? On va maintenant donner des réponses. 20 août 2010 . Cette méthode est toutefois beaucoup moins employée en pratique (car moins efficace) que la méthode SOR.35 : 1. i. ω = 0. ω ω D −E ω −1 F+ 1−ω D . Soit Lω la matrice d’itération de la méthode SOR (et de la méthode de Gauss–Seidel pour ω = 1) définie par : Lω = Alors : 1.d. . −E (resp. Calculons det(Lω ). En particulier.S Etude théorique de convergence On aimerait pouvoir répondre aux questions suivantes : 1.1.

On sait le faire dans le cas assez restrictif des matrices tridiagonales par blocs. c. alors : 1. On ne fait ici qu’énoncer le résultat dont la démonstration est donnée dans le livre de Ph.35) que si A est une matrice symétrique définie positive. . Par contre. SYSTÈMES LINÉAIRES ˜ ˜ ˜ ˜ Donc det(Lω ) = (det(M ))−1 det(N ). s’exprime en fonction du rayon spectral ρ(J) de la matrice J par la formule : ω0 = et on a : ρ(Lω0 ) = ω0 − 1. On a aussi un résultat de convergence de la méthode de Jacobi pour les matrices à diagonale dominante stricte. même dans le cas où A est symétrique définie positive. la méthode de Gauss–Seidel converge. c. et un résultat de comparaison des méthodes pour les matrices tridiagonales par blocs. Dans la pratique. dont les valeurs absolues sont toutes.5. matrice tridiagonale) On considère une matrice A ∈ MN (IR) qui admet une décomposition par blocs définie dans la définition 1.à. Analyse numérique I. puisqu’il ne concerne que les matrices symétriques définies positives et que les méthodes Gauss-Seidel et SOR. on suppose que la matrice A est tridiagonale par blocs. Théorème 1.1.37 (Coefficient optimal. Remarquons que le résultat de convergence des méthodes itératives donné par le théorème précédent n’est que partiel. il suffit pour cela de montrer que M t + N est une matrice symétrique définie positive. 2[}. le coefficient ω0 ∈]0. Or.37 donné ci-après.36 (Comparaison Gauss–Seidel/Jacobi) On a vu (théorème 1. 2[ (condition nécessaire pour que la méthode SOR converge. On a donc : ( 1−ω )N det(D) = (1 − ω)N .d. le paramètre ω0 tel que ρ(Lω0 ) = min{ρ(Lω ).5. voir le théorème 1. Mt + N = ω ω ω ˜ ˜ La matrice M t + N est donc bien symétrique définie positive. On suppose de plus que toutes les valeurs propres de la matrice d’itération J de la méthode de Jacobi sont réelles.32 page 31 . 2. voir à ce sujet l’exercice 30 page 46. . ρ(L1 ) = (ρ(J))2 : la méthode de Gauss–Seidel converge (ou diverge) donc plus vite que celle de Jacobi. il faudra souvent compter sur sa bonne étoile. voir théorème 1. leurs déterminants sont les produits des déterminants des blocs diagonaux (voir la remarque 1. Télé-enseignement. 35 Université Aix-Marseille 1 R. 2[. il existe des cas où la méthode de Jacobi ne converge pas.35) tel que ρ(Lω0 ) < ρ(Lω ) ∀ω ∈]0.33 page 31). d’où le résultat. c. Estimation du coefficient de relaxation optimal de SOR La question est ici d’estimer le coefficient de relaxation ω optimal dans la méthode SOR. Herbin. Comme M et N sont des matrices triangulaires par blocs. 20 août 2010 .à. Ai. On a donc : |det(Lω )| = |(1 − ω)N | ≤ (ρ(Lω ))N . ω ∈ ]0.j = 0 si |i − j| > 1 . Mt = ω ω 1−ω 2−ω D ˜ ˜ −F +F + D= D. voir exercice 32 page 47.31 page 29. . soient L1 et J les matrices d’itération respectives des méthodes de Gauss-Seidel et Jacobi.d. Ciarlet conseillé en début de cours. MÉTHODES ITÉRATIVES CHAPITRE 1. par définition. Supposons maintenant que A est une matrice symétrique définie positive. L3 2 1+ 1 − ρ(J)2 > 1. D’après le paragraphe précédent ce ω0 donnera la meilleure convergence possible pour SOR. 2. Montrons ˜ ˜ que ρ(Lω ) < 1. alors le paramètre de relaxation optimal. Par le théorème 1.d. t D D ˜ −E = − F. et que 0 < ω < 2. inférieures au rayon spectral.à. det(Lω ) = ω N 1 ( ω ) det(D) Or le déterminant d’une matrice est aussi le produit des valeurs propres de cette matrice (comptées avec leur multiplicités algébriques). Remarque 1.

Theodor (voir introduction). notée aussi · ∞ .. c. Citons également une méthode très employée.à.4 Recherche de valeurs propres et vecteurs propres Les techniques de recherche des éléments propres. montrer que les éléments diagonaux de A sont strictements positifs. et MN (IR) de la norme induite correspondante. lemme 1. Exercice 3 (Normes induites particulières) Suggestions en page 56.6.. Soit A ∈ MN (IR). . Université Aix-Marseille 1 R. B symétrique définie positive t. Exercice 2 (Normes de l’Identité) Soit Id la matrice “Identité" de MN (IR). notée {f1 . B 2 = A (on note B = A 2 ).12 page 8). 20 août 2010 .d.1.5..q.j )i. i.N } ∈ MN (IR). .. Soit A ∈ MN (IR). N }. décrit dans les livres de M.. notée aussi · 2. On pourra se référer aux ouvrages de Ph.j )i. Montrer que · Analyse numérique I. si A ∈ MN (IR) est une matrice symétrique.. par exemple en dynamique des structures : la recherche des modes propres d’une structure peut s’avérer importante pour le dimensionnement de structures sous contraintes dynamiques. On donne dans les exercices qui suivent deux méthodes assez classiques de recherche de valeurs propres d’une matrice qui sont la méthode de la puissance (exercice 43 page 52) et celui de la puissance inverse (exercice 44 page 53). 1. de D.N } ∞ et MN (IR) N j=1 |ai. Montrer qu’on peut définir une unique 1 matrice B ∈ MN (IR). Afi = λi fi .. 1. 36 .j∈{1. Ciarlet et de M. la méthode QR. .. qui est présente dans de nombreuses bibliothèques de programmes. fN }. .j=1 a2 ) 2 . .. corrigé détaillé en page 60. on a montré en cours que.N } Montrer Montrer 3..q.. Lascaux et R. Schatzman.j |. 2. . et fi · fj = δi. des valeurs et vecteurs propres (voir Définition 1. . Soit A = (ai. . . On suppose que A est symétrique définie positive. Montrer que A est symétrique définie positive si et seulement si toutes les valeurs propres de A sont strictement positives. . pour tout i ∈ {1. voir à ce propos l’exemple célèbre du “Tacoma Bridge". . Montrer 1.. corrigé en page 60. Braun (en anglais) et M.4 page 6) d’une matrice sont essentielles dans de nombreux domaines d’application. 1 et MN (IR) N i=1 |ai. SYSTÈMES LINÉAIRES 1. Exercice 4 (Norme non induite) Pour A = (ai. Herbin. On munit IR N de la norme · 1 que A 2 = (ρ(At A)) 2 . . Soit A ∈ MN (IR) une matrice symétrique. j ∈ {1. on pose A 1.N } ∈ MN (IR). 3. Montrer que pour toute norme induite on a Id = 1 et que pour toute norme matricielle on a Id ≥ 1. et il existe λ1 ... On suppose que A est symétrique définie positive. Télé-enseignement.j 1 s est une norme matricielle mais n’est pas une norme induite (pour N > 1). On rappelle que toute matrice A ∈ MN (IR) symétrique est diagonalisable dans IR (cf. . 1.. Serre et de P. il existe une base de IR N . Schatzman (en français) conseillés en début de cours. 2 de la norme induite correspondante. L3 s =( N i. 2. .j∈{1. Plus précisément.j |. .6 Exercices Exercice 1 (Matrices symétriques définies positives) Suggestions en page 56.. On munit IR N de la norme · que A ∞ = maxi∈{1. EXERCICES CHAPITRE 1. notée aussi · de la norme induite correspondante. λN ∈ IR t.j pour tout i. . On munit IR N de la norme · que A 1 = maxj∈{1. N } (x · y désigne le produit scalaire de x avec y dans IR N ).

On munit MN (IR) d’une norme. k < 1 ⇒ ρ(A) < 1. Soit A ∈ MN (IR). B= −1 0 −1 −1 . Montrer que :lim inf k→∞ A k 1 k 1 k 4. EXERCICES 2. SYSTÈMES LINÉAIRES √ N A 2 et que Ax 2 ≤ A s x 2 .5). 1 ≤ 1. que l’ensemble des valeurs propres de AB est égal à l’ensemble des valeurs propres de la matrice BA. Calculer le rayon spectral de chacune des matrices A. 2. Montrer que ρ(A) = limk→∞ A k . Montrer que : ρ(A) < 1 ⇒ lim supk→∞ Ak 3. ( On a ainsi démontré le lemme 1. 3. Montrer par un contre exemple que ceci peut être faux si A n’est pas diagonalisable. Télé-enseignement. On suppose maintenant que n = p. Exercice 6 (Valeurs propres nulles d’un produit de matrices) Soient p et n des entiers naturels non nuls tels que n ≤ p. 1. on pourra distinguer selon que ImA = IR n ou non. Montrer en donnant un exemple que λ peut être une valeur propre nulle de BA sans être valeur propre de AB. Chercher un exemple de norme non matricielle. Montrer que si ρ(A) < 1. On suppose ici que · est une norme matricielle.) 1. corrigé détaillé en page 61.p (IR) désigne l’ensemble des matrices à n lignes et p colonnes. Montrer que si λ = 0 est valeur propre de AB alors λ est valeur propre nulle de BA. . déduire de la question précédente que ρ(A) ≤ A . 2. (Il est conseillé de distinguer les cas Bx = 0 et Bx = 0.p (IR) et B ∈ Mp.6. 20 août 2010 . p = 2. Montrer que la série de terme général Ak converge (vers (Id − A)−1 ) si et seulement si ρ(A) < 1. 1. Montrer que si A est diagonalisable. Herbin. 2. Analyse numérique I. Exercice 8 (Sur le rayon spectral) On définit les matrices carrées d’ordre 2 suivantes : A= 1 1 1 1 . Montrer que λ est valeur propre non nulle de AB si et seulement si λ est valeur propre non nulle de BA. (On rappelle que Mn. L3 37 Université Aix-Marseille 1 R. C = A + B. notée · .) 3. 5. il existe une norme induite sur MN (IR) telle que ρ(A) = A . Montrer que ρ(A) < 1 si et seulement si Ak → 0 quand k → ∞. corrigé détaillé en page 62. déduire des questions 1. Exercice 7 (Rayon spectral) Corrigé en page 62.n (IR). et 2. ni même une semi-norme sur l’espace vectoriel des matrices.1. (Prendre par exemple n = 1. les matrices Id − A et Id + A sont inversibles. Soient A ∈ MN (IR) et · une norme matricielle. Exercice 5 (Rayon spectral) Suggestions en page 56. Pour le deuxième cas. où x est un vecteur propre associé à la λ = 0 valeur propre de AB. 2 ≤ A s ≤ CHAPITRE 1. B et C et en déduire que le rayon spectral ne peut être ni une norme.) 4. et soient A ∈ Mn. Soit A ∈ MN (IR). En déduire que A s pour tout A ∈ MN (IR) et tout x ∈ IR N . Montrer que A 2 = tr(At A). Exercice 9 (Série de Neumann) Suggestions en page 56.

Montrer que toute matrice de MN (IR) symétrique définie positive admet une décomposition LDLt . une norme matricielle quelconque. . Herbin.6. Donner la décomposition LL de B. et en déduire que A ∗ < 1. 0 3 −9 4   2 −1 0 0 −1 2 −1 0  t  2. une norme induite . Exercice 11 (Décomposition LDLt et LLt ) Corrigé en page 63 1. 0 0 −1 2 3. a b c d Appliquer l’algorithme d’élimination de Gauss à A pour obtenir sa décomposition LU . est une norme. Analyse numérique I. Soit x ∈ IR N tel que x ∗ = 1. Donner la décomposition LU de A. Exercice 14 (Sur la méthode LLt ) Corrigé détaillé en page 65. b. Ecrire l’algorithme de décomposition LDLt . 1 0 Calculer la décomposition LDLt de A. Calculer Ax ∗ en fonction de x . 3. Existe-t-il une décomposition LLt de A ? 2. Soit A =  −2 2 −2 3. Construire à partir de la norme . ∗ 1. On ne suppose plus que ρ(A) < 1. Pour x ∈ IR N . L3 38 Université Aix-Marseille 1 R. Soit B =   0 −1 2 −1. Soit ε > 0 donné. ∗∗ telle que A ∗∗ ≤ ρ(A) + ε. 20 août 2010 . c et d des nombres réels. SYSTÈMES LINÉAIRES Soit . et soit A ∈ MN (IR) telle que ρ(A) < 1 (on rappelle qu’on note ρ(A) le rayon spectral de la matrice A). 3. Que deviennent les coefficients nuls dans la décomposition LLt ci-dessus ? Quelle est la propriété vue en cours qui est ainsi vérifiée ? Exercice 13 Soient a. Soit A = 2 1 . b. Montrer que l’application définie de IR N dans IR par x → x 2. La matrice A = 0 1 1 0 admet-elle une décomposition LDLt ? Exercice 12 (Décomposition LU et LLt de matrices 3 × 3)   2 −1 4 0  4 −1 5 1  1. c et d pour que la matrice A soit inversible.1. EXERCICES Exercice 10 (Normes matricielles) CHAPITRE 1. On considère la matrice suivante :   a a a a a b b b   A= a b c c  . on définit x ∗ par : x ∗ = ∞ j=0 Aj x . Donner les conditions sur a. Télé-enseignement.

c · x + αλ = γ.6. . 1.. 1.. . Télé-enseignement. g ∈ IR N +1 . On suppose ici que A est tridiagonale. .e. f ∈ IR N .. b. 0 · · · 0 βN αN     . . 2.j = 0 si i − j > 1). En déduire une estimation du nombre d’opérations nécessaires pour la discrétisation de l’équation −u = f vue page 23. L3 39 Université Aix-Marseille 1 R.   4. Donner un algorithme de calcul des coefficients αi et βi . y ∈ IR N +1 . (1. On cherche à résoudre le système A2 x = b. .  . . On propose deux méthodes de résolution de ce système : 1. Estimer le nombre d’opérations de la factorisation LLt dans ce cas.. . EXERCICES CHAPITRE 1. Exercice 15 (Décomposition LLt d’une matrice tridiagonale symétrique) Soit A ∈ MN (IR) symétrique définie positive et tridiagonale (i. λ ∈ IR) : Ax + bλ = f.41) 1..6. Soient α et γ ∈ IR. 20 août 2010 . effectuer la décomposition LLt de A2 . Herbin.. .    2. c.. Même question pour la discrétisation de l’équation −∆u = f présentée page 25.. 0 L= 0   .1. résoudre les systèmes LLt y = b et LLt x = y.. . . 0  β2 α2 0 . On cherche à résoudre le système suivant (avec x ∈ IR N . Calculer la décomposition LLt de A. corrigé en page 65 Soit A ∈ MN (IR) une matrice symétrique définie positive. symétrique définie positive et pleine. Donner l’expression de M . L’inverse d’une matrice inversible tridiagonale est elle tridiagonale ? Exercice 16 (Choleski pour matrice bande) Suggestions en page 56. .. . Ecrire le système (1. y et g. 2.j .6. Exercice 17 (Un système par blocs) Soit A ∈ MN (IR) une matrice carrée d’ordre N inversible. .41) sous la forme : M y = g. 0   . SYSTÈMES LINÉAIRES Soit A une matrice carrée d’ordre N . . en fonction des coefficients ai. ai. résoudre le système LLt x = b. 3. Même question si A est une matrice bande (c’est-à-dire p diagonales non nulles). où L est de la forme  α1 0 . Calculer le nombre d’opérations élémentaires nécessaires pour chacune des deux méthodes et comparer. Analyse numérique I. Montrer que A admet une décomposition LLt . . 3. et calculer le nombre d’opérations élementaires nécessaires dans ce cas. où M est une matrice carrée d’ordre N + 1. En déduire la décomposition LLt de la matrice :  1 −1  −1 2  A =  0 −1   0 0 0 0  0 0 0 −1 0 0 2 −1 0 −1 2 −1 0 −1 2   . Calculer A2 . .

L3 40 Université Aix-Marseille 1 R. notée aussi inversible A ∈ MN (IR). 2. b. alors B est inversible. 20 août 2010 . c et α. On suppose maintenant que A est symétrique définie positive. Partie I On munit IR N d’une norme. cond2 (B)} Exercice 19 (Minoration du conditionnement) Soit . λ= . Soit A ∈ MN (IR) une matrice inversible. 1. (b) Calculer le coût de la résolution du système M y = g par la méthode LU (en profitant ici encore de la structure creuse de la matrice A). 3. Dans toute la suite. On note σN [resp. Montrer que cond2 (A) = 1 si et seulement si A = αQ où α ∈ IR et Q est une matrice orthogonale (c’est-à-dire Qt = Q−1 ). Télé-enseignement. 3. Partie II On suppose maintenant que IR N est muni de la norme euclidienne usuelle · = · 2 et MN (IR) de la norme induite (notée aussi · 2 . 3. . γ−c·h γ−c·h (b) x = h − z. 2. Montrer que si A − B < 1 A−1 . Montrer que cond(AB) ≤ cond(A)cond(B). Soit A ∈ MN (IR) une matrice inversible. Montrer que cond(αA) = cond(A) pour tout α ∈ IR . 4.6. Soit A. Analyse numérique I.6. le terme d’ordre supérieur est 2N q 2 .1. A A−B 2. Montrer que cond2 (A) = cond2 (R). B ∈ MN (IR) deux matrices symétriques définies positives. On propose la méthode suivante pour la résolution du système (1. Donner une relation entre A. Pour une matrice Montrer que x ∈ IR N et λ ∈ IR ainsi calculés sont bien solutions du système (1.41) soit inversible. Montrer que cond(A) ≥ 1. On note alors cond2 (A) conditionnement d’une matrice A inversible. · . λ1 ] est la plus grande [resp. dont la largeur de bande est p. On suppose que A = QR où Q est une matrice orthogonale. B ∈ MN (IR) deux matrices inversibles. on note cond(A) = A A−1 . et les coûts sont donc comparables. une norme induite sur MN (IR) et soit A ∈ MN (IR) telle que det (A) = 0. (c) Comparer et conclure. 1. Herbin. Montrer que cond2 (A+B) ≤ max{cond2 (A). Soit A.41). on supposera que cette relation est vérifiée. (a) Calculer le coût de la méthode de résolution proposée ci-dessus en utilisant la méthode LU pour la résolution des systèmes linéaires. et MN (IR) de la norme induite. SYSTÈMES LINÉAIRES 2. 5. Montrer que cond2 (A) = σN /σ1 . EXERCICES CHAPITRE 1.6. Soit A ∈ MN (IR) une matrice inversible. Dans les deux cas. montrer que cond2 (A) = λN /λ1 où λN [resp. qui soit une condition nécessaire et suffisante pour que le système (1. Montrer que cond (A) ≥ supB∈MN (IR) detB=0 Exercice 20 (Minoration du conditionnement) Corrigé détaillé en page 68. Exercice 18 (Propriétés générales du conditionnement) Corrigé détaillé en page 67. 1. notée · .6. α−c·z α−c·z 4. petite] valeur propre de A. σ1 ] la plus grande [resp.41) : (a) Soient z solution de Az = b. petite] valeur propre de At A (noter que At A est une matrice symétrique définie positive). Soit A ∈ MN (IR) une matrice inversible. et h solution de Ah = f . On suppose dans cette question que A est une matrice bande.

SYSTÈMES LINÉAIRES On note · une norme matricielle sur MN (IR). On suppose que cond2 (A2 ) = (cond2 A)2 . L3 Université Aix-Marseille 1 R. 1. [On pourra chercher δA de la forme y xt δA = − t . e2 ≤ εcond(A) . e3 ≤ εcond(A) et e4 ≤ εcond(A).) Exercice 22 (Calcul de l’inverse d’une matrice et conditionnement) Corrigé détaillé en page 69. On pose :  B −1 − A B − A−1   e1 = . Peut-on conclure que A est symétrique ? (justifier la réponse. 1.42) 2. c’est-à-dire qu’il existe δA ∈ MN (IR) telle que A + δA soit singulière et telle que l’égalité soit vérifiée dans (1.42) pour trouver un minorant.43)    e3 = AB − Id . Montrer que la minoration (1. 3. EXERCICES CHAPITRE 1. Soit A ∈ MN (IR) une matrice carrée inversible. On suppose qu’on a calculé B.6. On note · une norme matricielle sur MN (IR). 1 α α avec y ∈ IR N convenablement choisi et x = A−1 y. 20 août 2010 . On suppose que A symétrique. Analyse numérique I.6.] Exercice 21 (Conditionnement du carré) Soit A ∈ MN (IR) une matrice telle que detA = 0. (b) On suppose ici que B = A−1 + E. alors cond(A) ≥ A . δA (1. Soit α ∈]0. On cherche ici des moyens d’évaluer la précision de calcul de l’inverse de A.6. qui tend vers +∞ lorsque α tend vers 0. cond(A) = A A−1 le conditionnement de A. Soit A ∈ MN (IR) une matrice carrée inversible.6. 1[.42) est optimale. Montrer que si A + δA est singulière. e2 . de cond(A) pour la matrice   1 −1 1 A =  −1 α −α  . x x 3. e2 =  A−1 A (1. On suppose ici que la norme · est la norme induite par la norme infinie sur IR N . e4 = BA − Id (a) Expliquer en quoi les quantités e1 . Herbin. Télé-enseignement.1. e1 ≤ ε.6.42). Montrer que dans ce cas. où E ≤ ε A−1 . 1. approximation (en raison par exemple d’erreurs d’arrondi) de la matrice A−1 .6. Utiliser l’inégalité (1. Quelle relation existe-t-il en général entre cond (A2 ) et (cond A)2 ? 2. et que εcond(A) < 1. On suppose dans cette question que la norme · est la norme induite par la norme euclidienne sur IR N . 1 − εcond(A) 41 . et soit δA ∈ MN (IR). e3 et e4 mesurent la qualité de l’approximation de A−1 . Montrer que cond2 (A2 ) = (cond2 A)2 .

SYSTÈMES LINÉAIRES ≤ ε < 1. alors x ≥ 0. Si x ∈ IR N . Montrer que A est une IP-matrice si et seulement si :    ad < bc. Ax ≥ 0} ⊂ {x ∈ IR N t. Soit N ∈ IN . ∞.. On suppose maintenant que la matrice A n’est connue qu’à une certaine matrice d’erreurs près. 20 août 2010 . δA (A + δA )−1 − A−1 ≤ cond(A) .4. ce qui peut encore s’écrire : {x ∈ IR N t. a < 0. on dit que x ≥ 0 [resp. A-t-on forcément que f est constante sur [0.. d > 0. On pose h = 1/(N + 1). (A + δA )−1 A Exercice 23 (Discrétisation) On considère la discrétisation à pas constant par le schéma aux différences finies symétrique à trois points (vu en cours) du problème (1. x ≥ 0}.q.. EXERCICES (c) On suppose maintenant que AB − Id = E avec E e1 ≤ ε.N la solution du système discrétisé (1. : − h2 (4) u(xi+1 ) + u(xi−1 ) − 2u(xi ) = −u (xi ) + Ri avec |Ri | ≤ u 2 h 12 max |ui − u(xi )| = 0. d < 0 ou a > 0. . c ≥ 0 b ≤ 0. 1. c. Montrer que A est une IP-matrice si et seulement si A est inversible et A−1 ≥ 0 (c’est-à-dire que tous les coefficients de A−1 sont positifs). e2 ≤ CHAPITRE 1. 1]). L3 42 Université Aix-Marseille 1 R. . pour i = 1.q. Soit N fixé. 1] ? (justifier la réponse.23). Herbin. N impair.j=1. xi = ih. 3. Montrer que si u ∈ C 4 ([0. c ≤ 0.. On note u est la solution exacte. 1. (1.à. . Soit A ∈ MN (IR).  ad > bc.21) page 23. Soit A = (ai.6. on dit que A est une IP-matrice si elle vérifie la propriété suivante : Si x ∈ IR N est tel que Ax ≥ 0. Montrer que dans ce cas : ε .22) est vérifiée. qu’on note δA . strictement positives]. Analyse numérique I.j )i. 3. . x > 0] si toutes les composantes de x sont positives [resp. 1−ε 2.... Montrer que si A ∈ MN (IR) est une IP-matrice alors At (la transposée de A) est une IP-matrice..6. alors 1≤i≤N . . 2.1.) 1≤i≤N Exercice 24 (IP-matrice) Corrigé en page 70 Soit N ∈ IN . N les points de discrétisation.44)   b ≥ 0. Télé-enseignement.4.4. Soit A = a c b d une matrice réelle d’ordre 2. 1]. et (ui )i=1.d. e3 ≤ ε et e4 ≤ εcond(A). A−1 (b) Montrer que si la matrice A + δA est inversible. avec f ∈ C([0. alors la propriété (1. Montrer que si f est constante.N ∈ MN (IR). 1 (a) Montrer que la matrice A + δA est inversible si δA < . 2. et max |ui −u(xi )| = 0. on note MN (IR) l’ensemble des matrices de N lignes et N colonnes et à coefficients réels.

i = j.46) alors A est une IP-matrice.q. N. SYSTÈMES LINÉAIRES ai. i = j . . Ax > 0} ⊂ {x ∈ IR N t. Soit A = (ai. qu’une matrice A de MN (IR) peut vérifier {x ∈ IR N t. . N. . x > 0} et ne pas être une IP-matrice. .47)  b ≤ 0. Télé-enseignement.6. Herbin. . On dit que A est une M -matrice si A est une IP-matrice (A est inversible et A−1 ≥ 0. j = 1.i > j=1 j=k |aj.q. c ≤ 0. et g ∈ E tel que T g > 0 et g > 0 (ceci démontre que le raisonnement utilisé en 2 (b) ne marche pas en dimension infinie).q. Soit A = une matrice réelle d’ordre 2. a b 2. toutes les inégalités écrites sur des vecteurs ou des matrices sont à entendre au sens composante par composante.. Montrer que si A ∈ MN (IR) est une IP-matrice et si x ∈ IR N alors : Ax > 0 ⇒ x > 0. Soit A une IP-matrice . Montrer que si A est telle que N CHAPITRE 1. . d > 0. . n. Montrer qu’il existe T ∈ L(E) tel que T f ≥ 0 =⇒ f ≥ 0. 1.6. (1. . Montrer que A est une M-matrice si et seulement si : c d   ad > bc.j ≤ 0. j = 1. .n une matrice carrée d’ordre n. . .q. (1.. . En déduire que si A est telle que ai. L3 Université Aix-Marseille 1 R. c’est-à-dire que {x ∈ IR N t. 6. (1. 5.6. Les matrices A = −1 2 2 −1 et B = 2 −1 −1 2 sont-elles des IP-matrices ? des M-matrices ? 43 . 20 août 2010 . pour tout i.45) alors A est une IP-matrice. . Soit E l’espace des fonctions continues sur IR et admettant la même limite finie en +∞ et −∞. pour tout i..j ≤ 0. Pour f ∈ E.q. a > 0. Montrer que A est une IP-matrice. en donnant un exemple. j = 1. ai. . . . i = j. Soit L(E) l’ensemble des applications linéaires continues de E dans E. N ai.j )i. pour tout i = 1.. pour tout i = 1. on dit que f > 0 (resp.i |. voir exercice 24) qui vérifie de plus (a) ai.q. . N. f (x) ≥ 0) pour tout x ∈ IR. f ≥ 0) si f (x) > 0 (resp. EXERCICES 4. . 7. 9.i > j=1 j=i |ai. 3. N.1. .j=1. . x > 0} Analyse numérique I. .6. . (b) ai. . Exercice 25 (M-matrice) Dans ce qui suit. . Ax > 0} ⊂ {x ∈ IR N t. montrer que A est une M -matrice si et seulement si la propriété (b) est vérifiée. x > 0}. 8. n . Ax > 0} ⊂ {x ∈ IR N t.i > 0 pour i = 1. On suppose dans cette question que A ∈ MN (IR) est inversible et que {x ∈ IR N t.j ≤ 0 pour i. Montrer.j |.

corrigé détaillé en page 71. 1.49) (1. Soit A la matrice définie par (1.6. 1[ et ϕ(0) = ϕ(1) = 0].n bk = bm+2 ≤ b2 ≤ . pour j = 1.6.j = 0 ai. . 1]).n bk .2 Montrer que u est tel que mink=m+1. On considère le système linéaire Au = b 5. .n bk . kLi > m.6.6. . . On considère le problème de Dirichlet suivant : −u = 0 sur [0. ∃(k ) = i.6. . [On pourra commencer par chercher λ ∈ IR et ϕ ∈ C 2 (IR. Montrer que A est symétrique définie positive.6.    ai. Exercice 26 (Valeurs propres du Laplacien discret 1D) Suggestions en page 57. . . 20 août 2010 .1. Herbin. ≤ bn = maxk=m+1. . Télé-enseignement.) Analyse numérique I. n.i +     j=1 j=i (1. L3 44 Université Aix-Marseille 1 R.i = 1. .51) admet une et une seule solution.) 6. j = i. Exercice 27 (Conditionnement. .. . Calculer les valeurs propres et les vecteurs propres de A. Soit N ∈ IN . n.i ≥ 0. p ∈ IN tels que m ≥ 1 et p ≥ 1.   n pour i = 1. 2. 1] u(0) = −1 u(1) = 1. vérifiant :  ai. −ϕ (x) = λϕ(x) pour tout x ∈]0. SYSTÈMES LINÉAIRES Montrer que A−1 ≥ 0 mais que A n’est pas une M –matrice. IR) (ϕ non identiquement nulle) t. m.6.52) (en écrivant les conditions n aux limites dans le système). (1.  ai.j ≤ 0. . . m. . réaction diffusion 1d. .6. . k1 pour i = m + 1. Soit f ∈ C([0. avec m. .48) ai.k +1 (1.2 Soit m > 1 et soient A et b et la matrice et le second membre du système linéaire d’ordre n = m+ 2 obtenu par 1 discrétisation par différences finies avec un pas uniforme h = m du problème (1. 4 3. ai. . 6.4. (On pourra pour simplifier supposer que les équations sont numérotées de telle sorte que mink=m+1.52c) (1. 5. . N impair. Soit A la matrice carrée d’ordre 3 définie par :  1 2 −1 2 1 −1  A= 0 −1 0 1  CHAPITRE 1. n. . .q. .52a) (1.. On pose h = 1/(N + 1).52b) (1.50) Soit b ∈ IR tel que bi = 0 pour i = 1.4.6.1 Calculer la solution exacte u de ce problème et vérifier qu’elle reste comprise entre -1 et 1.n bk ≤ ui ≤ maxk=m+1. Li .. .j = 0. . =1.. . Montrer que la solution U ∈ IR du système AU = b vérifie −1 ≤ ui ≤ 1. .21) page 23. pour j = 1. 6.51) n ∀i ≤ m.24) page 24.Li . EXERCICES 4. Soit A une matrice carrée d’ordre n = m + p.6. j = i. 5. . ∀ = 1. . Calculer cond2 (A) et montrer que h2 cond2 (A) → π2 lorsque h → 0.1 Montrer que le système (1. et ak < 0. issue d’une discrétisation par différences finies (vue en cours) du problème (1.

. ∀i ∈ {1. ... uN les composantes de u.6. . corrigé en page 73. On pose h = 1/(N + 1).N .. . −1 2 −1 0 . on note u · v = i=1 ui vi . . (Valeurs propres de la matrice B. N }. pour tout B ∈ MN (IR). x ∈]0. λk = (kπ)2 et uk (x) = sin(kπx) comme solution. . . B= 0 . u ∈ IR N t.4. .55) Montrer que b ≥ 0 ⇒ u ≥ 0.6. Analyse numérique I. également notée · . Id désigne la matrice identité et  2 −1 0 . .4.54) admet la famille (λk . . u(0) = u(1) = 0.53) Soit N ∈ IN .] En déduire que A est inversible. . Exercice 28 (Conditionnement “efficace". Uk = u k ( N j ) +1 (1.24) page 24. . Partie I Conditionnement de la matrice et borne sur l’erreur relative 1.) On rappelle que le problème aux valeurs propres où la matrice A ∈ MN (IR) est définie par          −u (x) = λu(x). .. . . . 1[. . j=1. i ∈ {1. u = max{|ui |. j ∈ {0.. .. SYSTÈMES LINÉAIRES On s’intéresse au conditionnement pour la norme euclidienne de la matrice issue d’une discrétisation par Différences Finies du problème aux limites suivant : −u (x) + u(x) = f (x).   . − ui+1 ) = bi .. L3 45 Université Aix-Marseille 1 R. Pour u ∈ IR N .N U comme solution du système linéaire AU = A = (N + 1)2 B + Id.6.. points j N +1 (1. En déduire toutes les valeurs propres On munit IR N de la norme suivante : pour u ∈ IR N . N }. . up = min{uj . . 1]).. Remarquer que Au = b peut s’écrire : 1 1 h2 (ui − ui−1 ) + h2 (ui u0 = uN +1 = 0. Pour u ∈ IR N . . Soit N ∈ IN . Au = b.. . x ∈]0. . . En déduire les valeurs propres de la matrice A. v ∈ IR N .6. Montrer que les vecteurs de la matrice B. . u(0) = u(1) = 0. On rappelle que la discrétisation par différences finies de ce problème consiste à chercher f ( Nj ) +1 j=1. Télé-enseignement. u = 1}. 0  . .) Suggestions en page 57. issue d’une discrétisation par différences finies (vue en cours) du problème (1.. En déduire le conditionnement pour la norme euclidienne de la matrice A. Herbin. ... .  −1 2 −1 .. Soit A la matrice définie par (1. On note U = (uj )j=1. . .q. 20 août 2010 . Pour u. .6. [On pourra considèrer p ∈ {0. EXERCICES CHAPITRE 1. 3. N impair. N + 1}... 0 −1 2 1.q. . Soit f ∈ C([0.. 2. On munit alors MN (IR) de la norme induite..N sont des vecteurs propres de la matrice B.N une “valeur approchée” de la solution u du problème (1. N }}.  . 1[. on note u1 .. . c’est-à-dire B = max{ Bu . (1. .. on dit que u ≥ 0 si ui ≥ 0 pour tout N i ∈ {1. 0   . N +1} t.q. (Existence et positivité de A−1 ) Soient b ∈ IR N et u ∈ IR N t. .21) page 23.53) aux j=1.1. . uk )k∈IN ∗ . . . . .

1.6. EXERCICES CHAPITRE 1. SYSTÈMES LINÉAIRES 2. (Préliminaire. . . ) On considère la fonction ϕ ∈ C([0, 1], IR) définie par ϕ(x) = (1/2)x(1 − x) pour tout x ∈ [0, 1]. On définit alors φ ∈ IR N par φi = φ(ih) pour tout i ∈ {1, . . . , N }. Montrer que (Aφ)i = 1 pour tout i ∈ {1, . . . , N }. 3. (calcul de A−1 ) Soient b ∈ IR N et u ∈ IR N t.q. Au = b. Montrer que u ≤ (1/8) b [Calculer A(u ± b φ) avec φ défini à la question 2 et utiliser la question 1]. En déduire que A−1 ≤ 1/8 puis montrer que A−1 = 1/8. 4 4. (calcul de A ) Montrer que A = h2 .
5. (Conditionnement pour la norme · ). Calculer A−1 A . Soient b, δb ∈ IR N . Soient u, δu ∈ IR N t.q. δu δb Au = b et A(u + δu ) = b + δb . Montrer que ≤ A−1 A . u b Montrer qu’un choix convenable de b et δb donne l’égalité dans l’inégalité précédente.

Partie II Borne réaliste sur l’erreur relative : Conditionnement “efficace" On se donne maintenant f ∈ C([0, 1], IR) et on suppose (pour simplifier. . . ) que f (x) > 0 pour tout x ∈]0, 1[. On prend alors, dans cette partie, bi = f (ih) pour tout i ∈ {1, . . . , N }. On considère aussi le vecteur ϕ défini à la question 2 de la partie I. 1. Montrer que
N 1

h
i=1

bi ϕi →
N i=1

0

f (x)φ(x)dx quand N → ∞

et que bi ϕi > 0 pour tout N ∈ IN ∗ .
N i=1 bi ϕi N i=1

En déduire qu’il existe α > 0, ne dépendant que de f , t.q. h 2. Soit u ∈ IR
N

t.q. Au = b. Montrer que N u ≥

ui = u · Aϕ ≥

≥ α pour tout N ∈ IN .
α h

(avec α donné à la question 1).

Soit δb ∈ IR N et δu ∈ IR N t.q. A(u + δu ) = b + δb . Montrer que 3. Comparer A−1 ∞). A (question I.5) et f
L∞ (]0,1[)

f L∞(]0,1[) δb δu ≤ . u 8α b

(question II.2) quand N est “grand" (ou quand N →

Exercice 29 (Méthode itérative du “gradient à pas fixe" 6 ) Suggestions en page 57 Soit A ∈ MN (IR) une matrice symétrique définie positive, b ∈ IR N et α ∈ IR. Pour trouver la solution de Ax = b, on considère la méthode itérative suivante : – Initialisation : x(0) ∈ IR N , – Iterations : x(n+1) = x(n) + α(b − Ax(n) ). 1. Pour quelles valeurs de α (en fonction des valeurs propres de A) la méthode est-elle convergente ? 2. Calculer α0 (en fonction des valeurs propres de A) t.q. ρ(Id − α0 A) = min{ρ(Id − αA), α ∈ IR}.

Exercice 30 (Non convergence de la méthode de Jacobi) Suggestions en page 57. Soit a ∈ IR et 1 A= a a  a 1 a  a a  1

Montrer que A est symétrique définie positive si et seulement si −1/2 < a < 1 et que la méthode de Jacobi converge si et seulement si −1/2 < a < 1/2.
Analyse numérique I, Télé-enseignement, L3

46

Université Aix-Marseille 1 R. Herbin, 20 août 2010

,

1.6. EXERCICES CHAPITRE 1. SYSTÈMES LINÉAIRES Exercice 31 (Une matrice cyclique) Suggestions en page 58, corrigé en page ??
Soit α ∈ IR et soit A ∈ M4 (IR) la matrice définie par  α −1  −1 α A=  0 −1 −1 0

0 −1 α −1

Cette matrice est dite cyclique : chaque ligne de la matrice peut être déduite de la précédente en décalant chaque coefficient d’une position. 1. Déterminer les valeurs propres de A. 2. Pour quelles valeurs de α la matrice A est-elle symétrique définie positive ? singulière ? 3. On suppose ici que α = 0. Soit b = (b1 , b2 , b3 , b4 )t ∈ IR 4 donné. On considère la méthode de Jacobi pour (n) la résolution du système Ax = b. Soit (x(n) )n∈IN la suite de vecteurs donnés par l’algorithme. On note xi (n+1) (n) pour i = 1, . . . , 4 les composantes de x(n) . Donner l’expression de xi , i = 1, . . . , 4, en fonction de xi (n) et bi , i = 1, . . . , 4. Pour quelles valeurs de α la méthode de Jacobi converge-t-elle ? 4. On suppose maintenant que A est symétrique définie positive. Reprendre la question précédente pour la méthode de Gauss-Seidel.

 −1 0   −1  α

Exercice 32 (Jacobi pour les matrices à diagonale dominante stricte) Suggestions en page 58, corrigé en page 75 Soit A = (ai,j )i,j=1,...,N ∈ MN (IR) une matrice à diagonale dominante stricte (c’est-à-dire |ai,i | > j=i |ai,j | pour tout i = 1, . . . , N ). Montrer que A est inversible et que la méthode de Jacobi (pour calculer la solution de Ax = b) converge. Exercice 33 (Jacobi pour pour un problème de diffusion ) Soit f ∈ C([0, 1]) ; on considère le système linéaire Ax = b issu de la discrétisation par différences finies de pas uniforme égal à h = N1 du problème suivant : +1 −u (x) + αu(x) = f (x), x ∈ [0, 1], u(0) = 0, u(1) = 1, (1.6.56)

où α ≥ 0. 1. Donner l’expression de A et b. 2. Montrer que la méthode de Jacobi appliquée à la résolution de ce système converge (distinguer les cas α > 0 et α = 0). Exercice 34 (Jacobi et diagonale dominance forte) Corrigé en page 76 On considère une matrice A ∈ MN (IR) inversible. 1. Montrer que si A est symétrique définie positive alors tous ses coefficients diagonaux sont strictement positifs. En déduire que la méthode de Jacobi est bien définie. 2. On suppose maintenant que la matrice diagonale extraite de A, notée D, est inversible. On suppose de plus que |ai,j |. ∀i = 1, . . . , N, |ai,i | ≥ |ai,j | et ∃i0 ; |ai0 ,i0 | >
j=i j=i0

(On dit que la matrice est à diagonale fortement dominante). Soit J la matrice d’itération de la méthode de Jacobi.
Analyse numérique I, Télé-enseignement, L3

47

Université Aix-Marseille 1 R. Herbin, 20 août 2010

,

1.6. EXERCICES (a) Montrer que ρ(J) ≤ 1.

CHAPITRE 1. SYSTÈMES LINÉAIRES

(b) Montrer que si Jx = λx avec |λ| = 1, alors xi = x , ∀i = 1, . . . , N. En déduire que x = 0 et que la méthode de Jacobi converge. (c) Retrouver ainsi le résultat de la question 2 de l’exercice 33.

Exercice 35 (Diagonalisation dans IR ) Soit E un espace vectoriel réel de dimension N ∈ IN muni d’un produit scalaire, noté (·, ·). Soient T et S deux applications linéaires symétriques de E dans E (T symétrique signifie (T x, y) = (x, T y) pour tous x, y ∈ E). On suppose que T est “définie positive" (c’est-à-dire (T x, x) > 0 pour tout x ∈ E \ {0}). 1. Montrer que T est inversible. Pour x, y ∈ E, on pose (x, y)T = (T x, y). Montrer que l’application (x, y) → (x, y)T définit un nouveau produit scalaire sur E. 2. Montrer que T −1 S est symétrique pour le produit scalaire défini à la question précédente. En déduire, avec le lemme 1.12 page 8, qu’il existe une base de E, notée {f1 , . . . , fN }, et il existe {λ1 , . . . , λN } ⊂ IR t.q. T −1 Sfi = λi fi pour tout i ∈ {1, . . . , N } et t.q. (T fi /fj ) = δi,j pour tout i, j ∈ {1, . . . , N }. Exercice 36 (Méthode de Jacobi et relaxation) Suggestions en page 58, corrigé en page 77

Soit N ≥ 1. Soit A = (ai,j )i,j=1,...,N ∈ MN (IR) une matrice symétrique. On note D la partie diagonale de A, −E la partie triangulaire inférieure de A et −F la partie triangulaire supérieure de A, c’est-à-dire : D = (di,j )i,j=1,...,N , di,j = 0 si i = j, di,i = ai,i , E = (ei,j )i,j=1,...,N , ei,j = 0 si i ≤ j, ei,j = −ai,j si i > j, F = (fi,j )i,j=1,...,N , fi,j = 0 si i ≥ j, fi,j = −ai,j si i < j. Noter que A = D − E − F . Soit b ∈ IR N . On cherche à calculer x ∈ IR N t.q. Ax = b. On suppose que D est définie positive (noter que A n’est pas forcément inversible). On s’intéresse ici à la méthode de Jacobi (par points), c’est–à–dire à la méthode itérative suivante : Initialisation. x(0) ∈ IR N Itérations. Pour n ∈ IN, Dx(n+1) = (E + F )x(n) + b. On pose J = D−1 (E + F ). 1. Montrer, en donnant un exemple avec N = 2, que J peut ne pas être symétrique. 2. Montrer que J est diagonalisable dans IR et, plus précisement, qu’il existe une base de IR N , notée {f1 , . . . , fN }, et il existe {µ1 , . . . , µN } ⊂ IR t.q. Jfi = µi fi pour tout i ∈ {1, . . . , N } et t.q. Dfi · fj = δi,j pour tout i, j ∈ {1, . . . , N }. 3. Montrer que la trace de J est nulle et en déduire que µ1 ≤ 0 et µN ≥ 0. En ordonnant les valeurs propres de J, on a donc µ1 ≤ . . . ≤ µN , on conserve cette notation dans la suite.

4. Montrer que la méthode de Jacobi (par points) converge (c’est-à-dire x(n) → x quand n → ∞). [Utiliser un théorème du cours.] On se propose maintenant d’améliorer la convergence de la méthode par une technique de relaxation. Soit ω > 0, on considère la méthode suivante : Initialisation. x(0) ∈ IR N Itérations. Pour n ∈ IN, D˜(n+1) = (E + F )x(n) + b, x(n+1) = ω x(n+1) + (1 − ω)x(n) . x ˜

On suppose maintenant que A et 2D − A sont symétriques définies positives et on pose x = A−1 b.

Analyse numérique I, Télé-enseignement, L3

48

Université Aix-Marseille 1 R. Herbin, 20 août 2010

,

1.6. EXERCICES CHAPITRE 1. SYSTÈMES LINÉAIRES 5. Calculer les matrices Mω (inversible) et Nω telles que Mω x(n+1) = Nω x(n) + b pour tout n ∈ IN, en fonction de ω, D et A. On note, dans la suite Jω = (Mω )−1 Nω .
6. On suppose dans cette question que (2/ω)D − A est symétrique définie positive. Montrer que la méthode converge (c’est-à-dire que x(n) → x quand n → ∞.) 8. Calculer les valeurs propres de Jω en fonction de celles de J. En déduire, en fonction des µi , la valeur “optimale" de ω, c’est-à-dire la valeur de ω minimisant le rayon spectral de Jω . Exercice 37 (Méthodes de Jacobi et Gauss Seidel pour une matrice 3 × 3)     2 −1 0 1 On considère la matrice A = −1 2 −1 et le vecteur b = 0. Soit x(0) un vecteur de IR 3 donné. 0 −1 2 1 1. Méthode de Jacobi 1.a Ecrire la méthode de Jacobi pour la résolution du système Ax = b, sous la forme x(k+1) = BJ x(k) + cJ . 1.b Déterminer le noyau de BJ et en donner une base. 1.c Calculer le rayon spectral de BJ et en déduire que la méthode de Jacobi converge. 1.d Calculer x(1) et x(2) pour les choix suivants de x(0) :     0 0 (i) x(0) = 0 , (ii)x(0) = 1 . 0 2 7. Montrer que (2/ω)D − A est symétrique définie positive si et seulement si ω < 2/(1 − µ1 ).

2. Méthode de Gauss-Seidel. 2.a Ecrire la méthode de Gauss-Seidel pour la résolution du système Ax = b, sous la forme x(k+1) = BGS x(k) + cGS . 2.b Déterminer le noyau de BGS . 2.c Calculer le rayon spectral de BGS et en déduire que la méthode de Gauss-Seidel converge. 2.d Comparer les rayons spectraux de BGS et BJ et vérifier ainsi un résultat du cours. 2.d Calculer x(1) et x(2) pour les choix suivants de x(0) :     0 0 (i) x(0) = 0 , (ii) x(0) = 1 . 0 1 3. Convergence en un nombre fini d’itérations. 3.1 Soit α et β des réels. Soit u(0) ∈ R et (u(k) )k∈IN la suite réelle définie par u(k+1) = αu(k) + β.

3.1.a Donner les valeurs de α et β pour lesquelles la suite (u(k) )k∈IN converge. 3.1.b On suppose que α = 0, et que la suite (u(k) )k∈IN converge vers une limite qu’on note u. Montrer que s’il existe K ∈ N tel que uK = u, alors u(k) = u pour tout k ∈ IN.

3.2 Soit N > 1, B une matrice réelle carrée d’ordre N et b ∈ IR N . Soit u(0) ∈ IR N et (u(k) )k∈IN la suite définie par u(k+1) = Bu(k) + c.

3.2.a Donner les conditions sur B et c pour que la suite (u(k) )k∈IN converge pour tout choix de u0 ∈ IR N . 3.2.b On suppose que la suite (u(k) )k∈IN converge vers une limite qu’on note u. Montrer qu’on peut avoir u(1) = u avec u(0) = u. Exercice 38 (Jacobi et Gauss-Seidel pour une matrice tridiagonale)
Analyse numérique I, Télé-enseignement, L3

49

Université Aix-Marseille 1 R. Herbin, 20 août 2010

,

. et telle que la matrice diagonale D = diag(ai. En déduire que lorsqu’elle converge... 4. 2.. .j=1. Montrer que la suite (u(k) )k∈IN vérifie : u(k+1) − u(k) où α = mini=1. En 2 déduire que si λ = 0 est valeur propre de J alors λ est valeur propre de G. .j = 0 si |i − j| > 1. 1. N.j )i. Analyse numérique I. µN −1 xN )t . 2.i .. 1. alors xµ vérifie (µE + µ F )xµ = λDxµ ... . µk−1 xk . On suppose que : ai.58) (1. .. (1. . ∀j = 1. corrigé en page 79 On note MN (IR) l’ensemble des matrices carrées d’ordre N à coefficients réels. .j i=1 Soit λ ∈ IR ∗ .. ∀i.. . 3.i N ≤ > = 0. 20 août 2010 . j = 1. Herbin. L3 A ≤( 1 k (1) ) u − u(0) 1+α A. où νω = µ2 et µω vérifie µ2 − λωµω + ω − 1 = 0. la méthode de Gauss-Seidel pour la résolution du système Ax = b converge plus rapidement que la méthode de Jacobi. Montrer que · A est une norme sur IR N .N ai. alors λ est valeur propre de J . on note l l xµ = (x1 ..59) ai. c’est-à-dire telle que ai. ω ω En déduire que ρ(Lω ) = max {|µω |.6. 50 Université Aix-Marseille 1 R. ∀i = 1.. Soit Lω la matrice d’itération de la méthode SOR associée à A. .N ∈ MN (IR). Montrer que la matrice λId + A est inversible. et Id la matrice identité dans MN (IR). N. . et on note J et G les matrices d’itération des méthodes de Jacobi et Gauss-Seidel associées à la matrice A.1.i )i=1. µx2 . Pour x ∈ IR N . on définit x A N = i=1 ai. 3. 0. ω λ valeur propre de J Exercice 39 (Méthode de Jacobi pour des matrices particulières) Suggestions en page 58.. 1 Montrer que si λ est valeur propre de J associée au vecteur propre x.57) (1.6..i |xi |. Télé-enseignement.N soit inversible.6. λ = 0 et x ∈ CN .6.j ]i. On considère le système linéaire suivant : (λId + A)u = b (1. Montrer que ρ(G) = ρ(J)2 . .6. On note A = D − E − F où −E (resp. . SYSTÈMES LINÉAIRES Soit A = (ai. supérieure) de A.j ai.j=1. . i = j. Pour µ ∈ C. 0.60) Montrer que la méthode de Jacobi pour la recherche de la solution de ce système définit une suite (u(k) )k∈N ⊂ IR N . −F ) est la partie triangulaire inférieure (resp. Montrer que λ est valeur propre de J si et seulement si νω est valeur propre de Lω . EXERCICES CHAPITRE 1. + 1. N. . Soit A = [ai. µ2 − λωµω + ω − 1 = 0}. .N ∈ MN (IR) une matrice carrée d’ordre N tridiagonale. . .b Montrer que si λ2 est valeur propre non nulle de G.. ..a.

6. . β (On pourra d’abord montrer que pour tout β > 0.i−1 = −1  i. Exercice 42 (Méthode des directions alternées) Analyse numérique I. 2[. 2[ t. où α = maxi=1. 20 août 2010 . Télé-enseignement. alors ρ(M −1 N ) < 1. montrer qu’il existe un vecteur x ∈ Cn non nul tel que N x · x = λM x · x (où x désigne le conjugué de x). . ¯ ¯ 4. Exercice 40 (Une méthode itérative particulière) Soient α1 .. 1 0 √ 1 2.. Soit λ ∈ C une valeur propre de la matrice M −1 N . . . Pour quelles valeurs de ω la méthode est-elle convergente ? Déterminer ω0 ∈]0. ω = 2/2. ω = 2/2}. √ ω ∈]0. et en déduire qu’elle converge vers la solution du système (1.n αi et en déduire que maxi=1.q. et donc que la méthode 2 itérative converge. EXERCICES CHAPITRE 1. Soit 0 < ω < 2. corrigé en page 81 avec   0 0 0  . Montrer que pour ( ω Id − E) est inversible si et seulement si ω = 2/2. et F = −  0 0 1 Soit A ∈ M3 (IR) définie par A = Id − E − F  0 2 E = − 1 0 0 0 1. α − β) pour tout i = 1. Montrer que A est inversible. avec ¯ α = mini=1.. α − β)) . n.1. |β − αi | ≤ max(β − α.. En déduire que toutes les valeurs propres de la matrice M −1 N sont réelles. . Herbin. les valeurs propres de Lω et son rayon spectral.n β α 3.i+1  ai. Calculer. SYSTÈMES LINÉAIRES 5. . que si β > . αn des réels strictement positifs. et 0 pour tous les autres). ω ω 3.  0 0 0 0 . Déduire de la question 1.j définis par :  ai. on considère la méthode itérative (pour trouver la solution de Ax = b) suivante : 1 1−ω ( Id − E)xn+1 = (F + Id)xn + b.i = 2 + αi  a = ai. et A la matrice n × n de coefficients ai. 4.. 1. L3 51 Université Aix-Marseille 1 R..d β − αi pour les coefficients diagonaux. √ Pour 0 < ω < 2.n Exercice 41 (Une matrice 3 × 3) Suggestions en page 58.60). Trouver le paramètre β minimisant maxi=1.. en fonction de ω. ρ(Lω0 ) = min{ρ(Lω ). .n |β − αi | = max(β − α. .6. Montrer que le rayon spectral ρ(M −1 N ) de la matrice vérifie : ρ(M −1 N ) ≤ maxi=1.j = 0 pour tous les autres cas.à.. 1 Il s’agit donc de la “méthode I" du cours avec B = Lω = ( ω Id − E)−1 (F + 1−ω ω Id).n αi . Pour β > 0 on considère la méthode itérative M x(k+1) = N x(k) + b avec A = M − N et N = diag(β − αi ) (c. Montrer que la suite (u(k) )k∈IN est de Cauchy. |β − αi | 2.n αi et α = maxi=1. |β − αi | . .

6.62) 1.6.1. symétriques.6. Télé-enseignement.1. Soit u(0) ∈ IR N .6. avec x = 0 et Ax = λN x. la méthode itérative suivante : (X + αId)u(k+1/2) = −Y u(k) + b. quand n → ∞. (Y + αId)u(k+1) = −Xu(k+1/2) + b.6. 1] × [0. On définit la suite (x(n) )n∈IN par x(n+1) = Ax(n) pour n ∈ IN. Analyse numérique I. Soit α ∈ IR ∗ . (b) Montrer que ρ X(X + αId)−1 Y (Y + αId)−1 ≤ ρ X(X + αId)−1 ρ Y (Y + αId)−1 . (On rappelle que pour toute matrice carrée d’ordre N . |λN | = ρ(A) et soit x(0) ∈ IR N . corrigé en page 82 1. Soit f ∈ C([0. Herbin.62) converge dans ce cas et qui justifient l’appellation “méthode des directions alternées" qui lui est donnée. 1] avec conditions aux limites de Dirichlet homogènes u = 0 1 sur ∂Ω. Montrer que la méthode itérative (1. Soit A ∈ MN (IR) une matrice carrée d’ordre N symétrique inversible et b ∈ IR N . Y et α pour lesquelles la méthode itérative (1. L3 52 Université Aix-Marseille 1 R. pour résoudre (1.62) 2 2 converge. Montrer que si les matrices (X + α Id) et (Y + α Id) sont définies positives alors la méthode (1. Soit A ∈ MN (IR) une matrice symétrique. → ρ(A) quand n → ∞. par différences finies avec un pas uniforme h = M .1) si et seulement si ρ (Y + αId)−1 X(X + αId)−1 Y < 1. 20 août 2010 . (1.61). Exercice 43 (Méthode de la puissance) Suggestions en page 59. . 1] × [0. On suppose que −λN n’est pas une valeur propre de A et que x(0) n’est pas orthogonal à Ker(A − λN Id). (1. (On pourra utiliser l’exercice 6 page 37). On cherche à calculer u ∈ IR N . choisi tel que X + αId et + Y + αId soient définies positives (où Id désigne la matrice identité d’ordre N ) et X + Y + αId = A. (c) Montrer que ρ X(X + αId)−1 < 1 si et seulement si la matrice (X + α Id) est définie positive. SYSTÈMES LINÉAIRES Soit N ∈ IN et N ≥ 1. Soit λN ∈ IR valeur propre de A t. (b) Proposer des choix de X. EXERCICES CHAPITRE 1. ρ(M ) désigne le rayon spectral de la matrice M . et b le second membre associé.6.q. solution du système linéaire suivant : Au = b.62) définit bien une suite (u(k) )k∈IN et que cette suite converge vers la solution u de (1. (n+1) Cette méthode de calcul s’appelle “méthode de la puissance". (a) Donner l’expression de A et b.61) On suppose connues des matrices X et Y ∈ MN (IR).6. 3. 2 (d) Conclure.) 2. on propose. 1]) et soit A la matrice carrée d’ordre N = M × M obtenue par discrétisation de l’équation −∆u = f sur le carré [0. On pourra pour cela (mais ce n’est pas obligatoire) suivre la démarche suivante : (a) Montrer que ρ (Y + αId)−1 X(X + αId)−1 Y = ρ X(X + αId)−1 Y (Y + αId)−1 . Montrer que (a) (b) x(n) (λN )n x x(n) → x.

On rappelle qu’à partir de cette base. Montrer que 1. On définit la suite (x(n) )n∈IN par (A − µId)x(n+1) = x(n) pour n ∈ IN. k−1 w1 w1 v2 u2 = v2 v3 u3 = v3 v4 u4 = v4 . EXERCICES CHAPITRE 1. wN ) une base de IR N . . Soit A ∈ MN (IR) une matrice inversible et b ∈ IR N .q. . x(n+1) x(n) 2. SYSTÈMES LINÉAIRES 2. Montrer que. u1 = uk = vk vk vk = wk − On a donc projvj (wk ). . On note · la norme euclidienne sur IR N . 0 < |µ − λi | < |µ − λj | pour tout j = i. v N ) est une base orthogonale de IR N . . . (a) (b) x(n+1) −x x(n) −x (n+1) → ρ(B) quand n → ∞ (ceci donne une estimation de la vitesse de convergence). v 3 = w 3 − projv1 (w 3 ) − projv2 (w 3 ). 53 . 1.q. . v N ) et une base orthonormale (u1 . vj · vj uk = vk . . .6. (n) x −x x(n) −x(n−1) → ρ(B) quand n → ∞ (ceci permet d’estimer ρ(B) au cours des itérations). Soit i ∈ {1. . . λp (p ≤ N ) les valeurs propres de A. . v 4 = w 4 − projv1 (w 4 ) − projv2 (w 4 ) − projv3 (w 4 ). . .a Montrer par récurrence que la famille (v 1 . Exercice 44 (Méthode de la puissance inverse) Suggestions en page 59. . Analyse numérique I. sauf cas particuliers à préciser. . quand n → ∞. . x(n) (λi − µ)n → x. vk (1. . .1. Soit x(0) ∈ IR N . . . On suppose que x(0) n’est pas orthogonal à Ker(A − λi Id). v 2 = w 2 − projv1 (w 2 ). Télé-enseignement. 20 août 2010 . Ax = b.63) 1. → 1 |µ−λi | quand n → ∞.6. . Soient A ∈ MN (IR) une matrice symétrique et λ1 . . . . On suppose également connaître µ ∈ IR t. Soient (w 1 . avec x = 0 et Ax = λi x. uN ) par le procédé de Gram-Schmidt qu’on rappelle : v1 = w1 . On rappelle que la projection orthogonale proju (v) du vecteur v sur la droite vectorielle engendrée par u peut s’écrire de la manière suivante : proju (v) = v·u u. Pour calculer x t. . u·u où u · v désigne le produit scalaire des vecteurs u and v. on cherche à calculer λi . on considère la méthode itérative appelée “méthode I" en cours. p}. Exercice 45 (Méthode QR pour la recherche de valeurs propres) Soient u et v deux vecteurs de IR N . . et on suppose B symétrique. L3 Université Aix-Marseille 1 R. on peut obtenir une base orthogonale (v 1 . . j=1 k−1 v k = wk − j=1 wk · vj vj . . Herbin. .

On construit ensuite une matrice orthogonale Q2 et une matrice triangulaire supérieure R2 telles que A2 = Q2 R2 et on pose A3 = R3 Q3 ..64). (1. dite “méthode QR” : On pose A1 = A et on construit une matrice orthogonale Q1 et une matrice triangulaire supérieure R1 (par exemple construites à la question 2. On suppose de plus que P t admet une décomposition LU et que les coefficients diagonaux de U sont strictement positifs. . Télé-enseignement. Rk Qk = Ak = Qk+1 Rk+1 .65) ˜ ˜ Qk = Q1 Q2 . Q = u1 u2 . Donner la décomposition QR de A = 1 1 4 . wN . . λN ). λN ) désigne la matrice diagonale dont les termes diagonaux sont λ1 . . on propose la méthode suivante. On va montrer que Ak tend vers Λ = diag(λ1 .c. ce qu’on note : A = w1 Montrer que k−1 w2 . et P est une matrice orthogonale. .à. SYSTÈMES LINÉAIRES 1. . Montrer que pour toute matrice A ∈ MN (IR) inversible. . On continue et on construit une suite de matrices Ak telles que : A1 = A = Q1 R1 . (La notation diag(λ1 . . cette construction permet d’obenir les valeurs propres de la matrice A sur la diagonale des matrices Ak .6. (1.63). par récurrence sur k. Qk−1 Qk et Rk = Rk Rk−1 . . d. Nous allons démontrer que ceci est vrai pour le cas particulier des matrices symétriques définies positives dont les valeurs propres sont simples (on peut le montrer pour une classe plus large de matrices)..d..67) (1. en raison d’instabilité numérique) telles que A1 = Q1 R1 . . qui est aussi une matrice inversible. . R2 R1 .1. . 20 août 2010 .64) Dans de nombreux cas. L3 Université Aix-Marseille 1 R. EXERCICES CHAPITRE 1. .6. On suppose à partir de maintenant que A est une matrice symétrique définie positive qui admet N valeurs propres (strictement positives) vérifiant λ1 > λ2 > . 2.6. 54 Analyse numérique I. on peut construire une matrice orthogonale Q (c. . .1 Montrer que A2 = Q2 R2 avec Qk = Q1 Q2 et Rk = R2 R1 .2 Montrer. .b Soient A la matrice carrée d’ordre N dont les colonnes sont les vecteurs wj et Q la matrice carrée d’ordre N dont les colonnes sont les vecteurs uj définis par le procédé de Gram-Schmidt (1. 1. Herbin. Soient Qi et Ri les matrices orthogonales et triangulaires supérieures définies par (1. . où R est une matrice triangulaire supérieure dont les coefficients diagonaux sont positifs. On a donc : A = P ΛP t . . 0 Soit A une matrice inversible. bien que cette méthode ne soit pas celle utilisée en pratique. λN ). que avec ˜ ˜ Ak = Qk Rk . . . ˜ ˜ ˜ ˜ 2. 1. uN . Pour trouver les valeurs propres de A. avec Λ = diag(λ1 . > λN .6. 2.6. . . On pose alors A2 = R1 Q1 . .6.6. wk = v k uk + j=1 wk · vj uj . telle que QQt = Id) et une matrice triangulaire supérieure R à coefficients diagonaux positifs telles que A = QR.68) . . vj En déduire que A = QR. . R1 Q1 = A2 = Q2 R2 .λN ). (1. . .6.66) (1. .

2 b2 . 4.i → 1 et bi (k) (k) (k) → bi .1 Montrer que la première colonne de Bk Ck est égale à c1. L3 55 Université Aix-Marseille 1 R.j les coefficients de Ck . ˜ ˜ 3. b2 . .2 → 0. ˜ ˜ 6.3 Montrer que lorsque k → +∞.1. Soit Mk = Λk LΛ−k .2 → 1 et que b2 → b2 . 4. puis que ci. . ˜ 3. Déduire des questions 3 et 4 que Qk tend vers P et Tk tend vers Id lorsque k → +∞. . On note b1 . . . 4. . Montrer que Rk (Rk−1 )−1 = Tk ΛTk−1 . . bN (k) . On suppose donc que Bk Ck tend vers la matrice orthogonale B. b2 . On va montrer que si Bk Ck tend vers la matrice orthogonale B lorsque k tend vers l’infini alors Bk tend vers B et Ck tend vers l’identité lorsque k tend vers l’infini. 3. Herbin.4 En déduire que Bk tend B et Ck tend vers l’identité lorsque k tend vers l’infini. En déduire que c1. En déduire que Rk et Ak tendent vers Λ. En déduire que c1.3 Justifier brièvement le fait que Qk est une matrice orthogonale et Rk est une matrice triangulaire à coefficients diagonaux positifs. bN .1 b1 . .2 Montrer que la seconde colonne de Bk Ck est égale à c1.2 b1 + c2.j → 0 si i = j.1 → 1 et que b1 → b1 .2 Calculer les coefficients de Mk en fonction de ceux de L et des valeurs propres de A. Télé-enseignement.3 En déduire que Mk tend vers la matrice identité et que Qk Tk tend vers P lorsque k → +∞. 3. bN les colonnes de la matrice Bk . 4. .6. (k) (k) (k) (k) (k) (k) (k) (k) (k) (k) (k) 4. bN les colonnes de la matrice (k) (k) (k) B et b1 . . . Analyse numérique I. ou encore : B = b1 (k) b2 . on a ci. 20 août 2010 . . SYSTÈMES LINÉAIRES ˜ ˜ 2. ˜ 5. EXERCICES CHAPITRE 1. puis que c2. . Soient (Bk )k∈IN et (Ck )k∈IN deux suites de matrices telles que les matrices Bk sont orthogonales et les matrices Ck triangulaires supérieures et de coefficients diagonaux positifs. Bk = b(k) 1 b2 (k) .1 Montrer que P Mk = Qk Tk où Tk = Rk U −1 Λ−k est une matrice triangulaire supérieure dont les coefficients diagonaux sont positifs. et on note ci.

. . Montrer que si ρ(A) < 1. Pour montrer l’égalité. On rappelle que lim supk→+∞ uk = limk→+∞ supn≥k un . Exercice 5 page 37 (Rayon spectral) 1.N |ai. Analyse numérique I.. 2.j ) où i0 est tel que ∀i = 1. prendre pour x le vecteur propre associé à la plus grande valeur propre de A. Pour le sens direct.j | ≥ j=1. Utiliser le résultat de la question 1 de l’exercice 5.N |ai.. L3 56 Université Aix-Marseille 1 R. et pour l’égalité. par : 2cq ≤ Zp (N )2cq + N −q n=q+1 cn .N |ai0 .. 2. Télé-enseignement. utiliser la proposition 1. puis le nombre dn d’opérations nécessaires pour le calcul des colonnes n = q + 1 N − q. Herbin.. . 1 4. et lim inf k→+∞ uk = limk→+∞ inf n≥k un ... prendre x tel que xj0 = 1 et xj = 0 si j = j0 .. Exercice 16 page 39 2. 1 k 1 Raisonner ensuite avec β A où β ∈ IR + est tel que lim inf k→+∞ Ak < β et utiliser la question 3...j |..j0 | = 3.7 Suggestions Exercice 1 page 36 (Matrices symétriques définies positives) 3. En déduire l’estimation sur le nombre d’opérations nécessaires pour le calcul de toutes les colonnes. où j0 est tel que maxj=1. Exercice 3 page 36 (Normes induites particulières) 1.j |.. i=1. Utiliser le fait que At A est une matrice symétrique positive pour montrer l’inégalité. Pour montrer l’égalité. SUGGESTIONS CHAPITRE 1.N |ai. N . prendre x tel que xj = sign(ai0 . .. 3. Utiliser le fait que lim inf k→+∞ uk est une valeur d’adhérence de la suite (uk )k∈IN (donc qu’il existe une suite extraite (ukn )n∈IN telle que uukn → lim inf k→+∞ uk lorsque k → +∞. et sign(s) désigne le signe de s.. Utiliser la question 1. Raisonner avec α A où α ∈ IR + est tel que ρ(A) < α et utiliser la question 2 pour déduire que lim sup Ak k→+∞ 1 k ≤ ρ(A).7. j=1.. 20 août 2010 .. Utiliser la diagonalisation sur les opérateurs linéaires associés. Exercice 9 page 37 (Série de Neumann) 1.. .N i=1. Zp (N ).7 page 6 du cours. alors 0 n’est pas valeur propre de Id + A et Id − A.ou sous-diagonales (p = 2q + 1)... SYSTÈMES LINÉAIRES 1..1. Compter le nombre cq d’opérations nécessaires pour le calcul des colonnes 1 à q et N − q + 1 à N . . 2. Soit q le nombre de sur.

Partie 2 Conditionnement efficace 1. Pour montrer que A est inversible. . . . λ1 + µ1 Montrer ensuite que a+b a b ≤ max( . Utiliser le fait que Aφ = (1 .). . . qui correspond à un point 8 de discrétisation car N est impair. . . . . ≤ µN les valeurs propres de A et B (qui sont s. On rappelle que si A a comme valeurs propres λ1 . .) Chercher les vecteurs propres Φ ∈ IR N de A sous la forme Φj = ϕ(xj ). Exercice 30 page 46 (Non convergence de la méthode de Jacobi) Considérer d’abord le cas a = 0. . h h N +1 Exercice 28 page 45 (Conditionnement efficace) Partie 1 1. En traçant les graphes des valeurs prises par |1 − αλ1 | et |1 − αλN − 1| en 2 fonction de α. |1 − αλN − 1|. L3 57 Université Aix-Marseille 1 R. λN . ≤ λN et 0 < µ1 ≤ µ2 . . 20 août 2010 . . alors A−1 a comme valeurs propres λ−1 . j = 1. ∀(a. Télé-enseignement.) 1. . Calculer le rayon spectral ρ(B) de la matrice d’itération B = Id − αA. d) ∈ (IR ∗ )4 .7. Utiliser le fait que AAt est diagonalisable. 1 3. . λN . b. . SYSTÈMES LINÉAIRES Partie II 1. . N où ϕ est introduite dans les indications de l’énoncé. Herbin.p. où λ1 .d.1. 5. en déduire que le min est atteint pour α = λ1 +λN . Pour montrer que A−1 = . 2. . 2. . Montrer d’abord que : λN + µN cond2 (A + B) ≤ . Introduire la variable µ telle que aµ = 1 − λ. Si a = 0. Exercice 29 page 46(Méthode itérative du “gradient à pas fixe". Utiliser le fait que ϕ est un polynôme de degré 2. . ). . + c+d c d et conclure Exercice 26 page 44 (Valeurs propres et vecteurs propres de A. Utiliser la convergence uniforme. 2. 2. Remarquer que ρ(Id − αA) = max(|1 − αλ1 |. c. . . pour chercher les valeurs de a pour lesquelles A est symétrique définie positive. λ−1 1 N et At a comme valeurs propres λ1 . Analyse numérique I. . 1)t . .5. Soient 0 < λ1 ≤ λ2 . remarquer que le maximum de ϕ est atteint en x = . utiliser le théorème du rang. . calculer les valeurs propres de A en cherchant les racines du polynôme caractéristique. Calculer les valeurs de α pour lesquelles 2 ρ(B) < 1 et en déduire que la méthode itérative du gradient à pas fixe converge si 0 < α < ρ(A) . SUGGESTIONS Exercice 18 page 40 (Propriétés générales du conditionnement) CHAPITRE 1. λN sont les valeurs propres de A ordonnées dans le sens croissant. . Montrer que les valeurs propres associées à ces vecteurs propres sont de la forme : 2 2 kπ λk = 2 (1 − cos kπh) = 2 (1 − cos ).

4. 20 août 2010 .) 2. . Pour trouver le paramètre optimal ω0 . Exercice 31 page 47 (Une matrice cyclique) 1. alors A n’est pas définie positive. 3. ω d 1−ω 1−ω on trouve λ1 = 1 − ω. Reprendre le même raisonnement qu’à la question 2 à 4 avec les matrices Mω et Nω au lieu de D et E + F . L3 58 Université Aix-Marseille 1 R. . Analyse numérique I. Prendre pour A une matrice (2. Télé-enseignement. Calculer le déterminant de A. ρ(Lω ) = |λ3 | et que ρ(Lω ) = |λ1 | si ω ≥ 2. .2) symétrique dont les éléments diagonaux sont différents l’un de l’autre.) 1. . calculer les valeurs propres de la matrice d’itération J définie en cours. Après calcul de ce déterminant. . Remarquer que les fi de la question 2 sont aussi vecteurs propres de Jω et en déduire que les valeurs propres µi (ω) de Jω sont de la forme µi = ω(µi − 1 − 1/ω). Pour montrer que la méthode de Jacobi converge. 2. 2. √ √ Montrer que si ω < 2. et en conclure que le minimum de max(|µ1 |.) (ω) 8. notée {f1 . On peut trouver les trois valeurs propres (dont une double) sans calcul en remarquant que pour α = 0 il y a 2 fois 2 lignes identiques. 6. 7. et montrer que : si µ1 ≤ −1.1. |µN |) 2 est atteint pour ω = 2−µ1 −µN . Appliquer le cours.) 1. fN }.7. Exercice 39 page 50 (Méthode de Jacobi et relaxation. √ 4. Utiliser l’expression des valeurs propres pour montrer que la méthode converge si ω > 1+2 2 et que le paramètre de relaxation optimal est ω0 = 1. montrer que Ax = 0 si et seulement si x = 0. Appliquer l’exercice 35 page 48 en prenant pour T l’application linéaire dont la matrice est D et pour S l’application linéaire dont la matrice est E + F . trouvée à la question 2. SUGGESTIONS CHAPITRE 1. que la somme des colonnes est un vecteur constant et par le calcul de la trace. Chercher une condition qui donne que toutes les valeurs propres sont strictement positives en utilisant la base de vecteurs propres ad hoc. tracer les graphes des fonc(ω) (ω) (ω) (ω) tions de IR + dans IR définies par ω → |µ1 | et ω → |µN |. Remarquer que ρ(J) = max(−µ1 . Exercice 32 page 47 (Jacobi et diagonale dominante stricte. 2. SYSTÈMES LINÉAIRES Pour chercher les valeurs de a pour lesquelles la méthode de Jacobi converge. Utiliser l’exercice 32 page 47 Exercice 41 page 51 (Convergence de SOR. λ3 = 1−√2ω . Exercice 36 page 48 (Méthode de Jacobi et relaxation. d 3. Calculer le déterminant de I ω − E. Une matrice A est symétrique définie positive si et seulement si elle est diagonalisable et toutes ses valeurs propres sont strictement positives. µN ). si µN ≥ 1. λ2 = 1+√2ω . alors 2D − A n’est pas définie positive. Herbin. Remarquer que les valeurs propres de Lω annulent det( 1−ω Id+F −λ( I ω−E)). montrer que toutes les valeurs propres de la matrice A sont strictement inférieures à 1 en valeur absolue. (Utiliser la base de IR N .) Pour montrer que A est inversible.

L3 59 Université Aix-Marseille 1 R.7. Herbin. Télé-enseignement.1. SYSTÈMES LINÉAIRES Exercice 43 page 52 (Méthode de la puissance pour calculer le rayon spectral de A. 20 août 2010 . . Analyse numérique I. SUGGESTIONS CHAPITRE 1. Exercice 44 page 53 (Méthode de la puissance inverse) Appliquer l’exercice précédent à la matrice B = (A − µId)−1 . a/ Raisonner avec y (n) = x(n) − x où x est la solution de Ax = b et appliquer la question 1.) 1. et utiliser le fait que −λN n’est pas valeur propre. b/ Raisonner avec y (n) = x(n+1) − x(n) . 2. Décomposer x0 sur une base de vecteurs propres orthonormée de A.

.. CORRIGÉS CHAPITRE 1.8 Corrigés Exercice 1 page 36 (Matrices symétriques définies positives) 1. ....N | j=1.... ∀i = 1.. alors Afi · fi ≥ 0.. . . Montrons maintenant la réciproque : Si A est positive.i négatif... N . toujours d’après (1.N |ai.N Or.. On a bien x ∞ = 1. Alors Aei · ei ≤ 0 ce qui contredit le fait que A est définie positive.N ai.. Soit x ∈ IR N .N par : S(fi ) = λi fi . et i=1. tel que Ax ∞ = α. x ∞ = 1. .69) Ax · x = λi x2 ....j xj | ≤ max | j=1..j )|.N on a bien Ax = maxi=1. on a bien B 2 = A.. on note sign(s) le signe de s.69). . . .. N ... 20 août 2010 ...j | = maxi=1.j | et montrons qu’il existe x ∈ IR N .. Or x ∞ = 1 donc |xj | ≤ 1 et Ax ∞ ≤ max | i=1..j |. Herbin. A ∞ = supx∈IR N .69). . et on peut donc définir l’application √ linéaire S dans la base orthonormée (fi )i=1..8. ∀i = 1.j ||xj |. décomposons x sur la base orthonormée (fi )i=1. L3 60 Université Aix-Marseille 1 R..N | j=1. alors (Aαfi · αfi = 0) ⇒ (α = 0)..j |. on a j=1. On en déduit que pour ce choix de x.1..j |.. Alors pour ∀x ∈ IR N . N et donc λi > 0..... .N |ai.N |ai. 3. ∀i = 1.N : x = N N i=1 xi fi ..8. et donc si on désigne par B la matrice représentative de l’application S dans la base canonique.N j=1. toutes ses valeurs propres sont strictement positives. N . . Pour s ∈ IR. i i=1 Montrons d’abord que si les valeurs propres sont strictement positives alors A est définie positive : Supposons que λi ≥ 0. ∀i = 1. Analyse numérique I.. et N Ax ∞ = max | i=1. N . ∀i = 1.. . ..j sgn(ai0 . . . Choisissons x ∈ IR N défini par xj = sign(ai0 . . Ax ∞ x ∞ =1 Ax ∞. .. 2.j |.d. . Posons maintenant α = maxi=1.. . . Comme A est s. N et donc λi ≥ 0. ..N |ai0 . Supposons qu’il existe un élément diagonal ai. N . N . ..N = max | i=1. (Ax · x = 0) ⇒ (x = 0)..N |ai.8. |ai. Exercice 3 page 36 (Normes induites particulières) 1.. . .. Si A est définie.. d’après (1. par choix de x.N |ai. Ax · x ≥ 0 et la matrice A est positive.. et et la matrice A est donc bien définie.N ai. ∀i = 1.... .. ∀i = 1..j ) où i0 est tel que j=1.. .. On a évidemment S ◦ S = T .. ∀i = 1. SYSTÈMES LINÉAIRES 1.N |ai0 . .8. ..j | ≥ j=1.p. .N j=1. c’est–à–dire sign(s) = s/|s| si s = 0 et sign(0) = 0... . .. j=1 j=1. Télé-enseignement. Supposons maintenant que λi ≥ 0.. Par définition.. . On a donc : (1. ... . Alors pour ∀x ∈ IR N ..

N |ai. grâce au résultat d’approximation du rayon spectral de la proposition 1.... Alors Ak x = λk x...N i=1..... et ai.. x R 2 =1 Ax · Ax = sup x∈I N .. 3..N αi fi ∈ IR .. x 1 = 1.N |ai... A.j | |xj |  |ai. et donc en passant à la limite sup sur k... Exercice 5 page 37 (Rayon spectral) 2 = 1. et AfN 2 2 = 1.N ≤ max | j=1.j |. A CHAPITRE 1. et donc par la question 2.j xj | ≤ |ai. Télé-enseignement....... N }.N µi αi fi · αi fi = i=1.j |  Ax 1 i=1..j |.. ce qui n’est possible que si |λ| < 1..N i=1. Montrons maintenant qu’il existe x ∈ IR N . 2 Pour montrer qu’on a égalité...j |.N |xj |. et donc il existe N tel que pour n ≥ N . Comme l’espace MN (IR) est de dimension finie.. Et comme j=1....8.... . avec η ∈]0.. A.. On vérifie alors facilement qu’on a bien Ax 1 = maxj=1.. Alors ρ( α A) < 1. Si ρ(A) < 1.N . lim sup Ak k→+∞ 1 k < α. Montrons maintenant la réciproque : supposons que Ak → 0 lorsque k → ∞. Soit x = i=1.ε ≤ µk → 0 lorsque k → ∞.. Il suffit de considèrer pour cela le vecteur x ∈ IR N défini par xj0 = 1 et xj = 0 si j = j0 . .N i=1. .... .j0 | = maxj=1. où j0 est tel que i=1. On a donc : At Ax · x = i=1.N |ai. on en déduit que |λ| < 1.. SYSTÈMES LINÉAIRES 1 = supx∈IR N . Comme lim inf k→+∞ Ak 1/k < 1. il suffit de considèrer le vecteur x = fN .. et donc que Akn → 0 lorsque n → +∞. on a : Akn x = λkn x .. L3 . d’après la question précédente on a : Ak → 0 donc il existe K ∈ IN tel que pour k ≥ K. Herbin. 1[. avec 0 ≤ µ1 ≤ µ2 ≤ .N j=1. et donc λk x → 0.. i 2 On en déduit que A 2 ≤ ρ(At A)..N | j=1.. on a Ak A.ε = µ ≤ ρ(A) + ε = 1 − ε < 1.. 20 août 2010 Analyse numérique I..1.. 61 Université Aix-Marseille 1 R. 1 4. on a en effet fN At AfN · fN = µN = ρ(At A). il existe une base orthonormée (fi )i=1. Soient λ une valeur propre de A et x un vecteur propre associé.. et si Ak → 0. Ak < 1 1.N j=1.. . et on a donc Ak → 0 lorsque k → ∞. Akn ≤ η kn . Soient λ une valeur propre de A et x un vecteur propre associé...ε est une norme matricielle. alors Ak x → 0.. Comme ... On en déduit que pour n ≥ N . Par définition de la norme 2.. 2.. et montrons que ρ(A) < 1. x R 2 =1 At Ax · x. et donc que ρ(A) < 1. Comme At A est une matrice symétrique positive (car At Ax · x = Ax · Ax ≥ 0).. ≤ µN tels que Afi = µi fi pour tout N i ∈ {1. On en déduit que pour k ≥ K...N |ai. il existe ε > 0 tel que ρ(A) < 1 − 2ε et une norme induite . .7 page 6.. Akn 1/kn ≤ η... Soit α ∈ IR + tel que ρ(A) < α. CORRIGÉS 2... Si ρ(A) < 1. Ak 1/k < 1.. on a : A 2 2 = sup x∈I N .N i=1.N i=1. lim supk→+∞ Ak k ≤ 1...ε tels que A A.... = x 1 =1 Ax 1 ... toutes les normes sont équivalentes.N |xj | = 1. on a bien que A 1 ≤ maxj=1. ∀α > ρ(A). tel que Ax 1 = i=1. ..N α2 µi ≤ µN x 2 .N et des valeurs propres (µi )i=1..... Par définition.. 3..j |...N |ai.N i=1. il existe une sous-suite (kn )n∈IN ⊂ IN telle que Akn 1/kn → < 1 lorsque n → +∞....

Si . de l’exercice 5 page 37. on obtient donc : lim sup Ak k→+∞ 1 k CHAPITRE 1.72) 5.8. on déduit que lim sup Ak k→+∞ 1 k = lim inf Ak k→+∞ k 1 k = lim k→+∞ Ak 1 k = ρ(A).N sont les composantes de i 0 0 1 0 . Donc 0 n’est pas valeur propre des matrices Id − A et Id + A.8. on obtient donc ρ(A) ≤ lim inf Ak k→+∞ 1 k . Id − A est +∞ inversible. N i=1 α2 où les (αi )i=1.1. Exercice 9 page 37 (Série de Neumann) 1. Exercice 7 page 37 (Rayon spectral) Il suffit de prendre comme norme la norme définie par : x = x dans la base des vecteurs propres associés à A. 1 k (1. Si ρ(A) < 1. il suffit de prendre A = alors ρ(A) = 0.8. On rappelle aussi que Ak → 0 si et seulement si Ak y → 0. (1. On peut donc passer à la limite dans (1.8. En faisant tendre . d’après la question 1.70) < 1 et donc par Soit maintenant β ∈ IR + tel que lim inf k→+∞ Ak β vers lim inf k→+∞ Ak 1 k 1 k 1 < β. ρ(A) ≤ A . On a alors lim inf k→+∞ ( β A)k 1 k 1 la question 3. donc ρ(A) < β pour tout β ∈ IR + tel que lim inf k→+∞ Ak < β. (⇐) Supposons maintenant que ρ(B) < 1 alors l’égalité (1.8.71) De (1. (1.7 page 6. On a montré que ρ(A) < 1 si et seulement si Ak → 0 et que donc. si ρ(A) ≥ 1 alors Ak → 0. De plus. .73) Si ρ(A) < 1.5. Suppposons que ρ(A) < 1. donnée par la proposition 1. et comme A est non nulle. L3 62 Université Aix-Marseille 1 R. k Remarquons de plus que la série de terme général A est absolument convergente pour une norme · A. Donc x(k) −→ x = A−1 b. qui sont donc inversibles. ∀y ∈ IR N . alors Ak ≤ A et donc d’après la question précédente.29) donne x(k) − x = B k (x(0) − x) k→+∞ k→+∞ → 0 car ρ(B) < 1. SYSTÈMES LINÉAIRES ≤ ρ(A). est une norme matricielle. Par contre. 20 août 2010 .8. on a Pour montrer que ceci est faux dans le cas où A n’est pas diagonalisable. la série n’est pas absolument Analyse numérique I. CORRIGÉS En faisant tendre α vers ρ(A). Herbin. Si ρ(A) ≥ 1 il existe y ∈ IR N tel que Ak y −→ 0.71). Télé-enseignement. on a Ak → 0 lorsque k → 0. 2. A = 0.73) et on a donc (Id − A)−1 = k=0 Ak .70) et (1.8. (⇒) On démontre l’implication par contraposée. avec ε choisi tel que ρ(A) + ε < 1.8. les valeurs propres de A sont toutes différentes de 1 et −1. k→+∞ 6. Il est facile de remarquer que N ( k=0 Ak )(Id − A) = Id − AN +1 . La méthode est bien convergente. (1. ρ( β A) < 1.

et 2. alors Ax · x = 2x1 (x1 + x2 ). SYSTÈMES LINÉAIRES convergente pour n’importe quelle norme. Réciproquement.75) avec b ∈ IR N . la série ne peut pas converger en raison du résultat de la question 1 de l’exercice 5 page 37.  λ (1. 0)t .8.3.1 ). on a Ax · x < 0. On pourra s’en convaincre facilement grâce au contre–exemple (en dimension 1) suivant : la série sk = 1 + x + · · · + xk est absolument convergente pour la norme | · | sur IR pour |x| < 1.j )N i.8. ce qui n’est évidemment plus le cas si l’on remplace la norme par la norme (pourtant équivalente) · = 10| · |. si ρ(A) ≥ 1. On suppose que. dN. on peut remarquer qu’il est normal que A n’admette pas de décomposition LLt . β = − 2 et γ = 2 . car elle n’est pas définie positive. 1. Soit donc A ∈ MN +1 (IR) symétrique définie positive ou négative . Reprenons en l’adaptant la démonstration du théorème 1. CORRIGÉS CHAPITRE 1. 2.i = 0 pour 1 ≤ i ≤ N et on va démontrer que la propriété est encore vraie pour A ∈ MN +1 (IR) symétrique définie positive ou négative. avec y ∈ IR N pour le vérifier).  M  L=  bt  ˜ D   . Dans le cas N = 1. 2 b c En fait. 1.N ) dont les coefficients sont tous non nuls. . On peut donc définir L = ( on a bien A = LDLt .8. Exercice 11 page 38 (Décompositions LLt et LDLt ) 1 0 α 0 et D = . avec di. calculons LDLt avec L et D de la forme (1.75) et identifions avec A : Analyse numérique I. Pour déterminer b et λ. il existe une matrice M ∈ MN (IR) M = (mi. 2. on peut écrire A sous la forme :   a B    (1. d2. telles que : D (a) (b) (c) mi. on a A = (a1.2 . −2)t .1 = 1. Par hypothèse de récurrence. on obtient α = 2. et en prenant x = (1.i = 1 ˜ B = M DM t . pour 1 ≤ p ≤ N . .1 ). la décomposition A = LDLt s’obtient pour A ∈ Mp (IR) symétrique définie positive ou négative. on obtient c2 = − 1 ce qui est impossible dans IR. On pose L = Si maintenant on essaye d’écrire A = LLt avec L = a 0 . 1.j = 0 si j > i mi. soit x = (x1 . Herbin. D = (a1. D =    1 0 0   On va chercher L et D sous la forme : 0  .1 ) où 1.1 = 0. a ∈ IR N et α ∈ IR.1.j=1 et une matrice diagonale ˜ = diag(d1. 20 août 2010 . ..1 . Télé-enseignement. λ ∈ IR tels que LDLt = A.8. En effet.74) A=   at α où B ∈ MN (IR) est symétrique définie positive ou négative (calculer Ax·x avec x = (y. γ 1 0 β 1 1 Par identification. x2 )t ∈ IR 2 . . . d1. L3 63 Université Aix-Marseille 1 R. On raisonne donc par récurrence sur la dimension.

8.1 d1. on vient de montrer qu’il existe une matrice L ∈ MN (IR) triangulaire inférieure telle que i.      ˜ ˜ y 0 bt DM t bt Db N    0 λ   =   ˜ 1 bt DM t ˜ bt Db + λ on se rend compte facilement que tous les couples de la forme (−M −t by.1 = 1. ai.1 = a1. Par hypothèse ˜ ˜ de récurrence. . i. . y) ∈ IR N × IR solution de      ˜ ˜ M DM t 0 M Db x         =  .8.1.1 . y ∈ IR.   ˜ ˜ M DM t M Db    A = LDLt =    t˜ t t˜ b DM b Db qui n’est pas inversible. 3. On a ainsi montré que dN +1.1 1. ∀ (i. d1. y)t . et on veut donc que les égalités suivantes soient vérifiées : ˜ ˜ M Db = a et bt Db + λ = α.3. . an+1.1 = . N }. j) ∈ {1. SYSTÈMES LINÉAIRES ˜ M DM t ˜ M Db     On cherche b ∈ IR N et λ ∈ IR tels que LDLt = A. (1.N +1 = 0 ce qui termine la récurrence. . Herbin.n+1 donc n dn+1. La première égalité ci-dessus donne : b = D−1 M −1 a.j = k=1 i. telles que et A = LDLt .1 2. Remarquons qu’on a forcément λ = 0. pour j = 1.i = 1. et une matrice D ∈ MN (IR) diagonale inversible. .8. sont solutions. En effet. On calcule la colonne (n + 1) en prenant j = n + 1 dans (1.j = 0 si j > i. car si λ = 0. On suppose avoir calculé les n premières colonnes de L. si on cherche (x.1 = d1.76) 1. .k dk.k + dn+1. la matrice D est aussi inversible. le déterminant de M s’écrit det(M ) = i=1 1 = 1).k dk.1 a2. CORRIGÉS  M  LDLt =   bt  ˜ 0 D    1 0 0  Mt b   CHAPITRE 1. On reprend l’algorithme de décomposition LLt : Soit A ∈ MN (IR) symétrique définie positive ou négative .1 = i.n+1 = k=1 2 n+1.1 = 2.77) 64 Université Aix-Marseille 1 R. 20 août 2010 . On t −1 calcule alors λ = α − b M a. Télé-enseignement.1 ai. On a donc : N ai.k j. Calculons la 1ère colonne de L .1 donc d1. k=1 (1.1 donc 2. .k dk. .13) n Pour i = n + 1.n+1 − Analyse numérique I. La matrice M est inversible (en effet. L3 2 n+1.k . on a : a1. N }2 .1 ∀i ∈ {2. a2.n+1 = an+1. .1 donc i. Le noyau de la matrice n’est donc pas réduit à {0} et la matrice n’est donc pas inversible.k .

on a le nombre d’opérations suivant : n 3 2 3 2 – Calcul de n+1. .8. N 2 pour la remontée. Si on reprend l’algorithme de construction de la matrice L vu en cours. voir cours).n+1 − 1/2 n+1. comme on a montré dans la question 2 que les coefficients dk. Exercice 16 page 39 (Décomposition LLt d’une matrice bande) On utilise le résultat de conservation du profil de la matrice énoncé dans le cours. 20 août 2010 . Le calcul de A2 nécessite nécessite donc (2N −1)N (N +1) opérations élémentaires. (1.n+1 n+1.1.k CHAPITRE 1.n+1 Analyse numérique I. . le nombre p de diagonales de la matrice A est forcément impair si A .k une division seulement car n+2.k ) k=1 >0: une multiplication.78) Exercice 13 page 38 (Sur la méthode LLt ) Corrigé en cours de rédaction Exercice 14 page 38 (Sur la méthode LLt ) Calculons le nombre d’opérations élémentaires nécessaires pour chacune des méthodes : 1. La résolution du système A2 x = b nécessite 2N 2 opérations (N 2 pour la descente. CORRIGÉS On procède de la même manière pour i = n + 2. alors la matrice L aura également q sous-diagonales non nulles. n 1 : – Calcul de n+2. une extraction de racine. on remarque que pour le calcul de la colonne n + 1. Herbin.n+1 dn+1. L3 65 Université Aix-Marseille 1 R. SYSTÈMES LINÉAIRES ai. et la matrice comporte N 2 coefficients. Le nombre total d’opérations pour le calcul de la solution du système A2 x = b par la première méthode est 3 2 3 donc (2N −1)N (N +1) + N + 3N + N = 4N + O(N 2 ) opérations. on a : n+1 n i.n+1 − i.k n+1. 2 Le nombre d’opérations élémentaires pour effectuer la décomposition LLt de A2 nécessite N + N + N 3 2 6 (cours). il est donc avantageux de choisir la deuxième méthode.k = 0. 1.et 2 sur-diagonales non nulles de la matrice A. k=1 n+1. La décomposition LLt de A nécessite N + N + N .k sont tous non nuls. . 2 3 2 6 3 2.n+1 = = k=1 i. N . Le nombre total d’opérations pour le calcul de la solution du système A2 x = b 3 2 3 par la deuxième méthode est donc N + 9N + N = N + O(N 2 ) opérations.k dk.8. et la résolution des systèmes LLt y = b et LLt x = y 3 2 6 nécessite 4N 2 opérations. Le calcul de chaque coefficient nécessite N multiplications et N − 1 additions.k k=1 n+1. 3 2 6 3 Pour les valeurs de N assez grandes. Cas d’une matrice tridiagonale.n+1 − n+2.k dk. avec 1 ≤ n < N − 1.n+1 = ai. Télé-enseignement.k + i. .n+1 et donc.k n+1. Comme A est symétrique. .n+1 = (an+1. une soustraction.k n+1. notons q = p−1 le nombre de sous.n+1 = an+2. Comme la matrice est symétrique.n+1 . seuls N (N + 1)/2 coefficients doivent être calculés.k dk. soit 3 opérations élémentaires.k k=1 1 dn+1. on peut écrire : n i.k n+1.

On a donc n+q+1 xn = i=n+1 q+1 2(n − i + q + 1) + 1 = j=1 2(−j + q + 1) + 1 q+1 = (q + 1)(2q + 3) − 2 = (q + 1)2 .n+1 = (an+1. et donc on a (n − i + q + 1) multiplications et additions. alors que dans le cas de la discrétisation de l’équation Analyse numérique I.1. De plus.k ) k=1 n > 0. et donc le nombre zq est O(1) par rapport à N . .n+1 − = ai. car la somme k=1 fait intervenir au plus q termes non nuls. est 4N − 3. (1. Or le nombre d’opérations pour la première et dernière colonnes est inférieur à 4 (2 opérations pour la première colonne.n+1 − n 1/2 n+1.79) et 1 i.k n+1.8. qui est indépendant de N (on rappelle qu’on cherche une estimation en fonction de N .8. Un encadrement du nombre d’opérations nécessaires pour la décomposition LLt d’une matrice à p diagonales est donc donnée par : (q + 1)2 (N − 2q) ≤ Zp (N ) ≤ (q + 1)2 (N − 2q) + 2q(2q + 1)(q + 1). 3. les termes non nuls de la somme sont pour k = i − q. . pour chaque colonne n + 1. CORRIGÉS CHAPITRE 1.n+1 . SYSTÈMES LINÉAIRES On en déduit que le nombre d’opérations élémentaires pour le calcul de la colonne n + 1.8. .k n+1.80).) Calculons maintenant le nombre d’opérations xn nécessaires une colonne n = q + 1 à N − q − 1. n. à q constant.8. On cherche une estimation du nombre d’opérations Zp (N ) pour une matrice à p diagonales non nulles (ou q sous-diagonales non nulles) en fonction de N . est de 4. Zp (N ) = O((q + 1) N )).8.79) et (1.81) et que. avec 1 ≤ n < N − 1.8. il y a au plus q + 1 coefficients i. une seule pour la dernière). L3 66 Université Aix-Marseille 1 R. Télé-enseignement.80) k=1 est toujours inférieur à 2q + 1. donc au plus q + 1 coefficients à calculer. ce qui donne que Z1 (N ) est de l’ordre de 4N (le calcul exact du nombre d’opérations. Remarquons qu’on retrouve bien l’estimation obtenue pour q = 1. Cas d’une matrice à p diagonales. 20 août 2010 . une division ou extraction de racine. .n+1 i. Dans (1. On remarque que le nombre d’opérations nécessaires au calcul de n n+1. on a q = 1 et la méthode de Choleski nécessite de l’ordre de 4N opérations élémentaires. On peut donc majorer le nombre d’opérations zq pour les q premières colonnes et les q dernières par 2q(2q +1)(q + 1). Herbin. inutile ici car on demande une estimation.) 2. Donc le nombre d’opérations pour chaque colonne peut être majoré par (2q + 1)(q + 1).k n+1. 2 (1. . (1.n+1 non nuls. j j=1 Le nombre zi d’opérations nécessaires pour les colonnes n = q + 1 à N − q − 1 est donc zi = (q + 1)2 (N − 2q). Le nombre Z1 (N ) d’opérations élémentaires pour la décomposition LLt de A peut donc être estimé par : 4(N − 2) ≤ Z1 (N ) ≤ 4N. Dans le cas de la discrétisation de l’équation −u = f traitée dans le cours page 18.

Si A est s.p. Exercice 18 page 40 (propriétés générales du conditionnement) Partie I 1. On a donc pour toute matrice A ∈ MN (IR). Partie II √ 1.1. alors At A = A2 et σi = λ2 où λi est valeur propre de la matrice A. fN ) telle que At Afi = √ 1 σfi . σ1 2. Or on a vu à l’exercice 3 que A 2 = (ρ(At A))1/2 = σN . .. or ρ((AAt )−1 ) = . Id ≤ A ce qui prouve que cond(A) ≥ 1. On peut noter que l’encadrement (1. 2. A−1 3. Analyse numérique I.Par définition. Donc cond(AB) ≤ cond(A)cond(B). Comme At A est symétrique définie positive (car A est inversible). σ1 ˜ où σ1 est la plus petite valeur propre de la matrice AAt . Par définition. Comme · est une norme induite. Or les valeurs propres de AAt sont les valeurs propres ˜ de At A : en effet. σN = 1. CORRIGÉS CHAPITRE 1. σ1 4. ∀i et σ > 0 (car At A est s. On a donc : cond2 (A) = A 2 A−1 2 = QR 2 R−1 Qt 2 . α Réciproquement. Soient A et B des matrices inversibles. alors AB est une matrice inversible et cond(AB) = ≤ AB A car · est une norme matricielle. et donc cond2 (A) = 1. si λ est valeur propre de AAt associée au vecteur propre x alors λ est valeur propre de AAt associée au vecteur propre At x.). Herbin. SYSTÈMES LINÉAIRES √ −∆u = f traitée dans le cours page 25-26. L3 67 Université Aix-Marseille 1 R.8. On suppose que A = QR où Q est une matrice orthogonale. On a dans ce cas cond2 (A) = i λN . Télé-enseignement.d. .8. alors At A = α2 Id. On a donc At A = σId At = α2 A−1 avec α = σ. cond(αA) = = (αA)−1 1 A−1 = cond(A) |α| A |α| αA (AB)−1 = AB B −1 A−1 B B −1 A−1 . c’est donc une norme matricielle. . on a cond2 (A) = A 2 A−1 2 . on a q = N et la méthode de Choleski nécessite de l’ordre de N 2 opérations élémentaires (dans les deux cas N est le nombre d’inconnues). si A = αQ. alors σN σ1 = 1 et donc toutes les valeurs propres de At A sont égales. λ1 3. 20 août 2010 . Si cond2 (A) = 1.81) est intéressant dès que q est d’ordre inférieur à N α . il existe une base orthonormée (f1 . α 1 on a donc Qt = At = αA−1 = Q−1 . On a donc cond2 (A) = σN . On a donc 1 1/2 A−1 2 = (ρ((A−1 )t A−1 ))1/2 = ρ(AAt )−1 ) .d. α < 1.p. A ∈ MN (IR) est une matrice inversible. En posant Q = A.

. b. Alors νN .p.8. c..d.p. . ≤ νN sont les valeurs propres de A + B. il suffit pour s’en rendre compte de décomposer x sur la x 2 =1 N base (fi )i=1. On en déduit que cond2 (A + B) ≤ max(cond2 (A). d) ∈ (IR ∗ )4 .N . Or At A = (QR)t (QR) = σ1 Rt Q−1 QR = Rt R. si A est s. donc c+d ≤ d . Ax · x ≥ λ1 Σα2 = λ1 et Ax · x = λ1 si x = f1 . cond2 (A + B) = ν1 a) On va d’abord montrer que λN + µN cond2 (A + B) ≤ . ≤ λN et 0 < µ1 ≤ µ2 . où 0 < ν1 ≤ . A + δA = A(Id + A−1 δA). δA . Donc cond2 (A) = cond2 (R). . cond2 (A) = inf x =1 Ax · x sup x =1 (A + B)x · x Donc cond2 (A + B) = inf x =1 (A + B)x · x Or sup (Ax · x + Bx · x) ≤ sup Ax · x + sup Bx · x = λN + µN x =1 x =1 x =1 et inf (Ax · x + Bx · x) ≥ inf Ax · x + inf Bx · x = λ1 + µ1 x =1 x =1 x =1 donc cond2 (A + B) ≤ b) On va montrer que λN + µN . Comme A est inversible. ∀(a. Alors : Ax · x = i=1 α2 λi ≤ λN Σα2 = λN . Donc inf Ax · x = λ1 . A . ). ≤ µN les valeurs propres de A et B (qui sont s.. . ≤ σN sont les valeurs propres de At A. . soit encore cond(A) ≥ 68 δA .d. Herbin. . L3 Université Aix-Marseille 1 R. alors sup Ax · x = λN . + c+d c d Supposons que a+b a ≥ alors (a + b)c ≥ (c + d)a c’est–à–dire bc ≥ da donc bc + bd ≥ da + db soit c+d c b a+b b(c + d) ≥ d(a + b) .d. λ1 + µ1 a+b a b ≤ max( .. et comme ρ(A−1 δA) ≤ A−1 δA ≤ A−1 on obtient A−1 δA ≥ 1. Or on a vu en cours que toute matrice de la forme Id + B est inversible si et seulement si ρ(B) < 1. Soient 0 < λ1 ≤ λ2 . Soit x = i=1 αi fi ..p.). CORRIGÉS En effet.d. 20 août 2010 . . alors Id + A−1 δA est singulière. cond2 (B)). On en déduit que ρ(A−1 δA) ≥ 1. i sup x =1 Ax · x On en déduit que si A est s.p. . alors cond2 (A) = sup x =1 Ax · x inf x 2 =1 Ax · x N 1. Et AfN · fN = λN . Analyse numérique I. i i x =1 De même. Exercice 20 page 40 (Minoration du conditionnement) 1. 5.CHAPITRE 1. λ1 + µ1 Remarquons en premier lieu que si A est s. et donc si A + δA est singulière.. Télé-enseignement. SYSTÈMES LINÉAIRES σN On a aussi cond2 (A) = où σ1 ≤ .

0 3. car α ∈]0. Herbin. elles mesurent la qualité de l’approximation de A−1 . 0. et δA = −y x .42). En effet. (b) On remarque d’abord que comme la norme est matricielle. comme il s’agit ici de la norme L2 . (a) L’inverse de la matrice A vérifie les quatre équations suivantes :   X − A−1 = 0. e3 et e4 sont les erreurs relatives commises sur ces quatre équations lorsqu’on remplace X par B . detA = 2α2 > 0. Soit x = A y. −α −α (1. Soit δA =  0 0 Comme det(A + δA) = 0. δA = Or par définition de x et y.8.on a donc xt x (A + δA)x = Ax − La matrice A + δA est donc singulière. 0. δA = 2 y 2 A−1 = On a donc dans ce cas égalité dans (1.6. L3 . e2 = Or E A−1 ≤ ε −1 = ε. On en déduit que 2 −y xt x −y xt x=y− = 0. 1[. Donc cond(A) ≥ Exercice 22 page 41 (Calcul de l’inverse d’une matrice et conditionnement) 1. la matrice A + δA est singulière. CORRIGÉS CHAPITRE 1. On va se servir de cette propriété plusieurs fois par la suite. SYSTÈMES LINÉAIRES t N −1 −1 −1 2. on a M P ≤ M P pour toutes matrices M et P de MN (IR). 1 + 2α) = 3. Télé-enseignement.1. 20 août 2010 (A−1 + E)−1 − A = = = = 69 Analyse numérique I. Remarquons tout d’abord que la matrice A est inversible. X −1 − A =  AX − Id = 0. e2 . = A−1 2 . De plus. xt x xt x 1 x 2 y y t A−t . D’autre part. Soit y ∈ IR tel que y = 1 et A y = A . δA Or δA = 2α et A = max(3. A−1   0 0 −α α  . Université Aix-Marseille 1 R. on a 1 A−1 1 . A−1 A B −1 − A (A−1 + E)−1 − A = . A A (A−1 (Id + AE))−1 − A (Id + AE)−1 A − A (Id + AE)−1 (Id − (Id + AE))A −(Id + AE)−1 AEA. . (α) Comme B = A−1 + E. on a x A−t = A−1 . en ce sens.82) 3 2α . on a e1 = (β) Par définition. XA − Id = Les quantités e1 .8. et donc cond(A) ≥ A .

d ≥ 0. Les coefficients de A−1 sont donc 2. e3 = AB − Id = A(A−1 + E) − Id = AE ≤ A E ≤ A ε A−1 = εcond(A). or b ≤ 0 et c ≤ 0.11. on a bien x ≥ 0. A−1 (Id + E ) − A−1 ≤ Id + E − Id ≤ ε. Herbin. on a : AA−1 ei = ei ≥ 0. ce qui montre que tous les coefficients de A−1 sont positifs. = ≤ (Id + E ) Id − (Id + E ) ≤ ε 1−ε Exercice 24 page 42 (IP-matrice) 1. que : e2 ≤ (Id + AE)−1 A CHAPITRE 1. e2 = (γ) Par définition.44). Analyse numérique I. alors Ax = 0 entraine x = 0 ce qui montre que A est inversible. (δ) Enfin. et donc e2 ≤ . on aurait bc > 0. Télé-enseignement. a ≤ 0. et donc par la propriété de IP-matrice. (δ) Enfin. A−1 ei ≥ 0. e4 = BA − Id = (A−1 + E)A − Id ≤ EA ≤ E A ≤ εcond(A). 1 − AE 1 − εcond(A) (Id + AE))−1 ≤ (c) (α) Comme B = A−1 (Id + E ). Soit ei le i-ème vecteur de la base canonique de IR n . SYSTÈMES LINÉAIRES E .6. c ≥ 0 b ≤ 0. si A est une IP-matrice. E ≤ cond(A)ε < 1 . La matrice inverse de A est A−1 = ∆ −c a positifs ou nuls si et seulement si    ad < bc. on en déduit. Or on a forcément ad = 0 : en effet sinon on aurait dans le premier cas) bc < 0. et comme tous les coefficients de A−1 et de b sont positifs ou nuls. car ε < 1 (théorème 1. et donc la matrice A + δA 1 est inversible si δA < . Or A−1 δA ≤ A−1 δA . De même dans le deuxième cas.   b ≥ 0. or b ≥ 0 et c ≥ 0. alors la matrice Id + A−1 δA est inversible.11) que si A−1 δA < 1. e3 = AB − Id = AA−1 (Id + E ) − Id = E ≤ ε.1). d ≤ 0 ou a ≥ 0. d −b 1 avec ∆ = ad − bc. CORRIGÉS On a donc Or par hypothèse. e4 = BA − Id = A−1 (Id + E )A − Id = A−1 (A + E A − A) ≤ A−1 AE ≤ εcond(A). On a vu en cours (théorème 1. on a e1 = (β) Par définition. A−1 (b) On peut écrire (A + δA )−1 − A−1 = (A + δA )−1 (Id − (A + δA )A−1 ≤ (A + δA )−1 Id − Id − δA A−1 ≤ (A + δA )−1 δA A−1 . L3 Université Aix-Marseille 1 R. en utilisant le théorème 1 εcond(A) . Supposons d’abord que A est inversible et que A−1 ≥ 0 . Réciproquement. (a) On peut écrire A + δA = A(Id + A−1 δA ). (γ) Par définition. ce qui aboutit à une contradiction. On en déduit le résultat. Les conditions précédentes sont donc équivalentes aux conditions (1. AE ≤ A 1.1.  ad > bc. On a donc x = A−1 b. c ≤ 0. soit x ∈ IR n tel que b = Ax ≥ 0. A−1 (Id+E )−1 A−A A (Id+E )−1 (A−(Id+E )A) A −1 2. 20 août 2010 . 70 .8.

N j=1 j=k N |ak. on a alors A(x − η) ≥ 0 et donc x ≥ η. et donc que xk ≥ 0. . Si T f ≥ 0. Pourtant A n’est pas inversible. Alors N (Ax)k = ak. Si la matrice A vérifie (1. Soit x tel que Ax ≥ 0.45). .) 1.j |(xj − xk ). 1 On vérifie facilement que T f ∈ E. on a alors {x ∈ IR N t. La matrice At est une IP-matrice si et seulement At est inversible et (At )−1 ≥ 0. L3 71 Université Aix-Marseille 1 R. on a A(x + εb) > 0 et donc x + εb > 0. on en déduit que f (0) ≥ 0 par continuité. Si Ax > 0. 1 9. On a g(0) = 0. on va montrer que Ax · x > 0 si x = 0. alors il existe ε ≥ 0 tel que Ax + ε1 ≥ 0. Soit 1 le vecteur de IR N dont toutes les composantes sont égales à 1.j > 0 i=1 (A pour tout i = 1.j xj ≥ 0.j = −|ak.j |xj ≥ 0.j ≤ 0 pour k = j.46). et n’est donc pas une IP-matrice. On a N −1 1 Ax · x = 2 x1 (2x1 − x2 ) + xi (−xi−1 + 2xi − xi+1 ) + 2x2 − xN −1 xN N h i=2 Analyse numérique I. alors la matrice At vérifie (1. .6. Télé-enseignement. et donc ak. Montrons maintenant que η > 0 : tous les coefficients de A−1 sont positifs ou nuls et au moins l’un d’entre N −1 eux est non nul par ligne (puisque la matrice A−1 est inversible). Soit k ∈ 1. Comme xk = min{xi . donc T g > 0. 6.8. Or T g(0) = π 2 1 et T g(x) = | arctan x | > 0 si x > 0.j |. i = 1. On en déduit que ηi = )i.6. on en déduit que x ≥ 0. avec T f (x) = f ( x ) si x = 0 et f (0) = . CORRIGÉS CHAPITRE 1. 5. . Soit η = A−1 1 ≥ 0 . . . Soit maintenant b = A−1 1 . On a donc bien x ≥ η > 0. . D’où l’équivalence. . Pour montrer que A est définie positive (car A est évidemment symétrique). 4. x > 0}. .45). On a donc bien f ≥ 0. Supposons que A vérifie (1. i = 1.6.k xk + j=1 j=k ak. N }. On peut donc écrire : N ak. Exercice 26 page 44 (Valeurs propres et vecteurs propres de A. Soit maintenant g définie de IR dans IR par g(x) = | arctan x|.q. et soit x ∈ IR N tel que Ax ≥ 0. Herbin. On a donc x ≥ 0. on en déduit que le second membre de cette inégalité est positif ou nul. . N }. Or (At )−1 = (A−1 )t . . SYSTÈMES LINÉAIRES 3. alors f ( x ) ≥ 0 pour tout x ∈ IR . . . N tel que xk = min{xi . donc g > 0. N . Soit A la matrice nulle. comme l’espace IR N est de dimension finie. il existe > 0 tel que Ax ≥ 1.j |)xk ≥ j=1 j=k |ak. et donc {x ∈ IR N t. Par hypothèse.k − j=1 j=k |ak. 20 août 2010 . En faisant tendre ε vers 0. Ax > 0} ⊂ {x ∈ IR N t. .q.q. . .k xk − et donc : (ak. 8. donc f (x) ≥ 0 pour tout x ∈ IR \ {0} . Ax > 0} = ∅. On en déduit par les questions précédentes que At et A sont des IP-matrices. avec = lim±∞ f .1. . ak. car A est une IP-matrice. Soit T ∈ L(E) défini par f ∈ E → T f . 7.

1 Pour chercher les valeurs propres et vecteurs propres de A. . c’est–à–dire des valeurs λ et fonctions ϕ telles que −ϕ (x) = λϕ(x) x ∈]0.p.8. . Comme A est s. on a λk Donc (h) = 2 h2 1−1+ λk k 2 π 2 h2 + O(h4 ) 2 → k 2 π 2 = λk h → 0. Les couples (λ. où xi = ih. . on veut β = 0 car on cherche ϕ = 0 et donc on obtient λ = k 2 π 2 .1.d. = k 2 φ2 + O(h2 ) (h) Calculons cond2 (A). où λk = (k) i = 1..83) sont donc de la forme (k 2 π 2 . sin kπx). . N.83) (Notons que ce “truc” ne marche pas dans n’importe quel cas. . .) L’ensemble des solutions de l’équation différentielle −ϕ = λϕ est un espace vectoriel d’ordre 2.8. (k) 2. et calculons AΦ(k) : (AΦ(k) )i = −sinkπ(i − 1)h + 2 sin kπ(ih) − sin kπ(i + 1)h. . L3 72 Université Aix-Marseille 1 R. . Φ(N ) de IR N tels que kπi (k) . donc x = 0. SYSTÈMES LINÉAIRES N −1 i=2 N 2x2 − x1 x2 − 1 N N xi xi−1 + 2x2 − i N i=3 xi xi−1 + 2x2 − xN −1 xN N x2 + i i=2 x2 + x2 − 2 1−i N xi xi−1 i=1 = i=2 (xi − xi−1 )2 + x2 + x2 ≥ 0. ϕ) vérifiant (1. Φi = sin N +1 Remarque : Lorsque N → +∞ (ou h → 0). i = 1 . Herbin. Donc h2 cond2 (A) → 4 π2 lorsque h → 0.8. En utilisant le fait que sin(a + b) = sin a cos b + cos a sin b pour développer sin kπ(1 − i)h et sin kπ(i + 1)h. . posons Φi = sin kπxi . on obtient (après calculs) : (AΦ(k) )i = λk Φi . on a cond2 (A) = On a : h2 λN Nπ 1 − cos N +1 λN . = λ1 1 − cos Nπ +1 Nπ = 2(1 − cos N +1 ) → 4 et λ1 → π 2 lorsque h → 0. Télé-enseignement. 1[ ϕ(0) = ϕ(1) = 0 (1. 20 août 2010 . Pour k = 1 à N . . on s’inspire des valeurs propres et vecteurs propres du problème continu. pour i = 1 à N . CORRIGÉS On a donc h2 Ax · x = = i=1 N CHAPITRE 1. Analyse numérique I. N. . Ax · x = 0 ⇒ x2 = xN = 0 et xi = xi−1 pour i = 2 à N . donc ϕ est √ √ de la forme ϕ(x) = α cos λx + β sin λx (λ ≥ 0) et α et β dont déterminés par les conditions aux limites √ √ ϕ(0) = α = 0 et ϕ(1) = α cos λ + β sin λ = 0 . 2 2 kπ (1 − cos kπh) = 2 (1 − cos ) h2 h N +1 On a donc trouvé N valeurs propres λ1 . λN associées aux vecteurs propres Φ(1) . N 1 De plus.

N + 1 et donc u ≥ 0. . . donc ≤ . . ce développement est exact. 8 ≤ 1 A−1 b ∞ 1 1 b . N . uN )t . Ceci démontre que l’application linéaire représentée par la matrice A est injective donc bijective (car on est en dimension finie).j |. . et donc que si Au = 0 alors u = 0. 8 1 et comme N est impair. cond(A) = A 1 2h2 . Soit u = (u1 . N . . . .1. On en déduit que u On a donc − b φi ≤ b φi . A−1 b On montre que A−1 = ∞ ≤ b φ ∞ . Si p = 0 ou N + 1. . Herbin. A−1 = 5.N |ai. 20 août 2010 . . Si p ∈ {1. . et comme ϕ est un polynôme de degré 2. Grâce aux questions 3 et 4.8. b ui + b φi ≥ 0 ∀i = 1 . N. (Aφ)i est le développement de Taylor à l’ordre 2 de ϕ (xi ). N }. SYSTÈMES LINÉAIRES 1 1 (ui − ui−1 ) + 2 (ui − ui+1 ) = bi . h2 h u0 = uN +1 = 0. Soient b ∈ IR N et u ∈ IR N tels que Au = b. et donc A = maxi=1. D’où u 8 ∞ ≤ 1 b . . . CORRIGÉS Exercice 28 page 45 (Conditionnement “efficace") Partie I 1. On a : (A(u ± b ϕ))i = (Au)i ± b (Aφ)i = bi ± b . Par définition. . . . d’où A−1 ≤ . N. ∃i ∈ {1. . N . On en déduit par linéarité que si Au ≤ 0 alors u ≤ 0. On vient de montrer que si Au ≥ 0 alors u ≥ 0.or ϕ ∞ = ϕ( 1 ) = 8 . . 2 2 4. . . . Si maintenant on prend ¯i = bi − b ≤ 0. . N } tel que xi = 1 . Supposons bi ≥ 0. . alors ui ≥ 0 ∀i = 0. . . L3 73 Université Aix-Marseille 1 R. N + 1). . ∀i = 1. 1]. i = 1. 8 b ∞ 8 8 1 en prenant le vecteur b défini par b(xi ) = 1. On a Au = b ⇔ CHAPITRE 1. . Prenons d’abord ˜i = bi + b ≥ 0. N. on aboutit à une contradiction. on a. par définition du conditionnement pour la norme · . alors 1 1 (up − up−1 ) + 2 (up − up+1 ) ≥ 0 2 h h et comme up − up−1 < 0 et up − up+1 ≤ 0. .N j=1. . . . . 3. 2. i = 0. or φ ∞ = 1 . . Soit ϕ ∈ C([0. . On a en effet A−1 b = φ. Analyse numérique I. on a A = sup x ∞ =1 Ax . d’où le résultat. . et soit p ∈ {0. . ∀i = 1. . . . ∞ On peut alors écrire que pour tout b ∈ IR N . IR) tel que ϕ(x) = 1/2x(1 − x) et φi = ϕ(xi ). N + 1} tel que up = min(ui . . Télé-enseignement. alors b ui − b φi ≤ 0 ∀i = 1. ∀i = 1. Montrons maintenant que A est inversible. où xi = ih. Donc (Aφ)i = ϕ (xi ) = 1. alors par la question (1).

. Analyse numérique I. On a donc N 1 h i=1 bi ϕi = 0 f (h) (x)ϕ(h) (x)dx → 1 0 f (x)ϕ(x)dx lorsque h → 0. on a évidemment N 1 SN = i=1 bi ϕi > 0 et SN → 0 f (x)ϕ(x)dx = β > 0 lorsque h → 0. la fonction fh (resp. Donc il existe N0 ∈ IN tel que si N ≥ N0 . ϕ) lorsque h → 0. Partie 2 Conditionnement efficace 1. Pour obtenir l’égalité. Or hN = 1 et on . N . . 2 2 f (ih) = bi si x ∈]xi − h . SYSTÈMES LINÉAIRES b ≤ A−1 δb b A b u . et comme N u ≥ . Herbin. . on obtient : h u 8 α b bi ϕi ≥ f ∞ δb δu ≤ . . 2 2 N 2. 2 2 f (ih) = 0 si x ∈ [0. u 8α b 3. . S1 . 1)t donc u · Aϕ = N i=1 ui . Soient ϕ(h) et f (h) les fonctions constantes par morceaux définies par ϕh (x) f (h) (x) = = ϕ(ih) = φi si x ∈]xi − h . . CORRIGÉS Comme Aδu = δb . . Comme δu = A−1 δb . D’autre part. SN0 . N. et δb tel que δb = 1 et A−1 δb = A−1 . 1]. ) > 0. et donc tend vers l’infini lorsque le u pas de discrétisation tend vers 0. b A u D’où l’égalité. d’où le résultat. IR) et ϕ ∈ C 2 ([0. ϕh ) converge uniformément vers f (resp. L3 74 Université Aix-Marseille 1 R. Comme bi > 0 et fi > 0 ∀i = 1. Le conditionnement cond(A) calculé dans la partie 1 est d’ordre 1/h2 . h i=1 δu 1 hN f ∞ α ≤ δb . 2 2 et Comme f ∈ C([0. . . . Aϕ = (1 . On a N u = N supi=1.N |ui | ≥ ui . . . h ] ou x ∈]1 − h . 1]. xi + h [. xi + h [. . 2 2 0 si x ∈ [0. i = 1. on a : δu ≤ A−1 δb CHAPITRE 1. On obtient alors 1 δu δb = et = A−1 . h ] ou x ∈]1 − h .1. alors qu’on vient de montrer dans la partie 2 que la variation relative δu est inférieure à une constante multipliée par la variation relative de δbb . Cette dernière information est nettement plus utile et réjouissante pour la résolution effective du système linéaire. Donc u · Aϕ = on a donc δu ≤ A−1 a donc bien : δb α d’après la question 1. 20 août 2010 . SN ≥ N i=1 β β .8. 1]. IR). or u · Aϕ = At u · ϕ = Au · ϕ car A est symétrique. 1]. Télé-enseignement. et donc SN ≥ α = min(S0 . il suffit de prendre b = Au où u est tel que u = 1 et Au = A .

1 [ qui est strictement inclus dans l’intervalle 2 2 ] − 1 .j xj | ≤ j. 0 aN. – Si a = 0. µ 1 1 aµ a a aµ a = a3 det 1 µ 1 = a3 (µ3 − 3µ + 2). ce qui est impossible pour i tel que j. . Les valeurs propres de D − A sont donc ν1 == −a (valeur propre double) et ν2 = 2a.d. N |xi | = x ∞. . j=1 Pour i ∈ {1. . alors A = Id. . 2 2 La méthode de Jacobi ne converge donc que sur l’intervalle ] − 1 .. . . .. .p. N.N La matrice d’itération est Analyse numérique I. 2 Exercice 32 page 47 (Jacobi pour les matrices à diagonale dominante stricte) Pour montrer que A est inversible.. donc la méthode converge si et seulement si ρ(D − A) < 1.i ||xi | = |ai.j xj | x ∞ < x ∞. . P (µ) = det a 1 1 µ a a aµ On a donc P (µ) = a3 (µ − 1)2 (µ + 2). . 1 < a < 1 . et calculons le polynôme caractéristique de la matrice A en fonction de la variable µ. Les valeurs propres de D − A sont de la forme ν = 1 − λ où λ est valeur propre de A.1 0   . |ai. Montrons maintenant que la méthode de Jacobi converge : Avec le formalisme de la méthode II du cours. ∀i = 1. . et N = M − A. Les valeurs propres de la matrice A sont donc obtenues pour µ = 1 et µ = 2. on a donc |ai. et la méthode de Jacobi converge. supposons qu’il existe x ∈ IR N tel que Ax = 0 .8. 20 août 2010 . M =D=  . L3 75 Université Aix-Marseille 1 R. SYSTÈMES LINÉAIRES – Si a = 0. on a   a1.j | x ∞.i | ai. ∀i = 1.i=j |ai.1. c’est–à–dire : λ1 = 1 − a et λ2 = 1 + 2a.i=j ai.p. Herbin. 1[ des valeurs de a pour lesquelles la matrice A est s. posons aµ = (1 − λ). N }. . Télé-enseignement. avec D = Id dans le cas présent . donc A est s.e. 1 La matrice A est définie positive si λ1 > 0 et λ2 > 0.d. On en conclut que la méthode de Jacobi converge si et seulement si −1 < −a < 1 et −1 < 2a < 1. La méthode de Jacobi s’écrit : X (n+1) = D−1 (D − A)X (n) . .i=j j. CORRIGÉS Exercice 30 page 46 (Non convergence de la méthode de Jacobi) CHAPITRE 1. i. on a donc N aij xj = 0. . c’est–à–dire si − 2 < a < 1. on a donc |xi | ≤ .i xi | = | Si x = 0.

. Notons que |xi | = 0 car x est vecteur propre.2 − a1. |xj | Analyse numérique I. On a donc ρ(J) < 1..i | P j. .i ||xi |.i ||xi |.j   . .. N .j 0    a Cherchons le rayon spectral de J : soient x ∈ IR N et λ ∈ IR tels que Jx = λx. (1.. . L3 76 Université Aix-Marseille 1 R.i j.j xj | = |λ||ai.j xj | = |ai. . (a) Soit λ une valeur propre de J associée au vecteur propre x.i=j  = a − ai. .8.85) Si A est diagonale. alors j.1 − aN. xi = 0 pour tout i = 1. |ai.j | ≤ 1. −ai. et donc aussi inversibles. 20 août 2010 .8. pour tout i = 1. .j xj = λxi . 0 0 1. On a donc | ai. . . 2.j ||xj | pour tout i = 1. | On a donc j=i j=i |ai. soit encore (E + F )x = λDx. On en déduit que la matrice D est inversible et que la méthode de Jacobi est bien définie. J = M −1 N = D−1 N  =  . et donc |λ||xi | ≤ ai. En divisant l’égalité précédente par |xi |. Herbin. j=i Soit i tel que |xi | = maxj=1. on déduit de l’inégalité précédente que |λ| ≤ valeur propre λ. ..1.j | |aii | < 1 pour toute 1.. N. . .j ||xi | ≤ ≤ |ai. donc non nul. on obtient : |λ| ≤ par hypothèse.j xj | |ai.i ||xi | = | j=i j=i ai.84).i | (b) Soit x ∈ IR N tel que Jx = λx avec |λ| = 1.N CHAPITRE 1. Télé-enseignement. Donc la méthode de Jacobi converge. Alors j=i ai.N |xj |.8. 0   0 . N. . Exercice 34 page 47 (Jacobi pour les matrices à diagonale dominante forte) |ai. On a donc Jx = λx. −ai. Supposons maintenant A non diagonale.i=j Soit i tel que |xi | = x ∞ et x = 0.i=j |ai.N 1. On déduit alors de (1.84) |ai.j | x ∞ .. .1 . a−1 N.1 . |ai.. CORRIGÉS   a−1 1. Si A est symétrique définie positive alors Aei · ei > 0 pour tout vecteur ei de la base canonique. SYSTÈMES LINÉAIRES 0 . alors en vertu de (1. (1. . .85) que |xi | ≤ 1 pour tout i = j. On en déduit que ρ(J) ≤ 1. c’est-à-dire D−1 (E + F )x = λx. Tous les coefficients diagonaux sont donc strictement positifs.8.8.

Analyse numérique I. . On a ainsi prouvé que J n’admet pas de valeur propre de module égal à 1. si |xi0 | = 0. (c) La matrice A de l’exercice 33 est à diagonale fortement dominante. . On en déduit que Mω x(n+1) = Nω x(n) + b avec 1 1 Mω = ω D et Nω = ω D − A. Or. ce qui prouve que la méthode converge. Il existe donc (f1 . alors T rJ > 0. On a alors D−1 (E + F )f1 = −αfN . N. Supposons que µ1 ≤ −1. . j. Exercice 36 page 48 (Méthode de Jacobi et relaxation) 1. ce qui contredit le fait que A est définie positive. µN ) ∈ IR N tels que Jfi = D−1 (E + F )fi = µi fi . . Supposons maintenant que µN = α ≥ 1. ce qui s’écrit aussi (D +E +F )f1 = D(1−α)f1 c’est–à–dire (2D −A)f1 = βDf1 avec β ≤ 0. Un raisonnement similaire montre que µN ≥ 0. |ai0 . 20 août 2010 . On a donc x(n+1) = x ˜ ω[D−1 (E+F )x(n) +D−1 b]+(1−ω)x(n) c’est–à–dire x(n+1) = [Id−ω(Id−D−1 (E+F ))]x(n) +ωD−1 b. On en déduit que x = 0.. Or T rJ = i=1 µi . N . µN ). et (Dfi . On en déduit que AfN = (D − E − F )fN = D(1 − α)fN = DβfN avec β ≤ 0. soit encore (E + F )fN = −αDfN . Par définition de J.1. . On a alors D−1 (E +F )f1 = −αf1 ou encore (E +F )f1 = −αDf1 . par hypothèse. . avec α ≥ 1. tous les éléments diagonaux de J sont nuls et donc sa trace également. par hypothèse. fj ) = δij . symétrique car A est symétrique. donc ∃i0 . définie positive (et évidemment symétrique puisque diagonale) et S = E + F . . On applique l’exercice précédent pour l’application linéaire T de matrice D. prenons A = . 5. Donc la méthode de Jacobi converge. µi ≤ 0 et comme µ1 ≤ µi0 .j ||xi0 | < |ai0 . on a :D˜(n+1) s = (E + F )x(n) + b et x(n+1) = ω x(n+1) + (1 − ω)x(n). et donc par la question précédente. CHAPITRE 1. . Si µi > 0 ∀i = 1. 2. Télé-enseignement. fN ) ≤ 0. 3. On a alors(AfN . . La méthode de Jacobi converge si et seulement si ρ(J) < 1 (théorème 1.i0 xi0 | ≤ j=i0 |ai0 . j=i0 j=i0 |ai0 . Herbin. par la question précédente. ∀i = 1. En conséquence. Par définition. 77 Université Aix-Marseille 1 R.j |. fN ) base de E et (µ1 .i0 | > on a donc. qui est. ce qui contredit le fait que 2D − A est définie positive. on a µ1 ≤ 0. . CORRIGÉS Donc |xi | = |xj | pour tout i. |ai0 . ρ(A) = max(−µ1 . L3 4. 1 1 Alors 1 1 0 0 1 0 2 2 J = D−1 (E + F ) = = = 0 1 1 0 1 0 donc J n’est pas symétrique. SYSTÈMES LINÉAIRES Comme de plus.27 page 28). . J = D−1 (E + F ) peut ne pas être symétrique. f1 ) = β ≤ 0. 1 1 soit encore ω Dx(n+1) = [ ω D − (D − (E + F ))]x(n) + b. alors µ1 = −α. . ce qui est impossible.8. on a bien µ1 ≥ −1. même si A est symétrique : 2 1 En effet. N 0 1 2 1 0 . On en déduit que ((2D −A)f1 . ρ(J) < 1. .j xi0 |.

N. µN ) ⊂ IR N tels que µ ˜ ˜ ˜ Jω fi = Mω −1 Nω fi = ωD−1 et 1 ˜ D − A fi = µi fi . . Ceci contredit ω ω ω 2 l’hypothèse D − A définie positive. la famille (fi )i=1. .8. ce qui est équivalent à : 2 ω< . . c’est–à–dire : − ω < µ1 − 1. . fN ) ∈ (IR N )N et (˜1 . il existe une base (f1 . .. En effet.N sont les vecteurs propres de D−1 (E + F ). . ω 78 Université Aix-Marseille 1 R.. .8.. ∀x = 0.8. alors µ1 = −α. .8. . ∀i = 1. 1 − µ1 8. ∀i = 1. 7. . fi ) = 1. ω 2 2 On veut donc que ω − 1 + µ1 > 0 car µ1 = inf µi . SYSTÈMES LINÉAIRES −1 6. ∀j. . ce qui prouve que (1. ω ce qui est équivalent à 2 D − A fi · fi > 0.8. si µN ≥ 1. alors µN = α avec α ≥ 1. et 2 2 D − A fi = D − D + (E + F ) fi ω ω 2 = (1. ˜ ˜ ω 1 ˜ ˜ Dfi · fj = δij . on déduit. ω 1 1 ˜ ˜ ˜ Supposons µ1 ≤ −1. N.8. . N. ω ω 1 ˜ ˜ ˜ ˜ et donc AfN = (1−α) ω DfN ce qui entraîne en particulier que AfN · fN ≤ 0 . ∀i.87) (1. . On a alors ˜ ˜ 1 1 ˜ ˜ ( D − A)fN = α DfN . ω 2 On a donc en particulier ω D − A fi · fj = 0 is i = j. 2 D − A fi . ou encore ω D − Af1 = ˜ ˜ 1 ˜ 2 1 ˜ 2 ˜ ˜ ˜ −α Df1 . ω (1. . or ceci contredit l’hypothèse A définie positive. De (1. . fi ω = 2 − 1 + µi . . = 1. La matrice d’itération Jω s’écrit : Jω = 1 D ω −1 1 D−A ω 1 = ωIω .87).86) est équivalent à (1.N est une base de IR N . . L3 .8. . . ce qui entraîne ( D − A)f1 · f1 ≤ 0. On cherche une condition nécessaire et suffisante pour que 2 D − A x · x > 0. 20 août 2010 Analyse numérique I. . avec α ≥ 1 et ωD−1 ( ω D − A)f1 = −αf1 . Télé-enseignement. avec Iω = D−1 ( D − A). . .. = 1. On a donc ω D − Af1 = (1 − α) Df1 .87). N. CORRIGÉS CHAPITRE 1. La matrice d’itération est donc maintenant Jω = Mω Nω qui est symétrique pour le produit scalaire ˜ ˜ (·. grâce au fait que (Dfi . Herbin. . ·)Mω donc en reprenant le raisonnement de la question 2.86) où les (fi )i=1.1. . ω De même.88) − 1 Dfi + µi Dfi ω 2 = − 1 + µi Dfi .

. . soit encore ω 1− 1 + λ u. ω Donc µi (ω) + λ.8) pour ω(1 − µ1 ) − 1 = 1 − ω(1 − µN ) c’est–à–dire ω = 2 2 − µ1 − µN . CORRIGÉS CHAPITRE 1. SYSTÈMES LINÉAIRES Soit λ une valeur propre de Iω associée à un vecteur propre u . . ω ω ω 1 1 )|.e. y) ∈ IR N × IR N et que λx A = |λ| x A pour tout (x. λ) ∈ IR N × IR. On en déduit que · A est une norme sur IR N . Analyse numérique I.i |xi | = 0. D’autre part. ω ω ω 1 1 1 ) ≤ −ω(µ1 − 1 − ) ≤ −ω(µi − 1 − ). on en déduit que xi = 0. = ω µi − 1 − 1 ω est valeur propre de Jω associée au vecteur propre fi . On cherche maintenant à minimiser le rayon spectral ρ(Jω ) = sup |ω(µi − 1 − i 1 )| ω On a ω(µ1 − 1 − et −ω(µN − 1 − donc 1 1 1 ) ≤ ω(µi − 1 − ) ≤ ω(µN − 1 − ). . supposons que x A N = i=1 ai. il est immédiat de voir que x + y A ≤ x + y A pour tout (x. ∀i = 1. N. alors : D−1 On en déduit que (D − A)u + 1 − 1 Du = λDu. Soit x ∈ IR N . . Exercice 37 page 49 (Jacobi et Gauss-Seidel pour une matrice tridiagonale) Corrigé en cours de rédaction Exercice 39 page 50 (Méthode de Jacobi pour des matrices particulières) 1.i > 0. i. L3 79 Université Aix-Marseille 1 R. .1. Télé-enseignement. ω 1 D − A u = λDu. . 20 août 2010 . Herbin.8. c’est–à–dire λ = µi − 1 − 1 ω. ∀i = 1. Comme ai. | − ω(µ1 − 1 − |) ω ω ρ(Jω ) = max |ω(µN − 1 − dont le minimum est atteint (voir Figure 1. . . N. On a donc : D−1 (E + F )fi = µi fi = ce qui est vrai si µi = 1 − 1 ω 1− 1 + λ fi . ω 1 D − A u = λu. ω D−1 (E + F )u = Or fi est vecteur prore de D−1 (E + F ) associée à la valeur propre µi (question 2).

j = 1. . j=1.j ˜ ai. Herbin. Comme ai. Comme λ ∈ IR ∗ .j (uj j=1. ceux-ci vérifient : ai. L3 80 Université Aix-Marseille 1 R. N. 20 août 2010 .N j=i On en déduit que ui et donc u(k+1) − u(k) A (k+1) − ui (k) = 1 ai. ˜ 2. elle est donc inversible. |ω(1 − µ1 ) + 1|) 1 1 1 2 1−µ1 2−µ1 −µN 1−µN ω F IGURE 1. ∀i = 1.i ≥ 0 et λ ∈ IR ∗ . Analyse numérique I. (1. N.6 – Détermination de la valeur de ω réalisant le minimum du rayon spectral.91) ˜ avec D = λId+ D. 4.90) ai.j uj (k) + bi ). 3.59).j . Posons A = λId + A et notons ai. N (1.i ˜ ≤ > i=1 j=i 0. CORRIGÉS CHAPITRE 1.6.i ai. et que + (k) donc la suite (u )k∈IN est bien définie dans IR. N ≤ i=1 ai. triangulaire ˜ inférieure et triangulaire supérieure.et grâce aux hypothèses (1. .j ses coefficients.6.89) (1.6.8. .1.i + λ ai. ∀i.8. .j (uj j=1.i + λ ai. .60) s’écrit : ˜ Du(k+1) = (E + F )u(k) + b.N j=i (k) − uj (k−1) ). Télé-enseignement. . SYSTÈMES LINÉAIRES |ω(1 − µ1 ) + 1| |ω(1 − µN ) + 1| max(|ω(1 − µN ) + 1|. et par l’exercice 32 page 47.i + λ ai. La méthode de Jacobi pour la résolution du système (1. on a : ui (k+1) = 1 ( ai. i = j.57)– ˜ + (1. Par définition de la méthode de Jacobi. .N j=i (k) − uj (k−1) ). . . on en déduit que D est inversible. et A = D − E − F est la décomposition habituelle de A en partie diagonale.8. ˜ La matrice A est donc à diagonale dominante stricte.8.

j .ω ) = (1 − ω − λ)((1 − ω − λ)2 − 2λ2 ω 2 ) √ √ = (1 − ω − λ)(1 − ω − (1 + 2ω)λ)(1 − ω − (1 − 2ω)λ) Analyse numérique I. CORRIGÉS 1 1 ai. Par le résultat de la question précédente. Exercice 41 page 51 (Une méthode itérative particulière) 1. A On en déduit le résultat par une récurrence immédiate. Det (A) = −1 et donc A est inversible. Les valeurs propres de Lω sont les complexes λ tels qu’il existe x ∈ C 3 . 1 1 2. c’est–à–dire : F+ 1−ω Id x = λ ω 1 Id − E x. 20 août 2010 . il existe N tel que si p. x = 0. 1 p ) 1+α On en déduit que pour tout > 0. Herbin.i ≤ ≤ .91). On en déduit que u(k+1) − u(k) ≤ 1 u(k) − u(k−1) 1+α A.j . Soient p et q = p + m ∈ IN.q : Lω x = λx. et on a : u(q) − u(p) A ≤ ≤ u(1) − u(0) (1 + A( 1 p 1 i ( ) ) 1 + α i=0 1 + α A( +∞ 1 ) u(1) − u(0) α → 0 lorsque p → +∞. et donc qu’elle converge. On a donc Or ai.ω x = 0. 5. SYSTÈMES LINÉAIRES ≤ 1 1+α N (uj j=1 (k) − uj (k−1) ) j=1. Soit u sa limite. avec Mλ. q > N alors u(q) − u(p) A ≤ .i u(k+1) − u(k) Et par hypothèse. Or Det (Mλ. . avec m ≥ 0.8. j=1. Det ( Id − E) = ω ω √ 1 1 2 − 2 . Or ω ∈]0. A CHAPITRE 1.N j=i ai.1. Télé-enseignement.8. ce qui montre que la suite est de Cauchy. 2[. Donc la matrice Id − E est inversible si ω = .ω = ωF + λωE + (1 − ω − λ)Id. t. ω soit encore Mλ.60).6.j = aj. 2 ω ω 2 3. En passant à la limite dans (1. on a : m u(q) − u(p) A ≤ ≤ i=1 u(p+i) − u(p−i−1) A( A m u(1) − u(0) 1 p 1 i ( ) ) 1 + α i=0 1 + α 1 Or α > 0 donc la série de terme général ( 1+α )i . L3 81 Université Aix-Marseille 1 R.i + λ 1+α 1 + aλ i.N j=i ai. on obtient que u est solution de (1.

et λ3 = 1 + 2ω 1 − 2ω Par définition. i On en déduit : N n x(n) λi = αi fi . |λ2 |. on a alors ρ(Lω ) = 0. le rayon spectral ρ(Lω ) de la matrice Lω est égal à max(|λ1 |. ρ(Lω ) = 1−ω √ <1 1 − 2ω 2 1−ω √ . 2] 1 − 2ω √ ρ(Lω ) = λ1 (ω) = |1 − ω| si ω ∈ [ 2.2 1. Comme A est une matrice symétrique. L3 82 Université Aix-Marseille 1 R. λ2 = 1−ω 1−ω √ √ . CORRIGÉS 3 CHAPITRE 1. ∀ω ∈]0. On a donc Ax(0) = i=1 λi αi fi et An x(0) = i=1 λn αi fi . SYSTÈMES LINÉAIRES 2 1 0 −1 −2 −3 0 0. . 2[. 2[. λn λN N i=1 Analyse numérique I. ρ(Lω ) = ω − 1 < 1 .4 1. Une rapide étude des fonctions |λ1 | et |λ3 | permet d’établir le graphe représentatif ci-contre. < 1. ∀ω ∈]0. . Télé-enseignement. et donc |λ1 | > |λ2 |. On décompose N N N x(0) sur (fi )i=1. La méthode est convergente si ρ(Lω ) < 1 . fN ) ∈ (IR N )N une base orthonormée de vecteurs propres de A associée aux valeurs propres (λ1 .7 – Graphe des valeurs propres λ1 et λ3 Les valeurs propres de Lω sont donc réelles. Herbin. .8. si ω ∈]0. A est diagonalisable dans IR.6 0. |λ3 |). Exercice 43 page 52 (Méthode de la puissance pour calculer le rayon spectral de A) 1. On a donc : √ 1−ω √ ρ(Lω ) = |λ3 (ω)| = si ω ∈]0. . c’est à dire ω > dès que √ 2ω − 1 1+ 2 Le minimum de ρ(Lω ) est atteint pour ω0 = 1.6 1. Remarquons tout d’abord √ que |1 + 2ω| > 1..8 2 F IGURE 1.N : x(0) = i=1 αi fi . . et égales à λ1 = 1 − ω. 2[.4 0. . Soit (f1 .1. λN ) ∈ IR N . . 20 août 2010 . √ √ 4. Si ω ∈ [ 2.8 1 1. Il ne reste donc plus qu’à comparer |λ1 | et |λ3 |.. . ... 2[.2 0. 2[.

L3 83 Université Aix-Marseille 1 R. y (n) Exercice 45 page 53 (Méthode QR pour la recherche de valeurs propres) En cours de rédaction. avec c = (I − B)A−1 b. (avec |µN | = ρ(B)et − µN non valeur propre). . Si y (n) = x(n) − x. On demande que x(1) − x(0) ∈ Ker(B − µN Id)⊥ comme en a). . Herbin. alors y (n+1) −→ ρ(B) lorsque n → +∞. . n→+∞ CHAPITRE 1. et on a bien y (n+1) = By (n) . . . avec Ax = λN x.8. b) On applique maintenant 1a) à y (n) = x(n+1) − x(n) avec Analyse numérique I.8.92) Soient λ1 . On a donc x(n+1) − x = Bx(n) + (Id − B)x − x (1. On a donc limn→+∞ x(n) λn N = N i=p+1 αi fi = x. Télé-enseignement.1.93) = B(x(n) − x).8. . . . x(n) − x y (0) = x(1) − x(0) où x(1) = Ax(0) . fp }. 20 août 2010 . on a donc y (n+1) = By (n) . N } tel que αi = 0. . CORRIGÉS Comme −λN n’est pas valeur propre. y (n) c’est–à–dire x(n+1) − x −→ ρ(B) lorsque n → +∞. remarquons que : N N x(n+1) = i=1 λn+1 αi et x(n) = i i=1 λn αi i car (f1 . . et d’après la question 1a) si y (0) ⊥ Ker(B − µN Id) où µN est la plus grande valeur propre de B. . SYSTÈMES LINÉAIRES λi n ) = 0 si λi = λN . λN lim ( (1. donc / y (n+1) −→ ρ(B) lorsque n → +∞. Pour montrer (b). . . λp les valeurs propres différentes de λN . fN ) est une base orthonormée. . et λp+1 . . et donc il existe i ∈ {p + / 1. x = 0 : en effet. . . λN = λN . . x(0) ∈ (Ker(A − λN Id))⊥ = V ect{f1 . On a donc x(n+1) = λn N x(n) x(n+1) λn+1 N x(n) λN → λN x = λN lorsque n → +∞. a) La méthode I s’écrit à partir de x(0) connu : x(n+1) = Bx(n) + c pour n ≥ 1. De plus. . x 2. . .

Sign up to vote on this title
UsefulNot useful