You are on page 1of 32
Chapitre 1 Systemes linéaires 1.1 Introduction ‘Un systéme d’équations linéaires est un ensemble d’équations portant sur les mémes in- connues. En général, un systéme de m équations linéaires & n inconnues peut étre écrit sous la forme suivante : O12 +4422 +-°° +A ntn = by 232} +0902 +++ + AIT = by ap Ayn 81 + Oyn.a2 +++ Amun = bmn Les données sont les coefficients a,; (I non dit que le systéme est surdéterminer. ~ Sim = nalors la matrice A est carrée et Pordre n . RESOLUTION DE SYSTEMES LINEAIRES Pour résoudre un systéme d’équations linéaires on cherche & remplacer le systéme initial par un autre, plus simple, ayant la méme solution, sachant que la résolution de systéme (1.2) est trés simple lorsque : ~ Aest diagonale; ~ Aest orthogonale ; — Aest tridiagonale ; — A est triangulaire supérieure ou inférieure ; — Aest creuse (en général). Dans tout ce qui suit, on considérera une matrice carré A € M,(R) et un vecteur b contenant n réels. Seulement trois cas sont possibles pour le systéme linéaire (1.2) : — Le systéme n'a pas de solution. — Le systéme a une solution unique. — Le systéme a une infinité de solutions, Exemple 1.1.3 Les syst¢mes suivants ont-ils une solution unique, une infinité de solution ou pas de solution ? 2, + 6x2 Ay 12r9 Ce syst8me a une infinite de solutions : (21, 2)=( 1 84,1 A), ACR a + 3x2 Qe — a Ce syst&me admet une unique solution (21, 2) dey — 3 16r, — 12r Ce systéme n’a pas de solution. 1.2 Résolution de systémes linéaires Si la matrice A est inversible alors le systeme linéaire (1.2) admet une unique solution x = A*b ot A~ est la matrice inverse de A. Ainsi théoriquement le probléme revient & calculer A-!, Mais en pratique ce calcul est difficile. Il existe plusieurs méthodes classiques pour résoudre le systéme linéaire (1.2) sans calculer A~'. Le choix de la méthode dépend 1,3. METHODES DIRECTES fortement du type (forme) de la matrice A. ‘Les méthodes de résolution des systémes linéaires (1.2) se groupent dans deux grandes catégories : 1. Les méthodes directes qui permettent d’obtenir la solution en un nombre fini d’opéra- tions soit par triangularisation ou soit par décomposition de la matrice A. Les princi- pales méthodes sont : — Lélimination de Gauss, — La décomposition LU, — La décomposition de Cholesky, 2. Les méthodes itératives qui consistent & construire une suite (2,),.cr qui converge vers Ja solution. Les principales méthodes sont : — Méthode de Jacobi, — Méthode de Gauss-Seidel, ~ Méthode de Relaxation. 1.3. Méthodes directes 1.3.1 Principe des méthodes directes Nous nous ramenons en un nombre fini d’opérations & un systéme simple a résoudre en général triangulaire (parfois une matrice orthogonale). Ces méthodes reviennent souvent & écrire une décomposition de la matrice A = BC, oit B et C' ont des propriétés parti Ainsi résoudre équivaut A résoudre R(Cx) 2), la méthode s’écrit ry — b/s a1 a = (b- Dhaai 7-20 it METHODES DIRECTES a =bi/has Pour i de 2 An faire a= (6 Sis 2) he i Fin Pour Algorithme 1 — Algorithme de descente d’un systéme triangulaire inférieur Considérons le systéme triangulaire inférieure suivant 3 1 3 a, En utilisant Palgorithme de descente, on obtient bfha —9/3 — 3 (bo —bam)/b2 = (7-1 3)/2 (bs — ton 21 — bea ta) /laa = (14-3 x 3-2 2)/1 = 1 Une matrice carrée (a,,;)1 2), la méthode s’écrit In = bn/ttan a = (6- Dwg a)/us i=n—1,..41 Bn = bnflans Pour i de n-1 a 1 faire a = (b Saye jam Fin Pour Algorithme 2 - Algorithme de remontée d'un systéme triangulaire supérieur 1,3. METHODES DIRECTES Exemple 1. Considérons le systéme triangulaire supérieur suivant, 2.5 3\ fx 49) 04 2} fa} = }30 0 0 7) \es, 21 En utilisant lalgorithme de remontée, on obtient &3 = bs/uss = 21/7 = 3 = (be — uz %s)/uz2 = (30-2 3)/4 = 6 mn = (bmg 42 — was ts) /uss = (49-5 x6-3x3)/2 = 5 1.3.10 Complexité des algorithmes de descente et remontée epson 439} La résolution d’un systéme d’équations linéaires triangulaire se fait en n” opérations a virgule flottante, - ““=» multiplications - 242» additions ~ n divisions ‘Au total n? opérations. Preuve Calculer x, néccssite 1 opération (division), calculer #,-, nécessite 3 opérations (unc mul tiplication, une soustraction et une division), et calculer 1; nécessite 2(n — i) + 1 opérations (»~ i) multiplications, (n — i —1) additions, 1 soustraction et 1 division) Au total )7(2(n — i) +1) = n?® a 10 1,3. METHODES DIRECTES 1.3.12 Cas particulier matrice diagonale Soit D = (d;)i-1,..n une matrice diagonale d’ordre n > 0. dha 0 0 dan — Donner une condition nécessaire et suffisante pour que D soit inversible. — Donner un algorithme qui permet de résoudre ’équation d'inconnue « : 1.3.14 Méthode d’élimination de Gauss La méthode d’élimination de Gauss a pour but de transformer le systéme A x = b en lire ayant la méme solution) de la forme U 3, ot U est un systéme équivalent (es une matrice triangulaire supérieure et } est un second membre convenablement modifié. Ge dernier systéme peut étre alors résolu par la méthode de remontée. Au cours de la transformation, on utilise essentiellement la propriété selon laquelle on ne change pas la solution du systéme quand on ajoute une équation donnée une combinaison linéaire des autres équations. Propriétés 1.3.15 On ne change pas la solution d’un systeme linéaire lorsque : — on permute deux lignes, — on permute deux colonnes, ~ on multiplie une ligne par un réel non nul, ~ on ajoute une ligne A une autre. 1.3.15.1 Méthode de Gauss sans pivot Considérons une matrice invisible A € M,,(R) dont le terme diagonal a, est supposé non nul. Le nombre a;,: est le premier pivot de l'élimination de Gauss. On pose A® = A et bY) = bet on introduit les multiplicateurs mn 1,3. METHODES DIRECTES ott les af!) désignent les éléments de A, On peut éliminer linconnue «; des lignes i = 2,...,nen leur retranchant m;,: fois la premiére ligne et en faisant de méme pour le membre de droit. On définit alors eee a) i f) = of —macl, 44=2,....0, = 0 — mall, m. oft les 6” sont les composantes de 6!) et on obtient un nouveau systéme de la forme af of ah Ya) (a 0 ay ah |] am @ 0 afd > af} an op que l'on note Ax = i) et qui est équivalent au systéme de départ. On peut & nouveau transformer ce systéme de facon a éliminer linconnue r) des lignes 3,...,n. En poursuivant ainsi, on obtient une suite finie de syst¢mes AM r=, 1 2, la matrice A“) est de la forme suivante Qo a a My m2 Me An 0 ab vs ash vn abn 0 o af alt), iC) 1 O + 0 age ++ af ot on a supposé a{’) # 0 pour i = 1,...,& — 1, est clair que pour k = n on obtient alors Ie systéme triangulaire supérieur A) = 6 suivant ® Qa \ 7», 0) al alg vs alk) (x af 0 +. 0 a® Pour étre consistant avce les notations introduites préeédemment, on note U Ia matrice tri- angulaire supérieur A), Les termes a") sont appelés pivots et doivent étre évidemment non 12 1,3. METHODES DIRECTES nuls pour k = 1,....n—1. Afin d’expliciter les formules permettant de passer du ki®™* systéme au (k + 1) "*, pour k=1,...,n 1, 0n suppose que a{} 0 ct on définit les multiplicatcurs a Mig = wn ag On pose alors (is) “6 *) (KY = al) — mix ak) sn. oe Of — mig .n. Le procédé suppose que tous les a\"} # 0. Sia une étape & on a af") = Oets'il ya au moins un des a\') 4 0, i =k +1,--- ,n, on permute les lignes k et i et on continue, sinon ¢a voudrait dire que la matrice A n’est pas inversible. Pour bien comprendre la méthode, on considére exemple suivant : On pose A”) = Aet b') =b, ie. AM=14 3 On note a!!!, 1 < j < 3 Pélément (i, j) de la matrice A. Le premier pivot de ’élimination de oo Gauss est donc a\') = 2. On effectue alors pour toute ligne L; pour i = 2,3 “0 Ly b- y a4 Dans notre exemple on obtient ‘2 -1 15 AM=]0 5 = | 55 oO 1 3 i 1,3. METHODES DIRECTES On refait la méme procédure, dans cette étape le pivot est aS’) = 5. On effectue Ly — Ls— On obtient finalement 2-1 2 15 AM=]0 5 -7] B=] -55 o 0 2 22 La matrice obtenue est maintenant triangulaire supérieure, et on peut résoudre le systéme A(x = par Palgorithme de remontée, on trouve a = 5 On donne maintenant Valgorithme d’élimination de Gauss sans pivot. On admettra que les termes (pivots) a{") doivent étre évidemment non nuls pour & — 1,...,n Pour k de 1 a n-1 faire Pour ide k+1 an faire Mi = Gie/ OK, by = b; — mindy ain =O Pour jdek+1 an faire Ay = O45 — M44 Fin Pour Fin Pour Fin Pour <+ Résolution du syst8me triangulaire sup. Algorithme 3 - Algorithme d’élimination de Gauss En appliquant 'algorithme de Gauss, résoudre le systéme linéaire suivant (S) a + La solution du systéme (5) est 2 =! (1,1, 1). 1,3. METHODES DIRECTES Ala premitre étape on cherche les multiplicateurs m., =} et my, = }, et on soustrait de la deuxiéme (resp. troisime) équation la premiére ligne multiplige par ma, (resp. ra). On obticnt Ie systéme équivalent " ale Si on soustrait A présent la troisi¢me ligne la seconde multipliée par ms» = 1, on obtient le systeme triangulaire supérieur suivant 0+ O+ iets = A partir duquel on calcule immédiatement r = 1 et, par substitution (remontée), les autres inconnus 7, mal. 1.3.18.1 Méthode de Gauss avec pivot Le choix du pivot permet de minimiser les erreurs d’arrondis : ~ si un pivot est nul, on permute deux lignes ~ sitous les pivots restant sont nuls => la matrice est singuliére (ie. le systéme d’équations nadmet pas de solution unique) Pour minimiser les erreurs d’arrondis, on choisi le plus grand pivot possible (en valeur absolue) et donc on permute les lignes (voir les colonnes associées) c’est la stratégie du pivot maximal (partiel (lignes) ou total). La méthode de Gauss avec pivot consiste a choisir a l’étape k : a," tel que 0) max level Soit a résoudre le systéme 10-2, +2 =1, m-2=0. La solution théorique est x, = sry = za) = 0.9999999999. Cependant, la reso- lution de ce systéme par la méthode de Gauss donne des résultats différents selon qu'on lapplique avec ou sans pivot. METHODES DIRECTES Trouver 1; et 72 en gardant 10 chiffres significatifs aprés la virgule Que se passe t’il si on prend le systéme 4 1’envers? 1, Sion applique la méthode de Gauss sans pivot on obtent et {i 1 = 10!) = —10" qui donne pour solution approchée x2 = —2%", = 0,9999999099 et x) = = 1.000000082740371. 2. Si on adopte la stratégie du pivot partiel qui consiste 4 mettre en premiére ligne celle dont le coefficient de «r; est le plus grand en module alors on permute les lignes pour obtenir le systéme 2-1 =0, 10x) + 22 = 1 1 10-10 Pour lequel ms; = °% = 19° = 10~” et qui conduit a la solution approchée : x = rrabaw = 0.9999999999 et zr, = 0.9999999099, Appliquer la méthode de Gauss avec pivot & PExemple 6.8.4. ition : calcul de A~' = =2) 1) On considére la matrice A 1 10 1-10 AFaide de algorithme d’élimination de Gauss sans pivot (Gauss-Jordan) calculer A~'. Phase 1: | 1-21 100 1 | oe o10 1 10 oo -1-21 100 0-11 1 1 0 || ligne 2 = ligne 2 +1*ligne 1 0-31 1 0 1)| ligne 3 = ligne 3 +1*ligne 1 16 1,3. METHODES DIRECTES ligne 3 = ligne 3 -3*ligne 2 12-1 -10 0 ligne 1 = -1*ligne 1 01-1 -1 -1 0 ligne 2 = -1*ligne 2 001 1g ligne 3 = (-1/2)'ligne 3 Phase 2: t 120 0 010 0 081 100 o10 oo Ainsi A =| 0 Vérifier que A * A~' = 1.3.21 Méthode par factorisation LU Le principe de la méthode est de se ramener & deux systémes triangulaires. On cherche A décomposer la matrice A en deux matrices L (triangulaire inférieure) et U (triangulaire supérieure) telles que le produit LU soit égal a A. Si la matrice A peut s'écrire sous la forme A = LU, out L et U sont des matrices triangu- aires inférieure et supérieure respectivement, alors le systéime Ax = b peut se décomposer en deux sous-systémes Ly = bet Ux = y. Les matrices L et U étant triangulaires, la résolution de chacun de ces deux sous-systémes est immediate : re -Ur= son calcule y;,yp,...,y (Algorithme de descente), on calcule «2 7, (Algorithme de remontée). Il reste maintenant & savoir comment faire cette décomposition LU. ‘Commencons par un résultat théorique Soit A une matrice inversible d’ordre n dont les mineurs principaux sont non nuls. Alors il existe une unique matrice L triangulaire inférieure avec des 1 sur la diago- nale, et ne unique matrice [7 triangulaite supérieure telles que A = TJ De plus det(A) = TJ ss. a] 1,3. METHODES DIRECTES Rappelons que le mineur principal @ordre i de A est le déterminant des premieres lignes et premieres colonnes M1 M29 6+ Ary a, ie La démonstration se fait par récurrence sur n Proposition 1.3.23 La factorisation LU de la matrice A de taille n par la méthode de Gauss existe si Tune des conditions est vérifiée : — La matrice A est définie positive. — La matrice A est 4 diagonale strictement dominante par lignes ou par colonnes. Pour mieux comprendre la méthode, on prend l'exemple suivant 4-9 2 A=AM=]2 -44 \-1 2 2 En effectuant les opérations suivantes : lo = g-3h & ba =t Is = b+} o a= On obtient En refaisant la méme procédure Ig = Int}l, % be=-} On obtient finalement 4-9 2 1 0 0 u=A%=/0 1 3 L=/|3 10 00 4 -2 11 De exemple précédent on peut s'inspirer pour donner ’algorithme suivant 18 1,3. METHODES DIRECTES rere Pour j de 2a n faire uy = ay ba = aja/uaas Fin Pour Pour i de 2 a n-1 faire uss = O55 — Yo lie tes a Pour j de i+1 An faire a Mig = dig — Do Lie tng a ea bye — (aye ube urs) (tae Fin Pour Fin Pour nat Unn = Onn — Yo lade Ue fet Algorithme 4 - Algorithme de factorisation LU Exemple 1.3.24 Déterminer, par cette méthode, la décomposition LU de la matrice suivante : +20, 4 ba=-2 Ls = Ig-3li O ba=-3 On obtient a) A® =o 16 -1 0-8 16 En refaisant la méme procédure Is = Is+} 9 ba=- 19 1,3. METHODES DIRECTES On obtient finalement 14 3 0 0 U=A=10 16 -1 L 10 0 0 155, -b1 1.3.25 Méthode de Cholesky La méthode de Cholesky est une alternative 4 la factorisation LU qui sapplique aux matrices symétriques et définie positives. Rappelons qu'une matrice carrée symétrique A € M,(RR) est dite symétrique définie positive si on ‘vAx > U pour toute EK” et £U et que pour une matrice symétrique définie positive les sous-matrices principales ont toutes des déter- minants positifs. Nous donnons maintenant une nouvelle caractérisation de ces matrices. Si A € M,(R) une matrice symétrique définie positive alors il existe au moins une ma- trice triangulaire inférieure I. telle que A = [.'P., Si les éléments diagonaux 1, de T. sont strictement positifs alors la décomposition est unique. La méthode de Cholesky ne s'applique qu’aux mat -es réelles symétriques définies positives. Elle consiste en une factorisation A = L‘L, ol L est une matrice triangulaire inférieure, dans le but de ramener la résolution de Méquation linéaire Ar = bh A la résolution de deux équations Ly = b et ‘Le = y. Ceci est intéressant lorsqu’on a & résoudre plusieurs systémes avec la méme matrice et différents second membres car la décomposition est effectuée une fois pour toutes. 1,3.26.1 Algorithme de la factorisation de Cholesky Soit A une matrice symétrique définie positive a coefficients réels, mettons A sous la forme A= L'L Les coefficients [,, de L peuvent étre calculés comme suit : -ha= yar = pour tout i =2,....n rat tig = (ig — Do biel) lian 1,...j-1 = ba = (ais — VR Mlis- ia On résout ensuite le systéme Ly respectivement. » puis ‘Le = y par les algorithmes de descente et de remontée, 20 METHODES DIRECTES ha= Gai Pour i de Z an faire ba =aia/laas Fin Pour Pour j de 2 a n-1 faire i = 2 ba = a0 - DG fat Pour i de j+1 an faire it = (aay — Dhan be) fs Fin Pour Fin Pour Inn = «[@nn — Yo ae a Algorithme 5 - Algorithme de la factorisation de Cholesky a 1,3. METHODES DIRECTES Exemple 1.3.27 Soit A une matrice définie positive tel que a3 A=/]2 0 2 22 3 Ona ha = var = vi=2 1 = apa /h1=1 laa = aaa/laa = =I ba = an2—By baa = (ag2 — balea)/laa = 1 Isa = ass — (Ba +84) =1 Done, finalement matrice L obtenu est 2 00 L=}1 30 11 -1 Résolvant maintenant le systéme Ax = b avec b = (1,1, 1) Le systéme Ax = b est équivalent a résoudre les deux systémes suivants : Ly = 6 (1) Ag =be=> Ula =b => ‘be y Q) Ta solution du cystéme (1) est 1/6 4/3 21 -1) fay 1/2 te=ye>|o 3 1} fa 1/6 00 1) \as 4/3, La solution du systéme (2) est 10/9 r= | -7/18 4/3 1,3. METHODES DIRECTES Comme la matrice A s’écrit sous la forme de multiplication d'une matrice . et sa transposée, done det(A) = ]] 1?) 1 Rappels : Matrice définie positive Soit A une matrice symétrique réelle d’ordre n. Elle est dite définie positive si elle vérifie Pune des trois propriétés équivalentes suivantes : 1. Pour toute matrice colonne non nulle « & n éléments réels, on a w> 0. 2. Les valeurs propres de IM sont strictement positives. 3. Les mineurs principaux dominants de A sont tous > 0. On considére la matrice suivante : Montrer que cette matrice est symétrique définie positive. Déterminer sa factorisation de Cholesky. La matrice A est symétrique car A = 'A, montrons que A est définie positive = Soit x € R* {0}, avec 0) r=|o], o=]o0 0, Montrons que ‘Ax > 0 a ‘rAw = (a,b,0)A| 6 | = f(a,b,0) S(a,be) = 2a? — Yab +26 — e+ 2 = a? 2b +B? +0? +0? bet (ab? +a? +(b-c > 0 — Cherchons les valeurs propres de A. Les valeurs propres de A sont les racines du polynéme caractéristique P(A) = eet(A — AT 2B METHODE ITERATIVES Ceci conduit & calculer On trouve ainsi P(X) = 1-60 +5% Les valeurs propres sont done Dr = 0.198062, Ay = 1.55496, Ay = 3.24698 — Les mineurs principaux dominants de A sont Ay = det(2) =2>0, aenae (2 q)=2>0 As = det | —1 La matrice A est symétrique définie positive donc elle admet une factorisation de Cholesky. On a ha = yang = V2 = 1.4142 doa = @2a/ha = —0.7071 Js =a3a/ha=0 loa = yaaa — By = 1.2247 Iya = (aa ~ lalz,:)/lag = -0.8165 ba = asa —(Ga+ 0.5774 Done, finalement matrice L obtenu est 1420 0 L=|-07071 1.99070 0 0.8165 0.5774, 1.4 Méthode itératives Les méthodes directes sont trés cotiteuses en termes de nombre d’opérations, donc de temps de calcul lorsque la taille du systéme linéaire est assez élevée. On peut alors avoir recours a des méthodes oti la solution est obtenue par itérations successives et oi chaque itération consiste A résoudre un systéme linéaire moins codteux. On considére une matrice A € M,,(R) inversible, un vecteur } ¢ R” et un systéme linéaire (S) : Ae—b Résoudre le systme linéaire (S) par une méthode itérative consiste a construire une suite de 24 METHODE ITERATIVES vecteurs (x), de R" qui converge vers la solution exacte x = A-1), Cest-d-dire lim 2 = (1.3) pour n'importe quelle donnée initiale «' < R”, La suite (2), est obtenu, & partir d’un vecteur initial arbitraire «\), par une relation de récurrence de la forme a*+)) — Bal") +6, Wk € IN (k > 0) a4) oti B est une matrice bien choisi (dépendant de A) appelée matrice d'itération de la méthode et ¢ est tun vecteur (dépendant de A et 6), qui vérifient la relation de consistance a= Br+e, vk EN (k>0) (1.5) Comme ar = A"), ceci implique ¢ = (Jn — BJA“ 1.4.1 Convergence des méthodes itératives On appelle erreur (resp résidu) d’ordre k, ! € I, de la méthode d'itération le vecteur el) = a) — a (resp 1 = b— Av), ot x = A~'Uest la solution de Ax = b. La mise en oeuvre pratique d'une méthode iterative de la forme (1.4) nécessite la donnée d'un point de départ »( (en général, sauf si Yon posséde des informations a priori sur la solution, on choisit le vecteur nul) et d'une tolérance sur la solution que lon cherche a calculer. On calcule ensuite A) = b— Av” soit les itérés x\"), k = 1,2,... en utilisant la formule (1.4) jusqu’é ce que le résidu 1 plus petit que la tolérance. ‘On déduit de cette définition qu'une méthode itérative consistante de la forme Ax = b converge si ctsculement si lim ck —0 (soit encore si lim ré— lim Ac! — 0). babe ha too” T p00 Si la méthode itérative (1.4) est convergente et si on note x = A" la solution exacte du systéme linéaire (), alors a eee ee Preuve Onae=(In—B)A'b = (In—B)a ott 2**) = Ba) + (fy —B)x ou encore x**) —x = B(a(k)—2) oii le résultat. 2S METHODE ITERATIVES Définition 1.4.4 (Norme matricielle) On dit que Fapplication || - || : My (IR) + R est une norme matricielle si: -VAEM,(R), ||Al| =0—> A=0. -VaeR, VAEM,(R), [lal] = [al [|All -V4, BEM,(R), ||A+ Bl] <|/Al| + IIB. - VA, BeM,(R), ||AB|| < |/Al] ||Bll- Définition 1.4.5 (Norme matricielle subordonnées) Soit || - || une norme vectorielle sur R". On définit la norme matricielle subordonné a la norme vectorielle || - || ( que l'on notera aussi || - ||) par |Aa| VAe MAR), [lAll= ve sce Tell On dit aussi que c'est une norme matricielle subordonnée A une norme vectorielle ou asso- ciée A la norme vectorielle. Le résultat suivant nous donne des critéres pour tester la convergence de la méthode itérative (4). Théoréme 1 Les assertions suivantes sont équivalentes : i) La méthode itérative (1.4) est convergente; ii) Pour tout y © R”, limp 5400B*y = 0; iii) Pour toute norme matricielle || - || sur M,,(R), on a limps 401|B*|| = 0. Prowve ‘Admis pour ce cours. En pratique, les caractérisations précédentes de la convergence d’une méthode itérative ne sont pas faciles A vérifier. On utilise plutdt le résultat suivant Les assertions suivantes sont équivalentes : i) La méthode itérative (1.4) est convergente; ii) p(B) < 1, 08 p(B) désigne le rayon spectral de la matrice B, ie., le maximum des modules des valeurs propres de B; iii) 1 existe une norme matricielle | - || sur 1,(R) subordonnée A une norme vectorielle sur R" telle que |\B|| <1. Preuve Admis pour ce cours. 26 1.4, METHODE ITERATIVES itératives 1.4.8 Quelques méthodes ‘Comment construire une méthode itérative ? Une technique générale pour construire des méthodes itératives est basée sur une décomposition (splitting) de la matrice A sous la forme A = M M non singuligre, La matrice Mf est appelée matrice de préconditionnement. Plus précisément, 2”) étant donné, on peut caleuler «\*), pour k > 1, en résolvant le systéme ou M et N sont des matrices A déterminer avec Mx) = No +6, k20 a6) Clairement, la solution exacte x satisfait Mx = N2+bet done Ax = b. Le systéme (1.6) peut étre écrit 4galement sous la forme (1.4), avec R= M a (2.6) est la suivante : vet = M-', Une relation de récurrence équivalente M(t) — 2) =, K>0 an oti) = — Ar) est le résidu a Fitération k. On peut généraliser la relation précédente par M(o®™) — 2) = aye, k>0 (as) oti on a introduit un paramétre a, (qui peut éue différent & chaque itération &) afin daccélérer la convergence. Cette méthode est dite de Richardson. Les relations (1.6), (1.7) et (1.8) montrent quion doit résoudre un systeme linéaire de matrice M A chaque itération; done M doit étre telle que la résolution du systéme ait un cot raisonnable. Par exemple, on pourra choisir | diagonale ou triangulaire. Nous allons maintenant considérer trois exemples classiques : les méthodes de Jacobi, Gauss- Seidel et de relaxation. Le point de départ de chacune de ces méthodes est 'unique décomposition de la matrice A = (ai,j)izisen Sous la forme A= D~B~ F avec: = D=(dij)1 j et ej =Osii i. Considérons le systéme Aq -1 La décomposition de A sous la forme A = D ~ EB — F décrite ci-dessus sécrit alors 1 200) O 0 0) 0 oO 2]=|0 2 o/-}2 0 o}-;2 0 0 a 002 1 10, 1 9, Rs E ‘On supposera de plus que D est inversible et on distingue les trois méthodes suivantes : 7 METHODE ITERATIVES — Méthode de Jacobi : M = D, — Méthode de Gauss-Seidel : N = Méthode de relaxation : M — 2(D — wk), N — On remarque que la méthode de Gauss-Seidel est un cas particulier de la méthode relaxation pour L E+F; D4 F avec w paramdtre réel non nul. 1.4.9.1 Méthode de Jacobi ‘On considére un systéme linéaire ($) : Ar = b avec A inversible. On pose A = M—N avec M = D inversible et N = E + F. Le schéma itératif écrit alors 2 ER” [er Dol) = (E+ Pr) +h, Wk > 0. | ol) = pr + Pye) + Dh, Vie > 0. Chaque itération consiste donc a résoudre un systéme linéaire diagonal. La matrice By = D~'(E + F) sappelle la matrice de Jacobi associée a A. On caleul +!) par Falgorithme suivant Y= -— Daigal fag, i= 1,...m. sat Données : A, h, 29, n, = et Ninas Pour ide 1 An faire | 27" © af Fin Pour nb—0 Tant que (i|l2"“" | > © et nb < Nnae) faire nb < nb+1 Pour ide 1 n faire | 29 ager Fin Pour Pour ide 1 An faire aye (by des $8) Jase ja Fin Pour Fait Algorithme 6 — Algorithme de la méthode de Jacobi 1.4. METHODE ITERATIVES Exemple 1. Considérons le syst#me 4 2 1\ [2 -1 2 of]yl= 2 4} \z 9, mis sous la forme n= = 2/4 u/4 Soit x) = (0,0,0) le vecteur initial, en calculant les itérées on trouve at) = (1, 2 (5) /4) we 1/8, -1/32, 3/2) a) 7/512, 261/256, 511/256) 1/16, 3/2,3/2) 5/128, 15/16, 265/128) La suite x) converge vers la solution du systéme (0, 1,2). D'aprés le théoréme 1.4.7, on a le résultat suivant : Théoréme 1, 2 La méthode de Jacobi converge si et seulement si p(By) < 1. Pour la matrice A donnée par 1.4.9, on obtient : 00 7 O}|-2 0 ood out By=D"\(E+F) Les valeurs propres de la matrices By sont 0 et + i méthode de Jacobi diverge. 1.4.13.1 Méthode de Gauss-Seidel Dans la méthode de Gauss-Seidel, on choisi M = D ~ B et relation de récurrence 2 eR _ (D- B)c*) = Fr) 45, vk >0. ) = (D-B) Fa”) +(D- EB)", Yk >0. ce qui conduit a considérer la 29 METHODE ITERATIVES (D — £)*F sappelle ta matrice de Gauss-Seidel associée & A. On calcul «**") par Palgorithme suivant ma " 4) = — Faget — $5 augel®)/ =1 a 1 — Yas aug) Jag, = Ayeeyn art Ta méthode de Ganse-Seidel est tine amélinration de la méthode de jacahi dans laquelle les vecteurs calculées sont utilisées au fur et A mesure du calcul et non a l'issue d'une itération comme dans la méthode de Jacobi. On améliore ainsi la vitesse de convergence. Données : A, b, 2°, n, © Pour ide 1 An faire ame «af Fin Pour nb 0 Tant que (\|Ax"" — bl] > = et nb-< Nias) faire nb < nb+1 Pour ide 14 n faire sit Fin Pour Pour ide 1 an faire = (bi = Saiyey — a niga) fea ja Paral t Naz em Fin Pour Fait Algorithme 7 — Algorithme de la méthode de Gauss-Seidel 30 1.4. METHODE ITERATIVES Exemple 1.4.16 Considérons le syst#me w= 1-y/2-2/4 y = 1+2/2 2 = 9/4—a/2-y/4 Partant du point ») = (00,0), on calcule successivement al) = (1,3/2, 11/8) a) = (—3/32, 61/64, 527/256) (9) = (9/1024, 2047/2048, 16349/8192) Cet ensemble de points converge vers la solution exacte (0, 1,2). Diapres le théoreme 1.4./, on a le résultat suivant : La méthode de Gauss-Seidel converge siet seulement si p(Bgs) <1 Exemple 1.4.18 Pour la matrice A donnée par 1.4.9, on obtient : 2 0 0)" fo1 o 4 =(D-E)'F= 20 00 -2/=]o -5 -12) \oo o 00 Les valeurs propres de la matrices Bas sont 0 et ; (de multiplicité 2). On a done p(Bas) = 1 3 <1 donc la méthode de Gauss-Seidel converge. La méthode de Gauss-Seidel est aussi utilisé pour résoudre des systéme non-linéaires, Exemple 1.4.19 Considérons le systéme & = sin(xy)-y/2n y = mx -(n-1/4)(e*-! - 1) Partant du point x'°) = (0,0,0), on calcule successivement ae) = (0.455, 3.03) xl = (0.499,3.11) 2) = (0.505, 3.14) qui converge vers la solution exacte (1/2,7).. 31 METHODE ITERATIVES Pour que la méthode de Gauss-Seiled soit bien définie, il faut que la matrice D soit inversible, mais, ld encore, cette condition n’est pas trés restrictive en pratique. On peut également introduire dans cette méthode un paramétre de relaxation «.. On parle alors de la méthode de Relaxation. 1.4.20.1 | Méthode de Relaxation Dans la méthode de Relaxation, on pose A = M —N avec M = }(D —wE) inversible et V =D + P. Le schéma itératif s’écrit alors 2O ERP 1(D —wE)ath4) TED + F)al®) +b, Wk > 0. qui est équivalent a : 2O ER" x1) = (D—wE)"((1—w)D + P)c®) +0(D—wE)~'b, Vk > 0. La matrice Br(w) = (D —wE)~'((1—w)D +F) sappelle la matrice de relaxation associée a A etw est le facteur de relaxation. Siw < 1, on parle de sous-relaxation, si w = 1, on retrouve la méthode de Gauss-Seidel et si w > 1, on parle de sur-relaxation. On calcul x!) par Valgorithme suivant wt) — Ze Kost? — $ euall), phon 32 METHODE ITERATIVES Données : A, by 2°, n, ¢, 0 et Nine our ide 1 an faire Fin Pour nbs-0 Tant que (\|Az"*" — bl] > © et nb < Nas) faire nb + nb+1 Pour ide 1 An faire alt «gee Fin Pour Pour ide 14 n faire mre ea! a — wat, + (1a Fin Pour Fait walt Algorithme 8 — Algorithme de la méthode de Relaxation ma : 28S, = (b— Dagan” — Yo aij!) fais Avec Pour w = 1, nous retrouvons la méthode de Gauss Seidel. Pour w < 1 on appelle cette méthode méthode de sous-relaxation et pour > 1 méthode de sur-relaxation. D’aprés le théoréme 1.4.7, on a le résultat suivant : La méthode de Relaxation converge si et seulement si p(Bp(w)) <1. Exemple 1.4.24 Pour la matrice A donnée par 1.4.9, on obtient : BrWw) =] w(l-w) Les valeurs propres de la matrice Bn(w) dépendent en général de w donc la convergence de la méthode de relaxation dépendra aussi de la valeur de w 1.4.25 Résultats de convergence dans des cas particuliers METHODE ITERATIVES Nous allons maintenant examiner la convergence de ces méthodes itératives dans le cas d'une matrice symétrique définie positive. Théoréme 1, 6 Soit A une matrice symétrique définie positive et soit A = M — N une décomposition de A oii M est inversible. On suppose que la matrice ‘M + Nest symétrique définie positive Alors, la méthode itérative Ma**") = Nx") +b converge. On peut déduire de ce résultat le corollaire suivant : Corollaire 1.4.27 Si A est symétrique définie positive, la méthode de relaxation avec 0 < w < 2 converge. $B) Soit A une matrice symétrique définie positive. Alors la méthode de Gauss-Seidel converge. Corollaire 1.4.29 Soit A une matrice symétrique définie positive telle que 2D — A soit définie positive. Alors, la méthode de Jacobi converge. Une autre catégorie de matrices pour lesquelles utilisation des méthodes de décomposition intéressante est celle des matrices a diagonale dominante. Définition 1.4.30 On dit qu'une matrice A = (a;,:)i D laayl it aA On dit qu'elle est & diagonale strictement dominante si linégalité ci-dessus est stricte. Soit A une matrice & diagonale strietement dominante. Alors A est inversible. De plus, les méthodes de Jacobi et de Gauss-Seidel convergent. est 34 1.4. METHODE ITERATIVES La méthode de Gauss-Seidel converge généralement plus vite et plus souvent que la méthode de Jacobi. La méthode de relaxation nécessite la connaissance d'une valeur optimale du parametre de relaxation w. La convergence des méthodes itératives se teste généralement en utilisant un parametre de tolérance (On arréte ainsi les calculs dés que erreur relative est assez petite : iJa*9 — a)]] eye Une autre alternative est de tester le résidu : (Az) — dl]

You might also like