You are on page 1of 20
Résolution des systémes d’équations linéaires - Méthodes directes 5.1, — INTRopucTION Dans la pratique scientifique, l'ingénieur se trouve souvent face a des problémes dont la résolution passe par celle d'un systéme d'équations qui modélisent les divers éléments considérés. Ainsi, la détermination de: - contraintes et déplacements dans des structures mécaniques chargées ; - courants et tensions dans des réseaux électriques ; - débits et pressions dans les réseaux hydrauliques ; - dbits de chaleur dans des réseaux de chauffage ; ~ coefficients de régression par la méthode des moindres carrés (Chapi- tre 8) ; - coefficients de la fonction Spline pour des interpolations 4 une ou plusieurs dimensions (référence [5.3]) = - la solution numérique d'équations différentielles partielles (méthodes des différences finies ou éléments finis (références [5.1] et [6.5]) ; ~ la solution optimale en programmation linéaire, etc. passe par la résolution d'un systéme d'équations linéaires ou non li- néaires. On remarque que dans les deux derniers cas cités, le nombre d'équations peut-@tre de plusieurs milliers. On se rend facilement compte que la résolution d'un systéme linéaire est aisée, EXEMPLE 57 +3X+2¥= 5 9T+ OX+ 7¥ = 8 tiT+ X- y= 13 relativement & celle d'un systéme non linéaire tel que : a! $33? pox as or +6x -7¥¢= 8 dave + 6x8 - yew 13 La solution des systémes d'équations linéaires sera discutée dans ce Chapitre et au Chapitre 6, celle des systémes non linéaires au Chapitre hs = Le probleme de Cramer Dans ce Chapitre, nous nous intéresserons donc 4 la résolution simulta née de n équations 4 n inconnues a,x, +a,,+*, +a “ aay” tag * Me 1 ah ee =b 22a aR a 2 6.1) b ‘a 4 oy =D, (4 =1,2,...00 (5.2) a a ” ou encore : ya, eh ay in a 1 a, a. Bie & a b a1 a2 Bag on _ Pa 623) (5.4) Nous chercherons 4 résoudre le probléme de Cramer of la condition : x(A) = r{A,b) = n est vérifiée x(A) note le rang de A définie dans 1'équation (5.4) = Méthodes dinectes et méthodes ittratives On sépare généralement les problémes en deux classes suivant les carao= téristiques de la matrice A : 1, La matrice A est de taille réduite et est pleine. Par taille rédui# te, on comprend les matrices d’ordre inférieur a 100, par matrice pleine, on signifie que A comporte peu d'éléments nuls ; 2. La matrice A est éparse (creuse) et de grande taille. De grande taille nomme des matrices d'ordres égaux A plusieurs centaines ou plu sieurs milliers, La matrice Sparse posséde peu d'éléments non nuls. Un réarrangement ap- Proprié permet souvent de pcsitionner les éléments non nuls prés de la Giagonale principale. On rencontre ces matrices lors de la résolution numérique’ 4'équations différentielles partielles. Suivant la catégorie, on emploie souvent ane approche différente. on doit'remarquer que la taille des matrices de 1a deuxiéme catégorie pose Ges problémes de taille mémoire, méme sur les plus gros ordinateurs. Ii est 4 remarquer qu'il n'existe pas de régle définitive pour le choix entre les méthodes directes et les méthodes itératives. Toutefois, les méthodes itératives sont rarement utilisées pour la résolution de systé- me & matrice pleine et de faible dimension et les méthodes itératives sont généralement préférées pour résoudre les systémes de grande taille en grande partie car la matrice n'étant pas transfornée au cours des ealculs, le probléme de l'accumulation des erreurs devient moins crucial. Tl y a, cépendant, une certaine polémique 4 ce sujet. Une méthode directe conduit 4 une solution en un nombre fini a'étapes, et sans les erreurs d'arrondi, cette solution serait celle du systéme. (ik) Une méthode itérative fait passer d'un estimé x") de 1a solution 4 un (+1) autre estimé x de cette solution. S'il y a convergence, la solution ne pourrait donc étre atteinte quiaprés un nombre infini d'itérations. A, METHODES SANS PIVOTATION 5.2, SYSTEME LINEAIRE A MATRICE A PARTICULIERE 5.2.1. Systéme linéaire 4 matrice A triangulaire inférieure Soit le systéme cramérien a'ordre n Ax =b 00 A est une matrice triangulaire inférieure. Développons ce systéme : Teas j=! od ayy = 0 quand j > 4. IL équivaut done a : x i=in Sion connait les (i-1) premiers €lements de X, 1e 1eme s-ecrat + (5,5) 5.2.2. Systeme 4 matrice A triangulaire supérieure Si dans le systéme cramérien Ax =b A-est une matrice triangulaire supérieure ; on a : oa ayy =O sid (af) /al}), pour modifier 1a i-éme ligne comme suit : al) 2 gl) _ (g),,() CD. (ay, so ) Mie be 22 a2) a gl) 2 pega) k (éléments de 1a k-éme colonne), 0) on pexmute les lignes 1 et k de la matrice [a,b] L' élément se trouvant alors en position de pivot, c'est-A-dire A 1'in— tersection de la k-iame ligne et de la k-idme colonne est différent de z6ro et la deuxiéme phase est exécutable. S'il n'existe aucun élément non nul, alors A est singuliére. Dans la pratique, afin de minimiser l'erreur d'arrondi, on évite le plus possible la division par de petits pivots, car des divisions par des nombres petits entrainent des erreurs de calcul importantes (cf. § 5.15). Pour cette méme raison si a(t) #0, on recherche 1e meilleur (1e plus grand) pivot par différents procédés dont les plus connus sont* : 1, Procédé du pivot partioe (k-1) Lk On choisit comme pivot 1'élément a, tel que He max [ab | (5.18) i €(k,n) “tk * Nous avons montré L'intérét de la recherche du pivot maximal et nous développerons les méthodes de pivotation aux § 5.15, 5.16 et 5.17. 2, Procédés du pivot totak On choisit comme pivot 1'élément ae tel que : ees mae lah 5.199 ij €0cn) 19 = Deuxidme phase ba matrice [a,b] etant éventuellement modifiée par la premiére pha- We; cnvcpirs ise cdlculs dee éiénents non nile Ge fan}. Ke) Ay ay NY ik 4 =k+1 ntl ke1,n-1 at) cial hre? Gabo yi gi 8 {iris 6.20) Aprés calculs, on obtient le systéme triangulaire supérieur : ci aint) 2 p(n) b €tant (n+1)-iéme colonne de [A,b], qui peut se résoudre aisément par le procédé de calcul A rebours, Squation (5.6). REMARQUE Au cours des transformations de triangularisation de la méthode de GAUSS, il est inutile en pratique de calculer les éléments sous-diagonaux nuls, car ils ne sont plus utilisés dans le pro» cédé de calcul a rebours, équation (5.6) - C'est pour cela que dans l'algorithme (5.20) j varie de k+l 4 nt! - Les relations (5.20) étant des récurrences d'ordre 1, les in- dices (k) notant les itérations disparaissent au niveau de la programmation de la méthode. = Nombre d'opénations : AER Pour passer de [a,b] ©?) a (a,b), i cant (n-k) .(n-k+1) multiplications : nm (n-k) . (n-k+1) additions sna (n-k) divisions 2nd Déne, pour passer de [A,b] a [a,b] ™!), 1e nombre d' opérations sera: n-1 2. nm =na= J (nek). (nckt) = 20-0 ket nel nd= J) (n-k) = k=l Pour résoudre le systéme triangulariaé, on doit effectuer + m=na= J (ky) = 2D kel nd n Donc la résolution d'un systéme linéaire par |'algorithme de Gauss de- mands n(n=1) (2n+5) nm = BOT )(en) muitiplications na =m additions +1 na = 24) divisi Pour n > 20, le nombre d'additions et de multiplications est de l'ordre 3 n ae EXERCICES 1. Comparez le nombre d'opérations nécessaire pour résoudre un systéme dlordre 10 par les algorithmes de Cramer et de Gauss. 2. Calculez : n-1 n-1 Lo ourek) = J (nek) (n-k+1) n-1 noi ee ee ke. t kel ft ket kK: 3, Résoudre le systéme : x + 3x2 + 3x, = 0 2 2xy + 2x2 3x, + 2x, + 6x, = 11 par la méthode de Gauss. D5, SySTEME A MATRICE A QUELCONQUE - METHODE DE JORDAN (dite aussi de Gauss-Jordan) t Théor®me de Jordan Soit une matrice carrée A quelconque, il existe des matrices S telles que S.A. = D, of D est une matrice diagonale d'ordre n. 5.5.1, Principe va méthode de Jordan consiste @ transformer le systéme cramérien Ax = b sn un syst@me A'X = b', of A! est la matrice identité d'ordre n. Cette diagonalisation est opérée en n étapes qui se compesent d'une opé- vation de normalisation suivie d'une opération de réduction. 5.5.2. Description de 1a méthode Soit le systéme de Cramer : rst 12 in 1 ont a a 21 Bae an a | zen Be aeacaees a x, a nl “ng ‘nn, 7 n/t, = Premitre tape Nommalisation Cette opération cousiste 4 remplacer a,, par 1 en prémultipliant [a,b] par E, (pote premiére ligne de [a,b] devient : uM a) = ana (5.21 345 Sal ey ¥ n+l d Réduction Les coefficients extradiagonaux de A sont remplacés par : ey fi _ ell Mane Sa ~ Soh A Ceci s'obtient (cf. formule (5.5)) en multipliant [a,b] par : B,, (-a, fey ) By, (-a,)) .-. Bay) 21 3 1 n= 8nd Soit, sous forme compacte : a a) ary iy nae aly ee eee 5.22) le systame [a,b]! stécrit a Qa a) Roa oa) oan] fs] pis Qa a) a) aoe ays aon a 22 n+ a) gat Ty a) a ne ns nn n no yntd = Deuri2m. Stape a tk} (e3) [ar] = 7 &, [-a 1.5, ey ae aE 2 i ok= 2, Nownaisation (2) Le tem pivot a/2) est remplacé par | par la prémultiplication E, a = [a,b]. 1a seconae 1igne de [a,b]! aevient : 222 ie 5 Bi ed jaw Bh pad (5.23) Réduction Pour annuler les termes extradiagonaux de [a,b]'') prémultiplions 1 fab]? par Bal), les termes de la iéme rangée deviennent alors : (eh ty Gi res =e ly = 2 2G) oa! 400 13 is ae. Fas afl) oD gtd! lal in an 12 en Soit, en général : ay ee). 5) 8 58 aj aj iz 24 De méme, en prémultipliant [ayo] par Ey (-a( es termes de la iéme rangée deviennent : 2042 Pay) OA) ae Ay = ay EP (2) .0) _ 07 4) “ta "ta ~ Sia Bey CO) HA) ob We Aa) fin ~ in 7 Ai Ban Soit @ . G) 2G) Ja) = 44 Sty 7 Fda Pag 4 =2,.00,nt1 L#K (5.25) Aprés cette étape, le systéme devient : = k-42me Etape Nonmalisation a) Le terme puree a est remplacé par 1 par prémultiplication de [a,b) "par Ey ee, ") . La k-iame ligne de [a,b] "*) stecrit alors : kk ef) nage ipa Réduction Les temes extradiagonaux de 1a k-itue colonne sont annulés par prénal- tiplication de [a,b](*!) par By, (-a{K-l]), donc la i-ieme ligne devient (ie) 1) e-2) (k) ink, iy ig Be Fag z #k Lx 2p amt (5.26) Nous pouvons donc développer l'algorithme de Jordan pour un systéme d'ordre n. 5.5.3. Algorithme de Jordan ® Premitne phase Identique a celle de la méthode de Gauss. = Deuxitme phase La matrice [A,b] étant telle que déterminée par la premiére phase, on effectue les opérations suivantes Ok) (ke1) , (ke) ars ay Ry A j= Kent Kem 1) eoen [tt Oe) ket) eet) e) i ay Me Mey ARP Let Z een ik donc dans 1e (a+ 1)-i8ne colonne de [a,b], soit = sce ale = i,n a7 Aaynea © Nombre ¢! operations Le nonbre d'opfrations nécessaires au passage de [a,b] 7") a fap est : na 8 nm = (n-1) (n-k+1) nd (a-k+ 1) pone Je passage ide [a,b1) actayn]™) mecossite 2 n na =nm= ) (m1) (n-ktH) kel n(n7-1) /2 nd = k: Geen = pinta) 72 rap La résolution du systéme a matrice diagonale demande + nd =n divisions En résumé, la résolution d'un systéme linéaire par la méthode de Jordan demande + na = nm = n(n*-1)/2 additions et multiplications n@ = nintl)/2 divisions Pour n> 20, le nombre d'opérations est de l'ordre de n°/2. EXERCICE Résolution d'un systéme of n=5. Quel est le nombre d'opérations nécessaizes avec les méthodes Cramer, Gauss et Jordan ? Méme question si n=10. REMARQUE Les récurrences de 1'algorithme (5.27) sont d'ordre 1. On peut donc supprimer le super-indice (k) notant 1'itération (faute de quoi, il faudrait utiliser des matrices tridimensionnelles et mémoriser n* valeurs). Si l'on veut mémoriser la matrice identi- té (ce qui permet de détecter bien des erreurs en phase de mise au point), il faut que j varie de k a nti. Mais, suite ala sup- ae et af? ont 1a méme position en mé- moire. 51 l'on veut former 1a matrice a) = 1 41 suffit de dé- crdmenter j de ntl 4k. pression d'indice, BXEMPLE i323 x1 0 Résolution de |2 2 0| .|x2|=| 2 3 2 6. x3 ill Formons [a,b]. 18 a & a Ae 2 iamaaria le Bee fe aihaiceose 2 seas 26 11 ae 0-7 -3 11 3 3 133 0 10-3 3 kee 122 ee \ipob normalisation 2 @ réduction z 2 45 15 @ =? 3 I 0 0 7 > 3 J a» e ay 3 re 2 F fe ria Poe 10 -2 normalisation Zz 2 réduction 0 1 1 BG, 1, La solution est x , dttohat [3 -2 a]. 2 = Fa nes 5.6. CALCUL DE LA MATRICE INVERSE Av’ PAR L'ALGORITHME DE JORDAN L'algorithme de Jordan opére le passage de la matrice C = [A,b] a la ma~ trice 4 = [1,x] of X est solution du systéme linéaire AK = b, soit X= A'’b. onc, fonctionnellement, 1'algorithme de Jordan fait 1a transformation de c = [a,b] a D = [1, avtb], ctest-a-dire qu'il simule la multiplica- tion de C par A"', soit D = a7} c = aj! [a,b] = [1, ad]. L'intérét de cette remarque est que si l'on augmente A nouveau C en lui adjoignant la matrice identité In, on aura C = [A,I] aprés les opérations de l'algorithme de Jordan, on obtiendra : D = a!c = A ![a,z] = [z,a"']. L'algorithme s'écrit : (5.28) Done cet algorithme permet de calculer 1'inverse d'une matrice avec un nombre d'opérations nettement inférieur A celui de la méthode de Cramer, Calculez ce nombre a! opérations, NOTE de Figon identigque, on peut calculer A™* par Je méthdde de Gauss. EXEMPLE d'inversion d'une matrice A par la méthode de Jordan # BOF Calcul de l'inverse dea =| 2 2 0 326 242 3|2 08 € i a 3 100 N7T2 20,01 6 R>]0 -4 -6 -2 1 0} 3 2 6'D. 0 4 Boe? 2 ed 0y Ah. | | grad 2. | 23 3 £ eo t ¢ SS) Su : 2 L i 3 1 t > ee Pe #. di ob N o ft > ? z oO R 0 1 3 z Zz 0 45 i Z | Gat ah ZF ot. 0 0 2 oy. oe oO 2 1 a 2 2 1 2 2 > -F = oO eR 6 5 5 5 = # 2d a Bt 1 N Qt e Fes Bl e OD OS gy 1 7 2 i ef 2 He 1 ee Ss OO 1 “30 =2 2 1 vérifier que: i{2 4 -1|.a-=2 ifiez a 4 : bed: ak 12 5 8 8 ise RESOLUTION SIMULTANEE DE M SYSTEMES A MATRICE A IDENTIQUE Supposons que l'on parte avec la matrice c = [a,b!,b?,...,b"], oa b*,b*,...b™ sont m vecteurs & n dimensions. La méthode de Jordan fournira : o " atc = a! (a,b! b?,...,b™] = [1,07 1b! a tb? ,...,a bY Les m vecteurs [A7!b',a7'b?,...,a71b™] sont les solutions respectives des m systémes linéaires (ee ait ax? =°b? (5.29) (ne BP i si b',b?,...,b" sont les m vecteurs orthogonaux suivants : bath @ ost. oj] wt eifo 2 0 b -.. oF by = [0 0 0... 1] on retombe dans le cas du paragraphe 5.6. 5.8. SystEMe A MATRICE A QUELCONGUE METHODE PAR DECOMPOSITION LU DE DOOLITTLE ET CROUT AyPrtnctve bes méthodes passent par la décomposition de A en : Pa =u 6.30) of L est une matrice triangulaire inférieure et U une matrice triangu- Jlaire supérieure. le systame cramérien Ax = b devient + } Lox = b (3.31) (Hi peut se décomposer en : by = 5 6.32 Ukey 5.33) systéme (5.32) a matrice triangulaire inférieure se résoud immédiate- t par l'algorithme (5.5). 32), on voit que c'est un systéme 4 matrice triangulaire supérieure L'algorithme (5.6) donne le vecteur x qui est bien la solution : 8 reportant 1a solution y = L”'b de 1'équation (5.31) dans 1'équation # = Uy= ult =a tb mubeseription des méthodes de décomposition Bh développant 1'équation (5.30), on obtient : u, (5.34) Od, par définition: L,, =0 si k>i ‘ik Uy 29 st k> J aot: (5.35) La partis triangulaire supérieure de A a pour termes : r ay * a La Uy PETA ee (5,36) La partie trienguleire inférieure de A a pour éléments : = ays oy Tay Oy ier rtt,... gry-s-90 (5.37) L'équation (5.37) étant vraie, Vr = 1,2, Supposons que l'on connaisse les n? éléments (aj3) et que l'on cherche les (n*+n) éléments non nuls des matrices L et U- Les systémes (5.35) ou (5.37) sont donc de n? équations a (n?#n) incon- nues . Il y a done n paramétres a fixer arbitrairenent, dans 1'équation (5.37), on pourra par exemple fixer les éléments diagonaux Urr ou Lyy des matri- ces U ou L. On débouche sur les deux algorithmes les plus connus. ~ algorithme de Doolittle : Lyi = 1, Vi; - algorithme de-Crout + Uig = 1, Wi. Les algorithmes s'écrivent done : * Algorithme do DooLittte @ Rgorithme de Crout B, fe ae (5.39) ri Boci= fag — 9 Ty20; 74 jexrtiyn ua wD gh, ee |e L'algorithme de Doolittle génére une matrice L unitaire (a éléments dia- gonaux égaux a l'unité) et une matrice U, telles que LU L'algorithme de Crout génére une matrice U'unitaire et une matrice L' telles que L'U' = A. » Vie: En fait, on’ remarque que Uj, = Lj, En notant Dj, = Uj,, ona: A = LU = (uD) (D-*y)= n'u' = Lou = Lio-?u Ces algorithmes sont done des cas particuliers des décompositions de A en: A = LDU ol L est une matrice triangulaire inférieure, U une matrice triangu- laire supérieure et D une matrice diagonale, = Résolution des syst®mes Linbaines Ax = b Aprés décomposition de A = LDU, la résolution de Ax = b peut se décompo- ser en la résolution successive des trois systémes : ly =b Dz =y Ux =z Ces systémes linéaires sont respectivement résolus par les algorithmes (5.5), (5.7) et (5.6). La résolution de Dz =y est inutile dans le cas (D=T) des algorithmes de Crout et Doolittle. 5,9, SYsTEMES A MATRICE A SYMETRIQUE DEFINIE POSITIVE METHODE DE CHOLEVSKI . 5.9.1. Principe . ® Théorrme de ChoLevski 81 A est une matrice symétrique définie positive, alors elle peut atre décompomée en : ‘

You might also like