You are on page 1of 41

5.

Iterativno rjeavanje linearnih sustava


5.1. Openito o iterativnim metodama
Umjesto direktnih metoda za rjeavanje linearnih sustava, u praksi se esto ko-
riste iterativne metode, posebno za rijetke sustave vrlo velikih redova.
Pretpostavimo da je A regularna matrica reda n. Iterativna metoda koja prona-
lazi priblino rjeenje sustava Ax = b zadana je poetnim vektorom x
(0)
i generirana
je nizom iteracija x
(m)
, m N, koji (nadamo se) konvergira prema rjeenju linearnog
sustava x.
U praksi se gotovo iskljuivo koriste iterativne metode prvog reda, koje iz jednog
prethodnog vektora x
(m)
nalaze sljedeu aproksimaciju x
(m+1)
.
Ideja iterativnih metoda je brzo raunanje x
(m+1)
iz x
(m)
. Kriterij zaustavlja-
nja slian je kao kod svih metoda limes tipa tj. kad je x
(m)
dovoljno dobra
aproksimacija za pravo rjeenje x. Naravno, i tu postoji problem, jer pravi x ne
namo. Zbog toga, koristimo svojstvo da je konvergentan niz Cauchyjev, tj. da
susjedni lanovi niza moraju postati po volji bliski. Standardno, uzima se da su
x
(m+1)
i x
(m)
dovoljno bliski ako je
x
(m+1)
x
(m)
,
gdje je neka unaprijed zadana tonost (reda veliine u, odnosno n u), a neka
vektorska norma.
Da bismo denirali iterativnu metodu, potrebno je paljivo rastaviti matricu A.
Denicija 5.1. Rastav ili cijepanje matrice A je par matrica (M, K) (obje reda
n) za koje vrijedi
(a) A = M K,
(b) M je regularna.
Bilo koji rastav matrice A generira iterativnu metodu na sljedei nain:
Ax = Mx Kx = b = Mx = Kx + b,
pa zbog regularnosti od M izlazi
x = M
1
Kx + M
1
b.
Ako oznaimo R = M
1
K, c = M
1
b onda je prethodna relacija ekvivalentna s
x = Rx + c.
Time smo denirali iterativnu metodu
x
(m+1)
= Rx
(m)
+ c, m N
0
.
5.1. Openito o iterativnim metodama 41
Pravo rjeenje x je ksna toka iteracijske funkcije, tj. ksna toka preslikavanja
f(x) = Rx + c.
To znai da u analizi konvergencije moemo koristiti poznate teoreme o ksnoj toki
(poput Banachovog u potpunim prostorima).
Kriterij konvergencije ovakvih metoda je jednostavan.
Lema 5.2. Niz iteracija
_
x
(m)
_
, m N
0
, generiran relacijom
x
(m+1)
= Rx
(m)
+ c, m N
0
(5.1)
konvergira prema rjeenju linearnog sustava Ax = b za sve poetne vektore x
(0)
i
sve desne strane b, ako je
R < 1,
pri emu je proizvoljna operatorska norma.
Dokaz. Oduzmimo x = Rx + c od x
(m+1)
= Rx
(m)
+ c. Dobivamo
x
(m+1)
x = R
_
x
(m)
x
_
,
pa uzimanjem norme dobivamo
_
_
x
(m+1)
x
_
_
R
_
_
x
(m)
x
_
_
R
m+1
_
_
x
(0)
x
_
_
.
No, zbog R < 1 slijedi R
m+1
0 za m , odakle izlazi
_
_
x x
(m+1)
_
_
0,
pa iz neprekidnosti norme slijedi x
(m+1)
x za svaki x
(0)
.
No, moe se dobiti i neto bolji rezultat, koritenjem veze spektralnog radijusa i
operatorske norme matrice.
Lema 5.3. Za sve operatorske norme vrijedi
(R) R.
Za sve R i sve > 0 postoji operatorska norma

takva da je
R

(R) + .
Norma

ovisi i o R, i o .
Dokaz. Da bismo dokazali da je (R) R za bilo koju operatorsku normu, neka
je (R) = ||, a x pripadni svojstveni vektor od . Tada vrijedi
R = max
y=0
Ry
y

Rx
x
=
x
x
=
|| x
x
= || = (R).
S druge strane, da bismo konstruirali operatorsku normu

takvu da je R


(R)+, svedimo matricu R na njenu Jordanovu formu. Znamo da postoji regularna
42 5. Iterativno rjeavanje linearnih sustava
matrica S za koju je J = S
1
RS Jordanova forma matrice R. Jedinice iznad
dijagonale u J kvare spektralni radijus, pa je ideja da umjesto njih dobijemo
zadani > 0. To se postie dijagonalnom matricom slinosti. Neka je
D

= diag(1, ,
2
, . . . ,
n1
).
Tada je
(SD

)
1
R(SD

) = D
1

JD

=
_

1

.
.
.
.
.
.
.
.
.

2

.
.
.
.
.
.
.
.
.

2
.
.
.
_

_
.
Uzmimo kao vektorsku normu
x

= (SD

)
1
x

(pokaite da je to vektorska norma!), koja generira operatorsku normu. U toj ope-


ratorskoj normi vrijedi
R

= max
x=0
Rx

= max
x=0
(SD

)
1
Rx

(SD

)
1
x

= max
y=0
(SD

)
1
R(SD

)y

= (SD

)
1
R(SD

max
i
|
i
| + = (R) + .
Konano, prethodne dvije leme daju potpunu karakterizaciju konvergencije ite-
rativnih metoda.
Teorem 5.4. Niz iteracija
_
x
(m)
_
, m N
0
, generiran relacijom (5.1) konvergira
prema rjeenju linearnog sustava Ax = b za sve poetne vektore x
(0)
i sve desne
strane b, ako i samo ako je
(R) < 1,
pri emu je (R) spektralni radijus matrice R = M
1
K. Uoite da (R) ovisi samo
o A i njenom rastavu, a ne o b.
Dokaz. Ako je (R) 1, izaberimo startnu aproksimaciju x
(0)
tako da je x
(0)
x
svojstveni vektor koji pripada svojstvenoj vrijednosti , (R) = ||. Tada vrijedi
_
x
(m+1)
x
_
= R
_
x
(m)
x
_
= = R
m+1
_
x
(0)
x
_
=
m+1
(x
(0)
x
_
,
5.1. Openito o iterativnim metodama 43
pa, oito (m + 1)-a potencija broja koji je po apsolutnoj vrijednosti vei ili jednak
1, ne moe teiti u 0.
S druge strane, ako je (R) < 1, onda moemo izabrati > 0 takav da je
(R) + < 1,
a zatim po lemi 5.3 i operatorsku normu

takvu da vrijedi
R

(R) + < 1. (5.2)


Budui da je

operatorska norma, ponovno, po prvom dijelu leme 5.3 slijedi da


je
(R) R

. (5.3)
Relacije (5.2) i (5.3) zajedno daju da je
R

< 1,
pa primjenom leme 5.2 dobivamo traeni rezultat.
Lema 5.2 i teorem 5.4, zapravo nam daju i brzinu konvergencije. Prisjetimo se
to je brzina konvergencije.
Denicija 5.5. Za niz aproksimacija x
(m)
, m N
0
, rei emo da konvergira prema
x s redom p ako je
x
(m+1)
x cx
(m)
x
p
, c R
+
0
.
Ako je p = 1 (tzv. linearna konvergencija), mora biti c < 1 (tzv. geometrijska
konvergencija s faktorom c).
U sluaju iterativnih metoda, konvergencija je linearna, a faktor je (R) < 1, tj.
vrijedi
x
(m+1)
x

(R)x
(m)
x

.
Podijelimo li prethodnu relaciju s (R) x
(m+1)
x

, a zatim logaritmiramo, do-


bivamo
log (R) log x
(m)
x

log x
(m+1)
x

, (5.4)
pa zbog toga broj
r(R) = log (R)
moemo denirati kao brzinu konvergencije iteracija. to nam kae relacija (5.4)?
Broj r(R) je porast broja korektnih decimalnih znamenki u rjeenju po iteraciji.
Dakle, to je manji (R), to je vea brzina konvergencije iteracija.
Naravno, sljedei cilj nam je odgovoriti na pitanje kako odrediti rastav matrice
A = M K koji zadovoljava
(1) Rx = M
1
Kx i c = M
1
b se lako raunaju,
(2) (R) je malen?
44 5. Iterativno rjeavanje linearnih sustava
Odmah nam se nameu neka jednostavna rjeenja za ova dva suprotna cilja. Na
primjer, izaberemo li M = I, M je regularna, i Rx i c se lako raunaju, ali nije
jasno da smo zadovoljili da je (R) < 1. S druge strane, izbor K = 0 je izvrsan za
drugi cilj ((R) = 0), ali nije dobar za prvi cilj, jer je c = A
1
b, tj. dobivamo polazni
problem kojeg treba rijeiti (x = c).
Dakle, rastav koji bi uvijek dobro radio nije lako konstruirati. Meutim tu e
nam pomoi praksa. Matrice koje se javljaju u praksi su ili pozitivno denitne ili
(strogo) dijagonalno dominantne, pa e za takve tipove matrica biti mnogo lake
konstruirati iterativne metode i pokazati da one konvergiraju.
Uvedimo sljedeu notaciju. Pretpostavimo da A nema nula na dijagonali. Tada
A moemo zapisati kao
A = D

L

U = D(I L U),
pri emu je D dijagonala od A,

L striktno donji trokut od A, a

U striktno gornji
trokut od A. Jednako tako, vrijedi DL =

L, DU =

U.
5.2. Jacobijeva metoda
Openito govorei Jacobijeva metoda u petlji prolazi kroz jednadbe linearnog
sustava, mijenjajui j-tu varijablu, tako da j-ta jednadba bude ispunjena. Dakle,
u (m+ 1)-om koraku vrijednost varijable x
j
, u oznaci x
(m+1)
j
, raunamo iz j-te jed-
nadbe koritenjem aproksimacija iz m-tog koraka za preostale varijable, tj. vrijedi
a
jj
x
(m+1)
j
+
n

k=1
k=j
a
jk
x
(m)
k
= b
j
, j = 1, . . . , n. (5.5)
Naravno, to ide ako i samo ako je a
jj
= 0 za sve j.
Vidimo da na nove komponente djeluju samo dijagonalni elementi matrice A,
dok svi ostali djeluju na stare (prethodne ili prole) komponente. Skupimo li sve
jednadbe iz (5.5) za jedan korak, onda ih zajedno moemo zapisati kao
Dx
(m+1)
= (

L +

U)x
(m)
+ b,
ili
x
(m+1)
= D
1
(

L +

U)x
(m)
+ D
1
b := R
Jac
x
(m)
+ c
Jac
,
uz
R
Jac
= D
1
(

L +

U) = L + U, c
Jac
= D
1
b.
Pripadni rastav matrice A je
A = D (

L +

U),
tj. M = D, K =

L +

U.
5.3. GaussSeidelova metoda 45
Algoritam 5.6 (Jedan korak Jacobijeve metode).
for j := 1 to n do
x
(m+1)
j
:=
_
b
j

k=1
k=j
a
jk
x
(m)
k
__
a
jj
;
Uoimo da petlju po j u ovom algoritmu, odnosno prolaz kroz jednadbe sustava
u (5.5), moemo napraviti bilo kojim redom po j ne nuno sekvencijalnim.
Komponente novog vektora x
(m+1)
ovise samo o komponentama starog vektora x
(m)
,
a ne i o nekim novim komponentama. Zbog toga je Jacobijeva metoda idealna
za paralelno raunanje, jer pojedine komponente novog vektora moemo raunati
potpuno nezavisno.
5.3. GaussSeidelova metoda
Ako komponente novog vektora u Jacobijevoj metodi zaista raunamo sekven-
cijalno, od prve prema zadnjoj, odmah se namee ideja za poboljanje. Naime, u
aproksimaciji j-te varijable u (m+1)-om koraku koristimo aproksimaciju svih ostalih
varijabli iz prethodnog m-tog koraka, iako ve imamo poboljane varijable x
(m+1)
i
,
za i < j, iz novog koraka. Iskoristimo li sve poznate nove komponente umjesto
starih, onda (5.5) glasi
a
jj
x
(m+1)
j
+
j1

k=1
a
jk
x
(m+1)
k
+
n

k=j+1
a
jk
x
(m)
k
= b
j
, j = 1, . . . , n. (5.6)
Ovu metodu zovemo GaussSeidelova metoda. Poredak prolaska kroz jednadbe
sustava postaje potpuno odreen i strogo sekvencijalan, od prve prema zadnjoj.
Opet, to ide ako i samo ako je a
jj
= 0 za sve j.
Na nove komponente djeluju, osim dijagonalnih, i svi elementi donjeg trokuta
matrice A, dok samo strogo gornji trokut djeluje na stare komponente. Sve jed-
nadbe iz (5.6) za jedan korak iteracija moemo zajedno zapisati u obliku
(D

L)x
(m+1)
=

Ux
(m)
+ b,
ili
x
(m+1)
= (D

L)
1

Ux
(m)
+ (D

L)
1
b := R
GS
x
(m)
+ c
GS
,
uz
R
GS
= (D

L)
1

U = (I L)
1
U, c
GS
= (D

L)
1
b = (I L)
1
D
1
b.
Matrica R
GS
je singularna, jer je U strogo gornja trokutasta (det U = 0). Pripadni
rastav matrice A je
A = (D

L)

U,
tj. M = D

L, K =

U.
46 5. Iterativno rjeavanje linearnih sustava
Algoritam 5.7 (Jedan korak GaussSeidelove metode).
for j := 1 to n do
x
(m+1)
j
:=
_
b
j

j1

k=1
a
jk
x
(m+1)
k

n

k=j+1
a
jk
x
(m)
k
__
a
jj
;
Zgodna je stvar da u implementaciji GaussSeidelove metode ne moramo pamtiti
dva vektora, ve samo jedan, tako da nove izraunate komponente prepisujemo preko
starih u istom polju x.
S druge strane, redosljed popravaka varijabli u Jacobijevom algoritma ne igra
nikakvu ulogu, u smislu da bilo koji poredak izvravanja petlje po j daje isti rezul-
tat i, naravno, istu iterativnu metodu. Nasuprot tome, redosljed popravaka kod
GaussSeidelovog algoritma je bitan. U (5.6) i u algoritmu 5.7 uzeli smo prirodni
redosljed od prve prema zadnjoj jednadbi, odnosno, varijabli (petlja po j od 1
do n).
To ne znai da je to i jedini mogui redosljed. U principu, moemo uzeti i bilo
koji drugi redosljed, tj. bilo koju drugu od moguih n! permutacija jednadbi. No,
zbog sekvencijalnosti popravaka, rezultat nije isti, tj. dobivamo drugaiju iterativnu
metodu. U praksi se katkad i koriste drugaiji redosljedi, ali za sasvim posebne
linearne sustave koji nastaju diskretizacijom parcijalnih diferencijalnih jednadbi.
Na primjer, za Laplaceovu jednadbu u dvije dimenzije koristi se tzv. crvenocrni
poredak (engl. redblack ordering), koji nalii ahovskoj ploi s crvenim i crnim
poljima, s tim da se prvo raunaju sva polja crvene boje, a zatim sva polja crne boje.
Zbog posebne strukture sustava, ovaj poredak dozvoljava i ekasnu paralelizaciju.
5.4. JOR metoda (Jacobi overrelaxation)
Kad jednom znamo konstruirati iterativni proces, namee se vrlo jednostavna
ideja za njegovo poboljanje, uvoenjem jednog realnog parametra. Nove aproksi-
macije moemo raunati u dva koraka. Prvo iz x
(m)
naemo (jednostavnu) pomonu
sljedeu aproksimaciju x
(m+1)

, a zatim za pravu novu aproksimaciju x


(m+1)
uzme-
mo teinsku sredinu prethodne aproksimacije x
(m)
i pomone nove aproksimacije
x
(m+1)

x
(m+1)
= (1 )x
(m)
+ x
(m+1)

= x
(m)
+ (x
(m+1)

x
(m)
), (5.7)
gdje je teinski parametar kojeg moemo birati. Oito, za = 1 dobivamo
x
(m+1)
= x
(m+1)

, pa je ova metoda proirenje metode za nalaenje pomonih aprok-


simacija. Obino se uzima R i = 0, da ne dobijemo stacionaran niz.
Ideja za ovakav postupak dolazi iz opih metoda za rjeavanje jednadbi i minimi-
zaciju funkcionala. Pomona aproksimacija x
(m+1)

daje smjer korekcije prethodne


aproksimacije x
(m)
u kojem treba ii da bismo se pribliili pravom rjeenju sustava
ili smanjili rezidual r(x) = Ax b u nekoj normi. No, ako je x
(m+1)

x
(m)
dobar
smjer korekcije, onda moemo dodati i izbor duljine koraka u smjeru te korekcije,
tako da dobijemo to bolji x
(m+1)
. Openito oekujemo da je > 0, tj. da idemo
u smjeru vektora korekcije, a ne suprotno od njega, a stvarno elimo dobiti > 1,
tako da se jo vie maknemo u dobrom smjeru i pribliimo pravom rjeenju ili toki
5.4. JOR metoda (Jacobi overrelaxation) 47
minimuma.
Naziv relaksacija dolazi upravo iz minimizacijskih metoda, a odnosi se na sve
iterativne metode koje koriste neki oblik minimizacije ili pokuaja minimizacije rezi-
duala. U tom smislu, esto se koristi i tradicionalni naziv relaksacijski parametar
za .
Obzirom na vrijednost parametra , imamo tri razliita sluaja. Ako je = 1,
onda se metoda svodi na pomonu metodu i to je tzv. obina ili standardna re-
laksacija. Ako je < 1, onda takvu metodu zovemo podrelaksacija (engl. un-
derrelaxation), a ako je > 1 onda metodu zovemo nad- ili pre-relaksacija (engl.
overrelaxation).
U opem sluaju, se posebno rauna u svakoj pojedinoj iteraciji, tako da dobi-
jemo to bolji x
(m+1)
. Postupak se svodi na jednodimenzionalnu optimizaciju (kao
i odreivanje koraka u viedimenzionalnoj optimizaciji), a ovisi o kriteriju optimal-
nosti za mjerenje kvalitete aproksimacija.
Sreom, za neke klase linearnih sustava, koje su izrazito bitne u praksi, unaprijed
se moe dobro odabrati optimalni ili skoro optimalni parametar za maksimalno
ubrzanje konvergencije iterativnih metoda i to tako da isti vrijedi za sve iteracije.
U veini sluajeva dobivamo > 1 za optimalni , pa se takve metode standardno
zovu OverRelaxation i skraeno oznaavaju s OR. Obzirom na to da se zadaje ili
bira unaprijed, a zatim koristi za sve iteracije, metoda je ovisna o jednom parametru
i standardno koristimo oznaku OR().
Ako se pomona nova aproksimacija x
(m+1)

iz (5.7) rauna po Jacobijevoj me-


todi, dobivamo Jacobijevu nadrelaksaciju ili JOR metodu. Iz (5.5) za komponente
pomone aproksimacije x
(m+1)
Jac
vrijedi
x
(m+1)
j,Jac
=
_
b
j

k=1
k=j
a
jk
x
(m)
k
__
a
jj
, j = 1, . . . , n.
Kad to uvrstimo u (5.7) dobivamo sljedei algoritam.
Algoritam 5.8 (Jedan korak JOR() metode).
for j := 1 to n do
x
(m+1)
j
:= (1 )x
(m)
j
+

a
jj
_
b
j

k=1
k=j
a
jk
x
(m)
k
_
;
Kao i kod obine Jacobijeve metode, petlju po j moemo izvriti bilo kojim
redom po j, uz isti rezultat, pa se i ovdje komponente novog vektora x
(m+1)
mogu
paralelno raunati.
Vektorski oblik iteracija u JOR() metodi je
x
(m+1)
= (1 )x
(m)
+ (R
Jac
x
(m)
+ c
Jac
) := R
JOR()
x
(m)
+ c
JOR()
pa je
R
JOR()
= (1 )I + R
Jac
= (1 )I + (L + U), c
JOR()
= c
Jac
= D
1
b.
48 5. Iterativno rjeavanje linearnih sustava
Pripadni rastav matrice A je
A =
1

D
_
1

D +

L +

U
_
,
tj. M =
1

D, K =
1

D+

L+

U. Naravno, za = 1 dobivamo Jacobijevu metodu.
Iz oblika matrice R
JOR()
vidimo da se optimalni parametar koji minimizira
njen spektralni radijus moe odrediti unaprijed, prije poetka iteracija. Drugim
rijeima, treba koristiti isti u svim iteracijama, naravno, pod uvjetom da imamo
konvergenciju.
5.5. SOR metoda (Successive overrelaxation)
Relacija (5.7) koristi ideju teinske sredine ili duljine koraka na nivou vektor-
skih aproksimacija x
(m)
. To prirodno odgovara Jacobijevoj metodi i paralelnom
raunanju. Meutim, potpuno istu ideju moemo koristiti i za poboljanje svake
pojedine varijable x
(m)
j
, tj. pojedinanih komponenti vektora x
(m)
, to odgovara
GaussSeidelovskom pristupu. Dakle, nova aproksimacija j-te varijable ima oblik
x
(m+1)
j
= (1 )x
(m)
j
+ x
(m+1)
j,
= x
(m)
j
+ (x
(m+1)
j,
x
(m)
j
), j = 1, . . . , n, (5.8)
gdje je x
(m+1)
j,
neka pomona nova aproksimacija j-te varijable, koju raunamo tog
trenutka kad nam treba, za svaki pojedini j.
SOR metoda (engl. Successive OverRelaxation ili ponovljena nad- ili prerelak-
sacija) je proirenje ili poboljanje GaussSeidelove metode u smislu da se pomona
nova aproksimacija x
(m+1)
j,
iz (5.8) rauna po GaussSeidelovoj metodi, pa ju ozna-
avamo s x
(m+1)
j,GS
. Relacija (5.8) za j-tu komponentu nove aproksimacije u SOR()
metodi ima oblik
x
(m+1)
j
= (1 )x
(m)
j
+ x
(m+1)
j,GS
, j = 1, . . . , n. (5.9)
Iz (5.6), trenutna pomona GaussSeidelova aproksimacija x
(m+1)
j,GS
koju moemo iz-
raunati iz poznatih prvih j 1 komponenti novog vektora x
(m+1)
i preostalih kom-
ponenti iz prethodne aproksimacije x
(m)
je
x
(m+1)
j,GS
=
_
b
j

j1

k=1
a
jk
x
(m+1)
k

n

k=j+1
a
jk
x
(m)
k
__
a
jj
.
Kad to uvrstimo u (5.9), moemo izraunati j-tu komponentu x
(m+1)
j
nove aproksi-
macije po SOR() metodi.
Algoritam 5.9 (Jedan korak SOR() metode).
for j := 1 to n do
x
(m+1)
j
:= (1 )x
(m)
j
+

a
jj
_
b
j

j1

k=1
a
jk
x
(m+1)
k

n

k=j+1
a
jk
x
(m)
k
_
;
5.6. Konvergencija Jacobijeve i GaussSeidelove metode 49
Iz algoritma odmah vidimo da je
a
jj
x
(m+1)
j
+
j1

k=1
a
jk
x
(m+1)
k
= (1 )a
jj
x
(m)
j

n

k=j+1
a
jk
x
(m)
k
+b
j
, j = 1, . . . , n.
Ove jednadbe moemo zapisati u vektorskom obliku
(D

L)x
(m+1)
=
_
(1 )D +

U
_
x
(m)
+ b,
odakle slijedi
R
SOR()
= (I L)
1
((1 )I + U), c
SOR()
= (I L)
1
D
1
b.
I ovdje vidimo da se dobra vrijednost za , ako postoji, moe odrediti unaprijed za
sve iteracije.
Nakon analize konvergencije ovih iterativnih metoda, pokazat emo da za neke
klase matrica moemo nai optimalni izbor parametra koji ubrzava konvergenciju,
i da vrijedi > 1, to opravdava naziv OR u ovim metodama.
5.6. Konvergencija Jacobijeve i GaussSeidelove
metode
U ovom poglavlju nabrojit emo, a u veini sluajeva i dokazati, koji su dovoljni
uvjeti za konvergenciju pojedine metode.
Denicija 5.10. Za matricu A C
nn
kaemo da je strogo dijagonalno domi-
nantna po recima ako je
|a
jj
| >
n

k=1
k=j
|a
jk
|, j = 1, . . . , n.
Matrica A je strogo dijagonalno dominantna po stupcima ako je A
T
strogo
dijagonalno dominantna po recima.
Teorem 5.11. Ako je A strogo dijagonalno dominantna po recima, onda i
Jacobijeva i GaussSeidelova metoda konvergiraju i vrijedi
R
GS

R
Jac

< 1.
Dokaz. Prije dokaza, uoimo da relacija R
GS

R
Jac

znai da jedan ko-


rak u najgorem sluaju (problemu) za GaussSeidelovu metodu konvergira barem
jednako brzo kao i jedan korak u najgorem sluaju za Jacobijevu metodu. To ne
znai da e GaussSeidelova metoda konvergirati bre nego Jacobijeva za bilo koji
problem Ax = b. Naprosto, moe se dogoditi da Jacobijeva metoda u nekom koraku
sluajno ima manju greku.
50 5. Iterativno rjeavanje linearnih sustava
Prvo pokaimo da je R
Jac

< 1. Zbog stroge dijagonalne dominantnosti po


recima
|a
jj
| >
n

k=1
k=j
|a
jk
|, j = 1, . . . , n
vrijedi da je
1 > max
j
1
|a
jj
|
n

k=1
k=j
|a
jk
| = R
Jac

.
Sada nam preostaje dokazati da je R
GS

R
Jac

.
Matrice iteracija moemo napisati u obliku R
Jac
= L +U, i R
GS
= (I L)
1
U.
elimo dokazati da vrijedi
R
GS

= |R
GS
| e

|R
Jac
| e

= R
Jac

, (5.10)
pri emu je e vektor sa svim komponentama jednakim 1, tj. e = (1, . . . , 1)
T
. Ovu
relaciju moemo lako pokazati ako dokaemo jau komponentnu nejednakost
|(I L)
1
U| e = |R
GS
| e |R
Jac
| e = (|L| +|U|) e. (5.11)
Krenimo slijeva i iskoristimo relaciju trokuta. Vrijedi
|(I L)
1
U| e |(I L)
1
| |U| e. (5.12)
Ako je (L) < 1, (a je, jer je (L) = 0!), onda je I L regularna i moemo (I L)
1
razviti u red
(I L)
1
= I + L + L
2
+ + L
n
+
Primijetimo da je L strogo donjetrokutasta (nilpotentna) matrica, pa je L
k
= 0 za
k n, pa prethodni red postaje
(I L)
1
= I + L + L
2
+ + L
n1
.
Uvrstimo to u (5.12), pa ponovnim koritenjem relacije trokuta i formule za inverz
matrice oblika (I A), dobivamo
|(I L)
1
U| e

n1

i=0
L
i

|U| e
n1

i=0
|L|
i
|U| e (I |L|)
1
|U| e.
Relacija (5.11) e vrijediti ako dokaimo jo jau komponentnu nejednakost
(I |L|)
1
|U| e (|L| +|U|) e. (5.13)
Budui da su svi lanovi u redu za (I |L|)
1
nenegativni, dovoljno je pokazati da
je
|U| e (I |L|) (|L| +|U|) e = (|L| +|U| |L|
2
|L| |U|) e,
odnosno
0 (|L| |L|
2
|L| |U|) e = |L| (I |L| |U|) e. (5.14)
5.6. Konvergencija Jacobijeve i GaussSeidelove metode 51
Ponovno, budui da su svi elementi |L| nenegativni, prethodna nejednakost bit e
ispunjena ako je
0 (I |L| |U|) e,
odnosno
(|L| +|U|) e e.
Budui da je |R
Jac
| = |L +U| = |L| +|U|, jer se elementi L i U nigdje ne zbrajaju,
onda je posljednja nejednakost ekvivalentna s
|R
Jac
| e e.
Ovu posljednju jednakost moemo dokazati jer je
|R
Jac
| e

= R
Jac

< 1.
itanjem dokaza u obratnom redosljedu, dobivamo traena svojstva (5.13), (5.11),
a onda i (5.10). Iako je zadnja nejednakost stroga, kad se vraamo unatrag, nejed-
nakost u (5.14) vie ne mora biti stroga, na primjer, za L = 0. Dakle, moe biti
R
GS

= R
Jac

.
Analogni se rezultat, tj. da Jacobijeva i GaussSeidelova metoda konvergiraju,
moe se dobiti i za strogo dijagonalno dominantna matrica po stupcima,
samo onda ulogu norme igra norma 1.
Uvjeti prethodnog teorema mogu se jo malo oslabiti, do ireducibilnosti i slabe
dijagonalne dominantnosti. Da bismo denirali ireducibilnu matricu, moramo de-
nirati vezu izmeu matrica i grafova.
Denicija 5.12. Matrici A odgovara usmjereni graf G(A) s vorovima 1, . . . , n.
Usmjereni brid tog grafa od vora i do vora j postoji ako i samo ako je a
ij
= 0.
Denicija 5.13. Usmjereni graf je jako povezan ako postoji put iz svakog vora
u svaki vor. Komponenta jake povezanosti usmjerenog grafa je podgraf koji je jako
povezan i ne moe se poveati, a da ostane jako povezan.
Denicija 5.14. Matrica A je reducibilna ako i samo ako postoji matrica permu-
tacije P takva da je
PAP
T
=
_
A
11
A
12
0 A
22
_
,
pri emu su A
11
i A
22
kvadratni blokovi reda manjeg od n, tj. PAP
T
je blok gornje-
trokutasta matrica. Matrica A je ireducibilna, ako nije reducibilna, tj. ako ne postoji
matrica permutacije P za koju je PAP
T
blok gornjetrokutasta matrica.
Najjednostavnija karakterizacija ireducibilnih matrica je preko jako povezanih
pripadnih grafova.
Lema 5.15. Matrica A je ireducibilna ako i samo ako je G(A) jako povezan.
Dokaz. Ako je A reducibilna
PAP
T
=
_
A
11
A
12
0 A
22
_
52 5. Iterativno rjeavanje linearnih sustava
onda ne postoji povratak iz vorova koji odgovaraju A
22
u vorove koji odgova-
raju A
11
, pa G(A) nije jako povezan. Obratno, ako G(A) nije jako povezan, postoji
komponenta jake povezanosti koja ne sadri sve vorove grafa. Ako matricu preper-
mutiramo tako da vorovi iz te komponente dou na poetak (u blok A
11
), dobit
emo traeni blok gornjetrokutasti oblik.
Denicija 5.16. Matrica A je slabo dijagonalno dominantna po recima ako
za svaki j vrijedi
|a
jj
|
n

k=1
k=j
|a
jk
|,
a stroga nejednakost se javlja barem jednom.
Sada moemo oslabiti uvjete teorema 5.11, s tim da ovaj rezultat navodimo bez
dokaza.
Teorem 5.17. Ako je A ireducibilna i slabo dijagonalno dominantna matrica
po recima, onda i Jacobijeva i GaussSeidelova metoda konvergiraju i vrijedi
R
GS

R
Jac

< 1.
Unato navedenim rezultatima da je pod nekim uvjetima GaussSeidelova me-
toda bra nego Jacobijeva, ne postoji nikakav generalni rezultat te vrste. Dapae,
postoje nesimetrine matrice za koje Jacobijeva metoda konvergira, a GaussSei-
delova ne, kao i matrice za koje GaussSeidelova metoda konvergira, a Jacobijeva
divergira.
5.7. Konvergencija JOR i SOR metode
Promotrimo sad konvergenciju relaksacijskih metoda JOR() i SOR() u ovis-
nosti o parametru . Obzirom na to da se ove metode za = 1 svode na Jacobijevu,
odnosno, GaussSeidelovu metodu, usput emo dobiti i neke rezultate o konvergen-
ciji ovih osnovnih metoda.
Za poetak, promatramo JOR() metode, jer su bitno jednostavnije za analizu.
Teorem 5.18. Ako Jacobijeva metoda za rjeenje linearnog sustava Ax = b konver-
gira za svaku poetnu iteraciju x
(0)
, onda za bilo koji (0, 1] konvergira i JOR()
metoda za svaku poetnu iteraciju.
Dokaz. Prema teoremu 5.4, pretpostavka o konvergenciji Jacobijeve metode za sva-
ku poetnu iteraciju ekvivalentna je s injenicom da vrijedi (R
Jac
) < 1. Neka su

j
, j = 1, . . . , n, svojstvene vrijednosti matrice R
Jac
. Onda je |
j
| < 1 za sve j. Ako

j
napiemo kao kompleksne brojeve u obliku
j
=
j
+i
j
, uz
j
,
j
R, onda iz
|
j
| < 1 slijedi
2
j
+
2
j
< 1 i |
j
| < 1.
Matrica iteracije u JOR() metodi je
R
JOR()
= (1 )I + R
Jac
= (1 )I + (L + U),
5.7. Konvergencija JOR i SOR metode 53
to je polinom u funkciji od R
Jac
, pa za svojstvene vrijednosti
j
matrice R
JOR()
vrijedi

j
= 1 +
j
, j = 1, . . . , n,
odakle izlazi
|
j
|
2
= |(1 +
j
) + i
j
|
2
= (1 +
j
)
2
+
2

2
j
.
Ako je 0 < 1, onda vrijedi ocjena
|
j
|
2
(1 )
2
+ 2(1 )|
j
| +
2
(
2
j
+
2
j
)
< (1 )
2
+ 2(1 ) +
2
= (1 + )
2
= 1,
odakle slijedi (R
JOR()
) < 1, a to znai da JOR() metoda konvergira za svaku
poetnu iteraciju.
Prethodni rezultat daje samo uvjetnu konvergenciju, u smislu da ako metoda
konvergira za = 1, onda konvergira i za sve iz skupa (0, 1]. Precizniju, ali
negativnu informaciju daje sljedei rezultat.
Teorem 5.19. Vrijedi (R
JOR()
) | 1|, pa je 0 < < 2 nuan uvjet za
konvergenciju JOR metode.
Dokaz. Znamo da je trag matrice jednak zbroju svih njezinih svojstvenih vrijednosti.
Promotrimo trag matrice
R
JOR()
= (1 )I + R
Jac
= (1 )I + (L + U).
Drugi lan (L + U) ima nul-dijagonalu, pa samo prvi lan daje trag
tr(R
JOR()
) = n(1 ) =
n

j=1

j
.
Dobivamo da je
n|1 |
n

j=1
|
j
| n(R
JOR()
),
odakle slijedi (R
JOR()
) | 1|. Dakle, za konvergenciju JOR() metode mora
vrijediti | 1| < 1, ili 0 < < 2. U protivnom, za neke x
(0)
metoda divergira.
Za simetrine (hermitske) i pozitivno denitne matrice A, moemo dobiti i po-
zitivnu informaciju o garantiranoj konvergenciji JOR metode.
Teorem 5.20. Neka je A simetrina (hermitska) i pozitivno denitna matrica i
neka za svojstvene vrijednosti
j
matrice R
Jac
Jacobijeve metode vrijedi

j
< 1, j = 1, . . . , n.
Onda JOR() metoda konvergira za sve parametre za koje vrijedi
0 < <
2
1
2, (5.15)
gdje je := min
j

j
najmanja svojstvena vrijednost matrice R
Jac
.
54 5. Iterativno rjeavanje linearnih sustava
Dokaz. Prvo uoimo da je R
Jac
= D
1
(

L +

L

) = D
1/2
(D
1/2
(

L +

L

)D
1/2
)D
1/2
slina simetrinoj (hermitskoj) matrici D
1/2
(

L +

L

)D
1/2
, pa su joj svojstvene
vrijednosti
j
realne. Ve smo vidjeli da za svojstvene vrijednosti
j
matrice R
JOR()
vrijedi

j
= 1 +
j
, j = 1, . . . , n,
pa je 1
j
= (1
j
), odakle slijedi da je |
j
| < 1 za sve j, ako i samo ako vrijedi
0 < (1
j
) < 2, j = 1, . . . , n.
Iz
j
< 1 slijedi 1
j
> 0, pa mora biti > 0. S druge strane, iz (1
j
) (1)
izlazi uvjet (1 ) < 2, pa je < 2/(1 ). Na kraju, iz tr(R
Jac
) = 0 slijedi da
najmanja svojstvena vrijednost zadovoljava 0, to dokazuje (5.15).
Ovaj rezultat ne znai da Jacobijeva metoda konvergira jer se moe dogoditi
da je 1, pa u (5.15) dobivamo < 1. Meutim, ako Jacobijeva metoda
konvergira, onda konvergira i JOR, s tim da u (5.15) moemo uzeti i > 1.
Korolar 5.21. Neka je A simetrina (hermitska) pozitivno denitna matrica i pret-
postavimo da Jacobijeva metoda konvergira. Onda konvergira i JOR() metoda za
sve parametre za koje vrijedi (5.15) i u toj relaciji je 2/(1 ) > 1.
Dokaz. Iz konvergencije Jacobijeve metode slijedi 1 <
j
< 1, za sve j, pa vrijedi
zakljuak prethodnog teorema. Osim toga, vrijedi i > 1, pa je 1 < 2, to
pokazuje da je gornja granica za u (5.15) vea od 1.
Ovo je pojaanje teorema 5.18 za simetrine (hermitske) pozitivno denitne ma-
trice. Naalost, gornju granicu za dozvoljeni > 1 nije lako nai. Ako znamo
(R
Jac
), moemo koristiti ocjenu 1 < (R
Jac
) i birati tako da je
1 < <
2
1 + (R
Jac
)

2
1
2.
Meutim, nije jasno da emo takvim izborom parametra ubrzati konvergenciju
iterativne metode. Obzirom na to da za SOR metodu moemo dobiti jae rezultate,
JOR metoda se relativno rijetko koristi u praksi.
Prvi rezultat za SOR metodu je isti nuni uvjet konvergencije kao i kod JOR
metode.
Teorem 5.22. Vrijedi (R
SOR()
) | 1|, pa je 0 < < 2 nuan uvjet za
konvergenciju SOR metode.
Dokaz. Znamo da je determinanta matrice jednaka produktu svih njezinih svojstve-
nih vrijednosti. Izraunajmo determinantu matrice
R
SOR()
= (I L)
1
((1 )I + U)
koja je produkt trokutastih matrica. Iskoristimo BinetCauchyjev teorem i injenicu
da su L i U strogo trokutaste matrice. Zbog toga, samo dijagonale, tj. lanovi s I
ulaze u determinante, pa je
det R
SOR()
= det(I L)
1
det((1 )I + U)
= det I det((1 )I) = (1 )
n
.
5.7. Konvergencija JOR i SOR metode 55
S druge strane je
det R
SOR()
=
n

j=1

j
(R
SOR()
),
pa iz |
j
(R
SOR()
)| (R
SOR()
) dobivamo
|1 |
n
=
n

j=1
|
j
(R
SOR()
)| ((R
SOR()
))
n
,
odakle slijedi (R
SOR()
) | 1|. Dakle, za konvergenciju SOR() metode mora
vrijediti | 1| < 1, ili 0 < < 2. U protivnom, metoda sigurno divergira, bar za
neke poetne vektore x
(0)
.
Ako je A simetrina (hermitska) i pozitivno denitna, uvjet 0 < < 2 je i
dovoljan za konvergenciju.
Teorem 5.23. Ako je A simetrina (hermitska) i pozitivno denitna ma-
trica tada je
(R
SOR()
) < 1 za 0 < < 2,
pa SOR() konvergira. Posebno, uzimajui = 1, slijedi da i GaussSeidelova
metoda konvergira.
Dokaz. Da bismo skratili pisanje, oznaimo s R := R
SOR()
. Trebamo dokazati da
za sve svojstvene vrijednosti matrice R vrijedi |
j
(R)| < 1, tj. da one lee unutar
jedininog kruga u kompleksnoj ravnini. Da bismo to dokazali, trebamo iskoristiti
da su svojstvene vrijednosti od A na pozitivnoj realnoj osi. Dokaz se sastoji od
dva koraka. U prvom, prebacujemo problem iz jedininog kruga u desnu otvorenu
poluravninu re z > 0, gdje je lake iskoristiti pozitivnu denitnost matrice A.
Za prvi korak koristimo razlomljene linearne transformacije. Lako se provjerava
da takva (tzv. Mbiusova) transformacija oblika
(z) :=
1 + z
1 z
bijektivno preslikava unutranjost jedininog kruga |z| < 1 na desnu otvorenu polu-
ravninu re > 0. Na isti nain elimo transformirati svojstvene vrijednosti matrice
R. Dakle, trebamo gledati matricu (R). Obzirom na to da mnoenje matrica ne
mora biti komutativno, pokazat e se da je zgodnije inverz pisati kao lijevi faktor
(sami pogledajte put kroz dokaz ako inverz piemo s desne strane). Deniramo
matricu
S := (I R)
1
(I + R). (5.16)
Tada za svojstvene vrijednosti vrijedi
j
(S) = (
j
(R)), pa S ima svojstvene vri-
jednosti u desnoj otvorenoj poluravnini ako i samo ako R ima svojstvene vrijednosti
unutar jedininog kruga. Naalost, to vrijedi samo ako je S korektno denirana, tj.
ako je I R regularna. To jo ne znamo, pa pokuajmo doi do relacije za S koja
je uvijek korektna.
56 5. Iterativno rjeavanje linearnih sustava
Polazna matrica A je po pretpostavci regularna. Da bismo dobili iterativnu me-
todu s matricom iteracije R (sasvim openito), koristimo rastav ili cijepanje matrice
A = M K, pa ako je M regularna, onda je
R = M
1
K = M
1
(M A) = I M
1
A.
Tada je I R = M
1
A oito regularna (produkt regularnih), a I +R = 2I M
1
A.
Za S dobivamo
S = (I R)
1
(I + R) = A
1
M(2I M
1
A) = 2A
1
M I.
Dakle, ako deniramo
S := 2A
1
M I = A
1
(2M A), (5.17)
onda je S korektno denirana za bilo koju regularnu matricu A, ak i kad M nije
regularna. Za nastavak dokaza treba iskoristiti ostale pretpostavke na A i pogledati
kad svojstvene vrijednosti matrice S lee u desnoj otvorenoj poluravnini, u ovisnosti
o u SOR metodi.
Neka je (, x) bilo koji svojstveni par od S, tj. Sx = x. Iz (5.17), mnoenjem
s A, onda vrijedi i
(2M A)x = ASx = Ax.
Mnoenjem s x

slijeva dobivamo
x

(2M A)x = x

Ax.
Napiimo adjungiranu (ozvjezdienu) jednadbu, iskoristivi simetrinost (hermiti-
nost) matrice A = A

(2M

A)x =

x

Ax,
i zbrojimo ih. Dijeljenjem s 2 dobivamo
x

(M + M

A)x =
+

2
x

Ax = (re )x

Ax.
Po pretpostavci je x = 0 (svojstveni vektor od S), pa iz pozitivne denitnosti od A
slijedi x

Ax > 0. Dijeljenjem dobivamo


re =
x

(M + M

A)x
x

Ax
, (5.18)
pa je re > 0 ako i samo ako je brojnik pozitivan.
Sad iskoristimo da matrica M kod rastava matrice A u SOR() metodi ima oblik
M =
1
(D

L) =
1
D

L,
pa je M korektno denirana za = 0. Osim toga, iz A = A

slijedi

U =

L

, ili
A = D

. Koristei D = D

, dobivamo da je
M + M

A = (
1
D

L) + (
1
D

) (D

) = (2
1
1)D.
5.7. Konvergencija JOR i SOR metode 57
Dijagonala D simetrine (hermitske) pozitivno denitne matrice A je i sama sime-
trina (hermitska) pozitivno denitna matrica. Na kraju, iz
x

(M + M

A)x = (2
1
1)x

Dx
dobivamo da je brojnik u (5.18) pozitivan, ako i samo ako je 2
1
1 > 0 ili
0 < < 2.
Dakle, za matricu S u SOR metodi vrijedi re
j
(S) > 0 za sve j, ako (i samo
ako) je 0 < < 2. Naalost, jo uvijek ne moemo iskoristiti (5.16). No, inverz
funkcije
z() =
1
+ 1
preslikava desnu otvorenu poluravninu na unutranjost jedininog kruga. Rjeava-
njem jednadbe (5.16) po S, oekujemo da je
R = (S I)(S + I)
1
.
Zaista, ako je re
j
(S) > 0 za sve j, onda je S + I regularna, pa iz (5.17) slijedi
(S I)(S + I)
1
= (2A
1
M 2I) (2A
1
M)
1
= I M
1
A = R,
a onda iz veze spektara vrijedi |
j
(R)| < 1 za sve j
|
j
(R)| =

j
(S) 1

j
(S) + 1

(re
j
(S) 1)
2
+ (im
j
(S))
2
(re
j
(S) + 1)
2
+ (im
j
(S))
2

1/2
=

(re
j
(S))
2
2 re
j
(S) + 1 + (im
j
(S))
2
(re
j
(S))
2
+ 2 re
j
(S) + 1 + (im
j
(S))
2

1/2
< 1.
Lako se vidi da vrijedi i obrat, tj. iz |
j
(R)| < 1 za sve j, koristei (5.16), dobivamo
re
j
(S) > 0 za sve j.
Oito je da smo prethodni dokaz mogli provesti i mnogo bre ili krae. Njegov
deduktivni dio ima samo dva bitna koraka:
(1) deniramo S = A
1
(2M A) i pokaemo da je re
j
(S) > 0 za sve j,
(2) pokaemo da je R = (S I)(S + I)
1
, a zatim da je |
j
(R)| < 1 za sve j.
Meutim, oblik matrice S i njezina veza s R nisu pali s neba, niti su rezultat
pogaanja. U pozadini cijele konstrukcije je lijepo matematiko opravdanje koje
smo posebno eljeli naglasiti.
Iz posljednja dva teorema odmah izlazi sljedei rezultat.
Korolar 5.24. Ako je A simetrina (hermitska) pozitivno denitna matrica,
onda SOR() konvergira ako i samo ako je 0 < < 2.
U usporedbi s korolarom 5.21 za JOR metodu, ovo je bitno proirenje i pojaanje.
Ovdje dobivamo bezuvjetnu konvergenciju, vei raspon za i maksimalnu moguu
gornju granicu 2, koja ne ovisi o .
58 5. Iterativno rjeavanje linearnih sustava
5.8. Optimalni izbor relaksacijskog parametra
Pokaimo jo da se dobrim izborom relaksacijskog parametra moe postii
bitno ubrzanje konvergencije iteracija u SOR() metodi, bar za neke klase matrica.
Dokazat emo klasini rezultat koji daje optimalni izbor parametra za klasu
tzv. konzistentno poredanih matrica. Dokazao ga je D. M. Young, jo 1950. godine,
a ima veliku praktinu vrijednost jer pokriva matrice koje se javljaju u diskretizaciji
nekih parcijalnih diferencijalnih jednadbi, poput Poissonove.
Za poetak, moramo denirati potrebne pojmove, koji se opet oslanjaju na vezu
izmeu matrica i pripadnih grafova.
Denicija 5.25. Matrica A ima svojstvo (A) ako postoji matrica permutacije P
takva da vrijedi
PAP
T
=
_
D
1
A
12
A
21
D
2
_
,
gdje su D
1
i D
2
dijagonalne matrice. Drugim rijeima, u pripadnom grafu G(A)
vorovi su podijeljeni u dva disjunktna skupa S
1
i S
2
, s tim da ne postoji brid koji
vee dva razliita vora iz istog skupa S
i
. Ako ignoriramo bridove koji veu vor sa
samim sobom, onda bridovi veu samo vorove iz razliitih skupova. Takav se graf
zove bipartitni graf.
Ako matrica A ima svojstvo (A), onda rastav ili cijepanje matrice PAP
T
za
iterativnu metodu ima posebnu strukturu. Tada je
PAP
T
=
_
D
1
A
12
A
21
D
2
_
=
_
D
1
D
2
_

_
0 0
A
21
0
_

_
0 A
12
0 0
_
:= D

L

U.
Ako je D regularna, onda moemo korektno denirati sve opisane iterativne
metode za matricu PAP
T
, a iz prethodne strukture dokazat emo posebna svojstva
tih iterativnih metoda. U praksi se obino pretpostavlja da je A sa svojstvom (A)
ve dovedena u ovaj oblik odgovarajuom permutacijom P, tj. da polazna matrica
A ima ovu strukturu.
U nastavku pretpostavljamo da je D regularna i koristimo standardne oznake
L = D
1

L i U = D
1

U.
Denicija 5.26. Neka je = 0. Denirajmo familiju matrica
R
Jac
() = D
1

L +
1

D
1

U = L +
1

U. (5.19)
Vidimo da je R
Jac
(1) = R
Jac
matrica iteracije u Jacobijevoj metodi.
Matrice R
Jac
() za = 1 nemaju direktnu interpretaciju kao matrice iteracije u
nekoj od standardnih iterativnih metoda koje smo opisali.
Propozicija 5.27. Za matrice A sa svojstvom (A), svojstvene vrijednosti matrica
R
Jac
() ne ovise o , s tim da D, L i U dobivamo iz rastava matrice PAP
T
.
5.8. Optimalni izbor relaksacijskog parametra 59
Dokaz. Po deniciji je
R
Jac
() = L +
1

U = D
1
_

L +
1

U
_
=
_
D
1
1
D
1
2
_ _

_
0 0
A
21
0
_
+
1

_
0 A
12
0 0
__
=
_
0
1

D
1
1
A
12
D
1
2
A
21
0
_
.
Ovu relaciju moemo napisati i u obliku
R
Jac
() =
_
I
I
_ _

_
0 D
1
1
A
12
D
1
2
A
21
0
__ _
I
I
_
1
=

R
Jac

,
gdje je

= diag(I, I) dijagonalna matrica u kojoj dimenzije blokova odgovaraju


dimenzijama blokova D
1
i D
2
. Zbog = 0, oito je

regularna. Zakljuujemo da
su R
Jac
() i R
Jac
sline matrice, a to povlai da imaju iste svojstvene vrijednosti,
tj. svojstvene vrijednosti R
Jac
() ne ovise o .
Svojstvo (A) iz denicije 5.25 je geometrijsko ili grafovsko svojstvo matrice.
Posljedica toga je ovo algebarsko svojstvo invarijantnosti, kojeg emo bitno koristiti
u nastvaku, pa mu dajemo posebno ime.
Denicija 5.28. Neka je A proizvoljna matrica takva da je
A = D

L

U
s tim da je D regularna i
R
Jac
() = D
1

L +
1

D
1

U = L +
1

U.
Ako svojstvene vrijednosti matrice R
Jac
() ne ovise o , onda kaemo da A ima
konzistentan poredak (engl. consistent ordering).
Ako A ima svojstvo (A), onda PAP
T
ima konzistentan poredak. Obratno ne
vrijedi, tj. ako matrica ima konzistentan poredak, ne mora imati svojstvo (A).
Primjer 5.29. Blok trodijagonalne matrice oblika
_

_
D
1
U
1
L
1
.
.
.
.
.
.
.
.
.
.
.
.
U
m1
L
m1
D
m
_

_
imaju konzistentan poredak kad su D
i
regularne dijagonalne matrice bilo kojih re-
dova, za bilo koji blok red m. Pokaite to!
Meutim, za m > 2, ako su vandijagonalni blokovi netrivijalni, ove matrice
nemaju svojstvo (A). Takvim matricama odgovaraju tzv. slojeviti grafovi, u kojima
vorove moemo podijeliti u m disjunktnih skupova slojeva, tako da bridovi idu
samo izmeu vorova koji su u razliitim, ali susjednim slojevima. Kao i prije,
ignoriramo bridove iz vora u samog sebe. U ovom kontekstu, bipartitni graf ima
samo 2 sloja.
60 5. Iterativno rjeavanje linearnih sustava
Za matrice koje imaju konzistentan poredak postoje jednostavne formule koje
veu svojstvene vrijednosti matrica R
Jac
, R
GS
i R
SOR()
.
Teorem 5.30. Ako matrica A ima konzistentan poredak i ako je = 0, onda vrijedi:
(a) Svojstvene vrijednosti matrice R
Jac
() dolaze u parovima. Preciznije, ako je
= 0 svojstvena vrijednost od R
Jac
multipliciteta , onda je i svojstvena
vrijednost od R
Jac
multipliciteta .
(b) Ako je svojstvena vrijednost od R
Jac
i ako zadovoljava jednadbu
( + 1)
2
=
2

2
, (5.20)
onda je svojstvena vrijednost od R
SOR()
.
c Obratno, ako je = 0 svojstvena vrijednost od R
SOR()
, onda je iz (5.20)
svojstvena vrijednost od R
Jac
.
Dokaz. Prije poetka dokaza uoimo da predznak od ne igra ulogu u (5.20), to je u
suglasnosti s prvom tvrdnjom. Takoer, relacija (5.20) generira isti broj vrijednosti
za i , uz uvjet da je = 0.
(a) Po deniciji 5.28, ako A ima konzistentan poredak, onda svojstvene vrijednosti
od R
Jac
() ne ovise o . Posebno, to znai da matrice R
Jac
= R
Jac
(1) i
R
Jac
(1) imaju iste svojstvene vrijednosti.
S druge strane, prema deniciji (5.19) za R
Jac
(1) izlazi
R
Jac
(1) = D
1

L D
1

U = (L + U) = R
Jac
(1) = R
Jac
,
pa matrice R
Jac
i R
Jac
istovremeno moraju imati iste i suprotne svojstvene
vrijednosti. To je mogue ako i samo ako svojstvene vrijednosti dolaze u
parovima s istim multiplicitetom, im je = 0.
(b) Neka je svojstvena vrijednost od R
Jac
i pretpostavimo da zadovoljava
jednadbu (5.20). Ako je = 0, onda u (5.20) mora biti = 1, tj. SOR metoda
se svodi na GaussSeidelovu metodu. Tada je R
SOR(1)
= R
GS
= (I L)
1
U, a
znamo da je R
GS
singularna, jer je U strogo gornja trokutasta. Dakle, = 0
je tada svojstvena vrijednost za R
SOR(1)
.
Pretpostavimo sad da je = 0. Onda, zbog = 0, iz jednadbe (5.20)
moemo izraunati
=
+ 1

. (5.21)
Matrica iteracije u SOR() metodi ima oblik
R
SOR()
= (I L)
1
((1 )I + U).
Pogledajmo vrijednost karakteristinog polinoma p() = det(I R
SOR()
)
ove matrice u toki . Da bismo se rijeili inverza u R
SOR()
, uoimo da je
det(I L) = 1, jer je L strogo donja trokutasta. Zbog toga, po Binet
5.8. Optimalni izbor relaksacijskog parametra 61
Cauchyjevom teoremu vrijedi
det(I R
SOR()
) = det((I L) (I R
SOR()
))
= det((I L) ((1 )I + U))
= det(( + 1)I L U). (5.22)
Zadnja dva lana elimo svesti na oblik R
Jac
() za neki , izluivanjem odgo-
varajueg faktora. Imamo
L + U =

L
1

U
_
=

R
Jac
(

),
pa je =

, s tim da smo iskoristili = 0. Kad u (5.22) izluimo isti faktor

, uvrstimo ovu relaciju i uvaimo da je R


Jac
(

) = R
Jac
(1) = R
Jac
,
dobivamo
det(I R
SOR()
) = det
_

_
_
+ 1

_
I R
Jac
__
=
_

_
n
det
_
_
+ 1

_
I R
Jac
_
.
Vidimo da je faktor uz I upravo jednak iz (5.21), pa prethodna relacija
postaje
det(I R
SOR()
) =
_

_
n
det(I R
Jac
). (5.23)
Ako je svojstvena vrijednost od R
Jac
, onda je desna strana jednaka nuli, pa
to vrijedi i za lijevu stranu, tj. je svojstvena vrijednost od R
SOR()
.
(c) Relaciju (5.23) smo izveli ba uz pretpostavku da je = 0, pa odmah slijedi
tvrdnja.
Korolar 5.31. Ako A ima konzistentan poredak, tada je
(R
GS
) = ((R
Jac
))
2
,
to znai da GaussSeidelova metoda konvergira dvostruko bre nego Jacobijeva me-
toda (ako barem jedna od njih kovergira).
Dokaz. Izaberemo li u prethodnom teoremu = 1, onda je SOR metoda ba Gauss
Seidelova metoda, pa za taj relacija (5.20) glasi

2
=
2
,
ili =
2
. Budui da to vrijedi za svaku svojstvenu vrijednost, onda to vrijedi i za
spektralni radijus.
Odavde odmah slijedi da za konzistentno poredane matrice GaussSeidelova me-
toda konvergira ako i samo ako konvergira i Jacobijeva metoda. Vidjet emo da
62 5. Iterativno rjeavanje linearnih sustava
slino vrijedi i za SOR metodu. Meutim, dobit emo i puno jai rezultat koji nam
kae kako treba izabrati parametar za ubrzanje konvergencije u SOR metodi.
Na poetku ovog poglavlja vidjeli smo da brzina konvergencije iterativne me-
tode ovisi o spektralnom radijusu (R) matrice iteracija R. Manji (R), openito,
osigurava i bru konvergenciju, jer vrijedi ocjena
x
(m+1)
x

(R)x
(m)
x

.
Za neke poetne vektore i u nekim iteracijama moemo dobiti i manju greku, ali
znamo da je ova ocjena dostina. Dakle, da bismo globalno ubrzali konvergenciju
metode treba dobiti to manji spektralni radijus (R). U tom smislu, kod SOR()
metode, one vrijednosti parametra za koje je (R
SOR()
) globalno najmanji, zo-
vemo optimalnim relaksacijskim parametrima i oznaavamo s
opt
.
Uz blage dodatne uvjete i malo truda, iz relacije (5.20) moemo dobiti i taj
optimalni izbor parametra
opt
koji minimizira R
SOR()
, tako da on ovisi samo o
spektralnom radijusu (R
Jac
) u Jacobijevoj metodi.
Teorem 5.32. Pretpostavimo da matrica A ima konzistentan poredak i da matrica
R
Jac
u Jacobijevoj metodi ima samo realne svojstvene vrijednosti. Onda SOR()
metoda konvergira za bilo koji poetni vektor ako i samo ako je := (R
Jac
) < 1 (tj.
Jacobijeva metoda konvergira) i vrijedi 0 < < 2. Dodatno, za < 1 onda vrijedi i

opt
=
2
1 +
_
1
2
,
(R
SOR(
opt
)
) =
opt
1 =

2
(1 +
_
1
2
)
2
=
1
_
1
2
1 +
_
1
2
,
a za sve (0, 2) vrijedi
(R
SOR()
) =
_
_
_
1 +
1
2

2
+
_
1 +
1
4

2
, za 0 <
opt
,
1, za
opt
2.
Dokaz. Matrica A ima konzistentan poredak, pa moemo iskoristiti teorem 5.30 (b)
da iz svojstvenih vrijednosti
j
matrice R
Jac
izraunamo svojstvene vrijednosti
j
matrice R
SOR()
. Relacija (5.20) daje vezu
(
j
+ 1)
2
=
j

2
j
,
to moemo napisati kao kvadratnu jednadbu za
j

2
j
2
_
1 +
1
2
(
j
)
2
_

j
+ ( 1)
2
= 0. (5.24)
Prema tvrdnji (a) teorema 5.30, ako
j
= 0 ima multiplicitet m, onda pripadni

j
= 1 ima isti multiplicitet m. Osim toga, svojstvene vrijednosti
j
= 0 dolaze
u parovima, pa u rjeavanju jednadbe (5.24) moemo ignorirati predznak od
j
,
jer svaki par daje dvije svojstvene vrijednosti
j
.
5.8. Optimalni izbor relaksacijskog parametra 63
Sad iskoristimo pretpostavku da R
Jac
ima samo realne svojstvene vrijednosti
j
,
pa jednadba (5.24) ima realne koecijente i kod rjeavanja moemo gledati samo

j
> 0.
Znamo da SOR() metoda konvergira za bilo koji poetni vektor ako i samo ako
je |
j
| < 1 za sve j. Ako je pripadni
j
= 0, onda je
j
= 1 , pa |
j
| < 1 vrijedi
ako i samo ako je 0 < < 2. Ako su to i jedine svojstvene vrijednosti od R
Jac
, tj.
R
Jac
= 0, onda je prva tvrdnja dokazana.
U protivnom, postoje
j
> 0 i treba analizirati rjeenja jednadbe (5.24). Da
bismo pojednostavnili zapis, promatramo kvadratnu jednadbu

2
+ b + c = 0 (5.25)
s realnim koecijentima b i c. Traimo kriterij (ako i samo ako uvjet) da korijeni
ove jednadbe lee unutar jedininog kruga. Rjeenja jednadbe su

1,2
=
1
2
(b

b
2
4c).
Znamo da je |c| = |
1
| |
2
|, pa je |c| < 1 oiti nuni uvjet da bi oba korijena bila u
jedininom krugu.
Ako je diskriminanta negativna b
2
4c < 0, onda su rjeenja konjugirano kom-
pleksna

1,2
=
1
2
(b i

4c b
2
),
pa je
|
1,2
|
2
=
1
4
(b
2
+ 4c b
2
) = c. (5.26)
Dakle, ako je b
2
< 4c, onda je |
1,2
| < 1, ako i samo ako je c < 1. Dodatno, uoimo
da je tada c > 0 i |b| 2

c < 1 + c, zbog (1

c)
2
> 0.
Ako je diskriminanta nenegativna b
2
4c 0, onda imamo par realnih rjeenja

1,2
=
1
2
(b

b
2
4c),
pa je
max |
1,2
| =
1
2
max |b

b
2
4c| =
1
2
(|b| +

b
2
4c). (5.27)
Iz max |
1,2
| < 1 dobivamo redom
|b| +

b
2
4c < 2

b
2
4c < 2 |b|
b
2
4c < (2 |b|)
2
= 4 4|b| + b
2
|b| < 1 + c.
Dakle, ako je b
2
4c, onda je |
1,2
| < 1, ako i samo ako je |b| < 1 + c. Dodatno, iz
2 |b| > 0 slijedi b
2
< 4, pa mora biti i c < 1.
Zakljuujemo da u oba sluaja iz |
1,2
| < 1 slijedi c < 1 i |b| < 1 + c. Meutim,
oito vrijedi i obrat, jer ovisno o odnosu b
2
i 4c, iskoristimo pravu (jau) od ove
64 5. Iterativno rjeavanje linearnih sustava
dvije pretpostavke. Na kraju, iz |b| < 1 + c slijedi 1 + c > 0 ili c > 1, to zajedno
s c < 1, osigurava i raniji nuni uvjet |c| < 1.
Dokazali smo da rjeenja jednadbe (5.25) lee unutar jedininog kruga, ako i
samo ako vrijedi c < 1 i |b| < 1 + c.
Usporedbom (5.24) i (5.25) vidimo da je
b = 2
_
1 +
1
2
(
j
)
2
_
, c = ( 1)
2
. (5.28)
Uvjet c < 1 daje ( 1)
2
< 1, ili 0 < < 2. Drugi uvjet |b| < 1 + c daje
2

1 +
1
2
(
j
)
2

< 1 + ( 1)
2
.
Ako lijevu stranu napiemo u obliku
|2 2 +
2
+
2
(
2
j
1)| = |1 + ( 1)
2
+
2
(
2
j
1)|,
uz oznaku a := 1 + ( 1)
2
> 0 dobivamo uvjet
|a +
2
(
2
j
1)| < a,
to je mogue ako i samo ako je drugi lan negativan, tj. za
2
j
< 1. Dakle, sve
vrijednosti
j
lee u jedininom krugu, ako i samo ako je 0 < < 2 i vrijedi
2
j
< 1
za sve j, to je ekvivalentno s := (R
Jac
) < 1.
Time smo dokazali prvi dio tvrdnje. Drugi dio dobivamo tako da naemo spek-
tralni radijus (R
SOR()
) za svaki (0, 2), a zatim ga minimiziramo po .
Neka je (0, 2). Svojstvene vrijednosti
j
moemo podijeliti u tri grupe
(skupa). Ako je
j
= 0 za neki j, onda je pripadni
j
= 1 i
|
j
| = |1 |. (5.29)
Oznaimo skup svih takvih
j
s S
0
. Ako je = 0, tj. R
Jac
= 0, onda je oito
(R
SOR()
) = |1 |, pa je optimalna vrijednost parametra
opt
= 1. Dobivamo
(R
SOR(
opt
)
) = 0, to odgovara GaussSeidelovoj metodi s R
GS
= 0. Dakle, i drugi
dio tvrdnje vrijedi ako je = 0.
Zbog toga moemo pretpostaviti da je > 0, tj. da postoji barem jedna svoj-
stvena vrijednost
j
> 0. Za
j
> 0, rjeavanjem (5.24) dobivamo
(
j
)
1,2
= 1 +
1
2
(
j
)
2

1 +
_
1
2

_
2
=
_
1
2

1 +
_
1
2

_
2
_
2
. (5.30)
Ponaanje ovih rjeenja ovisi o vrijednostima diskriminante
(
j
) = 1 +
_
1
2

_
2
.
5.8. Optimalni izbor relaksacijskog parametra 65
Primijetimo da je (
j
) rastua funkcija od
j
. Ovisno o predznaku (
j
) dobivamo
dvije grupe svojstvenih vrijednosti
j
. Prva grupa S

odgovara negativnim, a druga


S
+
nenegativnim diskriminantama.
Za sve
j
> 0 za koje je (
j
) < 0, ako takvih ima, dobivamo kompleksno
konjugirani par (
j
)
1,2
. Tada mora biti 1 < 0, to pokazuje da je S

neprazan
samo ako je > 1, tj. ova grupa je sigurno prazna za 1. Ako uvrstimo b i c
iz (5.28) u (5.26), izlazi da je
|(
j
)
1,2
| =

c = 1, (5.31)
pa vidimo da ove vrijednosti ne ovise o
j
.
S druge strane, za one
j
> 0 za koje je (
j
) 0, ako takvih ima, dobivamo
par realnih svojstvenih vrijednosti (
j
)
1,2
. Analogno, iz (5.28) i (5.27), izlazi da je
max |(
j
)
1,2
| =
1
2
(|b| +

b
2
4c)
= 1 +
1
2
(
j
)
2
+
j

1 +
_
1
2

_
2
=
_
1
2

j
+

1 +
_
1
2

_
2
_
2
,
jer iz (
j
) 0 slijedi 1 +(
j
/2)
2
> 0. Oito je max |(
j
)
1,2
| rastua funkcija
po
j
, pa najveu vrijednost dobivamo za najvei
j
, tj. za
j
= = (R
Jac
),
naravno, pod uvjetom da je () 0.
Obzirom na to da i (
j
) raste s
j
, druga grupa je neprazna ako i samo ako je
() 0 ili

2
> 4
1

2
,
pa je ova grupa sigurno neprazna za 1. Precizni kriterij nepraznosti S
+
dobi-
vamo rjeavanjem () 0 po . Iz
0 = () = 1 +
_
1
2

_
2
dobivamo granine vrijednosti za

1,2
= 2
1
_
1
2

2
=
2
1
_
1
2
.
Intervalu (0, 2) pripada samo manja od te dvije vrijednosti koju (zasad bez oprav-
danja) oznaavamo s
opt

opt
= 2
1
_
1
2

2
=
2
1 +
_
1
2
.
66 5. Iterativno rjeavanje linearnih sustava
Na kraju, zakljuujemo da je S
+
neprazan ako i samo ako je
opt
. Uoimo da
je
opt
> 1, zbog > 0. Maksimum apsolutnih vrijednosti za
j
S
+
= je
:= 1 +
1
2
()
2
+

1 +
_
1
2

_
2
. (5.32)
Sad konano moemo izraunati (R
SOR()
) usporejui maksimalne apsolutne
vrijednosti iz (5.29), (5.31) i (5.32).
Za 1 je S

= . Za
j
= 0 imamo |
j
| = 1 , pa je oito |
j
| < , jer su
u (5.32) svi lanovi desne strane od treeg nadalje pozitivni, a prva dva su upravo
|
j
|. Dakle, za 1 je (R
SOR()
) = .
Ako je 1 <
opt
, onda je S
+
sigurno neprazan. Ako S
+
sadri sve svojstvene
vrijednosti, onda je oito (R
SOR()
) = . U protivnom, za S
0
S

= , u (5.29)
i (5.31) dobivamo isti maksimum 1. Usporedimo ga s iz (5.32). Zbog () 0
dobivamo
( 1) = 2 2 +
1
2
()
2
+

1 +
_
1
2

_
2
= 2() +
_
() 0. (5.33)
Jednakost se dostie samo za () = 0, tj. za =
opt
, pa je opet (R
SOR()
) = .
Na kraju, za
opt
< < 2, dobivamo da je S
+
= . Barem jedan od skupova S
0
,
S

nije prazan. U (5.29) i (5.31) dobivamo isti maksimum 1, pa je (R


SOR()
) =
1.
Dokazali smo da je
(R
SOR()
) =
_
za 0 <
opt
,
1, za
opt
2.
Time je zadnja relacija iz tvrdnje teorema u potpunosti dokazana.
Ostaje jo nai najmanju moguu vrijednost od (R
SOR()
) za (0, 2). Kad
iz (5.32) promatramo kao funkciju od
() = 1 +
1
2
()
2
+

1 +
_
1
2

_
2
=
_
1
2
+

1 +
_
1
2

_
2
_
2
,
derviranjem drugog oblika po dobivamo
d
d
= 2

_
1
2
+
1
2

2
1
2
_
1 + (
1
2
)
2
_
=

_
1 + (
1
2
)
2
+
1
2

2
1
_
1 + (
1
2
)
2
.
5.8. Optimalni izbor relaksacijskog parametra 67
Brojnik moemo napisati u obliku ( 1)/, pa je
d
d
=

( 1)

_
()
< 0, (0,
opt
),
jer je 0 < < 1, > 0 i () > 0. Dakle, (R
SOR()
) = () monotono pada na
(0,
opt
], s tim da u
opt
derivacija nije denirana (tei u ), jer je () = 0.
Za (
opt
, 2) je (R
SOR()
) = 1, to je oito rastua funkcija. U toki

opt
, iz (5.33), jer je desna strana jednaka 0, slijedi
(R
SOR(
opt
)
) = (
opt
) =
opt
1.
Dakle, (R
SOR()
) dostie jedinstveni globalni minimum za =
opt
na (0, 2), pa je
i oznaka opravdana. To dokazuje i zadnji dio tvrdnje.
Vidimo da se minimum dostie kad je () = 0, tj. kad je izraz pod korijenom
u (5.30) jednak 0. Iz
j
= tada dobivamo dvostruki korijen (
j
)
1,2
= (
opt
).
Dobili smo da za optimalni parametar vrijedi
opt
> 1 pa je optimalni SOR zaista
nadrelaksacija. Zgodno je primijetiti da to je blie 1, tj. to sporije konvergira
Jacobijeva metoda, to je
opt
blie 2, tj. SOR tada produljuje korak. I obratno,
ako je blizu 0 (Jacobi brz), onda je
opt
blizu 1, pa je optimalni SOR blizak
GaussSeidelovoj metodi.
Ovo su slini uvjetni rezultati kao i za JOR metodu, u smislu da se pretpostav-
lja da Jacobijeva metoda konvergira. Sreom, za neke matrice nije teko pronai
spektralni radijus matrice u Jacobijevoj metodi i ustanoviti da Jacobijeva metoda
konvergira. A tada imamo i optimalni izbor parametra za SOR, dok za JOR to
nemamo. Ako usporedimo relacije koje veu svojstvene vrijednosti matrica u JOR
i SOR metodi s onima iz Jacobijeve metode

j
(R
JOR()
) :
j
+ 1 =
j
,

j
(R
SOR()
) :
j
+ 1 =
j
_

j
,
izlazi da ne bi bilo preteko dobiti neki rezultat o optimalnosti za JOR metodu.
Probajte ga dobiti. Meutim, to se ne isplati. SOR metoda s optimalnim paramet-
rom je bitno bra.
Teorem 5.32 o optimalnom izboru parametra u SOR metodi, osim konvergencije
Jacobijeve metode, ima jo i pretpostavku da su sve svojstvene vrijednosti matrice
R
Jac
realne. Kad bismo znali da je R
Jac
simetrina (ili hermitska), onda je ta
pretpostavka ispunjena. Meutim, to obino nije sluaj.
U principu znamo da je polazna matrica A simetrina ili hermitska. Tada je
R
Jac
= D
1
(

L+

L

), to ne mora biti simetrina matrica, osim ako D nije skalarna


matrica, tj. ima konstantnu dijagonalu. Ako je A jo i pozitivno denitna, onda je
(vidjeti dokaz teorema 5.20)
R
Jac
= D
1
(

L +

L

) = D
1/2
(D
1/2
(

L +

L

)D
1/2
)D
1/2
,
jer je i D pozitivno denitna (dijagonalna s pozitivnim elementima), pa je R
Jac
slina simetrinoj (hermitskoj) matrici D
1/2
(

L +

L

)D
1/2
, odakle slijedi da ima
realne svojstvene vrijednosti
j
.
68 5. Iterativno rjeavanje linearnih sustava
To jo uvijek ne garantira konvergenciju Jacobijeve metode, kao to emo po-
kazati na primjeru u sljedeem odjeljku. Meutim, ako je A jo i konzistentno
poredana, onda i Jacobijeva metoda mora konvergirati.
Teorem 5.33. Neka je A simetrina (hermitska) i pozitivno denitna matrica i
pretpostavimo da A ima konzistentan poredak. Onda matrica iteracije R
Jac
u Ja-
cobijevoj metodi ima samo realne svojstvene vrijednosti i vrijedi (R
Jac
) < 1, tj.
Jacobijeva metoda konvergira.
Dokaz. Prvi dio tvrdnje da je
j
R smo ve dokazali. Iz pozitvne denitnosti od
A = D

slijedi da za bilo koji vektor x = 0 vrijedi


0 < x

Ax = x

(D

)x
pa je
x

L +

L

)x < x

Dx.
Ako deniramo y = D
1/2
x, onda je y = 0 ako i samo ako je x = 0, i za sve y = 0
vrijedi
y

D
1/2
(

L +

L

)D
1/2
y < y

y.
to znai da je matrica I D
1/2
(

L +

L

)D
1/2
pozitivno denitna. Zbog toga su
sve svojstvene vrijednosti matrice D
1/2
(

L +

L

)D
1/2
strogo manje od 1, pa to
zbog slinosti vrijedi i za R
Jac
.
Sad iskoristimo da A ima konzistentan poredak, pa iz teorema 5.30 (a) slijedi da
svojstvene vrijednosti od R
Jac
dolaze u parovima, tj.
j
< 1 povlai i
j
> 1.
Dobivamo da je (R
Jac
) < 1, pa Jacobijeva metoda konvergira.
Naravno da tada konvergiraju i GaussSeidelova metoda i SOR() metode za
(0, 2). To vrijedi i bez pretpostavke o konzistentnom poretku, ali tada nemamo
optimalni izbor parametra za SOR metodu.
Ako imamo zadanu matricu A, onda nije jednostavno provjeriti da li ona ima
konzistentan poredak koristei deniciju 5.28, odnosno algebarsko svojstvo (5.19).
Mnogo je lake provjeriti grafovska svojstva, poput svojstva (A), koja garantiraju
konzistentan poredak za permutiranu matricu PAP
T
. Zbog toga je vrlo korisno
nai generalizacije svojstva (A).
Na tu temu postoje mnogi rezultati. U primjeru 5.29 imali smo blok trodijago-
nalu matricu s regularnim dijagonalnim matricama.
Denicija 5.34. Matrica A ima svojstvo (A

) ako postoji matrica permutacije P


takva da se PAP
T
moe particionirati u blok trodijagonalnu matricu oblika
PAP
T
=
_

_
D
1
U
1
L
1
.
.
.
.
.
.
.
.
.
.
.
.
U
n1
L
n1
D
n
_

_
,
gdje su D
i
, i = 1, . . . , m, regularne matrice.
5.9. Primjeri akademski i praktini 69
Dokaite da matrice sa svojstvom (A

) imaju konzistentan poredak. Dokaz ide


slino kao u propozicijiu 5.27, tako da se pogodnom dijagonalnom matricom slinosti
transformira R
Jac
() i pokae da njene svojstvene vrijednosti ne ovise o . Ovaj
rezultat je takoer dokazao Young, 1950. godine.
Na kraju, spomenimo da je R. S. Varga generalizirao i ovaj rezultat na tzv. p-
ciklike matrice, uz p 2, pri emu su 2-ciklike matrice upravo one sa svojstvom
(A

).
5.9. Primjeri akademski i praktini
Za poetak, ilustrirajmo odnos izmeu Jacobijeve i GaussSeidelove metode, u
smislu da postoje primjeri kad jedna od njih konvergira, a druga ne.
Znamo da GaussSeidelova metoda konvergira za simetrine (hermitske) pozi-
tivno denitne matrice. Jacobijeva metoda tad ne mora konvergirati. Naravno,
treba uzeti matricu koja nije dijagonalno dominantna po recima ili stupcima, tj.
vandijagonalni elementi trebaju biti relativno veliki.
Primjer 5.35. Lako se provjerava da je matrica
A =
_
_
1 0.9 0.9
0.9 1 0.9
0.9 0.9 1
_
_
simetrina i pozitivno denitna, jer su sve vodee glavne minore pozitivne: D
1
= 1,
D
2
= 1 (0.9)
2
= 0.19 i
D
3
= 1 + 2(0.9)
3
3(0.9)
2
= 1 + 2 0.729 3 0.81 = 1 + 1.458 2.43
= 2.458 2.43 = 0.028.
Matrica iteracije u Jacobijevoj metodi je (D = I),
R
Jac
=
_
_
0 0.9 0.9
0.9 0 0.9
0.9 0.9 0
_
_
i ima svojstvene vrijednosti
1
=
2
= 0.9 i
3
= 1.8. Dakle, (R
Jac
) = 1.8, pa
Jacobijeva metoda ne konvergira za sve poetne iteracije.
Pogledajmo usput to daje teorem 5.20 o konvergenciji JOR metode. Najmanja
svojstvena vrijednost od R
Jac
je := min
j

j
= 1.8. Iz (5.15) dobivamo da JOR()
metoda konvergira za sve parametre za koje vrijedi
0 < <
2
1
=
5
7
< 1,
tj. imamo pravu podrelaksaciju.
Primjer 5.36. Za matricu
A =
_
_
1 1 1
1
2
1 1
1
1
2
1
_
_
70 5. Iterativno rjeavanje linearnih sustava
odmah vidimo da nije dijagonalno dominantna. Ipak, Jacobijeva metoda konvergira
s matricom iteracije
R
Jac
=
_
_
0 1 1

1
2
0 1
1
a
2
0
_
_
.
Nije teko pokazati da je (R
Jac
) < 1 (sve tri vrijednosti imaju istu apsolutnu vri-
jednost 0.9085602964160693).
Matrica iteracije za GaussSeidelovu metodu je
R
GS
=
_
_
0 1 1
0
1
2

3
2
0
3
4

1
4
_
_
.
Za matricu R
GS
lako se poake da je (R
GS
) = 1, tj. da GaussSeidelova metoda ne
konvergira za sve poetne iteracije.
5.9.1. Rjeavanje Poissonove jednadbe
U nastavku ovog odjeljka ilustrirat emo iterativne metode na jednoj klasi ma-
trica koja se javlja u praksi i ima tipina svojstva.
Iterativne metode za rjeavanje linearnih sustava koriste se kod rjeavanja rubnog
problema za obine diferencijalne jednadbe i kod rjeavanja parcijalnih diferenci-
jalnih jednadbi.
Ideja metoda koje vode na linearne sustave je diskretizacija, tj. umjesto da tra-
imo funkciju koja bi bila rjeenje problema, aproksimiramo rjeenje u odabranim
vorovima, tako da aproksimiramo derivacije koje se javljaju u problemu.
Ako je problem jednodimenzionalan, obino se interval na kojem traimo rjee-
nje ekvidistantno podijeli. Kod dvodimenzionalnog problema, podruje se obino
podijeli u pravokutnu mreu.
Na primjer, elimo rijeiti tzv. Poissonovu (eliptiku parcijalnu diferencijalnu)
jednadbu u dvije dimenzije

2
v(x, y)
x
2


2
v(x, y)
y
2
= f(x, y)
na kvadratu {(x, y) | 0 < x, y < 1} uz rubni uvjet v = 0, tj. funkcija v je jednaka 0 na
rubu kvadrata. Kvadrat podijelimo u mreu vorova, a da nam bude jednostavnije,
pretpostavimo da je i ta mrea kvadratna, tj. korak u x i y smjeru je jednak
h =
1
N + 1
.
Uz tako denirane korake, unutarnji vorovi mree su toke (x
i
, y
j
), gdje je x
i
= ih,
y
j
= jh, za i, j = 1, . . . , N. Dakle, imamo n := N
2
unutarnjih vorova mree.
5.9. Primjeri akademski i praktini 71
Takva mrea za N = 3 izgleda ovako:
i = 0
i = 1
i = 2
i = 3
i = 4
j = 0
j = 1
j = 2
j = 3
j = 4
v
1,3
v
1,2
v
1,1
v
2,3
v
2,2
v
2,1
v
3,3
v
3,2
v
3,1
Vrijednost rjeenja u voru (x
i
, y
j
) oznaavamo s v
i,j
:= v(ih, jh), a funkcijsku
vrijednost s f
i,j
:= f(ih, jh).
Kako se aproksimiraju derivacije? Pretpostavimo da su toke x
i1
, x
i
i x
i+1
ekvidistantne i da je x
i+1
x
i
= x
i
x
i1
= h. Ako za funkciju f postoji Taylorov
red oko x
i
, onda uvrtavanjem toaka x
i1
i x
i+1
u taj red dobivamo
f(x
i1
) = f(x
i
)
f

(x
i
)
1!
h +
f

(x
i
)
2!
h
2

(
i,i1
)
3!
h
3
f(x
i+1
) = f(x
i
) +
f

(x
i
)
1!
h +
f

(x
i
)
2!
h
2
+
f

(
i,i+1
)
3!
h
3
.
Oduzimanjem prve jednakosti od druge, izlazi
f(x
i+1
) f(x
i1
) = 2
f

(x
i
)
1!
h + O(h
3
),
pa je dobra aproksimacija derivacije funkcije f u toki x
i
f

(x
i
)
f(x
i+1
) f(x
i1
)
2h
.
Ta aproksimacija derivacije obino se naziva simetrina (centralna) razlika.
Prvo, izaberimo dva vora (x

i
, y
j
) i (x
+
i
, y
j
) takva da je
x

i
=
x
i
+ x
i1
2
, x
+
i
=
x
i
+ x
i+1
2
.
Koritenjem simetrine razlike, aproksimirajmo prve parcijalne derivacije u ta
dva vora. Dobivamo
v
x

x=x

i
, y=y
j

v
i,j
v
i1,j
h
,
v
x

x=x
+
i
, y=y
j

v
i+1,j
v
i,j
h
.
72 5. Iterativno rjeavanje linearnih sustava
Ponovno, primijenimo simetrinu razliku, ali ovaj puta za drugu parcijalnu de-
rivaciju po x u (x
i
, y
j
), koritenjem derivacije u tokama (x

i
, y
j
) i (x
+
i
, y
j
). Odmah
imamo

2
v
x
2

x=x
i
, y=y
j

1
h
_
v
x

x=x
+
i
, y=y
j

v
x

x=x

i
, y=y
j
_
=
v
i1,j
2v
i,j
+ v
i+1,j
h
2
.
Na isti nain dobivamo i formulu za drugu parcijalnu derivaciju po y

2
v
y
2

x=x
i
, y=y
j

1
h
_
v
y

x=x
i
, y=y
+
j

v
y

x=x
i
, y=y

j
_
=
v
i,j1
2v
i,j
+ v
i,j+1
h
2
.
Uvrstimo li te aproksimacije derivacija u diferencijalnu jednadbu, dobivamo
4v
i,j
v
i1,j
v
i+1,j
v
i,j1
v
i,j+1
= h
2
f
i,j
, 1 i, j N. (5.34)
Pitanje je kako treba napisati ove jednadbe, tako da se dobije linearni sustav s
nekom strukturom. Postoje dva naina da bi se to napravilo. Jedan je sekvencijalno
numeriranje v
i,j
po recima ili stupcima (slijeva nadesno, ili zdesna nalijevo, odozgo
nadolje ili odozdo nagore), a drugi tzv. crvenocrni poredak vorova.
Ako v
ij
sekvencijalno numeriramo po stupcima odozgo nadolje, na primjer za
N = 3, dobivamo ovakav poredak vorova
v
1
v
2
v
3
v
4
v
5
v
6
v
7
v
8
v
9
Dakle, u (5.34) lako zamjenjujemo v
i,j
s v
k
. Ako se na isti nain transformiraju i
f
i,j
u f
k
, onda dobivamo linearni sustav
T
NN
v = h
2
f,
gdje je v = [v
1
, v
2
, . . . , v
NN
]
T
, f = [f
1
, f
2
, . . . , f
NN
]
T
, a matrica T
NN
ima N
blok-redaka i stupaca, svaki dimenzije N. Matrica
T
NN
=
_

_
T
N
+ 2I
N
I
N
I
N
.
.
.
.
.
.
.
.
.
.
.
.
I
N
I
N
T
N
+ 2I
N
_

_
, (5.35)
5.9. Primjeri akademski i praktini 73
pri emu je I
N
jedinina matrica reda N, a
T
N
=
_

_
2 1
1
.
.
.
.
.
.
.
.
.
.
.
.
1
1 2
_

_
.
Moe se pokazati da je T
N
matrica koja nastaje diskretizacijom odgovarajue jed-
nodimenzionalne Poissonove jednadbe.
Na primjer, za N = 3, matrica linearnog sustava je
T
33
=
_

_
4 1 1
1 4 1 1
1 4 1
1 4 1 1
1 1 4 1 1
1 1 4 1
1 4 1
1 1 4 1
1 1 4
_

_
Uoite da je matrica T
NN
slabo dijagonalno dominantna i ireducibilna, pa e i
Jacobijeva i GaussSeidelova metoda konvergirati. Dapae, pokazat emo da T
NN
ima svojstvo (A) i da je konzistentno poredana.
Ako vorove v
i,j
poredamo u tzv. crvenocrni poredak, dobit emo konzistentno
poredanu matricu. Crvenocrni poredak dobivamo tako da ih obojamo poput a-
hovske ploe: svaki crveni vor (osim rubnog) je okruen s etiri crna susjeda i
obratno.
Na primjer, za N = 5 takvo crvenocrno bojanje vorova izgleda ovako:
74 5. Iterativno rjeavanje linearnih sustava
Ako zatim sve vorove koji su crveno obojani popiemo prije crnih (dodijelimo
im indekse prije crnih), ili obratno, dobit emo blok matricu oblika
PT
NN
P
T
=
_
D
1
T
12
T
21
D
2
_
.
Lako je vidjeti da su dijagonalni blokovi ba dijagonalne matrice, jer ne postoji veza
izmeu dva crvena ili dva crna vora (osim vora sa samim sobom).
Konkretno, crvenocrni poredak za matricu T
33
daje
PT
33
P
T
=
_

_
4 1 1
4 1 1
4 1 1 1 1
4 1 1
4 1 1
1 1 1 4
1 1 1 4
1 1 1 4
1 1 1 4
_

_
.
Dakle, da bismo ispitali konvergenciju iterativnih metoda, dovoljno je nai spek-
tralni radijus matrice R
Jac
. Prvo, naimo rastav (cijepanje) matrice T
NN
T
NN
= 4I
NN
(4I
NN
T
NN
),
pa je M = 4I
NN
, K = (4I
NN
T
NN
),
R
Jac
= M
1
K = (4I
NN
)
1
(4I
NN
T
NN
) = I
NN

1
4
T
NN
.
Drugim rijeima, R
Jac
je polinom od T
NN
, pa ako je
i,j
svojstvena vrijednost od
T
NN
, onda je 1
i,j
/4 svojstvena vrijednost od R
Jac
.
Pametnim raspisivanjem matrice T
NN
, moe se pokazati da su svojstvene vri-
jednosti matrice T
NN
jednake

i,j
= 4 2
_
cos
i
N + 1
+ cos
j
N + 1
_
,
odakle slijedi da je
(R
Jac
) = max
i,j

1

i,j
4

1

1,1
4

1

N,N
4

= cos

N + 1
.
Odmah je vidljivo da porastom N argument kosinusa ide prema nuli, pa e (R
Jac
)
biti sve blie 1, a iterativne e metode sve sporije konvergirati.
5.9. Primjeri akademski i praktini 75
ak tovie, moemo procijeniti (R
Jac
) za velike N. Dovoljno dobra aproksi-
macija bit e prva dva lana u Taylorovom redu za funkciju kosinus
(R
Jac
) = cos

N + 1
1

2
2(N + 1)
2
.
Spektralni radijus za GaussSeidelovu metodu lako je dobiti koristei korolar 5.31
(R
GS
) =
_
(R
Jac
)
_
2
= cos
2

N + 1
.
Priblino, kvadriranjem prva dva lana u Taylorovom redu, vrijedi
(R
GS
) 1

2
(N + 1)
2
.
Konano, koristei teorem 5.32, za SOR() dobivamo

opt
=
2
1 + sin

N+1
, (R
SOR(
opt
)
) =
cos
2
N+1
_
1 + sin

N+1
_
2
.
Veliinu (R
SOR(
opt
)
) moemo priblino ocijeniti za velike N. Vrijedi
cos
2
N+1
_
1 + sin

N+1
_
2
=
1 sin

N+1
1 + sin

N+1
= 1
2 sin

N+1
1 + sin

N+1
1 2 sin

N + 1
1
2
N + 1
.
Primijetite da spektralni radijus i kod Jacobijeve metode i kod GaussSeidelove
metode ima oblik 1 O(1/N
2
), dok kod SOR metode s optimalnim parametrom
spektralni radijus ima oblik 1 O(1/N), to pokazuje da bi SOR za optimalni izbor
parametra morao biti reda veliine N puta bri i od Jacobijeve i od GaussSeidelove
metode.
Pogledajmo kako se ponaa (R
SOR()
) kao funkcija od , te ovisno o N, kako
se ponaa
opt
. Redom, za N = 3, 9, 16, 25, dobivamo sljedee grafove

opt
0
0.5 1 1.5 2
0.2
0.4
0.6
0.8
1.0

()
N = 3
76 5. Iterativno rjeavanje linearnih sustava

opt
0
0.5 1 2
0.2
0.4
0.6
0.8
1.0

()
N = 9

opt
0
0.5 1 1.5 2
0.2
0.4
0.6
0.8
1.0

()
N = 16

opt
0
0.5 1 1.5 2
0.2
0.4
0.6
0.8
1.0

()
N = 25
Kao to smo oekivali, optimalni se parametar pomie prema 2, a (R
SOR(
opt
)
)
postaje sve blie 1.
U sljedeoj tablici dan je pregled spektralnih radijusa za razliite iterativne me-
tode za razne N.
5.9. Primjeri akademski i praktini 77
N (R
Jac
) (R
GS
)
opt
(R
SOR(
opt
)
)
4 0.8090169944 0.6545084972 1.2596161837 0.2596161837
9 0.9510565163 0.9045084972 1.5278640450 0.5278640450
16 0.9829730997 0.9662361147 1.6895466227 0.6895466227
25 0.9927088741 0.9854709087 1.7848590191 0.7848590191
36 0.9963974885 0.9928079552 1.8436477483 0.8436477483
49 0.9980267284 0.9960573507 1.8818383898 0.8818383898
64 0.9988322268 0.9976658174 1.9078264563 0.9078264563
81 0.9992661811 0.9985329006 1.9262204896 0.9262204896
100 0.9995162823 0.9990327986 1.9396763332 0.9396763332
121 0.9996684675 0.9993370449 1.9497968003 0.9497968003
144 0.9997652980 0.9995306511 1.9575898703 0.9575898703
169 0.9998292505 0.9996585301 1.9637127389 0.9637127389
196 0.9998728466 0.9997457093 1.9686076088 0.9686076088
225 0.9999033847 0.9998067787 1.9725803349 0.9725803349
256 0.9999252867 0.9998505789 1.9758476503 0.9758476503
5.9.2. Biranje poetnog vektora
Sad kad imamo sve informacije o ovim iterativnim metodama, trebalo bi jo
samo izabrati neki poetni vektor i raunati rjeenje za zadani f i podjelu N.
Kako se bira poetni vektor x
(0)
? Ako znamo matricu iteracija R i iterativnu
metodu realiziramo u obliku (5.1)
x
(m+1)
= Rx
(m)
+ c, m N
0
,
onda se obino bira x
(0)
= c, to bi odgovaralo tome da je prethodna iteracija bio
nul-vektor. Razlog za to je sasvim jednostavan, posebno u aritmetici raunala. Ako
je c = 0, onda stajemo u jednom koraku i ne kvarimo nule. Inae bismo nul-vektor
morali dobiti kao limes vektora koji nemaju (sve) nul-komponente, tj. sigurno dolazi
do kraenja.
Meutim, niti jedan od naa 4 algoritma koje smo napisali ne provodi iteracije u
tom obliku, jer se R katkad komplicirano rauna, ve radimo direktno s originalnim
podacima A i b. Tada je zgodno zaista uzeti x
(0)
= 0, za sluaj da je b = 0, iz istih
razloga. Prethodni primjer pokazuje da sve potrebne informacije o matrici iteracija
R moemo dobiti i bez da ju eksplicitno izraunamo.
78 5. Iterativno rjeavanje linearnih sustava
5.9.3. Zaustavljanje iteracija
Kako zaustavljamo iteracije? Najlaki nain je tzv. heuristika konvergencija.
Unaprijed zadamo traenu tonost i prekidamo iteracije im vrijedi
x
(m+1)
x
(m)
,
u nekoj pogodno odabranoj vektorskoj normi, na primjer, -normi. To znai da u
svakom koraku moramo raunati i ovu normu, ali to obino nije pretjerano skupo,
a moe se isplatiti, ako sluajno greka naglo padne u nekoj iteraciji.
S druge strane, ako znamo vrijednost neke operatorske norme R matrice ite-
racija (bez pretjerano raunanja), s tim da je R < 1, onda unaprijed moemo
izraunati potreban broj iteracija. Naime, u pripadnoj vektorskoj normi vrijedi
ocjena
x
(m+1)
x
R
1 R
x
(m+1)
x
(m)
,
kao u Banachovom teoremu o ksnoj toki. Dokaz ove relacije je jednostavan:
x
(m+1)
x = R(x
(m)
x) = R(x
(m)
x
(m+1)
) + R(x
(m+1)
x)
(I R)(x
(m+1)
x) = R(x
(m+1)
x
(m)
)
x
(m+1)
x = (I R)
1
R(x
(m+1)
x
(m)
),
jer znamo da je I R regularna matrica. Primjenom norme i ocjenama izlazi
x
(m+1)
x
R
1 R
x
(m+1)
x
(m)
. (5.36)
Iz (5.36) dobivamo i
x
(m+1)
x
R
m+1
1 R
x
(1)
x
(0)
,
a iz ove relacije moemo, nakon prve iteracije, izraunati potreban broj iteracija
m + 1, tako da, do na greke zaokruivanja, vrijedi
x
(m+1)
x .
5.9.4. Jo jedan primjer
Primjer 5.37. Preformulirajte linearni sustav A

x = b

u Ax = b, gdje je
A

=
_

_
0.25 0.25 0 1
0 1 0.25 0.25
0.25 0.25 1 0
1 0 0.25 0.25
_

_
, b

=
_

_
0.5
0.5
0.5
0.5
_

_
tako da imamo sigurnu konvergenciju i Jacobijeve i GaussSeidelove metode.
5.9. Primjeri akademski i praktini 79
(a) Ako je poetna iteracije x
(0)
= 0, napravite etiri iteracije Jacobijevom meto-
dom za zadani sustav.
(b) Ako je poetna iteracije x
(0)
= 0, napravite etiri iteracije GaussSeidelovom
metodom za zadani sustav.
(c) Ocijenite greke priblinih rjeenja dobijenih pod (a) i (b).
I Jacobijev i GaussSeidelova metoda konvergirat e za strogo dijagonalno do-
minante matrice, drugim rijeima treba jednadbe premjestiti tako da je matrica
sustava strogo dijagonalno dominantna (pazite, premjetamo i komponente vektora
b, ali se to ovdje ne vidi jer su jednake)
A =
_

_
1 0 0.25 0.25
0 1 0.25 0.25
0.25 0.25 1 0
0.25 0.25 0 1
_

_
, b =
_

_
0.5
0.5
0.5
0.5
_

_
.
(a) Prvo treba nai matricu R
Jac
. Budui da je D = I u ovom sluaju, onda je
R
Jac
= D
1
(

L +

U) =
_

_
0 0 0.25 0.25
0 0 0.25 0.25
0.25 0.25 0 0
0.25 0.25 0 0
_

_
.
Norma beskonano prethodne matrice je R
Jac

= 0.5, pa e Jacobijeva me-


toda konvergirati.
Prema formuli
x
(m+1)
j
=
_
b
j

k=1
k=j
a
jk
x
(m)
k
__
a
jj
,
uvaivi da je x
(0)
= 0, dobivamo sljedee iteracije
x
(0)
x
(1)
x
(2)
x
(3)
x
(4)
0 0.5 0.75 0.875 0.9375
0 0.5 0.75 0.875 0.9375
0 0.5 0.75 0.875 0.9375
0 0.5 0.75 0.875 0.9375
.
(b) Ponovno, treba nai matricu R
GS
. Budui da je D = I u ovom sluaju, onda
je
R
GS
= (D

L)
1

U =
_

_
1 0 0 0
0 1 0 0
0.25 0.25 1 0
0.25 0.25 0 1
_

_
1

_
0 0 0.25 0.25
0 0 0.25 0.25
0 0 0 0
0 0 0 0
_

_
=
_

_
1 0 0 0
0 1 0 0
0.25 0.25 1 0
0.25 0.25 0 1
_

_
0 0 0.25 0.25
0 0 0.25 0.25
0 0 0 0
0 0 0 0
_

_
=
_

_
0 0 0.250 0.250
0 0 0.250 0.250
0 0 0.125 0.125
0 0 0.125 0.125
_

_
.
80 5. Iterativno rjeavanje linearnih sustava
Norma beskonano prethodne matrice je R
GS

= 0.5, pa e GaussSeidelo-
va metoda konvergirati.
Prema formuli
x
(m+1)
j
:=
_
b
j

j1

k=1
a
jk
x
(m+1)
k

n

k=j+1
a
jk
x
(m)
k
__
a
jj
uvaivi da je x
(0)
= 0, dobivamo sljedee iteracije
x
(0)
x
(1)
x
(2)
x
(3)
x
(4)
0 0.5 0.875 0.96875 0.9921875
0 0.5 0.875 0.96875 0.9921875
0 0.75 0.9375 0.984375 0.99609375
0 0.75 0.9375 0.984375 0.99609375
.
(c) Za obje iterativne metode vrijedi ocjena greke
x
(m+1)
x
R
1 R
x
(m+1)
x
(m)
,
Budui da je R
Jac

= R
GS

= 0.5, imamo
x
(m+1)
x


0.5
1 0.5
x
(m+1)
x
(m)

= x
(m+1)
x
(m)

.
Prema tome greke x
(m+1)
x

u odgovarajuoj iteraciji moemo ocijeniti


s
k Jacobi GaussSeidel
1 0.5 0.75
2 0.25 0.375
3 0.125 0.09375
4 0.0625 0.0234375
.
Tono rjeenje datog sustava je x
T
= [1, 1, 1, 1].

You might also like