Professional Documents
Culture Documents
Numerikus Matematika I
v 0.8
1
2
9 Vektornormák, mátrixnormák 41
9.1 Vektornormák . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
9.2 Mátrixnormák Rn×n -ben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
9.3 A spektrálsugár és a mátrixnormák kapcsolata . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
9.4 Normák ekvivalenciája . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
10 Vektorsorozatok és mátrixsorozatok 47
10.1 Vektorsorozatok . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
10.2 Mátrixsorozatok . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
10.3 Sajátértékek korlátai; Gersgorin-tétel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
11 51
11.1 Hatvány módszer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
11.2 Mátrixok speciális alakra transzformálása . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
11.2.1 LR-transzformáció . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
11.2.2 QR-transzformáció . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
11.2.3 RT R-transzformáció . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
12 56
12.1 Iterációs módszerek bevezetése . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
12.2 Reguláris szétvágások . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
12.2.1 Jacobbi-iteráció (J-módszer) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
12.2.2 (Gauss-)Seidel-iteráció (S-módszer) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
12.2.3 Jacobbi-féle túlrelaxációs módszer (J(ω)-módszer) . . . . . . . . . . . . . . . . . . . . . 59
12.2.4 Szukszecesszív túlrelaxációs módszer (S(ω)-módszer) . . . . . . . . . . . . . . . . . . . . 59
12.3 A Jacobbi- és a Seidel-módszer konvergenciája . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
13 61
13.1 Az iterációs módszerek konvergenciája diagonális domináns A együtthatómátrixok esetén . . . 61
13.2 II/14-es tétel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
13.3 A 4 módszer konvergenciája pozitív denit mátrixok esetén . . . . . . . . . . . . . . . . . . . . 63
14 65
14.1 Utóiteráció . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
14.2 Kerekítési hiba az iterációs módszereknél . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
14.3 Kondíciószám . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
14.4 Perturbáció . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
Fejezet 1
1.1 Bevezetés
1. Közelít® módszerek
2. Eektív (algoritmikus) módszerek
Miért van szükség numerikus módszerekre?
1. A klasszikus módszerekkel nem oldható meg a probléma
2. Gauss-elimináció ⇔ Cramer-szabály
3. Stabilitás, hiba
n × n-es valós együtthatós lineáris egyenletrendszer:
a11 x1 + a12 x2 + · · · + a1n xn = a1,n+1
a21 x1 + a22 x2 + · · · + a2n xn = a2,n+1
..
.
an1 x1 + an2 x2 + · · · + ann xn = an,n+1
1.2 Hibaszámítás
Hiba fajták:
1. Öröklött hiba: ha az adatok mérések, kísérlétek eredményei, akkor az öröklött hiba elkerülhetetlen. Sok-
szor ide számítják az adott számítógépre vitelkor alkalmazott konverziók által eredményezett hibákat
is.
2. Képlet hiba: a numerikus módszerek általában csak közelít® megoldást adnak, jó eseben olyan korlátot is
ami felülr®l becsli a pontos megoldástól való eltérést.
3. Kerekítése hiba: az alkalmazott eszközök véges pontosságú számábrázolása, az alapm¶veletek eredményein
végzett kerekítés, a beépített függvények kiértékelésekor fellép® hibája miatt adódik.
3
SPECIÁLIS ALAKÚ MÁTRIXOK 4
1.2 Deníció. Legyen a a pontos érték és a∗ a közelít® értéke. Ekkor az a − a∗ értéket a közelítés hibájának
nevezzük, az |a − a∗ | pedig az abszolút hibának nevezzük. |a − a∗ | ≤ M az abszolút hibakorlát.
1.3 Példa. Legyen a, b a pontos érték, a∗ , b∗ a közelít® érték Ma , Mb fels® korlátok, az összeg abszolút hibakor-
látja így alakul: |a + b − (a∗ + b∗ )| = |(a − a∗ ) + (b − b∗ )| ≤ |a − a∗ | + |b − b∗ | ≤ Ma + Mb
1.4 Deníció. |a−a∗ |
|a∗ | ≤ δ, a relatív hibakorlát, ahol |a∗ | =6 0
1.5 Példa.
|ab − a∗ b∗ | |(ab − a∗ b) + (a∗ b − a∗ b∗ )| |b||a − a∗ | |a∗ ||b − b∗ |
= ≤ +
|a∗ b∗ | ∗ ∗
|a ||b | |a∗ ||b∗ | |a∗ ||b∗ |
|b| 1 Ma Mb
≤ Ma ∗ ∗ + M b ∗ ≈ ∗ + ∗ = δ a + δ b
|a ||b | |b | |a | |b |
fetléve, hogy f 0 (x) korlátos is az el®bb említett intervallumon, és ugyanitt K1 abszolút értékeinek is fels®korlátja.
Megjegyzés. A kés®bbi fejezetekben az alsó trianguláris mátrixon, az ehhez hasonló olyan mátrixot értik ame-
lynek a f®átlójában csupa 1-ek vannak.
Diagonális egy D mátrix, ha dij = 0 akkor, ha i 6= j
d11 0 0 0 0
0 d22 0 0 0
0 0 d33 0 0
0 0 0 d44 0
0 0 0 0 d55
SPECIÁLIS ALAKÚ MÁTRIXOK 5
xn
Fejezet 2
6
ELIMINÁCIÓS MÓDSZEREK 7
(i) aii 6= 0 i = 1, . . . , n
(ii) A reguláris
Bizonyítás. (i) Ez a denícióban lév®, határozottan nagyobb jelb®l következik.
(ii) Minden diagonális domináns mátrix reguláris.
Ezt indirekt úton bizonyítjuk. Tegyük fel, hogy A diagonális domináns de szinguláris. Ha az A szinguláris és
veszzük az Ax = 0 homogén renszert, akkor van A-nak nem triviális megoldása. Ekkor van olyan x∗ ∈ Rn , hogy
x∗ 6= 0 (tehát nem triviális megoldás) és Ax∗ = 0. Itt csak azt írtuk fel, hogy ennek a homogén rendszernek
van nem triviális megoldása. Tehát ha ez nem triviális megoldás, akkor vannak benne nem 0 komponensek is,
válaszunk ki ezek közül egy maximális abszolút érték¶t (több ilyen is lehet).
Legyen |x∗k | = max1≤i≤n |x∗i |. Vegyük az egyenletrendszerünkb®l a k-adik egyenletet. Ez úgy néz ki, hogy
venni kell a mátrixunk k-adik sorát és végig kell szorozni a megoldás komponensekkel.
ak1 x∗1 + ak2 x∗2 + · · · + akk x∗k + · · · + akn x∗n = 0
n
X
akk x∗k = − akj x∗j
j=1
j6=k
Ez utolsó egyenl®tlenségnél mindegyik megoldás komponens abszolút értéke helyére a maximális komponens
abszolút értékét írtuk. Ekkor x∗k -al lehet egyszer¶síteni (hiszen nem 0).
n
X
|akk | ≤ |akj |
j=1
j6=k
Elemi átalakítások
1. tetsz®leges egyenletet beszorzunk, valamilyen nem 0 konstanssal
2. hozzáadjuk egyik sort a másikhoz.
Két egyenlet sorrendjének a megváltoztatása sem változtat az eredményen, de ez bizonyos értelemben nem
nevezhet® elemi átalakításnak. A két elemi átalakítást kombinálni szokták, ekkor valamelyik sor konstanss-
zorosát adjuk hozzá egy másik sorhoz.
A numerikus algoritmusoknál szigorúan meghatározott az átalakítások sorrendje.
GAUSS-ELIMINÁCIÓ 8
2.2 Gauss-elimináció
Csak a b®vített mátrixot fogjuk kezelni: Â = ( A| a) ∈ Rn×(n+1)
n-1 lépésben hajtjuk végre az átalakítást, hogy a végén fels® trianguláris alakot kapjunk.
j-dik lépés:
(j = 1, 2, . . . , n−1) kiküszöböljük az xj
ismeretlent a j-dik alatti összes (tehát a j +1, j +2, . . . , n-ik) egyenletb®l.
A j-dik egyenlet alkalmas konstans szorosait hozzáadjuk az egyenletekhez (j+1-dikhez, j+2-dikhez stb.). A fels®
indexek azt jelölik, hogy hányadik lépésnél tartunk:
a011 a012 a01n a01,n+1
...
a021 a022 ... a02n a02,n+1
Â0 = . ... .. ..
..
. .
a0n1 a0n2 . . . a0nn a0n,n+1
Az els® lépésben Â0 -b®l az a011 alatti elemeket kell kinullázni, ekkor fogjuk Â1 -et kapni. A j-dik lépésnél
viszont már a következ®k állnak fenn:
j−1
aj−1 aj−1 aj−1
a11 12 ... 1,j−1 1j ...
0 aj−1
22 ... aj−1
2,j−1 aj−1
2j . . .
... .. .. ..
. . .
0 0
.. ..
. .
Âj−1
0
= 0 0 aj−1
j−1,j−1
0 0 0 0 aj−1 . . .
j,j
aj−1
0 0 0 0 j+1,j . . .
. .. .. .. .. ..
.. . . . . .
0 0 0 0 aj−1
n,j ...
Tegyük fel, hogy az 6= 0, ekkor a j-dik sor alkalmas konstansszorosát, adjuk hozzá az alattalév®khöz.
aj−1
jj
Mik ezek az alkalmas konstansok?
aj−1
ij
lij = (i = j + 1, . . . , n)
aj−1
jj
Most már megtudjuk mondani, hogy az j-dik egyenletnek hányszorosát kell az i-dikhez hozzáadni, hogy 0-t
kapjunk.
ajik = aj−1 j−1
ik − lij ajk (k = j + 1, . . . , n + 1)
Az oszlopindex azaz a k csak a j + 1-dik oszloptól megy mivel a j-dikben úgyis 0-k állnak tehát azzal nem
kell tör®dni, a többi elem azonban kell a következ® lépésekhez és azért tart n+1-ig mert összevont mátrixról
van szó.
Ha a aj−1
jj 6= 0 feltétel nem teljesül, akkor módosítani kell az algoritmust (lsd lentebb).
2.11 Példa. an = n2
n+1 = n2 −1+1
n+1 = (n−1)(n+1)+1
n+1 =n−1+ 1
n+1 = n − 1 + o( n1 )
M¶veletigény
Adott j-re:
(n-j) osztást
(n-j)(n-j+1) kivonást
(n-j)(n-j+1) szorzást kell elvégezni.
Minden m¶veletet azonos súllyal veszünk.
n−1
X n−1
X
M (n) = (n − j) + 2(n − j)(n − j + 1) = (n − j)(1 + 2(n − j + 1))
j=1 j=1
n−1
X n−1
X n−1
X n−1
X
= (n − j)(2(n − j) + 3) = l(2l + 3) = 2 l2 + 3 l
j=1 l=1 l=1 l=1
(n − 1)n(2(n − 1) + 1) (n − 1) + 1 2
= 2 + 3(n − 1) = n3 + o(n2 )
6 2 3
4
A Visszahelyettesítés m¶veletigénye n2 + O(n), ami az elimináció futási idejéhez képest elhanyagolható.
Cseréljük fel a j-ik és a k-ik sort a Âj−1 mátrixban, utána pedig cseréljük fel a j-ik és az l-ik oszlopot (az
oszlopcserét viszont el kell tárolni).
Bizonyos esetekben, a teljes f®elemkiválasztással jobb eredményt érhetünk el, mint a részlegessel. A kritikus
része az algoritmusnak az amikor leosztunk a f®elemmel, ha nagyon kicsi lenne a f®elem, akkor kerekítési
problémák adódhatnak és ezen módosítani tud a teljes f®elemkiválasztás.
4 felhasználjuk az els® n négyzetszám összegét, ami n(n+1)(2n+1)
6
és az els® n egész szám összegét, ami n(n+1)
2
Fejezet 3
Ezeket egyszerre is meglehet oldani, úgy hogy veszük az együttható mátrixot és leírjuk egymás mellé a jobb
oldalakat.
A b®vített mátrix most a következ®:
 = (Aa1 a2 . . . am ) ∈ Rn×(n+m) k = ...n + m
10
ELIMINÁCIÓ FORMÁLIS LEÍRÁSA 11
Ax1 = e1
Ax2 = e2
..
.
Axn = en
Hogyan lehetne formálisan leírni ezeket az algoritmusokat, lineáris algebrában alkalmazott eszközökkel?
Vektor szorzatok
1. skalár szorzat (bels® szorzat)
n
c, d ∈ RP
T n
c d = i=1 ci di ∈ R
2. diadikus szorzat (küls® szorzat)
T
c1 d c1 d1 c1 d2 ... c1 d n
.. . .. ..
cdT = G = (d1 c . . . dn c) = . = .. . . Ekkor G rangja legfeljebb 1 (akkor
cn dT cn d1 cn d2 . . . cn dn
lehet kevesebb, ha legalább az egyik 0 vektor).
3.5 Deníció. Gj eliminációs mátrix , ha felírható Gj = I + gj eTj alakban, ahol gj j -dik komponense 0,
= 0.
(j)
gj
Ekkor Gj a következ®képpen néz ki:
(j)
1 g1
... ..
.
(j)
1 gj−1
Gj = 1
(j)
gj+1 1
.. ...
.
(j)
gn 1
Ezekkel a mátrixokkal tudunk majd eliminálni egy oszlopot. Például úgy kapjuk a Gauss-eliminációt, hogy gi -k
helyére beiírjuk az lij -et, ez azonban még úgy módosul, hogy a j-dik oszlopban 1 felett is 0-k vannak.
3.6 Állítás. Legyen Gj tetsz®leges eliminációs mátrix, ekkor
(i) B = Gj A olyan mátrix, melyben az i-dik sor úgy áll el®, hogy az A i-dik sorához hozzádadjuk A j-dik
sorának gi(j) -szeresét.(A soraihoz hozzáadogatjuk a gi -ben lév® konstansszorosait a j-dik sornak)
(ii) C = AGj olyan mátrix, melynek a j-dik oszlopát úgy kapjuk, hogy A j-dik oszlopához hozzáadjuk A els®
oszlopának g1(j) -szeresét..., A n-dik oszlopának gn(j) -szeresét.
Bizonyítás. (i) nézzük meg B i-dik sorának k-dik elemét
bik = eTi Bek = eTi (Gj A)ek = eTi ((I + g j eTj )A)ek
= eTi (A + g j eTj A)ek = eTi Aek + eTi g j (eTj Aek )
(j)
= aik + (eTi g j )ajk = aik + gi ajk
Tehát a B mátrixnak az i-dik sorát úgy kapjuk, hogy A i-dik sorához hozzáadjuk A j-dik sorának megfelel®
konstansszorosát és az egyes eliminációs módszereknél csak ezeket a konstansokat kell megváltoztatni.
FELEMKIVÁLASZTÁS FORMÁLIS LEÍRÁSA 13
(a) Ha a kiválasztott elem olyan volt, hogy az eredeti A mátrixban nem érintette a sorcsere, vagyis k 6= i és
k 6= j , akkor eTk Pij = eTk (hiszen ekkor eTk "kiválasztja" Pij k -dik sorát, de mivel k 6= i és k 6= j ezért
ebben az esetben az egység mátrixnak tekinthet® Pij ), ezért bkl = eTk Ael = akl .
(b) Ha k = i, akkor eTk Pij = eTi Pij = eTj , ezért bil = eTj Ael = ajl .
(c) Ha k = j , akkor eTk Pij = eTj Pij = eTi , ezért bjl = eTi Ael = ail
Ha részleges f®elemkiválasztást kell csinálni, akkor az azt jelenti, hogy balról kell szorozni a mindenkori
"A" mátrixot. Ha teljes kiválasztást akarunk, akkor balról is szorozni kell és jobbról is szorozni kell valamilyen
hasonló permutációs mátrixszal.
−ln,j
R = An−1 = Gn−1 · · · G2 G1 A0
| {z }
A1
| {z }
A2
| {z }
An−1
Bizonyítás.
Gj G−1 T T T T
j = (I + g j ej )(I − g j ej ) = I − g j (ej g j ) ej = I
| {z }
0
Az elimináció végeredménye:
G−1
n−1 / R = Gn−1 · · · G2 G1 A0
G−1
n−1 R = Gn−2 · · · G2 G1 A0
−1 −1 −1
G1 G2 · · · Gn−1 R = A0
| {z }
L
. A skalárszorzat értelemszer¶en:
G11 G12 ... G1s
G21 G22 ... G2s
G = αA . .. .. Gpq = αApq
..
. Gpq .
Gi1 Gi2 ... Gis
A mátrix szorzásnál plussz feltétel is bejön mivel a blokkoknak külön-külön összeszorozhatónak kell lenniük,
ez pedig akkor teljesül, ha a szorzandó mátrix oszlopat annyi darabra bontottuk, mint a szorzó mátrix sorait.
Csak egy speciális estet fogunk alkalmazni, amikor a mátrix 4 darabra van partícionálva és ekkor az els®
partícó méreti egyértelm¶en meg fogják határozni a többi partíció méretét
A11 A12 B11 B12
A=
A21 A22
és van egy ugyanígy partícionált B = B21 B22
15
FROBÉNIUS-FÉLE MÁTRIX INVERTÁLÁS 16
balról −A21 -el. Ekkor az els® és a harmadik egyenlet így néz ki:
−A21 A−1
11 = −A21 X11 + −A21 A−1
11 A12 X21
0 = A21 X11 + A22 X21
X21 = −B −1
A21 A−1
11
Majd visszahelyettesítjük az így kapott egyenletet az els®be, azt egy kicsit átalakítva megkapjuk X11 -et:
A11 X11 = I11 − A12 X21
X11 = A−1
11 (I11 − A12 X21 )
X22 = B −1
Ekkor a determináns szorzástétele alapján det(c) = det(G) det(A). A-nak tudjuk, hogy nem 0 a deter-
minánsa (ez volt a feltétel), G-r®l látszik, hogy 1 a determinánsa, mivel egy alsó egységtrianguláris mátrix, tehát
C -nek nem lehet 0 a determinánsa és a következ®képpen fejezhet® ki: det(A11 ) det(B) ebb®l pedig következik,
hogy B -nek sem lehet 0 a determinánsa.
Megjegyzés. Több féle úton is el lehet jutni a megoldásokhoz. Lehetne lépésenként ellen®rizni, hogy a szorzások
tényleg evégezhet®ek-e és amit eredményül kapunk az olyan dimenziós-e, hogy össze lehesen adni, ez azonban
minden lépésnél teljesül.
Az Frobénius-invertálásnak O(n3 ) a m¶veletigénye.
Speciális esetekben érdemes ezt a módszert használni, példaul ha a mátrix
mivel ilyenkor a képletek jelent®sen leegyszer¶södnek. Akkor is hasznos lehet ez a módszer, ha olyan nagy
mátrixal dolgozunk, amely nem fér be a memóriába.
4.3 LR-felbontás
4.1 Deníció. A = LR az A trianguláris felbontása, ha L alsó egység trianguláris, R pedig fels® trianguláris.
4.2 Tétel (LR unicitása). Ha A reguláris, akkor az A = LR felbontás egyértelm¶ (legfeljebb 1 db felbontás
létezhet).
Bizonyítás. Indirekt módon. Tegyük fel, hogy létezik két különböz® felbontás:
A = L1 R1 = L2 R2
(tehát vagy az L1 különbözik az L2 -t®l vagy az R1 különbözik az R2 -t®l). Mivel A reguláris volt, így a többi
mátrixnak is regulárisnak kell lennie, így lehet manipulálni az inverzekkel.
L−1
2 / L1 R1 = L2 R2
L−1
2 L1 R1 = R2 /R1−1
L−1
2 L1 = R2 R1−1
Ezzel már ellentmondásra is jutottunk. Miért nem állhat fenn ez az egyenl®ség? Mivel a bal oldalon alsó egység
trianguláris mátrix van (hiszen egy alsó egység trianguláris mátrix inverze is alsó egység trianguláris és két alsó
egység trianguláris mátrix szorzata is alsó egység trianguláris) a jobb oldalon fels® trianguláris mátrix van ami
csak úgy lehetséges ha mindkett® diagonális ez a digonális viszont csak az egységmátrix lehet. Ekkor viszont
azt kapnánk, hogy I = L−1 2 L1 és I = R2 R1 , amib®l viszont L2 = L1 , R1 = R2 -t kapnán. Err®l viszont már
−1
Bizonyítás. Tekintsük a következ®képpen partícionált mátrixot =
E 0
F G
Akk
C
B
H J
D
0 K
Ekkor
Akk = EH , ha ez igaz akkor a determinánsát a követekez®képpen lehet felírni det(Akk ) = det(E) det(H).
det(E) = 1 mivel E alsó egység trianguláris, H viszont fels® trianguláris, tehát det(Akk ) = 1 det(H) =
r11 · · · rkk .
Bizonyítás.
(i) (A reguláris és ∃A = LR ⇒ det(Akk ) 6= 0) Tegyük fel, hogy létezik a felbontás, mivel A reguláris, akkor
az elöz® segédtétel alapján 0 6= det(A) = det(Ann ) = r11 · · · rnn . Ebb®l az következik, hogy semelyik rii
(1 ≤ i ≤ n) sem lehet 0, tehát mindegy, hogy az r-ek közül mennyit szorzunk össze mindig 0 különböz®
leszt det(Akk ).
(ii) (A reguláris és det(Akk ) 6= 0 ⇒ ∃A = LR ) Legyen det(Akk ) 6= 0 k = 1, . . . , n, megmutatjuk a mátrix
rendje szerinti indukcióval, hogy létezik a felbontás.
√
(a) n=1 0 6= det(Akk ) ekkor A = |{z}
1 |{z}
A
L R
(b) tegyük fel, hogy az állítás igaz bármely a tétel feltételeit teljesít® n-1-ed rend¶ mátrixra. Legyen A
a feltételeket teljesít® n-ed rend¶ mátrix, keressük így a felbontását (az utolsó sora és oszlopa el®tt
partícionálunk):
An−1,n−1 b Ln−1,n−1 0 Rn−1,n−1 x
A= =
cT ann yT 1 0T z
A tétel bizonyítása során adódik egy rekurzív algoritmus az LR felbontásra, azonban nem ezt érdemes
használni, van direkt algoritmus is.
4.5 Állítás. Ha A diagonális domináns, akkor egyértelm¶en létezik az A = LR felbontás.
Ez azért igaz, mert ha A diagonálisan domimáns, akkor Akk is diagonálisan domináns tehát det(Akk ) 6= 0
a diagonális dominancia tulajdonsága miatt.
Alkalmazások A = LR-re
Mindig felteszzük, hogy A reguláris
(1) determináns számítás det(A) = det(L) det(R) = det(R)
| {z }
1
5.1 Az LR algoritmus
5.1 Példa. Az LR algoritmus végrehajtásánál, a mátrixszorzáshoz hasonló m¶veletr®l van szó. A kiindulási
mátrix jelen esetben a 3 × 3-s A mátrix. A 2-al keretezett elemeket keressük.
R r11 r12 r13 1.
0 r22 r23 3.
L 0 0 r33 5.
1 0 0 2 1 2
l21 1 0 4 5 5
l31 l32 1 2 7 5
2. 4. A
A mátrix szorzás szabálya szerint felírhatók az ismeretlenekre vonatkozó egyenletek amib®l el®ször R els® sorát
tudjuk meghatározni:
1 · r11 + 0 · 0 + 0 · 0 = 2
r11 = 2
1 · r12 + 0 · r22 + 0 · 0 = 1
r12 = 1
1 · r13 + 0 · r23 + 0 · r33 = 2
r13 = 2
A 2. lépésben L els® oszlopát tudjuk meghatározni:
l21 · r11 + 1 · 0 + 0 · 0 = 4
l21 · 2 = 4
l21 = 2
l31 · r11 + l32 · 0 + 1 · 0 = 2
l31 · 2 = 2
l31 = 1
3. lépésben R második sorát tudjuk kiszámolni:
l21 · r12 + 1 · r22 + 0 · 0 = 5
2 · 1 + 1 · r22 = 5
r22 = 3
l21 · r13 + 1 · r23 + 0 · r33 = 5
2 · 2 + 1 · r23 = 5
r23 = 1
20
AZ LR ALGORITMUS 21
Minden lépés egyértelm¶en meghatározott volt és nem volt olyan lépés ahol ne tudtuk volna folytatni az
eljárást.
Az eredeti A mátrix egy bizonyos elemére támaszkodunk és abból az elemb®l kivonjuk a megfelel®en összes-
zorzott számpárokat amelyeket már korábban megismertünk és így kapjuk R megfelel® értékét.
j−1
(5.1)
X
rjk = ajk − ljp rpk k = j, j + 1, . . . , n
p=1
L megfele® elemének kiszámításánál rjj -vel még osztanunk kell és ez az osztás a kritikus m¶velet az eljárás-
ban. Ha rjj 0 lenne akkor ezt nem tudnánk végrehajtani.
j−1
1
(5.2)
X
lij = (aij − lip rpj ) i = j + 1, j + 2, . . . , n j = 1, 2, . . . , n
rjj p=1
M¶veletigény
A m¶veletigényt két részletben fogjuk számolni. Az egyik számítás az lesz, hogy mennyi m¶velet kell az R ele-
meinek a kiszámításához, ez lesz M1 érték és a kés®biekben meghatározzuk az L elemeihez tartozó m¶veletigényt
is. (5.1)-ben j − 1 darab összevonás (ami összeadást és/vagy kivonást jelent) és j − 1 szorzás van.1
n
X n
X
M1 (n) = 2(j − 1)(n − j + 1) = 2(j − 1)(n − (j − 1))
j=2 j=2
n−1
X n−1
X n−1
X n−1
X
= 2l(n − l) = 2ln − 2l2 = 2n +2 l2
l=1 l=1 l=1 l=1
(n − 1)n) (n − 1)n(2(n − 1) + 1) 2n3 − 3n2 + n
= 2n −2 = n3 − n2 −
2 6 3
1 3 2
= n + O(n )
3
Megjegyzés. Érdemes m¶veletigény els® sorát megvizsgálni. Azt állítottuk, hogy j − 1 darab összevonás és
j − 1 darab szorzás kell a minden
P lépésben ( miatt) (5.1) kiszámításánál ezért szerepel a m¶veletigényben
Pj−1
p=1
2(j − 1), egészen pontosan a -as részben eggyel kevesebb összeadás szerepel, mint szorzás de a el®t ott
P
1 ez a könyv a szorzást és az összeadást már egyenrangúnak veszi hiszen egy korszer¶ processzor 1 órajel alatt végzi el mind az
összeadást mind a kivonást (szemben a régiekkel, ahol a szorzás ideje többszöröse volt az összeadásénak)
AZ LR FELBONTÁS FELHASZNÁLÁSI LEHETSÉGEI 22
van még egy kivonás is. A vizsgált sorban j. elemt®l mindegyik elemre (k = j, . . . , n) kell a m¶veleteket
végrehajtani R-ben ezért jön be az (n − j + 1)-es szorzó. Ezzel megkaptuk R egy sorának a kiszámításához
szükséges m¶veletigényt.
Mivel ezt minden sorra végre kell hajtani ezért jön be a , pontosabban az els® sorra nem kell végrehajtani
P
mivel
P j = 1 esetén a (5.2)-es képlet r1k = a1k bemásolásra redukálódik, ezért indul j = 2-r®l az indexelés
( nj=2 ).
Az els® sorról a másodikra úgy jutunk, hogy l = j − 1-et behejetettesítünk, majd a második sorról a
harmadikra úgy, hogy felhasználjuk az els® n egész szám és az els® n négyzetszám összegének a már ismert
képleteit ( 21 n(n + 1) és n(n+1)(2n+1)
3 ), csak itt most n − 1-re alakalmazzuk ®ket. Huh, azt hiszem ezt egy kicsit
túlmagyaráztam, a rövidebb változat megtalálható a könyv 50. oldalán (A szerkesztget®).
Az O (ejtsd ordó) egy nagyságrendet mutató kifejezés. Jelen esetben az utolsó sor azt mutatja, hogy az A
n × n mátrix n rendjét®l milyen módon függ a m¶veletigény, ez egy polinomiális függés lesz, a legnagyobb fokú
tag az n3 aminek az együtthatója 13 (nyilván ez a rész lesz a domináns) és a mögötte lév® O(n2 ) azt jelenti,
hogy vannak további tagok melyek együtthatói legfeljebb másod fokúak és ezekkel már nem foglalkozunk.
Az L mátrixbeli értékek meghatározásához egy hasonló értéket fogunk kapni. A különbség az elöz®höz
képest az, hogy bejön még egy plusz osztás és soronként eggyel kevesebb elemre kell végrehajtani, ez azonban
a m¶veletigényt nem fogja jelent®sen befolyásolni.
n
X 1 3
M2 (n) = (2(j − 1) + 1)(n − j) = n + O(n2 )
j=2
3
5.3 Segédtétel. Ha a H reguláris fels® Hessenberg mátrixnak létezik H = LR felbontása, akkor L alsó egység
bidiagoniális mátrix.
Bizonyítás. A regularitási feltételb®l következik, hogy rjj 6= 0. Az lij = 0 ha i > j + 1 egyenl®tlenségeket az
oszlopok szerinti indukcióval bizonyítjuk. j = 1 (az els® oszlopra)2 teljesül az állítás, li1 = hi1 /r11 = 0 mivel
hi1 ha i > 2. Tegyük fel, hogy az 1, 2, . . . , j − 1 oszlopokra beláttuk az állítást. Ekkor
j−1
1 X 1
lij = (hij − lip rpj ) = (0 − 0) = 0,
rjj p=1
r jj
Mivel a levezetés végén a GT fels® Hessenber-mátrix felbontása áll, L∗ az elöz® segédtétel alapján csak alsó
egység bidiagonális mátrix lehet, mivel L∗ -ot L∗ = RT diag(r11
−1 −1 −1
, r22 , . . . , rnn ) módon adódik és denicóból
látszok, hogy R fels® bidiagoniális mátrix kell, hogy legyen.
Az elöz® két segédtételb®l következik a következ®:
5.5 Segédtétel. Ha a T reguláris tridiagoniális mátrixnak létezik T = LR felbontása, akkor L alsó egység-
bidiagoniális, R pedig fels® bidiagoniális mátrix.
5.6 Következmény. Ha létezik a reguláris A mátrix A = LR felbontása és
(i) A (fels® vagy alsó) Hessenberg-mátrix, akkor a felbontás m¶veletigénye O(n2 )
(ii) A tridiagoniális mátrix, akkor a felbontás m¶veletigénye O(n).
A probléma az algoritmus végrehajtása során akkor adódhat, ha rjj = 0 valamely j -re, azaz a mátrix
valamelyi f®minora3 0. Ez viszont kezelhet® egy a f®elemkiválasztáshoz hasónló módszerrel.
5.7 Példa. ( 01 12 ) ebben az esetben az algoritmus közvetlenül nem végrehajtható.
Jelen példánknál annyit kellene csinálni, hogy a két sort meg kellene cserélni. Egy permutációs mátrixot
fogunk használni. A G eliminácóban használt sor-oszlop cserélgetést írja le a permutációs mátrix.
5.8 Deníció. P A = LR az A ∈ Rn×n mátrix általánosított tranguláris felbontása, ha P permutációs R
fels® tragnuláris, L alsó egység-tranguláris mátrix.
2R -ben az egyes lépések sorokra, L-ben oszlopokra vonatkozi a j index.
3 a f®minor fogalom alatt átalában aldeterminánst értenek
AZ RT R CHOLESKY-FELBONTÁS 24
Az ötlet az, hogy ha az adot pozicióba nem tudunk egy nullától eltér® elemet becserélni, akkor az aktulás
oszlopban teljesen egészében 0-k kellenek, hogy legyenek, ha viszont ez áll fenn akkor a mátrix nem lehet
reguláris. Megfordítva a dolgot, mivel csak reguláris mátrix esetén van ennek a felbontásnak értelme ilyenkor
ezt a trükköt pedig mindig meg tudjuk csinálni.
5.9 Segédtétel. Tetsz®leges A reguláris mátrixhoz megadható olyan P permutációs mátrix, hogy a B = P A
mátrixra det(Bkk ) 6= 0
Bizonyítás. B mátrix rendje szerinti indukcióval bizonyítjuk. Ha n=1, akkor az állítás triviálisan igaz mert 1×1-
es mátrix esetén nincs mit cserélni. Tegyük fel, hogy az n − 1 rend¶ mátrixokra az állítás igaz! Vegyünk egy
tesz®leges n-ed rend¶ A mátrixot, fejtsük ki A-t az utolsó oszlopa szerint, azaz határozzuk meg A determinánsát,
az utolsó oszlop elemei és az adjungált aldeterminánsok segítségével mindenütt a megfelel® el®jelet gyelembe
véve.
0 6= det(A) = (−1)2n ann det(Ann ) − an−1n det(An−1,n ) ± · · · + (−1)n a1n det(A1n )
Mivel ez az összeg nem 0 (hiszen A reguláris) ezért léteznie kell legaláb egy olyan j indexnek, hogy det(Ajn ) 6= 0.
Legyen j egy ilyen rögzített index és tekintsük azt a P1 permutációs mátrixot, amivel A balról szorozva Ajn
sorai felkerülnek A els® n − 1 sorába. Mivel Ajn n − 1-ed rend¶ reguláris mátrix ezért az indukciós feltevés
szerint már van olyan P2 n − 1-ed rend¶ permutációs mátrix, hogy a
P2 0
B= P1 A
0T 1
mátrix f®minorai n − 1-ed rendig nem 0-k. Persze det(B) = ± det(A) 6= 0 is igaz, ezért
P2 0
P = P1
0T 1
5.4 Az RT R Cholesky-felbontás
Szimmetrikus A esetén szeretnénk egy speciális LR felbontás alkalmazni úgy, hogy két azonos mátrixra bontsuk
fel A-t.
5.11 Példa. A 2-al keretezett elemeket keressük. RT felesleges feljegyezni, hiszen az értékek megegyeznek az
R értékeivel.
r11 · r11 = 4
r11 = 2
r11 · r12 = 2
r12 = 1
r11 · r13 = 4
r13 = 2
r12 · r12 + r22 · r22 = 10
r22 = 3
r12 · r13 + r22 · r23 = 5
1 · 2 + 3 · r23 = 5
r33 = 1
r13 · r13 + r23 · r23 + r33 · r33 = 6
r33 = 1
Tehát
2 1 2
R = 0 3 1
0 0 1
Megjegyzés. Eddigi észrevételeim alapján a Cholesky felbontás valahogy így m¶ködik.
• Elég csak az R mátrixszal foglalkozni.
• Sorra kitöltjük R sorait felülr®l lefelé haladva.
• Egy soron belül balról jobbra haladunk, természetesen csak a f®lóban lév® elemt®l.
• Adott sor f®átlóban lév® elemét úgy kapjuk, hogy vesszük a megfelel® f®átlóbeli elemet A-ból, majd
kivonjuk R-ben a meghatározandó elem feletti elemek négyzetének összegét (kivéve az els® sort, mert
akkor ez a lépés kimarad) és az így kapott összegb®l négyzetgyököt vonunk. (Csak a pozitív el®jel¶
gyököt vesszük gyelembe.)
r11 r12 r13 r14 ...
0 r22 r23 r24 . . .
0 0 r33 r34 . . .
.. .. .. .. ...
. . . .
Tehát r33 a következ®képpen kapható meg:
q
2 + r2 )
r33 = + a33 − (r13 23
• Egy f®átlótól jobbra lév® elemet úgy számítunk, hogy vesszük R-ben sorra a f®átló feletti és az adott elem
feletti elemek szorzatát (csak az azonos sorban lév®ket szorozzuk össze) és kivonjuk a számítandó elemnek
megfelel® A beli elemb®l ®ket. Végül leosztjuk az aktuális R-beli f®átlóbeli elemmel (az els® sorban csak
a f®tlóbeli elemmel kell leosztani a megfelel® A beli elemet). Például r34 a következ® módon kapható meg:
a34 − r13 · r14 − r23 · r24
r34 =
r33
5.12 Segédtétel. Ha az A reguláris mátrixnak (nem feltétlenül szimmetrikus) létezik az LR felbontása, akkor
egyértelm¶en létezik olyan LDS felbontása, ahol D diagonális, L alsó egység-trianguláris és S fels® egység-
trianguláris.
Lényegében arról van szó, hogy az R mátrixot átalakítjuk úgy, hogy a f®átlóbeli elemeket kigyüjtük a D
mátrixba. S -t úgy kapjuk, hogy R-t elosztjuk D-vel. Diagonális mátrixnak egyszer¶en számolható az inverze,
a f®átlóbeli elemek reciproka.
5.13 Segédtétel. Ha az A szimmetrikus mátrixnak létezik LR felbontása, akkor létezik RT R Cholesky-felbontása
is.
Bizonyítás. Mivel A szimmetrikus mátrix ezért A = AT és az elöz® segédtételben leírt felbontás létezik
LDS = A = AT = (LDS)T = S T DLT
√
Az egyértelm¶ség csak akkor lehet igaz, ha az L = S T -vel. Tehát D-t véve (a f®átlóban lév® elemek gyöke)
felírható az √ √ √ √ √ √
A = S T DS = S T D DS = (S T ( D)T )( DS) = ( DS)T ( DS)
√
amelyb®l az R def
= DS denicóval látható az A = RT R Cholesky-felbontás.
Ha a R diagonálisában negatív elemek is el®fordulnak, akkor a D mátrix megfelel® elemei tiszta képzetes
számok lesznek, ekkor a Cholesky felbontás komplex mátrixot eredményez.
5.14 Tétel. Csak szimmetrikus mátrixnak létezik Cholesky felbontása.
Bizonyítás. Mivel ha létezik az A = RT R, akkor
AT = (RT R)T = RT (RT )T = RT R = A
Cholesky-felbontás egyértem¶sége
5.15 Állítás. Ha adott az A = RT R Cholesky felbontás, akkor tetsz®leges olyan diagonális mátrixot véve,
amelyre D2 = I , az A = (RT DT )(DR) is érvényes.
Lenyegében ugyan ezt fogalmazza meg a következ® tétel.
5.16 Tétel. Tetsz®leges A ∈ Rn×n szimmetrikus reguláris mátrix A = RT R felbontása R sorainak el®jelét®l
eltekintve egyértelm¶.
Bizonyítás. Legyen
A = R1T R1 = R2T R2
az A két különböz® felbontása! Mivel a felbontásban szerepl® minden mátrix reguláris:
(R2T )−1 R1T = R2 (R1 )−1
Így a bal oldal alsó a jobb oldal fels® trianguláris, ami csak úgy lehetséges, ha
D = (R2T )−1 R1T = R2 (R1 )−1
| {z } | {z }
B J
Ekkor viszont
B J
z }| { z }| {
D2 = DDT = (R2T )−1 R1T ( R2 (R1 )−1 )T = (R2T )−1 R1T (R1T )−1 R2T = I
| {z }
I
| {z }
I
Megjegyzés. Ezt az el®adást dr. Csendes Tibor tartotta 1999.10.14-én. Az el®adás nagy mértékben a könyvre
támaszkodott.
28
CHOLESKY-FELBONTÁS FOLYTATÁSA 29
mátrixnak létezik LR-felbontása, akkor létezik Cholesky-felbontása is." segédtétel alapján, tehát a 2-ik
megfontolás alapján mondhatjuk azt, hogy det(Akk ) 6= 0 következik a az A = RT R Cholesky felbontás
létezése.
j−1
X
2 2
(a) rjj = ajj − rlj
l=1
Ha k 6= j -vel:
j−1
X
(b) rjj rjk = ajk − rlj rlk
l=1
rjj vagy valós vagy tiszta képzetes lesz a szerint, hogy az (a) képlet jobb oldalán pozitív vagy negatív számjön
ki. Ezután vizsgáljuk a (b) képletet, itt
Kell-e komplex aritmetikát használni? Az állításunk az, hogy nem szükséges, mert az A = RT R helyett az
A = S T D2 S -t fogjuk használni, ahol a D2 az valós szám lesz és a D nem más, mint az R-eknek a diagonálisában
lév® elemei.
A kérdés továbbiakban az, ha már van ilyen felbontásunk, akkor mit tudunk mondani az egyértelm¶ségr®l?
Mikor tudnák biztosítani a Cholesky féle felbontás egyértelm¶ségét? Arra már választ kaptunk, hogy a felbontás
el®jelt®l függ®. Ezért, hogy az egyértelm¶séget biztosítsuk, be kell vezetni a kanonikus felbontásnak a fogalmát.
6.4 Deníció. Ha A egy n × n-es szimmetrikus mátrix, az A = RT R Cholesky féle felbontást, akkor nevezzük
kanonikusnak, ha R valós mátrix, továbbá a f®átl®jában lév® elemek mind pozitívak.
CHOLESKY-FELBONTÁS FOLYTATÁSA 30
Mivel mátrix és transzponáltjának determinánsa ugyan az. A kifejezésb®l látszik, hogy nem lehetséges, hogy
rnn kisebb legyen, mint 0.
Ezzel azt láttuk, hogy a kanonikus felbontás segít nekünk abban, hogy az egyértelm¶séget biztosíthassuk.
A következ®kben általánosabb dolgokkal foglalkozunk. Megvizsgáljuk a Cholesky féle felbontás denitséggel
szemidenitséggel való kapcsolatát.
6.6 Segédtétel. Tekintsünk egy S valós n × m-es mátrixot (1 ≤ m ≤ n) és ez a mátrix legyen oszlopreguláris
(tehát lineáris kombinációkkal az egyik oszlop nem fejezhet® ki a többiek segítségével) ezután képezzük A = S T S
mátrixot, ez már m × m-es mátrix lesz, ez a mátrix pozitív denit.
Bizonyítás. Az els® megfontolás az, hogy az így kapott A mátrix az szimmetrikus Ez elég egyszer¶ mert csak
azt kell megnézni, hogy AT = A?
AT = (S T S)T = S T (S T )T = S T S = A
Az mondható, hogy az S T S az mindig szimmetrikus. A pozitív denitséghez azt kell megnézni, hogy az xT Ax
nagyobb-e, mint 0?
xT Ax = xT (S T S)x = (xT S T )(Sx) = (Sx)T (Sx) = y T y = kyk22 ≥ 0
Egy vektort kaptunk (y), azért mert egy mátrixot szorzotunk vektrorral. Ahhoz, hogy belátsuk a pozitív
denitséget be kell látni, hogy y = 0 csak akkor lehetséges, ha x = 0. Az y vektor nem más, mint az Sx. Az
Sx-r®l azt mondtuk, hogy oszlopreguláris, azaz ez egy olyan egyenletrendszer amelyiknek van megoldása. Mivel
az egy nem elfajuló mátrix az ilyennek a 0 megoldása csak akkor léphet fel, ha a másik oldal 0. Ezzel be is
fejeztük a bizonyítást mert itt használtuk ki az oszlopregularitásnak a lényegét.
QR ORTOGONÁLIS-TRIANGULÁRIS FELBONTÁS 31
zi ha i ≤ k
(
yi =
0 ha i > k
(ii)⇒(iii) Akk -ról tudjuk, hogy pozitív denit minden k-ra, akkor be kell látni, hogy det(Akk ) > 0.
Ha Ak k pozitív denit, akkor azt mondhatjuk az ® sajátérékeir®l, hogy mind pozitív. A determinánsát
pedig úgy lehet kiszámítani sajátértékei segítségével, hogy vesszük a sajátértékek szorzatát. Ebb®l következ®en
A determinánsának nagyobbnak kell lennie, mint 0.
k
Y
det(Akk ) = λj (Akk ) > 0
j=1
(iii)⇒(iv) Ha det(Akk ) > 0, akkor egyértelm¶en létezik az A = RT R kanonikus felbontás. Ezt viszont már
bizonyítottuk a 6.5. tételben. (iv)⇒(v) választható például S = R
(v)⇒(i) 6.6 segédtétel következménye, ugyanis ha S reguláris, akkor oszlopreguláris is.
hogy Q ortogonális-e? Q ortogonalitásához azt kell igazolni, hogy Q−1 = QT azaz QT Q = I . Tehát ki kell
számítanunk QT Q-t.
QT Q = (AR−1 )T (AR−1 ) = (R−1 )T |A{z
T
A} R−1 =
B
= (R−1 )T BR−1 = (R−1 )T (RT R)R−1 =
= ((R−1 )T RT )(RR−1 ) = II = I
QR FELBONTÁS KISZÁMÍTÁSA 32
A bizonyítás konstruktív, hiszen megadja hogyan kell ezt a felbontás elkészíteni. Vesszük az A mátrixot,
megszorozzuk a transzponáltjával és erre csinálunk egy Cholesky felbontást. A felbontás alapján R-nek képezzük
az inverzét amivel A megszorzozzuk és "máris" megkapjuk Q-t. Ez azonban eszméletlen sok m¶veletet igényelne
tehát keresni kell egy másik fajta megoldást. El®bb azonban bebizonyítjuk, hogy egyértelm¶ a felbontás.
6.11 Tétel (Unicitás). Tetsz®leges A reguláris mátrix QR felbontása Q oszlopainak és R sorainak el®jelét®l
eltekintve egyértelm¶en meghatározható.
Bizonyítás. Indirekt módon bizonyítjuk. Tegyük fel, hogy
A = Q1 R1 = Q2 R2
Q−1
2 Q1 = R2 R1−1
QT2 Q1 = R2 R1−1
a bal oldal ortogonális a jobb oldal fels® trianguláris, ez csak úgy lehetséges, ha V diagonális
V = QT2 Q1 = R2 R1−1
Vizsgáljuk V 2 -et:
V 2 = V V T = (QT2 Q1 )(QT2 Q1 )T = QT2 Q1 QT1 Q2 = QT2 Q2 = I
| {z } | {z }
I I
hiszen az ortogonális mátrix transzponáltja megegyezik az inverzével. Tehát vjj = ±1 és Q2 = Q1 V , R2 =
V R1 .
a1 = r11 q 1
a2 = r12 q 1 + r22 q 2
..
.
ak = r1k q 1 + r2k q 2 + · · · + rkk q k
..
.
an = r1n q 1 + r2n q 2 + · · · + rkn q k + · · · + rnn q n
Ezekben az egyenletekben az r-ek és a q-k az ismeretlenek q vektorokról viszont tudjuk, hogy ortogonálisak.
QR-FELBONTÁS ALKALMAZÁSAI 33
Az 1. és a 2. egyenlet megoldása
Nézzük meg mivel egyenl® az aT1 a1 .Az els® egyenlet alapján:
2 T
aT1 a1 = r11 q1 q1
mivel Q ortogonális ezért qT1 q1 = 1, tehát ha azt ortonormáltságot is hozzávesszük: aT1 a1 = r11 2
. Innen
r11 = + a1 a1 . a1 a1 mindig pozitív, mert a komponensek négyzetösszegével egyenl®. Ekkor q 1 kifejezhet® az
p
T T
egyenletb®l:
1
q1 = a
r11 1
Tehát eddig megvan r11 és q1 , a kérdés az, hogy hogyan tudunk továbbhaladni?
A második egyenletben nem ismerjük r12 -t, r22 -t és q2 -t. De ha az egyenletet beszorozzuk qT1 -al, akkor mivel
q T1 q 2 = 0 az ortonormáltság miatt q T1 q 1 = 1 szintén az ortonormáltság miatt, ezért az egyenlet a következ®kép-
pen alakul:
q T1 a2 = r12 ,
A k. egyenlet megoldása
Feltéve, hogy az el®z® egyenletek meg lettek oldva, azaz 1 ≤ i ≤ j < k-ra qj -t illetve rij -t már kiszámoltuk.
Ekkor i = 1, 2, . . . , k − 1-re az egyenletet balról qTi -al szorozva az összes q elt¶nik, kivéve az rik -val való szorzást,
tehát innen az rik meghatározható Azaz
rik = q Ti ak i = 1, 2, . . . , k − 1
qk meghatározásához képezek egy bk vektort:
bk = ak − (r1k q 1 + r2k q 2 + · · · + rk−1,k q k−1 )
Felhasználva a bk = rkk qk összefüggést a k-dik egyenlet alapján könnyen igazolható. De ekkor az els®
q
egyenlethez hasonlóan bTk bk = rkk
2
. Így rkk = bTk bk és qk = rkk
1
bk .
Ezzel az eljárással meghatározható a QR felbontás. A m¶veletigény n db gyökvonás és O(n3 ) aritmetikai
m¶velet.
Ax − λx = 0 (7.2)
(A − λI)x = 0 (7.3)
(A−λI)x = 0 homogén lineáris egyenletrendszer x-re nézve ⇔ van (nem triviális) megoldása ha det(A−λI) = 0.
Ebb®l következik, hogy λ akkor és csak akkor sajátérték, ha det(A − λI) = 0 (A − λI olyan diagonális mátrix
melynek a f®átlójában a diagonális elemekb®l kivonjuk λ-t).
7.2 Deníció. def
PA (λ) = det(A − λI) az A mátrix karakterisztikus polinomja (n-ed fokú komplex együt-
thatós polinom).
A sajátértékei a PA (λ) = 0 egyenletnek a megoldásai lesznek.
7.3 Példa. A = ( 10 11 ) (A − λI) = ( 1−λ 1 2 2
0 1−λ ) PA (λ) = (1 − λ) = λ − 2λ + 1
a11 − λ a12 ... a1n
... ..
.
a21 a22 − λ = (−1)n λn + . . . (7.4)
det(A − λI) = .
det
.. ... ...
an−1,n
an1 ... an,n−1 ann − λ
34
35
7.8 Deníció. Két mátrix hasonló, ha az egyik hasonlósági transzformációval átvihet® a másikba. Minden
mátrix hasonló önmagával.
Ha két mátrix hasonló, akkor sajátértékeik ugyan azok s a karakterisztikus polinomjaik is, de a fordítottja
nem igaz.
7.9 Példa. A = ( 10 11 ) B = ( 10 01 ) Mindkett®nek a sajátértéke 1 dupla multiplicitással (n=2) mégsem hasonlók.
7.10 Deníció. A diagonizálható, ha hasonló egy diagonális mátrixhoz.
7.11 Deníció. A triangulizálható, ha hasonló egy trianguláris mátrixhoz.
36
7.12 Állítás.
(i) Nem minden mátrixot lehet diagonizálni. Pl.: ( 10 11 )
(ii) A pontosan akkor diagonizálható, ha van n db lineárisan független sajátvektora (nem elfajuló)
Bizonyítás. Ha az A sajátértékei λ1 , λ2 , . . . , λn , és egy-egy sajátvektora x1 , x2 , . . . , xn ekkor:
Ax1 = λ1 x1 , Ax2 = λ2 x2 , . . . , Axn = λn xn
| {z }
AX=XD
ahol
λ1
λ2
X = (x1 , x2 , . . . xn ) D = ...
λn
AX = XD ⇔ X −1 AX = D
Ha minden sajátértéke A-nak különböz®, akkor diagonizálható, akkor van n db. lineárisan független
sajátvektora.
7.13 Állítás. A különböz® sajátértékeihez lineárisan független sajátvektorok tartoznak.
Bizonyítás. Indukcióval bizonyítjuk. Ha k = 1, akkor az állítás triviális. Tegyük fel, hogy k-ra igaz az állítás
vizsgáluk k + 1-re:
λ1 , λ 2 , . . . , λ n
x1 , x2 , . . . , xn
Lineárisan függetlenek lesznek-e? (Lineárisan független, ha csak a triviális lineáris kombinációval állítható el®
a 0 vektor.)
A/ α1 x1 + α2 x2 + · · · + αk xk + αk+1 xk+1 = 0
α1 Ax1 + α2 Ax2 + · · · + αk Axk + αk+1 Axk+1 = 0
α1 λ1 x1 + α2 λ2 x2 + · · · + αk λk xk + αk+1 λk+1 xk+1 = 0 (7.8)
Tekintsük a következ® egyenletet:
α1 λk+1 x1 + α2 λk+1 x2 + · · · + αk λk+1 xk + αk+1 λk+1 xk+1 = 0 (7.9)
Vonjuk ki a (7.7)-b®l (7.8)-at.
α1 (λ1 − λk+1 )x1 + α2 (λ2 − λk+1 )x2 + · · · + αk (λk − λk+1 )xk = 0 (7.10)
Így már csak az els® k vektor szerepel az egyenletben. Mivel a sajátértékekr®l feltettük, hogy különböz®ek ezért
λi − λk+1 nem adhatják ki a 0-t. Tehát a jobb oldal csak akkor lehet 0, ha α1 = α2 = · · · = αk = 0.
7.14 Állítás.
(iii) Ha A minden sajátértéke különböz®, akkor diagoniziálható.
7.15 Állítás. Tetsz®leges A mátrix triangulizálható.
7.16 Deníció. Tetsz®leges A mátrixra a C = AH konjugált transzponált mátrix elemeire cik = āki
7.17 Deníció. Az U mátrix unitér mátrix, ha U H U = I .
Fejezet 8
37
MÁTRIXOK SPECIÁLIS ALAKRA TRANSZFORMÁLÁSA 38
Tehát azt kapjuk, hogy a mátrix els® oszlopában legfelül λ1 van alatta pedig csupa 0, tehát megadható
ilyen alakban:
bT
λ1
QH AQ = B ∈ C(n−1)×(n−1)
0 B
0T 0T
1 1
W = P =
0 S 0 V
P is fels®tianguláris és W is unitér lesz. Eddig volt egy hasonlósági transzformációnk Q-val, amivel idáig
eljutottunk, alkamazunk még egy hasonlósági transzformációt a W unitér mátrixszal:
0T bT 0T
1 λ1 1
W H QH AQW =
H
0 S 0 B 0 S
Megjegyzés. Ez nem konstruktív bizonyítás, mivel abból indulunk ki, hogy ismerünk egy sajátértéket. Rangszám
csökkentésre alkalmazható ha ismerjük λ1 -et.
A másik bizonyítás azt mondja ki, hogy elemi hasonlósági transzformációkkal triangulizálható egy mátrix.
8.2 Deníció. T −1 AT elemi hasonlósági transzformáció, ha T egy elemi permutációs mátrix (T = Pij )
vagy eliminációs mátrix ( Gj amit egy egységmátrixból úgy kapunk, hogy a j -ik oszlopába eliminációs konstan-
sokat írunk).
8.3 Tétel. Tetsz®leges A ∈ Cn×n elemi hasonlósági transzformációval triangulizálható
Tehát lehet mondani véges sok permutációs vagy eliminációs mátrixokat, hogy ezekkel egymás után hason-
lósági transzformációkat csinálunk és a végén fels®rianguláris mátrixot kapunk. Persze az is igaz, hogy amit a
végén kapunk fels® trianguláris mátrixot ahhoz A hasonló, tehát a f®átlójában sajátértékek lesznek.
Bizonyítás. Megint a mátrix rendje szerinti indukcióval bizonyítunk.
(i) ha n=1 akkor triviálisan igaz
MÁTRIXOK SPECIÁLIS ALAKRA TRANSZFORMÁLÁSA 39
(ii) tegyük fel, hogy az állítás igaz tetsz®leges n − 1-ed rend¶ mátrixra. Legyen A tetsz®leges n-ed rend¶
mátrix, λ1 a sajátértéke és x1 olyan hozzátartozó sajátvektor, hogy max |xi | = |xm |.† Az ötlet az, hogy
1≤i≤n
a sajátvektor komponenseit rendezük át és küszöböljük ki ahelyett, hogy A-t transzformálnánk. Ha az
m-dik komponens maximális abszolút érték¶, akkor P1m x1 esetén egy olyan vektort kapunk amiben fel
van cserélve az els® és az m-ik komponens, vagyis a maximális abszolútérték¶ komponens felkerül az els®
helyére. Most küszöböljük ki a másodiktól az összes komponenst egy eliminációs mátrixszal.
1
0
G1 P1m x1 = e1 = .
..
| {z }
w1
0
Mit kell ebbe a G1 -be írni? A bal fels® sarkába 1-et alá pedig a w1 -ben lév® komponensek −1 szereseit,
mert így lesznek a szorzatban 0-k.Egy Gi eliminációs mátrix inverze úgyan úgy néz ki, mint önmaga csak
az i-dik oszlopban az elemek el®jelét kell ez ellentetjére változtatni.
Nézzük meg, mi történik, ha ezekkel a mátrixokkal A-n végzünk hasonlósági transzformációt. Permutációs
mátrix inverze önmaga.
G1 P1m AP1m G−1
1
| {z }
C
Jelöljük ezt a mátrixot C -vel. Most is azt kell kihozni, hogy az els® oszlop elemei: λ1 és alatta 0-k. Ha
T −1 AT elemi hasonlósági transzformáció, akkor T AT −1 is az.
Ce1 = G1 P1m AP1m G−1 G1 P1m x1
| 1{z }
I
= G1 P1m A P1m P1m x1 = G1 P1m Ax1
| {z }
I
= G1 P1m λ1 x1 = λ1 G1 P1m x1 = λe1
Tehát most már lehet alkalmazni az indukciót.
Megint levágjuk az els® sort és az els® oszlopot és amit kapunk arra alkalmazzuk az indukciós feltevést.
C -t állítsuk el® a következ® formában:
dT
λ1
F ∈ C(n−1)×(n−1)
C=
0
F
Erre az F -re alkalmazhatjuk az indukciós feltevést, tehát van hozzá véges sok trianguláris transzformáció
ami ®t fels® trianguláris alakra hozza. Így ha F helyett a
Ts−1 . . . T2−1 T1−1 F T1 T2 . . . Ts
alkalmazzuk, akkor egy fels® trianguláris W mátrixot kapunk. Legyen
0T
1
K=
0
T
0T dT 0T
1 λ1 1
K −1 CK =
=
0 −1
T 0 F 0 T
† ezt el lehet érni hiszen ha nem teljesül a feltétel, akkor itt is lehet normálni. Megkeressük a maximális abszolút érték¶
komponensét és ennek az értéknek a reciprokával megszorozzuk a vektor összes komponensét és akkor már olyan vektort kapunk
amire ez a feltétel teljesül. Ez az eredetinek (egy nem 0) konstansszorosa, tehát sajátvektor marad.
MÁTRIXOK SPECIÁLIS ALAKRA TRANSZFORMÁLÁSA 40
λ1 ...
= K −1 G1 P1m AP1m G−1 K
= 1
0 W
Ezzel a transzformáció sorozattal most egy fels® trianguláris mátrixot kaptunk. Az indukció megmutatta,
hogy kaphatunk egy fels® triangulárist, de több volt az állításban, az volt, hogy véges sok elemi hasonlósági
transzformációval kell kapni fels® trianguláris mátrixot. Azonban, ha veszünk egy P elemi permutációs
mátrixot vagy egy eliminációs mátrixot és a következ® módon kiegészítjük: ( 10 0P ) akkor újra permutációs
T
Ebb®l már következik, hogy λj > 0, tehát ha az A pozitív denit akkor minden sajátértéke pozitív. Megfordítva
ha azt tudjuk, hogy az A szimmetrikus mátrix és minden sajátértéke pozitív, akkor ® pozitív denit. Ezt, hogy
lehetne megcsinálni?
Vissza kell térnünk a Schur normálforma tételhez, tudjuk, hogy U H AU = D. Ezt az algebrában F®tengely-
tételként szokták tisztelni és a következ®képpen szokták felírni:QT AQ = D, ebb®l
√ A-t fejezükk ki, A = QDQ
T
és
√ √ha behehettesítünk, tesz®leges x vektorra irhatjuk: x T
QDQ T
x tekintsük D -t a következ®képpen
√ √ D =
D D amit megkaphatunk a diaginálisban lév® elemek négyzetgyökeként. xT QDQT x = xT Q D DQT x =
| {z } | {z }
yT y
y y > 0 hiszen y 6= 0, mivel x 6= 0 volt a Q ortonormált mátrix volt ami mellesleg reguláris is és ha egy reguláris
T
√
mátrixal szorzok egy nem 0 vektort akkor nyilván csak nem 0 eredmény lehet és persze D is reguláris.
Megjegyzés. Most már tudunk néhány ekvivalens állítást a pozitív denit mátrixokra:
• Az A az pozitív denit, ha minden sajátértéke pozitív.
• Az A az pozitív denit, akkor és csak akkor ha van neki valós Cholesky felbontása. Olyan valós Cholesky
felbontása, hogy a f®átlóban pozitív számok vannak.
MÁTRIXOK SPECIÁLIS ALAKRA TRANSZFORMÁLÁSA 41
egyszer¶bb alakra hozni az A-t, úgy hogy a végén Ak valamilyen egyszer¶bb mátrix lenne. Ha az eddigieket arra
akarnánk használni, hogy meghatározzuk a sajátértékeket akkor baj van, ha viszont ismerjük a sajátértékeket
akkor lehet véges sok transzformációt csinálni úgy, hogy a végén vagy diagonális vagy fels® trianguláris mátrixot
kapunk. A gyakorlati sajátérték számítások úgy néznek ki, hogy végtelen sorozatát képezzük a mátrixoknak és
határértéknek kell lenni valamilyen egyszer¶ mátrixnak.
Fejezet 9
Vektornormák, mátrixnormák
Tulajdonképpen két lehet®ség van az egyik az amelyiket most követünk, hogy vektornormákat deniálunk el®ször
és majd azok segítségével különböz® mátrixnormákat, de lehetne fordítva is. A mátrixoknál be fogunk vezetni
egy plusz tulajdonságot a mátrixok szorzatára, ami nem minden könyvben szerepel. Vektornormák szorza-
tára nem érdemes tulajdonságot bevezetni, mivel szorzatként már nem vektort kapunk eredményül (vektoron
oszlopvektort értve).
9.1 Vektornormák
9.1 Deníció. ||.|| vektornorma egy olyan leképezés, amely Rn → R képezi le, ha tetsz®leges x, y ∈ Rn -re és
α ∈ R-re teljesülnek a következ®k:
(i) ||x|| > 0, ha x nem a 0 vetktor
(ii) ||αx|| = |α| ||x||
(iii) ||x + y|| ≤ ||x|| + ||y|| (háromszög egyenl®tlenség)
Megjegyzés. Van egy másik háromszög egyenl®tlenség is, ami úgy szól, hogy két odal különbsége mindig kisebb,
mint a harmadik ennek vektoros megfelel®je:
(iv) | ||x|| − ||y|| | ≤ ||x − y|| (a "másik" háromszög egyenl®tlenség)
(iv) következik (iii)-ból:
||x|| = ||(x − y) + y|| ≤ ||x − y|| + ||y||
Megjegyzés. A 0 vektor normája a 0 szám (mivel (ii) alapján ||00|| = |0| ||0|| = 0).
42
MÁTRIXNORMÁK RN ×N -BEN 43
Megjegyzés. A (iii)-ban megadott egyenl®tlenséget lehet általánosítani véges sok tag összegére is indkucióval:
n n
tetsz®leges n ∈ N-re
X X
|| xj || ≤ ||xj ||
j=1 j=1
• ||.||1 -át szokták Manhattan-normának is nevezni, amikor a komponenseket összeadogatjuk abszolult érték-
ben az szemléletesen az a távolság fogalom amikor két dimenzóban csak függ®legesen és vízszintesen
mozoghatánk úgy mint ha egy négyzetrácsos utcahálózaton jutnánk el valahova.
a valós euklídészi térben a vektor hossza vagy más néven két pont távolsága (a kezd® és a végpont
• ||.||2
távolsága)
• ||x||∞ = limp→∞ ||x||p (ezt azonban be kellene bizonyítani), úgy kell értelmezni, hogy ha az x vektor
rögzítjük és vesszük p-knek olyan sorozatát, ami végtelenhez tart és minden egyes p-re kiszámoljuk az
x vektornak a p-normáját, akkor valós számok egy sorozatát kapjuk és a végtelen norma ennek a valós
számsorozatnak a határértékével lesz egyenl®.
Megjegyzés. valóban vektornorma. Ahol gond lehet az a háromszög egyenl®tlenség1 (az els® két tuladon-
||.||p
ság igazolása elég triviális), például a ||.||2 -nál a Cauchy-Bunyakovszkij-Schwarz-féle egyenl®tlenség kell az
igazolásához.
Amikor már adott egy vektornorma, akkor abból még lehet újabb normákat konstruálni a következ® módon:
9.3 Deníció. Ha adott a ||.|| vektornorma és a T reguláris mátrix, akkor deniáljuk ||x||T def
= ||T x|| normát
(és ez tényleg vektornorma).
Ezzel már egyetlen egy vektornormából is lehetne végtelen sok vektornormát csinálni attól függ®en, hogy
milyen milyen mátrixokat veszünk, ha különböz® mátrixokat veszünk, akkor különböz® normák lesznek. Mikor
különböz® két norma? Akkor különböz®, ha van legalább egy olyan vektor, amelyben az egyiknek a normája
nem ugyan olyan, mint a másiké.
Megjegyzés. Amit idáig leírtunk az a komlex vektorok esetén is igaz.
Hogyan vezethetünk be mátrixnormákat?
Származtatott mátrixnormák
9.6 Deníció. Adott vektornorma esetén a bel®le származtatott mátrixnormát így deniáljuk: tetsz®leges
A ∈ Rn×n mátrixra:
def ||Ax||
||A|| = sup
x6=0 ||x||
Az hogy ez tényleg mátrixnorma be kellene bizonyítani, most csak kijelentjük, hogy ezt tényleg mátrixnorma.
9.7 Állítás. A 9.6 denícióban valóban mátrixnormát kapunk.
9.8 Állítás.
||Ax|| 1. ||Ax|| 2.
||A|| = sup = max = max ||Ax||
x6=0 ||x|| x6=0 ||x|| ||x||=1
Az, hogy az 1. egyenl®ség igaz nem olyan triviális. Itt arról van szó, hogy van a valós számoknak egy
részhalmaza ami ilyen hányadosokként kijön, azt állítottuk, hogy van supremuma2 . Attól hogy van supremuma
egy számhalmaznak nem olyan biztos, hogy van maximuma, ha van maximum, akkor az a supremum. A 2.
egyenl®séget is bizonyítani kell.
Miért szokták operátor normaként is emlegetni ezt a deníciót? Azért mert ha vesszük a n dimenziós
lineáris teret, akkor tetsz®leges rögzített mátrixra mondhatjuk, hogy az egy leképezést indukál (x → Ax),
ilyen értelemben operátor az A. Leképezés normája valami olyasmi, hogy maximálisan hányszorosára tud
megnyújtani egy leképezés egy nem 0 vektort.
2 supremum, legkisebb fels® korlát: ha A felülr®l korlátos számhalmaz, akkor fels® korlátai között létezik legkisebb.
MÁTRIXNORMÁK RN ×N -BEN 45
Hogy lehet egy adott vektor irányába mutató egységvektort megadni? Van valamilyen x vektor, akkor x
vektorhoz hozzá lehet rendelni az ® irányába mutató egységvektort xe = ||x||
1
||x||, az igaz, hogy egységvektor
mivel ebben a normában 1 a normája (||xe || = 1). A hagyományos értelemben vett egységvektorok esetén, ei -k
is minden normában 1 lesz.
9.9 Állítás.
n
1.
"oszlopnorma"
X
||A||1 = max |aij |
1≤j≤n
i=1
n
2.
"sornorma"
X
||A||∞ = max |aij |
1≤i≤n
j=1
Az 1.-t úgy számoljuk, hogy veszünk valamilyen rögzített j -t, rögzített j mellett a j -ik oszlop elemeinek
abszolultértékes összegét vesszük, és az oszlop összegeknek vesszük a maximumát. A 2.-nál megcseréljük a
sorok oszlopok szerepét (sor összegek maximuma).
9.10 Deníció. %(A) = max |λi |
1≤i≤n
az A mátrix spektrálsugara.
Tehát a spektrálsugár a sajátértékek abszolút értékének a maximuma. λi -k (a sajátértékek) a karakter-
isztikus polinom gyökei a komplex számsíkon. Azért nevezik spektrálsugárnak a 9.10 denícióban megadott
fogalmat, mivel szemléletesen megfelel a legkisebb sugarú olyan körnek a komplex számsíkon amely tartalmazza
az összes sajátértéket.
√
||A||2 = AT A "spektrálnorma"
Be lehet látni direkt számolással, hogy mindkett® mátrixnorma és azt is be lehet látni, hogy egyik sem
származtatott. Minden származtatott normánál az egység mátrix normája 1. Itt látszik, hogy nem 1 az
egységmátrix
√ normája. (i)-nél az összes négyzetösszegének a négyzetgyökét kell venni, ami egységmátrik esetén
n , (ii)-nél pedig az n-es szorzó miatt nem lesz az egységmátrix 1 (kivéve az egy dimenziós esetet).
Meglehetne még ezeket a normákat is sokszorozni. Ha van egy reguláris mátrixnormánk és egy reguláris
mátrixunk, akkor hogyan lehet az ahhoz tartozó újabb normát deniálni?
9.12 Kérdés. Mi lesz az ||A||T = supx6=0 ||Ax|| T
||x||T =?
Ennek a következménye, hogy minden vektornormához megadható vele kompatibilis mátrixnorma (például
amit bel® le származtatunk, de lehet több ilyen is).
(ii) Tetsz®leges mátrixnormához megadható vele kompatibilis vektornorma. Deniáljunk a következ®képpen
egy vektornormát: ||x||v def
= ||x 0 . . 0} ||m , be lehet bizonyítani, hogy így tényleg vektornormát kapunk.
| .{z
n-1 db
Ez a példa nem túl jó (hiszen jelen esetben ismerjük a sajátértékeket mivel fels® trianguláris mátrixról van szó),
ahhoz képest, hogy %(A) = 1 ezek nem túl jó korlátok.
Bizonyítás. Legyen adott A és legyen adott ||.||m , legyen ||λl || = %(A) (1 ≤ l ≤ n) (azaz λl a legnagyobb
abszolút érték¶ sajátérték) és Axl = λl xl (tehát a λl -hez tartozó egyik sajátvektor az xl ). Most vegyünk ezzel
a mátrixnormával kompatibilis vektornormát, legyen ||.||v az adott mátrixnormával kompatibilis vektornorma,
ekkor a következ®t lehet csinálni:
|λl | ||xl ||v = ||λl xl ||v = ||Axl ||v ≤ ||A||m ||xl ||v
Ha a két szélét nézzük és leosztunk ||xl ||v -val (megtehetjük mivel ||xl || > 0), akkor megkapjuk, hogy |λl | ≤
||A||m ,
amib®l már következik a tétel.
Elég belátni, hogy tetsz®leges vektornorma, ekvivalens egy darab rögzítt vektornormával (például ||.||1 -val).
9.20 Deníció. A ||.|| és ||.||∗ mátrixnormák ekvivalensek, ha léteznek olyan csak a két normától függ®
γ∗ , δ∗ kostansok, hogy tetsz®leges A ∈ Rn×n -re
γ∗ ||A||∗ ≤ ||A|| ≤ δ∗ ||A||∗
Ezután az állítás után már mindegy, hogy melyik deníciót használjuk. Bizonyos értelemben a második
a kényelmesebb, mivel az els®nél a vektorsorozat konvergenciáját n db valós szám sorozat konvergenciájára
vezettük vissza. A másodiknál 1 db valós számsorozatot kell csak nézni.
10.4 Állítás.
(i) Ha az xk → x∗ és yk → y∗ , akkor xk + yk → x∗ + y∗
(ii) Ha az xk → x∗ és αk → α∗ , akkor αk xk → α∗ x∗
Bizonyítás.
48
MÁTRIXSOROZATOK 49
(ii)
0 ≤ ||α∗ x∗ − (αk xk )|| = ||(α∗ x∗ − α∗ xk ) + (α∗ xk − αk xk )|| ≤ |α∗ | ||x∗ − xk || + |α∗ − αk | ||xk || → 0
korlátos
| {z } | {z } | {z }
↓ ↓
0 0
10.6 Alkalmazás. Lineáris egyenletrendszerek közelít® megoldásinál, közelít® megoldások sorozatát fogjuk
képezni és az lesz a kérdés, hogy ez a sorozat konvergál-e a megoldáshoz.
10.2 Mátrixsorozatok
10.7 Deníció. Az {Ak } ∈ Rn×n mátrixsorozat konvergens, ha megadható olyan A∗ mátrix, amellyel
= a∗ij teljesül bármely rögzített 1 ≤ i, j ≤ n-re
(k)
limk→∞ aij
Tehát konvergens egy mátrixsorozat, ha komponensenként konvergens. Így tulajdonképpen n2 darab valós
számsorozat konvergenciáját vizsgáljuk.
10.8 Deníció. Az {Ak } mátrixsorozat konvergens, ha van olyan A∗ mátrix amelyre limk→∞ ||A∗ −Ak || = 0
(Ez a deníció is független a választott mátrixnormától a normák ekvivalenciája miatt.)
Kölcsönösen egyértelm¶ leképéezés lehet megadni Rn×n ⇔ Rn között, úgy hogy valamilyen x sorrendben
2
lírjuk az n2 komponenst. Az látszik, hogy ha tekintünk egy mátrixsorozatot az akkor és csak akkor lesz
konvergens, ha mint vektorsorozat konvergens. Ez alapján a két deníció a mátrixsorozatoknál is ekvivalens.
Viszont a mátrix gy¶r¶ben vannak olyan m¶veletek melyek a vektorok esetében nem voltak.
10.9 Állítás. Tetsz®leges {Ak }, {Bk } mátrixsorozatra és α valós számra
(i) Ha az Ak → A∗ és Bk → B ∗ , akkor Ak + Bk → A∗ + B ∗
(ii) Ha az Ak → A∗ , akkor αk Ak → α∗ A∗
(iii) Ha az Ak → A∗ és Bk → B ∗ , akkor Ak Bk → A∗ B ∗
Bizonyítás.
(iii) ⇒(ii) αk helyett vehetünk egy olyan diagonális mátrixot melynek a f®átlójában végig αk komponensek
szerepelnek.
és innen az els® két állítás segítségével adódik a bizonyítás. Ehhez azonban be kell bizonyítani (i)-t és (ii)-t.
Bizonyítás. (i)-t l szerinti teljes indukcióval bizonyítjuk. Ha feltesszük, hogy l − 1-re igaz, akkor
Al xj = A(Al−1 xj ) = A(λl−1 l−1 l−1 l
j xj ) = λj Axj = λj λj xj = λj xj
sugár
| {z }
10.17 Példa.
−2 1 3
A = 1 1 −5
−2 1 3
A tétel köröket deniál a komplex síkon. A diagonális elemek lesznek a körök középpontjai (x = −2, x = 1,
x = 3)és a diagonálison kívül lev® elemek abszolút értékes összege lesz a kör sugara (−2 körül 4, 1 körül 6, 3
körül 3 sugarú kört kapunk). A tétel az állítja, hogy az összes sajátérték benne van a körök egyesítésében.
Bizonyítás. Legyen λj tetsz®leges sajátérték, az hogy benne van ebben az egyesítésben úgy is kifejezhet®, hogy
tetsz®leges j -hez van olyan i, hogy a λj benne van a ki -ben. Ekkor a Bj def
= A − λj I mátrix szinguláris (ez a
sajátérték deníciója). A diagonális dominanciánál bebizonyítottuk, hogy ha egy mátrix diagonális domináns,
akkor reguláris. Ezt az állítást meg is lehet fordítani azaz ha egy mátrix szinguláris akkor nem diagonális
domináns. Ezért Bj nem diagonális domináns. Azaz van olyan i (1 ≤ i ≤ n) hogy:
n
X n
X
|bii | ≤ |bij | ⇔ |aii − λj | ≤ |aij |
j=1 j=1
j6=i j6=i
Fejezet 11
Tetsz®leges A mátrixnak van Schur-normálalakja. Tehát tetsz®leges A mátrixhoz van olyan Q unitér mátrix
hogy:
λ1 r12 . . . r1n
0 λ2 . . .
..
.
H
Q AQ = R = .
.. . .
. . . . rn−1,n
0 ... 0 λn
Bizonyos esetekben lehet olyat is csinálni, hogy:
λ1 0 ... 0
... ..
.
0 λ2
T −1 AT = D =
.
.. ... ...
0
0 ... 0 λn
Ilyet akkor és csak akkor lehet csinálni, ha az A mátrixnak van egy nem elfajult sajátvektor rendszere, tehát van
n darab lineárisan független sajátvektora. Ha numerikusan akarunk sajátértékeket meghatározni, akkor a valam-
ilyen el®bb említett formát kellene elérni. A baj az, hogy ezek bizonyításánál felhasználtuk a sajátértékeket.
Azért sem sikerülhet, hogy tesz®leges mátrixra véges sok hasonlósági transzformációval a fent említett két alak
valamelyikét elérjük, mert a sajátértékek megoldása az algebrai egyenletek meghatározásával ekvivalens feladat
amir®l pedig tudjuk, hogy algoritmikus úton nem meghatározható.
Tehát valamilyen közelít® sajátérték számítást csinálunk, de a minta ez lenne. Két irányba lehet általánosí-
tani, az egyik az lenne, hogy nem pont ilyen alakokat próbálnánk elérni, hanem ehhez hasonlót, ilyen lehet a
fels® Hessenberg alak. Tehát valami ilyesmit próbálunk, hogy:
h11 h12 ... ... h1n
h21 h22 ... ... h2n
... ... ..
T −1 AT = H = .
0
. ... ... ... ..
..
.
0 ... 0 hn,n−1 hnn
Kérdés lehet, hogy tesz®leges A mátrixot tudunk-e ilyen alakra hozni (a sajátértékek ismerete nélkül véges sok
lépésben)? Ilyet tudunk csinálni. Miért akarnánk Hessenberg alakra hozni hiszen a H -nak semmit sem tudunk
a sajátértékeir®l csak azt, hogy ugyan azok a H és az A sajátértékei? Azért szokták Hessenberg alakra hozni a
mátrixot mivel, ilyen alakra a kés®bbi algoritmusok könnyebben alkalmazhatók.
Egy másik lehet®ség lesz az, hogy megpróbáljuk az A mátrixot tridiagonális alakra hozni szintén hasonlósági
52
HATVÁNY MÓDSZER 53
transzformációval.
s11 s12 0 ... 0
... ... ..
.
s21 s22
... ... ...
−1
T AT = S = 0
0
. ... ... ...
..
sn−1,n
0 ... 0 sn,n−1 snn
A tridiagonális alakra hozást csak akkor szokták ajánlani, ha az A mátrix szimmetrikus volt és ilyenkor meg
lehet mutatni, hogy S szimmetrikus lesz. Ennek is csak annyi az el®nye, hogy egy ilyen mátrixra mégkönnyebb
alkalmazni a kés®bb bemutatandó algoritmusokat. Egy régi algoritmus a következ®
Legyen A szimmetrikus, ekkor van ortonormált sajátvektor rendszere {x1 , x2 , . . . , xk }. Mivel ez egy ortonor-
mált rendszer ezért bázist is alkot a vektortérben térben úgy hogy akármilyen kezd®vektorból indultunk ki azt
fel lehet írni ezek lineáris kombinációjaként.
v0 = α1 x1 + · · · + αn xn
vk = Ak v 0 = α1 Ak x1 + · · · αn Ak xn = α1 λk1 x1 + · · · + αn λkn xn
Tudjuk azt, hogy a vk -t így fel lehet írni, de nem ismerjük se az α-t se a λ-t se az x-t. A vicc az benne, hogy
nem is kell ismerni mivel abból, hogy van egy ilyen el®állítása lehet valamit kihozni a sajátértékekre pusztán
úgy, hogy a v sorozatot nézzük.
Vegyük a
v Tk v k = (α1 λk1 x1 + · · · + αn λkn xn )T (α1 λk1 x1 + · · · + αn λkn xn )-t.
Tudjuk azt, hogy az xi -k ortonormált rendszert alkottak. Két n tagú összeg van ezért mindent mindennel össze
kellene szorozni, de mivel ortonormált rendszert alkottak ezért ha különböz® index¶eket veszünk ki az els®b®l,
mint a másodikból akkor mindig 0-t kapunk. Vagyis ténylegesen csak a következ® szorzatokat kell felírni.
= α12 λ2k T 2 2k T
1 x1 x1 + · · · + αn λn xn xn
| {z } | {z }
1 1
MÁTRIXOK SPECIÁLIS ALAKRA TRANSZFORMÁLÁSA 54
Ha képezzük a vektorsorozatot, akkor szimetrikus mátrix esetén az el®z® alakban felírható a vTk vk szorzat. Ne
csak ezt képezzük hanem vegyünk egy olyan hányadost, hogy:
v Tk+1 v k+1 α12 λ2k+2 + · · · + αn2 λ2k+2
n
=
v Tk v k α12 λ2k + · · · + αn2 λ2k
n
2k+2 2k+2
λ2k+2
1 (α12 + α22 λλ21 + · · · + αn2 λλn1 )
= 2k 2k
λ2k 2 2 λ2 + · · · + αn2 λλn1
1 (α1 + α2 λ1 )
2k+2 2k+2
α12 + α22 λλ21 + · · · + αn2 λλn1
= λ21 2k 2k → λ1
2
2 2 λ2 λ
α1 + α2 λ1 + · · · + αn2 λ1 n
ha |λ1 | > |λ2 | és α1 6= 0. Tehát a hatvány módszernél a legnagyobb abszolút érték¶ sajátértékere kapunk egy
ilyen képletet.
Azért kell a G1 Pπ(1),2 inverzével jobbról is szorozni mivel itt hasonlósági transzformációval dolgozunk (Pπ(1),2 -
nek saját maga az inverze). G1 Pπ(1),2 A0 -ról már a Gauss elminációnál beláttuk, hogy a kívánt formát hozza
létere (jelen setben az els® oszlopban a második sortól kinulláz minden elemet), azt kell még belátni, hogy
1 -vel való jobbról szorzás nem rontja el az eddigi eredményt.Ha jobbról szorzunk a Pπ(1),2 permutációs
Pπ(1),2 G−1
mátrixszal, akkor két oszlopot cserél meg, pontosabban a π(1) index¶t a másodikkal, viszont π(1) értéke kett®
vagy annál nagyobb tehát semmi baj sem lesz az els® oszlopra nézve. Ha balról szorzunk G1 -el az azt jelenti,
hogy egy bizonyos sor konstansszorosait hozzáadjuk a többi sorhoz, G1 inverzét pedig úgy kapjuk, hogy egy
oszlopban az elemek el®jelét meg kell változtatni. Ha G1 -el jobbról szorzunk, akkor egy bizonyos oszlophoz
adjuk hozzá a többi oszlop konstansszorosait, jelen esetben a másodikhoz, tehát az els® oszlop még mindig
Hessenberg alakú marad.
Lehetne ilyet csinálni ortogonális mátrixokkal is, csak azzal az a baj, hogy satbilabb algoritmus, de több a
m¶velet igénye. A másik módszer, hogy hasonló mátrixok sorozatát generáljuk úgy, hogy reménykedünk abban,
hogy a határértéke az el®adás elején említett R vagy D.
A következ® {Ak } mátrix sorozatot képezzük
(i) amenyiben adott az Ak mátrixunk akkor azt bontsuk fel Ak = Mk Rk alakra, ahol Rk fels® trianguláris,
Mk reguláris
(ii) | {z }
−1
Ak = (M1 M2 . . . Mk−1 )−1 A1 (M1 M2 . . . Mk−1 ) = Tk−1 A1 Tk−1
Tk−1
11.2.1 LR-transzformáció
(i) Ak−1 = Lk−1 Rk−1
(ii) Ak = Rk−1 Lk−1
Kérdés az, hogy ez a sorozat létezik-e minden k-ra és egyértelm¶-e? Ha az A1 reguláris, akkor az LR felbontása
egyértelm¶ tehát utánna is mind egyértelm¶ lesz, így az egyértelm¶séggel nincs baj (hiszen hasonlo mátrixokat
csinálunk).
Az egzisztenciával baj van mivel nem tudjuk azt garantálni, hogy minden k-ra létezni fog ilyen felbontás.
Magára az A1 -re lehetne ilyen feltételt mondani, ha A1 minden f®minora 0-tól különböz® akkor létezik neki LR
felbontása, de nincs olyan értélmes feltétel ami az egzisztenciát garantálná, még reguláris A1 mellet is bármely
k-nál megszakadhat a felbontás.
Elegend® feltételt lehet mondani arra, hogy az Ak kovergens legyen és a határértéke fels®trianguláris legyen.
Elegend® feltétel a következ®:
11.3 Tétel. Ha A1 sajátértékeire |λ1 | > |λ2 | · · · |λn | > 01 , létezik minden k-ra Ak , az felírásban szerepl® X −1 és
X mátrixok mindegyikének létezik LR felbontása, akkor Ak olyan fels®trianguláris mátrixhoz konvergál melynek
a f®átlójában A1 sajátértékei állnak.
Ha minden sajátérték különböz® akkor diagonizálható.
11.2.2 QR-transzformáció
(i) Ak−1 = Qk−1 Rk−1
(ii) Ak = Rk−1 Qk−1
Az els® el®nye a QR transzformációnak, hogy mindig alkalmazható, mivel tetsz®leges mátrixnak létezik QR
felbontása (mi a bizonyításánál feltettük, hogy a kiindulási mátrix reguláris). Másik el®nye, hogy a szimmetriát
meg®rzi:
Ak = Q−1 Ak−1 Qk−1 = QTk−1 Ak−1 Qk−1
Ebb®l pedig már lehet indukcióval bizonyítani a szimmetria meg®rzését.
A konvergenciához is viszonylag egyszer¶bb feltételek kellenek, és a numerikus stabilitása is jobb (a kerekítési
hiba nem annyira vészes).
11.2.3 RT R-transzformáció
(i) Ak−1 = Rk−1
T
Rk−1
1 ez a feltétel azt is jelenti, hogy A -nek van n darab különböz® sajátértéke s®t azt is, hogy A reguláris, mivel a legkisebb
1 1
abszolútérték¶ sajátérték is nagyobb mint 0
MÁTRIXOK SPECIÁLIS ALAKRA TRANSZFORMÁLÁSA 56
Ez a felbontás csak szimmetrikus mátrixoknál jöhet szóba. Csak akkor érdemes alkalmazni, ha valós a Cholesky-
felbontás, ez pedig akkor teljesül, ha A1 pozitív denit és ekkor minden Ak pozitív denit lesz. Ha az A1
pozitív denit, akkor diagonális domináns mátrixhoz konvergál a sorozat (tehát a f®átlóban a sajátértékeket
tartalmazza).
Egy egy lépés számítása O(n3 ) mindhárom módszernél, ha viszont el®tte tridiagonális alakra hozzuk a
mátrixot akkor már csak O(n) a m¶veletigény, fels® Hessenbergnél O(n2 ). Tehát ezeknél az algoritmus csalá-
doknál érdemes el®tte speciális alakra hozni a mátrixot.
Fejezet 12
57
ITERÁCIÓS MÓDSZEREK BEVEZETÉSE 58
12.4 Állítás. Tetsz®leges x0 mellet akkor és csak akkor teljesül xk → x∗ , ha %(B) < 1
(Másként: a 12.3 módszer akkor és csak akkor globálisan konvergens, ha %(B) < 1.)
Bizonyítás. ⇐ Legyen %(B) < 1, ekkor biztosan van olyan k.k mátrixnorma, amelyre ||B|| < 1. (12.4) alapján
bármely x0 kezd®vektor mellett a következ® teljesül:
kek k = kB k e0 k ≤ kB k kke0 || ≤ kBkk ke0 || → 0
| {z }
→0
kBkk 0-hoz tart hiszen B 1-nél kisebb. Ezzel csináltunk egy olyan fels®korlátját a hibavektornak, amely
0-hoz tart.
⇒ Ha globálisan konvergens az iteráció, akkor %(B)-nek kissebbnek kell lennie, mint 1. Ennek az iga-
zolásához indirekt bizonyítást alkalmazunk. Tegyük fel hogy, 12.3 módszer globálisan konvergens, de van olyan
λ sajátértéke B -nek, hogy |λ| > 1. Mivel feltettük, hogy globálisan konvergens a módszer ezért mindegy, hogy
milyen értéket választunk kezd®értéknek mindig konvergálni fog. Válasszuk úgy a kezd®rtéket, hogy a kezd®
hiba (e0 ) pontosan egy λ-hoz tartozó sajátvektor legyen. Ekkor viszont ellentmondáshoz jutunk:
0 ← kek k = kB k e0 k = kλk e0 k = |λ|k ke0 k 9 0
(iii)-at és (iv)-et eektíven ki lehet számolni. Mivel mindegy, hogy milyen x0 -ból indulunk ezért kényelme-
sebb ha b-t választjuk x0 -nak.
(v) kek k ≤ kBkk
1−kBk kbk
Ha olyan esetre nézzük (v)-t amikor ||B|| < 1, akkor ez egy jó fesl® hibakorlát lesz mivel 0-hoz tart. Végig igaz
volt, hogy a vizsgált vektornorma és mátrixnorma kompatibilis volt egymással.
Egy iterációs módszert egyértelm¶en meghatároz a B iterációs mátrix és a b iterációs vektor. Hogyan lehet
ilyen iterációs módszert csinálni? Reguláris szétvágással több iterációs módszert is el® lehet állítani.
Tehát minden reguláris szétvágás esetén tudunk csinálni egy iterációs módszert.
Mik a legyakrabban használt reguláris szétvágások? Vegyük az A = D − L − R reguláris szétvágását:
a11 0 ... 0 0 0 ... 0 0 a12 ... a1n
... .. ... .. ... ..
. . .
0 a22 L = − a22 0 R = − 0 0
.
D=
... ... . ... ... . . ...
.. .. .. ..
0 0 an−1,n
0 ... 0 ann an1 . . . an,n−1 0 0 ... 0 0
1
BJ(ω) = T −1 S = ωD−1 (L + R + ( − 1)D) = ω(L̂ + R̂) + (1 − ω)I
ω
bJ(ω) = T −1 a = ωD−1 a
Ha az ω paramétert 1-nek választjuk, akkor éppen a Jacobbi-iterációt kapjuk, tulajdonképpen a Jacobbi-
módszer a J(ω)-módszer speciális esete.
Az ||L̂|| + ||R̂|| < 1 feltételb®l következik, hogy ||ek || szorzója 1-nél kisebb szám, tehát a hiba 0-hoz tart.
Fejezet 13
Ha a J-módszerr®l tudjuk, hogy konvergál a megoldáshoz akkor, hogy jön ki, hogy a J(ω)-módszer is konvergál?
Jelöljük a J(ω)-módszer sajátértékeit µ1 , µ2 , . . . , µn -el. Mikor igaz, hogy %(BJ ) < max1≤i≤n |µi | < 1?
Tekintsük a P (x) def
= ωx + 1 − ω -t, ekkor P (BJ ) = BJ(ω) és µ1 = P (λ1 ), µ2 = P (λ2 ), . . . , µn = P (λn ). λi -re
van fels®korlátunk, mit tudunk ez alapján µi -kr®l?
|µi | = |p(λi )| = |ωλi + 1 − ω| ≤ |ωλi | + |1 − ω|
1.
= |ω| |λi | + |1 − ω| = ω |λi | + 1 − ω < ω1 + 1 − ω = 1
1. azért lehetséges mivel ω-ra kiötöttük, hogy 0 és 1 közé esik ezért 1 − ω pozitív lesz ezért elhagyhatjuk az
abszolút értéket.
Olyan tételeket mondunk ki, hogy ha az eredeti mátrix ilyen és ilyen tulajdonságú, akkor biztosak lehetünk
benne, hogy ez és ez a módszer konvergens.
62
II/14-ES TÉTEL 63
(13.1) ekvivalens (13.2)-vel, hiszen ha (13.2)-t leosztjuk |aii |-vel, akkor megkapjuk (13.1)-t1 . Az ekvivalenciából
látszik, hogy ha az A diagonális domináns, akkor ||BJ ||∞ < 1 és ha ||BJ ||∞ < 1, akkor A diagonális domináns.
Bizonyítás. (13.2 tétel bizonyítása) J-módszerre az el®z® állítás miatt igaz a tétel.
S-módszerre: a 12.13-as tételben levezettük, hogy ek+1 = L̂ek+1 + R̂ek . Az i-dik komponens abszolút értéke
a háromszög egyenl®tlenség után:
i−1 n
(k+1) (k+1) (k)
X X
|ei |≤ |bij ||ej |+ |bij ||ej |
j=1 j=i+1
i = m-et rögzítjük
m−1 n
(k+1) (k)
X X
||ek+1 ||∞ = |ek+1
m |≤ |bmj ||ej |+ |bmj ||ej |
j=1 j=m+1
Alkalmazzuk azt az ismert azonosságot, hogy a mátrix nyoma megegyezik a sajátértékek összegével. BJ(ω)
sajátértékeit jelöljük µi -vel. BJ(ω) f®átlójában végig 1 − ω van, ami a BJ(ω) deníciójából következik (BJ(ω) =
ω(L̂ + R̂) + (1 − ωI))
n
X
µi = tr(BJ(ω) ) = n(1 − ω)
i=1
n
X
n(1 − ω) = µi
i=1
⇓
n
X
n|1 − ω| ≤ |µi | ≤ n%(BJ(ω) )
i=1
|1 − ω| ≤ %(BJ(ω) )
S(ω) esetén az állítás a következ®: jelelölje λ1 , λ2 , . . . , λn a BS(ω) sajátértékeit. |1 − ω| ≤ %(BS(ω) )-t kell
bizonyítani.
PB (λ) = det(BS(ω) − λI)
BS(ω)
z }| {
−1
= det((I − ω L̂) (ω R̂ + (1 − ω)I) −λI)
= det((I − ω L̂)−1 ) det(ω R̂ + (1 − ω)I − λ(I − ω L̂))
| {z }
1
mivel a I − ωL̂-t vizsgálva láthajuk, hogy L̂ szigorúan alsótrianguláris (a f®tlójában 0-k vannak), I − ωL̂ egy
alsótrianguláris mátrix amelynek a f®átlójában csupa 1-es áll. Az invertálás után is csupa 1-es áll a f®tlóban,
így a determinánsa egy lesz.
A sajátértékek szorzata megegyezik a determináns értékével. A λ = 0 értéket behelyettesítve a baloldalnál
azt kapjuk, hogy a sajátértékek szorzata.
n
Y n
Y
λi = (1 − ω)n ⇒ |1 − ω|n = n
|λi | ≤ %(BS(ω) )
i=1 i=1
Bizonyítás. Az el®z®ek alapján elég belátni, hogy az A − B T AB is pozitív denit (hiszen akkor %(B) < 1 ).
Ekkor S = T − A és B = T −1 S = T −1 (T − A) = I − T −1 A:
A − B T AB = A − (I − T −1 A)T A(I − T −1 A) = A − (I − A(T −1 )T )(A − AT −1 A)
= A − (A − A(T −1 )T A − AT −1 A + A(T −1 )T AT −1 A)
= A(T −1 )T A + AT −1 A − A(T −1 )T AT −1 A
= (T −1 A)T A + AT −1 A − (T −1 A)T AT −1 A
= (T −1 A)T (A + T T T −1 A − AT −1 A)
= (T −1 A)T (T + T T − A)T −1 A) = (T −1 A)T (T T + T − A )(T −1 A)
| {z }
S
−1 T T −1
= (T A) (T + S)(T A)
Ha A pozitív denit, akkor tetsz®leges Z reguláris mátrixra B = Z T AZ is pozitív denit lesz és ez teljesül
mivel A = T − S p-reguláris szétvágás volt.
13.9 Tétel (Konvergencia-tétel). Ha az A mátrix pozitív denit
(i) a J-módszer konvergenciájához elegend®, ha a 2D − A mátrix is pozitív denit.
(ii) a J(ω)-módszer konvergenciájához elegend®, ha a ω2 D − A mátrix is pozitív denit.
(iii) az S-módszer mindig konvergens.
(iv) az S(ω)-módszer tetsz®leges 0 < ω < 2-re konvergens
A bizonyítás annyit jelent, hogy felírjuk rá a 4 módszerhez tartozó iterációs mátrixot és felírjuk rá a második
segédtételt.
Bizonyítás. (i) mivel T T + S = DT + D − A = 2D − A ezért, ha 2D − A pozitív denit, akkor T T + S is
pozitív denit tehát A = T − S p-reguláris szétvágás és az el®z® segédtétel miatt az iteráció konvergens.
(ii) T T + S = ( ω1 D)T + ω1 D − A = ω2 D − A
S A
z }| {
(iii) T + S = (D − L) + (D − L) − A = 2D − LT − L − (D − L − LT ) = D ez mindig pozitív denit, ha A
z }| {
T T
14.1 Tétel. Ha egy mátrix szimmetrikus, aii > 0 és diagonális domináns, akkor pozitív denit.
xk+1 = Bxk + b Ax = a
ek = xk − x∗
14.1 Utóiteráció
Legyen Â−1 = A−1
xk+1 = xk + Â−1 rk
Ha így számoljuk, akkor egy-egy lépéshez csak O(n2 ) m¶velet kell és így az egészhez is csak O(n2 ) m¶velet kell.
zk kiszámításához tulajdonképpen egy el®rehelyettesítést kell csinálni és uk kiszámításához visszahelyettesítés
kell. Lehet más fajta iterációt is el®állítani:
xk+1 = xk + D−1 rk
A D−1 jelentsen valamilyen diagonális mátrixot. A következ® közelítés legyen olyan, hogy vesszük az xk -t és
adjunk hozzá korrekciót, azaz vesszük az rk vektor komponenseit és megszorozzuk egy-egy számmal ®ket, ezt
jelenti a D−1 rk kifejezés. Ilyen értelemben próbálnánk csökkenteni a hibát. Olyat csinálhatnánk, hogy ahol
rk -ban nagy volt a hiba ott D-ben egy nagy szorzót vennénk és akkor azt a komponensét a hibának ilyen módon
66
KEREKÍTÉSI HIBA AZ ITERÁCIÓS MÓDSZEREKNÉL 67
csökkentenénk. Ha azt mondanánk, hogy ez a D legyen az A mátrix diagonálisában lév® elemekb®l álló mátrix,
akkor a J-módszert kapnánk más formában.
xk+1 = D−1 (L + R)xk + D−1 a A=D−L−R
= xk − D−1 (Axk − a)
= xk + D−1 rk
Ez nem más, mint a J(ω)-módszer. Tehát látszik, hogy a reziduum1 fogalomból kiindulva, le lehet vezetni
többféle iterációs módszert, részben a korábban megismerteket is. Amit mi felírunk az iterációs módszereknél
az csak elméletben igaz. A gyakorlatban itt is történik kerekítési hiba.
tehát a gyakorlat úgy néz ki, mint ha az eredeti formulával számolnánk csak minden lépésben rárakódik valam-
ilyen kerekítési hiba (jelen esetben dk ).
Tegyük fel, hogy ||dk || < δ minden k-ra. A kiindulási feltételünk legyen ugyanaz:
z0 = x0
A kerekítési hiba hatásánál a z k − xk különbségre vagyunk kíváncsiak (méginkább egy fels® korlátjára):
def
||fk || = ||z k − xk || <?
f k+1 = z k+1 − xk+1 = Bf k + dk
Úgy lehetne egyszer¶síteni a dolgokat, ha azt mondanánk, hogy a d-knél az indext®l szabaduljunk meg. Mondjuk
azt, hogy ezekre a kerekítési hibavektorokra van valamilyen k-tól független globális hibakorlátunk. Erre szolgál
a ||dk || < δ feltétel az eszmefuttatás elején. Így már mondhatjuk a következ®ket:
||f 1 || ≤ δ
||f k+1 || ≤ ||B|| ||f k || + δ
||f 2 || ≤ ||B||δ + δ
||f k || ≤ (||B||k + ||B||k−1 + · · · + ||B|| + 1)δ
||B||k+1 1 − ||B||k+1
||f k || ≤ δ= δ
||B|| − 1 1 − ||B||
1 Bakos bácsi szerint maradékot jelent, a Matematikai kislexion már érdekesebb véleményen van: valamely f komplex függvény
egy z0 izolált szinguláris pontjához tartozó1 ésR res[f, z0 ]-lal jelölt reziduumán az f függvény "z0 körüli" Laurent sorában a −1-edik
hatvány együtthatóját, vagyis a c−1 = 2πi c f (ζ)d(ζ) komplex számot értjük, ahol a C görbén és annak belsejében z0 -on kívül
minden pont f reguláris pontja (a szerk.)
KONDÍCIÓSZÁM 68
Abban az esetben, ha vesszük az elméleti iterációt és tudjuk, hogy B normája kisebb mint 1, akkor már
elméletben iterálna. A gyakorlati konvergenciához azt kellene nézni, hogy:
||z k − x∗ || = || (z k − xk ) + (xk − x∗ ) ||
| {z } | {z }
fk ek
≤ ||f k || + ||ek ||
1 − ||B||k+1 ||B||k+1
≤ δ+ ||b||
1 − ||B|| 1 − ||B||
Tehát a gyakorlatban számolt zk sorozatra ilyen korlátot lehet adni.
14.3 Kondíciószám
14.2 Deníció. Tetsz®leges reguláris T mátrix esetén a k(T ) def
= ||T || ||T ||−1 -t a T mátrix (||.|| normára
vonatkozó) kondíciószámnak nevezzük. Ha T nem reguláris legyen k(T ) = ∞.
Mindig olyan normát használunk, ami nekünk kényelmes (1-es, 2-es, végtelen, Frobénius norma). Általában
minden egyes norma esetén más-más szám lesz. De látszik a képletekb®l, hogy bizonyos értélemben jellemzi a
lienáris algebrai problémákat az, hogy ez a szám mekkora. Tekintsük a következ® problémákat:
Ax = a
Ax = I
(A − λI)x = 0
mind a három feladatosztálynál meg lehet mutatni, hogy az A mátrix kondíciószáma a dönt®. Mi inkább csak
az els®r®l fogunk beszélni, de el®bb a kondíciószám tulajdonságait vizsgálgatjuk.
14.3 Állítás. Ha ||.|| norma származtatott norma, akkor a kondíciószám nagyobb egyenl® mint 1 (1 ≤ k(T )).
Bizonyítás. Itt reguláris mátrixról beszéltünk. Felírjuk az egységmátrixot:
1 = ||I|| = ||T T −1 || ≤ ||T || ||T −1 || = k(T )
A sajátértékekr®l is érdemes szót ejteni, mivel láttuk, hogy a lineáris egyenletrendszereknél konvergenciánál
is komoly szerepe van. Lehet különböz® becsléseket megadni a kondíciószámra melyekben sajátértékek szere-
pelnek.
14.4 Állítás.
max |λi |
1≤i≤n
k(T ) ≥
min |λi |
1≤i≤n
Úgy lehet ezt az állítást olvasni, hogy ha van egy olyan T mátrixunk aminek vannak nagyon nagy és nagyon
kicsi abszolút érték¶ sajátértékei, akkor annak a kondíciószáma is nagy lesz. Minél nagyobb a kondíciószám
annál gyengébben meghatározott a feladat, annál jobban elbillenhet különböz® hibaforrások hatására.
Következ® kérdés az lenne, ha valamilyen transzformációt hajtunk végre a T mátrixon, akkor hogyan változik
a kondíciószám. Ha kettes normával dolgozunk és ortogonális transzformációt csinálunk, akkor nem romlik a
helyzet. Ugyan ez a helyzet ortogonális hasonlósági transzformáció esetén.
PERTURBÁCIÓ 69
14.4 Perturbáció
Van egy lineáris egyenletrendszerünk és valahogy megváltoztatjuk, akkor hogyan változik a megoldása. Gyengén
meghatározott egy egyenletrendszer, ha csak egy kicsit változtatunk rajta, akkor nagyon megváltozik a megoldás.
Legyen x∗ az eredeti egyenletrendszer megoldása x̃ a perturbált egyenletrendszer megoldása.
Ax∗ = a (eredeti egyenletrendszer)
(A + F )x̃ = a + g (perturbált egyenletrendszer)
||x∗ −x̃||
Az abszolút hibára ||x∗ − x̃|| <? és a relatív hibára ||x∗ || <? lennénk kíváncsiak. Feltéve, hogy mind az A
mind az F reguláris az inverzekkel átszorozhatunk.
x∗ − x̃ = A−1 a − (A + F )−1 (a + g) = (A + F )−1 ((A + F )A−1 a − a − g)
= (A + F )−1 (F A−1 a − g) = (A + F )−1 (F x∗ − g)
1 = ||I|| = ||(I + A)C|| = ||C − AC|| ≥ ||C|| − ||A|| ||C|| = (1 − ||A||)||C|| = (1 − ||A||)||(I + A)−1 ||
Bizonyítás.
||(A + F )−1 || = ||(A(I + A−1 F ))−1 || = ||(I + A−1 F )−1 A−1 || ≤ ||(I + A−1 F )−1 || ||A−1 ||
1 ||A−1 ||
≤ −1
||A−1 || ≤
1 − ||A F || 1 − ||A−1 || ||F ||
||F || ||g||
k(A)
= +
1 − k(A) ||F || ||A|| ||a||
||A||
Tárgymutató
k -dik közelítés hibája, 56 iterációs módszer, 56
tr, 34 iterációs sorozat, 56
iterációs vektorsorozat, 56
általánosított trianguláris felbontás, 22
elemi hasonlósági transzformáció, 37 J(ω)-módszer, 59
J-módszer, 58
abszolút hiba, 3 Jacobbi-féle túlrelaxációs módszer, 59
abszolút hibakorlát, 3 Jacobbi-iteráció, 58
alsó Hessenberg mátrix, 4 Jordan-elimináció, 9
alsó tringuláris mátrix, 3
közelítés hibája, 3
bels® szorzat, 11 küls® szorzat, 11
bidiagonális mátrix, 22 kanonikus felbontás, 28
blokk, 14 karakterisztikus polinom, 33
diadikus szorzat, 11 kompatibilis (norma), 44
diagonális dominancia, 5 kondíciószám, 67
diagonális mátrix, 3 konjugált transzponált mátrix, 35
diagonizálható (mátrix), 34 konvergencia (mátrixsorozatoké), 48
konvergencia (vektorsorozatoké), 47
egyenletrendszerek ekvivalenciája, 6 kvázi diagonális, 16
ekvivalencia (vektornormáké), 45 kvázi trianguláris, 16
elemi hasonlósági transzformációval triangula rizálás,
37 LR algoritmus, 19
elemi mátrix átalakítások, 6 LR alkalmazásai, 21
elemi permutációs mátrix, 12 LR egzisztenciája, 16
eliminációs mátrix, 11 LR unicitása, 16
er®sen reguláris (mátrix), 58 LR-felbontás, 16
Gauss-elimináció, 7 oszlopnorma, 44
Gauss-elimináció m¶veletigénye, 8
Gersgorin-tétel, 50 p-norma, 42
gyöktényez®s alak (karakterisztikus polinom), 33 p-reguláris szétvágás, 63
partícionálás, 14
hasonló (két mátrix), 34 permutációs mátrix, 12
hasonlósági transzformáció, 34 pozitiv denit, 39
hatvány módszer, 52 preturbáció, 68
hermetikus mátrix, 39
hibavektor, 56 reguláris szétvágás, 58
homogén rendszer, 5 relatív hibakorlát, 3
71
PERTURBÁCIÓ 72
S-módszer, 59
sajátérték, 33
sajátérték multiplicitása, 34
sajátvektor, 33
Schur-féle normálforma, 36
Seidel-iteráció, 59
skalár szorzat, 11
sornorma, 44
spektrálnorma, 44
spektrálsugár, 44
származtatott mátrixnorma, 43
Szukszecesszív túlrelaxációs módszer, 59
trace, 34
triangulizálható, 34
tridiagonális mátrix, 22
unitér mátrix, 35
vektornorma, 41